JP2020017215A - 電子機器、制御プログラム及び表示制御方法 - Google Patents

電子機器、制御プログラム及び表示制御方法 Download PDF

Info

Publication number
JP2020017215A
JP2020017215A JP2018141626A JP2018141626A JP2020017215A JP 2020017215 A JP2020017215 A JP 2020017215A JP 2018141626 A JP2018141626 A JP 2018141626A JP 2018141626 A JP2018141626 A JP 2018141626A JP 2020017215 A JP2020017215 A JP 2020017215A
Authority
JP
Japan
Prior art keywords
display
electronic device
screen
control unit
target surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018141626A
Other languages
English (en)
Other versions
JP7244231B2 (ja
Inventor
茂輝 田辺
Shigeki Tanabe
茂輝 田辺
上野 泰弘
Yasuhiro Ueno
泰弘 上野
英樹 森田
Hideki Morita
英樹 森田
功 益池
Isao Masuike
功 益池
浩太郎 山内
Kotaro Yamauchi
浩太郎 山内
学 佐久間
Manabu Sakuma
学 佐久間
健史 島田
Takeshi Shimada
健史 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2018141626A priority Critical patent/JP7244231B2/ja
Priority to US16/521,482 priority patent/US11354031B2/en
Publication of JP2020017215A publication Critical patent/JP2020017215A/ja
Application granted granted Critical
Publication of JP7244231B2 publication Critical patent/JP7244231B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Abstract

【課題】電子機器の利便性を向上することが可能な技術を提供する。【解決手段】電子機器は、表示面と、第1センサと、第2センサと、制御部とを備える。第1センサは、検出対象面を有し、当該検出対象面をさわる指の指紋を検出する。第2センサは、検出対象面にかかる圧力を検出する。制御部は、第1センサでの第1検出結果に基づいて検出対象面に対する指の操作を特定する。制御部は、第2センサでの第2検出結果に基づいて検出対象面にかかる圧力を特定する。制御部は、特定した操作及び圧力に基づいて表示面での第1画面の表示を制御する。【選択図】図6

Description

本開示は、電子機器に関する。
特許文献1及び2に記載されているように、電子機器に関して様々な技術が提案されている。
国際公開第2011/067845号 特開2013−114645号公報
電子機器については、その利便性の向上が望まれている。
そこで、本発明は上述の点に鑑みて成されたものであり、電子機器の利便性を向上することが可能な技術を提供することを目的とする。
電子機器、制御プログラム及び表示制御方法が開示される。一の実施の形態では、電子機器は、表示面と、第1センサと、第2センサと、制御部とを備える。第1センサは、検出対象面を有し、当該検出対象面をさわる指の指紋を検出する。第2センサは、検出対象面にかかる圧力を検出する。制御部は、第1センサでの第1検出結果に基づいて検出対象面に対する指の操作を特定する。制御部は、第2センサでの第2検出結果に基づいて検出対象面にかかる圧力を特定する。制御部は、特定した操作及び圧力に基づいて表示面での第1画面の表示を制御する。
また、一の実施の形態では、制御プログラムは、電子機器を制御するための制御プログラムである。制御プログラムは、電子機器が有する検出対象面をさわる指の指紋を検出する第1センサでの第1検出結果に基づいて検出対象面に対する指の操作を特定する第1処理と、検出対象面にかかる圧力を検出する第2センサでの第2検出結果に基づいて当該圧力を特定する第2処理と、特定された操作及び圧力に基づいて、電子機器が有する表示面でのある画面の表示を制御する第3処理とを、電子機器に実行させるためのものである。
また、一の実施の形態では、表示制御方法は、電子機器での表示制御方法である。表示制御方法は、電子機器が有する検出対象面をさわる指の指紋を検出する第1センサでの第1検出結果に基づいて検出対象面に対する指の操作を特定し、検出対象面にかかる圧力を検出する第2センサでの第2検出結果に基づいて当該圧力を特定し、特定された操作及び圧力に基づいて、電子機器が有する表示面でのある画面の表示を制御する。
電子機器の利便性が向上する。
電子機器の外観の一例を示す正面図である。 電子機器の外観の一例を示す背面図である。 電子機器の外観の一例を示す側面図である。 ユーザの電子機器の操作例を示す図である。 ユーザの電子機器の操作例を示す図である。 電子機器の構成の一例を示すブロック図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 ユーザの電子機器の操作例を示す図である。 ユーザの電子機器の操作例を示す図である。 ユーザの電子機器の操作例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を説明するための図である。 ユーザの電子機器の操作例を示す図である。 ユーザの電子機器の操作例を示す図である。 ユーザの電子機器の操作例を示す図である。 電子機器の動作の一例を示すフローチャートである。 ユーザの電子機器の操作例を示す図である。 ユーザの電子機器の操作例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を示すフローチャートである。 電子機器の構成の一例を示すブロック図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。
<電子機器の外観の一例>
図1〜3は電子機器1の外観の一例を示す正面図、背面図及び側面図である。電子機器1は、例えばスマートフォン等の携帯電話機である。図1〜3に示されるように、電子機器1は、平面視で略長方形の板状の機器ケース11を備えている。機器ケース11は電子機器1の外装を構成している。
機器ケース11の前面11aには、言い換えれば電子機器1の前面には、文字、記号及び図形等の各種情報が表示される表示面121が位置している。表示面121の背面側には後述するタッチパネル130が位置している。これにより、ユーザは、電子機器1の前面の表示面121を指等で操作することによって、電子機器1に対して各種情報を入力することができる。なお、ユーザは、指以外の操作子、例えば、スタイラスペンなどのタッチパネル用ペンで表示面121を操作することによっても、電子機器1に対して各種情報を入力することができる。
機器ケース11の前面11aの上端部にはレシーバ穴12及び近接センサ220が位置している。機器ケース11の前面11aの上端部からは、後述する第1カメラ180が有するレンズ181が視認可能となっている。機器ケース11の前面11aの下端部には、スピーカ穴13が位置している。図2に示されるように、機器ケース11の背面11bの上端部、言い換えれば電子機器1の背面の上端部からは、後述する第2カメラ190が有するレンズ191が視認可能となっている。機器ケース11の下側の側面11dにはマイク穴が位置している。
電子機器1は、複数の操作ボタンから成る操作ボタン群140(図6参照)を備える。各操作ボタンは、例えばハードウェアボタンであって、機器ケース11の表面に位置する。各操作ボタンは、例えば押しボタンである。操作ボタン群140には、機器ケース11の前面11aの下端部に位置する操作ボタン141〜143が含まれる。
操作ボタン141は例えばバックボタンとして機能する。バックボタンは、表示面121の表示を一つ前の表示に切り替えるための操作ボタンである。ユーザが操作ボタン141を押すことによって、表示面121の表示が一つ前の表示に切り替わる。
操作ボタン142は例えばホームボタンとして機能する。ホームボタンは、表示面121にホーム画面を表示させるための操作ボタンである。ユーザが操作ボタン142を押すことによって、表示面121にホーム画面が表示される。
操作ボタン143は、例えば履歴ボタンとして機能する。履歴ボタンは、電子機器1で実行されたアプリケーションの履歴を表示面121に表示させるための操作ボタンである。ユーザが操作ボタン143を押すことによって、表示面121には、電子機器1で実行されたアプリケーションの履歴が表示される。
また操作ボタン群140には電源ボタン144が含まれる。図3に示されるように、電源ボタン144は、機器ケース11の右側の側面11cに位置している。本明細書では、右側と言えば、特に断らない限り、表示面121を見た場合の右側を意味する。また、左側と言えば、特に断らない限り、表示面121を見た場合の左側を意味する。操作ボタン群140には、操作ボタン141〜143及び電源ボタン144以外の操作ボタンが含まれてもよい。例えば、操作ボタン群140には、ボリュームボタンが含まれてもよい。
本例では、電源ボタン144における、機器ケース11から露出する露出面が、指紋センサ200(図6参照)の検出対象面201となっている。検出対象面201は、電子機器1の表面から露出している。指紋センサ200は、検出対象面201をさわる指の指紋を検出することが可能である。検出対象面201は検出対象領域201であるとも言える。
電子機器1のユーザは、電子機器1を片手に持った状態で、電子機器1を持つ手の指で検出対象面201をさわることができる。図4は、その様子の一例を示す図である。図4には、ユーザが、右手20で電子機器1を持った状態で、右手20の親指20aで検出対象面201をさわる様子が示されている。
なお検出対象面201は、電子機器1の表面における、電源ボタン144の露出面とは別の領域に位置してもよい。例えば、図5に示されるように、検出対象面201は、機器ケース11の背面11bに位置してもよい。図5の場合、ユーザは、例えば、右手20で電子機器1を持った状態で、右手20の人差し指20bで検出対象面201をさわることができる。また、検出対象面201は、機器ケース11の前面11aに位置してもよい。
<電子機器の電気的構成の一例>
図6は電子機器1の電気的構成の一例を主に示すブロック図である。図6に示されるように、電子機器1は、制御部100、無線通信部110、表示部120、タッチパネル130、操作ボタン群140及び近接センサ220を備える。さらに電子機器1は、レシーバ150、スピーカ160、マイク170、第1カメラ180、第2カメラ190、指紋センサ200、加速度センサ210及び電池250を備える。電子機器1が備えるこれらの構成要素は、機器ケース11内に収められている。
制御部100は、電子機器1の他の構成要素を制御することによって、電子機器1の動作を統括的に管理することが可能である。制御部100は制御装置あるいは制御回路とも言える。制御部100は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。
種々の実施形態によれば、少なくとも1つのプロセッサは、単一の集積回路(IC)として、または複数の通信可能に接続された集積回路(IC)及び/またはディスクリート回路(discrete circuits)として実行されてもよい。少なくとも1つのプロセッサは、種々の既知の技術に従って実行されることが可能である。
1つの実施形態において、プロセッサは、例えば、関連するメモリに記憶された指示を実行することによって1以上のデータ計算手続又は処理を実行するように構成された1以上の回路又はユニットを含む。他の実施形態において、プロセッサは、1以上のデータ計算手続き又は処理を実行するように構成されたファームウェア(例えば、ディスクリートロジックコンポーネント)であってもよい。
種々の実施形態によれば、プロセッサは、1以上のプロセッサ、コントローラ、マイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)、デジタル信号処理装置、プログラマブルロジックデバイス、フィールドプログラマブルゲートアレイ、またはこれらのデバイス若しくは構成の任意の組み合わせ、または他の既知のデバイス及び構成の組み合わせを含み、以下に説明される機能を実行してもよい。
本例では、制御部100は、CPU(Central Processing Unit)101、DSP(Digital Signal Processor)102及び記憶部103を備える。記憶部103は、ROM(Read Only Memory)及びRAM(Random Access Memory)などの、CPU101及びDSP102が読み取り可能な非一時的な記録媒体を含む。記憶部103が有するROMは、例えば、不揮発性メモリであるフラッシュROM(フラッシュメモリ)である。記憶部103には、電子機器1を制御するための複数の制御プログラム103a等が記憶されている。制御部100の各種機能は、CPU101及びDSP102が記憶部103内の各種制御プログラム103aを実行することによって実現される。
なお、制御部100の構成は上記の例に限られない。例えば、制御部100は、複数のCPU101を備えてもよい。また制御部100は、DSP102を備えなくてもよいし、複数のDSP102を備えてもよい。また、制御部100の全ての機能あるいは制御部100の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。また記憶部103は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶部103は、例えば、小型のハードディスクドライブ及びSSD(Solid State Drive)などを備えていてもよい。
記憶部103内の複数の制御プログラム103aには、様々なアプリケーション(つまり、アプリケーションプログラム)が含まれている。記憶部103には、例えば、音声通話及びビデオ通話を行うための通話アプリケーション、ウェブサイトを表示するためのブラウザ、地図を表示するための地図アプリケーション、電子メールの作成、閲覧及び送受信を行うためのメールアプリケーションが記憶されている。また記憶部103には、第1カメラ180及び第2カメラ190を利用して被写体を撮影するためのカメラアプリケーション、記憶部103に記録されている静止画及び動画を表示するための記録画像表示アプリケーション、記憶部103に記憶されている音楽データの再生制御を行うための音楽再生制御アプリケーションなどが記憶されている。記憶部103内の少なくとも一つのアプリケーションは、記憶部103内にあらかじめ記憶されているものであってよい。また、記憶部103内の少なくとも一つのアプリケーションは、電子機器1が他の装置からダウンロードして記憶部103内に記憶したものであってよい。
無線通信部110は、アンテナ111を有している。無線通信部110は、アンテナ111を用いて、例えば複数種類の通信方式で無線通信することが可能である。無線通信部110の無線通信は、制御部100によって制御される。
無線通信部110は、携帯電話システムの基地局と無線通信することが可能である。無線通信部110は、当該基地局及びインターネット等のネットワークを通じて、電子機器1とは別の携帯電話機及びウェブサーバ等と通信することが可能である。電子機器1は、他の携帯電話機等と、データ通信、音声通話及びビデオ通話等を行うことが可能である。
また無線通信部110は、WiFi等の無線LAN(Local Area Network)を用いて無線通信を行うことが可能である。また無線通信部110は、近距離無線通信を行うことが可能である。例えば、無線通信部110は、Bluetooth(登録商標)に準拠して無線通信することが可能である。無線通信部110は、ZigBee(登録商標)及びNFC(Near Field Communication)の少なくとも一方に準拠して無線通信することが可能であってもよい。
無線通信部110は、アンテナ111で受信した信号に対して増幅処理等の各種処理を行い、処理後の受信信号を制御部100に出力する。制御部100は、入力される受信信号に対して各種処理を行って、当該受信信号に含まれる情報を取得する。また、制御部100は、情報を含む送信信号を無線通信部110に出力する。無線通信部110は、入力される送信信号に対して増幅処理等の各種処理を行って、処理後の送信信号をアンテナ111から無線送信する。
表示部120は、電子機器1の前面に位置する表示面121と、表示パネル122とを備えている。表示部120は、表示面121に各種情報を表示することが可能である。表示パネル122は、例えば、液晶表示パネルあるいは有機EL(Electroluminescence)パネルである。表示パネル122は、制御部100によって制御されることによって、文字、記号及び図形などの各種情報を表示することが可能である。表示パネル122は、機器ケース11内において表示面121と対向している。表示パネル122に表示される情報は表示面121に表示される。
タッチパネル130は、表示面121に対する指等の操作子による操作を検出することが可能である。タッチパネル130は、表示面121に対する操作入力を検出する検出部であるとも言える。タッチパネル130はタッチセンサとも言える。タッチパネル130は、例えば、投影型静電容量方式のタッチパネルである。タッチパネル130は、例えば、表示面121の裏側に位置する。ユーザが指等の操作子によって表示面121に対して操作を行ったとき、その操作に応じた電気信号をタッチパネル130は制御部100に入力することが可能である。制御部100は、タッチパネル130からの電気信号(出力信号)に基づいて、表示面121に対して行われた操作の内容を特定することが可能である。そして制御部100は、特定した操作内容に応じた処理を行うことが可能である。これにより、制御部100は、タッチパネル130で検出された操作に応じた処理を行うことが可能である。なお、表示パネル122及びタッチパネル130の代わりに、タッチパネルが組み込まれたインセル型の表示パネルが採用されてもよい。この場合には、当該表示パネルは、表示面121に対する操作入力を検出するセンサとしても機能する。
操作ボタン群140の各操作ボタンは、ユーザによって操作されると、操作されたことを示す操作信号を制御部100に出力することが可能である。これにより、制御部100は、各操作ボタンについて、当該操作ボタンが操作されたか否かを判断することができる。操作信号が入力された制御部100が他の構成要素を制御することによって、電子機器1では、操作された操作ボタンに割り当てられている機能が実行される。
マイク170は、電子機器1の外部から入力される音を電気的な音信号に変換して制御部100に出力することが可能である。電子機器1の外部からの音は、マイク穴から電子機器1の内部に取り込まれてマイク170に入力される。
スピーカ160は、例えばダイナミックスピーカである。スピーカ160は、制御部100からの電気的な音信号を音に変換して出力することが可能である。スピーカ160から出力される音は、スピーカ穴13から外部に出力される。ユーザは、スピーカ穴13から出力される音を、電子機器1から離れた場所でも聞こえることが可能である。
レシーバ150は受話音を出力することが可能である。レシーバ150は例えばダイナミックスピーカである。レシーバ150は、制御部100からの電気的な音信号を音に変換して出力することが可能である。レシーバ150から出力される音はレシーバ穴12から外部に出力される。レシーバ穴12から出力される音の音量は、スピーカ穴13から出力される音の音量よりも小さくなっている。ユーザは、レシーバ穴12から出力される音を、当該レシーバ穴12に耳を近づけることによって聞くことができる。なお、電子機器1は、レシーバ150の代わりに、機器ケース11の前面部分を振動させる、圧電振動素子等の振動素子を備えてもよい。この場合には、音は、当該前面部分の振動によりユーザに伝達される。
第1カメラ180は、レンズ181及びイメージセンサ等を備えている。第2カメラ190は、レンズ191及びイメージセンサ等を備えている。第1カメラ180及び第2カメラ190のそれぞれは、制御部100による制御に基づいて被写体を撮影し、撮影した被写体を示す静止画あるいは動画を生成して制御部100に出力することが可能である。
第1カメラ180のレンズ181は、機器ケース11の前面11aから視認可能となっている。したがって、第1カメラ180は、電子機器1の前面側(言い換えれば、表示面121側)に存在する被写体を撮影することが可能である。第1カメラ180はインカメラと呼ばれる。一方で、第2カメラ190のレンズ191は、機器ケース11の背面11bから視認可能となっている。したがって、第2カメラ190は、電子機器1の背面側に存在する被写体を撮影することが可能である。第2カメラ190はアウトカメラと呼ばれる。
指紋センサ200は、検出対象面201にさわる指の指紋を検出することが可能である。そして、指紋センサ200は、検出した指紋を示す指紋情報を制御部100に出力することが可能である。
ここで、検出対象面201に指がさわることには、検出対象面201に対して指が軽くくっつくことと、検出対象面201を指が押すこと(言い換えれば検出対象面201を指が押圧すること)の両方を含む。したがって、指紋センサ200は、指が検出対象面201に軽くくっついている場合に当該指の指紋を検出することができる。また指紋センサ200は、指によって検出対象面201が押されている場合に当該指の指紋を検出することができる。指紋センサ200は、検出対象面201を指が弱く押す場合であっても、指が強く押す場合であっても、当該指の指紋を検出することができる。指紋センサ200での指紋検出方式は、例えば、静電容量方式である。指紋センサ200での指紋検出方式は、静電容量方式以外の方式であってもよい。例えば、指紋センサ200での指紋検出方式は光学式であってもよい。制御部100は、後述するように、指紋センサ200での指紋検出結果に基づいて処理を行うことが可能である。以後、指紋センサ200で検出された指紋を「検出指紋」と呼ぶことがある。また、指紋センサ200から出力される指紋情報を「検出指紋情報」と呼ぶことがある。また、単に指紋検出結果と言えば、指紋センサ200での指紋検出結果を意味する。
加速度センサ210は、電子機器1の加速度を検出することが可能である。加速度センサ210は例えば3軸加速度センサである。加速度センサ210は、x軸方向、y軸方向及びz軸方向の電子機器1の加速度を検出することが可能である。x軸方向、y軸方向及びz軸方向は、例えば、電子機器1の長手方向、短手方向及び厚み方向にそれぞれ設定される。
近接センサ220は、例えば赤外線方式の近接センサである。近接センサ220は、当該近接センサ220に対して物体が所定距離以内に近接すると検出信号を出力する。この検出信号は制御部100に入力される。近接センサ220は、機器ケース11の前面11a、言い換えれば電子機器1の前面に近づく物体を検出することが可能である。
電池250は電子機器1の電源を出力することが可能である。電池250は例えば充電式の電池である。電池250から出力される電源は、電子機器1が備える制御部100及び無線通信部110などの各種構成に対して供給される。
なお電子機器1は、タッチセンサ130、指紋センサ200、加速度センサ210及び近接センサ220以外のセンサを備えてもよい。例えば、電子機器1は、気圧センサ、地磁気センサ、温度センサ、照度センサ、ジャイロセンサ及び位置検出センサの少なくとも一つを備えてもよい。
<電子機器の動作モードの一例>
電子機器1は多数の動作モードを有している。電子機器1の動作モードには、例えば、通常モード、スリープモード及びシャットダウンモードが含まれる。シャットダウンモードでは、電子機器1がシャットダウンし、電子機器1のほとんどの機能が停止する。スリープモードでは、電子機器1における、表示機能を含む一部の機能が停止する。通常モードは、電子機器1がスリープモード及びシャットダウンモード以外で動作している状態を意味する。制御部100が、設定すべき動作モードに応じて電子機器1の所定の構成を制御することによって、電子機器1の動作モードが設定される。
スリープモードでは、例えば、表示パネル122、タッチパネル130、第1カメラ180及び第2カメラ190等を含む電子機器1の一部の構成が動作しない。シャットダウンモードでは、表示パネル122、タッチパネル130、第1カメラ180及び第2カメラ190等を含む電子機器1のほとんどの構成が動作しない。スリープモードでは、通常モードよりも電子機器1の消費電力が低減する。シャットダウンモードでは、スリープモードよりも電子機器1の消費電力が低減する。スリープモード及びシャットダウンモードでは、表示面121は非表示状態となる。
本例では、通常モードにおいて、電源ボタン144が長時間押されると、通常モードからシャットダウンモードに遷移させるか否かをユーザに確認するための確認画面が表示面121に表示される。表示面121に確認画面が表示されている状態において、ユーザが表示面121に対して所定の操作を行うと、通常モードからシャットダウンモードに遷移する。
また通常モードにおいて、電子機器1に対して一定時間以上操作が行われなければ、通常モードからスリープモードに遷移する。また、通常モードにおいて、電源ボタン144が短時間押されると、通常モードからスリープモードに遷移する。
一方で、スリープモードにおいて、電源ボタン144が短時間押されたとき、スリープモードから通常モードに遷移する。つまり、スリープモードにおいて、電源ボタン144が短時間押されたとき、電子機器1では、スリープモードに遷移するときに停止された機能が復帰する。本例では、通常モードには、後述するロックモードが含まれている。スリープモードにおいて、電源ボタン141が短時間押されたとき、スリープモードからロックモードに遷移する。また、後述するように、スリープモードにおいて、ユーザ認証に成功したとき、スリープモードから通常モードに遷移する。
なお、以下に説明する、シャットダウンモード及びスリープモード以外の電子機器1の動作モードは、特に説明しなくても、通常モードに含まれる。また、単に動作モードと言えば、電子機器1の動作モードを意味する。
<表示面に表示される画面の一例>
通常モードにおいては、様々な画面が表示面121に表示される。表示面121に表示される画面は、表示面121に表示される画像であるとも言える。表示面121には、例えば、ホーム画面及びロック画面が表示される。図7はロック画面300の一例を示す図である。図8はホーム画面400の一例を示す図である。
図7に示されるように、ロック画面300には、例えば、現在の時刻301と、現在の日付302と、現在の曜日303とが示される。
ここで、通常モードには、記憶部103内の複数のアプリケーションのうち、特定のアプリケーション(例えば通話アプリケーション及びカメラアプリケーション)以外のアプリケーションを、ユーザが電子機器1に実行させることができないロックモードが含まれる。ロックモードは、画面ロックモードとも呼ばれる。ロックモードでは、ユーザは、記憶部103内の複数のアプリケーションのうち、特定のアプリケーション以外の各アプリケーションについて、当該アプリケーションの実行を電子機器1に指示することができない。ロック画面300は、電子機器1がロックモードであることを通知する画面であって、動作モードがロックモードのときに表示面121に表示される。なお、ロックモードでは、記憶部103内のすべてのアプリケーションをユーザが電子機器1に実行させることができなくてもよい。
スリープモードにおいて、電源ボタン144が短時間押されたとき、スリープモードが解除されて、動作モードはロックモードとなる。これにより、表示面121にロック画面300が表示される。表示面121がロック画面300を表示している場合に、ユーザが電子機器1に対して所定の操作を行うと、電子機器1ではロックモードが解除されて、表示面121の表示はロック画面300から他の画面、例えばホーム画面400(図8参照)に遷移する。以後、通常モードにおいて、ロックモードが解除されている状態を「非ロックモード」と呼ぶことがある。
また、ロック画面300だけに限らず、表示面121に表示される各画面には、電子機器1の状態を通知する通知領域500が含まれる。通知領域500は、ステータスバーとも呼ばれる。図7に示されるように、ロック画面300に含まれる通知領域500には、例えば、通信状態を示すアイコン(言い換えれば図形)501と、電池残量を示すアイコン502とが含まれる。一方で、ホーム画面400に含まれる通知領域500には、図8に示されるように、例えば、アイコン501及び502と、現在時刻を示すアイコン503とが含まれる。
また、電子機器1において特定のイベントが発生すると、通知領域500には、発生したイベントに関する情報が示される。当該情報には、例えば、新しい電子メールの受信を通知するアイコン及び不在着信を通知するアイコンなどが含まれる。
図8に示されるように、ホーム画面400には、記憶部103内のアプリケーションに対応し、対応するアプリケーションの実行を電子機器1に指示するためのアイコン405が示される。図8の例では、ホーム画面400に10個のアイコン405が示されている。ユーザは、アイコン405に対して所定の操作(例えばタップ操作)を行うことによって、当該アイコン450を選択することができる。制御部100は、選択されたアイコン405に対応するアプリケーションを記憶部103から読み出して実行する。つまり、制御部100は、タッチパネル130がアイコン405に対する所定の操作を検出すると、当該アイコン405に対応するアプリケーションを記憶部103から読み出して実行する。これにより、ユーザは、アイコン405を操作することによって当該アイコン405を選択し、選択したアイコン405に対応するアプリケーションを電子機器1に実行させることができる。例えば、ユーザが、ブラウザに対応するアイコン405をタップ操作すると、電子機器1ではブラウザが実行される。またユーザが、カメラアプリケーションに対応するアイコン405をタップ操作すると、電子機器1ではカメラアプリケーションが実行される。
ホーム画面400は、例えば複数のページで構成されている。図8には、ホーム画面400のあるページが示されている。各ページにはアイコン405が示される。ホーム画面400を構成する複数のページは仮想的に左右方向に並べられている。ユーザが表示面121に対して左右方向のフリック操作あるいはスライド操作を行うと、表示面121には、隣のページが表示される。フリック操作は、指等の操作子が操作対象面を払う操作である。スライド操作は、指等の操作子が、操作対象面をさわった状態で、移動して停止する操作である。スライド操作はスワイプ操作とも呼ばれる。ホーム画面400の各ページは、表示面121に表示される一種の画面であると言える。
<指紋認証の一例>
動作モードが通常モードである場合、制御部100は、検出指紋情報に基づいて指紋認証を行うことが可能である。この指紋認証は、指紋検出結果に基づくユーザ認証であると言える。制御部100は、指紋認証を行う際、検出指紋情報、つまり、指紋センサ200で検出された指紋を示す指紋情報と、記憶部103に記憶されている基準指紋情報とを比較する。基準指紋情報は、正規ユーザ(例えば電子機器1の所有者)の指紋を示す指紋情報である。制御部100は、検出指紋情報と基準指紋情報とを比較した結果、両者が類似する場合には、指紋認証が成功であると判定する。つまり、制御部100は、検出指紋情報と基準指紋情報とが類似する場合には、指紋センサ200が検出した指紋を有するユーザが正規ユーザであると判定する。一方で、制御部100は、検出指紋情報と基準指紋情報とが類似しない場合には、指紋認証に失敗したと判定する。つまり、制御部100は、指紋センサ200が検出した指紋を有するユーザが非正規ユーザであると判定する。
通常モードには、指紋センサ200で検出される指紋を示す指紋情報を基準指紋情報として電子機器1に登録するための指紋登録モードが含まれる。電子機器1は、非ロックモードにおいて、表示面121に対して所定の操作が行われると、指紋登録モードで動作する。指紋登録モードにおいて、正規ユーザが自身の手の指(詳細には指の腹)で検出対象面201をさわるとき、指紋センサ200はその指の指紋を検出し、検出した指紋を示す指紋情報を出力する。電子機器1が指紋登録モードで動作するときには、正規ユーザは、例えば、自身の手の指の腹のうち、検出対象面201にさわる部分を変えながら、当該指の腹で検出対象面201を複数回さわる。これにより、指紋センサ200は、正規ユーザの指の指紋を複数回検出する。つまり、指紋センサ200は、正規ユーザの指紋を示す検出指紋情報を複数回出力する。制御部100は、指紋センサ200から複数回出力される検出指紋情報をまとめて基準指紋情報として記憶部103に記憶する。これにより、正規ユーザの指紋を示す基準指紋情報が電子機器1に登録される。
なお記憶部103には、複数の基準指紋情報が記憶されることもある。記憶部103内の複数の基準指紋情報には、例えば、同じ正規ユーザについての複数本の指の指紋をそれぞれ示す複数の基準指紋情報が含まれることがある。また、記憶部103内の複数の基準指紋情報には、例えば、互いに異なる複数の正規ユーザ(例えば家族を構成する複数のユーザ)の指の指紋をそれぞれ示す複数の基準指紋情報が含まれることがある。記憶部103に複数の基準指紋情報が記憶される場合には、制御部100は、検出指紋情報と、記憶部103内の複数の基準指紋情報のそれぞれとを比較する。その結果、制御部100は、複数の基準指紋情報の中に、検出指紋情報と類似するものがある場合には、指紋認証が成功したと判定する。一方で、制御部100は、複数の基準指紋情報の中に、検出指紋情報と類似するものが無い場合には、指紋認証が失敗したと判定する。
<指紋認証の利用方法の一例>
ユーザは、制御部100で行われる指紋認証を様々な場面で利用することができる。例えば、ユーザは、電子機器1にアプリケーションを提供するサーバ装置からアプリケーションをダウンロードさせたい場合に、指紋認証を利用することができる。例えば、アプリケーションを提供するサーバ装置と通信する電子機器1は、制御部100が指紋認証に成功した場合には、当該サーバ装置からアプリケーションをダウンロードする。一方で、電子機器1は、制御部100が指紋認証に失敗した場合には、当該サーバ装置からアプリケーションをダウンロードできない。
またユーザは、電子機器1を利用したクレジットカード決済を行うために、指紋認証を利用することができる。例えば、商品を提供する会社が管理するウェブサイトにアクセスする電子機器1は、制御部100が指紋認証に成功した場合には、ユーザがクレジットカード決済を行う意思があることを、当該会社が管理するサーバ装置等に通知する。一方で、電子機器1は、制御部100が指紋認証に失敗した場合には、ユーザがクレジットカード決済を行う意思があることを当該会社のサーバ装置等には通知しない。
またユーザは、電子機器1にその動作モードをスリープモードから非ロックモードに変更させるために、指紋認証を利用することができる。以下にこの場合の電子機器1の動作の一例について説明する。
制御部100は、動作モードがスリープモードに設定されている場合、指紋センサ200が指紋を検出すると、スリープモードを解除して、動作モードをロックモードに設定する。これにより、表示面121にはロック画面300(図7参照)が表示される。
次に制御部100は、上述のようにして、指紋センサ200の指紋検出結果に基づいて指紋認証を行う。制御部100は、指紋認証が成功すると、ロックモードを解除して、動作モードを非ロックモードに設定する。そして、制御部100は、表示部120に例えばホーム画面400(図8参照)を表示させる。一方で、制御部100は、指紋認証が失敗すると、ユーザ認証が失敗したことを通知する通知情報を表示部120に表示させる。この通知情報は例えばロック画面300に示される。
動作モードがロックモードである場合、ユーザは、検出対象面201を指でさわることによって、電子機器1にその動作モードをロックモードから非ロックモードに変更させることができる。この場合、制御部100は、動作モードがロックモードであるとき、指紋センサ200が指紋を検出すると、指紋センサ200の指紋検出結果に基づいて指紋認証を行う。制御部100は、指紋認証が成功すると、ロックモードを解除して、動作モードを非ロックモードに設定する。そして、制御部100は、表示部120に例えばホーム画面400を表示させる。一方で、制御部100は、指紋認証が失敗すると、ユーザ認証が失敗したことを通知する通知情報を表示部120に表示させる。
<画面の表示の拡大及び縮小について>
本例では、ユーザは、検出対象面201を指で操作することによって、表示面121に表示される画面の表示を電子機器1に拡大及び縮小させることができる。例えば、ユーザは、表示面121に地図が表示されている場合に、検出対象面201を指で操作することによって、地図の表示を電子機器1に拡大及び縮小させることができる。また、ユーザは、表示面121にウェブページが表示されている場合に、検出対象面201を指で操作することによって、ウェブページの表示を電子機器1に拡大及び縮小させることができる。以下に、表示面121に表示される画面の表示が拡大及び縮小される際の電子機器1の動作の一例について説明する。以後、画面と言えば、表示面121に表示される画面を意味する。また、表示処理の対象の画面を対象画面と呼ぶことがある。また、検出対象面201に対する操作と言えば、検出対象面201に対する指の操作を意味する。
本例では、制御部100は、指紋センサ200の指紋検出結果に基づいて、検出対象面201に対する操作を特定することができる。例えば、制御部100は、指紋検出結果に基づいて、検出対象面201に対するスライド操作、フリック操作及びタップ操作を特定することができる。動作モードが通常モードである場合、制御部100は、指紋検出結果に基づいて、検出対象面201に対する所定操作を特定すると、動作モードを、検出対象面201に対する操作に応じて画面の表示を拡大あるいは縮小する拡大縮小モードに設定する。この所定操作を拡大縮小モード設定操作と呼ぶことがある。拡大縮小モード設定操作としては、例えば、タップ操作、ダブルタップ操作あるいはロングタップ操作(言い換えれば長押し操作)などが採用される。
動作モードが拡大縮小モードである場合、制御部100は、指紋検出結果に基づいて、検出対象面201に対する、画面の表示の拡大を指示する拡大操作を特定すると、表示部120を制御して画面の表示を拡大する。また、動作モードが拡大縮小モードである場合、制御部100は、指紋検出結果に基づいて、検出対象面201に対する、画面の表示の縮小を指示する縮小操作を特定すると、表示部120を制御して画面の表示を縮小する。拡大操作としては、例えば、上方向のスライド操作が採用される。縮小操作としては、例えば、下方向のスライド操作が採用される。拡大操作及び縮小操作はこれに限られない。
図9は検出対象面201に対して上方向のスライド操作が行われる様子の一例を示す図である。図10は検出対象面201に対して下方向のスライド操作が行われる様子の一例を示す図である。図9及び10には、右手20で電子機器1を持つユーザが右手20の親指20aで検出対象面201をスライド操作する様子が示されている。
本例では、制御部100は、拡大操作としての上方向のスライド操作のスライド量に応じて画面の表示の拡大率を変化させる。言い換えれば、制御部100は、検出対象面201上での上方向の指の移動量に応じて画面の表示の拡大率を変化させる。制御部100は、上方向のスライド量が大きいほど、画面の表示の拡大率を大きくする。制御部100は、検出対象面201上での指の上方向の移動に応じて画面の表示を徐々に拡大する。ユーザが、検出対象面201上で指を上方向に速く移動させると、画面の表示が速く拡大する。一方で、ユーザが検出対象面201上で指を上方向にゆっくりと移動させると、画面の表示がゆっくりと拡大する。ユーザは、検出対象面201に対して繰り返し拡大操作を行うことによって、電子機器1に、画面の表示を繰り返し拡大させることができる。
また制御部100は、縮小操作としての下方向のスライド操作のスライド量に応じて画面の表示の縮小率を変化させる。言い換えれば、制御部100は、検出対象面201上での下方向の指の移動量に応じて画面の表示の縮小率を変化させる。制御部100は、下方向のスライド量が大きいほど、画面の表示の縮小率を大きくする。制御部100は、検出対象面201上での指の下方向の移動に応じて画面の表示を徐々に縮小する。ユーザが、検出対象面201上で指を下方向に速く移動させると、それに応じて画面の表示が速く縮小する。一方で、ユーザが検出対象面201上で指を下方向にゆっくり移動させると、それに応じて、画面の表示がゆっくりと縮小する。ユーザは、検出対象面201に対して繰り返し縮小操作を行うことによって、電子機器1に、画面の表示を繰り返し縮小させることができる。
制御部100は、検出対象面201に対する拡大操作を特定すると、対象画面の基準点を中心にして対象画面の表示を拡大する。また、制御部100は、検出対象面201に対する縮小操作を特定すると、対象画面の基準点を中心にして対象画面の表示を縮小する。本例では、ユーザは、表示面121を操作することによって、対象画面に対して基準点を指定することができる。動作モードが拡大縮小モードのとき、制御部100は、タッチパネル130での検出結果に基づいて、表示面121に表示される対象画面に対する、基準点を指定する指定操作を特定すると、指定された基準点を中心に対象画面の表示を拡大あるいは縮小する。以後、この指定操作を基準点指定操作と呼ぶことがある。
基準点指定操作としては、例えば、対象画面に対するタップ操作が採用される。制御部100は、対象画面のうち、基準点指定操作としてのタップ操作が行われた位置を基準点に設定する。図11は、対象画面に対して基準点指定操作としてのタップ操作が行われる様子の一例を示す図である。図11の例では、右手20で電子機器1を持つユーザが、左手21の人差し指21aで基準点指定操作としてのタップ操作を行う様子が示されている。
制御部100は、対象画面に対する基準点指定操作を特定した後、検出対象面201に対する拡大操作を特定すると、基準点指定操作で指定された基準点を中心に対象画面の表示を拡大する。このとき、制御部100は、対象画面において指定された基準点が、表示面121における対象画面の表示領域(以後、対象画面表示領域と呼ぶことがある)の中心に位置するように、当該基準点を中心に対象画面を拡大する。また、制御部100は、対象画面に対する基準点指定操作が行われた後、検出対象面201に対する縮小操作が行われると、基準点指定操作で指定された基準点を中心に対象画面の表示を縮小する。このとき、制御部100は、対象画面において指定された基準点が、対象画面表示領域の中心に位置するように、当該基準点を中心に対象画面の表示を縮小する。
図12は、対象画面の表示が拡大される様子の一例を示す図である。図12には、対象画面としての地図600の表示が拡大される様子が示されている。図12の左側には、表示が拡大される前の地図600が示されている。図12の右側には、表示が拡大された後の地図600が示されている。図12では、ユーザによって指定された基準点550が黒い丸印で示されている。この丸印は表示面121に表示されてもよいし、表示されなくてもよい。また図12では、対象画面表示領域の中心560がバツ印で示されている。このバツ印は表示面121に表示されてもよいし、表示されなくてもよい。本例では、表示面121の全領域が対象画面表示領域となっていることから、対象画面表示領域の中心560は表示面121の中心と一致する。なお、表示面121の一部だけが対象画面表示領域となってもよい。
表示面121の表示が図12の左側に示される状態において、検出対象面201に対して拡大操作が行われると(図9参照)、図12の右側に示されるように、地図600に対して指定された基準点550が、対象画面表示領域(つまり、表示面121での地図600の表示領域)の中心560に位置するように、基準点550を中心に地図600の表示が拡大する。
図13は、対象画面の表示が縮小される様子の一例を示す図である。図13の左側には、表示が縮小される前の地図600が示されている。図13の右側には、表示が縮小された後の地図600が示されている。表示面121の表示が図13の左側に示される状態において、検出対象面201に対して縮小操作が行われると(図10参照)、図13の右側に示されるように、地図600に対して指定された基準点550が、表示面121での地図600の表示領域の中心560に位置するように、基準点550を中心に地図600の表示が縮小する。
制御部100は、対象画面の表示を拡大あるいは縮小した後、再度、対象画面の表示を拡大あるいは縮小する場合には、同様にして、基準点が対象画面表示領域の中心に位置するように、対象画面の表示を拡大あるいは縮小する。このとき、基準点が対象画面表示領域の中心に位置している場合には、対象画面の表示は、対象画面表示領域の中心を中心にして拡大あるいは縮小する。また、制御部100は、再度、基準位置指示操作を特定すると、当該基準位置指示操作によって新たに指定された基準点が対象画面表示領域の中心に位置するように、対象画面の表示を拡大あるいは縮小する。
制御部100は、対象画面に対してユーザによって基準点が指定されていない状態で、拡大操作あるいは縮小操作を特定した場合には、基準点の初期位置を中心にして対象画面の表示を拡大あるいは縮小する。対象画面の基準点の初期位置としては、例えば、対象画面表示領域の中心と一致する位置が採用される。図14は、対象画面である地図600の表示が、対象画面表示領域の中心560と一致する位置を中心にして拡大される様子の一例を示す図である。図14では、左側に表示の拡大前の地図600が示されており、右側に表示の拡大後の地図600が示されている。
なお、制御部100は、動作モードが拡大縮小モードに設定されているか否かにかかわらず、対象画面に対するピンチアウト操作を特定すると、対象画面の表示を拡大してもよい。また、制御部100は、動作モードが拡大縮小モードに設定されているか否かにかかわらず、対象画面に対するピンチイン操作を特定すると、対象画面の表示を縮小してもよい。
また、制御部100は、動作モードを拡大縮小モードに設定した後、指紋検出結果に基づいて検出対象面201から指が離れたと判定すると、拡大縮小モードを解除してもよい。また、制御部100は、動作モードが拡大縮小モードである場合、検出対象面201に対する、拡大縮小モード設定操作と同じ操作を特定した場合、拡大縮小モードを解除してもよい。
以上のように、本例では、制御部100は、指紋センサ200の検出対象面201に対する所定の操作を特定すると、画面の表示を拡大あるいは縮小する。これにより、ユーザは、検出対象面201を操作することによって、電子機器1に、画面の表示を拡大させたり、縮小させたりすることができる。よって、電子機器1の利便性が向上する。
また本例では、制御部100は、対象画面に対する基準点指定操作を特定すると、当該基準点指定操作によって指定された基準点を中心に対象画面の表示を拡大あるいは縮小する。これにより、ユーザは、表示面121を操作することによって、画面のどの位置を中心に当該画面の表示を拡大あるいは縮小させるのかを電子機器1に対して指定することができる。よって、電子機器1の利便性が向上する。
また本例では、制御部100は、指定された基準点が対象画面表示領域の中心に位置するように、対象画面の表示を拡大あるいは縮小する。これにより、ユーザは、対象画面において指定した基準点付近を確認しやすくなる。よって、電子機器1の利便性が向上する。
なお、上記の例とは異なり、対象画面の表示は、対象画面に対して指定された基準点を移動させることなく、当該基準点を中心に拡大あるいは縮小されてもよい。図15は、対象画面である地図600の表示が、地図600に対して指定された基準点550を移動させることになく、当該基準点560を中心に拡大される様子の一例を示す図である。図15では、左側に表示の拡大前の地図600が示されており、右側に表示の拡大後の地図600が示されている。
また、動作モードが拡大縮小モードに設定されていない場合において、制御部100は、対象画面に対する基準位置指定操作を特定すると、動作モードを拡大縮小モードに設定してもよい。この場合には、ユーザは、電子機器1に対して基準位置指定操作を行うことによって、電子機器1に対して基準点を指定することができるとともに、電子機器1に動作モードを拡大縮小モードに設定させることができる。よって、電子機器1の利便性が向上する。
なお、制御部100は、対象画面に対する基準位置指定操作を特定した場合に動作モードを拡大縮小モードに設定する際には、検出対象面201に対する拡大縮小モード設定操作を受け付けなくてもよい。
また、制御部100は、対象画面に対する基準位置指定操作を特定した場合に動作モードを拡大縮小モードに設定する際には、基準位置指定操作を特定すると、検出対象面201に対する拡大操作及び縮小操作を受け付けることを示す第1通知情報を対象画面に示してもよい。第1通知情報は、動作モードが拡大縮小モードであることを示す情報であるとも言える。第1通知情報は、動作モードが拡大縮小モードである間、対象画面に示される。
図16は第1通知情報650の表示例を示す図である。図16では、ユーザが左手21の人差し指21aで基準位置指定操作を行う様子が示されている。図16には、対象画面である地図600に第1通知情報650が示されている。図16の例では、第1通知情報650は虫眼鏡を示す図形であるが、第1通知情報650はこれに限られない。
このように、対象画面に第1通知情報650が示されることによって、ユーザは、電子機器1が拡大操作及び縮小操作を受け付けることが可能であることを容易に認識することができる。言い換えれば、ユーザは、電子機器1の動作モードが拡大縮小モードであることを容易に認識することができる。よって、電子機器1の利便性が向上する。なお、制御部100は、検出対象面201に対する拡大縮小モード設定操作を受け付けたとき、第1通知情報650を対象画面に示してもよい。
また、制御部100は、基準位置指定操作を特定すると、所定期間(例えば数秒〜10秒間)だけ、第1通知情報650を対象画面に示してもよい。この場合、制御部100は、第1通知情報650を対象画面に示しているときだけ動作モードを拡大縮小モードに設定してもよい。これにより、制御部100は、第1通知情報650を対象画面に示しているときには拡大操作及び縮小操作を受け付け、第1通知情報650を対象画面に示していないときには拡大操作及び縮小操作を受け付けない。
また、制御部100は、指紋センサ200での検出結果とタッチパネル130での検出結果とに基づいて、検出対象面201が指でさわられている場合に基準位置指定操作が行われたと判定したとき、当該基準位置指定操作を受け付けてもよい。この場合、制御部100は、検出対象面201が指でさわられている場合には基準位置指定操作を受け付けるものの、検出対象面201が指でさわられていない場合には基準位置指定操作を受け付けない。これにより、制御部100は、検出対象面201が指でさわられていない場合に、基準位置指定操作と同じ操作が対象画面に行われたとき、他の処理を実行することができる。なお、制御部100は、指紋検出結果に基づいて、検出対象面201が指でさわられているか否かを判定することができる。
制御部100は、検出対象面201に対するスライド操作のスライド量にかかわらず、検出対象面201に対する1回のスライド操作で一定の拡大率で画面の表示を拡大してもよい。この場合、ユーザは、検出対象面201に対して1回上方向にスライド操作を行うことによって、電子機器1に、画面の表示を一定の拡大率で拡大させることができる。そして、ユーザは、検出対象面201に対して再度上方向のスライド操作を行うことによって、電子機器1に、画面の表示を再度一定の拡大率で拡大させることができる。
また、制御部100は、検出対象面201に対するスライド操作のスライド量にかかわらず、検出対象面201に対する1回のスライド操作で一定の縮小率で画面の表示を縮小してもよい。この場合、ユーザは、検出対象面201に対して1回下方向にスライド操作を行うことによって、電子機器1に、画面の表示を一定の縮小率で縮小させることができる。そして、ユーザは、検出対象面201に対して再度下方向のスライド操作を行うことによって、電子機器1に、画面の表示を再度一定の縮小率で縮小させることができる。
また、制御部100は、検出対象面201に対して上方向のスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、画面の表示を徐々に拡大してもよい。言い換えれば、制御部100は、検出対象面201に対して上方向のスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、拡大率を徐々に大きくしながら画面の表示を拡大してもよい。この場合、ユーザは、検出対象面201に対して上方向のスライド操作を行った後、検出対象面201から一度も指を離すことになく指の位置を動かさずに検出対象面201を指でさわり続けることで、電子機器1に、画面の表示を徐々に拡大させることができる。その後、ユーザは、検出対象面201から指を離すことによって、電子機器1に、画面の表示の拡大を終了させることができる。
同様に、制御部100は、検出対象面201に対して下方向のスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、画面の表示を徐々に縮小してもよい。言い換えれば、制御部100は、検出対象面201に対して下方向のスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、縮小率を徐々に大きくしながら画面の表示を縮小してもよい。この場合、ユーザは、検出対象面201に対して下方向のスライド操作を行った後、検出対象面201から一度も指を離すことになく指の位置を動かさずに検出対象面201を指でさわり続けることで、電子機器1に、画面の表示を徐々に縮小させることができる。その後、ユーザは、検出対象面201から指を離すことによって、電子機器1に、画面の表示の縮小を終了させることができる。
<画面の表示のスクロールについて>
本例では、ユーザは、検出対象面201を指で操作することによって、表示面121に表示される画面の表示を電子機器1にスクロールさせることができる。例えば、ユーザは、表示面121に地図が表示されている場合に、検出対象面201を指で操作することによって、電子機器1に地図の表示をスクロールさせることができる。また、ユーザは、表示面121にウェブページが表示されている場合に、検出対象面201を指で操作することによって、電子機器1にウェブページの表示をスクロールさせることができる。以下に、画面の表示がスクロールする際の電子機器1の動作の一例について説明する。以後、画面の表示のスクロールを単にスクロールと呼ぶことがある。
本例では、動作モードが通常モードである場合、制御部100は、検出対象面201に対する所定操作を特定すると、動作モードを、検出対象面201に対する操作に応じてスクロールするスクロールモードに設定する。この所定操作をスクロールモード設定操作と呼ぶことがある。
スクロールモード設定操作としては、例えば、タップ操作、ダブルタップ操作あるいはロングタップ操作(言い換えれば長押し操作)などが採用される。スクロールモード設定操作は、上述の拡大縮小モード設定操作とは異なる操作である。例えば、ダブルタップ操作が拡大縮小モード設定操作に設定される場合、例えば、ロングタップ操作がスクロールモード設定操作に設定される。
動作モードがスクロールモードである場合、制御部100は、指紋検出結果に基づいて、検出対象面201に対する、画面の表示の上方向のスクロールを指示する操作を特定すると、表示部120を制御して画面の表示を上方向にスクロールする。また、動作モードがスクロールモードである場合、制御部100は、指紋検出結果に基づいて、検出対象面201に対する、画面の表示の下方向のスクロールを指示する操作を特定すると、表示部120を制御して画面の表示を下方向にスクロールする。以後、上方向のスクロールを上スクロールと呼び、下方向のスクロールを下スクロールと呼ぶことがある。また、画面の表示の上方向のスクロールを指示する操作を上スクロール操作と呼び、画面の表示の下方向のスクロールを指示する操作を下スクロール操作と呼ぶことがある。
上スクロール操作としては、例えば、上方向のスライド操作が採用される。下スクロール操作としては、例えば、下方向のスライド操作が採用される。上スクロール操作及び下スクロール操作はこれに限られない。
図17〜19は、表示面121に表示される地図600の表示がスクロールする様子の一例を示す図である。図17にはスクロール前の地図600が示されている。表示面121の表示が図17に示される状態において、検出対象面201に対して上方向のスライド操作が行われると、図18に示されるように、地図600の表示が上スクロールされる。一方で、表示面121の表示が図17に示される状態において、検出対象面201に対して下方向のスライド操作が行われると、図19に示されるように、地図600の表示が下スクロールされる。
本例では、動作モードがスクロールモードである場合、制御部100は、検出対象面201に対して上方向のスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、画面の表示を上方向にスクロールし続ける。そして、制御部100は、検出対象面201から指が離れると上スクロールを停止する。これにより、ユーザは、検出対象面201に対して上方向のスライド操作を行った後、指の位置を動かさずに指で検出対象面201をさわり続けることによって、電子機器1に上スクロールを継続させることができる。
同様に、制御部100は、検出対象面201に対して下方向のスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、画面の表示を下方向にスクロールし続ける。そして、制御部100は、検出対象面201から指が離れると下スクロールを停止する。これにより、ユーザは、検出対象面201に対して下方向のスライド操作を行った後、指の位置を動かさずに指で検出対象面201をさわり続けることによって、電子機器1に下スクロールを継続させることができる。
以上のように、本例では、制御部100は、指紋センサ200の検出対象面201に対する所定の操作を特定すると、画面の表示をスクロールする。これにより、ユーザは、検出対象面201を操作することによって、電子機器1に、画面の表示をスクロールさせることができる。よって、電子機器1の利便性が向上する。
なお、制御部100は、検出対象面201に対する上方向のスライド操作のスライド量に応じて、画面の表示の上方向のスクロール量を大きくしてもよい。この場合には、上方向のスライド操作が終了すると上スクロールは終了する。同様に、制御部100は、検出対象面201に対する下方向のスライド操作のスライド量に応じて、画面の表示の下方向のスクロール量を大きくしてもよい。この場合には、下方向のスライド操作が終了すると下スクロールは終了する。
また、制御部100は、検出対象面201に対する1回の上方向のスライド操作で一定量だけ画面の表示を上スクロールしてもよい。この場合、上方向のスライド操作が終了すると上スクロールは終了する。同様に、制御部100は、検出対象面201に対する1回の下方向のスライド操作で一定量だけ画面の表示を下スクロールしてもよい。この場合、下方向のスライド操作が終了すると下スクロールは終了する。
また、制御部100は、動作モードがスクロールモードに設定されているか否かにかかわらず、対象画面に対する上方向のスライド操作を特定すると、対象画面の表示を上方向にスクロールしてもよい。また、制御部100は、動作モードがスクロールモードに設定されているか否かにかかわらず、対象画面に対する下方向のスライド操作を特定すると、対象画面の表示を下方向にスクロールしてもよい。
また、制御部100は、動作モードをスクロールモードに設定した後、指紋検出結果に基づいて検出対象面201から指が離れたと判定すると、スクロールモードを解除してもよい。また、制御部100は、動作モードがスクロールモードである場合、検出対象面201に対する、スクロールモード設定操作と同じ操作を特定した場合、スクロールモードを解除してもよい。
<電子機器の傾きの検出結果を利用した処理について>
本例では、制御部100は、指紋センサ200での検出結果と、加速度センサ210での検出結果とに基づいて、画面の表示を制御することが可能である。
ここで、加速度センサ210での検出結果は、電子機器1の傾き(言い換えれば電子機器1の姿勢)に応じて変化する。したがって、加速度センサ210は、電子機器1の傾きを検出するセンサであると言える。よって、制御部100は、指紋検出結果と、電子機器1の傾きを検出するセンサでの検出結果とに基づいて、画面の表示を制御することが可能であると言える。以後、加速度センサ210での検出結果を加速度検出結果と呼ぶことがある。
制御部100は、例えば、上述のように指紋検出結果に基づいて対象画面の表示をスクロールする場合に、加速度検出結果に基づいて対象画面のスクロール速度を決定する。以下に、制御部100が、加速度検出結果に基づいて対象画面のスクロール速度を決定する場合の電子機器1の動作例について説明する。以後、上スクロール操作及び下スクロール操作を区別する必要がない場合には、それぞれをスクロール操作と呼ぶことがある。
図20は、動作モードがスクロールモードである場合の電子機器1の動作の一例を示すフローチャートである。図20の例では、制御部100は、検出対象面201に対して、スクロール操作であるスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、画面の表示をスクロールし続ける。そして、制御部100は、検出対象面201から指が離れると、画面の表示のスクロールを終了する。
図20に示されるように、ステップs1において、制御部100は、指紋検出結果に基づいて検出対象面201が指でさわられたことを特定すると、ステップs2を実行する。ステップs2おいて、制御部100は、検出対象面201が指でさわられた時点での電子機器1の傾きを示す傾き情報を初期傾き情報として加速度検出結果に基づいて取得する。言い換えれば、制御部100は、ステップs1において検出対象面201が指でさわられたことを特定した時点での電子機器1の傾きを示す傾き情報を初期傾き情報として取得する。
制御部100は、ステップ1において検出対象面201が指でさわられたことを特定した時点において、例えば、図21に示されるように、表示面121から外側に向かう、表示面121に垂直な方向700と鉛直方向(言い換えれば重力方向)とが成す角度αを、加速度検出結果に基づいて求める。そして、制御部100は、求めた角度αを初期傾き情報として使用する。以後、角度αを傾き角度αと呼ぶことがある。また、初期傾き情報として使用される傾き角度αを初期傾き角度αと呼ぶことがある。
ステップs2の後、ステップs3において、制御部100は、検出対象面201に対するスクロール操作を指紋検出結果に基づいて特定すると、ステップs4において、画面の表示のスクロールを開始する。このときのスクロール速度は初期値に設定される。その後、制御部100はステップs5を実行する。ステップs5において、制御部100は、検出対象面201が指でさわられているか否かを判定する。ステップs5においてNOと判定されると、制御部100はスクロールを終了する。一方で、ステップs5においてYESと判定されると、ステップs7が実行される。
ステップs7において、制御部100は、加速度検出結果と初期傾き情報とに基づいてスクロール速度を決定する。ステップs7において、制御部100は、電子機器1の現在の傾きを示す傾き情報を加速度検出結果に基づいて取得する。具体的には、制御部100は、電子機器1の現在の傾きを示す傾き角度α、つまり最新の傾き角度αを、上述のようにして加速度検出結果に基づいて求める。そして、制御部100は、最新の傾き角度αから初期傾き角度αを差し引いて得られる値を傾き変化量として求める。制御部100は、傾き変化量に基づいてスクロール速度を決定する。
制御部100は、傾き変化量が零の場合、スクロール速度を初期値に設定する。また制御部100は、傾き変化量がプラスの場合、傾き変化量の絶対値に応じた加算値だけ初期値に加算して得られる値にスクロール速度を設定する。また制御部100は、傾き変化量がマイナスの場合、傾き変化量の絶対値に応じた減算値だけ初期値から減算して得られる値にスクロール速度を設定する。
ステップs7においてスクロール速度が決定された後、再度ステップs5が実行される。その後、電子機器1は同様に動作する。
以上のように動作する電子機器1では、画面の表示のスクロール中に、加速度検出結果に基づいて特定される電子機器1の傾きに応じてスクロール速度が変更される。また、電子機器1では、検出対象面201が指でさわられている場合、電子機器1の傾きに応じたスクロール速度の変更が行われ、検出対象面201が指でさわられていない場合、当該変更が行われない。
表示面121を見るユーザは、画面の表示がスクロールしているときに、表示面121を手前に傾けることで、電子機器1にスクロール速度を小さくさせることができる。また、表示面121を見るユーザは、画面の表示がスクロールしているときに、表示面121を奥に傾けることによって、電子機器1にスクロール速度を大きくさせることができる。
図22は、ステップs1が実行された時点での電子機器1の姿勢の一例を示す図である。図22に示される電子機器1の表示面121を見るユーザ750が、図23に示されるように、表示面121を手前に傾けると、ステップs4で求めされる傾き変化量がマイナスとなる。これにより、スクロール速度が初期値よりも小さくなる。一方で、図22に示される電子機器1の表示面121を見るユーザ750が、図24に示されるように、表示面121を奥に傾けると、傾き変化量がプラスとなる。これにより、スクロール速度が初期値よりも大きくなる。制御部100は、電子機器1の傾きに応じて、例えば10段階以上スクロール速度を変更することが可能である。
なお、上記の例では、画面の表示がスクロールしている間、ステップs7が繰り返し実行されることによって電子機器1の傾きに応じたスクロール速度の変更が行われているが、当該変更が行われなくてもよい。つまり、ステップs5においてYESと判定されるときには、ステップs7が実行されずにステップs5が再度実行されてもよい。この場合、ステップs4においてスクロールが開始するときのスクロール速度が、初期傾き情報に基づいて決定されてもよい。例えば、制御部100は、初期傾き角度αが大きいほど、スクロール速度を大きくしてもよい。これにより、ユーザが検出対象面201を指でさわったときの電子機器1の傾きに応じてスクロール速度が決定され、スクロール中はそのスクロール速度が維持される。例えば、表示面121を見るユーザが、表示面121を手前に傾けた状態で検出対象面201に対してスクロール操作を行うと(図23参照)、小さいスクロール速度で画面の表示がスクロールする。一方、表示面121を見るユーザが、表示面121を奥に傾けて検出対象面201に対してスクロール操作を行うと(図24参照)、大きいスクロール速度で画面の表示がスクロールする。
以上のように、本例では、制御部100は、指紋検出結果に基づいて特定する検出対象面201に対する操作と、加速度検出結果に基づいて特定する電子機器1の傾きとに基づいて、画面の表示を制御する。これにより、電子機器1では、検出対象面201に対する指の操作と電子機器1の傾きとに応じて、画面の表示が制御される。よって、電子機器1の利便性が向上する。
また、制御部100は、加速度センサ210、つまり、電子機器1の傾きを検出するセンサでの検出結果に基づいて画面の表示のスクロール速度を決定する。これにより、ユーザは、電子機器1の傾きを変更することによって、電子機器1にスクロール速度を変更させることができる。よって、電子機器1の利便性が向上する。
また、制御部100は、画面の表示をスクロールしている場合に、加速度センサ210での検出結果に基づいて特定される電子機器1の傾きに応じてスクロール速度を変更する。これにより、ユーザは、画面の表示がスクロールしているときに、電子機器1にスクロール速度を変更させることができる。よって、電子機器1の利便性が向上する。
なお、上記の例では、スクロールが開始した後、検出対象面201から指が離れた場合には、スクロールが終了しているが、スクロールが維持されてもよい。この場合、例えば、検出対象面201に対して所定の操作(例えばタップ操作)が行われるとスクロールが終了する。
また、スクロールが開始した後、検出対象面201から指が離れた場合であっても、スクロールが維持される場合には、制御部100は、ステップs5においてNOと判定すると、再度ステップs5を実行してもよい。この場合、制御部100は、検出対象面201から指が離れたとき、検出対象面201から指が離れたときのスクロール速度を維持する。
また、スクロールが開始した後、検出対象面201から指が離れた場合であっても、スクロールが維持される場合には、制御部100は、ステップs4の後、ステップs5を実行せずにステップs7を繰り返し実行してもよい。この場合、ユーザは、検出対象面201から指を離した状態でも、電子機器1の傾きを変更することによって、電子機器1にスクロール速度を変更させることができる。
また、制御部100は、スクロールが終了して再度スクロールを開始するとき、ステップs4でのスクロール速度の初期値に、前回のスクロールが終了したときのスクロール速度を設定してもよい。これにより、スクロールが開始するときには、前回のスクロールが終了したときのスクロール速度でスクロールされる。
上記の例では、制御部100は、指紋センサ200での検出結果と、加速度センサ210での検出結果とに基づいて、画面の表示をスクロールしているが、画面の表示の他の制御を行ってもよい。例えば、制御部100は、指紋センサ200での検出結果と、加速度センサ210での検出結果とに基づいて、画面の表示を拡大及び縮小してもよい。以下にこの場合の電子機器1の動作について説明する。以後、画面の表示の拡大を単に表示拡大と呼び、画面の表示の縮小を単に表示縮小と呼ぶことがある。
図25は、動作モードが拡大縮小モードである場合の電子機器1の動作の一例を示すフローチャートである。図25の例では、制御部100は、検出対象面201に対して上方向のスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、画面の表示を徐々に拡大する。そして、制御部100は、検出対象面201から指が離れると表示拡大を終了する。
図25に示されるように、ステップs11において、制御部100は、指紋検出結果に基づいて検出対象面201が指でさわられたことを特定すると、ステップs12を実行する。ステップs12おいて、制御部100は、上述のステップs2と同様にして初期傾き情報を取得する。
ステップs12の後、ステップs13において、制御部100は、検出対象面201に対する拡大操作を指紋検出結果に基づいて特定すると、ステップs14において、表示拡大を開始する。このときの表示拡大の速度は初期値に設定される。画面の表示が徐々に拡大する場合、拡大率が徐々に大きくなる。表示拡大の速度は、画面の表示が徐々に拡大する場合の拡大率の変化速度であるとも言える。拡大率の変化速度は、所定時間での拡大率の変化量であると言える。以後、表示拡大の速度を単に拡大速度と呼ぶことがある。
ステップs14の後、制御部100はステップs15を実行する。ステップs15において、制御部100は、検出対象面201が指でさわられているか否かを判定する。ステップs15においてNOと判定されると、制御部100は表示拡大を終了する。一方で、ステップs15においてYESと判定されると、ステップs17が実行される。
ステップs17において、制御部100は、加速度検出結果と初期傾き情報とに基づいて拡大速度を決定する。ステップs17において、制御部100は、上述の傾き変化量を求める。そして、制御部100は、傾き変化量に基づいて拡大速度を決定する。制御部100は、傾き変化量が零の場合、拡大速度を初期値に設定する。また制御部100は、傾き変化量がプラスの場合、傾き変化量の絶対値に応じた加算値だけ初期値に加算して得られる値に拡大速度を設定する。また制御部100は、傾き変化量がマイナスの場合、傾き変化量の絶対値に応じた減算値だけ初期値から減算して得られる値に拡大速度を設定する。
ステップs17において拡大速度が決定された後、再度ステップs15が実行される。その後、電子機器1は同様に動作する。
以上のように動作する電子機器1では、画面の表示が拡大されている間、加速度検出結果に基づいて特定される電子機器1の傾きに応じて拡大速度が変更される。また、電子機器1では、検出対象面201が指でさわられている場合、電子機器1の傾きに応じた拡大速度の変更が行われ、検出対象面201が指でさわられていない場合、当該変更が行われない。
表示面121を見るユーザは、画面の表示が徐々に拡大しているとき、表示面121を手前に傾けることで(図23参照)、電子機器1に拡大速度を小さくさせることができる。つまり、表示面121を見るユーザは、表示面121を手前に傾けることで、電子機器1に画面の表示をゆっくりと拡大させることができる。一方で、表示面121を見るユーザは、画面の表示が徐々に拡大しているときに、表示面121を奥に傾けることによって(図24参照)、電子機器1に拡大速度を大きくさせることができる。つまり、表示面121を見るユーザは、表示面121を奥に傾けることで、電子機器1に画面の表示をはやく拡大させることができる。制御部100は、電子機器1の傾きに応じて、例えば10段階以上拡大速度を変更することが可能である。
制御部100は、画面の表示を徐々に縮小する場合にも、同様にして、表示縮小の速度を電子機器1の傾きに応じて決定することができる。以後、表示縮小の速度を単に縮小速度と呼ぶことがある。
上記の例では、表示拡大が行われている間、ステップs17が繰り返し実行されることによって電子機器1の傾きに応じた拡大速度の変更が行われているが、当該変更が行われなくてもよい。つまり、ステップs15においてYESと判定されるときには、ステップs17が実行されずにステップs15が再度実行されてもよい。この場合、ステップs14において表示拡大が開始するときの拡大速度が、初期傾き情報に基づいて決定されてもよい。例えば、制御部100は、初期傾き角度αが大きいほど、拡大速度を大きくしてもよい。これにより、ユーザが検出対象面201を指でさわったときの電子機器1の傾きに応じて拡大速度が決定され、表示拡大が行われている間はその拡大速度が維持される。例えば、表示面121を見るユーザが、表示面121を手前に傾けた状態で検出対象面201に対して拡大操作を行うと(図23参照)、小さい拡大速度で画面の表示が徐々に拡大する。一方、表示面121を見るユーザが、表示面121を奥に傾けて検出対象面201に対してスクロール操作を行うと(図24参照)、大きい拡大速度で画面の表示が徐々に拡大する。表示縮小の場合も同様である。
以上のように、本例では、制御部100は、電子機器1の傾きを検出するセンサでの検出結果に基づいて拡大速度及び縮小速度を決定する。これにより、ユーザは、電子機器1の傾きを変更することによって、電子機器1に拡大速度及び縮小速度を変更させることができる。よって、電子機器1の利便性が向上する。
また、制御部100は、表示拡大あるいは表示縮小を行っている間、加速度センサ210での検出結果に基づいて特定される電子機器1の傾きに応じて拡大速度あるいは縮小速度を変更する。これにより、ユーザは、画面の表示が徐々に拡大あるいは縮小しているときに、電子機器1に拡大速度あるいは縮小速度を変更させることができる。よって、電子機器1の利便性が向上する。
なお、上記の例では、表示拡大が開始した後、検出対象面201から指が離れた場合には、表示拡大が終了しているが、表示拡大が維持されてもよい。この場合、例えば、検出対象面201に対して所定の操作(例えばタップ操作)が行わると表示拡大が終了する。表示縮小の場合も同様である。
また、表示拡大が開始した後、検出対象面201から指が離れた場合であっても、表示拡大が維持される場合には、制御部100は、ステップs15においてNOと判定すると、再度ステップs15を実行してもよい。この場合、制御部100は、検出対象面201から指が離れたとき、検出対象面201から指が離れたときの拡大速度を維持する。表示縮小の場合も同様である。
また、表示拡大が開始した後、検出対象面201から指が離れた場合であっても、表示拡大が維持される場合には、制御部100は、ステップs14の後、ステップs15を実行せずにステップs17を繰り返し実行してもよい。この場合、ユーザは、検出対象面201から指を離した状態でも、電子機器1の傾きを変更することによって、電子機器1に拡大速度を変更させることができる。表示縮小の場合も同様である。
また、制御部100は、表示拡大が終了して再度表示拡大を開始するとき、ステップs14での拡大速度の初期値に、前回の表示拡大が終了したときの拡大速度を設定してもよい。これにより、表示拡大が開始するときには、前回の表示拡大が終了したときの拡大速度で表示拡大される。表示縮小の場合も同様である。
なお、本例では、電子機器1の傾きを検出するセンサとして、加速度センサ210が使用されているが、他のセンサが使用されてもよい。例えば、電子機器1の傾きを検出するセンサとして、ジャイロセンサが使用されてもよい。また、電子機器1の傾きを検出するセンサとして、加速度センサ210及びジャイロセンサが使用されてもよい。
<ユーザのジェスチャの検出結果を利用した処理について>
本例では、制御部100は、指紋センサ200での検出結果と、近接センサ220での検出結果とに基づいて、画面の表示を制御することが可能である。
ここで、図26に示されるように、ユーザが、電子機器1の前面から露出する近接センサ220の前で、手800を使ってジェスチャを行った場合、当該ジェスチャに応じて近接センサ220での検出結果が変化する。したがって、近接センサ220は、ユーザによるジェスチャを検出するセンサであると言える。よって、制御部100は、指紋検出結果と、ユーザによるジェスチャを検出するセンサでの検出結果とに基づいて、画面の表示を制御することが可能であると言える。以後、近接センサ220での検出結果を近接検出結果と呼ぶことがある。また、特に断らない限り、ジェスチャと言えば、近接センサ220の前で行われるユーザの手のジェスチャを意味する。
本例では、制御部100は、近接検出結果に基づいて様々なジェスチャを特定することができる。例えば、制御部100は、近接検出結果に基づいて、ユーザの手が、上方向に移動する上ジェスチャ、下方向に移動する下ジェスチャ、右方向に移動する右ジェスチャ、左方向に移動する左ジェスチャを特定することができる。また、制御部100は、近接検出結果に基づいて、ユーザの手が表示面121に沿って時計周りで円を描く時計回り円ジェスチャと、ユーザの手が表示面121に沿って反時計回りで円を描く反時計回り円ジェスチャとを特定することができる。また、制御部100は、近接検出結果に基づいて、表示面121に垂直な方向に沿ってユーザの手が表示面121に近づく近ジェスチャと、当該方向に沿ってユーザの手が表示面121から遠ざかる遠ジェスチャとを特定することができる。なお、制御部100が特定するジェスチャの種類はこれに限られない。また制御部100は、ユーザの手以外の部分のジェスチャを特定してもよい。
制御部100は、指紋検出結果に基づいて特定する検出対象面201に対する操作と、近接検出結果に基づいて特定するジェスチャとに基づいて、画面の表示を制御する。制御部100は、例えば、上述のように、指紋検出結果に基づいて検出対象面201が指でさわられているか否かを判定する。言い換えれば、制御部100は、指紋検出結果に基づいて、検出対象面201に対して指でさわる操作が行われているか否かを判定する。そして、制御部100は、検出対象面201が指でさわられているとき、近接検出結果に基づいて所定のジェスチャを特定すると、画面の表示をスクロールする。具体的には、制御部100は、検出対象面201が指でさわられているときに、上スクロールを指示する上スクロールジェスチャを特定すると、画面の表示を上スクロールする。このとき、制御部100は、例えば、所定量だけで画面の表示を上スクロールする。また、制御部100は、検出対象面201が指でさわられているときに、下スクロールを指示する下スクロールジェスチャを特定すると、画面の表示を上スクロールする。このとき、制御部100は、例えば、所定量だけで画面の表示を下スクロールする。上スクロールジェスチャとしては、例えば上ジェスチャが採用され、下スクロールジェスチャとしては、例えば下ジェスチャが採用される。以後、上スクロールジェスチャ及び下スクロールジェスチャを特に区別する必要がないときには、それぞれを単にスクロールジェスチャと呼ぶことがある。
また、制御部100は、検出対象面201が指でさわられているとき、近接検出結果に基づいて所定のジェスチャを特定すると、画面の表示を拡大あるいは縮小することが可能である。具体的には、制御部100は、検出対象面201が指でさわられているときに、表示拡大を指示する拡大ジェスチャを特定すると、画面の表示を拡大する。このとき、制御部100は、例えば、一定倍率(例えば1.5倍)で画面の表示を拡大する。また、制御部100は、検出対象面201が指でさわられているときに、表示縮小を指示する縮小ジェスチャを特定すると、画面の表示を縮小する。このとき、制御部100は、例えば、一定倍率(例えば0.5倍)で画面の表示を縮小する。拡大ジェスチャとしては、例えば左ジェスチャが採用され、縮小ジェスチャとしては、例えば右ジェスチャが採用される。
なお、上スクロールジェスチャ、下スクロールジェスチャ、拡大ジェスチャ及び縮小ジェスチャは上記の例に限られない。例えば、上スクロールジェスチャ及び下スクロールジェスチャは、それぞれ、時計回り円ジェスチャ及び反時計回り円ジェスチャであってもよい。また、拡大ジェスチャ及び縮小ジェスチャは、それぞれ、近ジェスチャ及び遠ジェスチャであってもよい。
このように、本例では、制御部100は、指紋検出結果に基づいて特定する検出対象面201に対する指の操作と、近接検出結果に基づいて特定するジェスチャとに基づいて画面の表示を制御する。これにより、電子機器1では、検出対象面201に対する指の操作とユーザによるジェスチャとに応じて、画面の表示が制御される。よって、電子機器1の利便性が向上する。
また、制御部100は、検出対象面201が指でさわられているときに所定のジェスチャを特定すると、画面の表示をスクロールする。これにより、ユーザは、検出対象面201を指でさわりながらジェスチャをすることによって、電子機器1に画面の表示をスクロールさせることができる。例えば図27に示されるように、右手20で電子機器1を持つユーザは、右手20の親指20aで検出対象面201をさわりながら、左手21でジェスチャをすることによって、電子機器1に画面の表示をスクロールさせることができる。
また、制御部100は、検出対象面201が指でさわられているときに所定のジェスチャを特定すると、画面の表示を拡大あるいは縮小する。これにより、ユーザは、検出対象面201を指でさわりながらジェスチャをすることによって、電子機器1に画面の表示を拡大あるいは縮小させることができる。
なお、制御部100は、スクロールジェスチャが行われるときに指紋センサ200で検出される指紋に応じて、当該スクロールジェスチャに応じたスクロールの量を変化させてもよい。図28はこの場合の電子機器1の動作の一例を示すフローチャートである。図28の例では、記憶部103には複数の基準指紋情報が記憶されている。そして、記憶部103では、複数の基準指紋情報に対して、スクロール量についての互いに異なる複数の設定値がそれぞれ対応付けられている。
図28に示されるように、ステップs21において、制御部100は、指紋検出結果に基づいて検出対象面201が指でさわられたことを特定すると、ステップs22を実行する。ステップs22おいて、制御部100は、指紋センサ200から検出指紋情報を取得する。
次にステップs23において、制御部100は、取得した検出指紋情報に基づいてスクロール量を決定する。具体的には、制御部100は、記憶部103内の複数の基準指紋情報から、検出指紋情報と類似する基準指紋情報を特定する。そして、制御部100は、特定した基準指紋情報に対応付けられている設定値を記憶部103から取得する。制御部100は、取得した設定値をスクロール量として決定する。これにより、指紋センサ200で検出された指紋に応じてスクロール量が決定される。なお、記憶部103には、複数の基準指紋情報の中に、検出指紋情報と類似する基準指紋情報が存在しない場合のスクロール量の設定値も記憶されている。したがって、制御部100は、複数の基準指紋情報の中に、検出指紋情報と類似する基準指紋情報が存在しない場合であってもスクロール量を決定することができる。
ステップs23の後、制御部100は、近接検出結果に基づいてスクロールジェスチャを特定すると、ステップs25を実行する。ステップs25において、制御部100は、ステップs23で決定したスクロール量だけ画面の表示をスクロールする。
このように、制御部100が、スクロールジェスチャが行われるときに指紋センサ200で検出される指紋に応じてスクロール量を変化させることによって、電子機器1の利便性が向上する。例えば、記憶部103内に、同じユーザが有する複数の指の指紋をそれぞれ示す複数の基準指紋情報が記憶されている場合を考える。この場合、ユーザは、検出対象面201をさわる指を変えることによって、電子機器1にスクロール量を変化させることができる。他の例として、記憶部103内に、複数のユーザの指の指紋をそれぞれ示す複数の基準指紋情報が記憶されている場合を考える。この場合、電子機器1は、ユーザごとにスクロール量を変化させることができる。
また制御部100は、拡大ジェスチャが行われるときに指紋センサ200で検出される指紋に応じて、当該拡大ジェスチャに応じた表示拡大の拡大率を変化させてもよい。図29はこの場合の電子機器1の動作の一例を示すフローチャートである。図29の例では、記憶部103には複数の基準指紋情報が記憶されている。そして、記憶部103では、複数の基準指紋情報に対して、拡大率についての互いに異なる複数の設定値がそれぞれ対応付けられている。
図29に示されるように、ステップs31において、制御部100は、指紋検出結果に基づいて検出対象面201が指でさわられたことを特定すると、ステップs32を実行する。ステップs32おいて、制御部100は、指紋センサ200から検出指紋情報を取得する。
次にステップs33において、制御部100は、取得した検出指紋情報に基づいて拡大率を決定する。具体的には、制御部100は、記憶部103内の複数の基準指紋情報から、検出指紋情報と類似する基準指紋情報を特定する。そして、制御部100は、特定した基準指紋情報に対応付けられている拡大率の設定値を記憶部103から取得する。制御部100は、取得した設定値を拡大率として決定する。これにより、指紋センサ200で検出された指紋に応じて拡大率が決定される。なお、記憶部103には、複数の基準指紋情報の中に、検出指紋情報と類似する基準指紋情報が存在しない場合の拡大率の設定値も記憶されている。したがって、制御部100は、複数の基準指紋情報の中に、検出指紋情報と類似する基準指紋情報が存在しない場合であっても拡大率を決定することができる。
ステップs33の後、制御部100は、近接検出結果に基づいて拡大ジェスチャを特定すると、ステップs35を実行する。ステップs35において、制御部100は、ステップs33で決定した拡大率で画面の表示を拡大する。
このように、制御部100が、拡大ジェスチャが行われるときに指紋センサ200で検出される指紋に応じて拡大率を変化させることによって、ユーザは、検出対象面201をさわる指を変えることによって、電子機器1に拡大率を変化させることができる。また、電子機器1は、ユーザごとに拡大率を変化させることができる。なお、同様にして、制御部100は、縮小ジェスチャが行われるときに指紋センサ200で検出される指紋に応じて、当該縮小ジェスチャに応じた表示縮小の縮小率を変化させてもよい。
また、制御部100は、スクロールジェスチャに応じたスクロールのスクロール量と、検出対象面201に対するスクロール操作に応じたスクロールのスクロール量とを互いに異なるようにしてもよい。例えば、検出対象面201に対して1回スクロール操作が行われたとき、制御部100が一定量だけ画面の表示をスクロールする場合を考える。この場合、制御部100は、スクロールジェスチャに応じたスクロールのスクロール量を、検出対象面201に対するスクロール操作に応じたスクロールのスクロール量よりも大きくしてもよい。これにより、ユーザは、スクロールジェスチャを行うか、スクロール操作を行うかによって、スクロール量を選択することができる。よって、電子機器1の利便性が向上する。
また、制御部100は、拡大ジェスチャに応じた表示拡大の拡大率と、検出対象面201に対する拡大操作に応じた表示拡大の拡大率とを互いに異なるようにしてもよい。例えば、検出対象面201に対して1回拡大操作が行われたとき、制御部100が画面の表示を一定倍率拡大する場合を考える。この場合、制御部100は、拡大ジェスチャに応じた表示拡大の一定の拡大率を、検出対象面201に対する拡大操作に応じた表示拡大の一定の拡大率よりも大きくしてもよい。なお、制御部100は、同様に、縮小ジェスチャに応じた表示縮小の縮小率と、検出対象面201に対する縮小操作に応じた表示縮小の縮小率とを互いに異なるようにしてもよい。
上記の例では、電子機器1は、検出対象面201に対する操作に応じて画面の表示を制御する処理を実行しているが、当該処理を実行しなくてもよい。
また上記の例では、電子機器1は、当該電子機器1の傾きに応じて画面の表示を制御する処理を実行しているが、当該処理を実行しなくてもよい。
また上記の例では、電子機器1は、ユーザのジェスチャに応じて画面の表示を制御する処理を実行しているが、当該処理を実行しなくてもよい。
<他の例について>
以下に電子機器1の他の例について説明する。図30は電子機器1の構成の他の例を示すブロック図である。図30に示される電子機器1は、上述の図6に示される電子機器1と比較して、圧力センサ230をさらに備える。圧力センサ230は、検出対象面201にかかる圧力を検出することが可能である。
本例では、制御部100は、指紋検出結果に基づいて特定される検出対象面201に対する操作と、圧力センサ230での検出結果に基づいて特定される検出対象面201にかかる圧力とに基づいて、画面の表示を制御することが可能である。これにより、ユーザは、検出対象面201に対する指の操作と、検出対象面201を指でさわるときに当該検出対象面201にかかる圧力とに応じて、電子機器1に画面の表示を制御させることができる。よって、電子機器1の利便性が向上する。以下に本例について詳細に説明する。以後、圧力センサ230での検出結果を圧力検出結果と呼ぶことがある。
上述のように、制御部100は、動作モードがスクロールモードのとき、指紋検出結果に基づいて検出対象面201に対するスクロール操作を特定すると、画面の表示をスクロールする。そして、制御部100は、圧力検出結果に基づいて特定する検出対象面201にかかる圧力に応じて、画面の表示のスクロール速度を変更する。
図31は、制御部100が、検出対象面201にかかる圧力に応じてスクロール速度を変更する場合の電子機器1の動作例を示すフローチャートである。制御部100は、画面の表示をスクロールしているとき、図31に示される一連の処理を繰り返し実行する。
図31の例では、制御部100は、検出対象面201に対して、スクロール操作であるスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、画面の表示をスクロールし続ける。そして、制御部100は、検出対象面201から指が離れると、画面の表示のスクロールを終了する。また図31の例では、制御部100は、スクロールを開始するときには、スクロール速度を初期値に設定する。
画面の表示がスクロールされているとき、図31に示されるように、ステップs41において、制御部100は、圧力検出結果を圧力センサ230から取得する。次にステップs42において、制御部100は、取得した圧力検出結果に基づいて、検出対象面201にかかる圧力を特定する。以後、制御部100が、圧力検出結果に基づいて特定する検出対象面201にかかる圧力を特定圧力と呼ぶことがある。
次にステップs43にいて、制御部100は、特定圧力に基づいてスクロール速度を決定する。これにより、スクロール速度が更新される。ステップs43において、制御部100は、例えば、特定圧力がしきい値以下のとき、第1設定値をスクロール速度とする。一方で、制御部100は、特定圧力がしきい値よりも大きいとき、第2設定値をスクロール速度とする。第2設定値は例えば第1設定値よりも大きい値に設定される。第1設定値は例えば初期値と同じ値に設定される。
なお、制御部100は、特定圧力と比較される2種類以上のしきい値を使用して、特定圧力に応じてスクロール速度を3段階以上設定してもよい。例えば、制御部100がスクロール速度を4階設定することが可能である場合を考える。この場合、制御部100は、特定圧力が第1しきい値以下のとき、第1設定値をスクロール速度とする。また制御部100は、特定圧力が第1しきい値よりも大きく、第2しきい値(>第1しきい値)以下のとき、第2設定値(>第1設定値)をスクロール速度とする。また制御部100は、特定圧力が第2しきい値よりも大きく、第3しきい値(>第2しきい値)以下のとき、第3設定値(>第2設定値)をスクロール速度とする。そして、制御部100は、特定圧力が第3しきい値よりも大きいとき、第4設定値(>第3設定値)をスクロール速度とする。
このように、特定圧力に応じてスクロール速度が変更されることによって、ユーザは、検出対象面201を指でさわる際に当該検出対象面201にかかる圧力を変化せることによって、スクロール速度を電子機器1に変更させることができる。よって、電子機器1の利便性が向上する。
制御部100は、画面の表示をスクロールしているときに、現在のスクロール速度を示す第2通知情報を当該画面に示してもよい。このとき、制御部100は、画面における第2通知情報の下の部分が透けて見えるように第2通知情報を半透過で当該画面に示してもよい。あるいは、制御部100は、画面における第2通知情報の下の部分が見えないように第2通知情報を当該画面に示してもよい。
図32,33は第2通知情報800の表示例を示す図である。図32,33では、第2通知情報800が半透過で地図600上に示されている。図32,33に示される第2通知情報800は、その長さが現在のスクロール速度を示す矢印で表されている。図32,33に示される第2通知情報800では、矢印が長いほどスクロール速度が大きいことを示している。よって、図33の例より図32の例の方がスクロール速度が大きくなっている。
図34,35は第2通知情報800の他の表示例を示す図である。図34,35の例では、第2通知情報800は文字で表されている。具体的には、第2通知情報800は、現在のスクロール速度を表す英単語で表されている。図34の例では、スクロール速度が最大値に設定されており、図35の例ではスクロール速度が最小値に設定されている。
図36,37は第2通知情報800の他の表示例を示す図である。図36,37の例では、第2通知情報800は速度インジゲータで表されている。図36,37に示される第2通知情報800では、バー801が左側に位置するほど現在のスクロール速度が小さくなっている。よって、図36の例より図37の例の方が、スクロール速度が大きくなっている。
このように、画面の表示がスクロールされているときに、現在のスクロール速度を示す第2通知情報800が当該画面に示されることによって、電子機器1の利便性が向上する。なお、制御部100は、上述の図20のように、電子機器1の傾きに応じてスクロール速度を変更する場合においても、画面の表示がスクロールされているときに第2通知情報800を当該画面に示してもよい。
制御部100は、動作モードが拡大モードのとき、圧力検出結果に基づいて特定する検出対象面201にかかる圧力に応じて、画面の表示の拡大の速度を変更してもよい。図38は、制御部100が、検出対象面201にかかる圧力に応じて表示拡大の速度を変更する場合の電子機器1の動作例を示すフローチャートである。制御部100は、画面の表示を拡大しているとき、図38に示される一連の処理を繰り返し実行する。
図38の例では、制御部100は、検出対象面201に対して、拡大操作である上方向のスライド操作が行われた後、当該スライド操作が終了したときの指の位置において検出対象面201から一度も指が離されることなく検出対象面201が指でさわられている間、画面の表示を拡大し続ける。そして、制御部100は、検出対象面201から指が離れると、画面の表示の拡大を終了する。また図38の例では、制御部100は、表示拡大を開始するときには、表示拡大の速度を初期値に設定する。
画面の表示が拡大されているとき、図38に示されるように、ステップs51において、制御部100は、圧力検出結果を圧力センサ230から取得する。次にステップs52において、制御部100は、取得した圧力検出結果に基づいて、検出対象面201にかかる圧力を特定する。
次にステップs53にいて、制御部100は、特定圧力に基づいて拡大速度を決定する。これにより、表示拡大中に拡大速度が更新される。ステップs53において、制御部100は、例えば、特定圧力がしきい値以下のとき、第1設定値を拡大速度とする。一方で、制御部100は、特定圧力がしきい値よりも大きいとき、第2設定値を拡大速度とする。第2設定値は例えば第1設定値よりも大きい値に設定される。第1設定値は例えば初期値と同じ値に設定される。なお制御部100は、特定圧力に応じてスクロール速度を変更する場合と同様に、特定圧力に応じて拡大速度を3段階以上設定してもよい。
このように、特定圧力に応じて表示拡大の速度が変更されることによって、ユーザは、検出対象面201を指でさわる際に当該検出対象面201にかかる圧力を変化せることによって表示拡大の速度を電子機器1に変更させることができる。よって、電子機器1の利便性が向上する。
なお制御部100は、画面の表示を拡大しているときに、表示拡大の現在の速度を示す第3通知情報を当該画面に示してもよい。このとき、制御部100は、第2通知情報と同様に、第3通知情報を半透過で当該画面に示してもよい。あるいは、制御部100は、画面における第3通知情報の下の部分が見えないように第3通知情報を当該画面に示してもよい。第3通知情報は、例えば、上述の図32〜37に示される第2通知情報800の表示例と同様に表示される。
このように、画面の表示が拡大されているときに、表示拡大の現在の速度を示す第3通知情報が当該画面に示されることによって、電子機器1の利便性が向上する。制御部100は、上述の図25のように、電子機器1の傾きに応じて拡大速度を変更する場合においても、画面の表示が拡大されているときに第3通知情報を当該画面に示してもよい。
制御部100は、同様にして、特定圧力に応じて表示縮小の速度を変更してもよい。このとき、制御部100は、画面の表示が縮小されているときに、表示縮小の現在の速度を示す第4通知情報を当該画面に示してもよい。第4通知情報は、例えば、上述の図32〜37に示される第2通知情報800の表示例と同様に表示される。また、制御部100は、上述のように、電子機器1の傾きに応じて表示縮小の速度を変更する場合においても、画面の表示が縮小されているときに、表示縮小の現在の速度を示す第4通知情報を当該画面に示してもよい。
上記の各例では、制御部100は、指紋検出結果に基づいて、検出対象面201上で上下方向に指が移動する操作を検出しているが、検出対象面201上で上下方向とは異なる方向に指が移動する操作を検出してもよい。例えば、制御部100は、指紋検出結果に基づいて、検出対象面201に対する左方向及び右方向のスライド操作を特定してもよい。ここで、左方向のスライド操作での左方向とは、検出対象面201を見た場合の左方向(図3の例では、機器ケース11の背面11bから前面11aに向かう方向)である。また、右方向のスライド操作での右方向とは、検出対象面201を見た場合の右方向(図3の例では、機器ケース11の前面11aから背面11bに向かう方向)である。
例えば、制御部100が、検出対象面201に対する、上方向、下方向、左方向及び右方向のスライド操作を特定することができる場合を考える。この場合、制御部100は、検出対象面201に対する上方向のスライド操作を特定した場合には、例えば上スクロールを行い、検出対象面201に対する下方向のスライド操作を特定した場合には、例えば下スクロールを行ってもよい。また、制御部100は、検出対象面201に対する左方向のスライド操作を特定した場合には、例えば画面の表示の縮小を行い、検出対象面201に対する右方向のスライド操作を特定した場合には、例えば画面の表示の拡大を行ってもよい。
上記の例では、電子機器1は、スマートフォン等の携帯電話機であったが、他の種類の電子機器であってよい。電子機器1は、例えば、タブレット端末、パーソナルコンピュータ、ウェアラブル機器などであってよい。電子機器1として採用されるウェアラブル機器は、リストバンド型あるいは腕時計型などの腕に装着するタイプであってもよいし、ヘッドバンド型あるいはメガネ型などの頭に装着するタイプであってもよいし、服型などの体に装着するタイプであってもよい。
以上のように、電子機器1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種の例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の例が、この開示の範囲から外れることなく想定され得るものと解される。
1 電子機器
100 制御部
121 表示面
200 指紋センサ
201 検出対象面
210 加速度センサ
230 圧力センサ

Claims (19)

  1. 表示面と、
    検出対象面を有し、当該検出対象面をさわる指の指紋を検出する第1センサと、
    前記検出対象面にかかる圧力を検出する第2センサと、
    前記第1センサでの第1検出結果に基づいて前記検出対象面に対する指の操作を特定し、前記第2センサでの第2検出結果に基づいて前記圧力を特定し、特定した前記操作及び前記圧力に基づいて前記表示面での第1画面の表示を制御する制御部と
    を備える、電子機器。
  2. 請求項1に記載の電子機器であって、
    前記制御部は、
    前記第1検出結果に基づいて前記検出対象面に対する指の第1操作を特定すると、前記第1画面の表示をスクロールし、
    前記圧力に応じて、前記第1画面のスクロール速度を変更する、電子機器。
  3. 請求項2に記載の電子機器であって、
    前記制御部は、前記第1画面の表示をスクロールしているときに、現在の前記スクロール速度を示す第1情報を前記第1画面に示す、電子機器。
  4. 請求項1から請求項3のいずれか一つに記載の電子機器であって、
    前記制御部は、
    前記第1検出結果に基づいて前記検出対象面に対する指の第2操作を特定すると、前記第1画面の表示を拡大あるいは縮小し、
    前記第2検出結果に基づいて特定する前記圧力に応じて、前記第1画面の表示の拡大あるいは縮小の速度を変更する、電子機器。
  5. 請求項4に記載の電子機器であって、
    前記制御部は、前記第1画面の表示を拡大あるいは縮小しているときに、現在の前記速度を示す第2情報を前記第1画面に示す、電子機器。
  6. 請求項1から請求項5のいずれか一つに記載の電子機器であって、
    前記表示面に対する操作を検出する第3センサをさらに備え、
    前記制御部は、
    前記表示面に第2画面が表示されている場合に、
    前記第2画面に対する基準点を指定する第3操作を前記第3センサでの第3検出結果に基づいて特定した後、前記検出対象面に対する前記第2画面の表示の拡大あるいは縮小を指示する指の第4操作を前記第1検出結果に基づいて特定すると、前記第3操作で指定された前記基準点を中心に前記第2画面の表示を拡大あるいは縮小する処理を実行する、電子機器。
  7. 請求項6に記載の電子機器であって、
    前記制御部は、前記第3操作で指定された前記基準点が前記表示面の中心に位置するように前記処理を実行する、電子機器。
  8. 請求項6及び請求項7のいずれか一つに記載の電子機器であって、
    前記制御部は、前記第3操作を特定すると、前記第4操作を受け付けることを示す第2情報を前記第2画面に示す、電子機器。
  9. 請求項8に記載の電子機器であって、
    前記制御部は、
    所定期間、前記第2情報を前記第2画面に示し、
    前記第2画面に前記第2情報を示している場合に前記第4操作を受け付け、
    前記第2画面に前記第2情報を示していない場合に前記第4操作を受け付けない、電子機器。
  10. 請求項6から請求項9のいずれか一つに記載の電子機器であって、
    前記制御部は、
    前記検出対象面が指でさわられている場合に前記第3操作を受け付け、
    前記検出対象面が指でさわられていない場合に前記第3操作を受け付けない、電子機器。
  11. 請求項1から請求項10のいずれか一つに記載の電子機器であって、
    ユーザによるジェスチャを検出する第4センサをさらに備え、
    前記制御部は、前記第4センサでの第4検出結果に基づいて前記ジェスチャを特定し、特定した前記操作及び前記ジェスチャに基づいて前記表示面での第3画面の表示を制御する、電子機器。
  12. 請求項11に記載の電子機器であって、
    前記制御部は、前記検出対象面が指でさわられているときに前記第4検出結果に基づいて前記ユーザによる第1ジェスチャを特定すると、前記第3画面の表示をスクロールする、電子機器。
  13. 請求項12に記載の電子機器であって、
    前記制御部は、
    前記検出対象面が指でさわられているときに前記第1ジェスチャを特定すると、所定量だけ前記第3画面の表示をスクロールし、
    前記第1ジェスチャが行われるときに前記第1センサで検出される指紋に応じて、前記所定量を変化させる、電子機器。
  14. 請求項12及び請求項13のいずれか一つに記載の電子機器であって、
    前記制御部は、
    前記検出対象面が指でさわられているときに前記第1ジェスチャを特定すると、第1の量だけ前記第3画面の表示をスクロールし、
    前記表示面に第4画面が表示されている場合に、前記第1検出結果に基づいて前記検出対象面に対する指の第5操作を特定すると、前記第1の量とは異なる第2の量だけ前記第4画面の表示をスクロールする、電子機器。
  15. 請求項11から請求項14のいずれか一つに記載の電子機器であって、
    前記制御部は、前記検出対象面が指でさわられているときに前記第4検出結果に基づいて前記ユーザよる第2ジェスチャを特定すると、前記第3画面の表示を拡大あるいは縮小する、電子機器。
  16. 請求項15に記載の電子機器であって、
    前記制御部は、
    前記検出対象面が指でさわられているときに前記第2ジェスチャを特定すると、所定倍率で前記第3画面の表示を拡大あるいは縮小し、
    前記第2ジェスチャが行われるときに前記第1センサで検出される指紋に応じて、前記所定倍率を変化させる、電子機器。
  17. 請求項15及び請求項16のいずれか一つに記載の電子機器であって、
    前記制御部は、
    前記検出対象面が指でさわられているときに前記第2ジェスチャを特定すると、第1の倍率で前記第3画面の表示を拡大あるいは縮小し、
    前記表示面に第5画面が表示されている場合に、前記第1検出結果に基づいて前記検出対象面に対する指の第6操作を特定すると、前記第1の倍率とは異なる第2の倍率で前記第5画面の表示を拡大あるいは縮小する、電子機器。
  18. 電子機器を制御するための制御プログラムであって、
    前記電子機器が有する検出対象面をさわる指の指紋を検出する第1センサでの第1検出結果に基づいて前記検出対象面に対する指の操作を特定する第1処理と、
    前記検出対象面にかかる圧力を検出する第2センサでの第2検出結果に基づいて前記圧力を特定する第2処理と、
    特定された前記操作及び前記圧力に基づいて、前記電子機器が有する表示面でのある画面の表示を制御する第3処理と
    を、前記電子機器に実行させるための制御プログラム。
  19. 電子機器での表示制御方法であって、
    前記電子機器が有する検出対象面をさわる指の指紋を検出する第1センサでの第1検出結果に基づいて前記検出対象面に対する指の操作を特定し、
    前記検出対象面にかかる圧力を検出する第2センサでの第2検出結果に基づいて前記圧力を特定し、
    特定された前記操作及び前記圧力に基づいて、前記電子機器が有する表示面でのある画面の表示を制御する、表示制御方法。
JP2018141626A 2018-07-27 2018-07-27 電子機器、制御プログラム及び表示制御方法 Active JP7244231B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018141626A JP7244231B2 (ja) 2018-07-27 2018-07-27 電子機器、制御プログラム及び表示制御方法
US16/521,482 US11354031B2 (en) 2018-07-27 2019-07-24 Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018141626A JP7244231B2 (ja) 2018-07-27 2018-07-27 電子機器、制御プログラム及び表示制御方法

Publications (2)

Publication Number Publication Date
JP2020017215A true JP2020017215A (ja) 2020-01-30
JP7244231B2 JP7244231B2 (ja) 2023-03-22

Family

ID=69177731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141626A Active JP7244231B2 (ja) 2018-07-27 2018-07-27 電子機器、制御プログラム及び表示制御方法

Country Status (2)

Country Link
US (1) US11354031B2 (ja)
JP (1) JP7244231B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163503A1 (ja) * 2018-02-22 2019-08-29 京セラ株式会社 電子機器、制御方法およびプログラム
US11507206B2 (en) * 2019-05-13 2022-11-22 Microsoft Technology Licensing, Llc Force-sensing input device
US10977470B1 (en) * 2019-11-27 2021-04-13 Novatek Microelectronics Corp. Touch-panel control apparatus and operation method thereof

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151505A (ja) * 2007-12-19 2009-07-09 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2009211244A (ja) * 2008-03-03 2009-09-17 Ntt Docomo Inc タッチパネル表示制御システム、タッチパネル表示制御方法、タッチパネル表示制御プログラム
JP2012168890A (ja) * 2011-02-16 2012-09-06 Ntt Docomo Inc 表示装置、通信装置及びプログラム
JP2013058149A (ja) * 2011-09-09 2013-03-28 Kddi Corp 押圧による画像のズームが可能なユーザインタフェース装置、画像ズーム方法及びプログラム
JP2013070303A (ja) * 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
JP2013235588A (ja) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
JP2014197164A (ja) * 2013-03-08 2014-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示装置、表示方法、及び表示プログラム
JP2014222379A (ja) * 2013-05-13 2014-11-27 Necカシオモバイルコミュニケーションズ株式会社 情報端末、タッチ操作処理方法及びプログラム
JP2015194997A (ja) * 2014-03-27 2015-11-05 キヤノンマーケティングジャパン株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及び記憶媒体
JP2017033593A (ja) * 2013-12-04 2017-02-09 株式会社 ハイディープHiDeep Inc. タッチに基づいた対象動作制御システム及びその方法
JP2017537416A (ja) * 2014-10-30 2017-12-14 ティモシー ジン イン スートゥー タッチを感知し、圧力を感知し、表示可能である側面を備えた電子デバイス
WO2018037738A1 (ja) * 2016-08-24 2018-03-01 ソニー株式会社 情報処理装置、プログラムおよび情報処理システム
WO2018079001A1 (ja) * 2016-10-24 2018-05-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9001514D0 (en) * 1990-01-23 1990-03-21 Crosfield Electronics Ltd Image handling apparatus
US6408087B1 (en) * 1998-01-13 2002-06-18 Stmicroelectronics, Inc. Capacitive semiconductor user input device
US20070002018A1 (en) * 2005-06-30 2007-01-04 Eigo Mori Control of user interface of electronic device
WO2011067845A1 (ja) 2009-12-03 2011-06-09 富士通株式会社 電子機器
US8977987B1 (en) * 2010-06-14 2015-03-10 Google Inc. Motion-based interface control on computing device
CN107665089B (zh) * 2010-08-12 2021-01-22 谷歌有限责任公司 触摸屏上的手指识别
JP2013114645A (ja) 2011-12-01 2013-06-10 Sharp Corp 小型情報機器
US9898642B2 (en) * 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
KR102290892B1 (ko) * 2014-12-12 2021-08-19 엘지전자 주식회사 이동단말기 및 그것의 제어방법
JP6140773B2 (ja) * 2015-06-26 2017-05-31 京セラ株式会社 電子機器及び電子機器の動作方法
KR20180017746A (ko) * 2016-08-10 2018-02-21 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR102350781B1 (ko) * 2017-06-15 2022-01-14 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151505A (ja) * 2007-12-19 2009-07-09 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2009211244A (ja) * 2008-03-03 2009-09-17 Ntt Docomo Inc タッチパネル表示制御システム、タッチパネル表示制御方法、タッチパネル表示制御プログラム
JP2012168890A (ja) * 2011-02-16 2012-09-06 Ntt Docomo Inc 表示装置、通信装置及びプログラム
JP2013058149A (ja) * 2011-09-09 2013-03-28 Kddi Corp 押圧による画像のズームが可能なユーザインタフェース装置、画像ズーム方法及びプログラム
JP2013070303A (ja) * 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
JP2013235588A (ja) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
JP2014197164A (ja) * 2013-03-08 2014-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示装置、表示方法、及び表示プログラム
JP2014222379A (ja) * 2013-05-13 2014-11-27 Necカシオモバイルコミュニケーションズ株式会社 情報端末、タッチ操作処理方法及びプログラム
JP2017033593A (ja) * 2013-12-04 2017-02-09 株式会社 ハイディープHiDeep Inc. タッチに基づいた対象動作制御システム及びその方法
JP2015194997A (ja) * 2014-03-27 2015-11-05 キヤノンマーケティングジャパン株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及び記憶媒体
JP2017537416A (ja) * 2014-10-30 2017-12-14 ティモシー ジン イン スートゥー タッチを感知し、圧力を感知し、表示可能である側面を備えた電子デバイス
WO2018037738A1 (ja) * 2016-08-24 2018-03-01 ソニー株式会社 情報処理装置、プログラムおよび情報処理システム
WO2018079001A1 (ja) * 2016-10-24 2018-05-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20200034032A1 (en) 2020-01-30
JP7244231B2 (ja) 2023-03-22
US11354031B2 (en) 2022-06-07

Similar Documents

Publication Publication Date Title
JP6140773B2 (ja) 電子機器及び電子機器の動作方法
US9772762B2 (en) Variable scale scrolling and resizing of displayed images based upon gesture speed
US9111076B2 (en) Mobile terminal and control method thereof
TWI629636B (zh) 用於控制一電子器件之方法、電子器件及非暫時性電腦可讀儲存媒體
US9280263B2 (en) Mobile terminal and control method thereof
US8063872B2 (en) Portable electronic device with auto-dim timers
CN104932809B (zh) 用于控制显示面板的装置和方法
US8934949B2 (en) Mobile terminal
EP2757762A2 (en) Mobile terminal and control method thereof
KR20160080036A (ko) 사용자 단말 장치 및 그의 제어 방법
KR20150090840A (ko) 디스플레이 화면의 영역을 보호하는 디바이스 및 방법
KR20160032611A (ko) 터치 입력을 이용하여 전자 장치를 제어하는 방법 및 장치
JP6940353B2 (ja) 電子機器
JP2009140368A (ja) 入力装置、表示装置、入力方法、表示方法及びプログラム
US20190095068A1 (en) Portable terminal device
CN107172347B (zh) 一种拍照方法及终端
JP5925656B2 (ja) 画像表示制御装置、画像表示装置、プログラム及び画像表示方法
EP3614239B1 (en) Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
JP2019175090A (ja) 電子機器、制御装置、制御プログラム及び電子機器の動作方法
US20200089362A1 (en) Device and control method capable of touch sensing and touch pressure sensing
JP7034856B2 (ja) 電子機器、制御プログラム及び表示制御方法
JP6616379B2 (ja) 電子機器
JP6871846B2 (ja) 電子機器および制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150