JP5851326B2 - Apparatus, method, and program - Google Patents

Apparatus, method, and program Download PDF

Info

Publication number
JP5851326B2
JP5851326B2 JP2012101703A JP2012101703A JP5851326B2 JP 5851326 B2 JP5851326 B2 JP 5851326B2 JP 2012101703 A JP2012101703 A JP 2012101703A JP 2012101703 A JP2012101703 A JP 2012101703A JP 5851326 B2 JP5851326 B2 JP 5851326B2
Authority
JP
Japan
Prior art keywords
smartphone
gesture
screen
detected
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012101703A
Other languages
Japanese (ja)
Other versions
JP2013228953A (en
Inventor
勝裕 岡本
勝裕 岡本
賢二 福田
賢二 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012101703A priority Critical patent/JP5851326B2/en
Publication of JP2013228953A publication Critical patent/JP2013228953A/en
Application granted granted Critical
Publication of JP5851326B2 publication Critical patent/JP5851326B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本出願は、装置、方法、及びプログラムに関する。特に、本出願は、タッチスクリーンを有する装置、その装置を制御する方法、及びその装置を制御するためのプログラムに関する。   The present application relates to an apparatus, a method, and a program. In particular, the present application relates to a device having a touch screen, a method for controlling the device, and a program for controlling the device.

タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスには、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、特許文献1に記載されている。   Touch screen devices comprising a touch screen are known. Touch screen devices include, for example, smartphones and tablets. The touch screen device detects a finger, pen, or stylus pen gesture via the touch screen. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in Patent Document 1.

タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、Windows(登録商標) Phoneである。   The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. The OS installed in the touch screen device is, for example, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, or Windows (registered trademark) Phone.

国際公開第2008/086302号International Publication No. 2008/086302

タッチスクリーンデバイスの多くは、利用者によって操作されない期間がある期間継続するとロック状態へ移行する。ロック状態において、タッチスクリーンデバイスは、特定のジェスチャを除いて、利用者のジェスチャを受け付けない。この特定のジェスチャとは、例えば、ロック状態を解除するためのロック解除ジェスチャである。   Many touch screen devices shift to a locked state after a period of time during which they are not operated by the user. In the locked state, the touch screen device does not accept user gestures except for certain gestures. This specific gesture is, for example, an unlocking gesture for releasing a locked state.

タッチスクリーンデバイスは、ロック状態においてロック解除ジェスチャが検出された場合、ロック状態を解除して、タッチスクリーンディスプレイにホーム画面を表示する。ホーム画面には、アイコンと呼ばれるオブジェクトが配置される。タッチスクリーンデバイスは、アイコンに対する特定のジェスチャを検出すると、ジェスチャが検出されたアイコンに対応する機能を実行する。このアイコンに対する特定のジェスチャとは、例えば、アイコンをタップするジェスチャである。   When the unlocking gesture is detected in the locked state, the touch screen device releases the locked state and displays the home screen on the touch screen display. An object called an icon is arranged on the home screen. When the touch screen device detects a specific gesture for the icon, the touch screen device performs a function corresponding to the icon for which the gesture is detected. The specific gesture for the icon is, for example, a gesture for tapping the icon.

そのため、利用者は、ロック状態へ移行したタッチスクリーンデバイスにおいて、所望のアプリケーションを実行する場合、まず、ロック状態を解除してホーム画面を表示し、次にホーム画面上から所望のアプリケーションに対応するアイコンを選択して、所望のアプリケーションを実行させるジェスチャを行う必要がある。   Therefore, when the user executes a desired application on the touch screen device that has shifted to the locked state, the user first releases the locked state to display the home screen, and then corresponds to the desired application on the home screen. It is necessary to perform a gesture for selecting an icon and executing a desired application.

このような理由により、ロック画面が表示された状態から所望のアプリケーションを実行する際の操作性を向上させることができる装置、方法、及びプログラムに対するニーズがある。   For these reasons, there is a need for an apparatus, a method, and a program that can improve operability when executing a desired application from a state in which a lock screen is displayed.

1つの態様に係る装置は、ロック画面を表示するタッチスクリーンディスプレイと、ロック状態において、前記タッチスクリーンディスプレイに対する特定のジェスチャが検出された場合、当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行するコントローラと、を備える。   An apparatus according to an aspect executes a touch screen display that displays a lock screen, and an application corresponding to an operation pattern of the detected gesture when a specific gesture for the touch screen display is detected in the locked state. And a controller.

1つの態様に係る方法は、タッチスクリーンディスプレイを備える装置を制御する方法であって、ロック画面を前記タッチスクリーンディスプレイに表示させるステップと、ロック状態において、前記タッチスクリーンディスプレイに対する特定のジェスチャが検出された場合、当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行するステップと、を含む。   A method according to one aspect is a method of controlling an apparatus comprising a touch screen display, wherein a lock screen is displayed on the touch screen display, and a specific gesture for the touch screen display is detected in a locked state. A step of executing an application corresponding to the detected operation pattern of the gesture.

1つの態様に係るプログラムは、タッチスクリーンディスプレイを備える装置に、ロック画面を前記タッチスクリーンディスプレイに表示させるステップと、ロック状態において、前記タッチスクリーンディスプレイに対する特定のジェスチャが検出された場合、当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行するステップと、を実行させる。   A program according to an aspect includes a step of causing a device including a touch screen display to display a lock screen on the touch screen display, and when a specific gesture for the touch screen display is detected in a locked state, the program is detected. And executing an application corresponding to the operation pattern of the gesture.

図1は、実施形態に係るスマートフォンの外観を示す斜視図である。FIG. 1 is a perspective view illustrating an appearance of a smartphone according to the embodiment. 図2は、実施形態に係るスマートフォンの外観を示す正面図である。FIG. 2 is a front view illustrating an appearance of the smartphone according to the embodiment. 図3は、実施形態に係るスマートフォンの外観を示す背面図である。FIG. 3 is a rear view illustrating an appearance of the smartphone according to the embodiment. 図4は、ホーム画面の一例を示す図である。FIG. 4 is a diagram illustrating an example of the home screen. 図5は、実施形態に係るスマートフォンの機能を示すブロック図である。FIG. 5 is a block diagram illustrating functions of the smartphone according to the embodiment. 図6Aは、ロック画面の一例を示す図である。FIG. 6A is a diagram illustrating an example of a lock screen. 図6Bは、ロック画面の一例を示す図である。FIG. 6B is a diagram illustrating an example of the lock screen. 図6Cは、ロック画面の一例を示す図である。FIG. 6C is a diagram illustrating an example of the lock screen. 図7は、実施形態に係るスマートフォンが行う制御の第1の例を示す図である。FIG. 7 is a diagram illustrating a first example of control performed by the smartphone according to the embodiment. 図8は、実施形態に係るスマートフォンが行う制御の第2の例を示す図である。FIG. 8 is a diagram illustrating a second example of control performed by the smartphone according to the embodiment. 図9は、実施形態に係るスマートフォンが行う制御の第3の例を示す図である。FIG. 9 is a diagram illustrating a third example of control performed by the smartphone according to the embodiment. 図10は、実施形態に係るスマートフォンが行う制御の第4の例を示す図である。FIG. 10 is a diagram illustrating a fourth example of control performed by the smartphone according to the embodiment. 図11は、実施形態に係るスマートフォンが行う制御の第5の例を示す図である。FIG. 11 is a diagram illustrating a fifth example of control performed by the smartphone according to the embodiment. 図12は、実施形態に係るスマートフォンが行う制御の第6の例を示す図である。FIG. 12 is a diagram illustrating a sixth example of control performed by the smartphone according to the embodiment. 図13は、実施形態に係るスマートフォンが行う制御の第7の例を示す図である。FIG. 13 is a diagram illustrating a seventh example of control performed by the smartphone according to the embodiment. 図14は、実施形態に係るスマートフォンが行う制御の第8の例を示す図である。FIG. 14 is a diagram illustrating an eighth example of control performed by the smartphone according to the embodiment. 図15は、実施形態に係るスマートフォンが行う制御の第9の例を示す図である。FIG. 15 is a diagram illustrating a ninth example of control performed by the smartphone according to the embodiment. 図16は、実施形態に係るスマートフォンが行う制御の第10の例を示す図である。FIG. 16 is a diagram illustrating a tenth example of control performed by the smartphone according to the embodiment. 図17Aは、実施形態に係るスマートフォンが行う制御の第11の例を示す図である。FIG. 17A is a diagram illustrating an eleventh example of control performed by the smartphone according to the embodiment. 図17Bは、実施形態に係るスマートフォンが行う制御の第11の例を示す図である。FIG. 17B is a diagram illustrating an eleventh example of control performed by the smartphone according to the embodiment. 図18Aは、実施形態に係るスマートフォンが行う制御の第12の例を示す図である。FIG. 18A is a diagram illustrating a twelfth example of control performed by the smartphone according to the embodiment. 図18Bは、実施形態に係るスマートフォンが行う制御の第12の例を示す図である。FIG. 18B is a diagram illustrating a twelfth example of control performed by the smartphone according to the embodiment. 図19は、実施形態に係るスマートフォンが行う制御の処理手順を示すフローチャートである。FIG. 19 is a flowchart illustrating a control processing procedure performed by the smartphone according to the embodiment. 図20は、実施形態に係るスマートフォンが行う制御の処理手順を示すフローチャートである。FIG. 20 is a flowchart illustrating a control processing procedure performed by the smartphone according to the embodiment. 図21は、実施形態に係るスマートフォンが行う制御の処理手順を示すフローチャートである。FIG. 21 is a flowchart illustrating a control processing procedure performed by the smartphone according to the embodiment. 図22は、選択画面の一例を示す図である。FIG. 22 is a diagram illustrating an example of the selection screen. 図23は、登録画面の一例を示す図である。FIG. 23 is a diagram illustrating an example of a registration screen. 図24は、実施形態に係るスマートフォンが行う制御の第13の例を示す図である。FIG. 24 is a diagram illustrating a thirteenth example of control performed by the smartphone according to the embodiment. 図25は、実施形態に係るスマートフォンが行う制御の処理手順を示すフローチャートである。FIG. 25 is a flowchart illustrating a control processing procedure performed by the smartphone according to the embodiment.

図面を参照しつつ実施形態を詳細に説明する。以下では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明する。   Embodiments will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an apparatus provided with a touch screen.

(実施形態)
図1から図3を参照しながら、本実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
(Embodiment)
The overall configuration of the smartphone 1 according to this embodiment will be described with reference to FIGS. 1 to 3. As shown in FIGS. 1 to 3, the smartphone 1 has a housing 20. The housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4. The front face 1 </ b> A is the front of the housing 20. The back face 1 </ b> B is the back surface of the housing 20. The side faces 1C1 to 1C4 are side surfaces that connect the front face 1A and the back face 1B. Hereinafter, the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.

スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。   The smartphone 1 includes a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A. The smartphone 1 has a speaker 11 and a camera 13 on the back face 1B. The smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C. Hereinafter, the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネルディスプレイ(Organic Electro−Luminescence Panel Display)、又は無機ELパネルディスプレイ(Inorganic Electro−Luminescence Panel Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2A is a device such as a liquid crystal display (Liquid Crystal Display), an organic EL panel display (Organic Electro-Luminescence Panel Display), or an inorganic EL panel display (Inorganic Electro-Luminescence Panel Display). The display 2A displays characters, images, symbols, graphics, and the like.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。   The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen, or the like is in contact with the touch screen 2B.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user uses the finger to touch the touch screen 2B in order to operate the smartphone 1.

スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。   The smartphone 1 determines the type of gesture based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. The gesture is an operation performed on the touch screen 2B. The gesture discriminated by the smartphone 1 includes touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, pinch out, and the like.

「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別する。   “Touch” is a gesture in which a finger touches the touch screen 2B. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B as a touch. “Long touch” is a gesture in which a finger touches the touch screen 2B for a longer period of time. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B for longer than a certain time as a long touch.

「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。   “Release” is a gesture in which a finger leaves the touch screen 2B. The smartphone 1 determines that a gesture in which a finger leaves the touch screen 2B is a release. “Swipe” is a gesture in which a finger moves while touching the touch screen 2B. The smartphone 1 determines a gesture that moves while the finger is in contact with the touch screen 2B as a swipe.

「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。   A “tap” is a gesture for releasing following a touch. The smartphone 1 determines a gesture for releasing following a touch as a tap. The “double tap” is a gesture in which a gesture for releasing following a touch is continued twice. The smartphone 1 determines a gesture in which a gesture for releasing following a touch is continued twice as a double tap.

「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。   “Long tap” is a gesture for releasing following a long touch. The smartphone 1 determines a gesture for releasing following a long touch as a long tap. “Drag” is a gesture for performing a swipe starting from an area where a movable object is displayed. The smartphone 1 determines, as a drag, a gesture for performing a swipe starting from an area where a movable object is displayed.

「フリック」は、タッチに続いて指が一方方向へ移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ移動しながらリリースするジェスチャをフリックとして判別する。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。   “Flick” is a gesture that is released while a finger moves in one direction following a touch. The smartphone 1 determines, as a flick, a gesture that is released while the finger moves in one direction following the touch. Flick is "upper flick" where the finger moves upward on the screen, "lower flick" where the finger moves downward on the screen, "right flick" where the finger moves rightward on the screen, finger is left on the screen Including “left flick” moving in the direction. The movement of a finger in a flick is often quicker than the movement of a finger in a swipe.

「ピンチイン」は、複数の指が近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が近付く方向にスワイプするジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。   “Pinch-in” is a gesture of swiping in a direction in which a plurality of fingers approach. The smartphone 1 determines, as a pinch-in, a gesture that swipes in a direction in which a plurality of fingers approach. “Pinch out” is a gesture of swiping in a direction in which a plurality of fingers move away. The smartphone 1 determines a gesture of swiping in a direction in which a plurality of fingers move away as a pinch out.

スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なる。以下では、説明を簡単にするために、「タッチスクリーン2Bがジェスチャを検出し、検出されたジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラがXを検出する」と記載することがある。   The smartphone 1 operates according to these gestures that are determined via the touch screen 2B. Therefore, an operability that is intuitive and easy to use for the user is realized. The operation performed by the smartphone 1 according to the determined gesture differs depending on the screen displayed on the display 2A. Hereinafter, in order to simplify the description, “the touch screen 2B detects a gesture and the smartphone 1 determines that the type of the detected gesture is X”, “the smartphone 1 detects X”, or “The controller detects X” may be described.

図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。   An example of a screen displayed on the display 2A will be described with reference to FIG. FIG. 4 shows an example of the home screen. The home screen may be called a desktop or a standby screen. The home screen is displayed on the display 2A. The home screen is a screen that allows the user to select which application to execute from among the applications installed in the smartphone 1. The smartphone 1 executes the application selected on the home screen in the foreground. The screen of the application executed in the foreground is displayed on the display 2A.

スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、ジェスチャが検出されたアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップが検出されると、メールアプリケーションを実行する。   The smartphone 1 can place an icon on the home screen. A plurality of icons 50 are arranged on the home screen 40 shown in FIG. Each icon 50 is associated with an application installed in the smartphone 1 in advance. When the smartphone 1 detects a gesture for the icon 50, the smartphone 1 executes an application associated with the icon 50 from which the gesture is detected. For example, the smartphone 1 executes the mail application when a tap on the icon 50 associated with the mail application is detected.

アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、配置パターンに基づいて配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。スマートフォン1は、壁紙41として表示する画像を利用者が選択できるように構成されてもよい。   The icon 50 includes an image and a character string. The icon 50 may include a symbol or a graphic instead of the image. The icon 50 may not include either an image or a character string. The icons 50 are arranged based on the arrangement pattern. A wallpaper 41 is displayed behind the icon 50. The wallpaper is sometimes called a photo screen or a back screen. The smartphone 1 can use any image as the wallpaper 41. The smartphone 1 may be configured so that the user can select an image to be displayed as the wallpaper 41.

スマートフォン1は、複数のホーム画面を含むことができる。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面の数が複数であっても、選択された1つをディスプレイ2Aに表示する。   The smartphone 1 can include a plurality of home screens. For example, the smartphone 1 determines the number of home screens according to the setting by the user. The smartphone 1 displays the selected one on the display 2A even if there are a plurality of home screens.

スマートフォン1は、ホーム画面上に、1つ又は複数のロケータを表示する。ロケータの数は、ホーム画面の数と一致する。ロケータは、どのホーム画面が現在表示されているかを示す。現在表示されているホーム画面に対応するロケータは、他のロケータと異なる態様で表示される。   The smartphone 1 displays one or more locators on the home screen. The number of locators matches the number of home screens. The locator indicates which home screen is currently displayed. The locator corresponding to the currently displayed home screen is displayed in a manner different from other locators.

図4に示す例では、4つのロケータ51が表示されている。これは、ホーム画面40の数が4つであることを示す。さらに、図4に示す例では、左から2番目のシンボルが他のシンボルと異なる態様で表示されている。これは、左から2番目のホーム画面が現在ディスプレイ2Aに表示されていることを示している。   In the example shown in FIG. 4, four locators 51 are displayed. This indicates that the number of home screens 40 is four. Further, in the example shown in FIG. 4, the second symbol from the left is displayed in a manner different from other symbols. This indicates that the second home screen from the left is currently displayed on the display 2A.

スマートフォン1は、ホーム画面を表示中にジェスチャを検出すると、ディスプレイ2Aに表示するホーム画面を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に切り替える。例えば、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に切り替える。   When the smartphone 1 detects a gesture while displaying the home screen, the smartphone 1 switches the home screen displayed on the display 2A. For example, when detecting a right flick, the smartphone 1 switches the home screen displayed on the display 2A to the left home screen. For example, when the smartphone 1 detects a left flick, the smartphone 1 switches the home screen displayed on the display 2A to the right home screen.

ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、時刻、天気、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40以外の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限定されない。   A region 42 is provided at the upper end of the display 2A. In the area 42, a remaining amount mark 43 indicating the remaining amount of the rechargeable battery and a radio wave level mark 44 indicating the electric field strength of the communication radio wave are displayed. The smartphone 1 may display the time, weather, running application, communication system type, telephone status, device mode, event occurring in the device, and the like in the area 42. As described above, the area 42 is used for various notifications to the user. The area 42 may be provided on a screen other than the home screen 40. The position where the region 42 is provided is not limited to the upper end of the display 2A.

図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。   The home screen 40 shown in FIG. 4 is an example, and the forms of various elements, the arrangement of various elements, the number of home screens 40, how to perform various operations on the home screen 40, and the like are as described above. Not necessarily.

図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。   FIG. 5 is a block diagram illustrating the configuration of the smartphone 1. The smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, a speaker 11, and a camera. 12 and 13, a connector 14, an acceleration sensor 15, an orientation sensor 16, and a gyroscope 17.

タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、ジェスチャを検出する。   As described above, the touch screen display 2 includes the display 2A and the touch screen 2B. The display 2A displays characters, images, symbols, graphics, or the like. The touch screen 2B detects a gesture.

ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュである。   The button 3 is operated by the user. The button 3 includes buttons 3A to 3F. The controller 10 detects an operation on the button 3 by cooperating with the button 3. The operations on the button 3 are, for example, click, double click, triple click, push, and multi-push.

ボタン3A〜3Cは、例えば、ホームボタン、バックボタン、又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。   The buttons 3A to 3C are, for example, a home button, a back button, or a menu button. The button 3D is, for example, a power on / off button of the smartphone 1. The button 3D may also serve as a sleep / sleep release button. The buttons 3E and 3F are volume buttons, for example.

照度センサ4は、照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。   The illuminance sensor 4 detects illuminance. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example. The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor.

通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method performed by the communication unit 6 is a wireless communication standard. Examples of wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. As a cellular phone communication standard, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular, GSM (registered trademark) mmloS) (Personal Handy-phone System). Examples of wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearFunel, etc.). The communication unit 6 may support one or more of the communication standards described above.

レシーバ7及びスピーカ11は、コントローラ10から送信される音声信号を音声として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。   The receiver 7 and the speaker 11 output the audio signal transmitted from the controller 10 as audio. The receiver 7 is used, for example, to output the other party's voice during a call. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other. The microphone 8 converts the voice of the user or the like into a voice signal and transmits it to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の非一過的(non−transitory)な記憶デバイスを含んでよい。ストレージ9は、複数の種類の記憶デバイスを含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage device such as a semiconductor storage device and a magnetic storage device. The storage 9 may include a plurality of types of storage devices. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bによって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a screen on the display 2 </ b> A, and causes the controller 10 to execute a process according to a gesture detected by the touch screen 2 </ b> B. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メール機能を提供する。電子メール機能は、例えば、電子メールの作成、送信、受信、及び表示等を可能にする。ブラウザアプリケーション9Cは、WEBブラウジング機能を提供する。WEBブラウジング機能は、例えば、WEBページの表示、及びブックマークの編集等を可能にする。この他、ストレージ9は、テキスト入力機能を提供するテキストエディタアプリケーション、及び、カメラ機能を提供するカメラアプリケーションを記憶していてもよい。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。例えば、設定データ9Zは、タッチスクリーンディスプレイ2に対する特定のジェスチャの操作パターンを記憶している。特定のジェスチャの操作パターンの例については図7〜図18Bを参照して後述する。   The storage 9 stores, for example, a control program 9A, a mail application 9B, a browser application 9C, and setting data 9Z. The mail application 9B provides an electronic mail function. The e-mail function enables, for example, creation, transmission, reception, and display of an e-mail. The browser application 9C provides a WEB browsing function. The WEB browsing function enables, for example, display of a WEB page and editing of a bookmark. In addition, the storage 9 may store a text editor application that provides a text input function and a camera application that provides a camera function. The setting data 9Z includes information related to various settings related to the operation of the smartphone 1. For example, the setting data 9 </ b> Z stores an operation pattern of a specific gesture for the touch screen display 2. Examples of operation patterns of specific gestures will be described later with reference to FIGS. 7 to 18B.

本実施形態において、設定データ9Zに記憶される特定のジェスチャの操作パターンは、ロック状態の解除中に、利用者により任意に設定される。例えば、スマートフォン1は、特定のボタン3がクリックされる等の所定の操作が検出されると、特定のジェスチャと対応付けるアプリケーションを選択するための選択画面をディスプレイ2Aに表示する。そして、スマートフォン1は、利用者が選択画面上で所望のアプリケーションを選択すると、スマートフォン1は、当該特定のジェスチャの操作パターンを登録するための登録画面をディスプレイ2Aに表示する。そして、スマートフォン1は、利用者が登録画面上でタッチスクリーン2Bに対して後述する図7〜図18B、図24等に示すように特定のジェスチャを行うと、スマートフォン1は、登録画面上で検出された特定のジェスチャの操作パターンと、選択画面上で選択されたアプリケーションとを対応付けて設定データ9Zに記憶する。スマートフォン1は、特定のジェスチャの操作パターンを登録する際、所定回数、利用者に同じ動作を促すようメッセージを登録画面上に表示してもよい。この場合、スマートフォン1は、1回目に登録した操作パターンと2回目に登録した操作パターンが異なる場合、操作パターンの設定をやり直すメッセージを登録画面上に表示する。特定のジェスチャの操作パターンを登録する制御の例については図22〜図25を参照して後述する。   In the present embodiment, the operation pattern of the specific gesture stored in the setting data 9Z is arbitrarily set by the user during the release of the locked state. For example, when a predetermined operation such as a click on a specific button 3 is detected, the smartphone 1 displays a selection screen for selecting an application associated with the specific gesture on the display 2A. Then, when the user selects a desired application on the selection screen, the smartphone 1 displays a registration screen for registering the operation pattern of the specific gesture on the display 2A. And if the smart phone 1 performs a specific gesture as shown in FIGS. 7-18B, FIG. 24 etc. which are later mentioned with respect to the touch screen 2B on a registration screen, the smart phone 1 will detect on a registration screen. The operation pattern of the specified gesture and the application selected on the selection screen are associated with each other and stored in the setting data 9Z. When registering an operation pattern of a specific gesture, the smartphone 1 may display a message on the registration screen so as to prompt the user to perform the same operation a predetermined number of times. In this case, when the operation pattern registered for the first time is different from the operation pattern registered for the second time, the smartphone 1 displays a message for re-setting the operation pattern on the registration screen. An example of control for registering an operation pattern of a specific gesture will be described later with reference to FIGS.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、ロック画面を表示する機能と、ロック状態において、タッチスクリーンディスプレイ2に対する特定のジェスチャが検出された場合、当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行する機能とが含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the smartphone 1. The control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example. The functions provided by the control program 9A include a function for displaying a lock screen, and when a specific gesture for the touch screen display 2 is detected in the locked state, an application corresponding to the operation pattern of the detected gesture is executed. Functions to be included. The function provided by the control program 9A may be used in combination with a function provided by another program such as the mail application 9B.

コントローラ10は、演算回路である。演算回路は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、又はFPGA(Field−Programmable Gate Array)である。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic circuit. The arithmetic circuit is, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), or an FPGA (Field-Programmable Gate Array). The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。機能部は、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。検出部は、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、レシーバ7、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むがこれらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The controller 10 may change the control according to the detection result of the detection unit. The functional unit includes the display 2A, the communication unit 6, the microphone 8, and the speaker 11, but is not limited thereto. The detection unit includes, but is not limited to, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the receiver 7, the camera 12, the camera 13, the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、ロック状態において、タッチスクリーンディスプレイ2に対する特定のジェスチャが検出された場合、当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行する制御を行う。アプリケーションを実行する制御とは、アプリケーションを起動する制御を含む。例えば、コントローラ10は、起動されていないアプリケーションを実行する場合、当該アプリケーションを起動した後、当該起動したアプリケーションを実行する。   For example, when a specific gesture for the touch screen display 2 is detected in the locked state by executing the control program 9A, the controller 10 performs control to execute an application corresponding to the detected operation pattern of the gesture. Do. Control for executing an application includes control for starting the application. For example, when executing an application that has not been started, the controller 10 starts the application and then executes the started application.

カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。   The camera 12 is an in-camera that captures an object facing the front face 1A. The camera 13 is an out camera that captures an object facing the back face 1B.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置である。   The connector 14 is a terminal to which another device is connected. The connector 14 may be a general-purpose terminal such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), and an earphone microphone connector. . The connector 14 may be a dedicated terminal such as a dock connector. Devices connected to the connector 14 are, for example, an external storage, a speaker, and a communication device.

加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. The direction sensor 16 detects the direction of geomagnetism. The gyroscope 17 detects the angle and angular velocity of the smartphone 1. The detection results of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17 are used in combination in order to detect changes in the position and orientation of the smartphone 1.

図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、又はメモリカードである。   In FIG. 5, some or all of the programs and data stored in the storage 9 may be downloaded from other devices by wireless communication using the communication unit 6. In FIG. 5, some or all of the programs and data stored in the storage 9 may be stored in a non-transitory storage medium that can be read by the reading device included in the storage 9. 5 may be stored in a non-transitory storage medium that can be read by a reading device connected to the connector 14. The non-transitory storage medium is, for example, an optical disc such as a CD (registered trademark), a DVD (registered trademark), or a Blu-ray (registered trademark), a magneto-optical disk, or a memory card.

図5に示したスマートフォン1の構成は一例であり、本出願の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてよいし、ボタンを備えなくてもよい。図5に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも一つを検出するための他の種類のセンサを備えてもよい。   The configuration of the smartphone 1 illustrated in FIG. 5 is an example, and may be appropriately changed within a range that does not impair the gist of the present application. For example, the number and type of buttons 3 are not limited to the example of FIG. The smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations related to the screen instead of the buttons 3A to 3C. The smartphone 1 may include only one button or may not include a button for operations related to the screen. In the example illustrated in FIG. 5, the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera. In the example illustrated in FIG. 5, the smartphone 1 includes three types of sensors in order to detect the position and orientation, but the smartphone 1 may not include some of these sensors. Alternatively, the smartphone 1 may include another type of sensor for detecting at least one of a position and a posture.

次に、図6Aから図6Cを参照して、ロック画面について説明する。ロック画面は、スマートフォン1がロックされていることを示す画面である。スマートフォン1は、例えば、タッチスクリーンディスプレイ2またはボタン3等に対する操作が行われずに所定の時間が経過するとロックされる。スマートフォン1は、例えば、スマートフォン1のスリープ/スリープ解除ボタンであるボタン3Dがクリックされた場合にもロックされる。スマートフォン1は、ロックされると、タッチスクリーンディスプレイ2に対する特定のジェスチャが行われた場合に、各種機能を実行することが可能な状態となる。この特定のジェスチャとは、例えば、ロック状態を解除するためのロック解除ジェスチャである。   Next, the lock screen will be described with reference to FIGS. 6A to 6C. The lock screen is a screen indicating that the smartphone 1 is locked. For example, the smartphone 1 is locked when a predetermined time elapses without an operation on the touch screen display 2 or the button 3 or the like. The smartphone 1 is also locked when, for example, a button 3D that is a sleep / sleep release button of the smartphone 1 is clicked. When the smartphone 1 is locked, the smartphone 1 is in a state in which various functions can be executed when a specific gesture is performed on the touch screen display 2. This specific gesture is, for example, an unlocking gesture for releasing a locked state.

本実施形態において、スマートフォン1は、タッチスクリーンディスプレイ2に対する特定のジェスチャが検出された場合、ロック状態を解除し、当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行し、実行したアプリケーションの画面を表示する。ここで、スマートフォン1は、ロック状態が解除されると、ロック画面を消去し、ロックされる直前にディスプレイ2Aに表示していた画面を再びディスプレイ2Aに表示してもよい。例えば、スマートフォン1は、ホーム画面40をディスプレイ2Aに表示している状態でロックされた場合、ロック状態が解除されると、ホーム画面40を再びディスプレイ2Aに表示してもよい。   In the present embodiment, when a specific gesture on the touch screen display 2 is detected, the smartphone 1 releases the lock state, executes an application corresponding to the operation pattern of the detected gesture, and executes the screen of the executed application Is displayed. Here, when the locked state is released, the smartphone 1 may erase the lock screen and display the screen displayed on the display 2A immediately before being locked on the display 2A again. For example, when the smartphone 1 is locked while the home screen 40 is displayed on the display 2A, the smartphone 1 may display the home screen 40 on the display 2A again when the locked state is released.

図6Aは、ディスプレイ2Aに表示されたロック画面60aを示す図である。図6Aに示すように、スマートフォン1は、ディスプレイ2Aにロック画面60aおよび領域42を表示している。領域42は、図4と同様に、ディスプレイ2Aの上端に表示される。ロック画面60aには、日付および時刻が領域42側に表示されている。ここで、ロック画面60aには、円形アイコン61が配置される。円形アイコン61は、全部で9個配置される。円形アイコン61は、ロック画面60aの中央部から下部にかけて、3行3列の格子状に配置される。   FIG. 6A is a diagram showing a lock screen 60a displayed on the display 2A. As shown in FIG. 6A, the smartphone 1 displays a lock screen 60a and a region 42 on the display 2A. The area 42 is displayed at the upper end of the display 2A as in FIG. On the lock screen 60a, the date and time are displayed on the area 42 side. Here, a circular icon 61 is arranged on the lock screen 60a. Nine circular icons 61 are arranged in total. The circular icons 61 are arranged in a 3 × 3 grid from the center to the bottom of the lock screen 60a.

図6Bは、ディスプレイ2Aに表示されたロック画面60bを示す図である。ロック画面60bには、ロック画面60bの略上半分の領域63の中央部に、4桁の数値を表示する4個のボックス62が表示されている。ロック画面60bには、ロック画面60bの略下半分の領域64に、ボックス62に表示させる数値を利用者が入力するための数字キーボードオブジェクトが表示されている。なお、ロック画面60bは、ロック画面60aまたはロック画面60c等の他の画面を表示中に特定のジェスチャが検出された場合に表示される数値入力用画面であってもよい。   FIG. 6B is a diagram showing a lock screen 60b displayed on the display 2A. On the lock screen 60b, four boxes 62 for displaying a 4-digit numerical value are displayed in the central part of the region 63 in the upper half of the lock screen 60b. On the lock screen 60b, a numeric keyboard object for the user to input a numerical value to be displayed in the box 62 is displayed in an area 64 in the substantially lower half of the lock screen 60b. The lock screen 60b may be a numerical input screen that is displayed when a specific gesture is detected while another screen such as the lock screen 60a or the lock screen 60c is being displayed.

図6Cは、ディスプレイ2Aに表示されたロック画面60cを示す図である。ロック画面60cには、ロック画面60aと同様に、日付および時刻が領域42側に表示されている。ロック画面60cには、日付および時刻のみが領域42側に表示されている。   FIG. 6C is a diagram showing a lock screen 60c displayed on the display 2A. On the lock screen 60c, the date and time are displayed on the area 42 side, similarly to the lock screen 60a. Only the date and time are displayed on the area 42 side on the lock screen 60c.

スマートフォン1は、例えば、スマートフォン1のスリープ/スリープ解除ボタンであるボタン3Dがクリックされると、上記のロック画面60a〜60cのいずれか一つをディスプレイ2Aに表示する。スマートフォン1は、利用者の設定操作により、どのロック画面を表示するかを決定してよい。   For example, when the button 3D that is a sleep / sleep release button of the smartphone 1 is clicked, the smartphone 1 displays any one of the lock screens 60a to 60c on the display 2A. The smartphone 1 may determine which lock screen is displayed by a user setting operation.

以下、図7〜図18Bを参照しながら、実施形態に係るスマートフォン1が、タッチスクリーンディスプレイ2に対する特定のジェスチャが検出された場合、当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行する制御の例を示す。   Hereinafter, referring to FIG. 7 to FIG. 18B, when the smartphone 1 according to the embodiment detects a specific gesture with respect to the touch screen display 2, control for executing an application corresponding to the operation pattern of the detected gesture is performed. An example of

図7は、実施形態に係るスマートフォンが行う制御の第1の例を示す図である。この第1の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、所定の軌跡を入力するジェスチャのパターンを設定している。なお、第1の例では、所定の軌跡としてα1が示す軌跡を入力するジェスチャには、ロック解除処理と、テキストエディタアプリケーションの実行処理とが対応付けられている。   FIG. 7 is a diagram illustrating a first example of control performed by the smartphone according to the embodiment. In the first example, the smartphone 1 sets a gesture pattern for inputting a predetermined trajectory as an operation pattern of a specific gesture. In the first example, a gesture for inputting a trajectory indicated by α1 as a predetermined trajectory is associated with an unlock process and a text editor application execution process.

スマートフォン1は、図7に示すように、ステップS11で、図6Aと同様のロック画面60aをディスプレイ2A(タッチスクリーンディスプレイ2)に表示している。   As shown in FIG. 7, the smartphone 1 displays the lock screen 60a similar to FIG. 6A on the display 2A (touch screen display 2) in step S11.

そして、ステップS12では、利用者が、指F1でロック画面60aに配置された9個の円形アイコン61のうち左の列の真ん中のアイコンをタッチしている。この場合、スマートフォン1は、この左の列の真ん中のアイコンが表示されている位置でのタッチを検出する。   In step S12, the user touches the middle icon in the left column among the nine circular icons 61 arranged on the lock screen 60a with the finger F1. In this case, the smartphone 1 detects a touch at a position where the middle icon in the left column is displayed.

そして、ステップS13では、利用者が、左の列の真ん中のアイコンが表示されている位置でタッチしていた指F1を、タッチスクリーンディスプレイ2上に接触させたままで右の列の下のアイコンが表示されている位置まで、α1が示す軌跡に沿って移動させている。この場合、スマートフォン1は、左の列の真ん中のアイコンが表示されている位置を始点として、α1が示す軌跡に沿って移動し、右の列の下のアイコンが表示されている位置を終点とするスワイプを検出する。そして、スマートフォン1は、検出したスワイプが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S13, the user touches the finger F1 touched at the position where the middle icon in the left column is displayed on the touch screen display 2, and the icon under the right column is displayed. It is moved along the locus indicated by α1 to the displayed position. In this case, the smartphone 1 starts from the position where the middle icon in the left column is displayed, moves along the trajectory indicated by α1, and the position where the icon below the right column is displayed is the end point. Detect the swipe you want. And the smart phone 1 determines whether the detected swipe corresponds with the operation pattern of the specific gesture set beforehand.

そして、スマートフォン1は、ステップS13で検出したスワイプが予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS14の処理を行う。スマートフォン1は、ステップS14では、ロック状態を解除し、α1が示す軌跡を入力するジェスチャに対応付けられたテキストエディタアプリケーションを実行して、操作画面70をタッチスクリーンディスプレイ2に表示させる。   When the smartphone 1 determines that the swipe detected in step S13 matches the preset operation pattern of the specific gesture, the smartphone 1 performs the process of step S14. In step S <b> 14, the smartphone 1 releases the lock state, executes the text editor application associated with the gesture for inputting the locus indicated by α <b> 1, and displays the operation screen 70 on the touch screen display 2.

操作画面70には、画面上半分の略全域に入力文字列を確認する表示領域72と、画面下半分に文字列の入力を行うためのキーボードオブジェクト74と、表示領域72の上部左側にテキストエディタに登録されたメモリストを表示させるメモリスト表示ボタン76と、表示領域72の上部右側にテキストエディタの処理を完了させる完了ボタン78とが、表示されている。   The operation screen 70 includes a display area 72 for confirming an input character string in substantially the entire upper half of the screen, a keyboard object 74 for inputting a character string in the lower half of the screen, and a text editor on the upper left side of the display area 72 A memo list display button 76 for displaying the registered memo list and a completion button 78 for completing the processing of the text editor are displayed on the upper right side of the display area 72.

スマートフォン1は、操作画面70を表示した状態で、キーボードオブジェクト74に対するタップが検出された場合、タップされた領域に対応した文字を入力文字として検出する。スマートフォン1は、入力された文字を表示領域72の設定された位置に表示させる。スマートフォン1は、操作画面70を表示した状態で、メモリスト表示ボタン76または完了ボタン78に対するタップが検出された場合、タップされたボタンに対応付けられた処理を実行する。   When a tap on the keyboard object 74 is detected while the operation screen 70 is displayed, the smartphone 1 detects a character corresponding to the tapped region as an input character. The smartphone 1 displays the input characters at a set position in the display area 72. When the smartphone 1 displays the operation screen 70 and a tap on the memo list display button 76 or the completion button 78 is detected, the smartphone 1 executes a process associated with the tapped button.

図8は、実施形態に係るスマートフォンが行う制御の第2の例を示す図である。この第2の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、第1の例と同様に、所定の軌跡を入力するジェスチャのパターンを設定している。なお、第2の例では、所定の軌跡としてα2が示す軌跡を入力するジェスチャには、ロック解除処理と、カメラアプリケーションの実行処理とが対応付けられている。   FIG. 8 is a diagram illustrating a second example of control performed by the smartphone according to the embodiment. In the second example, the smartphone 1 sets a gesture pattern for inputting a predetermined trajectory, as in the first example, as a specific gesture operation pattern. In the second example, the unlocking process and the execution process of the camera application are associated with the gesture for inputting the locus indicated by α2 as the predetermined locus.

スマートフォン1は、図8に示すように、ステップS21で、図6Aと同様のロック画面60aをディスプレイ2Aに表示している。   As shown in FIG. 8, the smartphone 1 displays a lock screen 60a similar to FIG. 6A on the display 2A in step S21.

そして、ステップS22では、利用者が、指F1でロック画面60aに配置された9個の円形アイコン61のうち右の列の上のアイコンをタッチしている。この場合、スマートフォン1は、この右の列の上のアイコンが表示されている位置でのタッチを検出する。   In step S22, the user touches the icon on the right column among the nine circular icons 61 arranged on the lock screen 60a with the finger F1. In this case, the smartphone 1 detects a touch at a position where the icon on the right column is displayed.

そして、ステップS23では、利用者が、右の列の上のアイコンが表示されている位置でタッチしていた指F1を、タッチスクリーンディスプレイ2上に接触させたままで右の列の下のアイコンが表示されている位置まで、α2が示す軌跡に沿って移動させている。この場合、スマートフォン1は、右の列の上のアイコンが表示されている位置を始点として、α2が示す軌跡に沿って移動し、右の列の下のアイコンが表示されている位置を終点とするスワイプを検出する。そして、スマートフォン1は、検出したスワイプが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S23, the user touches the finger F1 touched at the position where the icon on the right column is displayed on the touch screen display 2, and the icon below the right column is displayed. It is moved along the locus indicated by α2 to the displayed position. In this case, the smartphone 1 starts from the position where the icon above the right column is displayed, moves along the trajectory indicated by α2, and the position where the icon below the right column is displayed is the end point. Detect the swipe you want. And the smart phone 1 determines whether the detected swipe corresponds with the operation pattern of the specific gesture set beforehand.

そして、スマートフォン1は、ステップS23で検出したスワイプが予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS24の処理を行う。スマートフォン1は、ステップS24では、ロック状態を解除し、α2が示す軌跡を入力するジェスチャに対応付けられたカメラアプリケーションを実行して、操作画面80をタッチスクリーンディスプレイ2に表示させる。   When the smartphone 1 determines that the swipe detected in step S23 matches the preset operation pattern of the specific gesture, the smartphone 1 performs the process of step S24. In step S24, the smartphone 1 releases the lock state, executes the camera application associated with the gesture for inputting the locus indicated by α2, and displays the operation screen 80 on the touch screen display 2.

操作画面80には、画面の上側の略全域に被写体を確認するためのモニター領域と、当該モニター領域の下に操作アイコン表示領域とが、配置されている。モニター領域内の下側には、カメラのズーム倍率を調節するための調節バー82が配置されている。操作アイコン表示領域には、左側にフォトアルバム機能に切り替えるためのフォトアルバムアイコン84と、中央にモニター領域に表示されている被写体を撮影するためのシャッターアイコン86と、右側にムービー機能に切り替えるためのムービーアイコン88とが、配置されている。   On the operation screen 80, a monitor area for confirming a subject is disposed in the almost entire area on the upper side of the screen, and an operation icon display area is arranged below the monitor area. An adjustment bar 82 for adjusting the zoom magnification of the camera is arranged below the monitor area. In the operation icon display area, a photo album icon 84 for switching to the photo album function on the left side, a shutter icon 86 for shooting the subject displayed in the monitor area on the center, and a movie function on the right side for switching to the movie function. A movie icon 88 is arranged.

スマートフォン1は、操作画面80を表示した状態で、調節バー82に対するスワイプが検出された場合、スワイプの操作量および方向に応じてモニター領域に表示されている被写体をズームインまたはズームアウトする。スマートフォン1は、操作画面80を表示した状態で、フォトアルバムアイコン84に対するタップが検出された場合、当該操作画面80からフォトアルバム機能を実行するための画面に切り替える。スマートフォン1は、操作画面80を表示した状態で、シャッターアイコン86に対するタップが検出された場合、モニター領域に表示されている被写体を撮影して、静止画像を作成する。スマートフォン1は、操作画面80を表示した状態で、ムービーアイコン88に対するタップが検出された場合、当該操作画面80からムービー機能を実行するための画面に切り替える。   When the swipe for the adjustment bar 82 is detected while the operation screen 80 is displayed, the smartphone 1 zooms in or out on the subject displayed in the monitor area according to the swipe operation amount and direction. When the smartphone 1 displays the operation screen 80 and a tap on the photo album icon 84 is detected, the smartphone 1 switches from the operation screen 80 to a screen for executing the photo album function. When a tap on the shutter icon 86 is detected while the operation screen 80 is displayed, the smartphone 1 captures a subject displayed in the monitor area and creates a still image. When a tap on the movie icon 88 is detected while the operation screen 80 is displayed, the smartphone 1 switches from the operation screen 80 to a screen for executing a movie function.

このように、第1の例および第2の例において、スマートフォン1は、タッチスクリーンディスプレイ2に対する特定のジェスチャとして所定の軌跡を入力するジェスチャが検出された場合、ロック状態を解除し、検出された当該処理の軌跡を入力するジェスチャの操作パターンに対応するアプリケーションを実行する。これにより、スマートフォン1は、ロック画面が表示された状態から所望のアプリケーションを実行する際の操作性を向上させることができる。第1の例及び第2の例において、所定の軌跡を入力するジェスチャのパターンは、利用者により任意に設定されるパターンであるため、第三者がロック画面の表示内容から特定のジェスチャを予測することは困難であり、セキュリティ性についても確保できる。   As described above, in the first example and the second example, when a gesture that inputs a predetermined trajectory as a specific gesture for the touch screen display 2 is detected, the smartphone 1 releases the lock state and is detected. An application corresponding to the gesture operation pattern for inputting the trajectory of the processing is executed. Thereby, the smart phone 1 can improve the operativity at the time of performing a desired application from the state where the lock screen was displayed. In the first example and the second example, since a gesture pattern for inputting a predetermined trajectory is a pattern that is arbitrarily set by the user, a third party predicts a specific gesture from the display content of the lock screen. It is difficult to do, and security can be secured.

図7および図8において、ロック画面60aには、円形アイコン61が3行3列の格子状に9個配置されているが、円形アイコン61の数はこれに限定されない。例えば、ロック画面60aは、円形アイコン61を4行4列の格子状に16個配置してもよいし、円形アイコン61を5行5列の格子状に25個配置してもよい。これにより、所定の軌跡を入力するジェスチャのパターンの種類が増加するため、対応付けるアプリケーションの数についても増加させることができ、利便性が向上する。   7 and 8, nine circular icons 61 are arranged in a 3 × 3 grid on the lock screen 60a, but the number of circular icons 61 is not limited to this. For example, on the lock screen 60a, 16 circular icons 61 may be arranged in a grid of 4 rows and 4 columns, or 25 circular icons 61 may be arranged in a grid of 5 rows and 5 columns. As a result, the number of types of gesture patterns for inputting a predetermined trajectory increases, the number of applications to be associated can be increased, and convenience is improved.

ロック画面60aは、円形アイコン61が3行3列の格子状に9個配置する例に限定されず、円形アイコン61を4行4列の格子状に16個配置してもよいし、円形アイコン61を5行5列の格子状に25個配置してもよい。この場合、円形アイコン61を配置する格子の行および列が増加するにつれて、設定可能な軌跡のパターンが増加する。設定可能な軌跡のパターンが増加する結果、第三者が予測しにくいより複雑な軌跡のパターンを設定することが可能となるため、セキュリティ性についても更に向上させることができる。   The lock screen 60a is not limited to an example in which nine circular icons 61 are arranged in a grid of 3 rows and 3 columns, and 16 circular icons 61 may be arranged in a grid of 4 rows and 4 columns. You may arrange | position 25 61 in the grid | lattice form of 5 rows 5 columns. In this case, as the number of rows and columns of the grid on which the circular icons 61 are arranged increases, the settable trajectory patterns increase. As a result of the increase in trajectory patterns that can be set, it becomes possible to set a more complicated trajectory pattern that is difficult for a third party to predict, so the security can be further improved.

図9は、実施形態に係るスマートフォンが行う制御の第3の例を示す図である。この第3の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、所定の位置での接触を入力するジェスチャのパターンを設定している。なお、第3の例では、スマートフォン1は、所定の位置での接触を入力するジェスチャとして、ロック画面60aに配置された9つの円形アイコン61のうち、左の列の真ん中のアイコン、真ん中の列の上のアイコン、および、右の列の上のアイコンをタッチするジェスチャを設定している。第3の例では、これら3つのアイコンをタッチするジェスチャには、ロック解除処理と、テキストエディタアプリケーションの実行処理とが対応付けられている。   FIG. 9 is a diagram illustrating a third example of control performed by the smartphone according to the embodiment. In the third example, the smartphone 1 sets a gesture pattern for inputting a contact at a predetermined position as an operation pattern of a specific gesture. In the third example, the smartphone 1 uses the middle icon in the left column and the middle column among the nine circular icons 61 arranged on the lock screen 60a as a gesture for inputting contact at a predetermined position. The gesture that touches the icon on the top and the icon on the right column is set. In the third example, a gesture for touching these three icons is associated with unlock processing and execution processing of a text editor application.

スマートフォン1は、図9に示すように、ステップS31で、図6Aと同様のロック画面60aをディスプレイ2Aに表示している。   As shown in FIG. 9, the smartphone 1 displays the lock screen 60a similar to FIG. 6A on the display 2A in step S31.

そして、ステップS32では、利用者が、3本の指(指F1、指F2および指F3)で、ロック画面60aに配置された9個の円形アイコン61のうち3つを一度にタッチしている。利用者は、左の列の真ん中のアイコン、真ん中の列の上のアイコン、および、右の列の上のアイコンをタッチしている。この場合、スマートフォン1は、この左の列の真ん中のアイコン、真ん中の列の上のアイコン、および、右の列の上のアイコンが表示されている位置でのタッチを検出する。そして、スマートフォン1は、検出した複数の位置でのタッチが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S32, the user touches three of the nine circular icons 61 arranged on the lock screen 60a at once with three fingers (finger F1, finger F2, and finger F3). . The user touches the middle icon in the left column, the icon on the middle column, and the icon on the right column. In this case, the smartphone 1 detects a touch at a position where the middle icon in the left column, the icon above the middle column, and the icon above the right column are displayed. Then, the smartphone 1 determines whether the detected touches at a plurality of positions coincide with a preset operation pattern of a specific gesture.

そして、スマートフォン1は、ステップS32で検出した複数の位置でのタッチが予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS33の処理を行う。スマートフォン1は、ステップS33では、ロック状態を解除し、左の列の真ん中のアイコン、真ん中の列の上のアイコン、および、右の列の上のアイコンをタッチするジェスチャに対応付けられたテキストエディタアプリケーションを実行して、操作画面70をタッチスクリーンディスプレイ2に表示させる。   Then, when the smartphone 1 determines that the touches at the plurality of positions detected in step S32 match the operation patterns of the specific gesture set in advance, the smartphone 1 performs the process of step S33. In step S33, the smartphone 1 releases the lock state, and the text editor associated with the gesture that touches the middle icon in the left column, the icon in the middle column, and the icon in the right column. The application is executed to display the operation screen 70 on the touch screen display 2.

図10は、実施形態に係るスマートフォンが行う制御の第4の例を示す図である。この第4の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、第3の例と同様に、所定の位置での接触を入力するジェスチャのパターンを設定している。なお、第4の例では、スマートフォン1は、所定の位置での接触を入力するジェスチャとして、ロック画面60aに配置された9つの円形アイコン61のうち、左の列の下のアイコン、真ん中の列の真ん中のアイコン、および、右の列の下のアイコンに対するタッチジェスチャを設定している。第4の例では、これら3つのアイコンに対するタッチジェスチャには、ロック解除処理と、カメラアプリケーションの実行処理とが対応付けられている。   FIG. 10 is a diagram illustrating a fourth example of control performed by the smartphone according to the embodiment. In the fourth example, the smartphone 1 sets a gesture pattern for inputting a contact at a predetermined position as the operation pattern of the specific gesture, as in the third example. In the fourth example, the smartphone 1 uses, as a gesture for inputting a contact at a predetermined position, an icon below the left column and a middle column among the nine circular icons 61 arranged on the lock screen 60a. The touch gesture is set for the icon in the middle of the icon and the icon in the right column. In the fourth example, the unlocking process and the execution process of the camera application are associated with the touch gesture for these three icons.

スマートフォン1は、図10に示すように、ステップS41で、図6Aと同様のロック画面60aをディスプレイ2Aに表示している。   As shown in FIG. 10, the smartphone 1 displays the lock screen 60a similar to FIG. 6A on the display 2A in step S41.

そして、ステップS42では、利用者が、3本の指(指F1、指F2および指F3)で、ロック画面60aに配置された9個の円形アイコン61のうち3つを一度にタッチしている。利用者は、左の列の下のアイコン、真ん中の列の真ん中のアイコン、および、右の列の下のアイコンをタッチしている。この場合、スマートフォン1は、この左の列の下のアイコン、真ん中の列の真ん中のアイコン、および、右の列の下のアイコンが表示されている位置でのタッチを検出する。そして、スマートフォン1は、検出した複数の位置でのタッチが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S42, the user touches three of nine circular icons 61 arranged on the lock screen 60a with three fingers (finger F1, finger F2, and finger F3) at a time. . The user touches the icon under the left column, the icon in the middle of the middle column, and the icon under the right column. In this case, the smartphone 1 detects a touch at a position where the icon under the left column, the icon in the middle of the middle column, and the icon under the right column are displayed. Then, the smartphone 1 determines whether the detected touches at a plurality of positions coincide with a preset operation pattern of a specific gesture.

そして、スマートフォン1は、ステップS42で検出した複数の位置でのタッチが予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS43の処理を行う。スマートフォン1は、ステップS43では、ロック状態を解除し、左の列の下のアイコン、真ん中の列の真ん中のアイコン、および、右の列の下のアイコンをタッチするジェスチャに対応付けられたカメラアプリケーションを実行して、操作画面80をタッチスクリーンディスプレイ2に表示させる。   If the smartphone 1 determines that the touches at the plurality of positions detected in step S42 match the operation patterns of the specific gesture set in advance, the smartphone 1 performs the process of step S43. In step S43, the smartphone 1 releases the lock state, and the camera application associated with the gesture for touching the icon under the left column, the icon in the middle of the center column, and the icon under the right column. To display the operation screen 80 on the touch screen display 2.

第3の例および第4の例において、スマートフォン1は、3つのアイコン61がタッチされている状態となるとロックを解除して、操作パターンに対応するアプリケーションを実行するが、本実施形態はこれに限られない。例えば、上記の操作パターンとしてタッチされる必要があるアイコン61の数は、3つに限られず、4つであっても5つであってもよい。   In the third example and the fourth example, the smartphone 1 releases the lock when the three icons 61 are touched, and executes the application corresponding to the operation pattern. Not limited. For example, the number of icons 61 that need to be touched as the operation pattern is not limited to three, and may be four or five.

図11は、実施形態に係るスマートフォンが行う制御の第5の例を示す図である。この第5の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、所定の位置での複数の接触を所定の順序で入力するジェスチャのパターンを設定している。なお、第5の例では、スマートフォン1は、所定の位置での複数の接触を所定の順序で入力するジェスチャとして、ロック画面60aに配置された9つの円形アイコン61のうち、左の列の真ん中のアイコン、真ん中の列の上のアイコン、および、右の列の上のアイコンを、この順序でタッチするジェスチャを設定している。第5の例では、これら3つのアイコンを上記順序でタッチするジェスチャには、ロック解除処理と、テキストエディタアプリケーションの実行処理とが対応付けられている。   FIG. 11 is a diagram illustrating a fifth example of control performed by the smartphone according to the embodiment. In the fifth example, the smartphone 1 sets a gesture pattern for inputting a plurality of contacts at a predetermined position in a predetermined order as an operation pattern of the specific gesture. In the fifth example, the smartphone 1 uses the middle of the left column among the nine circular icons 61 arranged on the lock screen 60a as a gesture for inputting a plurality of contacts at a predetermined position in a predetermined order. The gesture for touching the icon, the icon on the middle column, and the icon on the right column in this order is set. In the fifth example, a gesture for touching these three icons in the above order is associated with an unlock process and a text editor application execution process.

スマートフォン1は、図11に示すように、ステップS51で、図6Aと同様のロック画面60aをディスプレイ2Aに表示している。そして、ステップS51では、利用者が、指F1で、ロック画面60aに配置された9個の円形アイコン61のうち左の列の真ん中のアイコンをタッチしている。この場合、スマートフォン1は、この左の列の真ん中のアイコンが表示されている位置でのタッチを検出する。   As shown in FIG. 11, the smartphone 1 displays the lock screen 60a similar to FIG. 6A on the display 2A in step S51. In step S51, the user touches the middle icon in the left column of the nine circular icons 61 arranged on the lock screen 60a with the finger F1. In this case, the smartphone 1 detects a touch at a position where the middle icon in the left column is displayed.

そして、ステップS52では、利用者が、ステップS51に示す状態からさらに、9個の円形アイコン61のうち左の列の真ん中のアイコンを指F1でタッチした状態のまま、真ん中の列の上のアイコンを指F2でタッチしている。この場合、スマートフォン1は、左の列の真ん中のアイコンが表示されている位置でのタッチを検出している状態で、この真ん中の列の上のアイコンが表示されている位置でのタッチを検出する。   In step S52, the user further touches the middle icon in the left column of the nine circular icons 61 with the finger F1 from the state shown in step S51, and the icon above the middle column. Is touched with the finger F2. In this case, the smartphone 1 detects a touch at a position where the icon above the middle row is displayed while detecting a touch at a position where the middle icon in the left row is displayed. To do.

そして、ステップS53では、利用者が、ステップS52に示す状態からさらに、9個の円形アイコン61のうち右の列の上のアイコンを指F3でタッチしている。すなわち、利用者は、ステップS53で、ロック画面60aに配置された、左の列の真ん中のアイコン、真ん中の列の上のアイコン、および、右の列の上のアイコンを指F1〜指F3で一度にタッチしている。この場合、スマートフォン1は、左の列の真ん中のアイコンが表示されている位置でのタッチと、真ん中の列の上のアイコンが表示されている位置でのタッチを検出している状態で、この右の列の上のアイコンが表示されている位置でのタッチを検出する。そして、スマートフォン1は、ステップS51〜S53の順序で検出した複数の位置でのタッチが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S53, the user further touches the icon on the right column of the nine circular icons 61 with the finger F3 from the state shown in step S52. That is, in step S53, the user uses the finger F1 to the finger F3 to display the middle icon in the left column, the icon in the middle column, and the icon in the right column arranged on the lock screen 60a. Touch at once. In this case, the smartphone 1 detects the touch at the position where the middle icon in the left column is displayed and the touch at the position where the icon above the middle column is displayed. Detects a touch at a position where the icon above the right column is displayed. And the smart phone 1 determines whether the touch in the some position detected in order of step S51-S53 corresponds with the operation pattern of the specific gesture set beforehand.

そして、スマートフォン1は、ステップS51〜S53の順序で検出した複数の位置でのタッチが、予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS54の処理を行う。スマートフォン1は、ステップS54では、ロック状態を解除し、左の列の真ん中のアイコン、真ん中の列の上のアイコン、および、右の列の上のアイコンをこの順序でタッチするジェスチャに対応付けられたテキストエディタアプリケーションを実行して、操作画面70をタッチスクリーンディスプレイ2に表示させる。   When the smartphone 1 determines that the touches at the plurality of positions detected in the order of steps S51 to S53 match the preset operation pattern of the specific gesture, the smartphone 1 performs the process of step S54. In step S54, the smartphone 1 cancels the locked state, and is associated with the gesture of touching the middle icon in the left column, the icon in the middle column, and the icon in the right column in this order. The text editor application is executed to display the operation screen 70 on the touch screen display 2.

図12は、実施形態に係るスマートフォンが行う制御の第6の例を示す図である。この第6の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、第5の例と同様に、所定の位置での複数の接触を所定の順序で入力するジェスチャのパターンを設定している。なお、第6の例では、スマートフォン1は、所定の位置での複数の接触を所定の順序で入力するジェスチャとして、ロック画面60aに配置された9つの円形アイコン61のうち、右の列の上のアイコン、真ん中の列の上のアイコン、および、左の列の真ん中のアイコンを、この順序でタッチするジェスチャを設定している。第6の例では、これら3つのアイコンを上記順序でタッチするジェスチャには、ロック解除処理と、カメラアプリケーションの実行処理とが対応付けられている。   FIG. 12 is a diagram illustrating a sixth example of control performed by the smartphone according to the embodiment. In the sixth example, the smartphone 1 sets a gesture pattern for inputting a plurality of contacts in a predetermined position in a predetermined order, as in the fifth example, as a specific gesture operation pattern. . Note that in the sixth example, the smartphone 1 uses the top of the right column among the nine circular icons 61 arranged on the lock screen 60a as a gesture for inputting a plurality of contacts at a predetermined position in a predetermined order. The gesture for touching the icon, the icon on the middle column, and the icon on the left column in this order is set. In the sixth example, a gesture for touching these three icons in the above order is associated with unlock processing and camera application execution processing.

スマートフォン1は、図12に示すように、ステップS61で、図6Aと同様のロック画面60aをディスプレイ2Aに表示している。そして、ステップS61では、利用者が、指F3で、ロック画面60aに配置された9個の円形アイコン61のうち右の列の上のアイコンをタッチしている。この場合、スマートフォン1は、この右の列の上のアイコンが表示されている位置でのタッチを検出する。   As shown in FIG. 12, the smartphone 1 displays the lock screen 60a similar to FIG. 6A on the display 2A in step S61. In step S61, the user touches the icon on the right column of the nine circular icons 61 arranged on the lock screen 60a with the finger F3. In this case, the smartphone 1 detects a touch at a position where the icon on the right column is displayed.

そして、ステップS62では、利用者が、ステップS61に示す状態からさらに、9個の円形アイコン61のうち右の列の上のアイコンを指F3でタッチした状態のまま、真ん中の列の上のアイコンを指F2でタッチしている。この場合、スマートフォン1は、右の列の上のアイコンが表示されている位置でのタッチを検出している状態で、この真ん中の列の上のアイコンが表示されている位置でのタッチを検出する。   In step S62, the user further touches the icon on the right column of the nine circular icons 61 with the finger F3 from the state shown in step S61, and the icon on the middle column. Is touched with the finger F2. In this case, the smartphone 1 detects a touch at a position where the icon above the middle row is displayed while detecting a touch at a position where the icon above the right row is displayed. To do.

そして、ステップS63では、利用者が、ステップS62に示す状態からさらに、9個の円形アイコン61のうち左の列の真ん中のアイコンを指F1でタッチしている。すなわち、利用者は、ステップS63で、ロック画面60aに配置された、右の列の上のアイコン、真ん中の列の上のアイコン、および、左の列の真ん中のアイコンを指F1〜指F3で一度にタッチしている。この場合、スマートフォン1は、右の列の上のアイコンが表示されている位置でのタッチと、真ん中の列の上のアイコンが表示されている位置でのタッチを検出している状態で、この左の列の真ん中のアイコンが表示されている位置でのタッチを検出する。そして、スマートフォン1は、ステップS61〜S63の順序で検出した複数の位置でのタッチが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S63, the user touches the middle icon in the left column of the nine circular icons 61 with the finger F1 from the state shown in step S62. That is, in step S63, the user moves the icon on the right column, the icon on the middle column, and the icon on the middle of the left column with the fingers F1 to F3 arranged on the lock screen 60a. Touch at once. In this case, the smartphone 1 detects the touch at the position where the icon above the right column is displayed and the touch at the position where the icon above the middle column is displayed. A touch at the position where the middle icon in the left column is displayed is detected. And the smart phone 1 determines whether the touch in the some position detected in the order of step S61-S63 corresponds with the operation pattern of the specific gesture set beforehand.

そして、スマートフォン1は、ステップS61〜S63の順序で検出した複数の位置でのタッチが、予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS64の処理を行う。スマートフォン1は、ステップS64では、ロック状態を解除し、右の列の上のアイコン、真ん中の列の上のアイコン、および、左の列の真ん中のアイコンをこの順序でタッチするジェスチャに対応付けられたカメラアプリケーションを実行して、操作画面80をタッチスクリーンディスプレイ2に表示させる。   The smartphone 1 performs the process of step S64 when it is determined that the touches at the plurality of positions detected in the order of steps S61 to S63 match the preset operation pattern of the specific gesture. In step S64, the smartphone 1 cancels the locked state and is associated with a gesture of touching the icon on the right column, the icon on the middle column, and the icon on the middle of the left column in this order. The camera application is executed to display the operation screen 80 on the touch screen display 2.

第5の例および第6の例において、スマートフォン1は、ステップS51からS53に示す順番またはステップS61からS63に示す順番で3つのアイコン61がタッチされた場合にロックを解除して、操作パターンに対応するアプリケーションを実行してもよい。上記の操作パターンとして同時にタッチされる必要があるアイコン61の数は、3つに限られず、4つであっても5つであってもよい。   In the fifth example and the sixth example, the smartphone 1 releases the lock when the three icons 61 are touched in the order shown in steps S51 to S53 or the order shown in steps S61 to S63. A corresponding application may be executed. The number of icons 61 that need to be touched simultaneously as the operation pattern is not limited to three, and may be four or five.

図13は、実施形態に係るスマートフォンが行う制御の第7の例を示す図である。この第7の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、所定の数値を入力するジェスチャのパターンを設定している。なお、第7の例では、スマートフォン1は、所定の数値を入力するジェスチャとして、ロック画面60bのボックス62に「4238」の数値を入力するジェスチャを設定している。第7の例では、この「4238」の数値を入力するジェスチャには、ロック解除処理と、テキストエディタアプリケーションの実行処理とが対応付けられている。   FIG. 13 is a diagram illustrating a seventh example of control performed by the smartphone according to the embodiment. In the seventh example, the smartphone 1 sets a gesture pattern for inputting a predetermined numerical value as a specific gesture operation pattern. In the seventh example, the smartphone 1 sets a gesture for inputting a numerical value “4238” in the box 62 of the lock screen 60b as a gesture for inputting a predetermined numerical value. In the seventh example, the gesture for inputting the numerical value “4238” is associated with unlock processing and execution processing of the text editor application.

スマートフォン1は、図13に示すように、ステップS71で、図6Bと同様のロック画面60bをディスプレイ2Aに表示している。   As shown in FIG. 13, the smartphone 1 displays a lock screen 60b similar to FIG. 6B on the display 2A in step S71.

そして、ステップS72では、利用者が、指F1で、ロック画面60bの数字キーボードオブジェクトのうち「4」の数字キーをタップしている。この場合、スマートフォン1は、この「4」の数字キーが表示されている位置でのタップを検出する。この場合、スマートフォン1は、4個のボックス62のうち左端のボックス内に「4」の数値を表示させる。   In step S72, the user taps the number key “4” among the number keyboard objects on the lock screen 60b with the finger F1. In this case, the smartphone 1 detects a tap at a position where the numeric key “4” is displayed. In this case, the smartphone 1 displays a numerical value “4” in the leftmost box among the four boxes 62.

そして、ステップS73では、利用者が、指F1で数字キーボードオブジェクトのうち「4」の数字キーをタップした後、指F1で「2」の数字キーおよび「3」の数字キーをこの順序でタップして、「8」の数字キーをタップしている。この場合、スマートフォン1は、「4」の数字キーが表示されている位置でのタップを検出した後、ステップS73では、「2」の数字キー、「3」の数字キー、および、「8」の数字キーが表示されている位置でのタップをこの順序で検出する。この場合、スマートフォン1は、ボックス62に「4238」の数値を表示させる。そして、スマートフォン1は、検出した「4238」の数値を入力するタップが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S73, the user taps the number key “4” of the number keyboard object with the finger F1, and then taps the number key “2” and the number key “3” in this order with the finger F1. Then, the number key “8” is tapped. In this case, the smartphone 1 detects a tap at the position where the number key “4” is displayed, and then, in step S73, the number key “2”, the number key “3”, and “8”. Taps at the positions where the numeric keys are displayed are detected in this order. In this case, the smartphone 1 displays a numerical value “4238” in the box 62. Then, the smartphone 1 determines whether or not the tap for inputting the detected numerical value “4238” matches the preset operation pattern of the specific gesture.

そして、スマートフォン1は、ステップS72〜S73で検出した「4238」の数値を入力するタップが、予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS74の処理を行う。スマートフォン1は、ステップS74では、ロック状態を解除し、ロック画面60bのボックス62に「4238」の数値を入力するジェスチャに対応付けられたテキストエディタアプリケーションを実行して、操作画面70をタッチスクリーンディスプレイ2に表示させる。   The smartphone 1 performs the process of step S74 when it is determined that the tap for inputting the numerical value “4238” detected in steps S72 to S73 matches the preset operation pattern of the specific gesture. In step S74, the smartphone 1 releases the lock state, executes the text editor application associated with the gesture for inputting the value “4238” in the box 62 of the lock screen 60b, and displays the operation screen 70 on the touch screen display. 2 is displayed.

図14は、実施形態に係るスマートフォンが行う制御の第8の例を示す図である。この第8の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、第7の例と同様に、所定の数値を入力するジェスチャのパターンを設定している。なお、第8の例では、スマートフォン1は、所定の数値を入力するジェスチャとして、ロック画面60bのボックス62に「9317」の数値を入力するジェスチャを設定している。第8の例では、この「9317」の数値を入力するジェスチャには、ロック解除処理と、カメラアプリケーションの実行処理とが対応付けられている。   FIG. 14 is a diagram illustrating an eighth example of control performed by the smartphone according to the embodiment. In the eighth example, the smartphone 1 sets a gesture pattern for inputting a predetermined numerical value, as in the seventh example, as the operation pattern for the specific gesture. In the eighth example, the smartphone 1 sets a gesture for inputting a numerical value “9317” in the box 62 of the lock screen 60b as a gesture for inputting a predetermined numerical value. In the eighth example, the gesture for inputting the numerical value “9317” is associated with unlock processing and camera application execution processing.

スマートフォン1は、図14に示すように、ステップS81で、図6Bと同様のロック画面60bをディスプレイ2Aに表示している。   As shown in FIG. 14, the smartphone 1 displays the lock screen 60b similar to FIG. 6B on the display 2A in step S81.

そして、ステップS82では、利用者が、指F1で、ロック画面60bの数字キーボードオブジェクトのうち「9」の数字キーをタップしている。この場合、スマートフォン1は、この「9」の数字キーが表示されている位置でのタップを検出する。この場合、スマートフォン1は、4個のボックス62のうち左端のボックス内に「9」の数値を表示させる。   In step S82, the user taps the number key “9” among the number keyboard objects on the lock screen 60b with the finger F1. In this case, the smartphone 1 detects a tap at a position where the numeric key “9” is displayed. In this case, the smartphone 1 displays a numerical value “9” in the leftmost box among the four boxes 62.

そして、ステップS83では、利用者が、指F1で数字キーボードオブジェクトのうち「9」の数字キーをタップした後、指F1で「3」の数字キーおよび「1」の数字キーをこの順序でタップして、「7」の数字キーをタップしている。この場合、スマートフォン1は、「9」の数字キーが表示されている位置でのタップを検出した後、ステップS83では、「3」の数字キー、「1」の数字キー、および、「7」の数字キーが表示されている位置でのタップをこの順序で検出する。この場合、スマートフォン1は、ボックス62に「9317」の数値を表示させる。そして、スマートフォン1は、検出した「9317」の数値を入力するタップが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S83, the user taps the number key “9” in the number keyboard object with the finger F1, and then taps the number key “3” and the number key “1” in this order with the finger F1. Then, the number key “7” is tapped. In this case, the smartphone 1 detects a tap at a position where the number key “9” is displayed, and then in step S83, the number key “3”, the number key “1”, and “7” Taps at the positions where the numeric keys are displayed are detected in this order. In this case, the smartphone 1 causes the box 62 to display a numerical value “9317”. Then, the smartphone 1 determines whether or not the tap for inputting the detected numerical value “9317” matches the preset operation pattern of the specific gesture.

そして、スマートフォン1は、ステップS82〜S83で検出した「9317」の数値を入力するタップが、予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS84の処理を行う。スマートフォン1は、ステップS84では、ロック状態を解除し、ロック画面60bのボックス62に「9317」の数値を入力するジェスチャに対応付けられたカメラアプリケーションを実行して、操作画面80をタッチスクリーンディスプレイ2に表示させる。   If the smartphone 1 determines that the tap for inputting the numerical value “9317” detected in steps S82 to S83 matches the preset operation pattern of the specific gesture, the smartphone 1 performs the process of step S84. In step S84, the smartphone 1 releases the lock state, executes the camera application associated with the gesture for inputting the value “9317” in the box 62 of the lock screen 60b, and displays the operation screen 80 on the touch screen display 2. To display.

第7の例および第8の例において、スマートフォン1は、「4238」または「9317」とは異なる数値を操作パターンとして登録してもよい。上記の操作パターンとして登録される数値の数は、4桁に限られず、5桁であっても6桁であってもよい。   In the seventh example and the eighth example, the smartphone 1 may register a numerical value different from “4238” or “9317” as the operation pattern. The number of numerical values registered as the operation pattern is not limited to 4 digits, and may be 5 digits or 6 digits.

図15は、実施形態に係るスマートフォンが行う制御の第9の例を示す図である。この第9の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、所定の数の接触を入力するジェスチャのパターンを設定している。なお、第9の例では、スマートフォン1は、所定の数の接触を入力するジェスチャとして、ロック画面60cを2箇所でタッチするジェスチャを設定している。第9の例では、この2箇所でタッチするジェスチャには、ロック解除処理と、テキストエディタアプリケーションの実行処理とが対応付けられている。   FIG. 15 is a diagram illustrating a ninth example of control performed by the smartphone according to the embodiment. In the ninth example, the smartphone 1 sets a gesture pattern for inputting a predetermined number of contacts as a specific gesture operation pattern. In the ninth example, the smartphone 1 sets a gesture for touching the lock screen 60c at two locations as a gesture for inputting a predetermined number of contacts. In the ninth example, the unlocking process and the execution process of the text editor application are associated with the gesture touched at these two locations.

スマートフォン1は、図15に示すように、ステップS91で、図6Cと同様のロック画面60cをディスプレイ2Aに表示している。   As shown in FIG. 15, the smartphone 1 displays a lock screen 60c similar to FIG. 6C on the display 2A in step S91.

そして、ステップS92では、利用者が、2本の指(指F1および指F2)で、タッチスクリーン2B(タッチスクリーンディスプレイ2)においてロック画面60cが表示された部分をタッチしている。この場合、スマートフォン1は、ロック画面60cに対する2箇所でのタッチを検出する。そして、スマートフォン1は、検出した2箇所でのタッチが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S92, the user touches the portion of the touch screen 2B (touch screen display 2) where the lock screen 60c is displayed with two fingers (finger F1 and finger F2). In this case, the smartphone 1 detects a touch at two places on the lock screen 60c. Then, the smartphone 1 determines whether or not the detected touches at the two locations match the preset operation pattern of the specific gesture.

そして、スマートフォン1は、検出した2箇所でのタッチが予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS93の処理を行う。スマートフォン1は、ステップS93では、ロック状態を解除し、2箇所でのタッチに対応付けられたテキストエディタアプリケーションを実行して、操作画面70をタッチスクリーンディスプレイ2に表示させる。   If the smartphone 1 determines that the detected touches at the two locations match the preset operation pattern of the specific gesture, the smartphone 1 performs the process of step S93. In step S <b> 93, the smartphone 1 releases the locked state, executes the text editor application associated with the touch at two locations, and displays the operation screen 70 on the touch screen display 2.

図16は、実施形態に係るスマートフォンが行う制御の第10の例を示す図である。この第10の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、第9の例と同様に、所定の数の接触を入力するジェスチャのパターンを設定している。なお、第10の例では、スマートフォン1は、所定の数の接触を入力するジェスチャとして、ロック画面60cを3箇所でタッチするジェスチャを設定している。第10の例では、この3箇所でタッチするジェスチャには、ロック解除処理と、カメラアプリケーションの実行処理とが対応付けられている。   FIG. 16 is a diagram illustrating a tenth example of control performed by the smartphone according to the embodiment. In the tenth example, the smartphone 1 sets a gesture pattern for inputting a predetermined number of contacts, as in the ninth example, as a specific gesture operation pattern. In the tenth example, the smartphone 1 sets a gesture for touching the lock screen 60c at three places as a gesture for inputting a predetermined number of contacts. In the tenth example, the unlocking process and the execution process of the camera application are associated with the gesture touched at these three locations.

スマートフォン1は、図16に示すように、ステップS101で、図6Cと同様のロック画面60cをディスプレイ2Aに表示している。   As shown in FIG. 16, the smartphone 1 displays a lock screen 60c similar to FIG. 6C on the display 2A in step S101.

そして、ステップS102では、利用者が、3本の指(指F1、指F2および指F3)で、タッチスクリーン2Bにおいてロック画面60cが表示された部分をタッチしている。この場合、スマートフォン1は、ロック画面60cに対する3箇所でのタッチを検出する。そして、スマートフォン1は、検出した3箇所でのタッチが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S102, the user touches the part of the touch screen 2B where the lock screen 60c is displayed with three fingers (finger F1, finger F2, and finger F3). In this case, the smartphone 1 detects a touch at three places on the lock screen 60c. Then, the smartphone 1 determines whether or not the detected touches at the three locations match the preset operation pattern of the specific gesture.

そして、スマートフォン1は、検出した3箇所でのタッチが、予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS103の処理を行う。スマートフォン1は、ステップS103では、ロック状態を解除し、3箇所でのタッチに対応付けられたカメラアプリケーションを実行して、操作画面80をタッチスクリーンディスプレイ2に表示させる。   When the smartphone 1 determines that the detected touches at the three locations coincide with the preset operation pattern of the specific gesture, the smartphone 1 performs the process of step S103. In step S <b> 103, the smartphone 1 releases the lock state, executes the camera application associated with the touch at the three locations, and displays the operation screen 80 on the touch screen display 2.

第9の例および第10の例において、スマートフォン1は、ロック画面が2本指または3本指でタッチされるとロックを解除して、操作パターンに対応するアプリケーションを実行するが、本実施形態はこれに限られない。スマートフォン1は、タッチスクリーン2Bに対する4箇所または5箇所でのタッチを上記の操作パターンとして設定し、ロック画面が4本指または5本指でタッチされるとロックを解除して、操作パターンに対応するアプリケーションを実行してもよい。   In the ninth example and the tenth example, the smartphone 1 releases the lock when the lock screen is touched with two or three fingers, and executes the application corresponding to the operation pattern. Is not limited to this. The smartphone 1 sets the touch on the touch screen 2B at four or five locations as the above operation pattern, and when the lock screen is touched with four or five fingers, the lock is released and corresponds to the operation pattern. You may run an application that

図17Aおよび図17Bは、実施形態に係るスマートフォンが行う制御の第11の例を示す図である。この第11の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、所定の時間間隔で所定の回数の接触を入力するジェスチャのパターンを設定している。なお、第11の例では、スマートフォン1は、所定の時間間隔で所定の回数の接触を入力するジェスチャとして、ロック画面60cを一度タッチしてから時間間隔T1をおいて再びタッチし、さらに時間間隔T2をおいて再度タッチするジェスチャを設定している。図17Bに示すように、時間間隔T1は、時間間隔T2よりも短い。第11の例では、このタッチするジェスチャには、ロック解除処理と、テキストエディタアプリケーションの実行処理とが対応付けられている。   17A and 17B are diagrams illustrating an eleventh example of control performed by the smartphone according to the embodiment. In the eleventh example, the smartphone 1 sets a gesture pattern for inputting a predetermined number of contacts at a predetermined time interval as the operation pattern of the specific gesture. In the eleventh example, the smartphone 1 touches the lock screen 60c once as a gesture for inputting a predetermined number of contacts at a predetermined time interval, and then touches it again at a time interval T1, and further touches the time interval. A gesture to touch again is set after T2. As shown in FIG. 17B, the time interval T1 is shorter than the time interval T2. In the eleventh example, this touching gesture is associated with unlock processing and text editor application execution processing.

スマートフォン1は、図17Aに示すように、ステップS111で、図6Cと同様のロック画面60cをディスプレイ2Aに表示している。そして、ステップS111では、利用者が、指F1でタッチスクリーン2Bにおいてロック画面60cが表示された部分をタッチしている。この場合、スマートフォン1は、ロック画面60cに対するタッチを検出する。   As shown in FIG. 17A, the smartphone 1 displays the lock screen 60c similar to FIG. 6C on the display 2A in step S111. In step S111, the user touches the part where the lock screen 60c is displayed on the touch screen 2B with the finger F1. In this case, the smartphone 1 detects a touch on the lock screen 60c.

そして、ステップS112では、利用者が再び、指F1でタッチスクリーン2Bにおいてロック画面60cが表示された部分をタッチしている。このとき、図17Bに示すように、ステップS111で利用者がロック画面60cをタッチしてから時間T1が経過している。この場合、スマートフォン1は、ステップS111でロック画面60cに対するタッチを検出後、再びステップS112でロック画面60cに対するタッチを検出する。この際、スマートフォン1は、ステップS111でタッチが検出されてから、ステップS112でタッチが検出されるまでの時間間隔を測定する。つまり、スマートフォン1は、時間T1分の時間間隔を測定する。   In step S112, the user again touches the portion where the lock screen 60c is displayed on the touch screen 2B with the finger F1. At this time, as shown in FIG. 17B, time T1 has elapsed since the user touched the lock screen 60c in step S111. In this case, after detecting a touch on the lock screen 60c in step S111, the smartphone 1 detects a touch on the lock screen 60c again in step S112. At this time, the smartphone 1 measures a time interval from when the touch is detected in step S111 until the touch is detected in step S112. That is, the smartphone 1 measures a time interval of time T1.

そして、ステップS113では、利用者が再度、指F1でタッチスクリーン2Bにおいてロック画面60cが表示された部分をタッチしている。このとき、図17Bに示すように、ステップS112で利用者がロック画面60cをタッチしてから時間T2が経過している。なお、時間T2は時間T1よりも長い。この場合、スマートフォン1は、ステップS112でロック画面60cに対するタッチを検出後、再度ステップS113でロック画面60cに対するタッチを検出する。この際、スマートフォン1は、ステップS112でタッチが検出されてから、ステップS113でタッチが検出されるまでの時間間隔を測定する。つまり、スマートフォン1は、時間T2分の時間間隔を測定する。そして、スマートフォン1は、ロック画面60cを一度タッチしてから時間間隔T1をおいて再びタッチし、さらに時間間隔T2をおいて再度タッチするジェスチャが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S113, the user again touches the portion of the touch screen 2B where the lock screen 60c is displayed with the finger F1. At this time, as shown in FIG. 17B, time T2 has elapsed since the user touched the lock screen 60c in step S112. Time T2 is longer than time T1. In this case, after detecting the touch on the lock screen 60c in step S112, the smartphone 1 detects the touch on the lock screen 60c again in step S113. At this time, the smartphone 1 measures a time interval from when the touch is detected in step S112 until the touch is detected in step S113. That is, the smartphone 1 measures a time interval of time T2. Then, the smartphone 1 touches the lock screen 60c once, touches it again at a time interval T1, and then touches it again at a time interval T2, and the gesture that matches the preset gesture operation pattern matches. It is determined whether or not to do.

そして、スマートフォン1は、ステップS111〜S113で検出した時間間隔T1およびT2をおいて3回ロック画面60cをタッチするジェスチャが、予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS114の処理を行う。スマートフォン1は、ステップS114では、ロック状態を解除し、このタッチするジェスチャに対応付けられたテキストエディタアプリケーションを実行して、操作画面70をタッチスクリーンディスプレイ2に表示させる。   When the smartphone 1 determines that the gesture touching the lock screen 60c three times at the time intervals T1 and T2 detected in steps S111 to S113 matches the preset operation pattern of the specific gesture, The process of step S114 is performed. In step S <b> 114, the smartphone 1 releases the lock state, executes the text editor application associated with the touched gesture, and displays the operation screen 70 on the touch screen display 2.

図18Aおよび図18Bは、実施形態に係るスマートフォンが行う制御の第12の例を示す図である。この第12の例では、スマートフォン1は、特定のジェスチャの操作パターンとして、第11の例と同様に、所定の時間間隔で所定の回数の接触を入力するジェスチャのパターンを設定している。なお、第12の例では、スマートフォン1は、所定の時間間隔で所定の回数の接触を入力するジェスチャとして、ロック画面60cを一度タッチしてから時間間隔T3をおいて再びタッチし、さらに時間間隔T4をおいて再度タッチするジェスチャを設定している。図18Bに示すように、時間間隔T3は、時間間隔T4よりも長い。第12の例では、このタッチするジェスチャには、ロック解除処理と、カメラアプリケーションの実行処理とが対応付けられている。   18A and 18B are diagrams illustrating a twelfth example of control performed by the smartphone according to the embodiment. In the twelfth example, the smartphone 1 sets a gesture pattern for inputting a predetermined number of contacts at a predetermined time interval, as in the eleventh example, as a specific gesture operation pattern. In the twelfth example, the smartphone 1 touches the lock screen 60c once as a gesture for inputting a predetermined number of contacts at a predetermined time interval, and then touches it again at a time interval T3, and further the time interval. A gesture to be touched again is set after T4. As shown in FIG. 18B, the time interval T3 is longer than the time interval T4. In the twelfth example, this touching gesture is associated with unlock processing and camera application execution processing.

スマートフォン1は、図18Aに示すように、ステップS121で、図6Cと同様のロック画面60cをディスプレイ2Aに表示している。そして、ステップS121では、利用者が、指F1でタッチスクリーン2Bにおいてロック画面60cが表示された部分をタッチしている。この場合、スマートフォン1は、ロック画面60cに対するタッチを検出する。   As shown in FIG. 18A, the smartphone 1 displays the lock screen 60c similar to FIG. 6C on the display 2A in step S121. In step S121, the user touches the part where the lock screen 60c is displayed on the touch screen 2B with the finger F1. In this case, the smartphone 1 detects a touch on the lock screen 60c.

そして、ステップS122では、利用者が再び、指F1でタッチスクリーン2Bにおいてロック画面60cが表示された部分をタッチしている。このとき、図18Bに示すように、ステップS121で利用者がロック画面60cをタッチしてから時間T3が経過している。この場合、スマートフォン1は、ステップS121でロック画面60cに対するタッチを検出後、再びステップS122でロック画面60cに対するタッチを検出する。この際、スマートフォン1は、ステップS121でタッチが検出されてから、ステップS122でタッチが検出されるまでの時間間隔を測定する。つまり、スマートフォン1は、時間T3分の時間間隔を測定する。   In step S122, the user again touches the portion where the lock screen 60c is displayed on the touch screen 2B with the finger F1. At this time, as shown in FIG. 18B, time T3 has elapsed since the user touched the lock screen 60c in step S121. In this case, after detecting a touch on the lock screen 60c in step S121, the smartphone 1 detects a touch on the lock screen 60c again in step S122. At this time, the smartphone 1 measures a time interval from when the touch is detected in step S121 until the touch is detected in step S122. That is, the smartphone 1 measures a time interval of time T3.

そして、ステップS123では、利用者が再度、指F1でタッチスクリーン2Bにおいてロック画面60cが表示された部分をタッチしている。このとき、図18Bに示すように、ステップS122で利用者がロック画面60cをタッチしてから時間T4が経過している。なお、時間T4は時間T3よりも短い。この場合、スマートフォン1は、ステップS122でロック画面60cに対するタッチを検出後、再度ステップS123でロック画面60cに対するタッチを検出する。この際、スマートフォン1は、ステップS122でタッチが検出されてから、ステップS123でタッチが検出されるまでの時間間隔を測定する。つまり、スマートフォン1は、時間T4分の時間間隔を測定する。そして、スマートフォン1は、ロック画面60cを一度タッチしてから時間間隔T3をおいて再びタッチし、さらに時間間隔T4をおいて再度タッチするジェスチャが、予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する。   In step S123, the user again touches the portion of the touch screen 2B where the lock screen 60c is displayed with the finger F1. At this time, as shown in FIG. 18B, time T4 has elapsed since the user touched the lock screen 60c in step S122. Time T4 is shorter than time T3. In this case, after detecting the touch on the lock screen 60c in step S122, the smartphone 1 detects the touch on the lock screen 60c again in step S123. At this time, the smartphone 1 measures a time interval from when the touch is detected in step S122 until the touch is detected in step S123. That is, the smartphone 1 measures a time interval of time T4. Then, the smartphone 1 touches the lock screen 60c once, touches it again at a time interval T3, and touches again at a time interval T4, and the gesture that matches the preset gesture operation pattern matches It is determined whether or not to do.

そして、スマートフォン1は、ステップS121〜S123で検出した時間間隔T3およびT4をおいて3回ロック画面60cをタッチするジェスチャが、予め設定された特定のジェスチャの操作パターンと一致すると判定した場合に、ステップS124の処理を行う。スマートフォン1は、ステップS124では、ロック状態を解除し、このタッチするジェスチャに対応付けられたカメラアプリケーションを実行して、操作画面80をタッチスクリーンディスプレイ2に表示させる。   When the smartphone 1 determines that the gesture touching the lock screen 60c three times at the time intervals T3 and T4 detected in steps S121 to S123 matches the preset operation pattern of the specific gesture, The process of step S124 is performed. In step S <b> 124, the smartphone 1 releases the lock state, executes the camera application associated with the touched gesture, and displays the operation screen 80 on the touch screen display 2.

第11の例および第12の例において、図17Bでは、時間T1より時間T2の方が長いが、T1とT2とは同じであってもよい。T1よりT2の方が短くてもよい。同様に、図18Bでは、時間T3より時間T4の方が短いが、T3とT4とは同じであってもよい。T3よりT4の方が長くてもよい。ロック画面60cをタッチする指の本数が、ステップS111からS113またはステップS121からS123の各々で同じであるが、各々のステップで異なっていてもよい。スマートフォン1は、一度タッチが検出されてから時間T1±T’後にタッチが検出された場合でも、時間T1後にタッチされたと判定してよい。スマートフォン1は、時間間隔T1およびT2に、ある程度の幅を持たせてよい。スマートフォン1は、タッチスクリーン2Bに対するタッチを検出したタイミングではなく、タッチスクリーン2Bからのリリースを検出したタイミングに基づいてタッチが行われたと判定してもよい。   In the eleventh example and the twelfth example, in FIG. 17B, the time T2 is longer than the time T1, but T1 and T2 may be the same. T2 may be shorter than T1. Similarly, in FIG. 18B, time T4 is shorter than time T3, but T3 and T4 may be the same. T4 may be longer than T3. The number of fingers touching the lock screen 60c is the same in each of steps S111 to S113 or steps S121 to S123, but may be different in each step. The smartphone 1 may determine that the touch has been made after the time T1 even if the touch is detected after the time T1 ± T ′ after the touch is once detected. The smartphone 1 may have a certain width in the time intervals T1 and T2. The smartphone 1 may determine that the touch has been performed based on the timing at which the release from the touch screen 2B is detected instead of the timing at which the touch on the touch screen 2B is detected.

図19〜図21を参照しながら、ロック画面が表示されるロック状態で実行される制御の処理手順について説明する。図19に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。コントローラ10は、図19に示す処理手順と並行して、ロック画面に関する制御のための他の処理手順を実行することがある。   With reference to FIG. 19 to FIG. 21, a processing procedure of control executed in the locked state in which the lock screen is displayed will be described. The processing procedure shown in FIG. 19 is realized by the controller 10 executing the control program 9A. The controller 10 may execute another processing procedure for controlling the lock screen in parallel with the processing procedure shown in FIG.

コントローラ10は、ステップSA−1として、タッチスクリーンディスプレイ2にロック画面を表示させる。コントローラ10は、ステップSA−1でロック画面を表示させたら、ステップSA−2としてジェスチャありかを判定する。つまり、コントローラ10は、タッチスクリーン2Bの検出結果を取得し、取得した検出結果に基づいて、ジェスチャが検出されたかを判定する。コントローラ10は、ステップSA−2でジェスチャが検出されてない(ステップSA−2でNo)と判定した場合、ステップSA−3として、閾値時間≦待機時間であるかを判定する。コントローラ10は、直近の操作が終了してからの経過時間である待機時間が所定の閾値時間以上であるかを判定する。   The controller 10 displays a lock screen on the touch screen display 2 as step SA-1. After displaying the lock screen in step SA-1, the controller 10 determines whether there is a gesture in step SA-2. That is, the controller 10 acquires the detection result of the touch screen 2B, and determines whether a gesture is detected based on the acquired detection result. When it is determined in step SA-2 that no gesture is detected (No in step SA-2), the controller 10 determines whether threshold time ≦ standby time as step SA-3. The controller 10 determines whether or not the standby time, which is the elapsed time since the last operation has ended, is equal to or greater than a predetermined threshold time.

コントローラ10は、ステップSA−3で閾値時間≦待機時間ではない(ステップSA−3でNo)、つまり閾値時間>待機時間であると判定した場合、ステップSA−2に進み、ジェスチャがありかを再び判定する。コントローラ10は、ステップSA−3で閾値時間≦待機時間である(ステップSA−3でYes)と判定した場合、ステップSA−4として省電力モードに移行し、本処理を終了する。つまり、コントローラ10は、タッチスクリーンディスプレイ2を消灯させロック画面を表示していない状態として、本処理を終了する。   If the controller 10 determines in step SA-3 that the threshold time ≦ the standby time is not satisfied (No in step SA-3), that is, the threshold time> the standby time, the controller 10 proceeds to step SA-2 and determines whether there is a gesture. Determine again. When the controller 10 determines in step SA-3 that the threshold time is equal to or less than the standby time (Yes in step SA-3), the controller 10 shifts to the power saving mode as step SA-4 and ends this processing. That is, the controller 10 ends this processing with the touch screen display 2 turned off and the lock screen not being displayed.

コントローラ10は、ステップSA−2でジェスチャあり(ステップSA−2でYes)と判定した場合、ステップSA−5として、タッチスクリーンディスプレイ2に対する特定のジェスチャであるかを判定する。つまり、コントローラ10は、ステップSA−2で検出したジェスチャが上述の図7〜図18Bに示したような特定のジェスチャであるかを判定する。この特定のジェスチャとは、例えば、ロック状態を解除するためのロック解除ジェスチャである。   If the controller 10 determines in step SA-2 that there is a gesture (Yes in step SA-2), the controller 10 determines whether the gesture is a specific gesture for the touch screen display 2 in step SA-5. That is, the controller 10 determines whether or not the gesture detected in step SA-2 is a specific gesture as illustrated in FIGS. This specific gesture is, for example, an unlocking gesture for releasing a locked state.

コントローラ10は、ステップSA−5で特定のジェスチャではない(ステップSA−5でNo)と判定した場合、ステップSA−6として、検出したジェスチャの処理を実行し、ステップSA−2に進む。ここで、検出したジェスチャの処理としては、ロック画面で表示可能な画面、例えばヘルプ画面もしくは緊急通報画面の表示処理等である。   If the controller 10 determines in step SA-5 that the gesture is not a specific gesture (No in step SA-5), the controller 10 executes processing of the detected gesture as step SA-6, and proceeds to step SA-2. Here, the processing of the detected gesture is a screen that can be displayed on the lock screen, such as a display processing of a help screen or an emergency call screen.

コントローラ10は、ステップSA−5で特定のジェスチャである(ステップSA−5でYes)と判定した場合、ステップSA−7として、検出した特定のジェスチャが予め設定された操作パターンに一致するかを判定する。   If the controller 10 determines in step SA-5 that the gesture is a specific gesture (Yes in step SA-5), then in step SA-7, the controller 10 determines whether the detected specific gesture matches the preset operation pattern. judge.

コントローラ10は、ステップSA−7で検出された特定のジェスチャが予め設定された操作パターンに一致しない(ステップSA−7でNo)と判定した場合、ステップSA−8として、スマートフォン1の特定のジェスチャをやり直すことを利用者に促すメッセージをディスプレイ2Aに表示する。そして、コントローラ10は、ステップSA−2に戻る。   When the controller 10 determines that the specific gesture detected in step SA-7 does not match the preset operation pattern (No in step SA-7), the controller 10 determines the specific gesture of the smartphone 1 as step SA-8. A message prompting the user to redo is displayed on the display 2A. Then, the controller 10 returns to Step SA-2.

コントローラ10は、ステップSA−7で検出された特定のジェスチャが予め設定された操作パターンに一致する(ステップSA−7でYes)と判定した場合、ステップSA−9として、ロック解除処理を実行する。コントローラ10は、ステップSA−10として、予め設定された操作パターンに対応するアプリケーションを起動する。コントローラ10は、ステップSA−11として、タッチスクリーンディスプレイ2に起動したアプリケーションの画面を表示させる。そして、コントローラ10は、その後、本処理を終了する。   When the controller 10 determines that the specific gesture detected in step SA-7 matches the preset operation pattern (Yes in step SA-7), the controller 10 executes a lock release process as step SA-9. . The controller 10 activates an application corresponding to a preset operation pattern as step SA-10. The controller 10 displays the screen of the activated application on the touch screen display 2 as step SA-11. And the controller 10 complete | finishes this process after that.

図19において、コントローラ10は、ステップSA−7で検出された特定のジェスチャが予め設定された操作パターンに一致しない(ステップSA−7でNo)と判定した場合、ステップSA−8として、スマートフォン1の特定のジェスチャをやり直すことを利用者に促すメッセージをディスプレイ2Aに表示する例を説明したが、これに限定されない。例えば、コントローラ10は、検出された特定のジェスチャが予め設定された操作パターンに一致しない場合であっても、ロック解除処理を実行して、ロック状態が設定される前に表示されていたホーム画面等の画面を表示させてもよい。   In FIG. 19, when the controller 10 determines that the specific gesture detected in Step SA-7 does not match the preset operation pattern (No in Step SA-7), the smartphone 1 is set as Step SA-8. Although the example which displays on the display 2A the message which prompts the user to redo the specific gesture is described, the present invention is not limited to this. For example, even when the detected specific gesture does not match the preset operation pattern, the controller 10 executes the unlocking process and is displayed before the lock state is set. Etc. may be displayed.

図20は、ロック画面が表示されるロック状態で実行される制御の処理手順の他の例を示すフローチャートである。図20は、検出された特定のジェスチャが予め設定された操作パターンに一致すると判定した場合、つまり図19のステップSA−7でYesと判定した後に実行する処理手順の他の例を示している。図20に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。   FIG. 20 is a flowchart illustrating another example of the processing procedure of the control executed in the locked state in which the lock screen is displayed. FIG. 20 shows another example of the processing procedure executed when it is determined that the detected specific gesture matches the preset operation pattern, that is, after the determination is Yes in step SA-7 in FIG. . The processing procedure shown in FIG. 20 is realized by the controller 10 executing the control program 9A.

コントローラ10は、ステップSA−7でYesと判定した場合、ステップSA−10として、予め設定された操作パターンに対応するアプリケーションを起動する。コントローラ10は、ステップSA−11として、タッチスクリーンディスプレイ2に起動したアプリケーションの画面を表示させる。コントローラ10は、ステップSA−11で起動したアプリケーションの画面を表示させたら、ステップSA−12として、起動したアプリケーションの処理を実行する。例えば、コントローラ10は、ジェスチャが検出されたら検出されたジェスチャに対応する処理を実行する。   When the controller 10 determines Yes in step SA-7, the controller 10 activates an application corresponding to a preset operation pattern as step SA-10. The controller 10 displays the screen of the activated application on the touch screen display 2 as step SA-11. When the controller 10 displays the screen of the application activated in step SA-11, the controller 10 executes processing of the activated application as step SA-12. For example, when a gesture is detected, the controller 10 executes processing corresponding to the detected gesture.

コントローラ10は、ステップSA−12でアプリケーションの処理を実行したら、ステップSA−13としてアプリケーションを終了させるかを判定する。ここで、コントローラ10は、例えば、アプリケーションを終了させるジェスチャを検出した場合、または、予め設定された処理条件を満足していると判定した場合、アプリケーションを終了すると判定する。コントローラ10は、アプリケーションを終了させない(ステップSA−13でNo)と判定した場合、ステップSA−12に進み、アプリケーションの処理を実行する。コントローラ10は、アプリケーションを終了させる(ステップSA−13でYes)と判定した場合、ステップSA−14としてロック画面を表示し、本処理を終了する。つまりコントローラ10は、ステップSA−13でYesと判定した場合、図19のステップSA−1に進み図20に示す処理を終了する。   After executing the application process in step SA-12, the controller 10 determines whether to end the application in step SA-13. Here, for example, the controller 10 determines to end the application when it detects a gesture for ending the application or when it determines that a preset processing condition is satisfied. If it is determined that the application is not terminated (No in step SA-13), the controller 10 proceeds to step SA-12 and executes the process of the application. If it is determined that the application is to be terminated (Yes in step SA-13), the controller 10 displays a lock screen as step SA-14 and terminates the process. That is, if the controller 10 determines Yes in step SA-13, it proceeds to step SA-1 in FIG. 19 and ends the process shown in FIG.

スマートフォン1は、図20に示すように、検出された特定のジェスチャが予め設定された操作パターンに対応すると判定した場合、予め設定された操作パターンに対応するアプリケーションを実行し、そのアプリケーションが終了したら再びロック画面を表示させる。例えば、スマートフォン1は、検出された特定のジェスチャが、カメラアプリケーションに予め対応付けられた操作パターンと一致する場合、カメラアプリケーションを実行し、カメラを制御して被写体を撮影したらロック画面に戻る処理動作を実行することができる。これにより、利用者は、予め設定された操作パターンに対応するアプリケーションについて完全にロック解除をしない状態で使用することができる。つまり、スマートフォン1は、利用者が所望のアプリケーションを実行した後はロック状態に戻るよう制御する。そのため、利用者が所望のアプリケーションをロック画面から直接実行するための操作パターンを多く設定して、第三者が比較的に容易にロック解除をできてしまう状況になった場合であっても、ロック状態を完全に解除することなく、一部の機能のみを使用可能とすることでセキュリティ性を確保することができる。   As illustrated in FIG. 20, when the smartphone 1 determines that the detected specific gesture corresponds to a preset operation pattern, the smartphone 1 executes an application corresponding to the preset operation pattern, and ends the application. Display the lock screen again. For example, when the detected specific gesture matches the operation pattern previously associated with the camera application, the smartphone 1 executes the camera application, and controls the camera to capture the subject and return to the lock screen. Can be executed. As a result, the user can use the application corresponding to the preset operation pattern without completely unlocking the application. That is, the smartphone 1 performs control so that the user returns to the locked state after executing a desired application. Therefore, even if the user has set a lot of operation patterns for directly executing the desired application from the lock screen and the third party can unlock it relatively easily, Security can be ensured by enabling only a part of functions without completely releasing the locked state.

図21は、ロック画面が表示されるロック状態で実行される制御の処理手順の他の例を示すフローチャートである。図21は、検出された特定のジェスチャが予め設定された操作パターンに一致すると判定した場合、つまり図19のステップSA−7でYesと判定した後に実行する処理手順の図20に示した例とは異なる他の例を示している。図21に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。   FIG. 21 is a flowchart illustrating another example of the processing procedure of the control executed in the locked state in which the lock screen is displayed. FIG. 21 shows an example of the processing procedure executed when it is determined that the detected specific gesture matches the preset operation pattern, that is, after the determination at Step SA-7 in FIG. Shows another different example. The processing procedure shown in FIG. 21 is realized by the controller 10 executing the control program 9A.

コントローラ10は、ステップSA−7でYesと判定した場合、ステップSA−9として、ロック解除処理を実行する。コントローラ10は、ステップSA−10として、予め設定された操作パターンに対応するアプリケーションを起動する。コントローラ10は、ステップSA−11として、タッチスクリーンディスプレイ2に起動したアプリケーションの画面を表示させる。コントローラ10は、ステップSA−11で起動したアプリケーションの画面を表示させたら、ステップSA−12として、起動したアプリケーションの処理を実行する。例えば、コントローラ10は、ジェスチャが検出されたら検出されたジェスチャに対応する処理を実行する。   When it determines with Yes at step SA-7, the controller 10 performs a lock release process as step SA-9. The controller 10 activates an application corresponding to a preset operation pattern as step SA-10. The controller 10 displays the screen of the activated application on the touch screen display 2 as step SA-11. When the controller 10 displays the screen of the application activated in step SA-11, the controller 10 executes processing of the activated application as step SA-12. For example, when a gesture is detected, the controller 10 executes processing corresponding to the detected gesture.

コントローラ10は、ステップSA−12でアプリケーションの処理を実行したら、ステップSA−13としてアプリケーションを終了させるかを判定する。ここで、コントローラ10は、例えば、アプリケーションを終了させるジェスチャを検出した場合、または、予め設定された処理条件を満足していると判定した場合、アプリケーションを終了すると判定する。コントローラ10は、アプリケーションを終了させない(ステップSA−13でNo)と判定した場合、ステップSA−12に進み、アプリケーションの処理を実行する。コントローラ10は、アプリケーションを終了させる(ステップSA−13でYes)と判定した場合、ステップSA−15として、図4に示すようなホーム画面を表示し、本処理を終了する。つまりコントローラ10は、ステップSA−13でYesと判定した場合、ロック画面に戻らず、スマートフォン1が有する各種機能を実行可能なホーム画面に移行する。   After executing the application process in step SA-12, the controller 10 determines whether to end the application in step SA-13. Here, for example, the controller 10 determines to end the application when it detects a gesture for ending the application or when it determines that a preset processing condition is satisfied. If it is determined that the application is not terminated (No in step SA-13), the controller 10 proceeds to step SA-12 and executes the process of the application. If it is determined that the application is to be ended (Yes in step SA-13), the controller 10 displays a home screen as shown in FIG. 4 as step SA-15, and ends this process. That is, when it determines with Yes at step SA-13, the controller 10 transfers to the home screen which can perform the various functions which the smart phone 1 does not return to a lock screen.

このように、スマートフォン1は、利用者が所望のアプリケーションを実行した後は、ロック状態に戻らず、スマートフォン1が有する各種機能を実行可能なホーム画面に移行するので、ロック画面が表示された状態から所望のアプリケーションを実行する際の操作性を向上させることができる。つまり、利用者は、従来技術のように、ロック状態を解除してホーム画面を表示し、ホーム画面上から所望のアプリケーションに対応するアイコンを選択して、所望のアプリケーションを実行させるジェスチャを行う必要がない。そのため、利用者は、特定のジェスチャのみでロック解除処理と所望のアプリケーションの実行処理を同時に行うことができる。   As described above, after the user executes a desired application, the smartphone 1 does not return to the locked state, and shifts to the home screen that can execute various functions of the smartphone 1, so that the lock screen is displayed. Therefore, operability when executing a desired application can be improved. In other words, as in the prior art, the user needs to perform a gesture to release the locked state, display the home screen, select an icon corresponding to the desired application on the home screen, and execute the desired application. There is no. Therefore, the user can perform the unlocking process and the execution process of the desired application at the same time only with a specific gesture.

次に、図22〜図25を参照しながら、特定のジェスチャの操作パターンを登録する制御について説明する。   Next, control for registering an operation pattern of a specific gesture will be described with reference to FIGS.

図22は、特定のジェスチャと対応付けるアプリケーションを選択するための選択画面の一例を示している。図22に示す選択画面90には、アプリケーションの選択を行うための画面であることを示す標題92と、複数のアプリケーションの項目と、当該項目にそれぞれ対応したチェックボックス94と、スクロールバー98と、が表示されている。図22に示す選択画面90には、スマートフォン1が実行可能なアプリケーションの項目として、例えば、アドレス帳、Eメール、赤外線通信、カメラ、テキストエディタ、ミュージックプレーヤ、カレンダーが表示されている。図22では、カメラの項目に対応するチェックボックス94には、チェックマーク96が表示されている。   FIG. 22 shows an example of a selection screen for selecting an application associated with a specific gesture. The selection screen 90 shown in FIG. 22 includes a title 92 indicating a screen for selecting an application, items of a plurality of applications, check boxes 94 respectively corresponding to the items, a scroll bar 98, Is displayed. On the selection screen 90 shown in FIG. 22, for example, an address book, email, infrared communication, camera, text editor, music player, and calendar are displayed as items of applications that can be executed by the smartphone 1. In FIG. 22, a check mark 96 is displayed in the check box 94 corresponding to the camera item.

チェックボックス94は、四角い枠であり、それぞれのアプリケーションの項目の左端に表示されている。チェックボックス94は、対応する項目が選択されているか否かを示す表示領域である。チェックマーク96は、チェックボックス94に対応する項目のアプリケーションが、特定のジェスチャと対応付けるアプリケーションに選択されていることを示す画像である。このように、チェックボックス94は、項目が選択されている場合、チェックマーク96が表示され、項目が選択されていない場合、チェックマーク96が表示されない。項目を選択する選択操作は、例えば、対応するアプリケーションの項目または当該項目に対応するチェックボックス94に対するタップである。   The check box 94 is a rectangular frame and is displayed at the left end of each application item. The check box 94 is a display area indicating whether or not a corresponding item is selected. The check mark 96 is an image indicating that the application of the item corresponding to the check box 94 is selected as the application associated with the specific gesture. Thus, the check box 94 displays the check mark 96 when an item is selected, and does not display the check mark 96 when no item is selected. The selection operation for selecting an item is, for example, a tap on a corresponding application item or a check box 94 corresponding to the item.

スクロールバー98は、現在ディスプレイ2Aに表示されている領域が選択画面90の全体の中でどこの領域に相当するかを示す画像である。スマートフォン1は、スクロールバー98の現在位置を示すオブジェクト98aを移動させる操作を検出した場合、検出した操作に基づいてディスプレイ2Aに表示される選択画面90をスクロールさせる。   The scroll bar 98 is an image indicating which area the area currently displayed on the display 2 </ b> A corresponds to in the entire selection screen 90. When the smartphone 1 detects an operation of moving the object 98a indicating the current position of the scroll bar 98, the smartphone 1 scrolls the selection screen 90 displayed on the display 2A based on the detected operation.

スマートフォン1は、特定のボタン3がクリックされる等の所定の操作が検出されると、選択画面90を表示させ、選択画面90の表示中に検出した操作に基づいて、ロック画面上で特定のジェスチャが入力された場合にロック解除とともに実行させるアプリケーションを決定する。例えば、スマートフォン1は、チェックマーク96が表示されているチェックボックス94が1つ存在する状態で、標題92に対するジェスチャ(例えば、タップ)を検出した後、当該チェックボックス94に対応するアプリケーション(図22において、カメラアプリケーション)を、ロック画面上で特定のジェスチャが入力された場合にロック解除とともに実行させるアプリケーションとして決定する。   When a predetermined operation such as a click on a specific button 3 is detected, the smartphone 1 displays a selection screen 90, and on the lock screen based on the operation detected while the selection screen 90 is displayed. When a gesture is input, an application to be executed together with unlocking is determined. For example, the smartphone 1 detects a gesture (for example, a tap) for the title 92 in a state where there is one check box 94 on which the check mark 96 is displayed, and then the application corresponding to the check box 94 (FIG. 22). The camera application) is determined as an application to be executed together with unlocking when a specific gesture is input on the lock screen.

図22に示した選択画面90では、アプリケーションの項目をアプリケーションの名称の文字情報の画像としたがこれに限定されない。選択画面90は、アプリケーションの項目として、アプリケーションに対応付けられたアイコンの画像またはホーム画面に表示されるアイコンの画像を用いてもよい。   In the selection screen 90 shown in FIG. 22, the application item is an image of the character information of the application name, but is not limited to this. The selection screen 90 may use an icon image associated with the application or an icon image displayed on the home screen as an application item.

図23は、特定のジェスチャの操作パターンを登録するための登録画面の一例を示す図である。図23に示す登録画面100は、パターン登録を行うための画面であることを示す標題102と、操作パターンを入力するための入力領域104と、が表示されている。図23に示す登録画面では、入力領域104内に、円形アイコン61が3行3列の格子状に全部で9個配置されている。つまり、図23に示す登録画面の例では、図6Aのロック画面60aと同じ円形アイコン61が表示されている。スマートフォン1は、例えば、これらの円形アイコン61が表示された位置を通る軌跡を入力するジェスチャを、選択画面90で選択されたアプリケーションと対応付ける特定のジェスチャとして決定する。例えば、スマートフォン1は、軌跡を入力するジェスチャを検出した後に、標題102に対するジェスチャ(例えば、タップ)を検出した場合、軌跡を入力するジェスチャを、選択画面90で選択されたアプリケーションと対応付ける特定のジェスチャとして決定する。そして、スマートフォン1は、登録画面100上で検出された特定のジェスチャの操作パターンと、選択画面90上で選択されたアプリケーションとを対応付けて設定データ9Zに登録する。このように、設定データ9Zに記憶される特定のジェスチャの操作パターンは、ロック状態の解除中に、利用者により任意に設定される。   FIG. 23 is a diagram illustrating an example of a registration screen for registering an operation pattern of a specific gesture. The registration screen 100 shown in FIG. 23 displays a title 102 indicating that it is a screen for pattern registration, and an input area 104 for inputting an operation pattern. In the registration screen shown in FIG. 23, a total of nine circular icons 61 are arranged in a 3 × 3 grid in the input area 104. That is, in the example of the registration screen shown in FIG. 23, the same circular icon 61 as the lock screen 60a in FIG. 6A is displayed. The smartphone 1 determines, for example, a gesture for inputting a trajectory passing through the position where these circular icons 61 are displayed as a specific gesture associated with the application selected on the selection screen 90. For example, when the smartphone 1 detects a gesture (for example, a tap) for the title 102 after detecting a gesture for inputting a trajectory, the smartphone 1 is configured to associate the gesture for inputting the trajectory with the application selected on the selection screen 90. Determine as. Then, the smartphone 1 registers the operation pattern of the specific gesture detected on the registration screen 100 and the application selected on the selection screen 90 in the setting data 9Z in association with each other. As described above, the operation pattern of the specific gesture stored in the setting data 9Z is arbitrarily set by the user during the release of the locked state.

図23に示した登録画面100では、入力領域104内を図6Aのロック画面60aに対応するよう円形アイコン61の画像としたがこれに限定されない。登録画面100は、入力領域104内を図6Bのロック画面60bまたは図6Cのロック画面60cに対応する画像を用いてもよい。スマートフォン1は、登録画面100内の所定領域(例えば、標題102および入力領域104以外の領域)に対するジェスチャ(例えば、ダブルタップ)を検出した場合、入力領域104内の画像を、ロック画面60aに対応する円形アイコン61の画像から、ロック画面60bまたはロック画面60cに対応する画像へと切り替えてもよい。そして、スマートフォン1は、入力領域104内で検出されたジェスチャを、選択画面90で選択されたアプリケーションと対応付ける特定のジェスチャとして決定する。   In the registration screen 100 shown in FIG. 23, the image of the circular icon 61 is formed in the input area 104 so as to correspond to the lock screen 60a of FIG. 6A. The registration screen 100 may use an image corresponding to the lock screen 60b in FIG. 6B or the lock screen 60c in FIG. 6C in the input area 104. When the smartphone 1 detects a gesture (for example, a double tap) for a predetermined area (for example, an area other than the title 102 and the input area 104) in the registration screen 100, the image in the input area 104 corresponds to the lock screen 60a. The image of the circular icon 61 to be switched may be switched to an image corresponding to the lock screen 60b or the lock screen 60c. Then, the smartphone 1 determines the gesture detected in the input area 104 as a specific gesture associated with the application selected on the selection screen 90.

図23では、登録画面100上の入力領域104内には3行3列の格子状に9個配置されているが、円形アイコン61の数はこれに限定されない。例えば、登録画面100は、円形アイコン61を4行4列の格子状に16個配置してもよいし、円形アイコン61を5行5列の格子状に25個配置してもよい。   In FIG. 23, nine input areas 104 on the registration screen 100 are arranged in a 3 × 3 grid, but the number of circular icons 61 is not limited to this. For example, on the registration screen 100, 16 circular icons 61 may be arranged in a grid of 4 rows and 4 columns, or 25 circular icons 61 may be arranged in a grid of 5 rows and 5 columns.

図24は、実施形態に係るスマートフォンが行う制御の第13の例を示す図である。この第13の例では、スマートフォン1は、選択画面90で選択されたカメラアプリケーションと、登録画面100で登録された所定の軌跡を入力するジェスチャと、を対応付けて登録している。つまり、第13の例では、スマートフォン1は、上述の図8に示した第2の例において予め設定された特定のジェスチャの操作パターンと一致するか否かを判定する際に参照される、α2が示す軌跡を入力するジェスチャを登録している。   FIG. 24 is a diagram illustrating a thirteenth example of control performed by the smartphone according to the embodiment. In the thirteenth example, the smartphone 1 registers the camera application selected on the selection screen 90 and the gesture for inputting a predetermined locus registered on the registration screen 100 in association with each other. That is, in the thirteenth example, the smartphone 1 is referred to when determining whether or not the operation pattern of the specific gesture set in advance in the second example illustrated in FIG. A gesture for inputting the locus indicated by is registered.

スマートフォン1は、図24に示すように、ステップS131で、図22と同様の選択画面90をディスプレイ2Aに表示している。   As shown in FIG. 24, the smartphone 1 displays a selection screen 90 similar to FIG. 22 on the display 2A in step S131.

そして、スマートフォン1は、カメラアプリケーションの項目に対応するチェックボックス94内にチェックマーク96が表示されている状態で、標題92に対するジェスチャを検出した場合に、ステップS132の処理を行う。スマートフォン1は、ステップS132では、図23と同様の登録画面100をディスプレイ2Aに表示する。   When the smartphone 1 detects a gesture for the title 92 with the check mark 96 displayed in the check box 94 corresponding to the item of the camera application, the smartphone 1 performs the process of step S132. In step S132, the smartphone 1 displays the same registration screen 100 as in FIG. 23 on the display 2A.

そして、ステップS133では、利用者が、指F1で登録画面100の入力領域104内に配置された9個の円形アイコン61のうち右の列の上のアイコンをタッチしている。この場合、スマートフォン1は、この右の列の上のアイコンが表示されている位置でのタッチを検出する。   In step S133, the user touches the icon on the right column among the nine circular icons 61 arranged in the input area 104 of the registration screen 100 with the finger F1. In this case, the smartphone 1 detects a touch at a position where the icon on the right column is displayed.

そして、ステップS134では、利用者が、右の列の上のアイコンが表示されている位置でタッチしていた指F1を、タッチスクリーンディスプレイ2上に接触させたままで右の列の下のアイコンが表示されている位置まで、α2が示す軌跡に沿って移動させている。この場合、スマートフォン1は、右の列の上のアイコンが表示されている位置を始点として、α2が示す軌跡に沿って移動し、右の列の下のアイコンが表示されている位置を終点とするスワイプを検出する。そして、スマートフォン1は、当該スワイプを検出した後に、標題102に対するジェスチャを検出した場合、α2が示す軌跡を入力するジェスチャを、選択画面90で選択されたカメラアプリケーションと対応付ける特定のジェスチャの操作パターンとして登録する。   In step S134, the user touches the finger F1 touched at the position where the icon on the right column is displayed on the touch screen display 2, and the icon below the right column is displayed. It is moved along the locus indicated by α2 to the displayed position. In this case, the smartphone 1 starts from the position where the icon above the right column is displayed, moves along the trajectory indicated by α2, and the position where the icon below the right column is displayed is the end point. Detect the swipe you want. Then, when the smartphone 1 detects the gesture for the title 102 after detecting the swipe, the gesture for inputting the trajectory indicated by α2 is used as the operation pattern of the specific gesture associated with the camera application selected on the selection screen 90. sign up.

図25は、実施形態に係るスマートフォンが行う制御の処理手順を示すフローチャートである。図25では、特定のジェスチャの操作パターンを登録する制御の処理手順の一例を示している。図25に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。   FIG. 25 is a flowchart illustrating a control processing procedure performed by the smartphone according to the embodiment. FIG. 25 shows an example of a control processing procedure for registering an operation pattern of a specific gesture. The processing procedure shown in FIG. 25 is realized by the controller 10 executing the control program 9A.

コントローラ10は、ステップSB−1として、タッチスクリーンディスプレイ2に選択画面90を表示させる。コントローラ10は、ステップSB−1で選択画面90を表示させたら、ステップSB−2としてジェスチャありかを判定する。つまり、コントローラ10は、タッチスクリーン2Bの検出結果を取得し、取得した検出結果に基づいて、ジェスチャが検出されたかを判定する。コントローラ10は、ステップSB−2でジェスチャが検出されてない(ステップSB−2でNo)と判定した場合、ステップSB−3として、閾値時間≦待機時間であるかを判定する。コントローラ10は、直近の操作が終了してからの経過時間である待機時間が所定の閾値時間以上であるかを判定する。   The controller 10 displays the selection screen 90 on the touch screen display 2 as step SB-1. After displaying the selection screen 90 in step SB-1, the controller 10 determines whether there is a gesture as step SB-2. That is, the controller 10 acquires the detection result of the touch screen 2B, and determines whether a gesture is detected based on the acquired detection result. When determining that the gesture is not detected in Step SB-2 (No in Step SB-2), the controller 10 determines whether or not threshold time ≦ standby time as Step SB-3. The controller 10 determines whether or not the standby time, which is the elapsed time since the last operation has ended, is equal to or greater than a predetermined threshold time.

コントローラ10は、ステップSB−3で閾値時間≦待機時間ではない(ステップSB−3でNo)、つまり閾値時間>待機時間であると判定した場合、ステップSB−2に進み、ジェスチャがありかを再び判定する。コントローラ10は、ステップSB−3で閾値時間≦待機時間である(ステップSB−3でYes)と判定した場合、ステップSB−4として省電力モードに移行し、本処理を終了する。つまり、コントローラ10は、タッチスクリーンディスプレイ2を消灯させて、本処理を終了する。   If the controller 10 determines in step SB-3 that the threshold time ≦ the standby time is not satisfied (No in step SB-3), that is, the threshold time> the standby time, the controller 10 proceeds to step SB-2 and determines whether there is a gesture. Determine again. If the controller 10 determines in step SB-3 that the threshold time ≦ the standby time (Yes in step SB-3), the controller 10 shifts to the power saving mode as step SB-4 and ends this processing. That is, the controller 10 turns off the touch screen display 2 and ends this process.

コントローラ10は、ステップSB−2でジェスチャあり(ステップSB−2でYes)と判定した場合、ステップSB−5として、選択画面90が表示されたタッチスクリーンディスプレイ2に対してアプリケーションの項目または当該項目に対応するチェックボックス94を選択する選択操作であるかを判定する。つまり、コントローラ10は、ステップSB−2で検出したジェスチャが選択操作であるかを判定する。この選択操作は、例えば、アプリケーションの項目または当該項目に対応するチェックボックス94に対するタップである。   If the controller 10 determines in step SB-2 that there is a gesture (Yes in step SB-2), as step SB-5, the application item or the item is displayed on the touch screen display 2 on which the selection screen 90 is displayed. It is determined whether or not the selection operation is to select a check box 94 corresponding to. That is, the controller 10 determines whether the gesture detected in step SB-2 is a selection operation. This selection operation is, for example, a tap on an application item or a check box 94 corresponding to the item.

コントローラ10は、ステップSB−5で選択操作ではない(ステップSB−5でNo)と判定した場合、ステップSB−6として、検出したジェスチャの処理を実行し、ステップSB−2に進む。ここで、検出したジェスチャの処理としては、例えば、スクロールバー98の現在位置を示すオブジェクト98aを移動させる操作を検出した場合、検出した操作に基づいてディスプレイ2Aに表示される選択画面90をスクロールさせる処理等である。   If the controller 10 determines in step SB-5 that the operation is not a selection operation (No in step SB-5), the controller 10 executes processing of the detected gesture as step SB-6, and proceeds to step SB-2. Here, as processing of the detected gesture, for example, when an operation of moving the object 98a indicating the current position of the scroll bar 98 is detected, the selection screen 90 displayed on the display 2A is scrolled based on the detected operation. Processing.

コントローラ10は、ステップSB−5で選択操作である(ステップSB−5でYes)と判定した場合、ステップSB−7として、タッチスクリーンディスプレイ2に登録画面100を表示させる。コントローラ10は、ステップSB−7で登録画面100を表示させたら、ステップSB−8としてジェスチャありかを判定する。つまり、コントローラ10は、タッチスクリーン2Bの検出結果を取得し、取得した検出結果に基づいて、ジェスチャが検出されたかを判定する。   When the controller 10 determines that the selection operation is performed in Step SB-5 (Yes in Step SB-5), the controller 10 displays the registration screen 100 on the touch screen display 2 as Step SB-7. When the controller 10 displays the registration screen 100 in step SB-7, the controller 10 determines whether there is a gesture in step SB-8. That is, the controller 10 acquires the detection result of the touch screen 2B, and determines whether a gesture is detected based on the acquired detection result.

コントローラ10は、ステップSB−8でジェスチャが検出されてない(ステップSB−8でNo)と判定した場合、ステップSB−9として、閾値時間≦待機時間であるかを判定する。コントローラ10は、直近の操作が終了してからの経過時間である待機時間が所定の閾値時間以上であるかを判定する。   When determining that the gesture is not detected in Step SB-8 (No in Step SB-8), the controller 10 determines, as Step SB-9, whether or not the threshold time ≦ the standby time. The controller 10 determines whether or not the standby time, which is the elapsed time since the last operation has ended, is equal to or greater than a predetermined threshold time.

コントローラ10は、ステップSB−9で閾値時間≦待機時間ではない(ステップSB−9でNo)、つまり閾値時間>待機時間であると判定した場合、ステップSB−8に進み、ジェスチャがありかを再び判定する。コントローラ10は、ステップSB−9で閾値時間≦待機時間である(ステップSB−9でYes)と判定した場合、ステップSB−4として省電力モードに移行し、本処理を終了する。つまり、コントローラ10は、タッチスクリーンディスプレイ2を消灯させて、本処理を終了する。   If the controller 10 determines in step SB-9 that the threshold time ≦ the standby time is not satisfied (No in step SB-9), that is, the threshold time> the standby time, the controller 10 proceeds to step SB-8 and determines whether there is a gesture. Determine again. If the controller 10 determines in step SB-9 that the threshold time ≦ the standby time (Yes in step SB-9), the controller 10 proceeds to the power saving mode as step SB-4 and ends this process. That is, the controller 10 turns off the touch screen display 2 and ends this process.

コントローラ10は、ステップSB−8でジェスチャあり(ステップSB−8でYes)と判定した場合、ステップSB−10として、登録画面100が表示されたタッチスクリーンディスプレイ2に対して特定のジェスチャの操作パターンを入力する入力操作であるかを判定する。つまり、コントローラ10は、ステップSB−8で検出したジェスチャが操作パターンの入力操作であるかを判定する。この入力操作は、例えば、登録画面100の入力領域104内で検出されるスワイプ、タップ等である。   If the controller 10 determines in step SB-8 that there is a gesture (Yes in step SB-8), as step SB-10, the operation pattern of a specific gesture on the touch screen display 2 on which the registration screen 100 is displayed. It is determined whether the input operation is to input. That is, the controller 10 determines whether the gesture detected in Step SB-8 is an operation pattern input operation. This input operation is, for example, swipe or tap detected in the input area 104 of the registration screen 100.

コントローラ10は、ステップSB−10で操作パターンの入力操作ではない(ステップSB−10でNo)と判定した場合、ステップSB−11として、検出したジェスチャの処理を実行し、ステップSB−2に進む。ここで、検出したジェスチャの処理としては、例えば、登録画面100内の所定領域に対するジェスチャを検出した場合、入力領域104内の画像を変更する処理等である。   If it is determined in step SB-10 that the operation pattern is not input (No in step SB-10), the controller 10 executes the detected gesture processing in step SB-11, and proceeds to step SB-2. . Here, the processing of the detected gesture is, for example, processing of changing an image in the input area 104 when a gesture for a predetermined area in the registration screen 100 is detected.

コントローラ10は、ステップSB−10で操作パターンの入力操作である(ステップSB−10でYes)と判定した場合、ステップSB−12として、ステップSB−9で登録画面100上で検出された特定のジェスチャの操作パターンと、ステップSB−5で選択画面90上で選択されたアプリケーションとを対応付けて設定データ9Zに登録する。つまり、コントローラ10は、検出された特定のジェスチャの操作パターンに、ロック解除処理と、選択されたアプリケーションの表示処理とを対応付けて設定データ9Zに記憶する。そして、コントローラ10は、その後、本処理を終了する。   If the controller 10 determines in step SB-10 that the operation pattern is an input operation (Yes in step SB-10), the specific detection detected on the registration screen 100 in step SB-9 is performed as step SB-12. The gesture operation pattern and the application selected on the selection screen 90 in step SB-5 are associated with each other and registered in the setting data 9Z. That is, the controller 10 associates the detected operation pattern of the gesture with the unlocking process and the display process of the selected application and stores them in the setting data 9Z. And the controller 10 complete | finishes this process after that.

図25において、コントローラ10は、ステップSB−5で選択操作である(ステップSB−5でYes)と判定した後、更に選択画面90上の標題92に対するジェスチャが検出されたか否かを判定し、当該標題92に対するジェスチャが検出された場合に、次のステップSB−7へ移行してもよい。コントローラ10は、ステップSB−10で操作パターンの入力操作である(ステップSB−10でYes)と判定した後、更に登録画面100上の標題102に対するジェスチャが検出されたか否かを判定し、当該標題102に対するジェスチャが検出された場合に、次のステップSB−12へ移行してもよい。コントローラ10は、ステップSB−10として、検出したジェスチャが、アプリケーションの選択をやり直すためのジェスチャ(例えば、登録画面100内の所定領域に対するロングタップ)である場合、ステップSB−1へ移行してもよい。   In FIG. 25, after determining that the operation is a selection operation in Step SB-5 (Yes in Step SB-5), the controller 10 further determines whether or not a gesture for the title 92 on the selection screen 90 is detected. When a gesture for the title 92 is detected, the process may move to the next step SB-7. The controller 10 further determines whether or not a gesture for the title 102 on the registration screen 100 has been detected after determining that the operation pattern is an input operation in step SB-10 (Yes in step SB-10). When a gesture for the title 102 is detected, the process may proceed to the next step SB-12. If the detected gesture is a gesture for redoing application selection (for example, a long tap on a predetermined area in the registration screen 100), the controller 10 proceeds to step SB-1 as step SB-10. Good.

図22〜図25に示した例では、アプリケーションを選択後に操作パターンを登録する例を説明したが、スマートフォン1は、登録画面100を最初に表示して操作パターンを登録後に、当該操作パターンに対応付けるアプリケーションを選択する選択画面90を表示するようにしてもよい。   In the example illustrated in FIGS. 22 to 25, the example in which the operation pattern is registered after selecting the application has been described. However, the smartphone 1 first displays the registration screen 100 and registers the operation pattern, and then associates the operation pattern with the operation pattern. A selection screen 90 for selecting an application may be displayed.

図22〜図25では、特定のジェスチャの操作パターンを登録する際、当該操作パターンに対応付ける特定のアプリケーションを選択する例について説明したが、これに限定されない。スマートフォン1は、操作パターンの登録の際、対象のアプリケーションが有する特定の機能まで選択してもよい。例えば、スマートフォン1は、第1の操作パターンとメールアプリケーションのうち新規メール作成画面の表示処理とを対応付けて登録してもよく、第1の操作パターンとは異なる第2の操作パターンと受信メール一覧画面の表示処理とを対応付けて登録してもよい。スマートフォン1は、第1の操作パターンとアドレス帳のアプリケーションのうち新規アドレス登録画面の表示処理とを対応付けて登録してもよく、第2の操作パターンとアドレス一覧画面の表示処理とを対応付けて登録してもよい。   Although FIGS. 22 to 25 illustrate an example of selecting a specific application associated with an operation pattern when registering the operation pattern of the specific gesture, the present invention is not limited to this. The smartphone 1 may select up to a specific function of the target application when registering the operation pattern. For example, the smartphone 1 may register the first operation pattern and the display process of the new mail creation screen in the mail application in association with each other, and the second operation pattern and the received mail different from the first operation pattern A list screen display process may be registered in association with each other. The smartphone 1 may register the first operation pattern in association with the display processing of the new address registration screen in the address book application, and associate the second operation pattern with the display processing of the address list screen. May be registered.

この他、スマートフォン1は、特定のジェスチャの操作パターンを登録する際、操作パターンの入力操作の速度に応じて、同じ操作パターンであっても異なる速度であれば、別のパターンとして登録してもよい。例えば、スマートフォン1は、登録画面100上で検出された所定の軌跡を入力するジェスチャを操作パターンとして登録する際、スワイプの開始地点から終了地点までの時間を計測する。そして、スマートフォン1は、同じ軌跡を入力するジェスチャであっても、計測された時間が第1の閾値以下である場合は、素早く所定の軌跡が入力されたと判定して、第1の操作パターンとして検出する。スマートフォン1は、計測された時間が第2の閾値以下である場合は、中程度の速度で所定の軌跡が入力されたと判定して、第2の操作パターンとして検出する。スマートフォン1は、計測された時間が第3の閾値以下である場合は、遅い速度で所定の軌跡が入力されたと判定して、第3の操作パターンとして検出する。ここで、第1の閾値は第2の閾値よりも短い時間の値を規定しており、第2の閾値は第3の閾値よりも短い時間の値を規定している。そして、スマートフォン1は、例えば、第1の操作パターンとメールアプリケーションのうち新規メール作成画面の表示処理とを対応付けて登録する。スマートフォン1は、第2の操作パターンと受信メール一覧画面の表示処理とを対応付けて登録する。スマートフォン1は、第3の操作パターンとメールメニュー画面の表示処理とを対応付けて登録する。   In addition, when registering the operation pattern of a specific gesture, the smartphone 1 may register the same operation pattern as a different pattern even if the operation pattern has the same operation pattern, even if the operation pattern has a different speed. Good. For example, when registering a gesture for inputting a predetermined locus detected on the registration screen 100 as an operation pattern, the smartphone 1 measures the time from the start point to the end point of the swipe. And even if it is the gesture which inputs the same locus | trajectory, if the measured time is below a 1st threshold value, the smart phone 1 will determine with the predetermined locus | trajectory having been input quickly, and will use it as a 1st operation pattern. To detect. If the measured time is equal to or less than the second threshold, the smartphone 1 determines that the predetermined trajectory has been input at a medium speed and detects it as the second operation pattern. If the measured time is equal to or less than the third threshold, the smartphone 1 determines that a predetermined trajectory has been input at a slow speed, and detects the third operation pattern. Here, the first threshold value defines a time value shorter than the second threshold value, and the second threshold value defines a time value shorter than the third threshold value. Then, for example, the smartphone 1 registers the first operation pattern and the display process of the new mail creation screen in the mail application in association with each other. The smartphone 1 registers the second operation pattern and the received mail list screen display process in association with each other. The smartphone 1 registers the third operation pattern and the mail menu screen display process in association with each other.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be configured to embody such a configuration.

例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図5に示した各プログラムは、他のプログラムと結合されていてもよい。   For example, each program shown in FIG. 5 may be divided into a plurality of modules. Alternatively, each program shown in FIG. 5 may be combined with another program.

上記の実施形態では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、又はゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。   In the above embodiment, a smartphone has been described as an example of a device including a touch screen, but the device according to the appended claims is not limited to a smartphone. The device according to the appended claims may be a portable electronic device other than a smartphone. The portable electronic device is, for example, a mobile phone, a tablet, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, or a game machine. Alternatively, the device according to the appended claims may be a stationary electronic device. The stationary electronic devices are, for example, a desktop personal computer and a television receiver.

なお、タッチスクリーンを備える装置が例えばゲーム機またはデスクトップパソコンである場合、ディスプレイはタッチスクリーンと重畳されていなくてもよい。例えば、タッチスクリーンは、ノートパソコンのトラックパッドであってもよい。ディスプレイとタッチスクリーンとは、別体であってもよい。   Note that when the device including the touch screen is, for example, a game machine or a desktop personal computer, the display may not be superimposed on the touch screen. For example, the touch screen may be a track pad of a notebook computer. The display and the touch screen may be separate.

上記の実施形態では、スマートフォン1は、タッチスクリーン2Bに対する特定のジェスチャが操作パターンと一致する場合に、ディスプレイ2Aの表示をロック画面から、当該操作パターンに対応するアプリケーションの操作画面へ変更するが、これに限定されない。スマートフォン1は、特定のジェスチャの操作パターンと、特定のホーム画面の表示処理とを予め対応づけて設定してもよい。この場合、スマートフォン1は、タッチスクリーン2Bに対する特定のジェスチャが操作パターンと一致する場合に、ディスプレイ2Aの表示をロック画面から、当該操作パターンに対応する特定のホーム画面へ変更する。この特定のホーム画面とは、例えば、ビジネス用のアプリケーションに対応するアイコンを整理した第1のホーム画面、および、プライベート用のアプリケーションに対応するアイコンを整理した第2のホーム画面等である。これにより、利用者は、ロック画面から異なる特定のジェスチャを入力することで、所望のホーム画面を立ち上げることができるので、ロック画面が表示された状態から所望のホーム画面を起動する際の操作性および利便性を向上させることができる。この他、スマートフォン1は、特定のジェスチャの操作パターンと、特定のメニュー画面(ランチャー画面)の表示処理とを予め対応づけて設定してもよい。   In the above embodiment, when the specific gesture on the touch screen 2B matches the operation pattern, the smartphone 1 changes the display on the display 2A from the lock screen to the operation screen of the application corresponding to the operation pattern. It is not limited to this. The smartphone 1 may set a specific gesture operation pattern and a specific home screen display process in advance in association with each other. In this case, when the specific gesture on the touch screen 2B matches the operation pattern, the smartphone 1 changes the display on the display 2A from the lock screen to the specific home screen corresponding to the operation pattern. The specific home screen is, for example, a first home screen in which icons corresponding to business applications are arranged, a second home screen in which icons corresponding to private applications are arranged, and the like. As a result, the user can start up the desired home screen by inputting a different specific gesture from the lock screen, so the operation when starting the desired home screen from the state where the lock screen is displayed And convenience can be improved. In addition, the smartphone 1 may set an operation pattern of a specific gesture and a display process of a specific menu screen (launcher screen) in association with each other in advance.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Mail application 9C Browser application 9Z Setting data 10 Controller 11 Speaker 12, 13 Camera 14 Connector 15 Acceleration sensor 16 Direction sensor 17 Gyroscope 20 Housing

Claims (8)

ロック画面を表示するタッチスクリーンディスプレイと、
ロック状態において、前記タッチスクリーンディスプレイに表示された同じ画像に対する特定のジェスチャが検出された場合、複数のアプリケーションのうち当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行するコントローラと、
を備える装置。
A touch screen display to display the lock screen;
In a locked state, when a specific gesture for the same image displayed on the touch screen display is detected, a controller that executes an application corresponding to an operation pattern of the detected gesture among a plurality of applications ;
A device comprising:
ロック画面を表示するタッチスクリーンディスプレイと、
ロック状態において、前記タッチスクリーンディスプレイに対する特定のジェスチャが検出された場合、当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行するコントローラと、
を備え、
前記コントローラは、前記アプリケーションを実行後、当該アプリケーションを終了させるジェスチャが検出された場合、前記ロック画面を前記タッチスクリーンディスプレイに表示させる装置。
A touch screen display to display the lock screen;
A controller that executes an application corresponding to an operation pattern of the detected gesture when a specific gesture on the touch screen display is detected in the locked state;
With
Wherein the controller, after executing the application, if the gesture to terminate the application is detected, equipment that Ru to display the lock screen on the touch screen display.
前記コントローラは、前記アプリケーションを実行後、当該アプリケーションを終了させるジェスチャが検出された場合、前記ロック画面を前記タッチスクリーンディスプレイに表示させる請求項1に記載の装置。The apparatus according to claim 1, wherein after executing the application, the controller displays the lock screen on the touch screen display when a gesture for ending the application is detected. 前記操作パターンは、利用者により任意に設定されるパターンである請求項1から3のいずれか一項に記載の装置。 The device according to claim 1, wherein the operation pattern is a pattern arbitrarily set by a user. 前記操作パターンは、所定の軌跡を入力するジェスチャのパターンである請求項1から4のいずれか一項に記載の装置。 The apparatus according to claim 1, wherein the operation pattern is a gesture pattern for inputting a predetermined trajectory. 前記コントローラは、前記ロック状態を解除して、前記アプリケーションを実行後、当該アプリケーションを終了させるジェスチャが検出された場合、ホーム画面を前記タッチスクリーンディスプレイに表示させる請求項1から5のいずれか一項に記載の装置。   The said controller cancels | releases the said locked state, and after performing the said application, when the gesture which terminates the said application is detected, a home screen is displayed on the said touch screen display. The device described in 1. タッチスクリーンディスプレイを備える装置を制御する方法であって、
ロック画面を前記タッチスクリーンディスプレイに表示させるステップと、
ロック状態において、前記タッチスクリーンディスプレイに表示された同じ画像に対する特定のジェスチャが検出された場合、複数のアプリケーションのうち当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行するステップと、
を含む方法。
A method for controlling a device comprising a touch screen display, comprising:
Displaying a lock screen on the touch screen display;
In a locked state, when a specific gesture for the same image displayed on the touch screen display is detected, executing an application corresponding to an operation pattern of the detected gesture among a plurality of applications ;
Including methods.
タッチスクリーンディスプレイを備える装置に、
ロック画面を前記タッチスクリーンディスプレイに表示させるステップと、
ロック状態において、前記タッチスクリーンディスプレイに対する特定のジェスチャが検出された場合、当該検出されたジェスチャの操作パターンに対応するアプリケーションを実行するステップと、
前記対応するアプリケーションを実行後、当該アプリケーションを終了させるジェスチャが検出された場合、前記ロック画面を前記タッチスクリーンディスプレイに表示させるステップと、
を実行させるプログラム。
For devices with touch screen displays,
Displaying a lock screen on the touch screen display;
When a specific gesture for the touch screen display is detected in the locked state, executing an application corresponding to the operation pattern of the detected gesture;
Displaying a lock screen on the touch screen display if a gesture to terminate the application is detected after executing the corresponding application;
A program that executes
JP2012101703A 2012-04-26 2012-04-26 Apparatus, method, and program Expired - Fee Related JP5851326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012101703A JP5851326B2 (en) 2012-04-26 2012-04-26 Apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012101703A JP5851326B2 (en) 2012-04-26 2012-04-26 Apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2013228953A JP2013228953A (en) 2013-11-07
JP5851326B2 true JP5851326B2 (en) 2016-02-03

Family

ID=49676495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012101703A Expired - Fee Related JP5851326B2 (en) 2012-04-26 2012-04-26 Apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5851326B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2933988A4 (en) * 2012-12-14 2016-07-13 Nec Corp Information terminal device, information terminal control method, and program
JP6088415B2 (en) * 2013-12-16 2017-03-01 日本電信電話株式会社 Touch panel terminal cooperation device, operation method of touch panel terminal cooperation device, and computer program
JP2015172861A (en) * 2014-03-12 2015-10-01 レノボ・シンガポール・プライベート・リミテッド Method for switching use environment of portable electronic apparatus, portable electronic apparatus, and computer program
KR101596737B1 (en) * 2014-11-14 2016-02-26 임건혁 Mobile communication terminal having menu restriction function
JP6503957B2 (en) * 2015-07-21 2019-04-24 富士通コネクテッドテクノロジーズ株式会社 Electronic device and display control program
CN106648384B (en) * 2015-10-29 2022-02-08 创新先进技术有限公司 Service calling method and device
CN105488374B (en) 2015-11-28 2018-06-12 小米科技有限责任公司 unlocking method and device
JP6711649B2 (en) * 2016-03-01 2020-06-17 キヤノン株式会社 Information processing apparatus, information processing method, and program
CN112969214B (en) 2016-03-22 2022-08-02 华为技术有限公司 Method and terminal for limiting application program use
JP2018045509A (en) * 2016-09-15 2018-03-22 富士通株式会社 Terminal apparatus, special operation control method and special operation control program
JP2019179553A (en) * 2019-04-24 2019-10-17 株式会社三菱Ufj銀行 Portable terminal and information providing apparatus
JP7251320B2 (en) * 2019-05-31 2023-04-04 セイコーエプソン株式会社 control program, electronics

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP4887855B2 (en) * 2006-03-22 2012-02-29 日本電気株式会社 Portable electronic device and control method thereof
EP2344942B1 (en) * 2008-10-06 2019-04-17 BlackBerry Limited Method for application launch and system function invocation
US9197738B2 (en) * 2008-12-04 2015-11-24 Microsoft Technology Licensing, Llc Providing selected data through a locked display
KR101561703B1 (en) * 2009-06-08 2015-10-30 엘지전자 주식회사 The method for executing menu and mobile terminal using the same
US8413065B2 (en) * 2009-09-07 2013-04-02 Qualcomm Incorporated User interface methods for ending an application
GB2486707A (en) * 2010-12-21 2012-06-27 Sharp Kk A touch screen handset with a combined application launcher and touch screen unlock mechanism.

Also Published As

Publication number Publication date
JP2013228953A (en) 2013-11-07

Similar Documents

Publication Publication Date Title
JP5851326B2 (en) Apparatus, method, and program
JP5809963B2 (en) Apparatus, method, and program
JP5972629B2 (en) Apparatus, method, and program
JP5891083B2 (en) Apparatus, method, and program
JP5775445B2 (en) Apparatus, method, and program
JP5762944B2 (en) Apparatus, method, and program
JP5715042B2 (en) Apparatus, method, and program
JP6159078B2 (en) Apparatus, method, and program
JP5805588B2 (en) Electronic device, control method, and control program
JP5840045B2 (en) Apparatus, method, and program
JP2013084233A (en) Device, method, and program
JP5827109B2 (en) Apparatus, method, and program
JP2013093021A (en) Device, method, and program
JP2013149245A (en) Device, method, and program
JP5858896B2 (en) Electronic device, control method, and control program
JP2013200680A (en) Device, method and program
JP2013084237A (en) Device, method, and program
JP5775432B2 (en) Apparatus, method, and program
JP2013065291A (en) Device, method, and program
JP2013065293A (en) Device, method, and program
JP5848971B2 (en) Apparatus, method, and program
JP5848970B2 (en) Apparatus, method, and program
JP5878042B2 (en) Apparatus, method, and program
JP5740366B2 (en) Apparatus, method, and program
JP2013131180A (en) Device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151202

R150 Certificate of patent or registration of utility model

Ref document number: 5851326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees