JP6368455B2 - Apparatus, method, and program - Google Patents

Apparatus, method, and program Download PDF

Info

Publication number
JP6368455B2
JP6368455B2 JP2012132823A JP2012132823A JP6368455B2 JP 6368455 B2 JP6368455 B2 JP 6368455B2 JP 2012132823 A JP2012132823 A JP 2012132823A JP 2012132823 A JP2012132823 A JP 2012132823A JP 6368455 B2 JP6368455 B2 JP 6368455B2
Authority
JP
Japan
Prior art keywords
gesture
screen
display
displayed
smartphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012132823A
Other languages
Japanese (ja)
Other versions
JP2013257694A (en
Inventor
稔明 是枝
稔明 是枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012132823A priority Critical patent/JP6368455B2/en
Publication of JP2013257694A publication Critical patent/JP2013257694A/en
Application granted granted Critical
Publication of JP6368455B2 publication Critical patent/JP6368455B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本出願は、装置、方法、及びプログラムに関する。特に、本出願は、タッチスクリーンを有する装置、その装置を制御する方法、及びその装置を制御するためのプログラムに関する。   The present application relates to an apparatus, a method, and a program. In particular, the present application relates to a device having a touch screen, a method for controlling the device, and a program for controlling the device.

タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、スマートフォン及びタブレットを含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。   Touch screen devices comprising a touch screen are known. Touch screen devices include, but are not limited to, for example, smartphones and tablets. The touch screen device detects a finger, pen, or stylus pen gesture via the touch screen. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in Patent Document 1, for example.

タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。   The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.

国際公開第2008/086302号International Publication No. 2008/086302

タッチスクリーンデバイスは、直感的な操作性を利用者に提供すると言われる。しかしながら、タッチスクリーンデバイスが表示する画面によっては、どのようなジェスチャをすればどのような処理が実行されるのかが利用者に分かり難いことがある。   Touch screen devices are said to provide users with intuitive operability. However, depending on the screen displayed by the touch screen device, it may be difficult for the user to understand what kind of gesture is performed and what processing is executed.

上記のことから、表示される画面にどのようなジェスチャが割り当てられているかを利用者が容易に知ることができる装置、方法、及びプログラムに対するニーズがある。   From the above, there is a need for an apparatus, a method, and a program that allow a user to easily know what gesture is assigned to a displayed screen.

1つの態様に係る装置は、ジェスチャが割り当てられた画面を表示するディスプレイと、前記ジェスチャを検出するタッチスクリーンと、前記画面が表示されているときに前記ジェスチャが検出された場合に、前記ジェスチャに対応する処理を実行するコントローラとを備える。前記コントローラは、前記画面が前記ディスプレイに表示されているときに、前記ジェスチャに関する情報を前記ディスプレイにさらに表示させる。   An apparatus according to an aspect includes a display that displays a screen to which a gesture is assigned, a touch screen that detects the gesture, and a gesture that is detected when the gesture is detected while the screen is displayed. A controller that executes corresponding processing. The controller further displays information on the gesture on the display when the screen is displayed on the display.

1つの態様に係る方法は、ディスプレイを有する装置を制御する方法であって、ジェスチャが割り当てられた画面をディスプレイに表示するステップと、前記画面が表示されているときに、前記ジェスチャに関する情報を前記ディスプレイにさらに表示するステップと、前記画面が表示されているときに前記ジェスチャが検出された場合に、前記ジェスチャに対応する処理を実行するステップとを含む。   A method according to one aspect is a method of controlling a device having a display, the step of displaying a screen to which a gesture is assigned on the display, and information about the gesture when the screen is displayed. A step of further displaying on the display; and a step of executing processing corresponding to the gesture when the gesture is detected while the screen is displayed.

1つの態様に係るプログラムは、ディスプレイを有する装置に、ジェスチャが割り当てられた画面をディスプレイに表示するステップと、前記画面が表示されているときに、前記ジェスチャに関する情報を前記ディスプレイにさらに表示するステップと、前記画面が表示されているときに前記ジェスチャが検出された場合に、前記ジェスチャに対応する処理を実行するステップとを実行させる。   A program according to one aspect includes a step of displaying a screen to which a gesture is assigned on an apparatus having a display on the display, and a step of further displaying information regarding the gesture on the display when the screen is displayed. And executing a process corresponding to the gesture when the gesture is detected while the screen is displayed.

図1は、実施形態に係るスマートフォンの斜視図である。FIG. 1 is a perspective view of the smartphone according to the embodiment. 図2は、スマートフォンの正面図である。FIG. 2 is a front view of the smartphone. 図3は、スマートフォンの背面図である。FIG. 3 is a rear view of the smartphone. 図4は、ホーム画面の例を示す図である。FIG. 4 is a diagram illustrating an example of the home screen. 図5は、スマートフォンのブロック図である。FIG. 5 is a block diagram of the smartphone. 図6は、ディスプレイに表示される画面の例を示す図である。FIG. 6 is a diagram illustrating an example of a screen displayed on the display. 図7は、画面に割り当てられているジェスチャを利用者に提示する例を示す図である。FIG. 7 is a diagram illustrating an example in which a gesture assigned to a screen is presented to a user. 図8は、ジェスチャに応じて実行される処理に関する情報を操作ガイドに含める例を示す図である。FIG. 8 is a diagram illustrating an example in which information related to processing executed in response to a gesture is included in the operation guide. 図9は、画面の中央に操作ガイドを表示する例を示す図である。FIG. 9 is a diagram illustrating an example in which an operation guide is displayed at the center of the screen. 図10は、画面上の上部に操作ガイドを表示する例を示す図である。FIG. 10 is a diagram illustrating an example in which an operation guide is displayed at the top of the screen. 図11は、操作ガイド情報を作成する方法の例を示す図である。FIG. 11 is a diagram illustrating an example of a method for creating operation guide information. 図12は、画面定義ファイルの例を示す図である。FIG. 12 is a diagram illustrating an example of the screen definition file. 図13は、操作履歴に基づいて操作ガイド情報を作成する例を示す図である。FIG. 13 is a diagram illustrating an example of creating operation guide information based on an operation history. 図14は、操作ガイドを表示するための処理手順の例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a processing procedure for displaying an operation guide.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンを備える装置の例として、スマートフォンについて説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an apparatus provided with a touch screen.

(実施形態)
図1から図3を参照しながら、実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
(Embodiment)
The overall configuration of the smartphone 1 according to the embodiment will be described with reference to FIGS. 1 to 3. As shown in FIGS. 1 to 3, the smartphone 1 has a housing 20. The housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4. The front face 1 </ b> A is the front of the housing 20. The back face 1 </ b> B is the back surface of the housing 20. The side faces 1C1 to 1C4 are side surfaces that connect the front face 1A and the back face 1B. Hereinafter, the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.

スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。   The smartphone 1 includes a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A. The smartphone 1 has a speaker 11 and a camera 13 on the back face 1B. The smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C. Hereinafter, the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図1の例では、ディスプレイ2A及びタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2A及びタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並べて配置されてもよいし、離して配置されてもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。   The touch screen display 2 includes a display 2A and a touch screen 2B. In the example of FIG. 1, the display 2A and the touch screen 2B are substantially rectangular, but the shapes of the display 2A and the touch screen 2B are not limited to this. Each of the display 2A and the touch screen 2B can take any shape such as a square or a circle. In the example of FIG. 1, the display 2 </ b> A and the touch screen 2 </ b> B are overlapped, but the arrangement of the display 2 </ b> A and the touch screen 2 </ b> B is not limited to this. For example, the display 2A and the touch screen 2B may be arranged side by side or may be arranged apart from each other. In the example of FIG. 1, the long side of the display 2A is along the long side of the touch screen 2B, and the short side of the display 2A is along the short side of the touch screen 2B, but the display 2A and the touch screen 2B are overlapped. Is not limited to this. When the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。   The display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays characters, images, symbols, graphics, and the like.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。以下の説明では、タッチスクリーン2Bに対して接触する指、ペン、又はスタイラスペン等を、「接触オブジェクト(接触物)」と呼ぶことがある。   The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen, or the like is in contact with the touch screen 2B. In the following description, a finger, pen, stylus pen, or the like that contacts the touch screen 2B may be referred to as a “contact object (contact object)”.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user uses the finger to touch the touch screen 2B in order to operate the smartphone 1.

スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。   The smartphone 1 is based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. Determine the type of gesture. The gesture is an operation performed on the touch screen 2B. Gestures identified by the smartphone 1 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out, for example.

「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別する。   “Touch” is a gesture in which a finger touches the touch screen 2B. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B as a touch. “Long touch” is a gesture in which a finger touches the touch screen 2B for a longer period of time. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B for longer than a certain time as a long touch.

「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。   “Release” is a gesture in which a finger leaves the touch screen 2B. The smartphone 1 determines that a gesture in which a finger leaves the touch screen 2B is a release. “Swipe” is a gesture in which a finger moves while touching the touch screen 2B. The smartphone 1 determines a gesture that moves while the finger is in contact with the touch screen 2B as a swipe.

「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。   A “tap” is a gesture for releasing following a touch. The smartphone 1 determines a gesture for releasing following a touch as a tap. The “double tap” is a gesture in which a gesture for releasing following a touch is continued twice. The smartphone 1 determines a gesture in which a gesture for releasing following a touch is continued twice as a double tap.

「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。   “Long tap” is a gesture for releasing following a long touch. The smartphone 1 determines a gesture for releasing following a long touch as a long tap. “Drag” is a gesture for performing a swipe starting from an area where a movable object is displayed. The smartphone 1 determines, as a drag, a gesture for performing a swipe starting from an area where a movable object is displayed.

「フリック」は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャである。すなわち、「フリック」は、タッチに続いて指が移動しながらリリースが行われるジェスチャである。スマートフォン1は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャをフリックとして判別する。フリックは、指が一方方向へ移動しながら行われることが多い。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。   “Flick” is a gesture in which a finger leaves the touch screen 2B while moving after touching the touch screen 2B. In other words, “flick” is a gesture in which a release is performed while a finger moves following a touch. The smartphone 1 determines, as a flick, a gesture in which the finger leaves the touch screen 2B while moving after touching the touch screen 2B. The flick is often performed while the finger moves in one direction. Flick is "upper flick" where the finger moves upward on the screen, "lower flick" where the finger moves downward on the screen, "right flick" where the finger moves rightward on the screen, finger is left on the screen Including “left flick” moving in the direction. The movement of a finger in a flick is often quicker than the movement of a finger in a swipe.

「ピンチイン」は、複数の指が互いに近付く方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が短くなるジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が長くなるジェスチャをピンチアウトとして判別する。   “Pinch-in” is a gesture of swiping in a direction in which a plurality of fingers approach each other. The smartphone 1 determines, as a pinch-in, a gesture in which the distance between the position of a finger detected by the touch screen 2B and the position of another finger is shortened. “Pinch out” is a gesture of swiping a plurality of fingers away from each other. The smartphone 1 determines, as a pinch-out, a gesture that increases the distance between the position of one finger and the position of another finger detected by the touch screen 2B.

本実施形態では、1本の指により行われるジェスチャを「シングルタッチジェスチャ」と呼ぶことがある。本実施形態では、2本以上の指により行われるジェスチャを「マルチタッチジェスチャ」と呼ぶことがある。ピンチインおよびピンチアウトは、マルチタッチジェスチャである。タップ、フリックおよびスワイプ等は、1本の指で行われればシングルタッチジェスチャであり、2本以上の指で行われればマルチタッチジェスチャである。   In the present embodiment, a gesture performed with one finger may be referred to as a “single touch gesture”. In the present embodiment, a gesture performed with two or more fingers may be referred to as a “multi-touch gesture”. Pinch-in and pinch-out are multi-touch gestures. Taps, flicks, swipes, and the like are single-touch gestures when performed with one finger, and multi-touch gestures when performed with two or more fingers.

スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bがジェスチャを検出し、検出されたジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラがXを検出する」と記載することがある。   The smartphone 1 operates according to these gestures that are determined via the touch screen 2B. Therefore, an operability that is intuitive and easy to use for the user is realized. The operation performed by the smartphone 1 according to the determined gesture may differ depending on the screen displayed on the display 2A. In the following description, in order to simplify the description, “the touch screen 2B detects a gesture and the smartphone 1 determines that the type of the detected gesture is X” and “the smartphone 1 detects X”. Or “the controller detects X”.

図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の例を示している。ホーム画面は、デスクトップ、待受画面、アイドル画面又は標準画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。   An example of a screen displayed on the display 2A will be described with reference to FIG. FIG. 4 shows an example of the home screen. The home screen is sometimes called a desktop, a standby screen, an idle screen, or a standard screen. The home screen is displayed on the display 2A. The home screen is a screen that allows the user to select which application to execute from among the applications installed in the smartphone 1. The smartphone 1 executes the application selected on the home screen in the foreground. The screen of the application executed in the foreground is displayed on the display 2A.

スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、ジェスチャが検出されたアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップが検出されると、メールアプリケーションを実行する。   The smartphone 1 can place an icon on the home screen. A plurality of icons 50 are arranged on the home screen 40 shown in FIG. Each icon 50 is associated with an application installed in the smartphone 1 in advance. When the smartphone 1 detects a gesture for the icon 50, the smartphone 1 executes an application associated with the icon 50 from which the gesture is detected. For example, the smartphone 1 executes the mail application when a tap on the icon 50 associated with the mail application is detected.

アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、配置パターンに基づいて配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン、バックスクリーン、アイドル画像又は背景画像と呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。スマートフォン1は、壁紙41として表示する画像を利用者が選択できるように構成されてもよい。   The icon 50 includes an image and a character string. The icon 50 may include a symbol or a graphic instead of the image. The icon 50 may not include either an image or a character string. The icons 50 are arranged based on the arrangement pattern. A wallpaper 41 is displayed behind the icon 50. The wallpaper is sometimes called a photo screen, a back screen, an idle image or a background image. The smartphone 1 can use any image as the wallpaper 41. The smartphone 1 may be configured so that the user can select an image to be displayed as the wallpaper 41.

スマートフォン1は、複数のホーム画面を有していてよい。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面の数が複数であっても、選択された1つをディスプレイ2Aに表示する。   The smartphone 1 may have a plurality of home screens. For example, the smartphone 1 determines the number of home screens according to the setting by the user. The smartphone 1 displays the selected one on the display 2A even if there are a plurality of home screens.

スマートフォン1は、ディスプレイ2Aに表示するホーム画面を変更することができる。スマートフォン1は、ホーム画面の1つを表示中にジェスチャが検出されると、ディスプレイ2Aに表示するホーム画面を別のホーム画面に変更する。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に変更する。例えば、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に変更する。スマートフォン1は、第1のホーム画面をディスプレイ2Aに表示中にジェスチャが検出されると、ディスプレイ2Aに表示される第1のホーム画面の面積が徐々に狭くなり、ディスプレイ2Aに表示される第2のホーム画面の面積が徐々に広くなるようにディスプレイ2Aに表示するホーム画面を第1のホーム画面から第2のホーム画面へ変更する。スマートフォン1は、第1のホーム画面が第2のホーム画面に即座に置き換わるようにホーム画面を切り替えてもよい。   The smartphone 1 can change the home screen displayed on the display 2A. When a gesture is detected while displaying one of the home screens, the smartphone 1 changes the home screen displayed on the display 2A to another home screen. For example, when detecting a right flick, the smartphone 1 changes the home screen displayed on the display 2A to the left home screen. For example, when the smartphone 1 detects a left flick, the smartphone 1 changes the home screen displayed on the display 2A to the right home screen. When the gesture is detected while displaying the first home screen on the display 2A, the smartphone 1 gradually reduces the area of the first home screen displayed on the display 2A, and the second displayed on the display 2A. The home screen displayed on the display 2A is changed from the first home screen to the second home screen so that the area of the home screen gradually increases. The smartphone 1 may switch the home screen so that the first home screen is immediately replaced with the second home screen.

ディスプレイ2Aの上端には、領域42が設けられている。領域42には、電源の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、時刻、天気、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40以外の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限定されない。   A region 42 is provided at the upper end of the display 2A. In the area 42, a remaining amount mark 43 indicating the remaining amount of the power source and a radio wave level mark 44 indicating the electric field strength of the communication radio wave are displayed. The smartphone 1 may display the time, weather, running application, communication system type, telephone status, device mode, event occurring in the device, and the like in the area 42. As described above, the area 42 is used for various notifications to the user. The area 42 may be provided on a screen other than the home screen 40. The position where the region 42 is provided is not limited to the upper end of the display 2A.

図4に示したホーム画面40は、例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。   The home screen 40 shown in FIG. 4 is an example, and the form of various elements, the arrangement of various elements, the number of home screens 40, how to perform various operations on the home screen 40, and the like are as described above. Not necessarily.

図5は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。   FIG. 5 is a block diagram of the smartphone 1. The smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, a speaker 11, and a camera. 12 and 13, a connector 14, an acceleration sensor 15, an orientation sensor 16, and a gyroscope 17.

タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、ジェスチャを検出する。   As described above, the touch screen display 2 includes the display 2A and the touch screen 2B. The display 2A displays characters, images, symbols, graphics, or the like. The touch screen 2B detects a gesture.

ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。   The button 3 is operated by the user. The button 3 includes buttons 3A to 3F. The controller 10 detects an operation on the button 3 by cooperating with the button 3. The operation on the button 3 includes, for example, click, double click, triple click, push, and multi-push, but is not limited thereto.

ボタン3A〜3Cは、例えば、ホームボタン、バックボタンまたはメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。   The buttons 3A to 3C are, for example, a home button, a back button, or a menu button. The button 3D is, for example, a power on / off button of the smartphone 1. The button 3D may also serve as a sleep / sleep release button. The buttons 3E and 3F are volume buttons, for example.

照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化または超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example. The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method supported by the communication unit 6 is a wireless communication standard. Examples of wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. As cellular phone communication standards, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular, GSM (registered trademark) mmloS). (Personal Handy-phone System). As wireless communication standards, for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearCo), etc. The communication unit 6 may support one or more of the communication standards described above.

レシーバ7及びスピーカ11は、音出力部である。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。   The receiver 7 and the speaker 11 are sound output units. The receiver 7 and the speaker 11 output the sound signal transmitted from the controller 10 as sound. The receiver 7 is used, for example, to output the other party's voice during a call. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other. The microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bによって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a screen on the display 2 </ b> A, and causes the controller 10 to execute a process according to a gesture detected by the touch screen 2 </ b> B. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、SNS(Social Networking Service)アプリケーション9D、操作ガイド情報9Y、及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。SNSアプリケーション9Dは、メッセージサービス、日記サービス、コミュニティサービス等を含むSNSへのアクセス機能を提供する。操作ガイド情報9Yは、ディスプレイ2Aに表示されるそれぞれの画面に割り当てられている操作(ジェスチャ)に関する情報を含む。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。   The storage 9 stores, for example, a control program 9A, a mail application 9B, a browser application 9C, an SNS (Social Networking Service) application 9D, operation guide information 9Y, and setting data 9Z. The mail application 9B provides an electronic mail function for creating, transmitting, receiving, and displaying an electronic mail. The browser application 9C provides a WEB browsing function for displaying a WEB page. The SNS application 9D provides an access function to the SNS including a message service, a diary service, a community service, and the like. The operation guide information 9Y includes information regarding an operation (gesture) assigned to each screen displayed on the display 2A. The setting data 9Z includes information related to various settings related to the operation of the smartphone 1.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、ディスプレイ2Aに表示される画面に割り当てられているジェスチャに関する情報を利用者に提示する機能が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the smartphone 1. The control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example. The functions provided by the control program 9A include a function of presenting information related to gestures assigned to the screen displayed on the display 2A to the user. The function provided by the control program 9A may be used in combination with a function provided by another program such as the mail application 9B.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、レシーバ7、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2A, the communication unit 6, the microphone 8, and the speaker 11, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. Examples of the detection unit include, but are not limited to, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the receiver 7, the camera 12, the camera 13, the acceleration sensor 15, the orientation sensor 16, and the gyroscope 17. .

コントローラ10は、例えば、制御プログラム9Aを実行することにより、ディスプレイ2Aに表示される画面に割り当てられているジェスチャに関する情報を利用者に提示する制御等の各種制御を実行する。   For example, the controller 10 executes the control program 9A to execute various controls such as a control for presenting information about a gesture assigned to the screen displayed on the display 2A to the user.

カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。   The camera 12 is an in-camera that captures an object facing the front face 1A. The camera 13 is an out camera that captures an object facing the back face 1B.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。   The connector 14 is a terminal to which another device is connected. The connector 14 may be a general-purpose terminal such as a universal serial bus (USB), a high-definition multimedia interface (HDMI) (registered trademark), a light peak (thunderbolt (registered trademark)), or an earphone microphone connector. . The connector 14 may be a dedicated terminal such as a dock connector. Devices connected to the connector 14 include, but are not limited to, external storage, speakers, and communication devices, for example.

加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. The direction sensor 16 detects the direction of geomagnetism. The gyroscope 17 detects the angle and angular velocity of the smartphone 1. The detection results of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17 are used in combination in order to detect changes in the position and orientation of the smartphone 1.

図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。   In FIG. 5, some or all of the programs and data stored in the storage 9 may be downloaded from other devices by wireless communication using the communication unit 6. In FIG. 5, some or all of the programs and data stored in the storage 9 may be stored in a non-transitory storage medium that can be read by the reading device included in the storage 9. 5 may be stored in a non-transitory storage medium that can be read by a reading device connected to the connector 14. Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.

図5に示したスマートフォン1の構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図5に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。   The configuration of the smartphone 1 shown in FIG. 5 is an example, and may be appropriately changed within a range not impairing the gist of the present invention. For example, the number and type of buttons 3 are not limited to the example of FIG. The smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations related to the screen instead of the buttons 3A to 3C. The smartphone 1 may include only one button or may not include a button for operations related to the screen. In the example illustrated in FIG. 5, the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera. In the example illustrated in FIG. 5, the smartphone 1 includes three types of sensors in order to detect the position and orientation, but the smartphone 1 may not include some of these sensors. Alternatively, the smartphone 1 may include another type of sensor for detecting at least one of a position and a posture.

次に、図6から図10を参照しながら、画面に割り当てられているジェスチャに関する情報を利用者に提示する制御について説明する。図6は、ディスプレイ2Aに表示される画面の例を示す図である。図7は、画面に割り当てられているジェスチャを利用者に提示する例を示す図である。   Next, control for presenting information related to gestures assigned to the screen to the user will be described with reference to FIGS. FIG. 6 is a diagram illustrating an example of a screen displayed on the display 2A. FIG. 7 is a diagram illustrating an example in which a gesture assigned to a screen is presented to a user.

図6に示す例において、ディスプレイ2Aは、日記画面60を表示している。日記画面60は、SNSアプリケーション9Dが提供する画面の1つである。日記画面60は、プロフィール表示領域61と、日記表示領域62と、ツールバー領域63とを含む。   In the example shown in FIG. 6, the display 2 </ b> A displays a diary screen 60. The diary screen 60 is one of the screens provided by the SNS application 9D. The diary screen 60 includes a profile display area 61, a diary display area 62, and a toolbar area 63.

プロフィール表示領域61は、日記の作者のプロフィールが表示される領域である。日記表示領域62は、日記が表示される領域である。日記表示領域62は、縦にスクロールするように構成されている。ツールバー領域63は、所定の処理を実行するためのアイコンが配置される領域である。図6に示す例において、ツールバー領域63は、利用者のホームページを表示するためのアイコン63a、日記の検索ページを表示するためのアイコン63b、及びコメントの入力画面を表示するためのアイコン63cを含んでいる。   The profile display area 61 is an area in which the diary author's profile is displayed. The diary display area 62 is an area where a diary is displayed. The diary display area 62 is configured to scroll vertically. The toolbar area 63 is an area where icons for executing predetermined processing are arranged. In the example shown in FIG. 6, the toolbar area 63 includes an icon 63 a for displaying the user's home page, an icon 63 b for displaying a diary search page, and an icon 63 c for displaying a comment input screen. It is out.

スマートフォン1は、日記画面60に割り当てられているジェスチャを利用者に提示するために、図7に示すように、日記画面60に重ねて、操作ガイドを表示する。図7に示す例では、吹き出し61a、吹き出し62a、吹き出し63d、吹き出し63e、及び吹き出し63fが操作ガイドとして表示されている。   As shown in FIG. 7, the smartphone 1 displays an operation guide on the diary screen 60 in order to present a gesture assigned to the diary screen 60 to the user. In the example shown in FIG. 7, a balloon 61a, a balloon 62a, a balloon 63d, a balloon 63e, and a balloon 63f are displayed as operation guides.

吹き出し61aは、「タップ」という文字列を含み、プロフィール表示領域61を指し示している。すなわち、吹き出し61aは、プロフィール表示領域61に、何らかの処理を実行するためのジェスチャとして、タップが割り当てられていることを示している。   The balloon 61 a includes a character string “tap” and points to the profile display area 61. That is, the balloon 61a indicates that a tap is assigned to the profile display area 61 as a gesture for executing some processing.

吹き出し62aは、「タップ」、「ロングタップ」、「フリック」、及び「スワイプ」という文字列を含み、日記表示領域62を指し示している。すなわち、吹き出し62aは、日記表示領域62に、何らかの処理を実行するためのジェスチャとして、タップ、ロングタップ、フリック、及びスワイプが割り当てられていることを示している。   The balloon 62 a includes character strings “tap”, “long tap”, “flick”, and “swipe”, and points to the diary display area 62. That is, the balloon 62 a indicates that tap, long tap, flick, and swipe are assigned to the diary display area 62 as gestures for executing some processing.

吹き出し63dは、「タップ」という文字列を含み、アイコン63aを指し示している。吹き出し63eは、「タップ」という文字列を含み、アイコン63bを指し示している。吹き出し63fは、「タップ」という文字列を含み、アイコン63cを指し示している。すなわち、吹き出し63d〜63fは、それぞれ、アイコン63a〜63cに、何らかの処理を実行するためのジェスチャとして、タップが割り当てられていることを示している。   The balloon 63d includes a character string “tap” and points to the icon 63a. The balloon 63e includes a character string “tap” and points to the icon 63b. The balloon 63f includes a character string “tap” and points to the icon 63c. That is, the balloons 63d to 63f indicate that taps are assigned to the icons 63a to 63c, respectively, as gestures for executing some processing.

このように、操作ガイドを表示することにより、スマートフォン1は、画面のどの部分にどのようなジェスチャを行えば何らかの処理が実行されるのかを、利用者に把握させることができる。利用者は、画面のどの部分にどのようなジェスチャが割り当てられているかを把握することができれば、類似の画面に関する知見又は試行錯誤によって、画面に対するジェスチャに応じて実行される処理を知ることができる。   In this way, by displaying the operation guide, the smartphone 1 can cause the user to know what kind of processing is executed by performing what kind of gesture on which part of the screen. If the user can grasp what kind of gesture is assigned to which part of the screen, the user can know the processing to be executed in accordance with the gesture on the screen by knowledge or trial and error regarding a similar screen. .

スマートフォン1は、ジェスチャに応じて実行される処理に関する情報を操作ガイドに含めてもよい。図8は、ジェスチャに応じて実行される処理に関する情報を操作ガイドに含める例を示す図である。図8に示す例では、吹き出し61b、吹き出し62b、吹き出し63g、吹き出し63h、及び吹き出し63iが操作ガイドとして表示されている。   The smartphone 1 may include information related to processing executed according to the gesture in the operation guide. FIG. 8 is a diagram illustrating an example in which information related to processing executed in response to a gesture is included in the operation guide. In the example shown in FIG. 8, a balloon 61b, a balloon 62b, a balloon 63g, a balloon 63h, and a balloon 63i are displayed as operation guides.

吹き出し61bは、「タップ:詳細表示」という文字列を含み、プロフィール表示領域61を指し示している。すなわち、吹き出し61bは、プロフィール表示領域61に、何らかの処理を実行するためのジェスチャとして、タップが割り当てられていることを示している。さらに、吹き出し61bは、プロフィール表示領域61に対するタップが行われた場合に日記の作者のプロフィールの詳細が表示されることを示している。   The balloon 61b includes a character string “tap: detailed display” and points to the profile display area 61. That is, the balloon 61b indicates that a tap is assigned to the profile display area 61 as a gesture for executing some processing. Furthermore, the balloon 61b indicates that the details of the diary author's profile are displayed when the profile display area 61 is tapped.

吹き出し62bは、「タップ:詳細表示」、「ロングタップ:メニュー」、「フリック:スクロール」、及び「スワイプ:スクロール」という文字列を含み、日記表示領域62を指し示している。すなわち、吹き出し62bは、日記表示領域62に、何らかの処理を実行するためのジェスチャとして、タップ、ロングタップ、フリック、及びスワイプが割り当てられていることを示している。さらに、吹き出し62bは、日記表示領域62に対するタップが行われた場合に日記の詳細が表示され、日記表示領域62対するロングタップが行われた場合にメニューが表示され、日記表示領域62対するフリック又はスワイプが行われた場合に日記がスクロールすることを示している。   The balloon 62b includes character strings “tap: detail display”, “long tap: menu”, “flick: scroll”, and “swipe: scroll”, and points to the diary display area 62. That is, the balloon 62b indicates that tap, long tap, flick, and swipe are assigned to the diary display area 62 as gestures for executing some processing. Further, the balloon 62b displays details of the diary when a tap is performed on the diary display area 62, a menu is displayed when a long tap is performed on the diary display area 62, and a flick or This shows that the diary scrolls when a swipe is performed.

吹き出し63gは、「タップ:ホーム」という文字列を含み、アイコン63aを指し示している。吹き出し63hは、「タップ:検索」という文字列を含み、アイコン63bを指し示している。吹き出し63iは、「タップ:コメント」という文字列を含み、アイコン63cを指し示している。すなわち、吹き出し63g〜63iは、それぞれ、アイコン63a〜63cに、何らかの処理を実行するためのジェスチャとして、タップが割り当てられていることを示している。さらに、吹き出し63gは、アイコン63aに対するタップが行われた場合に利用者のホームページが表示されることを示している。吹き出し63hは、アイコン63bに対するタップが行われた場合に日記の検索ページが表示されることを示している。吹き出し63iは、アイコン63cに対するタップが行われた場合にコメントの入力画面が表示されることを示している。   The balloon 63g includes a character string “tap: home” and points to the icon 63a. The balloon 63h includes a character string “tap: search” and points to the icon 63b. The balloon 63i includes a character string “tap: comment” and points to the icon 63c. That is, the balloons 63g to 63i indicate that taps are assigned to the icons 63a to 63c, respectively, as gestures for executing some processing. Further, the balloon 63g indicates that the user's home page is displayed when the icon 63a is tapped. The balloon 63h indicates that a diary search page is displayed when the icon 63b is tapped. A balloon 63i indicates that a comment input screen is displayed when the icon 63c is tapped.

このように、ジェスチャに応じて実行される処理に関する情報を操作ガイドに含めることにより、スマートフォン1は、画面のどの部分にどのようなジェスチャを行えばどのような処理が実行されるのかを、利用者に把握させることができる。   In this way, by including in the operation guide information related to processing executed according to a gesture, the smartphone 1 uses what type of gesture is performed on which part of the screen. Can be made to grasp.

図7および図8では、操作ガイドとして吹き出しを表示する例を示した。しかしながら、スマートフォン1は、画面に割り当てられているジェスチャの種類を利用者が把握できる情報を操作ガイドとして表示すればよい。ジェスチャの種類を利用者が把握できる情報は、例えば、ジェスチャを表す文字、画像、線図、又はアニメーション等のシンボルである。ジェスチャの種類を利用者が把握できる情報は、ジェスチャが割り当てられている領域に重ねて表示されてもよい。   7 and 8 show examples in which a balloon is displayed as an operation guide. However, the smartphone 1 may display information that allows the user to grasp the type of gesture assigned to the screen as an operation guide. The information that allows the user to grasp the type of gesture is, for example, a character such as a character, an image, a diagram, or an animation representing the gesture. Information that allows the user to grasp the type of gesture may be displayed in an overlapping manner on the area to which the gesture is assigned.

図7および図8では、ジェスチャが割り当てられているそれぞれの領域に対応付けて操作ガイドを表示する例を示した。しかしながら、スマートフォン1は、少なくとも、ディスプレイ2Aに表示されている画面のどこかに割り当てられているジェスチャを利用者が把握できるように、操作ガイドを表示すればよい。   7 and 8 show an example in which an operation guide is displayed in association with each region to which a gesture is assigned. However, the smart phone 1 should just display an operation guide so that a user can grasp | ascertain the gesture allocated somewhere on the screen currently displayed on the display 2A at least.

図9は、画面の中央に操作ガイドを表示する例を示す図である。図9に示す例では、タップ(Tap)を表すシンボル60aと、ロングタップ(Long Tap)を表すシンボル60bと、フリック(Flick)を表すシンボル60cと、スワイプ(Swipe)を表すシンボル60dとが日記画面60に重ねて表示されている。   FIG. 9 is a diagram illustrating an example in which an operation guide is displayed at the center of the screen. In the example shown in FIG. 9, a symbol 60a representing a tap, a symbol 60b representing a long tap, a symbol 60c representing a flick, and a symbol 60d representing a swipe are included in the diary. Overlaid on the screen 60.

シンボル60aは、日記画面60のどこかに、何らかの処理を実行するためのジェスチャとして、タップが割り当てられていることを示している。シンボル60bは、日記画面60のどこかに、何らかの処理を実行するためのジェスチャとして、ロングタップが割り当てられていることを示している。シンボル60cは、日記画面60のどこかに、何らかの処理を実行するためのジェスチャとして、フリックが割り当てられていることを示している。シンボル60dは、日記画面60のどこかに、何らかの処理を実行するためのジェスチャとして、スワイプが割り当てられていることを示している。   The symbol 60a indicates that a tap is assigned somewhere on the diary screen 60 as a gesture for executing some processing. The symbol 60b indicates that a long tap is assigned somewhere on the diary screen 60 as a gesture for executing some processing. The symbol 60c indicates that a flick is assigned somewhere on the diary screen 60 as a gesture for executing some processing. The symbol 60d indicates that a swipe is assigned somewhere on the diary screen 60 as a gesture for executing some processing.

このように、スマートフォン1は、ジェスチャが割り当てられている領域に対応付けて操作ガイドを表示しなくても、画面に割り当てられているジェスチャを利用者に把握させることができる。   As described above, the smartphone 1 can make the user grasp the gesture assigned to the screen without displaying the operation guide in association with the area to which the gesture is assigned.

図9に示す例では、ジェスチャを表す情報として、ジェスチャの頭文字が表示されている。しかしながら、ジェスチャを表すシンボルは、これに限定されない。例えば、ジェスチャを表す画像、線図、又はアニメーションが、ジェスチャを表す情報として表示されてもよい。   In the example shown in FIG. 9, the first letter of the gesture is displayed as information representing the gesture. However, the symbol representing the gesture is not limited to this. For example, an image, a diagram, or an animation representing a gesture may be displayed as information representing the gesture.

図9に示す例では、画面の中央に操作ガイドが表示されている。しかしながら、操作ガイドを表示する位置は、これに限定されない。例えば、スマートフォン1は、利用者が画面上の要素を見ることを妨げない位置に操作ガイドを表示してもよい。   In the example shown in FIG. 9, an operation guide is displayed at the center of the screen. However, the position where the operation guide is displayed is not limited to this. For example, the smartphone 1 may display an operation guide at a position that does not prevent the user from seeing elements on the screen.

図10は、利用者が画面上の要素を見ることを妨げない位置に操作ガイドを表示する例を示す図である。図10に示す例では、日記画面60の上部に操作ガイド領域60eが表示されている。操作ガイド領域60eは、「タップ」、「ロングタップ」、「フリック」、及び「スワイプ」の文字列を含んでいる。これらの文字列は、日記画面60のどこかに、何らかの処理を実行するためのジェスチャとして、タップ、ロングタップ、フリック、及びスワイプが割り当てられていることを示している。   FIG. 10 is a diagram illustrating an example in which an operation guide is displayed at a position that does not prevent the user from seeing elements on the screen. In the example shown in FIG. 10, an operation guide area 60 e is displayed at the top of the diary screen 60. The operation guide area 60e includes character strings of “tap”, “long tap”, “flick”, and “swipe”. These character strings indicate that taps, long taps, flicks, and swipes are assigned somewhere on the diary screen 60 as gestures for executing some processing.

操作ガイド領域60eは、日記画面60のタイトル部分に重なるように表示されている。タイトル部分が操作ガイド領域60eに覆われても、日記画面60においてジェスチャが割り当てられているそれぞれの要素は露出したままである。このように、画面上に配置されている要素と重ならない位置に操作ガイドを表示することにより、操作ガイドの表示が画面の視認性を損なうことを抑止できる。   The operation guide area 60e is displayed so as to overlap the title portion of the diary screen 60. Even if the title part is covered with the operation guide area 60e, each element to which the gesture is assigned on the diary screen 60 remains exposed. Thus, by displaying the operation guide at a position that does not overlap with the elements arranged on the screen, it is possible to prevent the display of the operation guide from impairing the visibility of the screen.

上述してきたように、スマートフォン1は、操作ガイドを表示することによって、画面に割り当てられているジェスチャに関する情報を利用者に提示する。利用者は、操作ガイドを見ることにより、初めて見る画面であっても、その画面にどのようなジェスチャが割り当てられているかを把握することができる。   As described above, the smartphone 1 presents information related to the gesture assigned to the screen to the user by displaying the operation guide. By viewing the operation guide, the user can grasp what kind of gesture is assigned to the screen even if it is the first screen to be viewed.

スマートフォン1が操作ガイドを表示するタイミングは、例えば、画面が表示されたタイミング、画面に対するジェスチャが検出されない時間が所定の期間より長く継続したタイミング、及び利用者による所定の指示が検出されたタイミングの少なくとも1つである。利用者による所定の指示は、例えば、タッチスクリーン2Bに対する所定のジェスチャ、ボタン3の押下、スマートフォン1を振る操作、及び音声の入力の少なくとも1つによって行われる。   The timing at which the smartphone 1 displays the operation guide is, for example, the timing at which the screen is displayed, the timing at which no gesture on the screen is detected for longer than a predetermined period, and the timing at which a predetermined instruction from the user is detected. At least one. The predetermined instruction by the user is performed, for example, by at least one of a predetermined gesture on the touch screen 2B, pressing of the button 3, an operation of shaking the smartphone 1, and an input of voice.

画面が表示されたタイミングで操作ガイドが表示される場合、利用者は、新たな画面が表示される度にその画面の操作ガイドを見ることができる。画面に対するジェスチャが検出されない時間が所定の期間より長く継続したタイミングで操作ガイドが表示される場合、利用者が画面に割り当てられているジェスチャが分からずに戸惑っているときに操作ガイドが自動的に表示される。利用者による所定の指示が検出されたタイミングで操作ガイドが表示される場合、利用者は、任意のタイミングで操作ガイドを表示させることができる。   When the operation guide is displayed at the timing when the screen is displayed, the user can view the operation guide on the screen every time a new screen is displayed. If the operation guide is displayed at a timing when the gesture for the screen is not detected longer than the specified period, the operation guide is automatically displayed when the user is confused without knowing the gesture assigned to the screen. Is displayed. When the operation guide is displayed at a timing when a predetermined instruction by the user is detected, the user can display the operation guide at an arbitrary timing.

スマートフォン1が操作ガイドの表示を終了するタイミングは、例えば、画面に割り当てられたジェスチャが検出されたタイミング、操作ガイドが表示されてから所定の期間が経過したタイミング、利用者による所定の指示が検出されたタイミング、及び画面が切り替わったタイミングの少なくとも1つである。利用者による所定の指示は、例えば、タッチスクリーン2Bに対する所定のジェスチャ、ボタン3の押下、スマートフォン1を振る操作、及び音声の入力の少なくとも1つによって行われる。   The timing at which the smartphone 1 finishes displaying the operation guide includes, for example, the timing at which a gesture assigned to the screen is detected, the timing at which a predetermined period has elapsed after the operation guide is displayed, and the predetermined instruction from the user At least one of the timing when the screen is switched and the timing when the screen is switched. The predetermined instruction by the user is performed, for example, by at least one of a predetermined gesture on the touch screen 2B, pressing of the button 3, an operation of shaking the smartphone 1, and an input of voice.

画面に割り当てられたジェスチャが検出されたタイミングで操作ガイドの表示が終了する場合、利用者は、所望の処理を実行するためのジェスチャをするだけで、余分な操作をすることなく操作ガイドを非表示にすることができる。操作ガイドが表示されてから所定の期間が経過したタイミングで操作ガイドの表示が終了する場合、利用者は、操作ガイドを非表示にするために特に操作を行う必要がない。利用者による所定の指示が検出されたタイミングで操作ガイドの表示が終了する場合、利用者は、任意のタイミングで操作ガイドを非表示にすることができる。   When the display of the operation guide ends at the timing when the gesture assigned to the screen is detected, the user simply hides the operation guide without performing an extra operation simply by performing a gesture for executing a desired process. Can be displayed. When the display of the operation guide ends at a timing when a predetermined period has elapsed since the operation guide was displayed, the user does not need to perform any operation in order to hide the operation guide. When the display of the operation guide ends at a timing when a predetermined instruction by the user is detected, the user can hide the operation guide at an arbitrary timing.

スマートフォン1は、操作ガイドを半透明で表示してもよい。この場合、スマートフォン1は、操作ガイドの透明度を利用者が設定できるように構成されてもよい。あるいは、スマートフォン1は、操作ガイドを点滅表示してもよい。このように操作ガイドの表示を制御することにより、利用者は、操作ガイドが表示されていても、画面がどのような要素を含んでいるかを把握することができる。   The smartphone 1 may display the operation guide in a translucent manner. In this case, the smartphone 1 may be configured so that the user can set the transparency of the operation guide. Alternatively, the smartphone 1 may display the operation guide in a blinking manner. By controlling the display of the operation guide in this way, the user can grasp what elements the screen includes even when the operation guide is displayed.

スマートフォン1は、ある画面の操作ガイドを所定の回数表示した後は、その画面を表示する場合に操作ガイドを表示しないようにしてもよい。所定の回数は、利用者が画面に割り当てられたジェスチャをほぼ覚えることができる回数に設定される。スマートフォン1は、所定の回数を利用者が設定できるように構成されてもよい。スマートフォン1は、操作ガイドを所定の回数表示した後であっても、利用者による所定の指示が検出された場合には操作ガイドを表示してもよい。   After displaying the operation guide on a certain screen a predetermined number of times, the smartphone 1 may not display the operation guide when displaying the screen. The predetermined number of times is set to the number of times that the user can almost remember the gesture assigned to the screen. The smartphone 1 may be configured so that the user can set a predetermined number of times. Even after the operation guide is displayed a predetermined number of times, the smartphone 1 may display the operation guide when a predetermined instruction from the user is detected.

スマートフォン1は、操作ガイドを、操作ガイド情報9Yに基づいて表示する。操作ガイド情報9Yは、画面を識別するための情報と、その画面に割り当てられているジェスチャを示す情報とを対応付けて保持する。ジェスチャが画面上の特定の領域に割り当てられている場合、操作ガイド情報9Yは、ジェスチャを示す情報を、そのジェスチャが割り当てられている領域を示す情報とさらに対応付けて保持してもよい。図5では、操作ガイド情報9Yは、アプリケーションから独立した単一の情報として図示されているが、操作ガイド情報9Yは、アプリケーション毎に記憶されていてもよいし、それぞれのアプリケーションに埋め込まれていてもよい。   The smartphone 1 displays the operation guide based on the operation guide information 9Y. The operation guide information 9Y holds information for identifying a screen and information indicating a gesture assigned to the screen in association with each other. When the gesture is assigned to a specific area on the screen, the operation guide information 9Y may hold information indicating the gesture in further association with information indicating the area to which the gesture is assigned. In FIG. 5, the operation guide information 9Y is illustrated as a single piece of information independent of the application. However, the operation guide information 9Y may be stored for each application or embedded in each application. Also good.

操作ガイド情報9Yは、画面を提供するアプリケーションの制作者によって提供され、アプリケーションと共にスマートフォン1に導入されてもよい。   The operation guide information 9Y may be provided by a creator of an application that provides a screen and may be introduced into the smartphone 1 together with the application.

操作ガイド情報9Yは、図11に示すように、画面を提供するアプリケーション9Xに対して解析処理を行った結果に基づいて作成されてもよい。アプリケーション9Xに対して解析処理を行う装置は、スマートフォン1であってもよいし、アプリケーション9Xを配布する業者が有する装置であってもよい。   As illustrated in FIG. 11, the operation guide information 9 </ b> Y may be created based on a result of performing an analysis process on an application 9 </ b> X that provides a screen. The device that performs the analysis process on the application 9X may be the smartphone 1 or may be a device that is owned by a vendor that distributes the application 9X.

アプリケーション9Xに対する解析処理は、例えば、アプリケーション9Xに含まれるコード又は文字列に基づいて、各種のジェスチャに対応するイベントにハンドラが作成されているかを判定する処理である。ハンドラは、イベントが検出された場合に実行すべき処理を実現するためのコードの集まりである。ある画面(画面上の要素)に対して、ジェスチャに対応するイベントにハンドラが作成されている場合、その画面(その画面上の要素)にそのジェスチャが割り当てられていると判定できる。   The analysis process for the application 9X is, for example, a process of determining whether a handler is created for an event corresponding to various gestures based on a code or a character string included in the application 9X. A handler is a collection of codes for realizing a process to be executed when an event is detected. When a handler is created for an event corresponding to a gesture for a certain screen (element on the screen), it can be determined that the gesture is assigned to that screen (element on the screen).

アプリケーションが、画面の定義を定義ファイルから読み込むように構成されている場合、操作ガイド情報9Yは、定義ファイルに基づいて作成されてもよい。定義ファイルは、例えば、画面定義ファイル、又はHTML(HyperText Markup Language)ファイルである。HTMLファイルは、JavaScriptを含んでもよい。定義ファイルは、アプリケーションの内部に埋め込まれていてもよいし、アプリケーションの外部に存在してもよい。   When the application is configured to read the definition of the screen from the definition file, the operation guide information 9Y may be created based on the definition file. The definition file is, for example, a screen definition file or an HTML (HyperText Markup Language) file. The HTML file may include JavaScript. The definition file may be embedded inside the application or may exist outside the application.

図12は、画面定義ファイルの例を示す図である。図12に示す画面定義ファイル70は、図6に示した日記画面60を表示するように、XML(Extensible Markup Language)形式で構成されている。画面定義ファイル70は、プロフィール表示領域61に対応するCanvasタグ71と、日記表示領域62に対応するListViewタグ72と、ツールバー領域63に対応するBarタグ73とを含む。   FIG. 12 is a diagram illustrating an example of the screen definition file. The screen definition file 70 shown in FIG. 12 is configured in an XML (Extensible Markup Language) format so as to display the diary screen 60 shown in FIG. The screen definition file 70 includes a Canvas tag 71 corresponding to the profile display area 61, a ListView tag 72 corresponding to the diary display area 62, and a Bar tag 73 corresponding to the toolbar area 63.

Canvasタグ71は、プロフィール表示領域61の位置及び大きさを指定する属性に加えて、onTap属性71aを含む。onTap属性71aには、対応する領域でタップが検出されたときに実行すべき処理を含むハンドラの名称と、ハンドラに含まれる処理の概要を表す文字列とが設定される。図12に示す例では、onTap属性71aには、「showDetails」というハンドラ名と、「詳細表示」という文字列が設定されている。onTap属性71aによれば、プロフィール表示領域61には、「詳細表示」に関する処理のためにタップが割り当てられていると判定される。   The Canvas tag 71 includes an onTap attribute 71 a in addition to an attribute that specifies the position and size of the profile display area 61. In the onTap attribute 71a, a name of a handler including a process to be executed when a tap is detected in a corresponding area and a character string representing an outline of the process included in the handler are set. In the example illustrated in FIG. 12, a handler name “showDetails” and a character string “detailed display” are set in the onTap attribute 71 a. According to the onTap attribute 71a, it is determined that a tap is assigned to the profile display area 61 for processing related to “detail display”.

ListViewタグ72は、日記表示領域62の位置及び大きさを指定する属性に加えて、onTap属性72a、onLongTap属性72b、及びscrollable属性72cを含む。onTap属性72aには、対応する領域でタップが検出されたときに実行すべき処理を含むハンドラの名称と、ハンドラに含まれる処理の概要を表す文字列とが設定される。onLongTap属性72bには、対応する領域でロングタップが検出されたときに実行すべき処理を含むハンドラの名称と、ハンドラに含まれる処理の概要を表す文字列とが設定される。scrollable属性72cにはスクロールの可否を示す値が設定される。   The ListView tag 72 includes an onTap attribute 72a, an onLongTap attribute 72b, and a scrollable attribute 72c, in addition to attributes that specify the position and size of the diary display area 62. In the onTap attribute 72a, a name of a handler including a process to be executed when a tap is detected in a corresponding area and a character string representing an outline of the process included in the handler are set. In the onLongTap attribute 72b, a name of a handler including a process to be executed when a long tap is detected in a corresponding area and a character string representing an outline of the process included in the handler are set. A value indicating whether scrolling is possible is set in the scrollable attribute 72c.

図12に示す例では、onTap属性72aには、「showDetails」というハンドラ名と、「詳細表示」という文字列が設定されている。onTap属性72aによれば、日記表示領域62には、「詳細表示」に関する処理のためにタップが割り当てられていると判定される。図12に示す例では、onLongTap属性72bには、「showMenu」というハンドラ名と、「メニュー」という文字列が設定されている。onLongTap属性72bによれば、日記表示領域62には、「メニュー」に関する処理のためにロングタップが割り当てられていると判定される。   In the example illustrated in FIG. 12, a handler name “showDetails” and a character string “detailed display” are set in the onTap attribute 72 a. According to the onTap attribute 72a, it is determined that a tap is assigned to the diary display area 62 for processing related to “detail display”. In the example illustrated in FIG. 12, a handler name “showMenu” and a character string “menu” are set in the onLongTap attribute 72 b. According to the onLongTap attribute 72b, it is determined that a long tap is assigned to the diary display area 62 for processing related to “menu”.

図12に示す例では、scrollable属性72cには、「true」が設定されている。scrollable属性72cによれば、日記表示領域62はスクロール可能に設定されていると判定される。すなわち、scrollable属性72cによれば、日記表示領域62には、スクロールのためのジェスチャであるフリック及びスワイプが割り当てられていると判定される。   In the example illustrated in FIG. 12, “true” is set in the scrollable attribute 72 c. According to the scrollable attribute 72c, it is determined that the diary display area 62 is set to be scrollable. That is, according to the scrollable attribute 72c, it is determined that the diary display area 62 is assigned with a flick and swipe that are gestures for scrolling.

Barタグ73は、アイコン63aに対応するIconタグ73aと、アイコン63bに対応するIconタグ73bと、アイコン63cに対応するIconタグ73cとを含む。アイコン63a〜63bは、それぞれ、アイコンとして表示される画像を指定する属性に加えて、onTap属性73d〜73fを含む。onTap属性73d〜73fのそれぞれには、対応するアイコンに対するタップが検出されたときに実行すべき処理を含むハンドラの名称と、ハンドラに含まれる処理の概要を表す文字列とが設定される。   The Bar tag 73 includes an Icon tag 73a corresponding to the icon 63a, an Icon tag 73b corresponding to the icon 63b, and an Icon tag 73c corresponding to the icon 63c. Each of the icons 63a to 63b includes onTap attributes 73d to 73f in addition to an attribute for designating an image displayed as an icon. In each of the onTap attributes 73d to 73f, a name of a handler including a process to be executed when a tap on the corresponding icon is detected, and a character string representing an outline of the process included in the handler are set.

図12に示す例では、onTap属性73dには、「showHome」というハンドラ名と、「ホーム」という文字列が設定されている。onTap属性73dによれば、アイコン63aには、「ホーム」に関する処理のためにタップが割り当てられていると判定される。図12に示す例では、onTap属性73eには、「inputQuery」というハンドラ名と、「検索」という文字列が設定されている。onTap属性73eによれば、アイコン63bには、「検索」に関する処理のためにタップが割り当てられていると判定される。図12に示す例では、onTap属性73fには、「inputComment」というハンドラ名と、「コメント」という文字列が設定されている。onTap属性73fによれば、アイコン63cには、「コメント」に関する処理のためにタップが割り当てられていると判定される。   In the example illustrated in FIG. 12, a handler name “showHome” and a character string “home” are set in the onTap attribute 73 d. According to the onTap attribute 73d, it is determined that a tap is assigned to the icon 63a for processing related to “home”. In the example illustrated in FIG. 12, a handler name “inputQuery” and a character string “search” are set in the onTap attribute 73 e. According to the onTap attribute 73e, it is determined that a tap is assigned to the icon 63b for processing related to “search”. In the example shown in FIG. 12, a handler name “inputComment” and a character string “comment” are set in the onTap attribute 73f. According to the onTap attribute 73f, it is determined that a tap is assigned to the icon 63c for processing related to “comment”.

スマートフォン1は、定義ファイルがアプリケーションに埋め込まれている場合、あるいは定義ファイルがアプリケーションとともに導入される場合、アプリケーションの導入時に定義ファイルを解析する。そして、スマートフォン1は、解析によって得られたジェスチャに関する情報を操作ガイド情報9Yに保存し、定義ファイルに基づいて画面を表示する場合にその情報を参照する。スマートフォン1は、定義ファイルに基づいて画面を表示する度に定義ファイルを解析してジェスチャに関する情報を取得するように構成されてもよい。   When the definition file is embedded in the application or when the definition file is introduced together with the application, the smartphone 1 analyzes the definition file when the application is introduced. And the smart phone 1 preserve | saves the information regarding the gesture obtained by analysis in the operation guide information 9Y, and refers to the information, when displaying a screen based on a definition file. The smartphone 1 may be configured to analyze the definition file and acquire information regarding the gesture every time the screen is displayed based on the definition file.

スマートフォン1は、定義ファイルが必要に応じて他の装置からダウンロードされる場合、定義ファイルをダウンロードしたとき、又は定義ファイルに基づいて画面を表示すときに定義ファイルを解析してジェスチャに関する情報を取得する。   When the definition file is downloaded from another device as needed, the smartphone 1 analyzes the definition file when the definition file is downloaded or when the screen is displayed based on the definition file, and acquires information on the gesture To do.

図12に示した例では、ジェスチャに関連するタグの属性に、ハンドラの名称と、ハンドラに含まれる処理の概要を表す文字列とが対応付けて設定される。しかしながら、ジェスチャに関連するタグの属性には、ハンドラの名称、又はハンドラに含まれる処理の概要を表す文字列のいずれか一方が設定されてもよい。   In the example illustrated in FIG. 12, the name of the handler and a character string representing an outline of the processing included in the handler are set in association with the attribute of the tag related to the gesture. However, in the tag attribute related to the gesture, either the name of the handler or a character string representing an outline of the process included in the handler may be set.

操作ガイド情報9Yは、図13に示すように、操作履歴に基づいて作成されてもよい。図13に示す例において、スマートフォン2a〜2nは、スマートフォン1と同様の構成を有する携帯電子機器である。スマートフォン2a〜2nは、タッチスクリーンに対するジェスチャが検出されると、検出されたジェスチャに関する情報をサーバ80へ送信する。サーバ80へ送信される情報には、画面情報、操作情報、及び領域情報が含まれる。   The operation guide information 9Y may be created based on the operation history as shown in FIG. In the example illustrated in FIG. 13, the smartphones 2 a to 2 n are portable electronic devices having the same configuration as the smartphone 1. When the gestures on the touch screen are detected, the smartphones 2a to 2n transmit information regarding the detected gestures to the server 80. Information transmitted to the server 80 includes screen information, operation information, and area information.

画面情報は、ジェスチャが検出されたときにディスプレイに表示されていた画面を識別するための情報である。操作情報は、検出されたジェスチャを識別するための情報である。領域情報は、ジェスチャが検出された位置に表示されている画面上の要素の表示領域を示す情報である。   The screen information is information for identifying the screen displayed on the display when the gesture is detected. The operation information is information for identifying the detected gesture. The area information is information indicating the display area of the element on the screen displayed at the position where the gesture is detected.

サーバ80は、スマートフォン2a〜2nから送信される情報をデータベース81に操作履歴情報82として蓄積する。そして、サーバ80は、操作履歴情報82に基づいて、画面の領域毎にそれぞれのジェスチャが実行された回数に関する統計値を算出する。統計値は、例えば、回数の合計値、頻度、スマートフォン毎の回数の平均値、スマートフォン毎の回数の最大値である。サーバ80は、こうして算出された統計値が閾値よりも高い大きいジェスチャを、対応する画面の領域に割り当てられているジェスチャと判定する。サーバ80は、画面と、その画面上の領域と、その領域に割り当てられていると判定したジェスチャの組み合わせを操作ガイド情報9Yとして、スマートフォン1を含む携帯電子機器へ送信する。   The server 80 accumulates information transmitted from the smartphones 2 a to 2 n as operation history information 82 in the database 81. Then, based on the operation history information 82, the server 80 calculates a statistical value related to the number of times each gesture has been executed for each area of the screen. The statistical value is, for example, the total number of times, the frequency, the average value of the number of times for each smartphone, or the maximum value of the number of times for each smartphone. The server 80 determines that the large gesture having the calculated statistical value higher than the threshold is a gesture assigned to the corresponding screen area. The server 80 transmits the combination of the screen, the area on the screen, and the gesture determined to be assigned to the area to the portable electronic device including the smartphone 1 as the operation guide information 9Y.

このように複数の利用者の操作履歴に基づいて操作ガイド情報9Yを生成することにより、個々の利用者が気付いたジェスチャの割り当てに関する知識を、多くの利用者で共有することができる。   As described above, by generating the operation guide information 9Y based on the operation histories of a plurality of users, it is possible to share the knowledge regarding the gesture allocation noticed by each user with many users.

図13に示した例では、サーバ80へ情報を送信する携帯電子機器と、サーバ80から情報を受信する携帯電子機器とが別個の携帯電子機器として図示されているが、これらは同じ携帯電子機器であってもよい。すなわち、サーバ80は、検出されたジェスチャに関する情報をスマートフォン1からも受信してよい。サーバ80は、操作ガイド情報9Yをスマートフォン2a〜2nへも送信してよい。   In the example illustrated in FIG. 13, the portable electronic device that transmits information to the server 80 and the portable electronic device that receives information from the server 80 are illustrated as separate portable electronic devices, but these are the same portable electronic device. It may be. That is, the server 80 may also receive information about the detected gesture from the smartphone 1. The server 80 may transmit the operation guide information 9Y to the smartphones 2a to 2n.

次に、図14を参照しながら、操作ガイドを表示するための処理手順の例について説明する。図14は、操作ガイドを表示するための処理手順の例を示すフローチャートである。図14に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図14に示す処理手順では、操作ガイドは、画面が表示されるときに表示され、設定された時間が経過した後に消去される。コントローラ10は、図14に示す処理手順と並行して、他の処理手順を実行する。他の処理手順には、例えば、画面を表示するための処理手順、及び画面に対するジェスチャに応じた処理を実行するための処理手順が含まれる。   Next, an example of a processing procedure for displaying an operation guide will be described with reference to FIG. FIG. 14 is a flowchart illustrating an example of a processing procedure for displaying an operation guide. The processing procedure shown in FIG. 14 is realized by the controller 10 executing the control program 9A. In the processing procedure shown in FIG. 14, the operation guide is displayed when the screen is displayed, and is erased after a set time has elapsed. The controller 10 executes another processing procedure in parallel with the processing procedure shown in FIG. The other processing procedures include, for example, a processing procedure for displaying a screen and a processing procedure for executing processing corresponding to a gesture on the screen.

コントローラ10は、ステップS101として、ディスプレイ2Aに表示される画面が変更されたかを判定する。コントローラ10は、画面が変更されていない場合(ステップS101,No)、ステップS108へ進む。   The controller 10 determines whether the screen displayed on the display 2A was changed as step S101. If the screen has not been changed (No at Step S101), the controller 10 proceeds to Step S108.

画面が変更された場合(ステップS101,Yes)、コントローラ10は、ステップS102として、変更後の画面を特定する。そして、コントローラ10は、ステップS103として、特定した画面に関して操作ガイドを表示する必要があるか否かを判定する。コントローラ10は、例えば、その画面に関して操作ガイドを表示した回数が予め設定された回数よりも多い場合に、操作ガイドを表示する必要がないと判定する。コントローラ10は、操作ガイドを表示する必要がない場合(ステップS104,No)、ステップS108へ進む。   When the screen is changed (step S101, Yes), the controller 10 specifies the changed screen as step S102. And controller 10 judges whether it is necessary to display an operation guide about the specified screen as Step S103. For example, the controller 10 determines that it is not necessary to display the operation guide when the number of times the operation guide is displayed on the screen is greater than the preset number. When it is not necessary to display the operation guide (No at Step S104), the controller 10 proceeds to Step S108.

操作ガイドを表示する必要がある場合(ステップS104,Yes)、コントローラ10は、ステップS105として、表示されている画面に対応する操作ガイドを表示する。そして、コントローラ10は、操作ガイドを表示したときから、予め設定された時間が経過したかを判定する。予め設定された時間が経過していない場合(ステップS106,No)、コントローラ10は、ステップS106の判定を繰り返す。   When the operation guide needs to be displayed (step S104, Yes), the controller 10 displays the operation guide corresponding to the displayed screen as step S105. Then, the controller 10 determines whether a preset time has elapsed since the operation guide was displayed. When the preset time has not elapsed (step S106, No), the controller 10 repeats the determination of step S106.

予め設定された時間が経過している場合(ステップS106,Yes)、コントローラ10は、ステップS107として、操作ガイドを消去する。そして、コントローラ10は、ステップS101へ戻る。   When the preset time has elapsed (step S106, Yes), the controller 10 deletes the operation guide as step S107. Then, the controller 10 returns to step S101.

ステップS108では、コントローラ10は、終了指示がなされたか否かを判定する。終了指示は、利用者によってなされてもよいし、スマートフォン1自身によってなされてもよい。終了指示がなされている場合(ステップS108,Yes)、コントローラ10は、処理手順を終了する。終了指示がなされていない場合(ステップS108,No)、コントローラ10は、ステップS101へ戻る。   In step S108, the controller 10 determines whether or not an end instruction has been issued. The end instruction may be given by the user or may be made by the smartphone 1 itself. When the end instruction is given (step S108, Yes), the controller 10 ends the processing procedure. When the termination instruction has not been given (No at Step S108), the controller 10 returns to Step S101.

本出願の開示する実施形態は、発明の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。   Embodiment which this application discloses can be changed in the range which does not deviate from the summary and range of invention. Furthermore, the embodiment disclosed in the present application and its modifications can be combined as appropriate. For example, the above embodiment may be modified as follows.

例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。   For example, each program shown in FIG. 5 may be divided into a plurality of modules, or may be combined with other programs.

ジェスチャが割り当てられている領域ごとにジェスチャに関する情報を表示する場合、スマートフォン1は、面積が設定された値よりも狭い領域については、その領域にジェスチャが割り当てられていてもジェスチャに関する情報を表示しなくてもよい。例えば、図7に示した例の場合、スマートフォン1は、表示領域が狭いアイコン63a〜63cに対応する吹き出し63d〜63fを表示しなくてもよい。このように構成することにより、画面がジェスチャに関する情報に占められて、画面が見難くなることを抑止できる。   When displaying information about a gesture for each area to which a gesture is assigned, the smartphone 1 displays information about the gesture for an area whose area is narrower than the set value even if the gesture is assigned to that area. It does not have to be. For example, in the case of the example illustrated in FIG. 7, the smartphone 1 may not display the balloons 63d to 63f corresponding to the icons 63a to 63c whose display areas are narrow. By configuring in this way, it is possible to prevent the screen from being occupied by information related to the gesture and becoming difficult to see the screen.

スマートフォン1は、画面に割り当てられているジェスチャがアプリケーションのアップデートによって増えた場合、その画面を表示するときに、増えたジェスチャに関する情報のみを表示してもよい。あるいは、この場合、その画面を表示するときに、増えたジェスチャに関する情報を他のジェスチャに関する情報と異なる態様で表示してもよい。増えたジェスチャに関する情報は、アプリケーションのアップデート前の操作ガイド情報9Yとアプリケーションのアップデート後の操作ガイド情報9Yとを比較することによって取得できる。   When the number of gestures assigned to the screen increases due to an application update, the smartphone 1 may display only information related to the increased gesture when displaying the screen. Alternatively, in this case, when the screen is displayed, the information regarding the increased gesture may be displayed in a mode different from the information regarding other gestures. Information regarding the increased gesture can be acquired by comparing the operation guide information 9Y before the application update and the operation guide information 9Y after the application update.

スマートフォン1は、画面に割り当てられているジェスチャ毎に検出された回数を記憶してもよい。そして、スマートフォン1は、記憶している回数に基づいて、ジェスチャに関する情報の表示を制御してもよい。例えば、スマートフォン1は、対応する画面が表示されたときに、検出された回数が設定された回数よりも少ないジェスチャに関する情報のみを表示してもよい。この場合、画面を表示した回数が閾値を超えた場合には、検出された回数が設定された回数よりも少ないジェスチャがあっても操作ガイドを表示しないようにスマートフォン1を構成してもよい。   The smartphone 1 may store the number of times detected for each gesture assigned to the screen. And the smart phone 1 may control the display of the information regarding a gesture based on the frequency | count memorize | stored. For example, when the corresponding screen is displayed, the smartphone 1 may display only information related to gestures in which the detected number of times is less than the set number of times. In this case, when the number of times the screen is displayed exceeds a threshold value, the smartphone 1 may be configured not to display the operation guide even if the detected number is smaller than the set number.

上記の実施形態では、タッチスクリーンを備える装置の例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、自動預入支払機(ATM)、及びテレビ受像器を含むが、これらに限定されない。   In the above embodiment, a smartphone has been described as an example of a device including a touch screen, but the device according to the appended claims is not limited to a smartphone. The device according to the appended claims may be a portable electronic device other than a smartphone. Examples of portable electronic devices include, but are not limited to, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines. The device according to the appended claims may be a stationary electronic device. The stationary electronic device includes, for example, a desktop personal computer, an automatic depositing and paying machine (ATM), and a television receiver, but is not limited thereto.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be configured to embody such a configuration.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9D SNSアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング
40 ホーム画面
50 アイコン
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Mail application 9C Browser application 9D SNS application 9Z Setting data 10 Controller 11 Speaker 12, 13 Camera 14 Connector 15 Acceleration sensor 16 Direction sensor 17 Gyroscope 20 Housing 40 Home screen 50 Icon

Claims (7)

一部の領域にユーザによるジェスチャが割り当てられた画面を表示するディスプレイと、
前記ジェスチャを検出するタッチスクリーンと、
前記一部の領域に前記ジェスチャが検出された場合に、前記ジェスチャに対応する処理を実行するコントローラとを備え、
前記コントローラは、前記ジェスチャが割り当てられた前記一部の領域が前記ディスプレイに複数表示されているときに、当該画面に表示された複数の前記一部の領域の各々に割り当てられた前記ジェスチャを、当該画面に表示された複数の前記一部の領域の各々に対応付けて前記ディスプレイにさらに表示させ
前記コントローラは、表示される前記画面が変更され、当該画面に新たなジェスチャが割り当てられている場合に、当該新たなジェスチャを表示させ、当該新たなジェスチャを表示させた回数が予め設定された回数を超えた場合には、当該新たなジェスチャを表示させない装置。
A display that displays a screen with user gestures assigned to some areas;
A touch screen for detecting the gesture;
A controller that executes processing corresponding to the gesture when the gesture is detected in the partial area;
The controller is configured to display the gesture assigned to each of the plurality of partial areas displayed on the screen when the partial area to which the gesture is assigned is displayed on the display. In association with each of the plurality of partial areas displayed on the screen, further display on the display ,
The controller displays the new gesture when the displayed screen is changed and a new gesture is assigned to the screen, and the number of times that the new gesture is displayed is a preset number of times. A device that does not display the new gesture when the number is exceeded .
前記コントローラは、予め設定された時間が経過した場合に、前記ジェスチャを消去させる請求項1に記載の装置。   The apparatus according to claim 1, wherein the controller erases the gesture when a preset time has elapsed. 前記コントローラは、第1の操作が検出された場合に、前記ジェスチャを消去させる請求項1または2に記載の装置。   The apparatus according to claim 1, wherein the controller deletes the gesture when a first operation is detected. 前記コントローラは、第2の操作が検出された場合に、前記ジェスチャを表示させる請求項1からのいずれか1項に記載の装置。 Wherein the controller, when the second operation is detected, apparatus according to any one of claims 1 to 3 for displaying the gesture. 前記コントローラは、操作が検出されない時間が所定の期間よりも長く継続した場合に、前記ジェスチャを表示させる請求項1からのいずれか1項に記載の装置。 The apparatus according to any one of claims 1 to 4 , wherein the controller displays the gesture when an operation is not detected for a longer period than a predetermined period. ディスプレイと、タッチスクリーンとを有する装置を制御する方法であって、
一部の領域にユーザによるジェスチャが割り当てられた画面を前記ディスプレイに表示するステップと、
前記タッチスクリーンによって前記ジェスチャを検出するステップと、
前記ジェスチャが割り当てられた前記一部の領域が前記ディスプレイに複数表示されているときに、当該画面に表示された複数の前記一部の領域の各々に割り当てられた前記ジェスチャを、当該画面に表示された複数の前記一部の領域の各々に対応付けて前記ディスプレイにさらに表示するステップと、
前記画面が表示されているときに前記ジェスチャが検出された場合に、前記ジェスチャに対応する処理を実行するステップと
前記ディスプレイに表示される前記画面が変更され、当該画面に新たなジェスチャが割り当てられている場合に、当該新たなジェスチャを前記ディスプレイに表示させ、当該新たなジェスチャを表示させた回数が予め設定された回数を超えた場合には、当該新たなジェスチャを前記ディスプレイに表示させないステップと
を含む方法。
A method for controlling a device having a display and a touch screen, comprising:
Displaying on the display a screen in which a gesture by a user is assigned to some area;
Detecting the gesture by the touch screen;
When a plurality of the partial areas to which the gesture is assigned are displayed on the display, the gestures assigned to each of the partial areas displayed on the screen are displayed on the screen. Further displaying on the display in association with each of the plurality of the partial regions,
Executing the process corresponding to the gesture when the gesture is detected when the screen is displayed ;
When the screen displayed on the display is changed and a new gesture is assigned to the screen, the number of times that the new gesture is displayed on the display and the new gesture is displayed is preset. And not displaying the new gesture on the display when the number of times is exceeded .
ディスプレイと、タッチスクリーンとを有する装置に、
一部の領域にユーザによるジェスチャが割り当てられた画面を前記ディスプレイに表示するステップと、
前記タッチスクリーンによって前記ジェスチャを検出するステップと、
前記ジェスチャが割り当てられた前記一部の領域が前記ディスプレイに複数表示されているときに、当該画面に表示された複数の前記一部の領域の各々に割り当てられた前記ジェスチャを、当該画面に表示された複数の前記一部の領域の各々に対応付けて前記ディスプレイにさらに表示するステップと、
前記画面が表示されているときに前記ジェスチャが検出された場合に、前記ジェスチャに対応する処理を実行するステップと
前記ディスプレイに表示される前記画面が変更され、当該画面に新たなジェスチャが割り当てられている場合に、当該新たなジェスチャを前記ディスプレイに表示させ、当該新たなジェスチャを表示させた回数が予め設定された回数を超えた場合には、当該新たなジェスチャを前記ディスプレイに表示させないステップと
を実行させるプログラム。
In a device having a display and a touch screen,
Displaying on the display a screen in which a gesture by a user is assigned to some area;
Detecting the gesture by the touch screen;
When a plurality of the partial areas to which the gesture is assigned are displayed on the display, the gestures assigned to each of the partial areas displayed on the screen are displayed on the screen. Further displaying on the display in association with each of the plurality of the partial regions,
Executing the process corresponding to the gesture when the gesture is detected when the screen is displayed ;
When the screen displayed on the display is changed and a new gesture is assigned to the screen, the number of times that the new gesture is displayed on the display and the new gesture is displayed is preset. A program that executes a step of not displaying the new gesture on the display when the number of times exceeds the predetermined number .
JP2012132823A 2012-06-12 2012-06-12 Apparatus, method, and program Active JP6368455B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012132823A JP6368455B2 (en) 2012-06-12 2012-06-12 Apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012132823A JP6368455B2 (en) 2012-06-12 2012-06-12 Apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2013257694A JP2013257694A (en) 2013-12-26
JP6368455B2 true JP6368455B2 (en) 2018-08-01

Family

ID=49954095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012132823A Active JP6368455B2 (en) 2012-06-12 2012-06-12 Apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6368455B2 (en)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
BR112015018905B1 (en) 2013-02-07 2022-02-22 Apple Inc Voice activation feature operation method, computer readable storage media and electronic device
WO2015118578A1 (en) * 2014-02-10 2015-08-13 三菱電機株式会社 Multimodal input device, and method for controlling timeout in terminal device and multimodal input device
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10200824B2 (en) * 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
JP2016224523A (en) * 2015-05-27 2016-12-28 京セラ株式会社 Portable terminal
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
JP6512964B2 (en) * 2015-06-30 2019-05-15 Kddi株式会社 Terminal, image determination system, image determination method and program
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
JP6589496B2 (en) * 2015-09-17 2019-10-16 日本精機株式会社 Vehicle display device
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
EP3435214A4 (en) * 2016-05-10 2019-04-17 Ntt Docomo, Inc. Processing device, information processing system, and processing method
CN109196454B (en) * 2016-06-03 2020-02-14 三菱电机株式会社 Programmable display, screen display system, and control method for programmable display
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. Low-latency intelligent automated assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
CN109491496A (en) 2017-09-12 2019-03-19 精工爱普生株式会社 The control method of head-mount type display unit and head-mount type display unit
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
JP2020194410A (en) * 2019-05-29 2020-12-03 株式会社デンソー Operation device
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
JP2023106716A (en) * 2022-01-21 2023-08-02 ブラザー工業株式会社 Support program

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007019A (en) * 2000-06-22 2002-01-11 Hitachi Ltd System for automatically displaying/erasing help guidance
WO2004111816A2 (en) * 2003-06-13 2004-12-23 University Of Lancaster User interface
JP2006099468A (en) * 2004-09-29 2006-04-13 Toshiba Corp Gesture input device, method, and program
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8170798B2 (en) * 2006-09-22 2012-05-01 Mitsubishi Electric Corporation Navigation system and operation guidance display method for use in this navigation system
JP2008282092A (en) * 2007-05-08 2008-11-20 Canon Inc Information processor allowing user to learn gesture command during operation
JP2009294936A (en) * 2008-06-05 2009-12-17 Fujitsu Ltd Help message display program, help message display device, and help message display method
JP2010009240A (en) * 2008-06-25 2010-01-14 Kyocera Mita Corp Display device and help message display program
JP2010128838A (en) * 2008-11-28 2010-06-10 Toyota Motor Corp Input device
US8823749B2 (en) * 2009-06-10 2014-09-02 Qualcomm Incorporated User interface methods providing continuous zoom functionality
JP2011138237A (en) * 2009-12-26 2011-07-14 Canon Inc Image processing apparatus, control method of the same and program
JP5751934B2 (en) * 2010-10-15 2015-07-22 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2013218592A (en) * 2012-04-11 2013-10-24 Seiko Epson Corp Character input device

Also Published As

Publication number Publication date
JP2013257694A (en) 2013-12-26

Similar Documents

Publication Publication Date Title
JP6368455B2 (en) Apparatus, method, and program
JP5850736B2 (en) Apparatus, method, and program
JP5805588B2 (en) Electronic device, control method, and control program
JP6017891B2 (en) Apparatus, method, and program
JP5891083B2 (en) Apparatus, method, and program
US9874994B2 (en) Device, method and program for icon and/or folder management
US20130167090A1 (en) Device, method, and storage medium storing program
JP2013084233A (en) Device, method, and program
JP5792017B2 (en) Apparatus, method, and program
JP2013134729A (en) Device, method, and program
JP5805685B2 (en) Electronic device, control method, and control program
JP5858896B2 (en) Electronic device, control method, and control program
JP2014071724A (en) Electronic apparatus, control method, and control program
JP2013084237A (en) Device, method, and program
JP2013073528A (en) Device, method, and program
JP5762885B2 (en) Apparatus, method, and program
JP2013065291A (en) Device, method, and program
JP6099537B2 (en) Electronic apparatus, method, and program
JP2013092891A (en) Device, method, and program
JP6139068B2 (en) Apparatus and method
JP6080355B2 (en) Apparatus, method, and program
JP2013101547A (en) Device, method, and program
JP5740366B2 (en) Apparatus, method, and program
JP2013092974A (en) Device, method, and program
JP2013047921A (en) Device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160916

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170703

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170710

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180709

R150 Certificate of patent or registration of utility model

Ref document number: 6368455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150