JP5762935B2 - Apparatus, method, and program - Google Patents

Apparatus, method, and program Download PDF

Info

Publication number
JP5762935B2
JP5762935B2 JP2011258778A JP2011258778A JP5762935B2 JP 5762935 B2 JP5762935 B2 JP 5762935B2 JP 2011258778 A JP2011258778 A JP 2011258778A JP 2011258778 A JP2011258778 A JP 2011258778A JP 5762935 B2 JP5762935 B2 JP 5762935B2
Authority
JP
Japan
Prior art keywords
smartphone
inclination
display
touch screen
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011258778A
Other languages
Japanese (ja)
Other versions
JP2013114379A (en
Inventor
宏悦 河西
宏悦 河西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011258778A priority Critical patent/JP5762935B2/en
Publication of JP2013114379A publication Critical patent/JP2013114379A/en
Application granted granted Critical
Publication of JP5762935B2 publication Critical patent/JP5762935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、装置、方法、及びプログラムに関する。特に、本発明は、タッチスクリーンディスプレイを有する装置、その装置を制御する方法、及びその装置を制御するためのプログラムに関する。   The present invention relates to an apparatus, a method, and a program. In particular, the present invention relates to a device having a touch screen display, a method for controlling the device, and a program for controlling the device.

タッチスクリーンディスプレイを備える装置が知られている。タッチスクリーンディスプレイを備える装置には、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンディスプレイを備える装置は、タッチスクリーンディスプレイを介して指又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンディスプレイを備える装置は、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。   Devices with touch screen displays are known. Devices that include a touch screen display include, for example, smartphones and tablets. A device with a touch screen display detects a finger or stylus pen gesture via the touch screen display. The device including the touch screen display operates according to the detected gesture. An example of the operation according to the detected gesture is described in Patent Document 1, for example.

タッチスクリーンディスプレイを備える装置の基本的な動作は、装置に搭載されるAndroid(登録商標)、BlackBerry(登録商標) OS、iOS、Windows(登録商標) Phone等のOS(Operating System)によって実現される。   The basic operation of a device having a touch screen display is realized by an OS (Operating System) such as Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Windows (registered trademark) Phone installed in the device. .

国際公開第2008/086302号International Publication No. 2008/086302

タッチスクリーンディスプレイによって検出できる操作の種類は比較的少ない。特に、他方の手がふさがっている等の理由で装置を片手で持って操作する状況では、利用者がマルチタッチ等の複雑な操作を行うことは困難であるため、検出できる操作の種類は少なくなる。そのため、装置によっては、タッチスクリーンディスプレイによって検出される操作に応じて実行できる処理の数が限られることがあった。本発明は、タッチスクリーンディスプレイによって検出される操作に応じて多様な処理を実行することができる装置、方法、及びプログラムを提供することを目的とする。   There are relatively few types of operations that can be detected by a touch screen display. Especially in situations where the device is held with one hand because the other hand is occupied, it is difficult for the user to perform complex operations such as multi-touch, so the types of operations that can be detected are few. Become. Therefore, depending on the device, the number of processes that can be executed depending on the operation detected by the touch screen display may be limited. An object of the present invention is to provide an apparatus, a method, and a program capable of executing various processes in accordance with operations detected by a touch screen display.

本発明に係る装置は、1つの態様において、ジェスチャを検出するタッチスクリーンディスプレイと、傾きを検出する姿勢検出部と、前記姿勢検出部によって検出される傾きに応じて、前記タッチスクリーンディスプレイによって検出されるジェスチャに対応して実行する処理を切り替えるコントローラと、を備える。   In one aspect, an apparatus according to the present invention is detected by the touch screen display according to a touch screen display that detects a gesture, a posture detection unit that detects a tilt, and a tilt detected by the posture detection unit. And a controller that switches processing to be executed in response to the gesture.

本発明に係る方法は、1つの態様において、タッチスクリーンディスプレイ及び姿勢検出部を備える装置を制御する方法であって、前記タッチスクリーンディスプレイによってジェスチャを検出するステップと、前記姿勢検出部によって傾きを検出するステップと、前記姿勢検出部によって検出される傾きに応じて、前記タッチスクリーンディスプレイによって検出されるジェスチャに対応して実行する処理を切り替えるステップと、を含む。   In one aspect, the method according to the present invention is a method for controlling an apparatus including a touch screen display and a posture detection unit, the step of detecting a gesture by the touch screen display, and the tilt detection by the posture detection unit. And a step of switching processing to be executed corresponding to the gesture detected by the touch screen display in accordance with the inclination detected by the posture detection unit.

本発明に係るプログラムは、1つの態様において、タッチスクリーンディスプレイ及び姿勢検出部を備える装置に、前記タッチスクリーンディスプレイによってジェスチャを検出するステップと、前記姿勢検出部によって傾きを検出するステップと、前記姿勢検出部によって検出される傾きに応じて、前記タッチスクリーンディスプレイによって検出されるジェスチャに対応して実行する処理を切り替えるステップと、を実行させる。   In one aspect, a program according to the present invention includes, in an apparatus including a touch screen display and an attitude detection unit, a step of detecting a gesture by the touch screen display, a step of detecting an inclination by the attitude detection unit, and the attitude And switching a process to be executed in response to a gesture detected by the touch screen display according to the inclination detected by the detection unit.

図1は、実施形態に係るスマートフォンの外観を示す斜視図である。FIG. 1 is a perspective view illustrating an appearance of a smartphone according to the embodiment. 図2は、実施形態に係るスマートフォンの外観を示す正面図である。FIG. 2 is a front view illustrating an appearance of the smartphone according to the embodiment. 図3は、実施形態に係るスマートフォンの外観を示す背面図である。FIG. 3 is a rear view illustrating an appearance of the smartphone according to the embodiment. 図4は、ホーム画面の一例を示す図である。FIG. 4 is a diagram illustrating an example of the home screen. 図5は、実施形態に係るスマートフォンの機能を示すブロック図である。FIG. 5 is a block diagram illustrating functions of the smartphone according to the embodiment. 図6は、スマートフォンを傾けずに持って操作する場合のスマートフォンの動作の例を示す図である。FIG. 6 is a diagram illustrating an example of the operation of the smartphone when the smartphone is operated without being tilted. 図7は、スマートフォンを傾けて持って操作する場合のスマートフォンの動作の例を示す図である。FIG. 7 is a diagram illustrating an example of the operation of the smartphone when the smartphone is operated while being tilted. 図8は、スマートフォンの傾きの方向に応じて処理を切り替える例を示す図である。FIG. 8 is a diagram illustrating an example of switching processing according to the direction of the inclination of the smartphone. 図9は、スマートフォンの傾きに応じた処理の切り替えを利用者に通知する例を示す図である。FIG. 9 is a diagram illustrating an example of notifying the user of processing switching according to the inclination of the smartphone. 図10は、地図画面以外の画面を表示しているときにスマートフォンの傾きに応じて処理を切り替える例を示す図である。FIG. 10 is a diagram illustrating an example of switching processing according to the inclination of the smartphone when a screen other than the map screen is displayed. 図11は、スマートフォンの傾きの大きさの段階に応じて処理を切り替える例を示す図である。FIG. 11 is a diagram illustrating an example in which processing is switched in accordance with the level of the inclination of the smartphone. 図12は、検出されるジェスチャに対応して実行する処理を傾きに応じて切り替える制御を示すフローチャートである。FIG. 12 is a flowchart illustrating control for switching processing to be executed corresponding to the detected gesture in accordance with the inclination. 図13は、傾きが解消された後も処理が切り替わったままにする例を示す図である。FIG. 13 is a diagram illustrating an example in which the process remains switched even after the inclination is eliminated. 図14は、傾きが解消された後も操作が継続される場合の動作の例を示す図である。FIG. 14 is a diagram illustrating an example of the operation in the case where the operation is continued even after the inclination is eliminated.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンディスプレイを備える装置の一例として、スマートフォンについて説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an apparatus provided with a touch screen display.

(実施形態)
図1から図3を参照しながら、実施形態に係るスマートフォン1の外観について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
(Embodiment)
The external appearance of the smartphone 1 according to the embodiment will be described with reference to FIGS. 1 to 3. As shown in FIGS. 1 to 3, the smartphone 1 has a housing 20. The housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4. The front face 1 </ b> A is the front of the housing 20. The back face 1 </ b> B is the back surface of the housing 20. The side faces 1C1 to 1C4 are side surfaces that connect the front face 1A and the back face 1B. Hereinafter, the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.

スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、カメラ13をバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。   The smartphone 1 includes a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A. The smartphone 1 has a camera 13 on the back face 1B. The smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C. Hereinafter, the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro−Luminescence panel)、又は無機ELパネル(Inorganic Electro−Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字及び図形等を表示する。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2A includes a display device such as a liquid crystal display (Liquid Crystal Display), an organic EL panel (Organic Electro-Luminescence panel), or an inorganic EL panel (Inorganic Electro-Luminescence panel). The display 2A displays characters and graphics.

タッチスクリーン2Bは、タッチスクリーンディスプレイ2に対する指、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、又はスタイラスペン等がタッチスクリーンディスプレイ2に接触した位置を検出することができる。   The touch screen 2B detects contact of a finger, a stylus pen, or the like with respect to the touch screen display 2. The touch screen 2B can detect a position where a plurality of fingers, a stylus pen, or the like is in contact with the touch screen display 2.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bがタッチスクリーンディスプレイ2に対する接触を検出する指、又はスタイラスペン等を単に「指」ということがある。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. Hereinafter, for the sake of simplicity of explanation, a finger that the touch screen 2B detects contact with the touch screen display 2 or a stylus pen or the like may be simply referred to as a “finger”.

スマートフォン1は、タッチスクリーン2Bにより検出された接触及び接触が行われた位置に基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーンディスプレイ2に対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。   The smartphone 1 determines the type of gesture based on the contact detected by the touch screen 2B and the position where the contact is made. The gesture is an operation performed on the touch screen display 2. The gesture discriminated by the smartphone 1 includes touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, pinch out, and the like.

タッチは、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。ロングタッチとは、タッチスクリーン2Bに指が一定時間以上触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間以上接触するジェスチャをロングタッチとして判別する。   The touch is a gesture in which a finger touches the touch screen 2B. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B as a touch. The long touch is a gesture in which a finger touches the touch screen 2B for a predetermined time or more. The smartphone 1 determines a gesture in which a finger is in contact with the touch screen 2B for a predetermined time or more as a long touch.

リリースは、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。スワイプは、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャをスワイプとして判別する。   Release is a gesture in which a finger leaves the touch screen 2B. The smartphone 1 determines that a gesture in which a finger leaves the touch screen 2B is a release. The swipe is a gesture that moves while the finger is in contact with the touch screen display 2. The smartphone 1 determines a gesture that moves while the finger is in contact with the touch screen display 2 as a swipe.

タップは、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。ダブルタップは、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。   A tap is a gesture for releasing following a touch. The smartphone 1 determines a gesture for releasing following a touch as a tap. The double tap is a gesture in which a gesture for releasing following a touch is continued twice. The smartphone 1 determines a gesture in which a gesture for releasing following a touch is continued twice as a double tap.

ロングタップは、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。ドラッグは、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。   A long tap is a gesture for releasing following a long touch. The smartphone 1 determines a gesture for releasing following a long touch as a long tap. The drag is a gesture for performing a swipe from an area where a movable object is displayed. The smartphone 1 determines, as a drag, a gesture for performing a swipe starting from an area where a movable object is displayed.

フリックは、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャをフリックとして判別する。フリックは、指が画面の上方向へ移動する上フリック、指が画面の下方向へ移動する下フリック、指が画面の右方向へ移動する右フリック、指が画面の左方向へ移動する左フリック等を含む。   The flick is a gesture that is released while the finger moves at high speed in one direction following the touch. The smartphone 1 determines, as a flick, a gesture that is released while the finger moves in one direction at high speed following the touch. Flick: Up flick that moves your finger up the screen, Down flick that moves your finger down the screen, Right flick that moves your finger right in the screen, Left flick that moves your finger left in the screen Etc.

ピンチインは、複数の指が近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が近付く方向にスワイプするジェスチャをピンチインとして判別する。ピンチアウトは、複数の指が遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。   Pinch-in is a gesture that swipes in the direction in which a plurality of fingers approach. The smartphone 1 determines, as a pinch-in, a gesture that swipes in a direction in which a plurality of fingers approach. The pinch-out is a gesture that swipes in a direction in which a plurality of fingers move away. The smartphone 1 determines a gesture of swiping in a direction in which a plurality of fingers move away as a pinch out.

スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。したがって、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、タッチスクリーンディスプレイ2に表示されている画面に応じて異なる。   The smartphone 1 operates according to these gestures that are determined via the touch screen 2B. Therefore, operability that is intuitive and easy to use for the user is realized. The operation performed by the smartphone 1 according to the determined gesture differs depending on the screen displayed on the touch screen display 2.

図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションは、ホーム画面とは異なる画面をディスプレイ2Aに表示させる。   An example of a screen displayed on the display 2A will be described with reference to FIG. FIG. 4 shows an example of the home screen. The home screen may be called a desktop or a standby screen. The home screen is displayed on the display 2A. The home screen is a screen that allows the user to select which application to execute from among the applications installed in the smartphone 1. The smartphone 1 executes the application selected on the home screen in the foreground. The application executed in the foreground displays a screen different from the home screen on the display 2A.

スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされている特定のアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対する特定のジェスチャ(例えば、タップ)を検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップが検出されると、メールアプリケーションを実行する。   The smartphone 1 can place an icon on the home screen. A plurality of icons 50 are arranged on the home screen 40 shown in FIG. Each icon 50 is associated with a specific application installed in the smartphone 1 in advance. When the smartphone 1 detects a specific gesture (for example, a tap) for the icon 50, the smartphone 1 executes an application associated with the icon 50. For example, the smartphone 1 executes the mail application when a tap on the icon 50 associated with the mail application is detected.

アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、所定の規則に従って配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。画像は、例えば、利用者の設定に従って壁紙として決定される。   The icon 50 includes an image and a character string. The icon 50 may include a symbol or a graphic instead of the image. The icon 50 may not include either an image or a character string. The icons 50 are arranged according to a predetermined rule. A wallpaper 41 is displayed behind the icon 50. The wallpaper is sometimes called a photo screen or a back screen. The smartphone 1 can use any image as the wallpaper 41. The image is determined as wallpaper, for example, according to user settings.

スマートフォン1は、ホーム画面の数を増減することができる。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面を表示する場合、ホーム画面の数が複数であっても、それらのうちから選択された1つをディスプレイ2Aに表示する。   The smartphone 1 can increase or decrease the number of home screens. For example, the smartphone 1 determines the number of home screens according to the setting by the user. When the smartphone 1 displays the home screen, even if there are a plurality of home screens, the smartphone 1 displays one selected from them on the display 2A.

スマートフォン1は、ホーム画面上に、1つ又は複数のロケータを表示する。ロケータの数は、ホーム画面の数と一致する。ロケータは、現在表示されているホーム画面の位置を示す。現在表示されているホーム画面に対応するロケータは、他のロケータと異なる態様で表示される。   The smartphone 1 displays one or more locators on the home screen. The number of locators matches the number of home screens. The locator indicates the position of the currently displayed home screen. The locator corresponding to the currently displayed home screen is displayed in a manner different from other locators.

図4に示す例では、4つのロケータ51が表示されている。これは、ホーム画面40の数が4つであることを示す。また、図4に示す例では、左から2番目のシンボルが他のシンボルと異なる態様で表示されている。これは、左から2番目のホーム画面が現在表示されていることを示している。   In the example shown in FIG. 4, four locators 51 are displayed. This indicates that the number of home screens 40 is four. In the example shown in FIG. 4, the second symbol from the left is displayed in a manner different from other symbols. This indicates that the second home screen from the left is currently displayed.

スマートフォン1は、ホーム画面を表示中に特定のジェスチャを検出すると、ディスプレイ2Aに表示するホーム画面を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に切り替える。また、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に切り替える。   When the smartphone 1 detects a specific gesture while displaying the home screen, the smartphone 1 switches the home screen displayed on the display 2A. For example, when detecting a right flick, the smartphone 1 switches the home screen displayed on the display 2A to the left home screen. Further, when the smartphone 1 detects a left flick, the smartphone 1 switches the home screen displayed on the display 2A to the right home screen.

ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、現在時刻、天気の情報、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40以外の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限られない。   A region 42 is provided at the upper end of the display 2A. In the area 42, a remaining amount mark 43 indicating the remaining amount of the rechargeable battery and a radio wave level mark 44 indicating the electric field strength of the communication radio wave are displayed. The smartphone 1 may display the current time, weather information, the application being executed, the type of the communication system, the status of the phone, the mode of the device, the event that has occurred in the device, and the like in the area 42. As described above, the area 42 is used for various notifications to the user. The area 42 may be provided on a screen other than the home screen 40. The position where the region 42 is provided is not limited to the upper end of the display 2A.

なお、図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。   Note that the home screen 40 shown in FIG. 4 is an example, and the form of various elements, the arrangement of various elements, the number of home screens 40, the manner of various operations on the home screen 40, and the like are described above. It does not have to be street.

図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。   FIG. 5 is a block diagram illustrating the configuration of the smartphone 1. The smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, and cameras 12 and 13. , Connector 14, acceleration sensor 15, direction sensor 16, and gyroscope 17.

タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、ジェスチャを検出する。   As described above, the touch screen display 2 includes the display 2A and the touch screen 2B. The display 2A displays characters, images, symbols, graphics, or the like. The touch screen 2B detects a gesture.

ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタンに対する操作を検出する。ボタンに対する操作は、例えば、クリック、ダブルクリック、プッシュ、及びマルチプッシュである。   The button 3 is operated by the user. The button 3 includes buttons 3A to 3F. The controller 10 detects an operation on the button by cooperating with the button 3. The operation on the button is, for example, click, double click, push, and multi-push.

例えば、ボタン3A〜3Cは、ホームボタン、バックボタンまたはメニューボタンである。例えば、ボタン3Dは、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。例えば、ボタン3E及び3Fは、音量ボタンである。   For example, the buttons 3A to 3C are a home button, a back button, or a menu button. For example, the button 3D is a power on / off button of the smartphone 1. The button 3D may also serve as a sleep / sleep release button. For example, the buttons 3E and 3F are volume buttons.

照度センサ4は、照度を検出する。例えば、照度とは、光の強さ、明るさ、輝度等である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。   The illuminance sensor 4 detects illuminance. For example, the illuminance is light intensity, brightness, luminance, or the like. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example. The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example.

通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3G、4G等のセルラーフォンの通信規格がある。例えば、セルラーフォンの通信規格として、LTE(Long Term Evolution)、W−CDMA、CDMA2000、PDC、GSM(登録商標)、PHS(Personal Handy−phone System)等がある。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA、NFC等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method performed by the communication unit 6 is a wireless communication standard. For example, wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. Examples of cellular phone communication standards include LTE (Long Term Evolution), W-CDMA, CDMA2000, PDC, GSM (registered trademark), PHS (Personal Handy-phone System), and the like. Examples of wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA, NFC, and the like. The communication unit 6 may support one or more of the communication standards described above.

レシーバ7は、コントローラ10から送信される音声信号を音声として出力する。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。なお、スマートフォン1は、レシーバ7に加えて、または、レシーバ7に代えて、スピーカをさらに有してもよい。   The receiver 7 outputs the audio signal transmitted from the controller 10 as audio. The microphone 8 converts the voice of the user or the like into a voice signal and transmits it to the controller 10. The smartphone 1 may further include a speaker in addition to the receiver 7 or instead of the receiver 7.

ストレージ9は、プログラム及びデータを記憶する。また、ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。また、ストレージ9は、複数の種類の記憶デバイスを含んでよい。また、ストレージ9は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any storage device such as a semiconductor storage device and a magnetic storage device. The storage 9 may include a plurality of types of storage devices. The storage 9 may include a combination of a portable storage medium such as a memory card and a storage medium reading device.

ストレージ9に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに所定の画面を表示させ、タッチスクリーン2Bによって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a predetermined screen on the display 2A, and causes the controller 10 to execute processing according to the gesture detected by the touch screen 2B. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a storage medium.

ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、地図アプリケーション9D、設定データ9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。地図アプリケーション9Dは、地図を表示するための機能を提供する。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。   The storage 9 stores, for example, a control program 9A, a mail application 9B, a browser application 9C, a map application 9D, and setting data 9Z. The mail application 9B provides an electronic mail function for creating, transmitting, receiving, and displaying an electronic mail. The browser application 9C provides a WEB browsing function for displaying a WEB page. The map application 9D provides a function for displaying a map. The setting data 9Z includes information related to various settings related to the operation of the smartphone 1.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、加速度センサ15等によって検出された姿勢の変化、及びタッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。なお、制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the smartphone 1. The control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example. The functions provided by the control program 9A include changing the information displayed on the display 2A according to the change in posture detected by the acceleration sensor 15 and the gesture detected via the touch screen 2B. A function to perform various controls is included. Note that the functions provided by the control program 9A may be used in combination with functions provided by other programs such as the mail application 9B.

コントローラ10は、例えば、CPU(Central Processing Unit)である。コントローラ10は、通信ユニット6等の他の構成要素が統合されたSoC(System−on−a−chip)等の集積回路であってもよい。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is, for example, a CPU (Central Processing Unit). The controller 10 may be an integrated circuit such as a SoC (System-on-a-chip) in which other components such as the communication unit 6 are integrated. The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行して、ディスプレイ2A及び通信ユニット6等を制御することによって各種機能を実現する。コントローラ10は、タッチスクリーン2B、ボタン3、加速度センサ15等の各種検出部の検出結果に応じて、制御を変更することもある。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary, and the display 2A, the communication unit 6 and the like. Various functions are realized by controlling. The controller 10 may change the control according to detection results of various detection units such as the touch screen 2B, the button 3, and the acceleration sensor 15.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、加速度センサ15等によって検出された姿勢の変化、及びタッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。   For example, the controller 10 executes the control program 9A to thereby display information displayed on the display 2A in accordance with a change in posture detected by the acceleration sensor 15 or the like and a gesture detected via the touch screen 2B. Various controls such as changing the control are executed.

カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。   The camera 12 is an in-camera that captures an object facing the front face 1A. The camera 13 is an out camera that captures an object facing the back face 1B.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト)、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用に設計された端子でもよい。コネクタ14に接続される装置には、例えば、外部ストレージ、スピーカ、通信装置が含まれる。   The connector 14 is a terminal to which another device is connected. The connector 14 may be a general-purpose terminal such as a universal serial bus (USB), a high-definition multimedia interface (HDMI), a light peak (thunderbolt), and an earphone microphone connector. The connector 14 may be a dedicated terminal such as a dock connector. Devices connected to the connector 14 include, for example, an external storage, a speaker, and a communication device.

加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の回転を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。以下の説明では、スマートフォン1の姿勢を検出するための検出部を姿勢検出部18と呼ぶことがある。姿勢検出部18は、加速度センサ15、方位センサ16、及びジャイロスコープ17の少なくとも1つを含むが、他のセンサをさらに含んでもよい。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. The direction sensor 16 detects the direction of geomagnetism. The gyroscope 17 detects the rotation of the smartphone 1. The detection results of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17 are used in combination in order to detect changes in the position and orientation of the smartphone 1. In the following description, the detection unit for detecting the posture of the smartphone 1 may be referred to as the posture detection unit 18. The posture detection unit 18 includes at least one of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17, but may further include other sensors.

なお、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。また、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な記憶媒体に記憶されていてもよい。また、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能なCD、DVD、又はBlu−ray等の記憶媒体に記憶されていてもよい。   5 may be downloaded from another apparatus by wireless communication by the communication unit 6. 5 may be stored in a storage medium that can be read by a reading device included in the storage 9. 5 is stored in a storage medium such as a CD, DVD, or Blu-ray that can be read by a reader connected to the connector 14. Also good.

また、図5に示したスマートフォン1の構成は一例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。例えば、スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。また、スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。また、図5に示した例では、スマートフォン1が2つのカメラを備えることとしたが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。また、図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えることとしたが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよいし、位置及び姿勢を検出するための他の種類のセンサを備えてもよい。   Moreover, the structure of the smart phone 1 shown in FIG. 5 is an example, and you may change suitably in the range which does not impair the summary of this invention. For example, the number and type of buttons 3 are not limited to the example of FIG. For example, the smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout instead of the buttons 3A to 3C as buttons for operations related to the screen. Further, the smartphone 1 may include only one button or may not include a button for operations related to the screen. Further, in the example illustrated in FIG. 5, the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera. Moreover, in the example shown in FIG. 5, although the smart phone 1 was provided with three types of sensors in order to detect a position and an attitude | position, the smart phone 1 does not need to be provided with some sensors among these, Other types of sensors for detecting position and orientation may be provided.

図6および図7を参照しながら、タッチスクリーン2B及び姿勢検出部18の検出結果に基づくスマートフォン1の動作の例について説明する。図6は、スマートフォン1を傾けずに持って操作する場合のスマートフォン1の動作の例を示す図である。図6に示すステップSA1では、利用者は、スマートフォン1を傾けずに片手で持っている。「傾けずに」とは、ディスプレイ2Aに表示されている画面の上下方向が重力の方向とほぼ一致していることを意味する。スマートフォン1が傾いていると判定するための閾値は任意に設定可能であり、例えば、画面の上下方向と重力の方向の角度が20度乃至それより大きい場合でも、スマートフォン1が傾けずに持たれていると判定してよい。   An example of the operation of the smartphone 1 based on the detection results of the touch screen 2B and the posture detection unit 18 will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram illustrating an example of the operation of the smartphone 1 when the smartphone 1 is operated without being tilted. In step SA1 shown in FIG. 6, the user holds the smartphone 1 with one hand without tilting. “Do not tilt” means that the vertical direction of the screen displayed on the display 2 </ b> A substantially matches the direction of gravity. The threshold value for determining that the smartphone 1 is tilted can be arbitrarily set. For example, even when the angle between the vertical direction of the screen and the direction of gravity is 20 degrees or larger, the smartphone 1 is held without being tilted. It may be determined that

ステップSA1では、地図画面61がディスプレイ2Aに表示されている。地図画面61は、コントローラ10が地図アプリケーション9Dを実行することによって、ディスプレイ2Aに表示される。この状態で、利用者が、スマートフォン1を持っている手の指F1を使ってタッチスクリーン2Bに対して左方向へのスワイプを行ったものとする。スマートフォン1は、傾けずに持たれているときに左方向へのスワイプを検出すると、ステップSA2に示すように、指F1の動きに合わせて、地図画面61を左方向へスクロールさせる。そして、スマートフォン1は、指F1がタッチスクリーン2Bから離れたことを検出すると、ステップSA3に示すように、スクロールを止める。   In step SA1, the map screen 61 is displayed on the display 2A. The map screen 61 is displayed on the display 2A when the controller 10 executes the map application 9D. In this state, it is assumed that the user swipes leftward with respect to the touch screen 2B using the finger F1 of the hand holding the smartphone 1. When the smartphone 1 detects a swipe in the left direction while being held without tilting, the map screen 61 is scrolled in the left direction in accordance with the movement of the finger F1, as shown in step SA2. Then, when detecting that the finger F1 is separated from the touch screen 2B, the smartphone 1 stops scrolling as shown in Step SA3.

一方、ステップSA1の状態で、利用者が、スマートフォン1を持っている手の指F1を使ってタッチスクリーン2Bに対して右方向へのスワイプを行ったものとする。スマートフォン1は、傾けずに持たれているときに右方向へのスワイプを検出すると、ステップSA4に示すように、指F1の動きに合わせて、地図画面61を右方向へスクロールさせる。そして、スマートフォン1は、指F1がタッチスクリーン2Bから離れたことを検出すると、ステップSA5に示すように、スクロールを止める。   On the other hand, it is assumed that the user swipes the touch screen 2B in the right direction using the finger F1 of the hand holding the smartphone 1 in the state of step SA1. When the smartphone 1 detects a swipe in the right direction while being held without tilting, the smartphone 1 scrolls the map screen 61 in the right direction in accordance with the movement of the finger F1, as shown in step SA4. Then, when detecting that the finger F1 is separated from the touch screen 2B, the smartphone 1 stops scrolling as shown in Step SA5.

このように、スマートフォン1は、地図画面61を表示中に左右方向へのスワイプを検出すると、傾けずに持たれている場合には、指の動きに合わせて地図画面61をスクロールさせる。   As described above, when the smartphone 1 detects a swipe in the left-right direction while displaying the map screen 61, the smartphone 1 scrolls the map screen 61 in accordance with the movement of the finger when the smartphone 1 is held without being tilted.

図7は、スマートフォン1を傾けて持って操作する場合のスマートフォン1の動作の例を示す図である。図7に示すステップSB1では、利用者は、スマートフォン1を傾けずに片手で持っている。ステップSB1では、地図画面61がディスプレイ2Aに表示されている。   FIG. 7 is a diagram illustrating an example of the operation of the smartphone 1 when the smartphone 1 is operated while being tilted. In step SB1 shown in FIG. 7, the user holds the smartphone 1 with one hand without tilting. In step SB1, the map screen 61 is displayed on the display 2A.

この状態から、利用者が、スマートフォン1を左に(反時計回りに)傾け、スマートフォン1を持っている手の指F1を使ってタッチスクリーン2Bに対して左方向へのスワイプを行ったものとする。このとき、スマートフォン1は、姿勢検出部18を用いて自身の傾きを検出する。スマートフォン1の傾きは、例えば、ディスプレイ2Aに表示されている画面の下端のうち、左下端及び右下端のいずれが、重力方向において他方よりも下に位置するかで判断される。スマートフォン1の傾きの大きさは、ディスプレイ2Aに表示されている画面の左右方向D2と水平面の方向D1とがなす角度R1に相当する。スマートフォン1は、傾きが閾値より大きいときに左方向へのスワイプを検出すると、ステップSB2に示すように、指F1の動きに合わせて、地図画面61を拡大させる。そして、スマートフォン1は、指F1がタッチスクリーン2Bから離れたことを検出すると、ステップSB3に示すように、拡大を止める。   From this state, the user tilts the smartphone 1 to the left (counterclockwise) and swipes the touch screen 2B to the left using the finger F1 of the hand holding the smartphone 1. To do. At this time, the smartphone 1 detects its own inclination using the posture detection unit 18. The inclination of the smartphone 1 is determined based on, for example, which of the lower left end and the lower right end of the screen displayed on the display 2A is located below the other in the gravity direction. The magnitude of the inclination of the smartphone 1 corresponds to the angle R1 formed by the left-right direction D2 of the screen displayed on the display 2A and the horizontal plane direction D1. When the smartphone 1 detects a leftward swipe when the inclination is larger than the threshold, the smartphone 1 enlarges the map screen 61 in accordance with the movement of the finger F1 as shown in step SB2. And if the smart phone 1 detects that the finger | toe F1 left | separated from the touch screen 2B, as shown to step SB3, it will stop expansion.

一方、ステップSB1の状態から、利用者が、スマートフォン1を左に傾け、スマートフォン1を持っている手の指F1を使ってタッチスクリーン2Bに対して右方向へのスワイプを行ったものとする。スマートフォン1は、傾きが閾値より大きいときに右方向へのスワイプを検出すると、ステップSB4に示すように、指F1の動きに合わせて、地図画面61を縮小させる。そして、スマートフォン1は、指F1がタッチスクリーン2Bから離れたことを検出すると、ステップSB5に示すように、縮小を止める。   On the other hand, it is assumed that, from the state of step SB1, the user tilts the smartphone 1 to the left and performs a right swipe on the touch screen 2B using the finger F1 of the hand holding the smartphone 1. When the smartphone 1 detects a swipe in the right direction when the inclination is larger than the threshold value, the map screen 61 is reduced in accordance with the movement of the finger F1 as shown in step SB4. Then, when detecting that the finger F1 is separated from the touch screen 2B, the smartphone 1 stops the reduction as shown in step SB5.

このように、スマートフォン1は、地図画面61を表示中に左右方向へのスワイプを検出すると、傾けて持たれている場合には、指の動きに合わせて地図画面61を拡大または縮小させる。   As described above, when the smartphone 1 detects a swipe in the left-right direction while displaying the map screen 61, the smartphone 1 enlarges or reduces the map screen 61 according to the movement of the finger when the smartphone 1 is tilted.

図6及び図7の例に示したように、スマートフォン1は、傾きの大きさに応じて、タッチスクリーン2Bによって検出されるジェスチャに対応して実行する処理を切り替える。このため、スマートフォン1は、タッチスクリーン2Bによって検出される各ジェスチャに複数の処理を割り当てることができる。このことは、利用者が、タッチスクリーン2Bに対する操作に応じて多様な処理を実行することを可能にする。   As illustrated in the examples of FIGS. 6 and 7, the smartphone 1 switches processing to be executed corresponding to the gesture detected by the touch screen 2 </ b> B according to the magnitude of the tilt. For this reason, the smartphone 1 can assign a plurality of processes to each gesture detected by the touch screen 2B. This enables the user to execute various processes according to operations on the touch screen 2B.

図6および図7に示したように、スマートフォン1を持っている手の指で操作を行う場合、複数の指を用いるマルチタッチ等の複雑なジェスチャを行うのは困難であるため、利用者がタッチスクリーン2Bに対して行える操作は限られる。しかし、このような状況においても、スマートフォン1を傾けることは容易である。このため、タッチスクリーン2Bが検出するジェスチャに対応して実行する処理をスマートフォン1の傾きに応じて切り替えることは、少ない種類のジェスチャしか行えない状況でも、多くの種類の処理を実行することを可能にする。   As shown in FIG. 6 and FIG. 7, when an operation is performed with fingers of a hand holding the smartphone 1, it is difficult to perform a complicated gesture such as multi-touch using a plurality of fingers. Operations that can be performed on the touch screen 2B are limited. However, it is easy to tilt the smartphone 1 even in such a situation. For this reason, it is possible to execute many types of processing even in a situation where only a few types of gestures can be performed by switching the processing to be executed according to the gesture detected by the touch screen 2B according to the inclination of the smartphone 1. To.

図6および図7では、地図画面61において実行される処理をスマートフォン1の傾きに応じて切り替える例を示したが、傾きに応じて実行される処理が切り替わる画面は、地図画面61に限定されない。図6および図7では、スマートフォン1の傾きに応じて、画面のスクロールと拡大/縮小とで処理が切り替わる例を示したが、傾きに応じて切り替わる処理はこれらに限定されない。   6 and 7 show an example in which the process executed on the map screen 61 is switched according to the inclination of the smartphone 1, the screen on which the process executed according to the inclination is switched is not limited to the map screen 61. 6 and 7 show an example in which processing is switched between screen scrolling and enlargement / reduction according to the tilt of the smartphone 1, but the processing that switches according to the tilt is not limited thereto.

図6および図7では、スマートフォン1の傾きに応じてスワイプに対応する処理が切り替わる例を示したが、傾きに応じて処理が切り替わるジェスチャはこれに限定されない。図6および図7では、スマートフォン1が左に傾いた場合に処理が切り替わる例を示したが、処理の切り替えを引き起こす要因はこれに限定されない。例えば、スマートフォン1は、傾きの方向に応じて実行する処理を切り替えてもよいし、傾きの大きさの段階に応じて実行される処理が切り替わってもよい。   6 and 7 show an example in which the process corresponding to the swipe is switched in accordance with the inclination of the smartphone 1, but the gesture in which the process is switched in accordance with the inclination is not limited to this. Although FIG. 6 and FIG. 7 showed the example which a process switches when the smart phone 1 inclines to the left, the factor which causes the switch of a process is not limited to this. For example, the smartphone 1 may switch the process to be executed according to the direction of the inclination, or may switch the process to be executed according to the level of the inclination.

図8から図11を参照しながら、タッチスクリーン2Bが検出するジェスチャに対応して実行する処理をスマートフォン1の傾きに応じて切り替える変形例について説明する。図8は、スマートフォン1の傾きの方向に応じて処理を切り替える例を示す図である。図8に示すステップSC1では、利用者は、スマートフォン1を傾けずに片手で持っている。ステップSC1では、地図画面61がディスプレイ2Aに表示されている。   With reference to FIGS. 8 to 11, a modified example in which processing to be executed in response to a gesture detected by the touch screen 2 </ b> B is switched according to the inclination of the smartphone 1 will be described. FIG. 8 is a diagram illustrating an example of switching processing according to the direction of the inclination of the smartphone 1. In step SC1 shown in FIG. 8, the user holds the smartphone 1 with one hand without tilting. In step SC1, the map screen 61 is displayed on the display 2A.

この状態から、利用者が、スマートフォン1を左に傾け、スマートフォン1を持っている手の指F1を使ってタッチスクリーン2Bに対して、ある方向へのスワイプを行ったものとする。このとき、スマートフォン1は、姿勢検出部18を用いて自身の傾きを検出する。スマートフォン1は、左への傾きが閾値より大きいときにスワイプを検出すると、ステップSC2に示すように、指F1の動きに合わせて、地図画面61を拡大させる。そして、スマートフォン1は、指F1がタッチスクリーン2Bから離れたことを検出すると、ステップSC3に示すように、拡大を止める。   From this state, it is assumed that the user swipes the smartphone 1 to the left and swipes the touch screen 2B in a certain direction using the finger F1 of the hand holding the smartphone 1. At this time, the smartphone 1 detects its own inclination using the posture detection unit 18. When the smartphone 1 detects a swipe when the inclination to the left is larger than the threshold value, the map screen 61 is enlarged in accordance with the movement of the finger F1, as shown in step SC2. Then, when detecting that the finger F1 is separated from the touch screen 2B, the smartphone 1 stops the enlargement as shown in step SC3.

一方、ステップSC1の状態から、利用者が、スマートフォン1を右に(時計回りに)傾け、スマートフォン1を持っている手の指F1を使ってタッチスクリーン2Bに対して、ある方向へのスワイプを行ったものとする。スマートフォン1は、右への傾きが閾値より大きいときにスワイプを検出すると、ステップSC4に示すように、指F1の動きに合わせて、地図画面61を縮小させる。そして、スマートフォン1は、指F1がタッチスクリーン2Bから離れたことを検出すると、ステップSC5に示すように、縮小を止める。   On the other hand, from the state of step SC1, the user tilts the smartphone 1 to the right (clockwise) and swipes the touch screen 2B in a certain direction using the finger F1 of the hand holding the smartphone 1. Suppose you have If the smartphone 1 detects a swipe when the inclination to the right is larger than the threshold value, the map screen 61 is reduced in accordance with the movement of the finger F1, as shown in step SC4. Then, when detecting that the finger F1 has moved away from the touch screen 2B, the smartphone 1 stops the reduction as shown in step SC5.

このように、スマートフォン1は、タッチスクリーン2Bが検出するジェスチャに対応して実行する処理をスマートフォン1の傾きの方向に応じて変更してもよい。図8では、左右方向への傾きに応じて処理を切り替える例を示したが、スマートフォン1は、他の方向への傾きに応じて処理を切り替えてもよい。例えば、スマートフォン1は、ディスプレイ2Aがやや下を向くように前方に傾けられた場合に、ジェスチャに対応して実行する処理を切り替えてもよい。例えば、スマートフォン1は、ディスプレイ2Aがやや上を向くように後方に傾けられた場合に、ジェスチャに対応して実行する処理を切り替えてもよい。   As described above, the smartphone 1 may change the process to be executed in response to the gesture detected by the touch screen 2 </ b> B according to the tilt direction of the smartphone 1. Although the example which switches a process according to the inclination to the left-right direction was shown in FIG. 8, the smart phone 1 may switch a process according to the inclination to another direction. For example, when the display 2 </ b> A is tilted forward so that the display 2 </ b> A faces slightly downward, the smartphone 1 may switch the process to be executed in response to the gesture. For example, when the display 2 </ b> A is tilted backward so that the display 2 </ b> A faces slightly upward, the smartphone 1 may switch the process to be executed in response to the gesture.

図9は、スマートフォン1の傾きに応じた処理の切り替えを利用者に通知する例を示す図である。図9に示すステップSD1では、利用者は、スマートフォン1を傾けずに片手で持っている。ステップSD1では、地図画面61がディスプレイ2Aに表示されている。ステップSD1では、さらに標識62がディスプレイ2Aに表示されている。標識62は、スワイプが行われた場合に地図画面61がスクロールすることを示している。   FIG. 9 is a diagram illustrating an example of notifying the user of processing switching according to the inclination of the smartphone 1. In step SD1 shown in FIG. 9, the user holds the smartphone 1 with one hand without tilting. In step SD1, the map screen 61 is displayed on the display 2A. In step SD1, a sign 62 is further displayed on the display 2A. The sign 62 indicates that the map screen 61 is scrolled when a swipe is performed.

この状態で、利用者が、スマートフォン1を持っている手の指F1を使ってタッチスクリーン2Bに対して左方向へのスワイプを行ったものとする。スマートフォン1は、傾けずに持たれているときに左方向へのスワイプを検出すると、ステップSD2に示すように、指F1の動きに合わせて、地図画面61を左方向へスクロールさせる。そして、スマートフォン1は、指F1がタッチスクリーン2Bから離れたことを検出すると、ステップSD3に示すように、スクロールを止める。この間、標識62は、継続してディスプレイ2Aに表示される。   In this state, it is assumed that the user swipes leftward with respect to the touch screen 2B using the finger F1 of the hand holding the smartphone 1. When the smartphone 1 detects a swipe in the left direction when it is held without being tilted, the map screen 61 is scrolled in the left direction in accordance with the movement of the finger F1, as shown in step SD2. And if the smart phone 1 detects that the finger | toe F1 left | separated from the touch screen 2B, as shown to step SD3, a scroll will be stopped. During this time, the sign 62 is continuously displayed on the display 2A.

一方、ステップSD1の状態から、利用者が、スマートフォン1を左に傾けたものとする。このとき、スマートフォン1は、姿勢検出部18を用いて自身の傾きを検出する。検出された傾きが閾値よりも大きい場合、スマートフォン1は、ステップSD4に示すように、標識62に代えて、標識63をディスプレイ2Aに表示する。標識63は、左方向へのスワイプが行われた場合に地図画面61が拡大され、右方向へのスワイプが行われた場合に地図画面61が縮小されることを示している。   On the other hand, it is assumed that the user tilts the smartphone 1 to the left from the state of step SD1. At this time, the smartphone 1 detects its own inclination using the posture detection unit 18. When the detected inclination is larger than the threshold value, the smartphone 1 displays the sign 63 on the display 2A instead of the sign 62 as shown in step SD4. The sign 63 indicates that the map screen 61 is enlarged when the left swipe is performed, and the map screen 61 is contracted when the right swipe is performed.

傾きが閾値を超えた場合にディスプレイ2Aに表示する標識を変更することにより、利用者は、タッチスクリーン2Bが検出するジェスチャに対応して実行される処理が切り替わったことを容易に知ることができる。図9では、傾きに応じた処理の切り替えを、ディスプレイ2Aを用いて利用者に通知する例を示したが、通知の仕方はこれに限定されない。例えば、スマートフォン1は、音、振動、ランプの点灯等によって利用者に通知を行ってもよい。   By changing the sign displayed on the display 2A when the inclination exceeds the threshold, the user can easily know that the process executed in response to the gesture detected by the touch screen 2B has been switched. . Although FIG. 9 shows an example of notifying the user of the process switching according to the tilt using the display 2A, the notification method is not limited to this. For example, the smartphone 1 may notify the user by sound, vibration, lighting of a lamp, or the like.

標識63が表示されている間に、利用者が、スマートフォン1を持っている手の指F1を使ってタッチスクリーン2Bに対して左方向へのスワイプを行ったものとする。スマートフォン1は、標識63を表示しているとき、すなわち、傾きが閾値より大きいときに左方向へのスワイプを検出すると、ステップSD4に示すように、指F1の動きに合わせて、地図画面61を拡大させる。そして、スマートフォン1は、傾きが閾値よりも小さくなったことを検出すると、ステップSD5に示すように、標識63に代えて、標識62をディスプレイ2Aに表示する。   Assume that the user swipes the touch screen 2B in the left direction using the finger F1 of the hand holding the smartphone 1 while the sign 63 is displayed. When the smartphone 1 is displaying the sign 63, that is, when a leftward swipe is detected when the inclination is larger than the threshold value, the map screen 61 is displayed in accordance with the movement of the finger F1 as shown in step SD4. Enlarge. Then, when detecting that the inclination is smaller than the threshold, the smartphone 1 displays a sign 62 on the display 2A instead of the sign 63, as shown in step SD5.

図10は、地図画面以外の画面を表示しているときにスマートフォン1の傾きに応じて処理を切り替える例を示す図である。図10に示すステップSE1では、利用者は、スマートフォン1を傾けずに片手で持っている。ステップSE1では、ホーム画面40がディスプレイ2Aに表示されている。   FIG. 10 is a diagram illustrating an example of switching processing according to the inclination of the smartphone 1 when a screen other than the map screen is displayed. In step SE1 shown in FIG. 10, the user holds the smartphone 1 with one hand without tilting. In step SE1, the home screen 40 is displayed on the display 2A.

この状態で、ステップSE2に示すように、利用者が、スマートフォン1を持っている手の指F1を使って、ホーム画面40上に配置されているアイコン50aをタップしたものとする。スマートフォン1は、傾けずに持たれているときにアイコン50aへのタップを検出すると、アイコン50aに対応付けられているアプリケーションを実行する。アイコン50aはメールアプリケーション9Bに対応付けられているので、この場合、スマートフォン1は、メールアプリケーション9Bを実行する。そして、スマートフォン1は、ステップSE3に示すように、メールアプリケーション9Bによって提供される受信トレイ画面71をディスプレイ2Aに表示する。   In this state, it is assumed that the user taps the icon 50a arranged on the home screen 40 using the finger F1 of the hand holding the smartphone 1 as shown in step SE2. When the smartphone 1 detects a tap on the icon 50a when held without being tilted, the smartphone 1 executes an application associated with the icon 50a. Since the icon 50a is associated with the mail application 9B, in this case, the smartphone 1 executes the mail application 9B. Then, as shown in step SE3, the smartphone 1 displays the inbox screen 71 provided by the mail application 9B on the display 2A.

一方、ステップSE1の状態から、利用者が、スマートフォン1を左に傾けたものとする。このとき、スマートフォン1は、姿勢検出部18を用いて自身の傾きを検出する。検出された傾きが閾値よりも大きい場合、スマートフォン1は、ステップSE4に示すように、ホーム画面40を再構築モードへ移行させる。再構築モードは、ホーム画面40上に配置されたアイコン50の移動及び削除が可能になるモードである。再構築モードでは、アイコン50を削除するための削除ボタン52が各アイコン50に付加される。   On the other hand, it is assumed that the user tilts the smartphone 1 to the left from the state of step SE1. At this time, the smartphone 1 detects its own inclination using the posture detection unit 18. When the detected inclination is larger than the threshold value, the smartphone 1 shifts the home screen 40 to the reconstruction mode as shown in step SE4. The reconstruction mode is a mode in which the icon 50 arranged on the home screen 40 can be moved and deleted. In the reconstruction mode, a delete button 52 for deleting the icon 50 is added to each icon 50.

再構築モードにおいて、利用者が、スマートフォン1を持っている手の指F1を使ってアイコン50aに付加された削除ボタン52をタップしたものとする。スマートフォン1は、再構築モードへ移行しているとき、すなわち、傾きが閾値より大きいときに削除ボタン52へのタップを検出すると、タップされた削除ボタン52に対応するアイコン50aを削除する。このとき、スマートフォン1は、メールアプリケーション9Bをアンインストールしてもよい。そして、スマートフォン1は、傾きが閾値よりも小さくなったことを検出すると、ステップSE5に示すように、ホーム画面40の再構築モードを解除する。   In the reconstruction mode, it is assumed that the user has tapped the delete button 52 added to the icon 50a using the finger F1 of the hand holding the smartphone 1. When the smartphone 1 shifts to the reconstruction mode, that is, when the tap to the delete button 52 is detected when the inclination is larger than the threshold value, the icon 50a corresponding to the tapped delete button 52 is deleted. At this time, the smartphone 1 may uninstall the mail application 9B. And if the smart phone 1 detects that inclination became smaller than a threshold value, as shown to step SE5, it will cancel | release the reconstruction mode of the home screen 40. FIG.

図11は、スマートフォン1の傾きの大きさの段階に応じて処理を切り替える例を示す図である。図11に示すステップSF1では、利用者は、スマートフォン1を傾けずに片手で持っている。ステップSF1では、メール作成画面72がディスプレイ2Aに表示されている。ディスプレイ2Aの下部には、複数のボタンが配置された仮想キーボード81aが表示されている。スマートフォン1は、仮想キーボード81aに対するタップを検出すると、タップされたボタンに対応する小文字がメール作成画面72に入力されるように処理する。   FIG. 11 is a diagram illustrating an example in which processing is switched in accordance with the level of inclination of the smartphone 1. In step SF1 shown in FIG. 11, the user holds the smartphone 1 with one hand without tilting. In step SF1, a mail creation screen 72 is displayed on the display 2A. A virtual keyboard 81a on which a plurality of buttons are arranged is displayed at the bottom of the display 2A. When the smartphone 1 detects a tap on the virtual keyboard 81 a, the smartphone 1 performs processing so that a lowercase letter corresponding to the tapped button is input to the mail creation screen 72.

この状態から、ステップSF2に示すように、利用者が、スマートフォン1を左に傾けたものとする。このとき、スマートフォン1は、姿勢検出部18を用いて自身の傾きを検出する。スマートフォン1は、左への傾きが第1の閾値より大きい場合、ステップSF2に示すように、ディスプレイ2Aの下部に、仮想キーボード81aに代えて、複数のボタンが配置された仮想キーボード81bを表示する。スマートフォン1は、仮想キーボード81bに対するタップを検出すると、タップされたボタンに対応する大文字がメール作成画面72に入力されるように処理する。   From this state, it is assumed that the user tilts the smartphone 1 to the left as shown in step SF2. At this time, the smartphone 1 detects its own inclination using the posture detection unit 18. When the inclination to the left is larger than the first threshold, the smartphone 1 displays a virtual keyboard 81b in which a plurality of buttons are arranged instead of the virtual keyboard 81a at the lower part of the display 2A, as shown in step SF2. . When the smartphone 1 detects a tap on the virtual keyboard 81b, the smartphone 1 performs processing so that a capital letter corresponding to the tapped button is input to the mail creation screen 72.

この状態から、ステップSF3に示すように、利用者が、スマートフォン1をさらに左に傾けたものとする。スマートフォン1は、左への傾きが第2の閾値(第2の閾値>第1の閾値)より大きい場合、ステップSF3に示すように、ディスプレイ2Aの下部に、仮想キーボード81bに代えて、複数のボタンが配置された仮想キーボード81cを表示する。スマートフォン1は、仮想キーボード81cに対するタップを検出すると、タップされたボタンに対応する数字がメール作成画面72に入力されるように処理する。   From this state, it is assumed that the user further tilts the smartphone 1 to the left as shown in step SF3. If the smartphone 1 has a leftward inclination greater than the second threshold value (second threshold value> first threshold value), as shown in step SF3, a plurality of smartphones 1 are displayed at the bottom of the display 2A instead of the virtual keyboard 81b. A virtual keyboard 81c on which buttons are arranged is displayed. When the smartphone 1 detects a tap on the virtual keyboard 81c, the smartphone 1 performs processing so that a number corresponding to the tapped button is input to the mail creation screen 72.

一方、ステップSF1の状態から、ステップSF4に示すように、利用者が、スマートフォン1を右に傾けたものとする。スマートフォン1は、右への傾きが第1の閾値より大きい場合、ステップSF4に示すように、ディスプレイ2Aの下部に、仮想キーボード81aに代えて、複数のボタンが配置された仮想キーボード81dを表示する。スマートフォン1は、仮想キーボード81dに対するタップを検出すると、タップされたボタンに対応する記号がメール作成画面72に入力されるように処理する。   On the other hand, it is assumed that the user tilts the smartphone 1 to the right from the state of step SF1 as shown in step SF4. If the inclination to the right is larger than the first threshold, the smartphone 1 displays a virtual keyboard 81d in which a plurality of buttons are arranged instead of the virtual keyboard 81a at the lower part of the display 2A, as shown in step SF4. . When the smartphone 1 detects a tap on the virtual keyboard 81d, the smartphone 1 performs processing so that a symbol corresponding to the tapped button is input to the mail creation screen 72.

図11では、左へ傾きの大きさに応じてジェスチャに対応する処理が2段階で切り替わる例を示したが、傾きの方向及び傾きの段階数はこれに限定されない。   Although FIG. 11 shows an example in which the process corresponding to the gesture is switched in two steps according to the magnitude of the tilt to the left, the tilt direction and the number of tilt steps are not limited to this.

図11では、スマートフォン1が、仮想キーボードに対するジェスチャによって入力される文字の種類をスマートフォン1の傾きに応じて切り替える例を示した。このように構成することにより、利用者は、切り替えボタンのタップ等の操作をタッチスクリーン2Bに対して行うことなく、入力する文字の種類を切り替えることが可能になる。このことは、文字の入力(仮想キーボードに対するジェスチャ)を中断することなく、入力する文字の種類の切り替えることを可能にし、文字入力の迅速化に寄与する。   FIG. 11 illustrates an example in which the smartphone 1 switches the character type input by the gesture on the virtual keyboard according to the inclination of the smartphone 1. With this configuration, the user can switch the type of characters to be input without performing an operation such as tapping a switching button on the touch screen 2B. This makes it possible to switch the type of characters to be input without interrupting character input (gesture for the virtual keyboard), and contributes to speeding up of character input.

図12を参照しながら、タッチスクリーン2Bが検出するジェスチャに対応して実行する処理をスマートフォン1の傾きに応じて切り替える制御の処理手順の例について説明する。図12は、検出されるジェスチャに対応して実行する処理を傾きに応じて切り替える制御を示すフローチャートである。図12に示す制御は、コントローラ10が、制御プログラム9Aを実行することによって実現されてもよいし、タッチスクリーン2Bに対するジェスチャの検出時にコントローラ10が実行中のアプリケーションが提供する機能によって実現されてもよい。図12に示す制御は、制御プログラム9Aが提供する機能と実行中のアプリケーションが提供する機能との協働によって実現されてもよい。図12に示す処理手順は、タッチスクリーン2Bに対する操作が可能な間、繰り返して実行される。コントローラ10は、図12に示す処理手順と並行して、他の処理手順を実行することがある。   With reference to FIG. 12, an example of a processing procedure of control for switching processing executed in response to a gesture detected by the touch screen 2 </ b> B according to the inclination of the smartphone 1 will be described. FIG. 12 is a flowchart illustrating control for switching processing to be executed corresponding to the detected gesture in accordance with the inclination. The control illustrated in FIG. 12 may be realized by the controller 10 executing the control program 9A, or may be realized by a function provided by an application being executed by the controller 10 when detecting a gesture on the touch screen 2B. Good. The control shown in FIG. 12 may be realized by the cooperation of the function provided by the control program 9A and the function provided by the running application. The processing procedure shown in FIG. 12 is repeatedly executed while an operation on the touch screen 2B is possible. The controller 10 may execute another processing procedure in parallel with the processing procedure shown in FIG.

コントローラ10は、ステップS101として、姿勢検出部18から傾きを取得する。そして、コントローラ10は、ステップS102として、取得した傾きが閾値よりも大きいかを判定する。ここで用いられる閾値は、スマートフォン1が傾いているかを判定するための閾値である。   The controller 10 acquires an inclination from the attitude | position detection part 18 as step S101. And the controller 10 determines whether the acquired inclination is larger than a threshold value as step S102. The threshold value used here is a threshold value for determining whether the smartphone 1 is tilted.

取得した傾きが閾値よりも大きくない、すなわち、スマートフォン1が傾いていない場合(ステップS102,No)、コントローラ10は、ステップS103として、通常の画面をディスプレイ2Aに表示する。通常の画面は、例えば、何らかのアプリケーションがフォアグランドで実行されている場合はそのアプリケーションが提供する画面であり、さもなければホーム画面である。続いて、コントローラ10は、ステップS104として、タッチスクリーン2Bに対する操作が検出されたかを判定する。タッチスクリーン2Bに対する操作が検出された場合(ステップS104,Yes)、コントローラ10は、ステップS105として、検出された操作に対応する通常の処理を実行する。通常の処理は、スマートフォン1が傾いていないときに同様の操作が検出された場合に実行すべき処理、又は、他の装置が同様の操作を検出した場合に通常実行する処理である。   When the acquired inclination is not larger than the threshold value, that is, when the smartphone 1 is not inclined (step S102, No), the controller 10 displays a normal screen on the display 2A as step S103. The normal screen is, for example, a screen provided by an application when some application is executed in the foreground, and is a home screen otherwise. Subsequently, in step S104, the controller 10 determines whether an operation on the touch screen 2B is detected. When an operation on the touch screen 2B is detected (step S104, Yes), the controller 10 executes a normal process corresponding to the detected operation as step S105. The normal process is a process that should be executed when a similar operation is detected when the smartphone 1 is not tilted, or a process that is normally executed when another device detects a similar operation.

取得した傾きが閾値よりも大きい、すなわち、スマートフォン1が傾いている場合(ステップS102,Yes)、コントローラ10は、ステップS106として、検出された傾きに応じてディスプレイ2Aに表示される画面を更新する。例えば、コントローラ10は、図9に示したように、ジェスチャに応じて実行される処理が切り替わったことを通知するために標識を変更する。あるいは、コントローラ10は、図10に示したように、表示する画面を異なるモードの画面に変更する。あるいは、コントローラ10は、図11に示したように、画面上に配置される部品の種類、数、表示態様等を変更する。コントローラ10は、更新の必要がなければ、画面をそのまま維持してもよい。   When the acquired inclination is larger than the threshold, that is, when the smartphone 1 is inclined (step S102, Yes), the controller 10 updates the screen displayed on the display 2A according to the detected inclination as step S106. . For example, as illustrated in FIG. 9, the controller 10 changes the sign to notify that the process to be executed in response to the gesture has been switched. Alternatively, as shown in FIG. 10, the controller 10 changes the screen to be displayed to a screen in a different mode. Alternatively, as shown in FIG. 11, the controller 10 changes the type, number, display mode, and the like of components arranged on the screen. If there is no need for updating, the controller 10 may maintain the screen as it is.

続いて、コントローラ10は、ステップS107として、タッチスクリーン2Bに対する操作が検出されたかを判定する。タッチスクリーン2Bに対する操作が検出された場合(ステップS107,Yes)、コントローラ10は、ステップS108として、検出された操作に対応する処理のうち、ステップS101で取得した傾きに応じた処理を選択する。そして、コントローラ10は、ステップS109として、選択した処理を実行する。   Subsequently, in step S107, the controller 10 determines whether an operation on the touch screen 2B is detected. When an operation on the touch screen 2B is detected (step S107, Yes), the controller 10 selects a process corresponding to the inclination acquired in step S101 among the processes corresponding to the detected operation as step S108. And the controller 10 performs the selected process as step S109.

本発明を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。   In order to fully and clearly disclose the present invention, it has been described with respect to characteristic embodiments. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be configured to embody such a configuration.

例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。   For example, each program shown in FIG. 5 may be divided into a plurality of modules, or may be combined with other programs.

また、上記の実施形態では、タッチスクリーンディスプレイを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。例えば、添付の請求項に係る装置は、モバイルフォン、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、又はゲーム機等の携帯電子機器であってもよい。また、添付の請求項に係る装置は、デスクトップパソコン、テレビ受像器等の据え置き型の電子機器であってもよい。   Moreover, although said embodiment demonstrated the smart phone as an example of an apparatus provided with a touch screen display, the apparatus which concerns on an attached claim is not limited to a smart phone. For example, the device according to the appended claims may be a mobile electronic device such as a mobile phone, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, or a game machine. The apparatus according to the appended claims may be a stationary electronic device such as a desktop personal computer or a television receiver.

また、上記の実施形態では、スマートフォン1の傾きに応じて、タッチスクリーン2Bによって検出されるジェスチャに対応して実行される処理を切り替える例について説明した。しかし、スマートフォン1の傾きに応じて切り替わる処理は、タッチスクリーン2Bによってされるジェスチャに対応して実行される処理に限定されない。例えば、スマートフォン1は、スマートフォン1の傾きに応じて、ボタン3によって検出される操作に対応して実行される処理を切り替えてもよい。   Moreover, said embodiment demonstrated the example which switches the process performed corresponding to the gesture detected by the touch screen 2B according to the inclination of the smart phone 1. FIG. However, the process of switching according to the inclination of the smartphone 1 is not limited to the process executed in response to the gesture made by the touch screen 2B. For example, the smartphone 1 may switch the process executed in response to the operation detected by the button 3 according to the inclination of the smartphone 1.

また、上記の実施形態では、スマートフォン1が傾いているときに操作が検出されると、スマートフォン1が傾いていないときと異なる処理が実行される例について説明した。しかし、スマートフォン1は、傾きが解消された後も、傾いていたときと同じ処理を実行してもよい。すなわち、スマートフォン1は、閾値より大きい傾きを検出するたびにタッチスクリーン2Bによって検出されるジェスチャに対応して実行される処理を切り替え、傾きが閾値よりも小さくなった後もジェスチャに対応して実行される処理をそのまま維持してもよい。   Moreover, in said embodiment, when operation was detected when the smart phone 1 inclined, the example different from the time when the smart phone 1 was not inclined was demonstrated. However, the smartphone 1 may execute the same processing as when the smartphone 1 is tilted even after the tilt is eliminated. That is, each time the smartphone 1 detects an inclination larger than the threshold, the smartphone 1 switches the process to be executed in response to the gesture detected by the touch screen 2B, and executes the gesture even after the inclination becomes smaller than the threshold. Processing may be maintained as it is.

この場合の動作について図13を参照しながら説明する。図13は、傾きが解消された後も処理が切り替わったままにする例を示す図である。図13に示すステップSG1では、利用者は、スマートフォン1を傾けずに片手で持っている。ステップSG1では、メール作成画面72がディスプレイ2Aに表示されている。ディスプレイ2Aの下部には、複数のボタンが配置された仮想キーボード81aが表示されている。スマートフォン1は、仮想キーボード81aに対するタップを検出すると、タップされたボタンに対応する小文字がメール作成画面72に入力されるように処理する。   The operation in this case will be described with reference to FIG. FIG. 13 is a diagram illustrating an example in which the process remains switched even after the inclination is eliminated. In step SG1 shown in FIG. 13, the user holds the smartphone 1 with one hand without tilting. In step SG1, a mail creation screen 72 is displayed on the display 2A. A virtual keyboard 81a on which a plurality of buttons are arranged is displayed at the bottom of the display 2A. When the smartphone 1 detects a tap on the virtual keyboard 81 a, the smartphone 1 performs processing so that a lowercase letter corresponding to the tapped button is input to the mail creation screen 72.

この状態から、ステップSG2に示すように、利用者が、スマートフォン1を左に傾けたものとする。このとき、スマートフォン1は、姿勢検出部18を用いて自身の傾きを検出する。スマートフォン1は、左への傾きが閾値より大きい場合、ステップSG2に示すように、ディスプレイ2Aの下部に、仮想キーボード81aに代えて、複数のボタンが配置された仮想キーボード81bを表示する。スマートフォン1は、仮想キーボード81bに対するタップを検出すると、タップされたボタンに対応する大文字がメール作成画面72に入力されるように処理する。   From this state, as shown in step SG2, the user tilts the smartphone 1 to the left. At this time, the smartphone 1 detects its own inclination using the posture detection unit 18. When the inclination to the left is larger than the threshold value, the smartphone 1 displays a virtual keyboard 81b in which a plurality of buttons are arranged instead of the virtual keyboard 81a at the lower part of the display 2A, as shown in step SG2. When the smartphone 1 detects a tap on the virtual keyboard 81b, the smartphone 1 performs processing so that a capital letter corresponding to the tapped button is input to the mail creation screen 72.

この状態から、ステップSG3に示すように、利用者が、スマートフォン1の姿勢を元に戻したものとする。スマートフォン1は、左への傾きが閾値より小さくなっても、ステップSG3に示すように、ディスプレイ2Aの下部に、仮想キーボード81bを表示する。スマートフォン1は、仮想キーボード81bに対するタップを検出すると、タップされたボタンに対応する大文字がメール作成画面72に入力されるように処理する。   From this state, as shown in step SG3, it is assumed that the user returns the posture of the smartphone 1 to the original position. Even if the inclination to the left becomes smaller than the threshold value, the smartphone 1 displays the virtual keyboard 81b at the lower part of the display 2A as shown in step SG3. When the smartphone 1 detects a tap on the virtual keyboard 81b, the smartphone 1 performs processing so that a capital letter corresponding to the tapped button is input to the mail creation screen 72.

この状態から、利用者が、スマートフォン1を再び左に傾けた場合、スマートフォン1は、仮想キーボード81bに代えて、元通りに仮想キーボード81aを表示してもよいし、仮想キーボード81cのようにさらに異なる処理が実行される画面を表示してもよい。   From this state, when the user tilts the smartphone 1 to the left again, the smartphone 1 may display the virtual keyboard 81a as it is instead of the virtual keyboard 81b, or may further display the virtual keyboard 81c. A screen on which different processing is executed may be displayed.

一方、ステップSG1の状態から、ステップSG4に示すように、利用者が、スマートフォン1を右に傾けたものとする。スマートフォン1は、右への傾きが閾値より大きい場合、ステップSG4に示すように、ディスプレイ2Aの下部に、仮想キーボード81aに代えて、複数のボタンが配置された仮想キーボード81dを表示する。スマートフォン1は、仮想キーボード81dに対するタップを検出すると、タップされたボタンに対応する記号がメール作成画面72に入力されるように処理する。   On the other hand, it is assumed that the user tilts the smartphone 1 to the right from the state of step SG1 as shown in step SG4. When the inclination to the right is larger than the threshold, the smartphone 1 displays a virtual keyboard 81d in which a plurality of buttons are arranged instead of the virtual keyboard 81a at the lower part of the display 2A, as shown in Step SG4. When the smartphone 1 detects a tap on the virtual keyboard 81d, the smartphone 1 performs processing so that a symbol corresponding to the tapped button is input to the mail creation screen 72.

この状態から、ステップSG5に示すように、利用者が、スマートフォン1の姿勢を元に戻したものとする。スマートフォン1は、右への傾きが閾値より小さくなっても、ステップSG5に示すように、ディスプレイ2Aの下部に、仮想キーボード81dを表示する。スマートフォン1は、仮想キーボード81dに対するタップを検出すると、タップされたボタンに対応する記号がメール作成画面72に入力されるように処理する。   From this state, as shown in step SG5, it is assumed that the user returns the posture of the smartphone 1 to the original position. Even if the inclination to the right becomes smaller than the threshold value, the smartphone 1 displays the virtual keyboard 81d at the lower part of the display 2A as shown in Step SG5. When the smartphone 1 detects a tap on the virtual keyboard 81d, the smartphone 1 performs processing so that a symbol corresponding to the tapped button is input to the mail creation screen 72.

この状態から、利用者が、スマートフォン1を再び右に傾けた場合、スマートフォン1は、仮想キーボード81dに代えて、元通りに仮想キーボード81aを表示してもよいし、仮想キーボード81cのようにさらに異なる処理が実行される画面を表示してもよい。   From this state, when the user tilts the smartphone 1 to the right again, the smartphone 1 may display the virtual keyboard 81a as it is instead of the virtual keyboard 81d, or may further display the virtual keyboard 81c. A screen on which different processing is executed may be displayed.

図13に示した例において、スマートフォン1は、傾きが検出された場合ではなく、スマートフォン1を振る動きが姿勢検出部18によって検出された場合に、タッチスクリーン2Bによって検出されるジェスチャに対応して実行される処理を切り替えてもよい。   In the example illustrated in FIG. 13, the smartphone 1 corresponds to a gesture detected by the touch screen 2 </ b> B when a motion of shaking the smartphone 1 is detected by the posture detection unit 18, not when a tilt is detected. The processing to be executed may be switched.

スマートフォン1は、傾いているときに開始された操作が、傾きが解消された後も継続している場合には、その操作に対応する処理として、操作の検出開始時に傾きに応じて選択した処理を、傾きが解消された後も継続して実行してもよい。   When the operation started when the smartphone 1 is tilted continues even after the tilt is resolved, the processing selected according to the tilt at the start of operation detection as the processing corresponding to the operation May be continuously executed even after the inclination is eliminated.

この場合の動作について図14を参照しながら説明する。図14は、傾きが解消された後も操作が継続される場合の動作の例を示す図である。図14に示すステップSH1では、利用者は、スマートフォン1を傾けずに片手で持っている。ステップSH1では、地図画面61がディスプレイ2Aに表示されている。ステップSH1では、さらに標識62がディスプレイ2Aに表示されている。標識62は、スワイプが行われた場合に地図画面61がスクロールすることを示している。   The operation in this case will be described with reference to FIG. FIG. 14 is a diagram illustrating an example of the operation in the case where the operation is continued even after the inclination is eliminated. In step SH1 shown in FIG. 14, the user holds the smartphone 1 with one hand without tilting. In step SH1, the map screen 61 is displayed on the display 2A. In step SH1, a sign 62 is further displayed on the display 2A. The sign 62 indicates that the map screen 61 is scrolled when a swipe is performed.

この状態で、利用者が、スマートフォン1を左に傾けたものとする。このとき、スマートフォン1は、姿勢検出部18を用いて自身の傾きを検出する。検出された傾きが閾値よりも大きい場合、スマートフォン1は、ステップSH2に示すように、標識62に代えて、標識63をディスプレイ2Aに表示する。標識63は、左方向へのスワイプが行われた場合に地図画面61が拡大され、右方向へのスワイプが行われた場合に地図画面61が縮小されることを示している。   In this state, it is assumed that the user tilts the smartphone 1 to the left. At this time, the smartphone 1 detects its own inclination using the posture detection unit 18. When the detected inclination is larger than the threshold value, the smartphone 1 displays the sign 63 on the display 2A instead of the sign 62, as shown in step SH2. The sign 63 indicates that the map screen 61 is enlarged when the left swipe is performed, and the map screen 61 is contracted when the right swipe is performed.

標識63が表示されている間に、利用者が、スマートフォン1を持っている手の指F1を使ってタッチスクリーン2Bに対して左方向へのスワイプを開始したものとする。スマートフォン1は、傾きが閾値より大きいときに左方向へのスワイプを検出すると、ステップSH2に示すように、指F1の動きに合わせて、地図画面61を拡大させる。   Assume that the user starts swiping leftward with respect to the touch screen 2B using the finger F1 of the hand holding the smartphone 1 while the sign 63 is displayed. If the smartphone 1 detects a leftward swipe when the inclination is larger than the threshold, the smartphone 1 enlarges the map screen 61 in accordance with the movement of the finger F1, as shown in step SH2.

その後、ステップSH3に示すように、利用者がスワイプを継続しながらスマートフォン1の姿勢を元に戻したものとする。このように、傾きが閾値よりも小さくなっても、傾きが閾値よりも大きいときに検出された操作が継続している場合には、スマートフォン1は、その操作の検出開始時に姿勢検出部18が検出した傾きに応じて選択した処理を継続して実行する。このため、ステップSH3では、標識63が継続して表示され、スワイプに対応して地図画面61の拡大/縮小が実行される。   Thereafter, as shown in step SH3, it is assumed that the user returns the posture of the smartphone 1 to the original while continuing to swipe. As described above, even when the inclination is smaller than the threshold value, if the operation detected when the inclination is larger than the threshold value is continued, the smartphone 1 detects that the posture detection unit 18 is in the start of the detection of the operation. The process selected according to the detected inclination is continuously executed. For this reason, in step SH3, the sign 63 is continuously displayed, and the map screen 61 is enlarged / reduced corresponding to the swipe.

そして、スマートフォン1は、指F1がタッチスクリーン2Bから離れたこと、すなわち、継続していた操作が終了したことを検出すると、ステップSH4に示すように、スワイプに対応して地図画面61をスクロールする状態となり、標識63に代えて標識62を表示する。図14に示した例では、説明を容易にするために標識62および標識63を表示したが、これらは必ずしも表示しなくてもよい。   When the smartphone 1 detects that the finger F1 has moved away from the touch screen 2B, that is, the operation that has been continued has ended, the smartphone 1 scrolls the map screen 61 in response to the swipe, as shown in step SH4. In this state, the sign 62 is displayed instead of the sign 63. In the example shown in FIG. 14, the sign 62 and the sign 63 are displayed for ease of explanation, but they are not necessarily displayed.

上述してきた実施形態及びその変形例は、適宜組み合わせてもよい。   The above-described embodiments and modifications thereof may be combined as appropriate.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9D 地図アプリケーション
9Z 設定データ
10 コントローラ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Mail application 9C Browser application 9D Map application 9Z Setting data 10 Controller 12, 13 Camera 14 Connector 15 Acceleration sensor
16 Direction sensor 17 Gyroscope 20 Housing

Claims (10)

ッチスクリーンディスプレイへの接触を当該タッチスクリーンディスプレイにより検出し
自機の傾きを姿勢検出部により検出し
検出する前記自機の傾きに応じて処理を変更し、当該処理を変更した後に検出される前記接触に対応して、変更後の処理を実行
前記処理を変更した後に検出される前記接触を継続して検出している間は、前記自機の傾きに応じて前記処理を変更しない、
コントローラを備える装置。
To contact the touchscreen display is detected by the touch screen display,
The inclination of the ship is detected by attitude detection unit,
The process is changed according to the inclination of the own device to be detected , the process after the change is executed in response to the contact detected after the process is changed ,
While continuously detecting the contact detected after changing the process, do not change the process according to the tilt of the own machine,
Apparatus including the controller.
前記コントローラは、The controller is
前記処理を変更した後に検出される前記接触を検出しなくなると、前記自機の傾きに応じて前記処理を変更する請求項1に記載の装置。The apparatus according to claim 1, wherein when the contact detected after changing the process is not detected, the process is changed according to the inclination of the own device.
前記コントローラは、The controller is
前記接触に基づいてジェスチャの種別を判別する請求項1または2に記載の装置。The apparatus according to claim 1, wherein the type of gesture is determined based on the contact.
前記コントローラは、
前記自機の傾きの大きさに応じて、前記処理を変更する請求項1から3のいずれか1つに記載の装置。
The controller is
The apparatus according to in accordance with the magnitude of the slope of its own, one of claims 1 to 3 you before change Kisho sense.
前記コントローラは、
前記自機の傾きの方向に応じて、前記処理を変更する請求項1から4のいずれか1つに記載の装置。
The controller is
Wherein depending on the direction of inclination of the own apparatus, apparatus as claimed previous claims 1 to change the Kisho sense to any one of 4.
前記コントローラは、
記処理を示す情報を前記タッチスクリーンディスプレイに表示し、
前記処理の変更に応じて、前記情報の表示を変更する請求項1からのいずれか1つに記載の装置。
The controller is
Display information before indicating the Kisho management on the touch screen display,
In accordance with the change of the processing apparatus according to any one of claims 1-5 to change the display of the information.
前記コントローラは、
記処理を変更する場合に、通知を前記タッチスクリーンディスプレイに表示する請求項1からのいずれか1つに記載の装置。
The controller is
Apparatus according to previously when you change the Kisho sense, any one of claims 1 to 6 to display a notification to the touch screen display.
前記コントローラは、The controller is
前記処理を変更する場合に、音、振動、ランプの点灯のうち少なくとも一つにより通知する請求項1から6のいずれか1つに記載の装置。The apparatus according to any one of claims 1 to 6, wherein when the processing is changed, notification is made by at least one of sound, vibration, and lighting of a lamp.
ッチスクリーンディスプレイへの接触を当該タッチスクリーンディスプレイにより検出するステップと、
自機の傾きを姿勢検出部によって検出するステップと、
検出する前記自機の傾きに応じて処理を変更するステップと、
前記処理を変更した後に検出される前記接触に対応して、変更後の処理を実行するステップと、
前記処理を変更した後に検出される前記接触を継続して検出している間は、前記自機の傾きに応じて前記処理を変更しないステップと、
を含む方法。
Detecting by the touch screen display to contact the touchscreen display,
A step of detect by the inclination of the ship to the orientation detection unit,
Changing the process according to the inclination of the machine to be detected;
Executing the post-change process in response to the contact detected after changing the process;
While continuously detecting the contact detected after changing the process, the step of not changing the process according to the inclination of the own machine ,
Including methods.
ッチスクリーンディスプレイへの接触を当該タッチスクリーンディスプレイにより検出するステップと、
自機の傾きを姿勢検出部によって検出するステップと、
検出する前記自機の傾きに応じて処理を変更するステップと、
前記処理を変更した後に検出される前記接触に対応して、変更後の処理を実行するステップと、
前記処理を変更した後に検出される前記接触を継続して検出している間は、前記自機の傾きに応じて前記処理を変更しないステップと、
を実行させるプログラム。
Detecting by the touch screen display to contact the touchscreen display,
A step of detect by the inclination of the ship to the orientation detection unit,
Changing the process according to the inclination of the machine to be detected;
Executing the post-change process in response to the contact detected after changing the process;
While continuously detecting the contact detected after changing the process, the step of not changing the process according to the inclination of the own machine ,
A program that executes
JP2011258778A 2011-11-28 2011-11-28 Apparatus, method, and program Active JP5762935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011258778A JP5762935B2 (en) 2011-11-28 2011-11-28 Apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011258778A JP5762935B2 (en) 2011-11-28 2011-11-28 Apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2013114379A JP2013114379A (en) 2013-06-10
JP5762935B2 true JP5762935B2 (en) 2015-08-12

Family

ID=48709890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011258778A Active JP5762935B2 (en) 2011-11-28 2011-11-28 Apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5762935B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015001622A1 (en) * 2013-07-02 2015-01-08 富士通株式会社 Input device, input control method, and input control program
JP6223740B2 (en) * 2013-07-25 2017-11-01 京セラ株式会社 Electronic device, program, and control method of electronic device
JP6024725B2 (en) * 2014-01-17 2016-11-16 カシオ計算機株式会社 system
JP5995909B2 (en) * 2014-05-26 2016-09-21 株式会社コロプラ User interface program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211323A (en) * 2009-03-06 2010-09-24 Sharp Corp Input system, portable terminal, input/output device, input system control program, computer-readable recording medium and method for controlling input system
JP2011081646A (en) * 2009-10-08 2011-04-21 Seiko Epson Corp Information processor, information processing method and program
JP5505971B2 (en) * 2010-04-12 2014-05-28 Necカシオモバイルコミュニケーションズ株式会社 Terminal device and program

Also Published As

Publication number Publication date
JP2013114379A (en) 2013-06-10

Similar Documents

Publication Publication Date Title
JP6194167B2 (en) Apparatus, method, and program
JP5850736B2 (en) Apparatus, method, and program
JP6091829B2 (en) Apparatus, method, and program
JP6159078B2 (en) Apparatus, method, and program
JP5972629B2 (en) Apparatus, method, and program
JP6110654B2 (en) Apparatus, method, and program
JP5779064B2 (en) Apparatus, method, and program
JP5891083B2 (en) Apparatus, method, and program
JP5792017B2 (en) Apparatus, method, and program
JP2013092989A (en) Device, method, and program
JP2013047919A (en) Device, method, and program
JP2013131185A (en) Device, method and program
JP2013080345A (en) Device, method, and program
JP2013131193A (en) Device, method, and program
JP5801673B2 (en) Electronic apparatus, method, and program
JP5739278B2 (en) Apparatus, method, and program
JP5762935B2 (en) Apparatus, method, and program
JP2013092988A (en) Device, method, and program
JP5779063B2 (en) Apparatus, method, and program
JP5859932B2 (en) Apparatus, method, and program
JP5753475B2 (en) Apparatus, method, and program
JP5762885B2 (en) Apparatus, method, and program
JP5959372B2 (en) Apparatus, method, and program
JP2013065290A (en) Device, method, and program
JP2013080353A (en) Device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150610

R150 Certificate of patent or registration of utility model

Ref document number: 5762935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150