JP2017102676A - Portable terminal device, operation device, information processing method, and program - Google Patents

Portable terminal device, operation device, information processing method, and program Download PDF

Info

Publication number
JP2017102676A
JP2017102676A JP2015235110A JP2015235110A JP2017102676A JP 2017102676 A JP2017102676 A JP 2017102676A JP 2015235110 A JP2015235110 A JP 2015235110A JP 2015235110 A JP2015235110 A JP 2015235110A JP 2017102676 A JP2017102676 A JP 2017102676A
Authority
JP
Japan
Prior art keywords
terminal device
finger
touch pad
mobile terminal
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015235110A
Other languages
Japanese (ja)
Inventor
英治 羽中田
Eiji Hanakada
英治 羽中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2015235110A priority Critical patent/JP2017102676A/en
Publication of JP2017102676A publication Critical patent/JP2017102676A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a portable terminal device for enabling a comfortable operation of the portable terminal device by one hand.SOLUTION: The portable terminal device includes display means for displaying an instruction object in a display part in accordance with the touch of a finger with a back surface touch panel installed on the back surface of the portable terminal device, movement means for moving the instruction object displayed by the display means in accordance with the movement of the finger on the back surface touch pad, and control means for performing control based on the instruction object moved by the movement means in accordance with a gesture operation by the finger onto the back surface touch pad.SELECTED DRAWING: Figure 3

Description

本発明は、携帯端末装置、操作装置、情報処理方法及びプログラムに関する。   The present invention relates to a mobile terminal device, an operation device, an information processing method, and a program.

スマートホン等の携帯端末装置に対して入力を行う際の基本動作方法には、以下の2つがある。1つ目の方法は、携帯端末装置を一方の手で持ち、他方の手の人差し指でタッチパネルを操作することで入力操作をする方法である。2つ目の方法は、携帯端末装置を片手で持ち同じ手の親指で画面上のタッチパネルを操作することで入力操作をする方法である。
1つ目の方法では、両手共に携帯端末装置の操作に利用されるため、荷物を持っていたり、つり革につかまっていたり、片手が塞がっている場合、携帯端末装置の使用が困難となる。
一方、2つ目の方法では、片手しか携帯端末装置の操作に利用されないため、片手が塞がっている場合でも、携帯端末装置の使用が可能である。
There are the following two basic operation methods for inputting to a mobile terminal device such as a smart phone. The first method is a method of performing an input operation by holding the portable terminal device with one hand and operating the touch panel with the index finger of the other hand. The second method is a method of performing an input operation by holding the mobile terminal device with one hand and operating the touch panel on the screen with the thumb of the same hand.
In the first method, since both hands are used for the operation of the portable terminal device, it is difficult to use the portable terminal device when carrying a baggage, holding on a strap, or closing one hand.
On the other hand, in the second method, since only one hand is used for the operation of the mobile terminal device, the mobile terminal device can be used even when one hand is closed.

特開2009−294725号公報JP 2009-294725 A

しかし、2つ目の方法では、携帯端末装置を保持する手の親指で操作を行うことになるため、携帯端末装置を保持する手の親指が届かない範囲にある画面上のアイコン等を操作することが困難であるという問題がある。近年、携帯端末装置の画面が大型化されてきており、携帯端末装置を保持する手の親指による携帯端末装置の操作は、更に困難となっている。携帯端末装置の片手による操作を支援する技術には、特許文献1の技術がある。特許文献1には、携帯端末のタッチパネル上の斜線をなぞる操作に基づいて、ユーザが形態端末を持っている手を判定し、使用勝手のよいメニューやスクロールバー等のオブジェクトを持ち手側にずらす技術が開示されている。
しかし、特許文献1では、操作モード切り替えのため、タッチパネルをなぞる操作を行う手間を要し、更に、持ち手側にずらされなかった画面上のオブジェクトについては、片手で操作することができなかった。そのため、片手で快適に携帯端末装置を操作することができなかった。
そこで、本発明は、片手による快適な携帯端末装置の操作を可能にすることを目的とする。
However, in the second method, since the operation is performed with the thumb of the hand holding the mobile terminal device, the icon on the screen within the range where the thumb of the hand holding the mobile terminal device cannot reach is operated. There is a problem that it is difficult. In recent years, the screen of the mobile terminal device has been enlarged, and it has become more difficult to operate the mobile terminal device with the thumb of the hand holding the mobile terminal device. As a technology for supporting the operation of the mobile terminal device with one hand, there is a technology disclosed in Patent Document 1. In Patent Document 1, based on an operation of tracing a diagonal line on a touch panel of a mobile terminal, the user determines a hand holding the form terminal and shifts an object such as a menu or a scroll bar that is easy to use to the hand side. Technology is disclosed.
However, in Patent Document 1, it takes time to perform an operation of tracing the touch panel for switching the operation mode, and furthermore, an object on the screen that has not been shifted to the handle side cannot be operated with one hand. . For this reason, the portable terminal device cannot be operated comfortably with one hand.
Accordingly, an object of the present invention is to enable a comfortable operation of a mobile terminal device with one hand.

本発明の携帯端末装置は、携帯端末装置であって、前記携帯端末装置の背面に設置された背面タッチパッドに対する指の接触に応じて、表示部に指示オブジェクトを表示する表示手段と、前記背面タッチパッドにおける前記指の移動に応じて、前記表示手段により表示された前記指示オブジェクトを移動させる移動手段と、前記背面タッチパッドへの前記指によるジェスチャ操作に応じて、前記移動手段により移動された前記指示オブジェクトに基づいた制御を行う制御手段と、を有する。   The mobile terminal device of the present invention is a mobile terminal device, wherein the display unit displays an indication object on a display unit in response to a finger touching a back touch pad installed on the back surface of the mobile terminal device, and the back surface The moving means for moving the pointing object displayed by the display means in response to the movement of the finger on the touch pad, and the moving means in response to a gesture operation by the finger on the back touch pad. Control means for performing control based on the pointing object.

本発明によれば、片手による快適な携帯端末装置の操作を可能にすることができる。   ADVANTAGE OF THE INVENTION According to this invention, operation of the portable terminal device comfortable with one hand can be enabled.

図1は、操作入力処理の概要を説明する図である。FIG. 1 is a diagram for explaining the outline of the operation input process. 図2は、携帯端末装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the mobile terminal device. 図3は、携帯端末装置の処理の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of processing of the mobile terminal device. 図4は、設定される座標の一例を示す図である。FIG. 4 is a diagram illustrating an example of the set coordinates. 図5は、カーソルの移動速度について説明する図である。FIG. 5 is a diagram for explaining the moving speed of the cursor. 図6は、カーソル移動の補正処理の一例を説明する図である。FIG. 6 is a diagram illustrating an example of a cursor movement correction process. 図7は、外付けの背面タッチパッドの一例を説明する図である。FIG. 7 is a diagram illustrating an example of an external back touch pad.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
図1は、本実施形態における操作入力処理の概要を説明する図である。図1(a)は、携帯端末装置100の背面の一例を示す図である。携帯端末装置100は、背面に背面タッチパッド101を含む。図1(b)は、携帯端末装置100の表面の一例を示す図である。携帯端末装置100は、表面に、表示部102を含む。表示部102は、指等の接触を検知する機能を有する表示部である。本実施形態では、表示部102は、タッチパネルである。
タッチパッドとは、パッドの平面上を指でなぞることで、表示部の画面上のカーソルや画面の操作を可能にするポインティングデバイスである。また、タッチパネルとは、液晶パネルのような表示装置とタッチパッドのような位置入力装置とを組み合わせた装置である。また、表示部102に表示される画面は、アイコン103を含む。
図1(c)は、ユーザが片手で携帯端末装置100を保持している様子の一例を示す図である。図1(c)のように、ユーザは、片手で携帯端末装置100を保持する場合、親指、中指、薬指、小指で保持することになるため、人差し指を自由に動かすことができる。そこで、携帯端末装置100は、携帯端末装置100を保持するユーザの手の人差し指による背面タッチパッド101への操作に基づいて、表示部102に表示されている画面に対する入力操作を行うことができるように構成されている。
<Embodiment 1>
FIG. 1 is a diagram illustrating an overview of operation input processing according to the present embodiment. FIG. 1A is a diagram illustrating an example of the back surface of the mobile terminal device 100. The mobile terminal device 100 includes a back touch pad 101 on the back surface. FIG. 1B is a diagram illustrating an example of the surface of the mobile terminal device 100. The mobile terminal device 100 includes a display unit 102 on the surface. The display unit 102 is a display unit having a function of detecting contact with a finger or the like. In the present embodiment, the display unit 102 is a touch panel.
The touch pad is a pointing device that enables a cursor on the screen of the display unit or an operation of the screen by tracing the surface of the pad with a finger. The touch panel is a device that combines a display device such as a liquid crystal panel and a position input device such as a touch pad. The screen displayed on the display unit 102 includes an icon 103.
FIG.1 (c) is a figure which shows an example of a mode that the user is holding the portable terminal device 100 with one hand. As shown in FIG. 1C, when the user holds the mobile terminal device 100 with one hand, the user holds the thumb, middle finger, ring finger, and little finger, so that the index finger can be moved freely. Therefore, the mobile terminal device 100 can perform an input operation on the screen displayed on the display unit 102 based on an operation on the back touchpad 101 by an index finger of a user's hand holding the mobile terminal device 100. It is configured.

例えば、ユーザの人差し指が背面タッチパッド101に接触した場合、携帯端末装置100は、表示部102にカーソル104を表示する。カーソルとは、画面内の指示や操作の対象を指し示すために用いられる指示オブジェクトの一例である。本実施形態のカーソル104は、矢印記号であるとするが、手の形の図形やプラス記号等の他の記号であってもよい。そして、ユーザの人差し指が背面タッチパッド101上を移動した場合、携帯端末装置100は、ユーザの人差し指の移動に応じて、表示部102内に表示されているカーソル104を移動させる。例えば、カーソル104をアイコン103上に移動したところで、ユーザが一度、背面タッチパッド101から人差し指を離し、すぐに、人差し指で背面タッチパッド101にタップ操作を行ったとする。その場合、携帯端末装置100は、アイコン103の選択する制御を行い、アイコン103に応じたアプリケーションを立ち上げる。このように、ユーザは、人差し指1本で、携帯端末装置100の操作が可能となり、より簡易に携帯端末装置100を操作できるようになる。
タップ操作とは、タッチパッド、タッチパネル等を、指で1回叩くジェスチャ操作である。より具体的には、タップ操作とは、指をタッチパッド等に接触させ、設定された期間内に指をタッチパッド等から離すジェスチャ操作のことである。ジェスチャ操作とは、指によるタッチパッド等への特定の操作のことであり、携帯端末装置は、行われたジェスチャ操作に応じて、設定された制御を行うことになる。また、2回連続で、タップ操作を行う操作は、ダブルタップ操作という。指をタッチパッドに接触させ、設定された期間以上、接触させたままにする操作は、ロングタップ操作という。
For example, when the user's index finger touches the back touch pad 101, the mobile terminal device 100 displays the cursor 104 on the display unit 102. A cursor is an example of an instruction object that is used to point to an instruction or operation target in the screen. The cursor 104 of this embodiment is an arrow symbol, but may be another symbol such as a hand-shaped figure or a plus symbol. When the user's index finger moves on the back touch pad 101, the mobile terminal device 100 moves the cursor 104 displayed in the display unit 102 in accordance with the movement of the user's index finger. For example, it is assumed that when the cursor 104 is moved onto the icon 103, the user once removes the index finger from the back touch pad 101 and immediately performs a tap operation on the back touch pad 101 with the index finger. In this case, the mobile terminal device 100 performs control for selecting the icon 103 and starts an application corresponding to the icon 103. In this way, the user can operate the mobile terminal device 100 with one index finger, and can more easily operate the mobile terminal device 100.
The tap operation is a gesture operation in which a touch pad, a touch panel, or the like is hit once with a finger. More specifically, the tap operation is a gesture operation in which a finger is brought into contact with a touch pad or the like and the finger is separated from the touch pad or the like within a set period. The gesture operation is a specific operation on a touch pad or the like with a finger, and the mobile terminal device performs a set control according to the performed gesture operation. An operation of performing a tap operation twice in succession is called a double tap operation. The operation of bringing a finger into contact with the touch pad and keeping it in contact for a set period or longer is called a long tap operation.

背面タッチパッド101は、携帯端末装置100を保持する手の人差し指で操作可能な領域に設けられている。ユーザが左右どちらの手で携帯端末装置100を保持するか不明な場合、携帯端末装置100は、背面タッチパッド101を、右手の人差し指で操作可能な領域と、左手の人差し指で操作可能な領域と、の双方に、背面タッチパッド101を含むこととしてもよい。例えば、携帯端末装置100の背面領域を縦横方向に2分割された計4つの領域を考える。
図1(d)は、携帯端末装置100の背面を縦横方向に2分割し、計4つの領域に分割した様子を示す図である。ユーザが片手で携帯端末装置100を保持する場合に、人差し指の指先が稼働できる範囲が、領域105であるとする。その場合、背面タッチパッド101は、領域105内部に設けられることになる。また、左右どちらの手でも操作が可能なように、複数の背面タッチパッド101が、複数の領域内部にそれぞれ設けられることとしてもよい。
本実施形態では、背面タッチパッド101は、静電容量方式のタッチパッドであるとする。また、背面タッチパッド101の形状は、任意であるが、例えば、携帯端末装置100を保持する手の人差し指の指先の稼働可能な範囲に基づいて、決定される。例えば、人差し指の指先の稼働可能な範囲が、半径10〜20mmの円状であるとすると、背面タッチパッド101の半径を10〜20mmにすることとしてもよい。また、背面タッチパッド101の形状は、人差し指の指先の稼働可能な範囲に余裕を持たせた形状にしてもよい。例えば、人差し指の指先の稼働可能な範囲が、半径10〜20mmの円状である場合、背面タッチパッド101の半径を10〜20mmに所定の値を加えた値にしてもよい。例えば、背面タッチパッド101の半径を、15〜30mmとすることとしてもよい。
The back touch pad 101 is provided in an area that can be operated with the index finger of the hand holding the mobile terminal device 100. When it is unclear whether the user holds the mobile terminal device 100 with the left or right hand, the mobile terminal device 100 includes a region in which the rear touchpad 101 can be operated with the right index finger and a region in which the left hand index finger can be operated. The back touchpad 101 may be included in both of them. For example, consider a total of four areas obtained by dividing the back area of the mobile terminal device 100 into two in the vertical and horizontal directions.
FIG. 1D is a diagram illustrating a state in which the back surface of the mobile terminal device 100 is divided into two regions in the vertical and horizontal directions and is divided into a total of four regions. When the user holds the portable terminal device 100 with one hand, it is assumed that a region where the fingertip of the index finger can operate is the area 105. In that case, the back touch pad 101 is provided inside the region 105. In addition, a plurality of back touch pads 101 may be provided in a plurality of regions so that the operation can be performed with either the left or right hand.
In the present embodiment, the back touch pad 101 is assumed to be a capacitive touch pad. The shape of the back touch pad 101 is arbitrary, but is determined based on, for example, the operable range of the index finger of the hand holding the mobile terminal device 100. For example, if the operable range of the fingertip of the index finger is a circle with a radius of 10 to 20 mm, the radius of the back touchpad 101 may be set to 10 to 20 mm. In addition, the shape of the back touch pad 101 may be a shape with a margin in the operable range of the fingertip of the index finger. For example, when the operable range of the fingertip of the index finger is a circle having a radius of 10 to 20 mm, the radius of the back touchpad 101 may be a value obtained by adding a predetermined value to 10 to 20 mm. For example, the radius of the back touch pad 101 may be 15 to 30 mm.

図2は、携帯端末装置100のハードウェア構成の一例を示す図である。
携帯端末装置100は、CPU201、主記憶装置202、補助記憶装置203、入力I/F204、接続I/F205を含む。CPU201、主記憶装置202、補助記憶装置203、入力I/F204、接続I/F205は、システムバス206を介して、相互に接続されている。
CPU201は、携帯端末装置100の処理を制御する中央演算装置である。主記憶装置202は、CPU201のワークエリアや種々のデータの記憶領域として機能する記憶装置である。補助記憶装置203は、各種プログラム、各種閾値、各種設定値、各種設定された係数の情報等のデータを格納する記憶装置である。入力I/F204は、表示部102や背面タッチパッド101へ入力を取得するためのインターフェースである。接続I/F205は、外付け受信器等の外部の装置等と接続するためのインターフェースであり、例えば、USB(Universal Serial Bus)、マイクロUSB等の規格のインターフェースである。
CPU201が、主記憶装置202又は補助記憶装置203に記憶されたプログラムに基づき処理を実行することによって、携帯端末装置100の機能及び図3で後述するフローチャートの処理が実現される。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the mobile terminal device 100.
The mobile terminal device 100 includes a CPU 201, a main storage device 202, an auxiliary storage device 203, an input I / F 204, and a connection I / F 205. The CPU 201, the main storage device 202, the auxiliary storage device 203, the input I / F 204, and the connection I / F 205 are connected to each other via a system bus 206.
The CPU 201 is a central processing unit that controls processing of the mobile terminal device 100. The main storage device 202 is a storage device that functions as a work area for the CPU 201 and a storage area for various data. The auxiliary storage device 203 is a storage device that stores data such as various programs, various threshold values, various setting values, and information on various set coefficients. The input I / F 204 is an interface for acquiring input to the display unit 102 and the rear touchpad 101. The connection I / F 205 is an interface for connecting to an external device such as an external receiver, and is, for example, a standard interface such as USB (Universal Serial Bus) or micro USB.
The CPU 201 executes processing based on a program stored in the main storage device 202 or the auxiliary storage device 203, thereby realizing the function of the mobile terminal device 100 and the processing of the flowchart described later with reference to FIG.

図3は、本実施形態における携帯端末装置100の処理の一例である。
S301において、CPU201は、背面タッチパッド101へのユーザの指の接触を検知したか否かを判定する。より具体的には、CPU201は、入力I/F204を介して、背面タッチパッド101からユーザの指の接触に応じた信号を受信したか否かを判定する。CPU201は、背面タッチパッド101へのユーザの指の接触を検知したと判定した場合、S302の処理に進み、背面タッチパッド101へのユーザの指の接触を検知していないと判定した場合、S301の処理に進む。
S302において、CPU201は、S301で検知したと判定された背面タッチパッド101への指の接触の位置に応じて、表示部102にカーソル104を表示する。例えば、CPU201は、以下のようにして、カーソル104の表示位置を決定し、決定した表示位置にカーソル104を表示する。
本実施形態では、背面タッチパッド101は、半径rの円形であるとする。また、本実施形態では、携帯端末装置100の表面、及び背面の形状は、四隅が丸形の上辺と下辺とが右辺と左辺とよりも短い長方形となっている。背面タッチパッド101上に図4(a)のように座標を設定する。図4(a)の座標は、背面タッチパッド101の中心を原点O1として、互いに垂直な軸X1と、軸Y1とを含む座標である。軸X1は、携帯端末装置の表面、及び背面の上辺、下辺と水平な軸である。また、軸Y1は、携帯端末装置の表面、及び背面の上辺、下辺と垂直な軸である。また、表示部102上に図4(b)のように座標を設定する。図4(b)の座標は、表示部102の中心を原点O2として、互いに垂直な軸X2と、軸Y2とを含む座標である。軸X2は、表示部102の上辺、下辺と水平な軸である。また、軸X2は、携帯端末装置の表面、及び背面の上辺、下辺と水平な軸でもある。また、軸Y2は、表示部102の上辺、下辺と、垂直な軸である。また、軸Y2は、携帯端末装置の表面、及び背面の上辺、下辺と垂直な軸でもある。
FIG. 3 is an example of processing of the mobile terminal device 100 in the present embodiment.
In step S <b> 301, the CPU 201 determines whether or not the user's finger contact with the back touch pad 101 is detected. More specifically, the CPU 201 determines whether or not a signal corresponding to the touch of the user's finger is received from the rear touch pad 101 via the input I / F 204. When the CPU 201 determines that the user's finger contact with the back touch pad 101 is detected, the CPU 201 proceeds to the process of S302, and when the CPU 201 determines that the user's finger contact with the back touch pad 101 is not detected, the process proceeds to S301. Proceed to the process.
In step S <b> 302, the CPU 201 displays the cursor 104 on the display unit 102 according to the position of the finger touching the back touchpad 101 determined to be detected in step S <b> 301. For example, the CPU 201 determines the display position of the cursor 104 as follows, and displays the cursor 104 at the determined display position.
In the present embodiment, the back touch pad 101 is assumed to be circular with a radius r. In the present embodiment, the shape of the front and back surfaces of the mobile terminal device 100 is a rectangle whose four corners are round and whose upper and lower sides are shorter than the right and left sides. Coordinates are set on the back touch pad 101 as shown in FIG. The coordinates in FIG. 4A are coordinates including an axis X1 and an axis Y1 perpendicular to each other with the center of the back touchpad 101 as the origin O1. The axis X1 is an axis parallel to the upper side and the lower side of the front surface and the back surface of the mobile terminal device. The axis Y1 is an axis perpendicular to the upper side and the lower side of the front surface and back surface of the mobile terminal device. Further, coordinates are set on the display unit 102 as shown in FIG. The coordinates in FIG. 4B are coordinates including an axis X2 and an axis Y2 perpendicular to each other with the center of the display unit 102 as the origin O2. The axis X2 is a horizontal axis with the upper side and the lower side of the display unit 102. The axis X2 is also an axis that is horizontal with the upper side and the lower side of the front surface and back surface of the mobile terminal device. The axis Y2 is an axis perpendicular to the upper side and the lower side of the display unit 102. The axis Y2 is also an axis perpendicular to the upper side and the lower side of the front surface and back surface of the mobile terminal device.

CPU201は、入力I/F204を介して、背面タッチパッド101から受信したユーザの指の接触に応じた信号に基づいて、背面タッチパッド101にユーザの指が接触した位置P1の情報を取得する。本実施形態では、位置P1は、図4(a)の座標上の位置(a1、b1)であるとする。CPU201は、a1に予め設定された係数k1をかけることで、表示部102上で位置P1に対応する位置P2のx2座標値a2を算出する。また、CPU201は、b1に予め設定された係数k2をかけることで、表示部102上で位置P1に対応する位置P2のy2座標値b2を算出する。即ち、CPU201は、表示部102上の位置P1に対応する位置P2の座標として(k1×a1、k2×b1)を算出する。なお、背面タッチパッド101と表示部102とは、向い合せに設置されている。そのため、x1y1座標とx2y2座標とにおいて、x1軸上の正負と、x2軸上の正負とは、逆になる。
CPU201は、S302で背面タッチパッド101への指の接触の位置に応じて、カーソル104の表示位置を決定する。それにより、ユーザは、カーソル104を表示させたい位置に表示させることができる。また、CPU201は、背面タッチパッド101への指の接触を検知した場合、接触位置に関係なく、表示部102の中央にカーソル104を表示することとしてもよい。
The CPU 201 acquires information on the position P1 at which the user's finger contacts the back touchpad 101 based on a signal corresponding to the touch of the user's finger received from the back touchpad 101 via the input I / F 204. In the present embodiment, the position P1 is assumed to be the position (a1, b1) on the coordinates in FIG. The CPU 201 calculates the x2 coordinate value a2 of the position P2 corresponding to the position P1 on the display unit 102 by multiplying a1 by a preset coefficient k1. Further, the CPU 201 calculates a y2 coordinate value b2 of the position P2 corresponding to the position P1 on the display unit 102 by multiplying b1 by a preset coefficient k2. That is, the CPU 201 calculates (k1 × a1, k2 × b1) as the coordinates of the position P2 corresponding to the position P1 on the display unit 102. The back touch pad 101 and the display unit 102 are installed facing each other. Therefore, in the x1y1 coordinate and the x2y2 coordinate, the positive / negative on the x1 axis is opposite to the positive / negative on the x2 axis.
In step S302, the CPU 201 determines the display position of the cursor 104 according to the position of the finger touching the back touch pad 101. Thereby, the user can display the cursor 104 at a position where the cursor 104 is to be displayed. Further, when detecting the contact of the finger with the back touch pad 101, the CPU 201 may display the cursor 104 at the center of the display unit 102 regardless of the contact position.

S303において、CPU201は、背面タッチパッド101上でユーザの指の移動を検知したか否かを判定する。より具体的には、CPU201は、入力I/F204を介して、背面タッチパッド101から取得した信号に基づいて、背面タッチパッド101上でのユーザの指の移動を検知する。例えば、CPU201は、背面タッチパッド101から指の接触に関する信号を継続的に取得する場合、最新の信号が示す指の接触位置と1つ前の信号が示す指の接触位置との距離が設定された閾値以上である場合、指の移動が発生したと判定する。
CPU201は、背面タッチパッド101上でユーザの指の移動を検知したと判定した場合、S304の処理に進み、背面タッチパッド101上でユーザの指の移動を検知していないと判定した場合、S305の処理に進む。
In step S <b> 303, the CPU 201 determines whether the movement of the user's finger is detected on the rear touch pad 101. More specifically, the CPU 201 detects the movement of the user's finger on the back touch pad 101 based on a signal acquired from the back touch pad 101 via the input I / F 204. For example, when the CPU 201 continuously acquires a signal related to finger contact from the back touch pad 101, the distance between the finger contact position indicated by the latest signal and the finger contact position indicated by the previous signal is set. If it is equal to or greater than the threshold value, it is determined that finger movement has occurred.
When the CPU 201 determines that the movement of the user's finger is detected on the back touch pad 101, the CPU 201 proceeds to the process of S304, and when the CPU 201 determines that the movement of the user's finger is not detected on the back touch pad 101, the process proceeds to S305. Proceed to the process.

S304において、CPU201は、S303で検知されたと判定された背面タッチパッド101上のユーザの指の移動に応じて、表示部102上のカーソル104を移動させる。
例えば、CPU201は、背面タッチパッド101から指の接触に関する信号を継続的に取得する場合、最新の信号が示す指の接触位置と1つ前の信号が示す指の接触位置との差分に応じて、カーソル104を移動させる。例えば、CPU201は、S303で、図4(a)の座標上におけるx1軸方向にa3、y1軸方向にb3の指の移動を検知したと判定したとする。その場合、CPU201は、表示部102内のカーソル104を、図4(b)の座標上で、x2軸方向に、予め設定された係数k3とa3とを掛け合わせて算出した分だけ、移動させる。また、CPU201は、表示部102内のカーソル104を、図4(b)の座標上で、y2軸方向に、予め設定された係数k4とb3とを掛け合わせて算出した分だけ、移動させる。係数k3、k4の値は、任意である。カーソル104の移動前の座標と、移動後の座標との差分の値を、カーソル104の移動値とする。
本実施形態では、CPU201は、表示部102にカーソル104が表示されている状態で、背面タッチパッド101から指が離れても、カーソル104を削除することはなく、そのままの位置にカーソル104を表示し続けるものとする。そして、CPU201は、再度、背面タッチパッド101に指が接触し、接触した指が背面タッチパッド101上を移動した場合、その移動に応じて、表示していたカーソル104を移動させる。
In step S <b> 304, the CPU 201 moves the cursor 104 on the display unit 102 in accordance with the movement of the user's finger on the rear touchpad 101 determined to be detected in step S <b> 303.
For example, when the CPU 201 continuously acquires a signal related to finger contact from the back surface touchpad 101, the CPU 201 according to the difference between the finger contact position indicated by the latest signal and the finger contact position indicated by the previous signal. The cursor 104 is moved. For example, it is assumed that the CPU 201 determines in S303 that the movement of the finger a3 in the x1 axis direction and the b3 finger in the y1 axis direction on the coordinates in FIG. In that case, the CPU 201 moves the cursor 104 in the display unit 102 by the amount calculated by multiplying the preset coefficient k3 and a3 in the x2 axis direction on the coordinates of FIG. . Further, the CPU 201 moves the cursor 104 in the display unit 102 by an amount calculated by multiplying a preset coefficient k4 and b3 in the y2 axis direction on the coordinates of FIG. The values of the coefficients k3 and k4 are arbitrary. The value of the difference between the coordinates before the movement of the cursor 104 and the coordinates after the movement is taken as the movement value of the cursor 104.
In the present embodiment, the CPU 201 does not delete the cursor 104 even if the finger is released from the rear touchpad 101 while the cursor 104 is displayed on the display unit 102, and displays the cursor 104 at the same position. Shall continue. Then, when the finger touches the back touchpad 101 again and the touched finger moves on the back touchpad 101, the CPU 201 moves the displayed cursor 104 in accordance with the movement.

背面タッチパッド101の大きさは、表示部102よりも小さい。そのため、CPU201は、背面タッチパッド101上の指の移動に応じた表示部102上のカーソル104の移動距離を、背面タッチパッド101上の指の移動距離以下にする場合(係数k3、k4の絶対値を1以下とする場合)、以下のような問題がある。例えば、表示部102の端から端までカーソル104を移動させる場合、ユーザは、背面タッチパッド101上で、指を移動させ、一旦、指を背面タッチパッド101から離し、再度指を接触させ、指を移動させる処理を繰り返す必要があり、操作が煩雑となる。しかし、例えば、カーソル104は、指が背面タッチパッド101上で実際に移動した距離以下の距離を移動することになり、ユーザが表示部102上でカーソル104の位置を微調整することが容易になるという利点もある。
また、CPU201は、背面タッチパッド101上の指の移動距離よりも、指の移動に応じた表示部102上のカーソル104の移動距離を大きくするような(絶対値が1よりも大きい)係数k3、k4を利用することができる。そうすることで、例えば、表示部102の端から端までカーソル104を移動させたい場合でも、ユーザは、一度の背面タッチパッド101上での指の移動を行えばよく、手間を軽減することができるという利点がある。しかし、カーソル104は、指が背面タッチパッド101上で実際に移動した距離以上の距離を移動することになるので、例えば、ユーザが表示部102上のカーソル104の位置を微調整することが困難となるという問題も生じる。以下では、背面タッチパッド101上の指の移動距離に応じたカーソル104の移動距離を、カーソル104の移動速度とする。
The size of the back touch pad 101 is smaller than that of the display unit 102. Therefore, the CPU 201 sets the movement distance of the cursor 104 on the display unit 102 according to the movement of the finger on the back touch pad 101 to be equal to or less than the movement distance of the finger on the back touch pad 101 (absolute coefficients k3 and k4). When the value is 1 or less), there are the following problems. For example, when the cursor 104 is moved from end to end of the display unit 102, the user moves the finger on the back touch pad 101, once separates the finger from the back touch pad 101, contacts the finger again, It is necessary to repeat the process of moving the operation, and the operation becomes complicated. However, for example, the cursor 104 moves a distance equal to or less than the distance that the finger has actually moved on the back touch pad 101, and it is easy for the user to fine-tune the position of the cursor 104 on the display unit 102. There is also an advantage of becoming.
In addition, the CPU 201 increases the moving distance of the cursor 104 on the display unit 102 in accordance with the movement of the finger (the absolute value is larger than 1) by the coefficient k3. , K4 can be used. By doing so, for example, even when the cursor 104 is to be moved from end to end of the display unit 102, the user only has to move his / her finger once on the rear touch pad 101, thereby reducing labor. There is an advantage that you can. However, since the cursor 104 moves a distance that is greater than or equal to the distance that the finger has actually moved on the back touchpad 101, it is difficult for the user to fine-tune the position of the cursor 104 on the display unit 102, for example. The problem that becomes. Hereinafter, the moving distance of the cursor 104 corresponding to the moving distance of the finger on the back touch pad 101 is referred to as the moving speed of the cursor 104.

そこで、CPU201は、以下のようにしてカーソル104の移動速度を決定することとしてもよい。即ち、CPU201は、背面タッチパッド101上における指の移動が検知された位置に応じて、カーソル104の移動速度を決定することとしてもよい。
より具体的には、CPU201は、以下のような処理を行う。検知された指の移動の始点となる点を、指の移動が検知された位置とする。例えば、CPU201は、S303で、図4(a)の座標上における位置P1から他の位置への指の移動を検知したと判定したとする。この場合、指の移動が検知された位置は、P1となる。
Therefore, the CPU 201 may determine the moving speed of the cursor 104 as follows. That is, the CPU 201 may determine the moving speed of the cursor 104 according to the position where the movement of the finger on the back touch pad 101 is detected.
More specifically, the CPU 201 performs the following processing. The point that is the starting point of the detected finger movement is the position where the finger movement is detected. For example, it is assumed that the CPU 201 determines in S303 that the movement of the finger from the position P1 on the coordinates in FIG. In this case, the position where the movement of the finger is detected is P1.

図5は、カーソルの移動速度について説明する図である。図5に示すように、円形である背面タッチパッド101の半径は、rである。また、指の移動が検知された位置を図5の位置Pであるとする。位置Pは、背面タッチパッド101の中心から距離lの位置に存在する。CPU201は、カーソル104の移動速度を、指の移動が検知された位置と、背面タッチパッド101の中心O1と、の距離に応じて決定する。
本実施形態では、CPU201は、指の移動が検知された位置が背面タッチパッド101の中心O1から遠い程、カーソル104の移動速度を高い値にする。例えば、CPU201は、指の移動が検知された位置と、背面タッチパッド101の中心O1と、の距離に比例して、カーソル104の移動速度を決定する。S303で検知した指の移動が、図4(a)の座標上におけるx1軸方向にa3、y1軸方向にb3の指の移動であった場合、CPU201は、カーソル104を以下のように移動させる。即ち、CPU201は、カーソル104の位置を、図4(b)の座標上で、x2軸方向に、予め設定された係数k5と、(l/r)の値と、a3と、を掛け合わせて算出した値だけ、移動させる。また、CPU201は、カーソル104の位置を、図4(b)の座標上で、y2軸方向に、予め設定された係数k6と、(l/r)の値と、b3と、を掛け合わせて算出した値だけ、移動させる。係数k5、k6の値は、任意である。
このように、CPU201は、指の移動を検知した場所が背面タッチパッド101の中心O1から遠い程、カーソル104の移動速度を高くし、中心O1に近い程、カーソル104の移動速度を低くすることができる。これにより、ユーザは、背面タッチパッド101の外周付近から指を移動させることで、カーソル104を大きく移動させることができる。また、ユーザは、背面タッチパッド101の中心O1付近から指を移動させることで、カーソル104の位置を微調整させることができる。
FIG. 5 is a diagram for explaining the moving speed of the cursor. As shown in FIG. 5, the radius of the circular back touch pad 101 is r. Further, the position where the movement of the finger is detected is assumed to be a position P in FIG. The position P exists at a distance l from the center of the rear touchpad 101. The CPU 201 determines the moving speed of the cursor 104 according to the distance between the position where the finger movement is detected and the center O1 of the back touchpad 101.
In the present embodiment, the CPU 201 increases the moving speed of the cursor 104 as the position where the finger movement is detected is farther from the center O1 of the back touchpad 101. For example, the CPU 201 determines the moving speed of the cursor 104 in proportion to the distance between the position where the finger movement is detected and the center O1 of the back touchpad 101. When the movement of the finger detected in S303 is the movement of the finger a3 in the x1 axis direction and b3 in the y1 axis direction on the coordinates in FIG. 4A, the CPU 201 moves the cursor 104 as follows. . That is, the CPU 201 multiplies the position of the cursor 104 by a preset coefficient k5, the value of (l / r), and a3 in the x2 axis direction on the coordinates of FIG. Move only the calculated value. Further, the CPU 201 multiplies the position of the cursor 104 by a preset coefficient k6, the value of (l / r), and b3 in the y2 axis direction on the coordinates of FIG. Move only the calculated value. The values of the coefficients k5 and k6 are arbitrary.
As described above, the CPU 201 increases the moving speed of the cursor 104 as the place where the movement of the finger is detected is farther from the center O1 of the rear touchpad 101, and decreases the moving speed of the cursor 104 as it is closer to the center O1. Can do. Accordingly, the user can move the cursor 104 greatly by moving the finger from the vicinity of the outer periphery of the back touchpad 101. Further, the user can finely adjust the position of the cursor 104 by moving the finger from the vicinity of the center O1 of the back touchpad 101.

また、ユーザは、携帯端末装置100を保持する手の人差し指で背面タッチパッド101を操作することになるが、携帯端末装置100を保持する手の人差し指は、y1軸やy2軸に対して30°〜40°程度の傾きがある。そのため、ユーザは、携帯端末装置100を保持する手の人差し指を、背面タッチパッド101をx1軸に平行又は垂直に動かしにくい。また、ユーザは、ユーザから視認できない背面にある背面タッチパッド101を、ユーザから視認できない人差し指で正確に操作するのは、困難である。そのため、例えば、カーソル104を軸x2と垂直又は平行な方向に移動させたい場合でも、ユーザが背面タッチパッドを正確に操作できないため、CPU201は、カーソル104を斜め上又は斜め下に移動させてしまうことがある。
そこで、CPU201は、x2軸方向に対して垂直又は平行に移動させるように、S304で算出したカーソル104の移動値を補正することとしてもよい。カーソル104の移動値とは、カーソル104の移動前の座標と、移動後の座標との差分である。S304で算出されたカーソル104の移動値を、カーソル104の移動ベクトルとして表す。例えば、CPU201がカーソル104をx2軸方向の変更値として(k3×a3)を算出し、y2軸方向の変更値として(k4×b3)を算出した場合、カーソル104の移動ベクトルは、(k3×a3、k4×b3)として表される。
In addition, the user operates the rear touchpad 101 with the index finger of the hand holding the mobile terminal device 100. The index finger of the hand holding the mobile terminal device 100 is 30 ° with respect to the y1 axis or the y2 axis. There is an inclination of about ~ 40 °. Therefore, it is difficult for the user to move the index finger of the hand holding the mobile terminal device 100 in parallel or perpendicularly to the rear touchpad 101 with respect to the x1 axis. In addition, it is difficult for the user to accurately operate the rear touch pad 101 on the back surface that cannot be viewed by the user with an index finger that cannot be viewed by the user. Therefore, for example, even if the user wants to move the cursor 104 in a direction perpendicular or parallel to the axis x2, the CPU 201 moves the cursor 104 diagonally up or down because the user cannot operate the back touchpad accurately. Sometimes.
Therefore, the CPU 201 may correct the movement value of the cursor 104 calculated in step S304 so that the movement value is vertical or parallel to the x2 axis direction. The movement value of the cursor 104 is a difference between the coordinates before the movement of the cursor 104 and the coordinates after the movement. The movement value of the cursor 104 calculated in S304 is expressed as a movement vector of the cursor 104. For example, when the CPU 201 calculates (k3 × a3) with the cursor 104 as the change value in the x2 axis direction and calculates (k4 × b3) as the change value in the y2 axis direction, the movement vector of the cursor 104 is (k3 × a3). a3, k4 × b3).

図6は、カーソル104の移動の補正処理の一例を説明する図である。CPU201は、S304で算出されたカーソル104の移動ベクトルの向きに応じて、カーソル104の移動値を補正する。x2軸に対するカーソル104の移動ベクトルの向きを示す角度をθとすると、CPU201は、以下のようにして、カーソル104の移動を補正する。
即ち、CPU201は、0°≦θ≦45°、又は315<θ<360°、又は135°<θ≦225°である場合、カーソル104を、x2軸方向にS304で算出したx2軸方向の移動値だけ移動させ、y2軸方向にカーソル104を移動させない。また、CPU201は、45°<θ≦135°、又は225<θ≦315°である場合、カーソル104を、y2軸方向にS304で算出したy2軸方向の移動値だけ移動させ、x2軸方向にカーソル104を移動させない。
FIG. 6 is a diagram for explaining an example of correction processing for movement of the cursor 104. The CPU 201 corrects the movement value of the cursor 104 according to the direction of the movement vector of the cursor 104 calculated in S304. Assuming that the angle indicating the direction of the movement vector of the cursor 104 with respect to the x2 axis is θ, the CPU 201 corrects the movement of the cursor 104 as follows.
That is, when 0 ° ≦ θ ≦ 45 °, or 315 <θ <360 °, or 135 ° <θ ≦ 225 °, the CPU 201 moves the cursor 104 in the x2 axis direction calculated in S304 in the x2 axis direction. Only the value is moved, and the cursor 104 is not moved in the y2 axis direction. Further, when 45 ° <θ ≦ 135 ° or 225 <θ ≦ 315 °, the CPU 201 moves the cursor 104 in the y2 axis direction by the movement value in the y2 axis direction calculated in S304, and in the x2 axis direction. The cursor 104 is not moved.

例えば、カーソル104の移動ベクトルが図6のベクトルV1であるとする。x2軸に対するベクトルV1の向きを示す角度は、θ1であり、0°≦θ1≦45°である。そのため、CPU201は、カーソル104を、x2軸方向にS304で算出したx2軸方向の移動値だけ移動させ、y2軸方向には移動させない。また、例えば、カーソル104の移動ベクトルが図6のベクトルV2であるとする。x2軸に対するベクトルV2の向きを示す角度は、θ2であり、225°<θ2≦315°である。そのため、CPU201は、カーソル104を、y2軸方向にS304で算出したy2軸方向の移動値だけ移動させ、x2軸方向には移動させない。
このような処理により、CPU201は、カーソル104をx2軸に対して水平又は垂直の方向に移動させることができる。これにより、ユーザは、カーソル104を正確に移動させることが容易になり、より利便性が向上することとなる。
For example, it is assumed that the movement vector of the cursor 104 is the vector V1 in FIG. The angle indicating the direction of the vector V1 with respect to the x2 axis is θ1, and 0 ° ≦ θ1 ≦ 45 °. Therefore, the CPU 201 moves the cursor 104 by the movement value in the x2 axis direction calculated in S304 in the x2 axis direction and does not move it in the y2 axis direction. For example, assume that the movement vector of the cursor 104 is the vector V2 in FIG. The angle indicating the direction of the vector V2 with respect to the x2 axis is θ2, and 225 ° <θ2 ≦ 315 °. Therefore, the CPU 201 moves the cursor 104 by the movement value in the y2 axis direction calculated in S304 in the y2 axis direction, and does not move it in the x2 axis direction.
By such processing, the CPU 201 can move the cursor 104 in the horizontal or vertical direction with respect to the x2 axis. Thereby, the user can easily move the cursor 104 accurately, and the convenience is further improved.

S305において、CPU201は、入力I/F204を介して、背面タッチパッド101から取得した信号に基づいて、ユーザによる背面タッチパッド101へのタップ操作の検知処理を行い、タップ操作を検知したか否かを判定する。例えば、CPU201は、以下のようにして、タップ操作を検知する。即ち、CPU201は、背面タッチパッド101への指の接触を検知した後、設定された期間内に背面タッチパッド101からの指の離れを検知した場合、タップ操作を検知する。
CPU201は、ユーザによる背面タッチパッド101のタップ操作を検知したと判定した場合、S306の処理に進む。また、CPU201は、ユーザによる背面タッチパッド101のタップ操作を検知していないと判定した場合、S303の処理に進む。
S306において、CPU201は、表示部102内のカーソル104が示す位置に存在するアイコンを選択する処理を行う。CPU201は、選択したアイコンに応じたアプリケーションを起動させる。そして、CPU201は、表示部102内からカーソル104を削除する。また、CPU201は、表示部102上に、カーソルによる入力操作を受け付ける領域を設けることができる。例えば、CPU201は、カーソル104が、カーソルによる入力操作を受け付ける領域内にあるアイコンを示している場合、S305でタップ操作を検知したと判定した場合、そのアイコンを選択する。しかし、CPU201は、カーソル104が、カーソルによる入力操作を受け付ける領域外にあるアイコンを示している場合、S305でタップ操作を検知したと判定した場合、そのアイコンを選択する処理をおこなわない。
In step S <b> 305, the CPU 201 performs detection processing of a tap operation performed on the rear touchpad 101 by the user based on a signal acquired from the rear touchpad 101 via the input I / F 204, and determines whether the tap operation is detected. Determine. For example, the CPU 201 detects a tap operation as follows. That is, the CPU 201 detects a tap operation when it detects the separation of the finger from the back touch pad 101 within a set period after detecting the touch of the finger to the back touch pad 101.
If the CPU 201 determines that a tap operation on the rear touchpad 101 by the user has been detected, the CPU 201 proceeds to the process of S306. If the CPU 201 determines that the user has not detected a tap operation on the back touchpad 101, the process proceeds to S303.
In step S <b> 306, the CPU 201 performs processing for selecting an icon that exists at the position indicated by the cursor 104 in the display unit 102. The CPU 201 activates an application corresponding to the selected icon. Then, the CPU 201 deletes the cursor 104 from the display unit 102. Further, the CPU 201 can provide an area on the display unit 102 that accepts an input operation with a cursor. For example, when the cursor 104 indicates an icon in an area that accepts an input operation using the cursor, the CPU 201 selects the icon when determining that a tap operation is detected in S305. However, if the cursor 104 indicates an icon outside the area for accepting an input operation with the cursor, if the CPU 201 determines that a tap operation has been detected in S305, the CPU 201 does not perform processing for selecting the icon.

本実施形態では、CPU201は、S305でユーザによる背面タッチパッド101へのタップ操作の検知を行うこととしたが、ユーザによる背面タッチパッド101へのフリック操作等の他のジェスチャ操作の検知を行うこととしてもよい。また、CPU201は、背面タッチパッド101が感圧式のタッチパッドである場合、背面タッチパッド101への強めの押し込み操作を検知することとしてもよい。また、CPU201は、S305で検知したと判定されたジェスチャ操作に応じた処理を、S306で行うこととしてもよい。
例えば、CPU201は、S305でユーザによる背面タッチパッド101へのタップ操作を検知した後、設定された期間内に、再度タップ操作を検知した場合、ダブルタップ操作を検知する。また、CPU201は、タップ操作を検知した後、設定された期間内に、再度タップ操作を検知する処理を繰り返すことで、2回以上の連続したタップ操作を検知することができる。
例えば、CPU201は、S305で2回以上の連続したタップ操作を検知した場合、以下の処理を行うこととする。CPU201は、表示部102の表示画面内のカーソル104の位置を中心に、表示画面を拡大する。CPU201は、タップ操作の連続回数に応じて、表示画面の拡大倍率を決定する。例えば、CPU201は、n回連続のタップ操作を検知した場合、表示画面を縦横それぞれ2n倍に拡大することとする。
また、CPU201は、S305で2回以上の連続したタップ操作を検知し、表示部102の表示画面が既に拡大された画面である場合、以下の処理を行うこととする。CPU201は、表示部102の表示画面内のカーソル104の位置を中心に、表示画面を縮小する。CPU201は、タップ操作の連続回数に応じて、表示画面の縮小倍率を決定する。例えば、CPU201は、n回連続のタップ操作を検知した場合、表示画面を縦横それぞれ1/2n倍に縮小することとする。
In the present embodiment, the CPU 201 detects a tap operation on the back touchpad 101 by the user in S305, but detects other gesture operations such as a flick operation on the backtouch pad 101 by the user. It is good. Further, when the back touchpad 101 is a pressure-sensitive touchpad, the CPU 201 may detect a strong pushing operation to the backtouch pad 101. In addition, the CPU 201 may perform processing according to the gesture operation determined to be detected in S305 in S306.
For example, if the CPU 201 detects a tap operation on the back touchpad 101 by the user in S305 and then detects the tap operation again within a set period, the CPU 201 detects a double tap operation. Further, after detecting the tap operation, the CPU 201 can detect two or more consecutive tap operations by repeating the process of detecting the tap operation again within the set period.
For example, when the CPU 201 detects two or more consecutive tap operations in S305, the CPU 201 performs the following processing. The CPU 201 enlarges the display screen around the position of the cursor 104 in the display screen of the display unit 102. The CPU 201 determines the magnification of the display screen according to the number of continuous tap operations. For example, when the CPU 201 detects n consecutive tap operations, the CPU 201 enlarges the display screen by 2 n times vertically and horizontally.
In addition, the CPU 201 detects two or more consecutive tap operations in step S305, and performs the following processing when the display screen of the display unit 102 is an enlarged screen. The CPU 201 reduces the display screen around the position of the cursor 104 in the display screen of the display unit 102. The CPU 201 determines the reduction magnification of the display screen according to the number of continuous tap operations. For example, when the CPU 201 detects n consecutive tap operations, the CPU 201 reduces the display screen by 1/2 n times in the vertical and horizontal directions.

本実施形態では、CPU201は、表示部102にカーソル104が表示されている状態で、背面タッチパッド101から指が離れても、カーソル104を削除することはなく、そのままの位置にカーソル104を表示し続けるものとした。しかし、CPU201は、表示部102にカーソル104が表示されている状態で、背面タッチパッド101からの指の離れを検知した後、背面タッチパッドへの指の接触を検知しないまま設定された期間の経過後に、カーソル104を削除してもよい。このように、CPU201は、設定された期間使用されない不要なカーソルを削除することで、不要なオブジェクトの表示を削減することで、ユーザによる表示画面の視認性を向上させることができる。
また、CPU201は、表示部102にカーソル104が表示されている状態で、表示部102へのユーザの指の接触を検知した場合、カーソル104を削除することとしてもよい。このように、CPU201は、ユーザが表示部102を介した操作をする際に、使用されない不要なカーソルを削除することで、不要なオブジェクトの表示を削減することで、ユーザによる表示画面の視認性を向上させることができる。
In the present embodiment, the CPU 201 does not delete the cursor 104 even if the finger is released from the rear touchpad 101 while the cursor 104 is displayed on the display unit 102, and displays the cursor 104 at the same position. To continue. However, the CPU 201 detects the separation of the finger from the back touch pad 101 in a state where the cursor 104 is displayed on the display unit 102, and then detects a finger contact with the back touch pad for a set period. The cursor 104 may be deleted after the elapse. As described above, the CPU 201 can improve the visibility of the display screen by the user by deleting unnecessary cursors that are not used for a set period of time, thereby reducing the display of unnecessary objects.
Further, the CPU 201 may delete the cursor 104 when detecting the touch of the user's finger on the display unit 102 in a state where the cursor 104 is displayed on the display unit 102. As described above, when the user performs an operation through the display unit 102, the CPU 201 deletes unnecessary cursors that are not used, thereby reducing the display of unnecessary objects, so that the user can view the display screen. Can be improved.

以上、本実施形態の処理により、携帯端末装置100は、ユーザによる指1本での背面タッチパッド101の操作に基づいて、表示部102に表示されている画面に対する入力操作を受け付けることができる。携帯端末装置100は、表示部102に表示されている画面中で親指の届かない場所にあるオブジェクトに対する入力操作も受け付けることができ、ユーザによる片手での快適な携帯端末装置の操作を可能にできる。
また、背面タッチパッド101に対する人差し指によるドラッグ操作により表示部102の画面上の親指で操作できない場所にあるオブジェクトの位置を、親指で操作可能な範囲に変更し、親指でオブジェクトの操作を行うという方法が考えられる。しかし、この方法では、ユーザは、人差し指と親指との2つの指をそれぞれ別の操作のために利用しなければならない。本実施形態の方法では、人指し指1本で、表示部102の画面上の親指の届かない範囲にあるオブジェクトの操作を行うことができ、より簡易な操作が可能となる。
As described above, according to the processing of the present embodiment, the mobile terminal device 100 can accept an input operation on the screen displayed on the display unit 102 based on the operation of the rear touchpad 101 with one finger by the user. The mobile terminal device 100 can also accept an input operation on an object in a place where the thumb does not reach on the screen displayed on the display unit 102, and can allow the user to operate the mobile terminal device comfortably with one hand. .
Also, a method of changing the position of an object in a place where the thumb on the screen of the display unit 102 cannot be operated by a drag operation with the index finger to the rear touch pad 101 to a range where the thumb can operate, and operating the object with the thumb. Can be considered. However, in this method, the user must use two fingers, the index finger and the thumb, for different operations. In the method of the present embodiment, an object within the range where the thumb on the screen of the display unit 102 does not reach can be operated with one index finger, and a simpler operation is possible.

<その他の実施形態>
実施形態1では、携帯端末装置100が、背面タッチパッド101を含むこととした。しかし、携帯端末装置100は、背面タッチパッド101を含まない場合でも、外付け用の背面タッチパッドを背面に設置することで実施形態1と同様の処理を行うことができる。
図7は、外付けの背面タッチパッドの一例を説明する図である。図7には、背面タッチパッド101を含まない携帯端末装置100の背面に、外付け背面タッチパッド111が設置されている様子が示されている。外付け背面タッチパッド111は、静電容量方式のタッチパッドであり、指等の外付け背面タッチパッド111への接触に関する信号を、外付け受信器112を介して、携帯端末装置100に無線で送信することで出力する。それにより、CPU201は、外付け背面タッチパッド111からの信号を取得できる。
外付け受信器112は、外付け背面タッチパッド111から無線で出力される信号を受信し、携帯端末装置100に中継する受信部である。外付け背面タッチパッド111と外付け受信器112とは、Bluetooth(登録商標)やNFC(Near Field Communication)等の無線通信の規格を利用して、信号の送受信を行う。外付け受信器112は、例えば、マイクロUSB規格の接続部を含み、接続部を介して、携帯端末装置100と接続される。CPU201は、外付け受信器112が受信した信号を、接続I/F205を介して、取得することができる。それにより、実施形態1のようにカーソル操作が行われることになる。携帯端末装置100と外付け背面タッチパッド111とは、外付け受信器112を介して、無線で接続されることとしたが、有線で接続されることとしてもよい。
CPU201は、外付け背面タッチパッド111を背面タッチパッド101と同様に利用することで、実施形態1と同様の処理を行うことができる。
外付け背面タッチパッド111と外付け受信器112との組み合わせは、背面タッチパッドを含まない携帯端末装置に実施形態1と同様の背面タッチパッドを介したカーソル操作処理を可能とさせるための操作装置の一例である。
<Other embodiments>
In the first embodiment, the mobile terminal device 100 includes the back touch pad 101. However, even when the mobile terminal device 100 does not include the back touch pad 101, the mobile terminal device 100 can perform the same processing as in the first embodiment by installing an external back touch pad on the back.
FIG. 7 is a diagram illustrating an example of an external back touch pad. FIG. 7 shows a state in which an external back touch pad 111 is installed on the back of the mobile terminal device 100 that does not include the back touch pad 101. The external back touch pad 111 is a capacitive touch pad, and a signal related to contact with the external back touch pad 111 such as a finger is wirelessly transmitted to the mobile terminal device 100 via the external receiver 112. Output by sending. Thereby, the CPU 201 can acquire a signal from the external back touch pad 111.
The external receiver 112 is a receiving unit that receives a signal output wirelessly from the external back touch pad 111 and relays it to the mobile terminal device 100. The external back touch pad 111 and the external receiver 112 transmit and receive signals using wireless communication standards such as Bluetooth (registered trademark) and NFC (Near Field Communication). The external receiver 112 includes, for example, a micro USB standard connection unit, and is connected to the mobile terminal device 100 via the connection unit. The CPU 201 can acquire the signal received by the external receiver 112 via the connection I / F 205. Thereby, the cursor operation is performed as in the first embodiment. The mobile terminal device 100 and the external back touch pad 111 are connected wirelessly via the external receiver 112, but may be connected by wire.
The CPU 201 can perform the same processing as in the first embodiment by using the external back touch pad 111 in the same manner as the back touch pad 101.
The combination of the external back touch pad 111 and the external receiver 112 is an operating device for enabling a mobile terminal device not including a back touch pad to perform cursor operation processing via the back touch pad as in the first embodiment. It is an example.

携帯端末装置100は、外付け背面タッチパッド111と初めて接続を行う場合の初期設定を行うためのアプリケーションを、外部のサーバ等からダウンロードすることができるものとする。また、携帯端末装置100は、外部のスマートウオッチ等の外部装置から無線でカーソル104の操作を可能とするアプリケーションを、外部のサーバ等からダウンロードすることができるものとする。
また、携帯端末装置100は、無線マウス等を介して、表示部102に表示されるカーソル104を操作することとしてもよい。
背面タッチパッド101や外付け背面タッチパッド111は、静電容量方式のタッチパッドであるとしたが、抵抗膜方式等の他の方式のタッチパッドであってもよい。
外付け背面タッチパッド111は、携帯端末装置100の背面に設置されるものとしたが、携帯端末装置100を覆う携帯端末カバーに設置されることとしてもよい。それにより、携帯端末装置100は、耐久性を上げるために携帯端末カバーを装着する場合でも、背面タッチパッド111を介して、実施形態1と同様のカーソル操作を行うことができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
携帯端末装置以外の背面にタッチパッドを有するタブレットコンピュータ等の背面にタッチパッドを有する情報処理装置も、上記の実施形態の処理を行うことができる。
また、携帯端末装置100は、外部のサーバから上記の実施形態を実現するためのプログラムを取得し、取得したプログラムをCPU201により実行することで、上記実施形態の処理を実現することとしてもよい。
The portable terminal device 100 is assumed to be able to download an application for performing an initial setting when first connecting to the external back touch pad 111 from an external server or the like. Further, it is assumed that the mobile terminal device 100 can download an application that allows the cursor 104 to be operated wirelessly from an external device such as an external smart watch from an external server or the like.
In addition, the mobile terminal device 100 may operate the cursor 104 displayed on the display unit 102 via a wireless mouse or the like.
The back touch pad 101 and the external back touch pad 111 are capacitive touch pads, but may be other touch pads such as a resistive film.
The external back touch pad 111 is installed on the back surface of the mobile terminal device 100, but may be installed on a mobile terminal cover that covers the mobile terminal device 100. Thereby, the portable terminal device 100 can perform the same cursor operation as that of the first embodiment via the back touch pad 111 even when the portable terminal cover is attached to increase durability.
As mentioned above, although preferable embodiment of this invention was explained in full detail, this invention is not limited to the specific embodiment which concerns.
An information processing apparatus having a touch pad on the back surface, such as a tablet computer having a touch pad on the back surface other than the mobile terminal device, can also perform the processing of the above embodiment.
Moreover, the portable terminal device 100 is good also as acquiring the program for implement | achieving said embodiment from an external server, and executing the acquired program by CPU201, and implement | achieving the process of the said embodiment.

100 携帯端末装置、101 背面タッチパッド、201 CPU 100 mobile terminal device, 101 rear touchpad, 201 CPU

Claims (12)

携帯端末装置であって、
前記携帯端末装置の背面に設置された背面タッチパッドに対する指の接触に応じて、表示部に指示オブジェクトを表示する表示手段と、
前記背面タッチパッドにおける前記指の移動に応じて、前記表示手段により表示された前記指示オブジェクトを移動させる移動手段と、
前記背面タッチパッドへの前記指によるジェスチャ操作に応じて、前記移動手段により移動された前記指示オブジェクトに基づいた制御を行う制御手段と、
を有する携帯端末装置。
A portable terminal device,
Display means for displaying an instruction object on a display unit in response to a finger touching a back touchpad installed on the back surface of the mobile terminal device;
Moving means for moving the pointing object displayed by the display means in response to movement of the finger on the back touch pad;
Control means for performing control based on the pointing object moved by the moving means in response to a gesture operation by the finger on the back touchpad;
A mobile terminal device.
前記表示手段は、前記背面タッチパッドに対する前記指の接触に応じて、前記背面タッチパッドにおける前記指の接触位置に応じた表示位置に前記指示オブジェクトを表示する請求項1記載の携帯端末装置。   The portable terminal device according to claim 1, wherein the display unit displays the instruction object at a display position corresponding to a contact position of the finger on the rear touch pad in response to the finger contact with the rear touch pad. 前記制御手段は、前記背面タッチパッドへの前記指によるタップ操作に応じて、前記移動手段により移動された前記指示オブジェクトの位置に対応するアイコンを選択する制御を行う請求項1又は2記載の携帯端末装置。   3. The mobile phone according to claim 1, wherein the control unit performs control for selecting an icon corresponding to the position of the pointing object moved by the moving unit in response to a tap operation by the finger on the back touch pad. Terminal device. 前記制御手段は、前記表示部に表示されている画面が縮小されていない画面である場合、前記背面タッチパッドへの前記指による連続したタップ操作に応じて、前記表示部に表示されている画面を前記移動手段により移動された前記指示オブジェクトを中心に拡大し、前記表示部に表示されている画面が拡大されている画面である場合、前記背面タッチパッドへの前記指による連続したタップ操作に応じて、前記表示部に表示されている画面を前記移動手段により移動された前記指示オブジェクトを中心に縮小する制御を行う請求項1乃至3何れか1項記載の携帯端末装置。   When the screen displayed on the display unit is a non-reduced screen, the control unit displays the screen displayed on the display unit in response to successive tap operations with the finger on the rear touchpad. When the pointing object moved by the moving means is enlarged and the screen displayed on the display unit is an enlarged screen, the finger can be continuously tapped with the finger on the back touchpad. 4. The mobile terminal device according to claim 1, wherein the control is performed so that the screen displayed on the display unit is reduced around the pointing object moved by the moving unit. 5. 前記移動手段は、前記背面タッチパッドにおける前記指の移動に応じて、前記前記指の位置が前記背面タッチパッドの外周に近づく程に移動速度が速くなるように、前記表示手段により表示された前記指示オブジェクトを移動させる請求項1乃至4何れか1項記載の携帯端末装置。   The moving means is displayed by the display means so that the moving speed becomes faster as the position of the finger approaches the outer periphery of the rear touch pad in accordance with the movement of the finger on the rear touch pad. The mobile terminal device according to claim 1, wherein the pointing object is moved. 前記移動手段は、前記背面タッチパッドにおける前記指の移動に応じて、前記表示手段により表示された前記指示オブジェクトを前記表示部の下辺に対して垂直、又は平行に移動させる請求項1乃至5何れか1項記載の携帯端末装置。   The moving means moves the pointing object displayed by the display means vertically or parallel to the lower side of the display unit in accordance with the movement of the finger on the back touchpad. A portable terminal device according to claim 1. 前記携帯端末装置の表面に設置されたタッチパネルへの第2の指の接触を検知した場合、前記表示手段により表示された前記指示オブジェクトを削除する削除手段を更に有する請求項1乃至6何れか1項記載の携帯端末装置。   7. The apparatus according to claim 1, further comprising: a deleting unit that deletes the pointing object displayed by the display unit when detecting a second finger contact with a touch panel installed on the surface of the portable terminal device. The portable terminal device according to the item. 前記背面タッチパッドから前記指の離れを検知した後、設定された期間の経過後に前記表示手段により表示された前記指示オブジェクトを削除する削除手段を更に有する請求項1乃至6何れか1項記載の携帯端末装置。   7. The apparatus according to claim 1, further comprising a deleting unit that deletes the pointing object displayed by the display unit after a set period of time has elapsed after detecting the separation of the finger from the back touchpad. Mobile terminal device. 前記背面タッチパッドは、前記携帯端末装置を保持する手の人差し指の指先により操作可能な範囲に設置され、半径10〜20mmの円形のタッチパッドである請求項1乃至8何れか1項記載の携帯端末装置。   9. The mobile phone according to claim 1, wherein the back touchpad is a circular touchpad having a radius of 10 to 20 mm, which is installed in a range that can be operated by a fingertip of an index finger of a hand holding the mobile terminal device. Terminal device. 請求項1乃至9何れか1項記載の携帯端末装置に用いられる背面タッチパッドであって、指の接触を検知し、その検知した前記指の接触に応じた信号を出力する出力手段を有する背面タッチパッドと、
前記背面タッチパッドから出力される前記信号を受信し、携帯端末装置に入力する入力手段を有する受信器と、
からなる操作装置。
10. A back touch pad used in the portable terminal device according to claim 1, further comprising an output unit that detects a finger contact and outputs a signal corresponding to the detected finger contact. Touchpad,
A receiver having input means for receiving the signal output from the back touchpad and inputting the signal to a mobile terminal device;
An operating device comprising:
携帯端末装置が実行する情報処理方法であって、
前記携帯端末装置の背面に設置された背面タッチパッドに対する指の接触に応じて、表示部に指示オブジェクトを表示する表示ステップと、
前記背面タッチパッドにおける前記指の移動に応じて、前記表示ステップで表示された前記指示オブジェクトを移動させる移動ステップと、
前記背面タッチパッドへの前記指によるジェスチャ操作に応じて、前記移動ステップで移動された前記指示オブジェクトに基づいた制御を行う制御ステップと、
を含む情報処理方法。
An information processing method executed by a mobile terminal device,
A display step of displaying an instruction object on the display unit in response to a finger touching the back touchpad installed on the back surface of the mobile terminal device;
A movement step of moving the pointing object displayed in the display step according to the movement of the finger on the back touchpad;
A control step of performing control based on the pointing object moved in the moving step in response to a gesture operation by the finger on the back touch pad;
An information processing method including:
コンピュータを、請求項1乃至9何れか1項記載の携帯端末装置の各手段として、機能させるためのプログラム。   The program for functioning a computer as each means of the portable terminal device in any one of Claims 1 thru | or 9.
JP2015235110A 2015-12-01 2015-12-01 Portable terminal device, operation device, information processing method, and program Pending JP2017102676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015235110A JP2017102676A (en) 2015-12-01 2015-12-01 Portable terminal device, operation device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015235110A JP2017102676A (en) 2015-12-01 2015-12-01 Portable terminal device, operation device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2017102676A true JP2017102676A (en) 2017-06-08

Family

ID=59017345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015235110A Pending JP2017102676A (en) 2015-12-01 2015-12-01 Portable terminal device, operation device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2017102676A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111026323A (en) * 2019-12-13 2020-04-17 钟林 Method and device for operating rotation function of intelligent terminal by using sliding-pressing gesture

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111026323A (en) * 2019-12-13 2020-04-17 钟林 Method and device for operating rotation function of intelligent terminal by using sliding-pressing gesture

Similar Documents

Publication Publication Date Title
KR102141099B1 (en) Rapid screen segmentation method and apparatus, electronic device, display interface, and storage medium
KR102120930B1 (en) User input method of portable device and the portable device enabling the method
JP4904375B2 (en) User interface device and portable terminal device
US8976140B2 (en) Touch input processor, information processor, and touch input control method
US10073493B2 (en) Device and method for controlling a display panel
JP5759660B2 (en) Portable information terminal having touch screen and input method
US20160132139A1 (en) System and Methods for Controlling a Cursor Based on Finger Pressure and Direction
US20150012880A1 (en) Moving an object displayed on a display screen
TW201531925A (en) Multi-touch virtual mouse
KR102297473B1 (en) Apparatus and method for providing touch inputs by using human body
CN103729109B (en) A kind of interface display method and terminal
TW201319884A (en) Touch control device and method
KR20160019762A (en) Method for controlling touch screen with one hand
US20170075453A1 (en) Terminal and terminal control method
KR101503159B1 (en) Method of controlling touch-screen detecting eyesight
JP2015011679A (en) Operation input device and input operation processing method
WO2018160258A1 (en) System and methods for extending effective reach of a user&#39;s finger on a touchscreen user interface
JP2014056519A (en) Portable terminal device, incorrect operation determination method, control program, and recording medium
KR20130102670A (en) For detailed operation of the touchscreen handset user-specific finger and touch pen point contact location method and system for setting
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input
JP2017102676A (en) Portable terminal device, operation device, information processing method, and program
US10101905B1 (en) Proximity-based input device
US20150091831A1 (en) Display device and display control method
KR20110066545A (en) Method and terminal for displaying of image using touchscreen
KR20170124593A (en) Intelligent interaction methods, equipment and systems