JP6027703B1 - Information processing apparatus and control program - Google Patents

Information processing apparatus and control program Download PDF

Info

Publication number
JP6027703B1
JP6027703B1 JP2016177931A JP2016177931A JP6027703B1 JP 6027703 B1 JP6027703 B1 JP 6027703B1 JP 2016177931 A JP2016177931 A JP 2016177931A JP 2016177931 A JP2016177931 A JP 2016177931A JP 6027703 B1 JP6027703 B1 JP 6027703B1
Authority
JP
Japan
Prior art keywords
display
mode
detected
touch
move
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016177931A
Other languages
Japanese (ja)
Other versions
JP2017021829A (en
Inventor
長谷川 進
進 長谷川
清介 宮澤
清介 宮澤
裕介 平野
裕介 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016177931A priority Critical patent/JP6027703B1/en
Application granted granted Critical
Publication of JP6027703B1 publication Critical patent/JP6027703B1/en
Publication of JP2017021829A publication Critical patent/JP2017021829A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

【課題】新規な情報処理装置を提供する。【解決手段】ディスプレイ(20)と、タッチパッド(30)と、主制御部(10)とを備え、主制御部(10)は、第1のモードと第2のモードとを有し、第2のモードにおいて、第1のモードにおいて検知した位置を、アプリケーションに通知する。【選択図】図1A novel information processing apparatus is provided. A display (20), a touch pad (30), and a main control unit (10) are provided. The main control unit (10) has a first mode and a second mode. In the second mode, the position detected in the first mode is notified to the application. [Selection] Figure 1

Description

本発明は、画面内の表示をスクロールさせるタッチ操作を受け付けるタッチパッドを備えた情報処理装置に関する。   The present invention relates to an information processing apparatus including a touch pad that receives a touch operation for scrolling a display in a screen.

従来、表示部内の表示をスクロールさせるタッチ操作を受け付ける情報処理装置が知られている。そのような情報処理装置の一例が、特許文献1に記載されている。具体的には、特許文献1に記載の座標入力機器は、入力操作面(表示部)内にスクロール領域を設定する。ユーザは、入力操作面のスクロール領域上に接触させた指を、該スクロール領域が延伸する方向に滑らせることによって、入力操作面内の表示をスクロールさせることができる。   Conventionally, an information processing apparatus that accepts a touch operation for scrolling a display in a display unit is known. An example of such an information processing apparatus is described in Patent Document 1. Specifically, the coordinate input device described in Patent Literature 1 sets a scroll area in the input operation surface (display unit). The user can scroll the display in the input operation surface by sliding the finger in contact with the scroll region of the input operation surface in the direction in which the scroll region extends.

特開2000−214994号公報(2000年8月4日公開)JP 2000-214994 A (released on August 4, 2000)

しかしながら、特許文献1に記載の上記座標入力機器は、表示を上下方向にスクロールする操作を受け付けるスクロール領域と、表示を左右方向にスクロールする操作を受け付ける他のスクロール領域とを設定する。そのため、上記座標入力機器のユーザは、表示を斜め方向にスクロールしたい場合、まず、一方のスクロール領域に指を接触させて、表示を上下方向にスクロールさせる一段回目のタッチ操作を行う。次に、ユーザは、他方のスクロール領域に指を接触させて、表示を左右方向にスクロールさせる二段階目のタッチ操作を行う。このように、ユーザは、表示を斜め方向にスクロールするために、手間のかかる二段階のタッチ操作を行う必要がある。   However, the coordinate input device described in Patent Literature 1 sets a scroll area for accepting an operation for scrolling the display in the vertical direction and another scroll area for accepting an operation for scrolling the display in the horizontal direction. Therefore, when the user of the coordinate input device wants to scroll the display in an oblique direction, the user first touches one of the scroll areas and performs a first touch operation to scroll the display in the vertical direction. Next, the user performs a second-stage touch operation in which the finger is brought into contact with the other scroll area to scroll the display in the left-right direction. Thus, in order to scroll the display in an oblique direction, the user needs to perform a troublesome two-step touch operation.

本発明は、上記の課題に鑑みてなされたものであり、その目的は、新規な情報処理装置を提供することにある。   The present invention has been made in view of the above problems, and an object thereof is to provide a novel information processing apparatus.

本発明の一態様に係る情報処理装置は、表示部と、上記表示部の表示領域とは異なる位置に配置された操作面と、物体が上記操作面に近接または接触する位置を検出する物体検出部と、上記物体検出部を介して上記操作面に対するタッチ操作を検知する制御部とを備えた情報処理装置であって、上記制御部は、第1のモードと第2のモードとを有し、上記第1のモードにおいて、上記操作面に対する長押しの操作を検知したとき、上記第2のモードに遷移し、上記長押しの操作は、第1のタッチダウンを含み、上記第2のモードにおいて、上記操作面に対する第2のタッチダウンを検知したとき、上記第1のタッチダウンが検知された位置を、アプリケーションに通知する。   An information processing apparatus according to one embodiment of the present invention includes a display unit, an operation surface that is disposed at a position different from the display area of the display unit, and an object detection that detects a position at which the object approaches or contacts the operation surface. And a control unit that detects a touch operation on the operation surface via the object detection unit, wherein the control unit has a first mode and a second mode. In the first mode, when a long press operation on the operation surface is detected, the mode is shifted to the second mode, and the long press operation includes the first touchdown, and the second mode. When the second touchdown on the operation surface is detected, the application is notified of the position where the first touchdown is detected.

本発明の一態様によれば、新規な情報処理装置を提供することができる。   According to one embodiment of the present invention, a novel information processing device can be provided.

実施形態1に係る情報処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an information processing apparatus according to a first embodiment. 実施形態1に係る情報処理装置の外観図である。1 is an external view of an information processing apparatus according to a first embodiment. 実施形態1に係る情報処理装置が備えたタッチイベント判定部および表示制御部によって実行される画像制御の一例を説明する図である。6 is a diagram illustrating an example of image control executed by a touch event determination unit and a display control unit included in the information processing apparatus according to the first embodiment. FIG. 実施形態1に係る情報処理装置が備えたタッチイベント判定部および表示制御部によって実行される画像制御の他の例を説明する図である。6 is a diagram illustrating another example of image control executed by a touch event determination unit and a display control unit included in the information processing apparatus according to Embodiment 1. FIG. 実施形態1に係る情報処理装置が備えたタッチイベント判定部によって実行される画像制御内容決定処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of image control content determination processing executed by a touch event determination unit included in the information processing apparatus according to the first embodiment. 実施形態1に係る情報処理装置が備えたタッチパッド上におけるタッチの位置およびその変化を示すグラフである。3 is a graph showing a touch position on a touch pad provided in the information processing apparatus according to the first embodiment and changes thereof. 実施形態2に係る情報処理装置が備えたタッチイベント判定部および表示制御部によって実行される画像制御の例を示す説明図である。10 is an explanatory diagram illustrating an example of image control executed by a touch event determination unit and a display control unit included in the information processing apparatus according to the second embodiment. FIG. 実施形態3に係る情報処理装置が備えたタッチイベント判定部および表示制御部によって実行される画像制御の例を示す説明図である。It is explanatory drawing which shows the example of the image control performed by the touch event determination part with which the information processing apparatus which concerns on Embodiment 3 was provided, and the display control part.

〔実施形態1〕
以下、本発明の実施の形態について、図1〜図6を用いて詳細に説明する。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS.

(携帯端末装置1の概要)
図2を用いて、本実施形態に係る携帯端末装置1の概要を説明する。図2は、携帯端末装置1の外観図である。
(Outline of the mobile terminal device 1)
The outline | summary of the portable terminal device 1 which concerns on this embodiment is demonstrated using FIG. FIG. 2 is an external view of the mobile terminal device 1.

図2に示すように、携帯端末装置1は、いわゆる折り畳み式の携帯電話機である。携帯端末装置1では、第1筐体1Aおよび第2筐体1Bがヒンジ3を介して接続されており、ヒンジ3の軸を中心に回動可能である。第1筐体1Aおよび第2筐体1Bは、例えば、略平板状である。第1筐体1Aの一方の面にディスプレイ20(表示部)が配置されている。第2筐体1Bの一方の面にハードキー31が配置され、ハードキー31の下方(第2筐体1Bの内部)に、ハードキー31に重畳してタッチパッド30(物体検出部)のためのセンサが配置されている。   As shown in FIG. 2, the mobile terminal device 1 is a so-called foldable mobile phone. In the mobile terminal device 1, the first housing 1 </ b> A and the second housing 1 </ b> B are connected via the hinge 3, and can rotate around the axis of the hinge 3. The first housing 1A and the second housing 1B have, for example, a substantially flat plate shape. A display 20 (display unit) is disposed on one surface of the first housing 1A. A hard key 31 is arranged on one surface of the second housing 1B, and is placed under the hard key 31 (inside the second housing 1B) so as to overlap the hard key 31 for the touch pad 30 (object detection unit). Sensors are arranged.

携帯端末装置1は、第1筐体1Aおよび第2筐体1Bを開いている開状態(図2に示す形態)と、第1筐体1Aのディスプレイ20が配置されている面(表示面)と、第2筐体1Bのハードキー31が配置されている面(操作面)とが対向している閉状態(不図示)とに変形可能である。   The mobile terminal device 1 has an open state (the form shown in FIG. 2) in which the first housing 1A and the second housing 1B are opened, and a surface (display surface) on which the display 20 of the first housing 1A is disposed. And a closed state (not shown) in which the surface (operation surface) on which the hard key 31 of the second housing 1B is disposed is opposed.

ディスプレイ20は、画像表示領域pc(表示領域)内に画像など(図3参照)を表示するものである。ディスプレイ20は、例えば、LCD(液晶ディスプレイ)、有機ELディスプレイなどを適用することが可能である。   The display 20 displays an image or the like (see FIG. 3) in the image display area pc (display area). As the display 20, for example, an LCD (liquid crystal display), an organic EL display, or the like can be applied.

ハードキー31は、ユーザが携帯端末装置1を操作するためのものである。ハードキー31は、ユーザが押下したキーに対応する信号を出力する物理的なキーである。例えば、ハードキー31は、メニューキー、テンキー、十字キー、センターキー、オンフックキー、オフフックキー等である。   The hard key 31 is used by the user to operate the mobile terminal device 1. The hard key 31 is a physical key that outputs a signal corresponding to the key pressed by the user. For example, the hard key 31 is a menu key, a numeric keypad, a cross key, a center key, an on-hook key, an off-hook key, or the like.

タッチパッド30は、携帯端末装置1を操作するためのものである。タッチパッド30は、上記センサを備えており、タッチパッド30に近接または接触する物体(ユーザの指、スタイラス等)を所定時間毎に検出し、検出した位置(例えば、タッチパッド30上の2次元座標)を示す位置情報を出力する。タッチパッド30が物体を検出する検出領域は、第2筐体1Bのハードキー31が配置されている面(操作面)の全体である。すなわち、第2筐体1Bの操作面がタッチパッド30の検出面である。そのため、ハードキー31のキートップ面は前記検出面の一部であり、検出領域に含まれる。タッチパッド30が備えるセンサは、静電容量センサ等である。   The touch pad 30 is for operating the mobile terminal device 1. The touch pad 30 includes the above-described sensor, detects an object (such as a user's finger or stylus) that approaches or touches the touch pad 30 at predetermined time intervals, and detects the detected position (for example, two-dimensional on the touch pad 30). Position information indicating coordinates) is output. The detection area where the touch pad 30 detects an object is the entire surface (operation surface) on which the hard keys 31 of the second housing 1B are arranged. That is, the operation surface of the second housing 1B is the detection surface of the touch pad 30. Therefore, the key top surface of the hard key 31 is a part of the detection surface and is included in the detection region. The sensor provided in the touch pad 30 is a capacitance sensor or the like.

本実施形態では、タッチパッド30は、第2筐体1Bの操作面上にユーザの指(操作物)が接触しているか否かを検出する。図2に示すように、第2筐体1Bの操作面(タッチパッド30の検出領域)は、ディスプレイ20の表示面(表示領域)と異なる位置にある。   In the present embodiment, the touch pad 30 detects whether or not the user's finger (operation article) is in contact with the operation surface of the second housing 1B. As shown in FIG. 2, the operation surface (detection region of the touch pad 30) of the second housing 1B is at a position different from the display surface (display region) of the display 20.

なお、図2には折り畳み式の携帯端末装置1が示されているが、これに限るものではなく、ストレート式、スライド式、2軸ヒンジ式等の携帯端末装置であってもよい。また、本実施形態では、情報処理装置を備えた携帯端末装置を例示しているが、これに限るものではない。本発明は、表示部と、近接または接触する物体を検出する平面状の検出領域を前記表示部の表示領域とは異なる位置に有する物体検出部と、を備える任意の情報処理装置に適用可能である。本発明は、例えば、ノートPC、携帯ゲーム機、デジタルカメラ、デジタルビデオカメラ、携帯音楽プレイヤー等に適用可能である。   In addition, although the foldable portable terminal device 1 is shown in FIG. 2, the present invention is not limited to this, and a portable terminal device such as a straight type, a slide type, or a biaxial hinge type may be used. In the present embodiment, a portable terminal device including an information processing device is illustrated, but the present invention is not limited to this. The present invention can be applied to any information processing apparatus including a display unit and an object detection unit having a planar detection area for detecting an object approaching or in contact with the display unit at a position different from the display area of the display unit. is there. The present invention is applicable to, for example, notebook PCs, portable game machines, digital cameras, digital video cameras, portable music players, and the like.

(携帯端末装置1の操作体系)
上述のように携帯端末装置1は、ハードキー31およびタッチパッド30の2つの操作部(入力部)を有する。ユーザのタッチパッド30による操作を容易にするため(誤操作を防止するため)、携帯端末装置1の主制御部10(図1参照)は、「キー操作モード」、「ポインタモード」、「スクロールモード」の3つのモードを有する。
(Operation system of the mobile terminal device 1)
As described above, the mobile terminal device 1 includes the two operation units (input units) of the hard key 31 and the touch pad 30. In order to facilitate the user's operation with the touch pad 30 (to prevent erroneous operation), the main control unit 10 (see FIG. 1) of the mobile terminal device 1 performs “key operation mode”, “pointer mode”, “scroll mode”. ”Has three modes.

キー操作モードは、ハードキー31のみで操作可能なモードである。すなわち、キー操作モードでは、タッチパッド30による操作が無効である。キー操作モードでは、例えば、十字キーを操作してフォーカスを移動(リストの項目を選択)したり、センターキーを押下して決定したり、テンキーを操作して数字または文字を入力したり、オンフックキーを押下して通話を開始したり、オフフックキーを押下して通話またはアプリケーションを終了したりすることができる。   The key operation mode is a mode that can be operated only by the hard key 31. That is, in the key operation mode, the operation using the touch pad 30 is invalid. In key operation mode, for example, operate the cross key to move the focus (select an item in the list), press the center key to make a decision, operate the numeric keypad to enter numbers or characters, The user can press a key to start a call, or press an off-hook key to end a call or application.

キー操作モードにおいて、オフフックキーを長押しすることにより、ポインタモードへ移行する。また、キー操作モードにおいて、特定のアプリケーションを起動することにより、ポインタモードへ移行する。なお、携帯端末装置1の起動時は、主制御部10はキー操作モードとなる。   When the off-hook key is pressed and held in the key operation mode, the mode is shifted to the pointer mode. In the key operation mode, a specific application is activated to shift to the pointer mode. When the mobile terminal device 1 is activated, the main control unit 10 is in a key operation mode.

ポインタモードは、画面上に矢印マークのカーソルを表示し、タッチパッド30によるカーソル移動操作および決定操作を可能にするモードである。ポインタモードには、カーソル非表示状態とカーソル表示状態とがある。カーソル非表示状態では、ユーザがタッチパッド30(第2筐体1Bの操作面)にタッチして少しスワイプすることにより、カーソルが表示される。すなわち、カーソル表示状態に遷移する。また、キー操作モードと同様にハードキー31による操作が可能である。カーソル表示状態では、ユーザは、タッチパッド30をスワイプまたはフリックすることにより、カーソルを移動させたり、カーソルが移動してから所定時間(例えば1.5秒)以内にタッチパッド30をシングルタップすることにより、カーソルがある位置で決定を入力したり、タッチパッド30をダブルタップすることにより、カーソルがある位置で決定を入力したりすることができる。また、カーソル表示状態において、ハードキー31を押下すると、カーソルが消去される。すなわち、カーソル非表示状態に遷移する。また、カーソル表示状態において、タッチパッド30を操作することなく所定時間経過した場合も、カーソル非表示状態に遷移する。   The pointer mode is a mode in which an arrow mark cursor is displayed on the screen, and a cursor moving operation and a determining operation using the touch pad 30 are enabled. The pointer mode includes a cursor non-display state and a cursor display state. In the cursor non-display state, the user touches the touch pad 30 (the operation surface of the second housing 1B) and swipes a little to display the cursor. That is, the cursor transitions to the cursor display state. Moreover, the operation by the hard key 31 is possible similarly to the key operation mode. In the cursor display state, the user can move the cursor by swiping or flicking the touch pad 30 or single-tap the touch pad 30 within a predetermined time (for example, 1.5 seconds) after the cursor moves. Thus, the determination can be input at the position where the cursor is located, or the determination can be input at the position where the cursor is located by double-tapping the touch pad 30. When the hard key 31 is pressed in the cursor display state, the cursor is deleted. That is, the state transits to a cursor non-display state. Further, when a predetermined time elapses without operating the touch pad 30 in the cursor display state, the cursor transitions to the cursor non-display state.

ポインタモードにおいて、オフフックキーを長押しすることにより、キー操作モードに移行する。また、前記特定のアプリケーションを終了することにより、キー操作モードへ移行する。ポインタモードにおいて、タッチパッド30をロングタップすることにより、スクロールモードへ移行する。なお、ポインタモードに移行した場合、カーソル表示状態となる。   In the pointer mode, the key operation mode is entered by long-pressing the off-hook key. Also, the key operation mode is entered by terminating the specific application. In the pointer mode, a long tap on the touch pad 30 shifts to the scroll mode. When the mode is changed to the pointer mode, the cursor is displayed.

スクロールモードは、タッチパッド30による画面のスクロールを可能にするモードである。スクロールモードでは、タッチパッド30をスワイプまたはフリックすることにより、画面をスクロールしたり、タッチパッド30をロングタップすることにより、起動中のアプリケーションに応じた所定の処理を実行したりすることができる。スクロールモードにおいて、タッチパッド30をシングルタップすることにより、ポインタモードへ移行する。また、スクロールモードにおいて、タッチパッド30を操作することなく所定時間経過した場合も、ポインタモードに移行する。また、スクロールモードにおいて、前記特定のアプリケーションが終了した場合、キー操作モードに移行する。   The scroll mode is a mode that enables the screen to be scrolled by the touch pad 30. In the scroll mode, the screen can be scrolled by swiping or flicking the touch pad 30, or a predetermined process corresponding to the running application can be executed by long-tapping the touch pad 30. In the scroll mode, a single tap of the touch pad 30 makes a transition to the pointer mode. Also, in the scroll mode, when the predetermined time has passed without operating the touch pad 30, the mode is changed to the pointer mode. In the scroll mode, when the specific application is finished, the key operation mode is entered.

図2に示すように、主制御部10は、スクロールモードである場合、短タップの操作を受け付けることによって、ポインタモードに遷移する。また、主制御部10は、ポインタモードである場合、長タップの操作を受け付けることによって、スクロールモードに遷移する。   As shown in FIG. 2, when the main control unit 10 is in the scroll mode, the main control unit 10 transitions to the pointer mode by accepting a short tap operation. Further, when the main control unit 10 is in the pointer mode, the main control unit 10 transitions to the scroll mode by accepting a long tap operation.

(携帯端末装置1の構成)
図1を用いて、携帯端末装置1の構成を説明する。図1は、携帯端末装置1の構成を示すブロック図である。図1に示すように、携帯端末装置1は、主制御部10(情報処理装置)、ディスプレイ20、タッチパッド30、記憶部40、およびワークメモリ50を備えている。
(Configuration of portable terminal device 1)
The configuration of the mobile terminal device 1 will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of the mobile terminal device 1. As illustrated in FIG. 1, the mobile terminal device 1 includes a main control unit 10 (information processing device), a display 20, a touch pad 30, a storage unit 40, and a work memory 50.

主制御部10は、タッチパッド制御部11、タッチイベント判定部12(位置情報取得部)、および表示制御部13を含んでいる。タッチパッド制御部11は、タッチパッド30へのタッチ操作に伴って発生する検知信号をタッチパッド30から取得し、取得した検知信号をタッチイベント判定部12に出力する。   The main control unit 10 includes a touch pad control unit 11, a touch event determination unit 12 (position information acquisition unit), and a display control unit 13. The touch pad control unit 11 acquires a detection signal generated in response to a touch operation on the touch pad 30 from the touch pad 30, and outputs the acquired detection signal to the touch event determination unit 12.

タッチイベント判定部12は、タッチパッド制御部11から上記検知信号を入力された場合、後述する画像制御内容決定処理を実行することによって、上記タッチ操作の種類を判定し、その判定結果を表示制御部13に出力する。   When the detection signal is input from the touch pad control unit 11, the touch event determination unit 12 determines the type of the touch operation by executing an image control content determination process described later, and displays the determination result. To the unit 13.

表示制御部13は、タッチイベント判定部12による上記判定結果に基づいて、ディスプレイ20の画像表示領域pc内に表示される画像およびポインタpt(標識)などに対する画像制御の内容(例えば、表示のスクロール、ポインタptの表示)を実行する。   Based on the determination result by the touch event determination unit 12, the display control unit 13 performs image control contents (for example, display scrolling) on the image displayed in the image display area pc of the display 20 and the pointer pt (sign). , Display of pointer pt).

記憶部40には、タッチイベント判定部12の長押し判定部123(後述)が長押し操作の有無を判定するための基準時間を示す長押し閾値時間データが記憶されている。また、記憶部40には、タッチイベント判定部12のタッチ判定部121(後述)が判定したタッチの位置を示すタッチ位置データも記憶されている。さらに、記憶部40には、ディスプレイ20に表示される画像、カーソルcr、およびポインタpt等の各データも記憶されている。   The storage unit 40 stores long press threshold time data indicating a reference time for a long press determination unit 123 (described later) of the touch event determination unit 12 to determine the presence or absence of a long press operation. The storage unit 40 also stores touch position data indicating the touch position determined by a touch determination unit 121 (described later) of the touch event determination unit 12. Further, the storage unit 40 also stores data such as an image displayed on the display 20, a cursor cr, and a pointer pt.

(タッチイベント判定部12の詳細)
図1を用いて、前述したタッチイベント判定部12の詳細を説明する。図1に示すように、タッチイベント判定部12は、タッチ判定部121、ムーブ判定部122、および長押し判定部123を含んでいる。
(Details of touch event determination unit 12)
Details of the touch event determination unit 12 will be described with reference to FIG. As illustrated in FIG. 1, the touch event determination unit 12 includes a touch determination unit 121, a move determination unit 122, and a long press determination unit 123.

タッチ判定部121は、タッチパッド30へのタッチ操作に伴って発生した検知信号をタッチパッド制御部11から取得する。タッチ判定部121は、取得した検知信号に基づいて、タッチダウンの操作(ユーザが指をタッチパッド30に接触させるタッチ操作)およびタッチアップの操作(ユーザが指をタッチパッド30から離すタッチ操作)を検知(検出)する。   The touch determination unit 121 acquires, from the touch pad control unit 11, a detection signal generated with a touch operation on the touch pad 30. Based on the acquired detection signal, the touch determination unit 121 performs a touch-down operation (a touch operation in which the user makes a finger touch the touch pad 30) and a touch-up operation (a touch operation in which the user releases the finger from the touch pad 30). Is detected (detected).

ムーブ判定部122も、タッチパッド30へのタッチ操作に伴って発生した検知信号を、タッチパッド制御部11から取得する。ムーブ判定部122は、取得した検知信号に基づいて、スワイプ操作(ユーザが指をタッチパッド30から離さずに移動させるタッチ操作)を検知する。   The move determination unit 122 also acquires a detection signal generated with a touch operation on the touch pad 30 from the touch pad control unit 11. The move determination unit 122 detects a swipe operation (a touch operation in which the user moves the finger without releasing it from the touch pad 30) based on the acquired detection signal.

長押し判定部123は、タッチパッド30へのタッチ操作に伴って発生した検知信号をタッチパッド制御部11から取得する。長押し判定部123は、取得した検知信号に基づいて、長押しの操作(ユーザが指をタッチパッド30に閾値時間を超えて接触させるタッチ操作)を検知(検出)する。   The long press determination unit 123 acquires, from the touch pad control unit 11, a detection signal generated with a touch operation on the touch pad 30. Based on the acquired detection signal, the long press determination unit 123 detects (detects) a long press operation (a touch operation in which the user makes a finger contact the touch pad 30 beyond a threshold time).

(画像制御の例;その1)
図3を用いて、タッチイベント判定部12による画像制御の一例を説明する。図3は、タッチイベント判定部12および表示制御部13によって実行される画像制御の一例を説明する図である。最初、主制御部10は、ポインタモードであるとする。
(Example of image control; Part 1)
An example of image control by the touch event determination unit 12 will be described with reference to FIG. FIG. 3 is a diagram for explaining an example of image control executed by the touch event determination unit 12 and the display control unit 13. First, it is assumed that the main control unit 10 is in the pointer mode.

図3に示すように、タッチパッド30において、タッチダウンが検知(ステップA)された場合、タッチ判定部121は、該タッチダウンに伴って発生した検知信号をタッチパッド制御部11から取得する。そして、タッチ判定部121は、取得した検知信号に基づいて、タッチパッド30上においてタッチダウンが検知された位置を判定する。   As illustrated in FIG. 3, when a touchdown is detected in the touchpad 30 (step A), the touch determination unit 121 acquires a detection signal generated along with the touchdown from the touchpad control unit 11. And the touch determination part 121 determines the position where the touchdown was detected on the touchpad 30 based on the acquired detection signal.

主制御部10がポインタモードである場合、長押し判定部123は、タッチ操作が長押し操作であるか否か、より具体的には、タッチの継続時間が記憶部40の長押し閾値時間よりも長いか否か、を判定する。ここで、タッチの継続時間とは、タッチダウンが検知されてから、タッチアップまたはムーブが検知されるまでの時間のことである。   When the main control unit 10 is in the pointer mode, the long press determination unit 123 determines whether the touch operation is a long press operation, more specifically, the duration of the touch is longer than the long press threshold time of the storage unit 40. Whether it is too long or not. Here, the duration of the touch is the time from when touch-down is detected until touch-up or move is detected.

タッチの継続時間が長押し閾値時間よりも長い場合(ステップB)、主制御部10は、ポインタモードからスクロールモードに遷移する。これに伴って、表示制御部13は、ディスプレイ20上のカーソルcrを消去する。また、タッチ判定部121は、タッチダウンが検知された位置を表示制御部13に通知し、表示制御部13は、タッチダウンが検知された位置に対応するディスプレイ20上の位置(以下では、対応位置と呼ぶ)にポインタptを表示(ステップB)する。ここで、タッチパッド30上の位置と、ディスプレイ20上の位置とは、予め一対一で対応付けられている。   When the duration of the touch is longer than the long press threshold time (step B), the main control unit 10 transitions from the pointer mode to the scroll mode. Along with this, the display control unit 13 deletes the cursor cr on the display 20. In addition, the touch determination unit 121 notifies the display control unit 13 of the position where the touchdown is detected, and the display control unit 13 corresponds to the position on the display 20 corresponding to the position where the touchdown is detected (hereinafter, corresponding The pointer pt is displayed at (referred to as position) (step B). Here, the position on the touch pad 30 and the position on the display 20 are associated with each other in advance one to one.

ディスプレイ20にポインタptが表示された後(すなわち、主制御部10がスクロールモードに遷移した後)、ムーブ判定部122は、タッチパッド30に対するムーブの操作(ステップC)を検知する。   After the pointer pt is displayed on the display 20 (that is, after the main control unit 10 transitions to the scroll mode), the move determination unit 122 detects a move operation on the touch pad 30 (step C).

ムーブ判定部122は、単位時間ごとに、タッチの位置(図3に×印で示す位置)の情報を、タッチパッド制御部11から取得する。そして、ムーブ判定部122は、タッチダウンが検知された時点から、単位時間が経過するまでの期間におけるタッチの位置の変化を、1回目のムーブの操作として検知する。また、ムーブ判定部122は、1回目のムーブの操作が開始された時点におけるタッチの位置(以下では、ムーブ始点と呼ぶ)から、1回目のムーブの操作が終了した時点におけるタッチの位置(以下では、ムーブ終点と呼ぶ)へ向かうムーブベクトルを計算する。   The move determination unit 122 acquires information on a touch position (a position indicated by a cross in FIG. 3) from the touch pad control unit 11 for each unit time. Then, the move determination unit 122 detects a change in the position of the touch during a period from when the touchdown is detected until the unit time elapses as the first move operation. In addition, the move determination unit 122 determines the touch position (hereinafter referred to as the move start point) from the touch position when the first move operation is started (hereinafter referred to as the move start point) (hereinafter referred to as the move start point). Then, the move vector toward the move end point is calculated.

1回目のムーブの操作が検知された後、ムーブ判定部122は、1回目のムーブの操作が終了した時点から、単位時間が経過するまでの期間におけるタッチの位置の変化を、2回目のムーブの操作として検知する。また、ムーブ判定部122は、2回目のムーブのムーブ始点から、2回目のムーブのムーブ終点へ向かうムーブベクトルを計算する。以後、ムーブ判定部122は、同様にして、3回目以降のムーブのムーブベクトルを計算する。なお、ユーザ操作としての1回のスワイプは、タッチダウンが検知された時点から、タッチアップが検知される時点までの期間に含まれる全てのムーブの操作に相当する。   After the first move operation is detected, the move determination unit 122 changes the touch position in the period from the time when the first move operation is completed until the unit time elapses. Detected as an operation. The move determination unit 122 calculates a move vector from the move start point of the second move to the move end point of the second move. Thereafter, the move determination unit 122 calculates the move vector of the third and subsequent moves in the same manner. Note that one swipe as a user operation corresponds to all the operations of the move included in the period from the time when the touchdown is detected to the time when the touchup is detected.

ムーブ判定部122は、上記ムーブベクトルの情報(または、ムーブ始点およびムーブ終点の情報)を、表示制御部13に通知する。表示制御部13は、上記ムーブベクトルに対応するディスプレイ20上のベクトルに沿って、画像表示領域pc内の画像をスクロール(ステップC)させる。ここで、ムーブベクトルに対応するディスプレイ20上のベクトルは、タッチパッド30内の座標系で検知された上記ムーブベクトルが、ディスプレイ20内の座標系に変換されることによって得られる。なお、表示制御部13は、ディスプレイ20上のポインタptを移動させることはない。   The move determination unit 122 notifies the display control unit 13 of the information on the move vector (or information on the move start point and the move end point). The display control unit 13 scrolls (step C) the image in the image display region pc along the vector on the display 20 corresponding to the move vector. Here, the vector on the display 20 corresponding to the move vector is obtained by converting the move vector detected in the coordinate system in the touch pad 30 into the coordinate system in the display 20. Note that the display control unit 13 does not move the pointer pt on the display 20.

(画像制御の例;その2)
図4を用いて、タッチイベント判定部12による画像制御の他の例を説明する。図4は、タッチイベント判定部12および表示制御部13によって実行される画像制御の他の例を説明する図である。最初、主制御部10は、ポインタモードであるとする。
(Example of image control; 2)
Another example of image control by the touch event determination unit 12 will be described with reference to FIG. FIG. 4 is a diagram illustrating another example of image control executed by the touch event determination unit 12 and the display control unit 13. First, it is assumed that the main control unit 10 is in the pointer mode.

図4に示すように、まず、タッチダウン1が検知(ステップA)され、長押しの操作(ステップB)によって、主制御部10がスクロールモードに遷移する。タッチ判定部121は、タッチダウン1が検知された位置に対応するディスプレイ20上の対応位置に、ポインタptを表示(ステップB)させる。ここまでの画像制御の流れは、図3を用いて説明した画像制御の流れと同じである。   As shown in FIG. 4, first, the touchdown 1 is detected (step A), and the main control unit 10 shifts to the scroll mode by a long press operation (step B). The touch determination unit 121 displays the pointer pt at a corresponding position on the display 20 corresponding to the position where the touchdown 1 is detected (step B). The flow of image control so far is the same as the flow of image control described with reference to FIG.

その後、タッチアップ1およびタッチダウン2が続けて検知(ステップB−2)された場合、ムーブ判定部122は、タッチダウン2が検知された位置から、ムーブ終点へ向かうムーブベクトルを計算する。そして、ムーブ判定部122は、このように計算したムーブベクトルに沿って画像表示領域pc内の画像をスクロールするように、表示制御部13に指示する。表示制御部13は、ムーブ判定部122の指示に従って、ディスプレイ20上で画像表示領域pc内の画像をスクロール(ステップC)させる。   Thereafter, when the touch-up 1 and the touch-down 2 are continuously detected (step B-2), the move determination unit 122 calculates a move vector from the position where the touch-down 2 is detected toward the move end point. Then, the move determination unit 122 instructs the display control unit 13 to scroll the image in the image display region pc along the move vector calculated in this way. The display control unit 13 scrolls the image in the image display area pc on the display 20 (step C) according to the instruction of the move determination unit 122.

このように、タッチダウン1−タッチアップ1−タッチダウン2が検知された後でムーブが検知された場合、ムーブ判定部122によって計算されるムーブベクトルは、ムーブが検知される直前に検知されたタッチダウン(ここでは、タッチダウン2)の位置から、ムーブ終点へ向かうベクトルとなる。   As described above, when a move is detected after touchdown 1 -touchup 1 -touchdown 2 is detected, the move vector calculated by the move determination unit 122 is detected immediately before the move is detected. The vector is directed from the position of touchdown (here, touchdown 2) to the end point of the move.

(画像制御内容決定処理の流れ)
図5および図6を用いて、タッチイベント判定部12によって実行される画像制御内容決定処理の流れを説明する。図5は、画像制御内容決定処理の流れを示すフローチャートである。図6は、タッチパッド30上におけるタッチの位置およびその変化を示すグラフである。最初、主制御部10は、ディスプレイ20上にカーソルcr(図3および図4参照)が表示されるポインタモードであるとする。
(Image control content determination process flow)
The flow of image control content determination processing executed by the touch event determination unit 12 will be described with reference to FIGS. 5 and 6. FIG. 5 is a flowchart showing the flow of the image control content determination process. FIG. 6 is a graph showing the position of a touch on the touch pad 30 and its change. First, it is assumed that the main control unit 10 is in a pointer mode in which a cursor cr (see FIGS. 3 and 4) is displayed on the display 20.

図5に示すように、画像制御内容決定処理では、まず、タッチ判定部121は、タッチパッド30上においてタッチダウン1が検知(図4のステップA参照)された場合、タッチダウン1が検知された位置(DX1、DY1)(図6参照)を判定する(S1、位置情報取得ステップ)。   As shown in FIG. 5, in the image control content determination process, first, the touch determination unit 121 detects the touchdown 1 when the touchdown 1 is detected on the touch pad 30 (see step A in FIG. 4). The position (DX1, DY1) (see FIG. 6) is determined (S1, position information acquisition step).

次に、長押し判定部123は、長押し操作を検知(図3および図4のステップB参照)する(S2)。換言すれば、長押し判定部123は、タッチダウン1が長押し操作であると判定する。その後、タッチ判定部121は、タッチダウン1が検知された位置(DX1、DY1)を示す情報を記憶部40に記録する(S3)。   Next, the long press determination unit 123 detects a long press operation (see step B in FIGS. 3 and 4) (S2). In other words, the long press determination unit 123 determines that the touchdown 1 is a long press operation. Then, the touch determination part 121 records the information which shows the position (DX1, DY1) where the touchdown 1 was detected in the memory | storage part 40 (S3).

続いて、タッチ判定部121は、タッチパッド30上においてタッチダウン1が検知された位置を、表示制御部13に通知する。表示制御部13は、タッチダウン1が検知された位置に対応するディスプレイ20上の対応位置に、ポインタptを表示(図3および図4のステップB参照)する(S4)。   Subsequently, the touch determination unit 121 notifies the display control unit 13 of the position where the touch down 1 is detected on the touch pad 30. The display control unit 13 displays the pointer pt at the corresponding position on the display 20 corresponding to the position where the touchdown 1 is detected (see step B in FIGS. 3 and 4) (S4).

その後、タッチ判定部121は、タッチアップが検知されたか否かを判定する(S5)。タッチアップ1が検知されていない場合(S5でNo)、画像制御内容決定処理はS8に進む。一方、タッチアップが検知(図4のステップB−2参照)された場合(S5でYes)、タッチパッド30上において新たなタッチダウン2が検知(図4のステップB−2参照)されたとき、タッチ判定部121は、タッチダウン2の位置(DX2、DY2)(図6参照)を判定する(S6、位置情報取得ステップ)。そして、タッチ判定部121は、タッチダウン1が検知された位置(DX1、DY1)とタッチダウン2が検知された位置(DX2、DY2)との差分(ΔX=DX2−DX1、ΔY=DY2−DY1)(図6参照)を算出する(S7)。   Thereafter, the touch determination unit 121 determines whether touch-up has been detected (S5). When the touch-up 1 is not detected (No in S5), the image control content determination process proceeds to S8. On the other hand, when a touch-up is detected (see step B-2 in FIG. 4) (Yes in S5), a new touch-down 2 is detected on the touch pad 30 (see step B-2 in FIG. 4). The touch determination unit 121 determines the position (DX2, DY2) of touchdown 2 (see FIG. 6) (S6, position information acquisition step). The touch determination unit 121 then detects the difference (ΔX = DX2-DX1, ΔY = DY2-DY1) between the position (DX1, DY1) where the touchdown 1 is detected and the position (DX2, DY2) where the touchdown 2 is detected. ) (See FIG. 6) is calculated (S7).

次に、ムーブ判定部122は、タッチダウン2が検知された位置(DX2、DY2)から、単位時間後のタッチの位置(MX1、MY1)(図6参照)へ向かうムーブ1を検知する(S8)(図3および図4のステップC参照)。以下では、位置(DX2、DY2)をムーブ1の始点と呼び、位置(MX1、MY1)をムーブ1の終点と呼ぶ。なお、位置(MX1、MY1)において、タッチアップが検知されている必要はない。   Next, the move determination unit 122 detects the move 1 from the position (DX2, DY2) where the touchdown 2 is detected toward the touch position (MX1, MY1) (see FIG. 6) after unit time (S8). (See Step C in FIGS. 3 and 4). Hereinafter, the position (DX2, DY2) is referred to as the start point of the move 1, and the position (MX1, MY1) is referred to as the end point of the move 1. Note that it is not necessary to detect touch-up at the positions (MX1, MY1).

その後、ムーブ判定部122は、ムーブ1の補正終点(MX1´=MX1−ΔX、MY1´=MY1−ΔY)(図6参照)を計算する(S9)。なお、タッチアップ1が検知されていない場合(S5でNo)、ムーブ1の補正終点(MX1´、MY1´)は、ムーブ1の終点(MX1、MY1)に等しくなる。   Thereafter, the move determination unit 122 calculates a correction end point (MX1 ′ = MX1−ΔX, MY1 ′ = MY1−ΔY) (see FIG. 6) of the move 1 (S9). When touch-up 1 is not detected (No in S5), the correction end point (MX1 ′, MY1 ′) of move 1 is equal to the end point (MX1, MY1) of move 1.

続いて、ムーブ判定部122は、タッチダウン1が検知された位置(DX1、DY1)を、ムーブ1の補正始点として、表示制御部13(アプリケーション)に通知する(S10、表示制御ステップ)。また、ムーブ判定部122は、ムーブ1の補正終点(MX1´、MY1´)も、表示制御部13(アプリケーション)に通知する(S11、表示制御ステップ)。表示制御部13は、ムーブ1の補正始点(DX1、DY1)から補正終点(MX1´、MY1´)へ向かうムーブベクトル(MX1´−DX1、MY1´−DY1)をディスプレイ20内の座標系におけるベクトルに変換し、変換されたベクトルに沿って、画像表示領域pc内の画像をスクロールさせる(表示制御ステップ)。   Subsequently, the move determination unit 122 notifies the display control unit 13 (application) of the position (DX1, DY1) where the touchdown 1 is detected as the correction start point of the move 1 (S10, display control step). In addition, the move determination unit 122 notifies the correction end point (MX1 ′, MY1 ′) of the move 1 to the display control unit 13 (application) (S11, display control step). The display control unit 13 moves the move vector (MX1′-DX1, MY1′-DY1) from the correction start point (DX1, DY1) of the move 1 to the correction end point (MX1 ′, MY1 ′) in the coordinate system in the display 20. And the image in the image display area pc is scrolled along the converted vector (display control step).

あるいは、S10およびS11の代わりに、ムーブ判定部122は、ムーブ1の始点(DX2、DY2)と、ムーブ1の終点(MX1、MY1)とを、表示制御部13に通知してもよい。図6に示すように、ムーブ1の補正始点(DX1、DY1)から、ムーブ1の補正終点(MX1´、MY1´)へ向かうムーブベクトル(MX1´−DX1、MY1´−DY1)は、ムーブ1の始点(DX2、DY2)から、ムーブ1の終点(MX1、MY1)へ向かうベクトル(MX1−DX2、MY1−DY2)に等しい。そのため、上記ベクトル(MX1−DX2、MY1−DY2)からディスプレイ20内の座標系へ変換されたベクトルは、上記ムーブベクトル(MX1´−DX1、MY1´−DY1)からディスプレイ20内の座標系へ変換されたベクトルに等しくなる。   Alternatively, instead of S10 and S11, the move determination unit 122 may notify the display control unit 13 of the start point (DX2, DY2) of the move 1 and the end point (MX1, MY1) of the move 1. As shown in FIG. 6, the move vectors (MX1′-DX1, MY1′-DY1) from the correction start point (DX1, DY1) of the move 1 to the correction end points (MX1 ′, MY1 ′) of the move 1 are Is equal to a vector (MX1-DX2, MY1-DY2) from the start point (DX2, DY2) to the end point (MX1, MY1) of the move 1. Therefore, the vector converted from the vector (MX1-DX2, MY1-DY2) to the coordinate system in the display 20 is converted from the move vector (MX1'-DX1, MY1'-DY1) to the coordinate system in the display 20. Is equal to the vector

以後のS12〜17では、新たなムーブn(nは2以上の整数)の検知と、そのムーブnの通知とが実行される。   In subsequent S12 to S17, detection of a new move n (n is an integer of 2 or more) and notification of the move n are executed.

S13において、タッチアップが検知されず(S13でNo)、n回目のムーブnが検知された場合、画像制御内容決定処理のS12〜S17において、ムーブ判定部122は、ムーブnの補正始点およびムーブnの補正終点(MXn´=MXn−ΔX、MYn´=MYn−ΔY)を表示制御部13(アプリケーション)に通知する。ここで、ムーブnの補正始点は、n−1回目のムーブn−1の補正終点(MXn−1´=MX(n−1)−ΔX、MYn−1´=MY(n−1)−ΔY)である。   When the touch-up is not detected in S13 (No in S13) and the n-th move n is detected, in S12 to S17 of the image control content determination process, the move determination unit 122 determines the correction start point and the move of move n. The correction end point (MXn ′ = MXn−ΔX, MYn ′ = MYn−ΔY) of n is notified to the display control unit 13 (application). Here, the correction start point of move n is the correction end point (MXn-1 ′ = MX (n−1) −ΔX, MYn−1 ′ = MY (n−1) −ΔY of the n−1th move n−1. ).

表示制御部13は、n回目のムーブnの補正始点(MXn−1´、DYn−1´)から、n回目のムーブnの補正終点(MXn´、MYn´)へ向かうムーブベクトル(MXn´−MXn−1´、MYn´−MYn−1´)を、ディスプレイ20内の座標系におけるベクトルに変換し、変換したベクトルに沿って、画像表示領域pc内の画像をスクロールさせる(表示制御ステップ)。   The display control unit 13 moves from the correction start point (MXn-1 ′, DYn-1 ′) of the nth move n to the correction end point (MXn ′, MYn ′) of the nth move n (MXn′−). MXn-1 ′, MYn′-MYn-1 ′) are converted into vectors in the coordinate system in the display 20, and the images in the image display area pc are scrolled along the converted vectors (display control step).

なお、ムーブnの補正始点およびムーブnの補正終点の情報は、表示制御部13だけでなく、携帯端末装置1に実装されたアプリケーションにも通知され、該アプリケーションは、通知されたムーブnの操作に応じて、画像表示領域pc内の画像に対するアクションを実行してもよい。   The information of the correction start point of move n and the correction end point of move n is notified not only to the display control unit 13 but also to an application installed in the mobile terminal device 1, and the application performs the operation of the notified move n. In response to this, an action on the image in the image display area pc may be executed.

図6では、1回目のムーブ1のムーブベクトルおよび2回目のムーブ2のムーブベクトルは、どちらも、タッチパッド30内の座標系(直交座標系)において、斜め方向(xy座標軸と交わる方向)のムーブベクトルである。しかしながら、本発明では、n(≧2)回のムーブ1〜nが検知された場合、1回目のムーブ1からn回目のムーブnのうち、少なくとも1回のムーブm(1≦m≦n)のムーブベクトルが、タッチパッド30上の座標系において、斜め方向のベクトルであればよい。   In FIG. 6, the move vector of the first move 1 and the move vector of the second move 2 are both in an oblique direction (direction intersecting with the xy coordinate axis) in the coordinate system (orthogonal coordinate system) in the touch pad 30. Move vector. However, in the present invention, when n (≧ 2) moves 1 to n are detected, at least one move m (1 ≦ m ≦ n) among the first move 1 to the n-th move n. The move vector may be an oblique vector in the coordinate system on the touchpad 30.

n回目のムーブnが検知された後、タッチアップが検知された場合(S13でYes)、画像制御内容決定処理は終了する。   If the touch-up is detected after the n-th move n is detected (Yes in S13), the image control content determination process ends.

(変形例)
図4には、2回のタッチダウン1、2が検知された場合における画像制御の流れを示している。また、画像制御内容決定処理の流れの説明でも、2回のタッチダウン1、2が行われた場合を想定した。本変形例では、図6を用いて、3回目のタッチダウンが検知された場合の画像制御の流れを説明する。
(Modification)
FIG. 4 shows the flow of image control when two touchdowns 1 and 2 are detected. In the description of the flow of the image control content determination process, it is assumed that two touchdowns 1 and 2 are performed. In the present modification, the flow of image control when the third touchdown is detected will be described with reference to FIG.

図6に示すように、2回目のムーブ2の後に、(2回目のタッチアップが検出された後)3回目のタッチダウンが検知された場合、タッチ判定部121は、3回目のタッチダウンが検知された位置(DX3、DY3)と2回目のムーブ2の終点(MX2、MY2)との差分(ΔM=DX3−MX2、ΔN=DY3−MY2)を算出する。   As shown in FIG. 6, when the third touchdown is detected after the second move 2 (after the second touchup is detected), the touch determination unit 121 performs the third touchdown. The difference (ΔM = DX3-MX2, ΔN = DY3-MY2) between the detected position (DX3, DY3) and the end point (MX2, MY2) of the second move 2 is calculated.

次に、ムーブ判定部122は、3回目のタッチダウンが検知された位置(DX3、DY3)から、単位時間後のタッチの位置(MX3、MY3)へ向かうムーブを検知する。その後、ムーブ判定部122は、上記ムーブの補正始点(DX3−ΔX−ΔN、DY3−ΔY−ΔN)、および、上記ムーブの補正終点(MX3´=MX3−ΔX−ΔM、MY3´=MY3−ΔY−ΔN)を計算する。   Next, the move determination unit 122 detects a move from the position (DX3, DY3) where the third touchdown is detected toward the touch position (MX3, MY3) after a unit time. Thereafter, the move determination unit 122 performs the correction start point (DX3-ΔX-ΔN, DY3-ΔY-ΔN) of the move, and the correction end point (MX3 ′ = MX3-ΔX−ΔM, MY3 ′ = MY3-ΔY) of the move. -ΔN) is calculated.

そして、ムーブ判定部122は、上記ムーブの補正始点(DX3−ΔX−ΔN、DY3−ΔY−ΔN)および補正終点(MX3´、MY3´)を表示制御部13に通知する。   Then, the move determination unit 122 notifies the display control unit 13 of the correction start point (DX3-ΔX-ΔN, DY3-ΔY-ΔN) and the correction end point (MX3 ′, MY3 ′) of the move.

表示制御部13は、上記ムーブの補正始点(DX3−ΔX−ΔN、DY3−ΔY−ΔN)から補正終点(MX3´、MY3´)へ向かうムーブベクトルを、ディスプレイ20内の座標系におけるベクトルに変換し、変換されたベクトルに沿って、画像表示領域pc内の画像をスクロールさせる。   The display control unit 13 converts the move vector from the correction start point (DX3-ΔX-ΔN, DY3-ΔY-ΔN) to the correction end point (MX3 ′, MY3 ′) into a vector in the coordinate system in the display 20. Then, the image in the image display area pc is scrolled along the converted vector.

〔実施形態2〕
本発明の他の実施形態について、図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

前記実施形態1では、タッチパッド30に対して長押し操作が行われた場合、主制御部10がポインタモードからスクロールモードに遷移するとともに、ディスプレイ20上にポインタptが表示(図3のステップB参照)される構成を説明した。しかしながら、主制御部10がスクロールモードに遷移した場合であっても、ディスプレイ20にポインタptが表示されることは必須ではない。   In the first embodiment, when a long press operation is performed on the touch pad 30, the main control unit 10 shifts from the pointer mode to the scroll mode, and the pointer pt is displayed on the display 20 (step B in FIG. 3). The configuration to be referred to has been described. However, even when the main control unit 10 transitions to the scroll mode, it is not essential that the pointer pt is displayed on the display 20.

本実施形態では、主制御部10がスクロールモードである場合であっても、ディスプレイ20にポインタptが表示されない構成を説明する。   In the present embodiment, a configuration in which the pointer pt is not displayed on the display 20 even when the main control unit 10 is in the scroll mode will be described.

(画像制御の例;その3)
図7は、本実施形態に係るタッチイベント判定部12および表示制御部13によって実行される画像制御の例を示す説明図である。
(Example of image control; Part 3)
FIG. 7 is an explanatory diagram illustrating an example of image control executed by the touch event determination unit 12 and the display control unit 13 according to the present embodiment.

図7に示すように、本実施形態では、携帯端末装置1の主制御部10がポインタモードである場合において、タッチダウン1が検知(ステップA)され、さらに長押しが検知(ステップB)された場合、主制御部10は、ポインタモードからスクロールモードに遷移する。このとき、本実施形態に係るタッチ判定部121は、ディスプレイ20上のカーソルcrを消去するが、ディスプレイ20上にポインタを表示しない。なお、本実施形態では、前記実施形態1のようには、長押しが検知された位置に対応するディスプレイ20上の対応位置にポインタが表示されないので、主制御部10は、長押し以外の操作によって、ポインタモードからスクロールモードに遷移しても構わない。   As shown in FIG. 7, in the present embodiment, when the main control unit 10 of the mobile terminal device 1 is in the pointer mode, the touchdown 1 is detected (step A), and the long press is further detected (step B). In this case, the main control unit 10 transitions from the pointer mode to the scroll mode. At this time, the touch determination unit 121 according to the present embodiment deletes the cursor cr on the display 20 but does not display a pointer on the display 20. In the present embodiment, unlike the first embodiment, since the pointer is not displayed at the corresponding position on the display 20 corresponding to the position where the long press is detected, the main control unit 10 performs an operation other than the long press. May change from the pointer mode to the scroll mode.

主制御部10がスクロールモードに遷移した後、ムーブが検知された場合、タッチイベント判定部12および表示制御部13は、前記実施形態1で説明した画像制御内容決定処理の手順に従って、画像表示領域pc内の画像をスクロール(ステップC)させる。   When the movement is detected after the main control unit 10 transitions to the scroll mode, the touch event determination unit 12 and the display control unit 13 perform the image display area according to the procedure of the image control content determination process described in the first embodiment. The image in pc is scrolled (step C).

以上のように、本実施形態では、主制御部10がスクロールモードに遷移した場合であっても、ディスプレイ20にポインタが表示されない。そのため、ポインタと画像とが重なって表示されることがないので、ユーザが画像を見やすいという利点を有する。   As described above, in the present embodiment, no pointer is displayed on the display 20 even when the main control unit 10 transitions to the scroll mode. Therefore, since the pointer and the image are not displayed in an overlapping manner, there is an advantage that the user can easily see the image.

〔実施形態3〕
本発明の他の実施形態について、図8に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
The following will describe another embodiment of the present invention with reference to FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

前記実施形態1および2では、ディスプレイ20上に1つの画像表示領域pcが含まれており、その画像表示領域pc内の画像がスクロールされる構成を説明した。本実施形態では、ディスプレイ20上に複数の画像が表示されており、それらの画像のいずれかがスクロールされる構成を説明する。   In the first and second embodiments, the configuration in which one image display area pc is included on the display 20 and the image in the image display area pc is scrolled has been described. In the present embodiment, a configuration in which a plurality of images are displayed on the display 20 and any of those images is scrolled will be described.

(画像制御の例;その4)
図8は、本実施形態に係るタッチイベント判定部12および表示制御部13によって実行される画像制御の例を示す説明図である。図8に示すように、ディスプレイ20上には、2つの画像表示領域区画pc1、pc2(区画)が表示されている。しかしながら、ディスプレイ20上には、3つ以上の画像が表示されていてもよい。
(Example of image control; Part 4)
FIG. 8 is an explanatory diagram illustrating an example of image control executed by the touch event determination unit 12 and the display control unit 13 according to the present embodiment. As shown in FIG. 8, two image display area sections pc1 and pc2 (sections) are displayed on the display 20. However, three or more images may be displayed on the display 20.

図8に示すように、本実施形態では、主制御部10がポインタモードである場合において、タッチダウン1が検知(ステップA)され、さらに長押しが検知(ステップB)された場合、主制御部10は、ポインタモードからスクロールモードに遷移する。本実施形態に係るタッチ判定部121は、ディスプレイ20上のカーソルcrを消去するとともに、ディスプレイ20上にポインタを表示(ステップB)する。このとき、ポインタptは、タッチダウン1が検知された位置に対応するディスプレイ20上の対応位置に表示される。図8では、ポインタptは画像表示領域区画pc2内に表示されている。   As shown in FIG. 8, in the present embodiment, when the main control unit 10 is in the pointer mode, when the touchdown 1 is detected (step A) and further long press is detected (step B), the main control is performed. The unit 10 transitions from the pointer mode to the scroll mode. The touch determination unit 121 according to the present embodiment deletes the cursor cr on the display 20 and displays a pointer on the display 20 (step B). At this time, the pointer pt is displayed at a corresponding position on the display 20 corresponding to the position where the touchdown 1 is detected. In FIG. 8, the pointer pt is displayed in the image display area section pc2.

その後、ムーブが検知された場合、タッチイベント判定部12および表示制御部13は、前記実施形態1で説明した画像制御内容決定処理の手順に従って、画像表示領域区画pc2内の画像をスクロール(ステップC)させる。一方、タッチイベント判定部12および表示制御部13は、ポインタptが表示されていない画像表示領域区画pc1内の画像をスクロールさせない。   Thereafter, when a move is detected, the touch event determination unit 12 and the display control unit 13 scroll the image in the image display area section pc2 according to the procedure of the image control content determination process described in the first embodiment (Step C ) On the other hand, the touch event determination unit 12 and the display control unit 13 do not scroll the image in the image display area section pc1 where the pointer pt is not displayed.

以上のように、本実施形態では、ディスプレイ20に表示されている複数の区画のうち、ポインタptが表示されている区画内の表示のみがスクロールされる。そのため、ユーザは、タッチパッド30上における適切な位置を長押しして、所望の区画上にポインタptを表示させることによって、その区画内の画像のみをスクロールさせることができる。   As described above, in the present embodiment, only the display in the section where the pointer pt is displayed among the plurality of sections displayed on the display 20 is scrolled. Therefore, the user can scroll only the image in the section by long pressing an appropriate position on the touch pad 30 and displaying the pointer pt on the desired section.

なお、ムーブおよびタッチアップが検知(図8のステップC)された後、タッチダウンおよびムーブの操作がさらに検知された場合(図4のステップB−2およびステップC参照)、ポインタptが表示されている画像表示領域区画pc2内の表示がさらにスクロールされる。   If a touchdown and move operation is further detected (see step B-2 and step C in FIG. 4) after a move and touchup is detected (step C in FIG. 8), a pointer pt is displayed. The display in the displayed image display area section pc2 is further scrolled.

〔ソフトウェアによる実現例〕
携帯端末装置1の制御ブロック(特に主制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control block (particularly the main control unit 10) of the mobile terminal device 1 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or using a CPU (Central Processing Unit). It may be realized by software.

後者の場合、携帯端末装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the mobile terminal device 1 includes a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU). Alternatively, a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) that expands the program, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔付記事項〕
なお、本発明の一態様によれば、ユーザが一段階のタッチ操作で表示部の表示を斜め方向にスクロールさせることができる。
[Additional Notes]
Note that according to one embodiment of the present invention, the display of the display unit can be scrolled in an oblique direction by a user's one-step touch operation.

本発明の態様1に係る情報処理装置(主制御部10)は、表示部(ディスプレイ20)と、近接または接触する物体を検出する平面状の検出領域を上記表示部の表示領域とは異なる位置に有する物体検出部(タッチパッド30)と、上記物体検出部が上記物体を検出した位置を示す位置情報を取得する位置情報取得部(タッチイベント判定部12)とを備えた情報処理装置であって、上記表示部の表示領域の座標系と上記物体検出部の検出領域の座標系とが対応付けられており、上記位置情報取得部が、上記検出領域の座標系の座標軸と交わる方向への上記物体の斜め移動を検出した場合、上記検出領域の座標系における上記物体の斜め移動の方向および量に対応する上記表示領域の座標系における方向および量によって、上記表示部の表示を上記表示領域の座標系において斜め移動させる表示制御部(13)をさらに備えている。   In the information processing apparatus (main control unit 10) according to the first aspect of the present invention, the display unit (display 20) and a planar detection region for detecting an object that is close to or in contact with the display unit are positioned at positions different from the display region of the display unit The information processing apparatus includes an object detection unit (touch pad 30) and a position information acquisition unit (touch event determination unit 12) that acquires position information indicating a position where the object detection unit detects the object. The coordinate system of the display area of the display unit and the coordinate system of the detection area of the object detection unit are associated with each other, and the position information acquisition unit in a direction intersecting the coordinate axis of the coordinate system of the detection area When the oblique movement of the object is detected, the display of the display unit is determined according to the direction and amount of the display area in the coordinate system corresponding to the direction and quantity of the object in the detection area coordinate system. Further comprising a display control unit for obliquely moving (13) in the coordinate system of the display area.

上記の構成によれば、物体(例えば、ユーザの指)が物体検出部の検出領域内で斜め方向に移動したことが検出された場合、物体検出部で検出された移動の方向および距離に対応する方向および距離で、表示部の表示領域内の表示が斜め移動する。そのため、ユーザは、物体検出部の検出領域内で指やスライタスペンを斜めの方向に移動させることによって、表示領域内の表示をその斜めの方向(に対応する方向)へ移動(スクロール)させることができる。   According to the above configuration, when an object (for example, a user's finger) is detected to move in an oblique direction within the detection area of the object detection unit, it corresponds to the direction and distance of the movement detected by the object detection unit. The display in the display area of the display unit moves diagonally according to the direction and the distance. Therefore, the user can move (scroll) the display in the display area in the oblique direction (corresponding direction) by moving the finger or the slitus pen in the oblique direction in the detection area of the object detection unit. it can.

本発明の態様2に係る情報処理装置は、上記態様1において、上記表示制御部は、上記位置情報取得部が、上記斜め移動を含む、上記検出領域における上記物体の移動を連続して複数回検出したとき、先に検出した上記物体の移動から順に、上記検出領域の座標系における上記物体の移動の方向および量に対応する上記表示領域の座標系における方向および量によって、上記表示部の表示を上記表示領域の座標系において移動させる処理を、上記複数回連続して行ってもよい。   The information processing apparatus according to aspect 2 of the present invention is the information processing apparatus according to aspect 1, wherein the display control unit causes the position information acquisition unit to continuously move the object in the detection area a plurality of times including the oblique movement. When detected, the display unit displays in accordance with the direction and amount in the coordinate system of the display area corresponding to the direction and amount of movement of the object in the coordinate system of the detection area in order from the movement of the object detected previously. The process of moving the image in the coordinate system of the display area may be performed continuously a plurality of times.

上記の構成によれば、検出領域における物体の移動が連続して複数回検出された場合、各移動の方向および量に対応する表示領域の座標系における方向および量によって、表示部の表示領域内の表示を移動させることができる。   According to the above configuration, when the movement of the object in the detection region is detected a plurality of times in succession, the direction and amount in the coordinate system of the display region corresponding to the direction and amount of each movement The display of can be moved.

本発明の態様3に係る情報処理装置は、上記態様1または2において、上記表示領域は1または複数の区画よりなり、上記表示制御部は、上記位置情報取得部が検出した上記検出領域の座標系における上記物体の移動の方向および量に対応する上記表示領域の座標系における方向および量によって、上記表示部の表示を上記表示領域の座標系において移動させる処理を行うとき、表示を移動させる対象となる上記区画に所定の標識を表示してもよい。   In the information processing apparatus according to aspect 3 of the present invention, in the aspect 1 or 2, the display area includes one or a plurality of sections, and the display control unit includes coordinates of the detection area detected by the position information acquisition unit. The object to move the display when performing the process of moving the display of the display unit in the coordinate system of the display area according to the direction and quantity of the display area in the coordinate system corresponding to the direction and amount of the movement of the object in the system A predetermined sign may be displayed in the above section.

上記の構成によれば、複数の区画内の表示のうち、移動される表示が、所定の標識によって示される。そのため、ユーザは、標識を確認することによって、どの区画内の表示を移動(スクロール)させることができるのかを知ることができる。   According to said structure, the display which is moved among the displays in a some division is shown by a predetermined | prescribed label | marker. Therefore, the user can know in which section the display can be moved (scrolled) by checking the sign.

本発明の態様4に係る制御方法は、表示部(ディスプレイ20)と、近接または接触する物体を検出する平面状の検出領域を上記表示部の表示領域とは異なる位置に有する物体検出部(タッチパッド30)とを備えた情報処理装置の制御方法であって、上記表示部の表示領域の座標系と上記物体検出部の検出領域の座標系とが対応付けられており、上記物体検出部が上記物体を検出した位置を示す位置情報を取得する位置情報取得ステップ(S1、S6)と、上記位置情報取得ステップにおいて、上記検出領域の座標系の座標軸と交わる方向への上記物体の斜め移動が検出された場合、上記検出領域の座標系における上記物体の斜め移動の方向および量に対応する上記表示領域の座標系における方向および量によって、上記表示部の表示を上記表示領域の座標系において斜め移動させる表示制御ステップ(S10、S11)とを含んでいる。   The control method according to aspect 4 of the present invention includes a display unit (display 20) and an object detection unit (touch) that has a planar detection region for detecting an object that approaches or touches the display unit at a position different from the display region of the display unit. And a coordinate system of a display area of the display unit and a coordinate system of a detection area of the object detection unit are associated with each other, and the object detection unit In the position information acquisition step (S1, S6) for acquiring position information indicating the position where the object is detected, and in the position information acquisition step, the object is obliquely moved in a direction intersecting with the coordinate axis of the coordinate system of the detection area. If detected, the display on the display unit is raised according to the direction and amount in the coordinate system of the display region corresponding to the direction and amount of the oblique movement of the object in the coordinate system of the detection region. And a display control step of obliquely moving (S10, S11) in the coordinate system of the display area.

上記の構成によれば、上記態様1に係る情報処理装置と同じ効果を奏することができる。   According to said structure, there can exist the same effect as the information processing apparatus which concerns on the said aspect 1. FIG.

本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The information processing apparatus according to each aspect of the present invention may be realized by a computer. In this case, the information processing apparatus is operated on each computer by causing the computer to operate as each unit (software element) included in the information processing apparatus. The control program for the information processing apparatus to be realized in this way and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、タッチパッドおよび画面を備えた情報処理装置に利用することができる。   The present invention can be used for an information processing apparatus including a touch pad and a screen.

10 主制御部(情報処理装置)
20 ディスプレイ(表示部)
30 タッチパッド(物体検出部)
12 タッチイベント判定部(位置情報取得部)
13 表示制御部
pt ポインタ(標識)
pc 画像表示領域(表示領域)
pc1、pc2 画像表示領域区画(表示領域、区画)
10 Main control unit (information processing device)
20 Display (display part)
30 Touchpad (object detection unit)
12 Touch event determination unit (location information acquisition unit)
13 Display control part pt Pointer (sign)
pc Image display area (display area)
pc1, pc2 Image display area section (display area, section)

Claims (5)

表示部と、
上記表示部の表示領域とは異なる位置に配置された操作面と、
物体が上記操作面に近接または接触する位置を検出する物体検出部と、
上記物体検出部を介して上記操作面に対するタッチ操作を検知する制御部とを備えた情報処理装置であって、
上記制御部は、
第1のモードと第2のモードとを有し、
上記第1のモードにおいて、上記操作面に対する長押しの操作を検知したとき、上記第2のモードに遷移し、
上記長押しの操作は、第1のタッチダウンを含み、
上記第2のモードにおいて、上記操作面に対する第2のタッチダウンを検知したとき、上記第1のタッチダウンが検知された位置を、アプリケーションに通知することを特徴とする情報処理装置。
A display unit;
An operation surface arranged at a position different from the display area of the display unit;
An object detection unit for detecting a position where the object approaches or contacts the operation surface;
An information processing apparatus comprising: a control unit that detects a touch operation on the operation surface via the object detection unit;
The control unit
Having a first mode and a second mode;
In the first mode, when a long press operation on the operation surface is detected, a transition is made to the second mode,
The long press operation includes a first touchdown,
In the second mode, when detecting a second touchdown on the operation surface, the information processing apparatus notifies the application of a position where the first touchdown is detected.
上記制御部は、上記第2のモードにおいて、上記操作面に対する上記第2のタッチダウンを含むタッチ操作を検知したとき、当該タッチ操作に対応する位置情報を、上記第1のタッチダウンが検知された位置、および、上記第2のタッチダウンが検知された位置に基づいて補正して、上記アプリケーションに通知することを特徴とする請求項1に記載の情報処理装置。   When the control unit detects a touch operation including the second touchdown on the operation surface in the second mode, the control unit detects position information corresponding to the touch operation based on the first touchdown. The information processing apparatus according to claim 1, wherein the information is corrected based on the detected position and the position where the second touchdown is detected and notified to the application. 表示部と、
上記表示部の表示領域とは異なる位置に配置された操作面と、
物体が上記操作面に近接または接触する位置を検出する物体検出部と、
上記物体検出部を介して上記操作面に対するタッチ操作を検知する制御部とを備えた情報処理装置であって、
上記制御部は、
第1のモードと第2のモードとを有し、
上記第1のモードにおいて、上記操作面に対する長押しの操作を検知したとき、上記第2のモードに遷移し、
上記長押しの操作は、第1のタッチダウンを含み、
上記第2のモードでは、上記第1のタッチダウンが検知された位置に対応する上記表示部上の対応位置に、所定の標識を表示させることを特徴とする情報処理装置。
A display unit;
An operation surface arranged at a position different from the display area of the display unit;
An object detection unit for detecting a position where the object approaches or contacts the operation surface;
An information processing apparatus comprising: a control unit that detects a touch operation on the operation surface via the object detection unit;
The control unit
Having a first mode and a second mode;
In the first mode, when a long press operation on the operation surface is detected, a transition is made to the second mode,
The long press operation includes a first touchdown,
In the second mode, the information processing apparatus displays a predetermined sign at a corresponding position on the display unit corresponding to the position where the first touchdown is detected.
表示部と、
上記表示部の表示領域とは異なる位置に配置された操作面と、
物体が上記操作面に近接または接触する位置を検出する物体検出部と、
上記物体検出部を介して上記操作面に対するタッチ操作を検知する制御部とを備えた情報処理装置であって、
上記制御部は、
上記表示部に複数の画像を表示させ、
第1のモードと第2のモードとを有し、
上記第1のモードにおいて、上記操作面に対する長押しの操作を検知したとき、上記第2のモードに遷移し、
上記長押しの操作は、第1のタッチダウンを含み、
上記第2のモードにおいて、上記操作面に対するムーブの操作を検知したとき、上記第1のタッチダウンが検知された位置に対応する上記画像をスクロールさせることを特徴とする情報処理装置。
A display unit;
An operation surface arranged at a position different from the display area of the display unit;
An object detection unit for detecting a position where the object approaches or contacts the operation surface;
An information processing apparatus comprising: a control unit that detects a touch operation on the operation surface via the object detection unit;
The control unit
A plurality of images are displayed on the display unit,
Having a first mode and a second mode;
In the first mode, when a long press operation on the operation surface is detected, a transition is made to the second mode,
The long press operation includes a first touchdown,
In the second mode, when an operation of a move on the operation surface is detected, the information processing apparatus scrolls the image corresponding to the position where the first touchdown is detected.
情報処理装置の制御部としてコンピュータを機能させるための制御プログラムであって、
上記情報処理装置は、表示部と、上記表示部の表示領域とは異なる位置に配置された操作面と、物体が上記操作面に近接または接触する位置を検出する物体検出部とを備え、
上記コンピュータを、
上記物体検出部を介して上記操作面に対するタッチ操作を検知し、
第1のモードと第2のモードとを有し、
上記第1のモードにおいて、上記操作面に対する長押しの操作を検知したとき、上記第2のモードに遷移し、
上記長押しの操作は、第1のタッチダウンを含み、
上記第2のモードにおいて、上記操作面に対する第2のタッチダウンを検知したとき、上記第1のタッチダウンが検知された位置を、アプリケーションに通知する、
上記制御部として機能させることを特徴とする制御プログラム。
A control program for causing a computer to function as a control unit of an information processing device,
The information processing apparatus includes a display unit, an operation surface arranged at a position different from the display area of the display unit, and an object detection unit that detects a position where an object approaches or contacts the operation surface,
The computer
Detecting a touch operation on the operation surface via the object detection unit,
Having a first mode and a second mode;
In the first mode, when a long press operation on the operation surface is detected, a transition is made to the second mode,
The long press operation includes a first touchdown,
In the second mode, when a second touchdown on the operation surface is detected, a position where the first touchdown is detected is notified to the application.
A control program that functions as the control unit.
JP2016177931A 2016-09-12 2016-09-12 Information processing apparatus and control program Expired - Fee Related JP6027703B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016177931A JP6027703B1 (en) 2016-09-12 2016-09-12 Information processing apparatus and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016177931A JP6027703B1 (en) 2016-09-12 2016-09-12 Information processing apparatus and control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015006035A Division JP6077573B2 (en) 2015-01-15 2015-01-15 Information processing apparatus, control method thereof, and control program

Publications (2)

Publication Number Publication Date
JP6027703B1 true JP6027703B1 (en) 2016-11-16
JP2017021829A JP2017021829A (en) 2017-01-26

Family

ID=57326658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016177931A Expired - Fee Related JP6027703B1 (en) 2016-09-12 2016-09-12 Information processing apparatus and control program

Country Status (1)

Country Link
JP (1) JP6027703B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108628306B (en) * 2018-04-10 2021-06-25 平安科技(深圳)有限公司 Robot walking obstacle detection method and device, computer equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0476724A (en) * 1990-07-19 1992-03-11 Canon Inc Information processor
JP2008011523A (en) * 2007-06-06 2008-01-17 Ricoh Co Ltd Information retrieval apparatus, server device, information retrieval method, and information retrieval method for server device
JP2009094973A (en) * 2007-10-12 2009-04-30 Sharp Corp Mobile phone
JP2010128544A (en) * 2008-11-25 2010-06-10 Sony Corp Information processing apparatus, information processing method, information processing system, and program for information processing
JP2011023040A (en) * 2005-07-04 2011-02-03 Atlab Inc Input device of content providing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0476724A (en) * 1990-07-19 1992-03-11 Canon Inc Information processor
JP2011023040A (en) * 2005-07-04 2011-02-03 Atlab Inc Input device of content providing device
JP2008011523A (en) * 2007-06-06 2008-01-17 Ricoh Co Ltd Information retrieval apparatus, server device, information retrieval method, and information retrieval method for server device
JP2009094973A (en) * 2007-10-12 2009-04-30 Sharp Corp Mobile phone
JP2010128544A (en) * 2008-11-25 2010-06-10 Sony Corp Information processing apparatus, information processing method, information processing system, and program for information processing

Also Published As

Publication number Publication date
JP2017021829A (en) 2017-01-26

Similar Documents

Publication Publication Date Title
WO2016114269A1 (en) Information processing device and control method therefor
CN104145236B (en) Method and apparatus for the content in mobile terminal
US8839154B2 (en) Enhanced zooming functionality
JP6381032B2 (en) Electronic device, control method thereof, and program
JP6319483B2 (en) Information processing device
US20090164930A1 (en) Electronic device capable of transferring object between two display units and controlling method thereof
US10182141B2 (en) Apparatus and method for providing transitions between screens
JP2016115208A (en) Input device, wearable terminal, portable terminal, control method of input device, and control program for controlling operation of input device
JP2014164718A (en) Information terminal
JPWO2014141548A1 (en) Display control
JP6027703B1 (en) Information processing apparatus and control program
JPWO2012144616A1 (en) Electronic device, control method of electronic device, and program
JP6077573B2 (en) Information processing apparatus, control method thereof, and control program
JP6118005B1 (en) Information processing apparatus and control program
JP6134748B2 (en) Information processing apparatus, control method thereof, and control program
JP2016224688A (en) Information processing device, control method, control program, and recording medium
US20210165535A1 (en) Touch input device and method
JP6367720B2 (en) Information processing apparatus and program
JP6114886B2 (en) Information processing apparatus, control method for information processing apparatus, and control program
US20180329610A1 (en) Object Selection Mode
JP2016130976A (en) Information processing apparatus, control method thereof, and control program
JP7196246B2 (en) USER INTERFACE PROCESSING PROGRAM, RECORDING MEDIUM, USER INTERFACE PROCESSING METHOD
JP6603797B2 (en) Information processing apparatus, information processing apparatus control method, and control program
JP2016218859A (en) Information processing device, control method, and control program
JP2018106480A (en) Electronic device, control method thereof and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160912

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160912

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161014

R150 Certificate of patent or registration of utility model

Ref document number: 6027703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees