JP2016133828A - Information processing device, control method thereof, and control program - Google Patents

Information processing device, control method thereof, and control program Download PDF

Info

Publication number
JP2016133828A
JP2016133828A JP2015006038A JP2015006038A JP2016133828A JP 2016133828 A JP2016133828 A JP 2016133828A JP 2015006038 A JP2015006038 A JP 2015006038A JP 2015006038 A JP2015006038 A JP 2015006038A JP 2016133828 A JP2016133828 A JP 2016133828A
Authority
JP
Japan
Prior art keywords
move
display
unit
touch
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015006038A
Other languages
Japanese (ja)
Other versions
JP2016133828A5 (en
JP6134748B2 (en
Inventor
長谷川 進
Susumu Hasegawa
進 長谷川
清介 宮澤
Seisuke Miyazawa
清介 宮澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015006038A priority Critical patent/JP6134748B2/en
Publication of JP2016133828A publication Critical patent/JP2016133828A/en
Publication of JP2016133828A5 publication Critical patent/JP2016133828A5/ja
Application granted granted Critical
Publication of JP6134748B2 publication Critical patent/JP6134748B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a user to easily perform an operation to a target object.SOLUTION: After one target object is selected from one or a plurality of objects displayed on a display (20), if a touch operation accompanied by movement is detected on a touch pad (30) a plurality of times, a main control unit (10) sequentially executes actions corresponding to movements to the identical target object.SELECTED DRAWING: Figure 1

Description

本発明は、タッチパッドを備えた情報処理装置に関する。   The present invention relates to an information processing apparatus including a touch pad.

従来、表示部内のオブジェクトに物体を接触して行うタッチ操作を受け付ける情報処理装置が知られている。例えば、特許文献1に記載の電子機器は、映像コンテンツを再生している間、表示部内にシークバーを表示する。ユーザは、シークバー中のスライダ(オブジェクト)を指でドラッグすることによって、映像コンテンツの再生時間を調整することができる。   2. Description of the Related Art Conventionally, an information processing apparatus that receives a touch operation performed by contacting an object with an object in a display unit is known. For example, the electronic device described in Patent Document 1 displays a seek bar in the display unit while playing back video content. The user can adjust the playback time of the video content by dragging the slider (object) in the seek bar with a finger.

特開2012−114819号公報(2012年6月14日公開)JP 2012-114819 A (released on June 14, 2012)

しかしながら、特許文献1に記載の上記電子機器では、スライダにタッチするユーザの指が、スライダの表示を覆う場合がある。この場合、ユーザは、スライダ(オブジェクト)がどこに表示されているのかを確認することできないので、映像コンテンツの再生位置をうまく調整することが困難であるという問題がある。   However, in the electronic device described in Patent Document 1, a user's finger touching the slider may cover the display of the slider. In this case, since the user cannot confirm where the slider (object) is displayed, there is a problem that it is difficult to adjust the reproduction position of the video content well.

本発明は上記の課題に鑑みてなされたものであり、その目的は、表示部内のオブジェクトへのタッチ操作を受け付ける情報処理装置において、ユーザが対象オブジェクトへの操作をより簡単に行うことができる情報処理装置を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to make it easier for a user to perform an operation on a target object in an information processing apparatus that accepts a touch operation on an object in a display unit. It is to provide a processing apparatus.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、表示部と、近接または接触する物体を検出する平面状の検出領域を有する物体検出部と、上記物体検出部が上記物体を検出した位置を示す位置情報を取得する位置情報取得部とを備えた情報処理装置であって、上記表示部の表示領域に表示されている1または複数のオブジェクトから1つの対象オブジェクトを選択する対象選択部をさらに備え、上記位置情報から上記物体の移動を指示するユーザ操作が複数回検出されたとき、各ユーザ操作に応じたアクションを、同一の上記対象オブジェクトに対して順次実行する。   In order to solve the above problems, an information processing device according to one embodiment of the present invention includes a display unit, an object detection unit that includes a planar detection region that detects an object that approaches or touches, and the object detection unit includes: An information processing apparatus including a position information acquisition unit that acquires position information indicating a position where the object is detected, wherein one target object is selected from one or more objects displayed in the display area of the display unit. A target selection unit for selecting is further provided, and when a user operation instructing movement of the object is detected a plurality of times from the position information, an action corresponding to each user operation is sequentially executed on the same target object .

また、上記の課題を解決するために、本発明の一態様に係る制御方法は、表示部と、近接または接触する物体を検出する平面状の検出領域を有する物体検出部と、上記物体検出部が上記物体を検出した位置を示す位置情報を取得する位置情報取得部とを備えた情報処理装置の制御方法であって、上記表示部の表示領域に表示されている1または複数のオブジェクトから1つの対象オブジェクトを選択する対象選択ステップと、上記位置情報から上記物体の移動を指示するユーザ操作が複数回検出されたとき、各ユーザ操作に応じたアクションを、同一の上記対象オブジェクトに対して順次実行する動作制御ステップと、を含んでいる。   In order to solve the above-described problem, a control method according to an aspect of the present invention includes a display unit, an object detection unit having a planar detection region for detecting an object that approaches or contacts, and the object detection unit. Is a control method of an information processing apparatus including a position information acquisition unit that acquires position information indicating a position where the object is detected, and is a method for controlling one of a plurality of objects displayed in a display area of the display unit. When a target selection step for selecting one target object and a user operation for instructing movement of the object from the position information are detected a plurality of times, actions corresponding to the user operations are sequentially performed on the same target object. And an operation control step to be executed.

本発明の一態様によれば、ユーザが対象オブジェクトへの操作をより簡単に行うことができるという効果を奏する。   According to one aspect of the present invention, there is an effect that the user can more easily perform an operation on the target object.

実施形態1に係る情報処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an information processing apparatus according to a first embodiment. 実施形態1に係る情報処理装置の外観図である。1 is an external view of an information processing apparatus according to a first embodiment. 実施形態1に係る情報処理装置によって実行される画像制御の一例を説明する図である。6 is a diagram illustrating an example of image control executed by the information processing apparatus according to the first embodiment. FIG. 実施形態1に係る情報処理装置によって実行される画像制御内容決定処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of image control content determination processing executed by the information processing apparatus according to the first embodiment. 実施形態1に係る情報処理装置が備えたタッチパッド上におけるタッチの位置およびその変化を示すグラフである。3 is a graph showing a touch position on a touch pad provided in the information processing apparatus according to the first embodiment and changes thereof. 実施形態2に係る情報処理装置によって実行される画像制御の例を示す説明図である。10 is an explanatory diagram illustrating an example of image control executed by the information processing apparatus according to the second embodiment. FIG.

〔実施形態1〕
以下、本発明の実施の形態について、図1〜図5を用いて詳細に説明する。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS.

(携帯端末装置1の概要)
図2を用いて、本実施形態に係る携帯端末装置1の概要を説明する。図2は、携帯端末装置1の外観図である。
(Outline of the mobile terminal device 1)
The outline | summary of the portable terminal device 1 which concerns on this embodiment is demonstrated using FIG. FIG. 2 is an external view of the mobile terminal device 1.

図2に示すように、携帯端末装置1は、いわゆる折り畳み式の携帯電話機である。携帯端末装置1では、第1筐体1Aおよび第2筐体1Bがヒンジ3を介して接続されており、ヒンジ3の軸を中心に回動可能である。第1筐体1Aおよび第2筐体1Bは、例えば、略平板状である。第1筐体1Aの一方の面にディスプレイ20(表示部)が配置されている。第2筐体1Bの一方の面にハードキー31が配置され、ハードキー31の下方(第2筐体1Bの内部)に、ハードキー31に重畳してタッチパッド30(物体検出部)のためのセンサが配置されている。   As shown in FIG. 2, the mobile terminal device 1 is a so-called foldable mobile phone. In the mobile terminal device 1, the first housing 1 </ b> A and the second housing 1 </ b> B are connected via the hinge 3, and can rotate around the axis of the hinge 3. The first housing 1A and the second housing 1B have, for example, a substantially flat plate shape. A display 20 (display unit) is disposed on one surface of the first housing 1A. A hard key 31 is arranged on one surface of the second housing 1B, and is placed under the hard key 31 (inside the second housing 1B) so as to overlap the hard key 31 for the touch pad 30 (object detection unit). Sensors are arranged.

携帯端末装置1は、第1筐体1Aおよび第2筐体1Bを開いている開状態(図2に示す形態)と、第1筐体1Aのディスプレイ20が配置されている面(表示面)と、第2筐体1Bのハードキー31が配置されている面(操作面)とが対向している閉状態(不図示)とに変形可能である。   The mobile terminal device 1 has an open state (the form shown in FIG. 2) in which the first housing 1A and the second housing 1B are opened, and a surface (display surface) on which the display 20 of the first housing 1A is disposed. And a closed state (not shown) in which the surface (operation surface) on which the hard key 31 of the second housing 1B is disposed is opposed.

ディスプレイ20は、画像表示領域pc内に画像など(図3参照)を表示するものである。ディスプレイ20は、例えば、LCD(液晶ディスプレイ)、有機ELディスプレイなどを適用することが可能である。   The display 20 displays an image or the like (see FIG. 3) in the image display area pc. As the display 20, for example, an LCD (liquid crystal display), an organic EL display, or the like can be applied.

ハードキー31は、ユーザが携帯端末装置1を操作するためのものである。ハードキー31は、ユーザが押下したキーに対応する信号を出力する物理的なキーである。例えば、ハードキー31は、メニューキー、テンキー、十字キー、センターキー、オンフックキー、オフフックキー等である。   The hard key 31 is used by the user to operate the mobile terminal device 1. The hard key 31 is a physical key that outputs a signal corresponding to the key pressed by the user. For example, the hard key 31 is a menu key, a numeric keypad, a cross key, a center key, an on-hook key, an off-hook key, or the like.

タッチパッド30は、携帯端末装置1を操作するためのものである。タッチパッド30は、上記センサを備えており、タッチパッド30に近接または接触する物体(ユーザの指、スタイラス等)を所定時間毎に検出し、検出した位置(例えば、タッチパッド30上の2次元座標)を示す位置情報を出力する。タッチパッド30が物体を検出する検出領域は、第2筐体1Bのハードキー31が配置されている面(操作面)の全体である。すなわち、第2筐体1Bの操作面がタッチパッド30の検出面である。そのため、ハードキー31のキートップ面は前記検出面の一部であり、検出領域に含まれる。タッチパッド30が備えるセンサは、静電容量センサ等である。   The touch pad 30 is for operating the mobile terminal device 1. The touch pad 30 includes the above-described sensor, detects an object (such as a user's finger or stylus) that approaches or touches the touch pad 30 at predetermined time intervals, and detects the detected position (for example, two-dimensional on the touch pad 30). Position information indicating coordinates) is output. The detection area where the touch pad 30 detects an object is the entire surface (operation surface) on which the hard keys 31 of the second housing 1B are arranged. That is, the operation surface of the second housing 1B is the detection surface of the touch pad 30. Therefore, the key top surface of the hard key 31 is a part of the detection surface and is included in the detection region. The sensor provided in the touch pad 30 is a capacitance sensor or the like.

本実施形態では、タッチパッド30は、第2筐体1Bの操作面上にユーザの指(操作物)が接触しているか否かを検出する。図2に示すように、第2筐体1Bの操作面(タッチパッド30の検出領域)は、ディスプレイ20の表示面(表示領域)と異なる位置にある。   In the present embodiment, the touch pad 30 detects whether or not the user's finger (operation article) is in contact with the operation surface of the second housing 1B. As shown in FIG. 2, the operation surface (detection region of the touch pad 30) of the second housing 1B is at a position different from the display surface (display region) of the display 20.

なお、図2には折り畳み式の携帯端末装置1が示されているが、これに限るものではなく、ストレート式、スライド式、2軸ヒンジ式等の携帯端末装置であってもよい。また、本実施形態では、情報処理装置を備えた携帯端末装置を例示しているが、これに限るものではない。本発明は、表示部と、近接または接触する物体を検出する平面状の検出領域を前記表示部の表示領域とは異なる位置に有する物体検出部と、を備える任意の情報処理装置に適用可能である。本発明は、例えば、ノートPC、携帯ゲーム機、デジタルカメラ、デジタルビデオカメラ、携帯音楽プレイヤー等に適用可能である。   In addition, although the foldable portable terminal device 1 is shown in FIG. 2, the present invention is not limited to this, and a portable terminal device such as a straight type, a slide type, or a biaxial hinge type may be used. In the present embodiment, a portable terminal device including an information processing device is illustrated, but the present invention is not limited to this. The present invention can be applied to any information processing apparatus including a display unit and an object detection unit having a planar detection area for detecting an object approaching or in contact with the display unit at a position different from the display area of the display unit. is there. The present invention is applicable to, for example, notebook PCs, portable game machines, digital cameras, digital video cameras, portable music players, and the like.

(携帯端末装置1の操作体系)
上述のように携帯端末装置1は、ハードキー31およびタッチパッド30の2つの操作部(入力部)を有する。ユーザのタッチパッド30による操作を容易にするため(誤操作を防止するため)、携帯端末装置1の主制御部10(情報処理装置)(図1参照)は、「キー操作モード」、「ポインタモード」、「スクロールモード」の3つのモードを有する。
(Operation system of the mobile terminal device 1)
As described above, the mobile terminal device 1 includes the two operation units (input units) of the hard key 31 and the touch pad 30. In order to facilitate the user's operation with the touch pad 30 (to prevent erroneous operation), the main control unit 10 (information processing device) (see FIG. 1) of the mobile terminal device 1 includes a “key operation mode”, a “pointer mode”. ”And“ scroll mode ”.

キー操作モードは、ハードキー31のみで操作可能なモードである。すなわち、キー操作モードでは、タッチパッド30による操作が無効である。キー操作モードでは、例えば、十字キーを操作してフォーカスを移動(リストの項目を選択)したり、センターキーを押下して決定したり、テンキーを操作して数字または文字を入力したり、オンフックキーを押下して通話を開始したり、オフフックキーを押下して通話またはアプリケーションを終了したりすることができる。   The key operation mode is a mode that can be operated only by the hard key 31. That is, in the key operation mode, the operation using the touch pad 30 is invalid. In key operation mode, for example, operate the cross key to move the focus (select an item in the list), press the center key to make a decision, operate the numeric keypad to enter numbers or characters, The user can press a key to start a call, or press an off-hook key to end a call or application.

キー操作モードにおいて、オフフックキーを長押しすることにより、ポインタモードへ移行する。また、キー操作モードにおいて、特定のアプリケーションを起動することにより、ポインタモードへ移行する。なお、携帯端末装置1の起動時は、主制御部10はキー操作モードとなる。   When the off-hook key is pressed and held in the key operation mode, the mode is shifted to the pointer mode. In the key operation mode, a specific application is activated to shift to the pointer mode. When the mobile terminal device 1 is activated, the main control unit 10 is in a key operation mode.

ポインタモードは、画面上に矢印マークのカーソルを表示し、タッチパッド30によるカーソル移動操作および決定操作を可能にするモードである。ポインタモードには、カーソル非表示状態とカーソル表示状態とがある。カーソル非表示状態では、ユーザがタッチパッド30(第2筐体1Bの操作面)にタッチして少しスワイプすることにより、カーソルが表示される。すなわち、カーソル表示状態に遷移する。また、キー操作モードと同様にハードキー31による操作が可能である。カーソル表示状態では、ユーザは、タッチパッド30をスワイプまたはフリックすることにより、カーソルを移動させたり、カーソルが移動してから所定時間(例えば1.5秒)以内にタッチパッド30をシングルタップすることにより、カーソルがある位置で決定を入力したり、タッチパッド30をダブルタップすることにより、カーソルがある位置で決定を入力したりすることができる。また、カーソル表示状態において、ハードキー31を押下すると、カーソルが消去される。すなわち、カーソル非表示状態に遷移する。また、カーソル表示状態において、タッチパッド30を操作することなく所定時間経過した場合も、カーソル非表示状態に遷移する。   The pointer mode is a mode in which an arrow mark cursor is displayed on the screen, and a cursor moving operation and a determining operation using the touch pad 30 are enabled. The pointer mode includes a cursor non-display state and a cursor display state. In the cursor non-display state, the user touches the touch pad 30 (the operation surface of the second housing 1B) and swipes a little to display the cursor. That is, the cursor transitions to the cursor display state. Moreover, the operation by the hard key 31 is possible similarly to the key operation mode. In the cursor display state, the user can move the cursor by swiping or flicking the touch pad 30 or single-tap the touch pad 30 within a predetermined time (for example, 1.5 seconds) after the cursor moves. Thus, the determination can be input at the position where the cursor is located, or the determination can be input at the position where the cursor is located by double-tapping the touch pad 30. When the hard key 31 is pressed in the cursor display state, the cursor is deleted. That is, the state transits to a cursor non-display state. Further, when a predetermined time elapses without operating the touch pad 30 in the cursor display state, the cursor transitions to the cursor non-display state.

ポインタモードにおいて、オフフックキーを長押しすることにより、キー操作モードに移行する。また、前記特定のアプリケーションを終了することにより、キー操作モードへ移行する。ポインタモードにおいて、タッチパッド30をロングタップすることにより、スクロールモードへ移行する。なお、ポインタモードに移行した場合、カーソル表示状態となる。   In the pointer mode, the key operation mode is entered by long-pressing the off-hook key. Also, the key operation mode is entered by terminating the specific application. In the pointer mode, a long tap on the touch pad 30 shifts to the scroll mode. When the mode is changed to the pointer mode, the cursor is displayed.

スクロールモードは、タッチパッド30による画面のスクロールを可能にするモードである。スクロールモードでは、タッチパッド30をスワイプまたはフリックすることにより、画面をスクロールしたり、タッチパッド30をロングタップすることにより、起動中のアプリケーションに応じた所定の処理を実行したりすることができる。スクロールモードにおいて、タッチパッド30をシングルタップすることにより、ポインタモードへ移行する。また、スクロールモードにおいて、タッチパッド30を操作することなく所定時間経過した場合も、ポインタモードに移行する。また、スクロールモードにおいて、前記特定のアプリケーションが終了した場合、キー操作モードに移行する。   The scroll mode is a mode that enables the screen to be scrolled by the touch pad 30. In the scroll mode, the screen can be scrolled by swiping or flicking the touch pad 30, or a predetermined process corresponding to the running application can be executed by long-tapping the touch pad 30. In the scroll mode, a single tap of the touch pad 30 makes a transition to the pointer mode. Also, in the scroll mode, when the predetermined time has passed without operating the touch pad 30, the mode is changed to the pointer mode. In the scroll mode, when the specific application is finished, the key operation mode is entered.

図2に示すように、主制御部10は、スクロールモードである場合、短タップの操作を受け付けることによって、ポインタモードに遷移する。また、主制御部10は、ポインタモードである場合、長タップの操作を受け付けることによって、スクロールモードに遷移する。   As shown in FIG. 2, when the main control unit 10 is in the scroll mode, the main control unit 10 transitions to the pointer mode by accepting a short tap operation. Further, when the main control unit 10 is in the pointer mode, the main control unit 10 transitions to the scroll mode by accepting a long tap operation.

(携帯端末装置1の構成)
図1を用いて、携帯端末装置1の構成を説明する。図1は、携帯端末装置1の構成を示すブロック図である。図1に示すように、携帯端末装置1は、主制御部10(情報処理装置)、ディスプレイ20、タッチパッド30、記憶部40、およびワークメモリ50を備えている。
(Configuration of portable terminal device 1)
The configuration of the mobile terminal device 1 will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of the mobile terminal device 1. As illustrated in FIG. 1, the mobile terminal device 1 includes a main control unit 10 (information processing device), a display 20, a touch pad 30, a storage unit 40, and a work memory 50.

主制御部10は、タッチパッド制御部11、タッチイベント判定部12(位置情報取得部)、および表示制御部13を含んでいる。タッチパッド制御部11は、タッチパッド30へのタッチ操作に伴って発生する検知信号をタッチパッド30から取得し、取得した検知信号をタッチイベント判定部12に出力する。   The main control unit 10 includes a touch pad control unit 11, a touch event determination unit 12 (position information acquisition unit), and a display control unit 13. The touch pad control unit 11 acquires a detection signal generated in response to a touch operation on the touch pad 30 from the touch pad 30, and outputs the acquired detection signal to the touch event determination unit 12.

タッチイベント判定部12は、タッチパッド制御部11から上記検知信号を入力された場合、後述する画像制御内容決定処理を実行することによって、上記タッチ操作の種類を判定し、その判定結果を表示制御部13に出力する。   When the detection signal is input from the touch pad control unit 11, the touch event determination unit 12 determines the type of the touch operation by executing an image control content determination process described later, and displays the determination result. To the unit 13.

表示制御部13は、タッチイベント判定部12による上記判定結果に基づいて、ディスプレイ20の画像表示領域pc内に表示されるオブジェクト(画像(対象オブジェクト)およびポインタpt(標識)など)に対する画像制御の内容(例えば、表示のスクロール、ポインタptの表示)を実行する。   The display control unit 13 performs image control on objects (images (target objects) and pointers pt (signs)) displayed in the image display area pc of the display 20 based on the determination result by the touch event determination unit 12. The contents (for example, display scrolling, display of pointer pt) are executed.

記憶部40には、タッチイベント判定部12の長押し判定部123(後述)が長押し操作の有無を判定するための基準時間を示す長押し閾値時間データが記憶されている。また、記憶部40には、タッチイベント判定部12のタッチ判定部121(後述)が判定したタッチの位置を示すタッチ位置データも記憶されている。さらに、記憶部40には、ディスプレイ20に表示される画像、カーソルcr、およびポインタpt等の各データも記憶されている。   The storage unit 40 stores long press threshold time data indicating a reference time for a long press determination unit 123 (described later) of the touch event determination unit 12 to determine the presence or absence of a long press operation. The storage unit 40 also stores touch position data indicating the touch position determined by a touch determination unit 121 (described later) of the touch event determination unit 12. Further, the storage unit 40 also stores data such as an image displayed on the display 20, a cursor cr, and a pointer pt.

(タッチイベント判定部12の詳細)
図1を用いて、前述したタッチイベント判定部12の詳細を説明する。図1に示すように、タッチイベント判定部12は、タッチ判定部121、ムーブ判定部122、および長押し判定部123(対象選択部)を含んでいる。
(Details of touch event determination unit 12)
Details of the touch event determination unit 12 will be described with reference to FIG. As illustrated in FIG. 1, the touch event determination unit 12 includes a touch determination unit 121, a move determination unit 122, and a long press determination unit 123 (target selection unit).

タッチ判定部121は、タッチパッド30へのタッチ操作に伴って発生した検知信号をタッチパッド制御部11から取得する。タッチ判定部121は、取得した検知信号に基づいて、タッチダウンの操作(ユーザが指をタッチパッド30に接触させるタッチ操作)およびタッチアップの操作(ユーザが指をタッチパッド30から離すタッチ操作)を検知(検出)する。   The touch determination unit 121 acquires, from the touch pad control unit 11, a detection signal generated with a touch operation on the touch pad 30. Based on the acquired detection signal, the touch determination unit 121 performs a touch-down operation (a touch operation in which the user makes a finger touch the touch pad 30) and a touch-up operation (a touch operation in which the user releases the finger from the touch pad 30). Is detected (detected).

ムーブ判定部122も、タッチパッド30へのタッチ操作に伴って発生した検知信号を、タッチパッド制御部11から取得する。ムーブ判定部122は、取得した検知信号に基づいて、ムーブの操作(ユーザが指をタッチパッド30から離さずに移動させるタッチ操作。スワイプ)を検知する。   The move determination unit 122 also acquires a detection signal generated with a touch operation on the touch pad 30 from the touch pad control unit 11. Based on the acquired detection signal, the move determination unit 122 detects a move operation (a touch operation in which the user moves a finger without releasing it from the touch pad 30. Swipe).

長押し判定部123は、タッチパッド30へのタッチ操作に伴って発生した検知信号をタッチパッド制御部11から取得する。長押し判定部123は、取得した検知信号に基づいて、長押しの操作(ユーザが指をタッチパッド30に閾値時間を超えて接触させるタッチ操作)を検知(検出)する。   The long press determination unit 123 acquires, from the touch pad control unit 11, a detection signal generated with a touch operation on the touch pad 30. Based on the acquired detection signal, the long press determination unit 123 detects (detects) a long press operation (a touch operation in which the user makes a finger contact the touch pad 30 beyond a threshold time).

(画像制御の例;その1)
図3を用いて、タッチイベント判定部12による画像制御の一例を説明する。図3は、タッチイベント判定部12および表示制御部13によって実行される画像制御の一例を説明する図である。最初、主制御部10は、ポインタモードであるとする。また、ディスプレイ20には、2つの画像表示領域区画pc1、pc2が設定されているとする。
(Example of image control; Part 1)
An example of image control by the touch event determination unit 12 will be described with reference to FIG. FIG. 3 is a diagram for explaining an example of image control executed by the touch event determination unit 12 and the display control unit 13. First, it is assumed that the main control unit 10 is in the pointer mode. Further, it is assumed that two image display area sections pc1 and pc2 are set on the display 20.

図3に示すように、タッチパッド30において、タッチダウン1が検知(ステップA)された場合、タッチ判定部121は、該タッチダウン1に伴って発生した検知信号をタッチパッド制御部11から取得する。そして、タッチ判定部121は、取得した検知信号に基づいて、タッチパッド30上においてタッチダウン1が検知された位置を判定する。   As shown in FIG. 3, when the touchdown 30 is detected (step A) in the touchpad 30, the touch determination unit 121 acquires the detection signal generated along with the touchdown 1 from the touchpad control unit 11. To do. And the touch determination part 121 determines the position where the touchdown 1 was detected on the touchpad 30 based on the acquired detection signal.

主制御部10がポインタモードである場合、長押し判定部123は、タッチ操作が長押し操作であるか否か、より具体的には、タッチの継続時間が記憶部40の長押し閾値時間よりも長いか否か、を判定する。ここで、タッチの継続時間とは、タッチダウンが検知されてから、タッチアップまたはムーブが検知されるまでの時間のことである。   When the main control unit 10 is in the pointer mode, the long press determination unit 123 determines whether the touch operation is a long press operation, more specifically, the duration of the touch is longer than the long press threshold time of the storage unit 40. Whether it is too long or not. Here, the duration of the touch is the time from when touch-down is detected until touch-up or move is detected.

タッチの継続時間が長押し閾値時間よりも長い場合(ステップB)、主制御部10は、ポインタモードからスクロールモードに遷移する。これに伴って、表示制御部13は、ディスプレイ20上のカーソルcrを消去する。また、タッチ判定部121は、タッチダウンが検知された位置を表示制御部13に通知し、表示制御部13は、タッチダウンが検知された位置に対応するディスプレイ20上の位置(以下では、対応位置と呼ぶ)にポインタptを表示・付与(ステップB)する。ここで、タッチパッド30上の位置と、ディスプレイ20上の位置とは、予め一対一で対応付けられている。図3では、画像表示領域区画pc2内に、ポインタptが表示されている。   When the duration of the touch is longer than the long press threshold time (step B), the main control unit 10 transitions from the pointer mode to the scroll mode. Along with this, the display control unit 13 deletes the cursor cr on the display 20. In addition, the touch determination unit 121 notifies the display control unit 13 of the position where the touchdown is detected, and the display control unit 13 corresponds to the position on the display 20 corresponding to the position where the touchdown is detected (hereinafter, corresponding The pointer pt is displayed / applied (referred to as “position”) (step B). Here, the position on the touch pad 30 and the position on the display 20 are associated with each other in advance one to one. In FIG. 3, a pointer pt is displayed in the image display area section pc2.

ディスプレイ20にポインタptが表示された後(すなわち、主制御部10がスクロールモードに遷移した後)、ムーブ判定部122は、タッチパッド30に対するムーブの操作(ステップC)を検知する。   After the pointer pt is displayed on the display 20 (that is, after the main control unit 10 transitions to the scroll mode), the move determination unit 122 detects a move operation on the touch pad 30 (step C).

ムーブ判定部122は、単位時間ごとに、タッチの位置(図3に×印で示す位置)の情報を、タッチパッド制御部11から取得する。そして、ムーブ判定部122は、タッチダウン1が検知された時点から、単位時間が経過するまでの期間におけるタッチの位置の変化を、1回目のムーブの操作として検知する。また、ムーブ判定部122は、1回目のムーブの操作が開始された時点におけるタッチの位置(以下では、ムーブ始点と呼ぶ)から、1回目のムーブの操作が終了した時点におけるタッチの位置(以下では、ムーブ終点と呼ぶ)へ向かうムーブベクトルを計算する。   The move determination unit 122 acquires information on a touch position (a position indicated by a cross in FIG. 3) from the touch pad control unit 11 for each unit time. Then, the move determination unit 122 detects a change in the touch position in a period from when the touchdown 1 is detected until the unit time elapses as the first move operation. In addition, the move determination unit 122 determines the touch position (hereinafter referred to as the move start point) from the touch position when the first move operation is started (hereinafter referred to as the move start point) (hereinafter referred to as the move start point). Then, the move vector toward the move end point is calculated.

1回目のムーブの操作が検知された後、ムーブ判定部122は、1回目のムーブの操作が終了した時点から、単位時間が経過するまでの期間におけるタッチの位置の変化を、2回目のムーブの操作として検知する。また、ムーブ判定部122は、2回目のムーブのムーブ始点から、2回目のムーブのムーブ終点へ向かうムーブベクトルを計算する。以後、ムーブ判定部122は、同様にして、3回目以降のムーブのムーブベクトルを計算する。なお、ユーザ操作としての1回のスワイプは、タッチダウン1が検知された時点から、タッチアップが検知される時点までの期間に含まれる全てのムーブの操作に相当する。   After the first move operation is detected, the move determination unit 122 changes the touch position in the period from the time when the first move operation is completed until the unit time elapses. Detected as an operation. The move determination unit 122 calculates a move vector from the move start point of the second move to the move end point of the second move. Thereafter, the move determination unit 122 calculates the move vector of the third and subsequent moves in the same manner. Note that one swipe as a user operation corresponds to all the operations of the move included in the period from the time when touchdown 1 is detected to the time when touchup is detected.

ムーブ判定部122は、上記ムーブベクトルの情報(または、ムーブ始点およびムーブ終点の情報)を、表示制御部13に通知する。上記ムーブベクトルに対応するディスプレイ20上のベクトルが、ディスプレイ20内の座標系における下方向のベクトルである場合、表示制御部13は、画像表示領域区画pc2内の画像を、画像表示領域区画pc1内の画像上に重ねるように、下方向にスクロール(ステップC)させる。ここで、ムーブベクトルに対応するディスプレイ20上のベクトルは、タッチパッド30内の座標系で検知された上記ムーブベクトルが、ディスプレイ20内の座標系に変換されることによって得られる。なお、表示制御部13は、ディスプレイ20上のポインタptを移動させることはない。   The move determination unit 122 notifies the display control unit 13 of the information on the move vector (or information on the move start point and the move end point). When the vector on the display 20 corresponding to the move vector is a downward vector in the coordinate system in the display 20, the display control unit 13 displays the image in the image display area section pc2 in the image display area section pc1. Scroll down (step C) so that it overlaps the image. Here, the vector on the display 20 corresponding to the move vector is obtained by converting the move vector detected in the coordinate system in the touch pad 30 into the coordinate system in the display 20. Note that the display control unit 13 does not move the pointer pt on the display 20.

図3に示すように、タッチパッド30において、タッチアップが検知(ステップC)された後、タッチダウン2が再び検知(ステップD)された場合、ムーブ判定部122は、単位時間ごとに、タッチの位置(図3に×印で示す位置)の情報を、タッチパッド制御部11から取得する。そして、ムーブ判定部122は、タッチダウン2が検知された時点から、単位時間が経過するまでの期間におけるタッチの位置の変化を、1回目のムーブの操作として検知する。また、ムーブ判定部122は、1回目のムーブのムーブベクトルを計算する。1回目のムーブの操作が検知された後、ムーブ判定部122は、同様にして、2回目以降のムーブのムーブベクトルを計算する。   As shown in FIG. 3, when touch-down 2 is detected again (step D) after touch-up is detected (step C) on the touch pad 30, the move determination unit 122 performs the touch every unit time. Is acquired from the touchpad control unit 11 (position indicated by a cross in FIG. 3). Then, the move determination unit 122 detects a change in the position of the touch during a period from when the touchdown 2 is detected until the unit time elapses, as the first move operation. In addition, the move determination unit 122 calculates a move vector of the first move. After the first move operation is detected, the move determination unit 122 calculates the move vector of the second and subsequent moves in the same manner.

ムーブ判定部122は、上記ムーブベクトルの情報(または、ムーブ始点およびムーブ終点の情報)を、表示制御部13に通知する。上記ムーブベクトルに対応するディスプレイ20上のベクトルが、ディスプレイ20内の座標系における下方向のベクトルである場合、表示制御部13は、画像表示領域区画pc2内の画像を、画像表示領域区画pc1内の画像上に重ねるように、下方向にスクロール(ステップC)させる。   The move determination unit 122 notifies the display control unit 13 of the information on the move vector (or information on the move start point and the move end point). When the vector on the display 20 corresponding to the move vector is a downward vector in the coordinate system in the display 20, the display control unit 13 displays the image in the image display area section pc2 in the image display area section pc1. Scroll down (step C) so that it overlaps the image.

(画像制御内容決定処理の流れ)
図4および図5を用いて、タッチイベント判定部12によって実行される画像制御内容決定処理の流れを説明する。図4は、画像制御内容決定処理の流れを示すフローチャートである。図5は、タッチパッド30上におけるタッチの位置およびその変化を示すグラフである。最初、主制御部10は、ディスプレイ20上にカーソルcr(図3および図4参照)が表示されるポインタモードであるとする。
(Image control content determination process flow)
The flow of image control content determination processing executed by the touch event determination unit 12 will be described with reference to FIGS. 4 and 5. FIG. 4 is a flowchart showing the flow of image control content determination processing. FIG. 5 is a graph showing the position of a touch on the touch pad 30 and its change. First, it is assumed that the main control unit 10 is in a pointer mode in which a cursor cr (see FIGS. 3 and 4) is displayed on the display 20.

図4に示すように、画像制御内容決定処理では、まず、タッチ判定部121は、タッチパッド30上においてタッチダウン1が検知(図4のステップA参照)された場合、タッチダウン1が検知された位置(DX1、DY1)(図5参照)を判定する(S1、位置情報取得ステップ)。   As shown in FIG. 4, in the image control content determination process, first, the touch determination unit 121 detects the touchdown 1 when the touchdown 1 is detected on the touch pad 30 (see step A in FIG. 4). The position (DX1, DY1) (see FIG. 5) is determined (S1, position information acquisition step).

次に、長押し判定部123は、長押し操作を検知(図3のステップB参照)する(S2、対象選択ステップ)。換言すれば、長押し判定部123は、タッチダウン1が長押し操作であると判定する。その後、タッチ判定部121は、タッチダウン1が検知された位置(DX1、DY1)を示す情報を記憶部40に記録する(S3)。   Next, the long press determination unit 123 detects a long press operation (see Step B of FIG. 3) (S2, target selection step). In other words, the long press determination unit 123 determines that the touchdown 1 is a long press operation. Then, the touch determination part 121 records the information which shows the position (DX1, DY1) where the touchdown 1 was detected in the memory | storage part 40 (S3).

続いて、タッチ判定部121は、タッチパッド30上においてタッチダウン1が検知された位置を、表示制御部13に通知する。表示制御部13は、タッチダウン1が検知された位置に対応するディスプレイ20上の対応位置に、ポインタptを表示(図3のステップB参照)する(S4)。   Subsequently, the touch determination unit 121 notifies the display control unit 13 of the position where the touch down 1 is detected on the touch pad 30. The display control unit 13 displays the pointer pt at a corresponding position on the display 20 corresponding to the position where the touchdown 1 is detected (see step B in FIG. 3) (S4).

その後、タッチ判定部121は、タッチアップが検知されたか否かを判定する(S5)。タッチアップ1が検知されていない場合(S5でNo)、画像制御内容決定処理はS8に進む。一方、タッチアップが検知(図3のステップC参照)された場合(S5でYes)、タッチパッド30上において新たなタッチダウン2が検知(図3のステップD参照)されたとき、タッチ判定部121は、タッチダウン2の位置(DX2、DY2)(図5参照)を判定する(S6、位置情報取得ステップ)。そして、タッチ判定部121は、タッチダウン1が検知された位置(DX1、DY1)とタッチダウン2が検知された位置(DX2、DY2)との差分(ΔX=DX2−DX1、ΔY=DY2−DY1)(図5参照)を算出する(S7)。   Thereafter, the touch determination unit 121 determines whether touch-up has been detected (S5). When the touch-up 1 is not detected (No in S5), the image control content determination process proceeds to S8. On the other hand, when a touch-up is detected (see step C in FIG. 3) (Yes in S5), when a new touch-down 2 is detected on the touch pad 30 (see step D in FIG. 3), the touch determination unit 121 determines the position (DX2, DY2) of touchdown 2 (see FIG. 5) (S6, position information acquisition step). The touch determination unit 121 then detects the difference (ΔX = DX2-DX1, ΔY = DY2-DY1) between the position (DX1, DY1) where the touchdown 1 is detected and the position (DX2, DY2) where the touchdown 2 is detected. ) (See FIG. 5) is calculated (S7).

次に、ムーブ判定部122は、タッチダウン2が検知された位置(DX2、DY2)から、単位時間後のタッチの位置(MX1、MY1)(図5参照)へ向かうムーブを検知する(S8)(図3のステップC参照)。以下では、位置(DX2、DY2)をムーブ1の始点と呼び、位置(MX1、MY1)をムーブ1の終点と呼ぶ。なお、位置(MX1、MY1)において、タッチアップが検知されている必要はない。   Next, the move determination unit 122 detects a move from the position (DX2, DY2) where the touchdown 2 is detected to the touch position (MX1, MY1) (see FIG. 5) after unit time (S8). (See step C in FIG. 3). Hereinafter, the position (DX2, DY2) is referred to as the start point of the move 1, and the position (MX1, MY1) is referred to as the end point of the move 1. Note that it is not necessary to detect touch-up at the positions (MX1, MY1).

その後、ムーブ判定部122は、ムーブ1の補正終点(MX1´=MX1−ΔX、MY1´=MY1−ΔY)(図5参照)を計算する(S9)。なお、タッチアップ1が検知されていない場合(S5でNo)、ムーブ1の補正終点(MX1´、MY1´)は、ムーブ1の終点(MX1、MY1)に等しくなる。   Thereafter, the move determination unit 122 calculates a correction end point (MX1 ′ = MX1−ΔX, MY1 ′ = MY1−ΔY) (see FIG. 5) of the move 1 (S9). When touch-up 1 is not detected (No in S5), the correction end point (MX1 ′, MY1 ′) of move 1 is equal to the end point (MX1, MY1) of move 1.

ムーブ判定部122は、タッチダウン1が検知された位置(DX1、DY1)を、ムーブ1の補正始点として、表示制御部13(アプリケーション)に通知する(S10、表示制御ステップ)。また、ムーブ判定部122は、ムーブ1の補正終点(MX1´、MY1´)も、表示制御部13(アプリケーション)に通知する(S11、表示制御ステップ)。表示制御部13は、ムーブ1の補正始点(DX1、DY1)から補正終点(MX1´、MY1´)へ向かうムーブベクトル(MX1´−DX1、MY1´−DY1)をディスプレイ20内の座標系におけるベクトルに変換し、変換されたベクトルに沿って、画像表示領域pc内の画像をスクロールさせる(表示制御ステップ)。   The move determination unit 122 notifies the display control unit 13 (application) of the position (DX1, DY1) where the touchdown 1 is detected as the correction start point of the move 1 (S10, display control step). In addition, the move determination unit 122 notifies the correction end point (MX1 ′, MY1 ′) of the move 1 to the display control unit 13 (application) (S11, display control step). The display control unit 13 moves the move vector (MX1′-DX1, MY1′-DY1) from the correction start point (DX1, DY1) of the move 1 to the correction end point (MX1 ′, MY1 ′) in the coordinate system in the display 20. And the image in the image display area pc is scrolled along the converted vector (display control step).

あるいは、S10およびS11の代わりに、ムーブ判定部122は、ムーブ1の始点(DX2、DY2)と、ムーブ1の終点(MX1、MY1)とを、表示制御部13に通知してもよい。図5に示すように、ムーブ1の補正始点(DX1、DY1)から、ムーブ1の補正終点(MX1´、MY1´)へ向かうムーブベクトル(MX1´−DX1、MY1´−DY1)は、ムーブ1の始点(DX2、DY2)から、ムーブ1の終点(MX1、MY1)へ向かうベクトル(MX1−DX2、MY1−DY2)に等しい。そのため、上記ベクトル(MX1−DX2、MY1−DY2)からディスプレイ20内の座標系へ変換されたベクトルは、上記ムーブベクトル(MX1´−DX1、MY1´−DY1)からディスプレイ20内の座標系へ変換されたベクトルに等しくなる。   Alternatively, instead of S10 and S11, the move determination unit 122 may notify the display control unit 13 of the start point (DX2, DY2) of the move 1 and the end point (MX1, MY1) of the move 1. As shown in FIG. 5, the move vectors (MX1′-DX1, MY1′-DY1) from the correction start point (DX1, DY1) of the move 1 to the correction end points (MX1 ′, MY1 ′) of the move 1 are Is equal to a vector (MX1-DX2, MY1-DY2) from the start point (DX2, DY2) to the end point (MX1, MY1) of the move 1. Therefore, the vector converted from the vector (MX1-DX2, MY1-DY2) to the coordinate system in the display 20 is converted from the move vector (MX1'-DX1, MY1'-DY1) to the coordinate system in the display 20. Is equal to the vector

以後のS12〜17では、新たなムーブn(nは2以上の整数)の検知と、そのムーブnの通知とが実行される。   In subsequent S12 to S17, detection of a new move n (n is an integer of 2 or more) and notification of the move n are executed.

S13において、タッチアップが検知されず(S13でNo)、n回目のムーブnが検知された場合、画像制御内容決定処理のS12〜S17において、ムーブ判定部122は、ムーブnの補正始点およびムーブnの補正終点(MXn´=MXn−ΔX、MYn´=MYn−ΔY)を表示制御部13(アプリケーション)に通知する。ここで、ムーブnの補正始点は、n−1回目のムーブn−1の補正終点(MXn−1´=MX(n−1)−ΔX、MYn−1´=MY(n−1)−ΔY)である。   When the touch-up is not detected in S13 (No in S13) and the n-th move n is detected, in S12 to S17 of the image control content determination process, the move determination unit 122 determines the correction start point and the move of move n. The correction end point (MXn ′ = MXn−ΔX, MYn ′ = MYn−ΔY) of n is notified to the display control unit 13 (application). Here, the correction start point of move n is the correction end point (MXn-1 ′ = MX (n−1) −ΔX, MYn−1 ′ = MY (n−1) −ΔY of the n−1th move n−1. ).

表示制御部13は、n回目のムーブnの補正始点(MXn−1´、DYn−1´)から、n回目のムーブnの補正終点(MXn´、MYn´)へ向かうムーブベクトル(MXn´−MXn−1´、MYn´−MYn−1´)を、ディスプレイ20内の座標系におけるベクトルに変換し、変換したベクトルに沿って、画像表示領域pc内の画像をスクロールさせる(表示制御ステップ、動作制御ステップ)。   The display control unit 13 moves from the correction start point (MXn-1 ′, DYn-1 ′) of the nth move n to the correction end point (MXn ′, MYn ′) of the nth move n (MXn′−). MXn-1 ′, MYn′-MYn-1 ′) are converted into vectors in the coordinate system in the display 20, and the image in the image display area pc is scrolled along the converted vectors (display control step, operation) Control step).

なお、ムーブnの補正始点およびムーブnの補正終点の情報は、表示制御部13だけでなく、携帯端末装置1に実装されたアプリケーションにも通知され、該アプリケーションは、通知されたムーブnの操作に応じて、画像表示領域pc内の画像に対するアクションを実行してもよい(動作制御ステップ)。   The information of the correction start point of move n and the correction end point of move n is notified not only to the display control unit 13 but also to an application installed in the mobile terminal device 1, and the application performs the operation of the notified move n. Accordingly, an action on the image in the image display area pc may be executed (operation control step).

図5では、1回目のムーブ1のムーブベクトルおよび2回目のムーブ2のムーブベクトルは、どちらも、タッチパッド30内の座標系(xy座標系)において、斜め方向のムーブベクトルである。しかしながら、本発明では、n(≧2)回のムーブ1〜nが検知された場合、1回目のムーブ1からn回目のムーブnのうち、少なくとも1回のムーブm(1≦m≦n)のムーブベクトルが、タッチパッド30上の座標系において、斜め方向のベクトルであればよい。   In FIG. 5, the move vector of the first move 1 and the move vector of the second move 2 are both move vectors in an oblique direction in the coordinate system (xy coordinate system) in the touch pad 30. However, in the present invention, when n (≧ 2) moves 1 to n are detected, at least one move m (1 ≦ m ≦ n) among the first move 1 to the n-th move n. The move vector may be an oblique vector in the coordinate system on the touchpad 30.

n回目のムーブnが検知された後、タッチアップが検知された場合(S13でYes)、画像制御内容決定処理は終了する。   If the touch-up is detected after the n-th move n is detected (Yes in S13), the image control content determination process ends.

(変形例)
図3には、2回のタッチダウン1、2が検知された場合における画像制御の流れを示している。また、画像制御内容決定処理の流れの説明でも、2回のタッチダウン1、2が行われた場合を想定した。本変形例では、図5を用いて、3回目のタッチダウンが検知された場合の画像制御の流れを説明する。
(Modification)
FIG. 3 shows the flow of image control when two touchdowns 1 and 2 are detected. In the description of the flow of the image control content determination process, it is assumed that two touchdowns 1 and 2 are performed. In this modification, the flow of image control when the third touchdown is detected will be described with reference to FIG.

図5に示すように、2回目のムーブ2の後に、(2回目のタッチアップが検出された後)3回目のタッチダウンが検知された場合、タッチ判定部121は、3回目のタッチダウンが検知された位置(DX3、DY3)と2回目のムーブ2の終点(MX2、MY2)との差分(ΔM=DX3−MX2、ΔN=DY3−MY2)を算出する。   As shown in FIG. 5, if the third touchdown is detected after the second move 2 (after the second touchup is detected), the touch determination unit 121 determines that the third touchdown is performed. The difference (ΔM = DX3-MX2, ΔN = DY3-MY2) between the detected position (DX3, DY3) and the end point (MX2, MY2) of the second move 2 is calculated.

次に、ムーブ判定部122は、3回目のタッチダウンが検知された位置(DX3、DY3)から、単位時間後のタッチの位置(MX3、MY3)へ向かうムーブを検知する。その後、ムーブ判定部122は、上記ムーブの補正始点(DX3−ΔX−ΔM、DY3−ΔY−ΔN)、および、上記ムーブの補正終点(MX3´=MX3−ΔX−ΔM、MY3´=MY3−ΔY−ΔN)を計算する。   Next, the move determination unit 122 detects a move from the position (DX3, DY3) where the third touchdown is detected toward the touch position (MX3, MY3) after a unit time. Thereafter, the move determination unit 122 performs the correction start point of the move (DX3-ΔX-ΔM, DY3-ΔY-ΔN) and the correction end point of the move (MX3 ′ = MX3-ΔX-ΔM, MY3 ′ = MY3-ΔY). -ΔN) is calculated.

そして、ムーブ判定部122は、上記ムーブの補正始点(DX3−ΔX−ΔM、DY3−ΔY−ΔN)および補正終点(MX3´、MY3´)を表示制御部13に通知する。   Then, the move determination unit 122 notifies the display control unit 13 of the correction start point (DX3-ΔX-ΔM, DY3-ΔY-ΔN) and the correction end point (MX3 ′, MY3 ′) of the move.

表示制御部13は、上記ムーブの補正始点(DX3−ΔX−ΔM、DY3−ΔY−ΔN)から補正終点(MX3´、MY3´)へ向かうムーブベクトルを、ディスプレイ20内の座標系におけるベクトルに変換し、変換されたベクトルに沿って、画像表示領域pc内の画像をスクロールさせる。   The display control unit 13 converts the move vector from the correction start point (DX3-ΔX-ΔM, DY3-ΔY-ΔN) to the correction end point (MX3 ′, MY3 ′) into a vector in the coordinate system in the display 20. Then, the image in the image display area pc is scrolled along the converted vector.

〔実施形態2〕
本発明の他の実施形態について、図6に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

前記実施形態1では、ポインタptを表示された画像表示領域区画pc2内の表示がスクロールされる構成を説明した(図3参照)。   In the first embodiment, the configuration in which the display in the image display area section pc2 on which the pointer pt is displayed is scrolled (see FIG. 3).

本実施形態では、ポインタptを表示されたシークバーse内のスライダsrがスライドされる構成を説明する。なお、本実施形態では、記憶部40(図1参照)に、前記実施形態1で説明したデータに加えて、シークバーseおよびスライダsrの各データも記憶されている。また、本実施形態に係る携帯端末装置1が備えたディスプレイ20B(図6参照)の表面上には、タッチパネルが配置されており、携帯端末装置1は、ディスプレイ20Bおよびタッチパッド30に対するタッチ操作を検知可能であるとする。   In the present embodiment, a configuration in which the slider sr in the seek bar se on which the pointer pt is displayed is slid. In the present embodiment, in addition to the data described in the first embodiment, each data of the seek bar se and the slider sr is also stored in the storage unit 40 (see FIG. 1). Moreover, the touch panel is arrange | positioned on the surface of the display 20B (refer FIG. 6) with which the portable terminal device 1 which concerns on this embodiment was equipped, The portable terminal device 1 performs touch operation with respect to the display 20B and the touchpad 30. FIG. Assume that it can be detected.

(画像制御の例;その2)
図6は、本実施形態に係るタッチイベント判定部12および表示制御部13によって実行される画像制御の例を示す説明図である。図6に示すように、ディスプレイ20には、画像表示領域pcの他に、シークバーseおよびスライダsrも表示されている。
(Example of image control; 2)
FIG. 6 is an explanatory diagram illustrating an example of image control executed by the touch event determination unit 12 and the display control unit 13 according to the present embodiment. As shown in FIG. 6, the display 20 displays a seek bar se and a slider sr in addition to the image display area pc.

図6に示すように、本実施形態では、携帯端末装置1の主制御部10がポインタモードである場合において、タッチダウンが検知され、さらに長押しが検知(ステップA)された場合、主制御部10は、ポインタモードからスクロールモードに遷移する。このとき、本実施形態に係るタッチ判定部121は、ディスプレイ20上のカーソルcrを消去する。また、タッチ判定部121は、タッチダウンが検知された位置を表示制御部13に通知し、表示制御部13は、タッチダウンおよび長押しが検知された位置に対応するディスプレイ20上の対応位置にポインタptを表示(ステップB)する。ここで、タッチパッド30上の位置と、ディスプレイ20上の位置とは、予め一対一で対応付けられている。図6では、シークバーse内に、ポインタptが表示されている。   As shown in FIG. 6, in this embodiment, when the main control unit 10 of the mobile terminal device 1 is in the pointer mode, when the touchdown is detected and the long press is detected (step A), the main control is performed. The unit 10 transitions from the pointer mode to the scroll mode. At this time, the touch determination unit 121 according to the present embodiment deletes the cursor cr on the display 20. Further, the touch determination unit 121 notifies the display control unit 13 of the position where the touchdown is detected, and the display control unit 13 sets the corresponding position on the display 20 corresponding to the position where the touchdown and long press are detected. The pointer pt is displayed (step B). Here, the position on the touch pad 30 and the position on the display 20 are associated with each other in advance one to one. In FIG. 6, a pointer pt is displayed in the seek bar se.

ディスプレイ20にポインタptが表示された後(すなわち、主制御部10がスクロールモードに遷移した後)、ムーブ判定部122は、タッチパッド30に対するムーブの操作(ステップC)を検知する。   After the pointer pt is displayed on the display 20 (that is, after the main control unit 10 transitions to the scroll mode), the move determination unit 122 detects a move operation on the touch pad 30 (step C).

ムーブ判定部122は、単位時間ごとに、タッチの位置(図6に×印で示す位置)の情報を、タッチパッド制御部11から取得する。そして、ムーブ判定部122は、前記実施形態1で説明したように、各ムーブの操作におけるタッチの位置の変化を、ムーブの操作として検出する。また、ムーブの始点から終点に至るムーブベクトルを計算する。   The move determination unit 122 acquires information on a touch position (a position indicated by a cross in FIG. 6) from the touch pad control unit 11 for each unit time. Then, as described in the first embodiment, the move determination unit 122 detects the change in the touch position in each move operation as the move operation. Also, a move vector from the start point to the end point of the move is calculated.

ムーブ判定部122は、上記ムーブベクトルの情報(または、ムーブ始点およびムーブ終点の情報)を、表示制御部13に通知する。上記ムーブベクトルに対応するディスプレイ20上のベクトルが、ディスプレイ20内の座標系における横方向のベクトルである場合、または、横方向の成分を含むベクトルである場合、表示制御部13は、シークバーse内のスライダsrを、横方向にスライド(ステップC)させる。ここで、ムーブベクトルに対応するディスプレイ20上のベクトルは、タッチパッド30内の座標系で検知された上記ムーブベクトルが、ディスプレイ20内の座標系に変換されることによって得られる。なお、表示制御部13は、ディスプレイ20上のポインタptを移動させることはない。   The move determination unit 122 notifies the display control unit 13 of the information on the move vector (or information on the move start point and the move end point). When the vector on the display 20 corresponding to the move vector is a horizontal vector in the coordinate system in the display 20 or a vector including a horizontal component, the display control unit 13 Slide the slider sr in the horizontal direction (step C). Here, the vector on the display 20 corresponding to the move vector is obtained by converting the move vector detected in the coordinate system in the touch pad 30 into the coordinate system in the display 20. Note that the display control unit 13 does not move the pointer pt on the display 20.

図6に示すように、タッチパッド30において、タッチアップが検知(ステップC)された後、タッチダウン2が再び検知(ステップD)された場合、ムーブ判定部122は、単位時間ごとに、タッチの位置(図6に×印で示す位置)の情報を、タッチパッド制御部11から取得する。そして、ムーブ判定部122は、前記実施形態1で説明したように、各ムーブの操作におけるタッチの位置の変化を、ムーブの操作として検出する。また、ムーブの始点から終点に至るムーブベクトルを計算する。   As shown in FIG. 6, when touch-down 2 is detected again (step D) after touch-up is detected (step C) on the touch pad 30, the move determination unit 122 touches every unit time. Is acquired from the touchpad control unit 11 (position indicated by a cross in FIG. 6). Then, as described in the first embodiment, the move determination unit 122 detects the change in the touch position in each move operation as the move operation. Also, a move vector from the start point to the end point of the move is calculated.

ムーブ判定部122は、上記ムーブベクトルの情報(または、ムーブ始点およびムーブ終点の情報)を、表示制御部13に通知する。上記ムーブベクトルに対応するディスプレイ20上のベクトルが、ディスプレイ20内の座標系における横方向のベクトルである場合、または、横方向の成分を含むベクトルである場合、表示制御部13は、シークバーse内のスライダsrを、横方向にスライド(ステップC)させる。   The move determination unit 122 notifies the display control unit 13 of the information on the move vector (or information on the move start point and the move end point). When the vector on the display 20 corresponding to the move vector is a horizontal vector in the coordinate system in the display 20 or a vector including a horizontal component, the display control unit 13 Slide the slider sr in the horizontal direction (step C).

なお、図6では、長押しの操作はディスプレイ20上で行われている(ステップA)一方、ムーブの操作はタッチパッド上で行われている(ステップC、ステップD)。しかしながら、ムーブの操作もディスプレイ20上で行われてもよい。この場合、ユーザは、ムーブの操作を、シークバーseが表示されていない領域で行う。これにより、タッチ操作を行う指がシークバーseを覆うことがないので、ユーザは、シークバーse内におけるスライダsrの位置を確認することができる。   In FIG. 6, the long press operation is performed on the display 20 (step A), while the move operation is performed on the touch pad (step C, step D). However, the move operation may also be performed on the display 20. In this case, the user performs the move operation in an area where the seek bar se is not displayed. Accordingly, since the finger performing the touch operation does not cover the seek bar se, the user can confirm the position of the slider sr in the seek bar se.

〔ソフトウェアによる実現例〕
携帯端末装置1の制御ブロック(特に主制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control block (particularly the main control unit 10) of the mobile terminal device 1 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or using a CPU (Central Processing Unit). It may be realized by software.

後者の場合、携帯端末装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the mobile terminal device 1 includes a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU). Alternatively, a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) that expands the program, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る情報処理装置(主制御部10)は、表示部(ディスプレイ20)と、近接または接触する物体を検出する平面状の検出領域を有する物体検出部(タッチパッド30)と、上記物体検出部が上記物体を検出した位置を示す位置情報を取得する位置情報取得部(タッチイベント判定部12)とを備えた情報処理装置であって、上記表示部の表示領域に表示されている1または複数のオブジェクトから1つの対象オブジェクトを選択する対象選択部(長押し判定部123)をさらに備え、上記位置情報から上記物体の移動を指示するユーザ操作が複数回検出されたとき、各ユーザ操作に応じたアクションを、同一の上記対象オブジェクトに対して順次実行する。
[Summary]
An information processing apparatus (main control unit 10) according to an aspect 1 of the present invention includes a display unit (display 20), an object detection unit (touch pad 30) having a planar detection region for detecting an object that is close to or touches. An information processing apparatus including a position information acquisition unit (touch event determination unit 12) that acquires position information indicating a position where the object detection unit has detected the object, and is displayed in a display area of the display unit. A target selection unit (long press determination unit 123) that selects one target object from one or a plurality of objects, and when a user operation instructing movement of the object is detected a plurality of times from the position information, Actions corresponding to each user operation are sequentially executed on the same target object.

上記の構成によれば、対象オブジェクトが選択された後、複数回の操作が検出された場合、それらの操作に応じたアクションが、同一の対象オブジェクトに対して実行される。そのため、ユーザは、検出領域上の任意の位置で、対象オブジェクトに対する複数回のユーザ操作を行うことができる。例えば、ユーザは、操作に用いる指(物体)で対象オブジェクトが覆われないように、対象オブジェクトが表示されている位置とは異なる位置で、複数回のユーザ操作を行うことができる。   According to the above configuration, when a plurality of operations are detected after the target object is selected, actions corresponding to those operations are executed on the same target object. For this reason, the user can perform a plurality of user operations on the target object at an arbitrary position on the detection area. For example, the user can perform a plurality of user operations at a position different from the position where the target object is displayed so that the target object is not covered with a finger (object) used for the operation.

本発明の態様2に係る情報処理装置は、上記態様1において、上記対象オブジェクトに所定の標識を付与して表示する表示制御部(13)をさらに備えていてもよい。   The information processing apparatus according to aspect 2 of the present invention may further include a display control unit (13) that assigns a predetermined sign to the target object for display in the aspect 1.

上記の構成によれば、対象オブジェクトが、所定の標識によって示される。そのため、ユーザは、標識を確認することによって、複数回の操作が、どのオブジェクトに対する操作として情報処理装置に認識されるのかを知ることができる。   According to the above configuration, the target object is indicated by the predetermined sign. Therefore, the user can know which object is recognized by the information processing apparatus as an operation for a plurality of operations by checking the sign.

本発明の態様3に係る情報処理装置は、上記態様1または2において、1回目の上記ユーザ操作によって指示された上記物体の移動の始点の位置にあったオブジェクトを上記対象オブジェクトとしてもよい。   In the information processing apparatus according to aspect 3 of the present invention, in the above-described aspect 1 or 2, the object at the start position of the movement of the object instructed by the first user operation may be set as the target object.

上記の構成によれば、ユーザは、1回目の操作を開始するとともに、対象オブジェクトを指定することができる。   According to the above configuration, the user can start the first operation and specify the target object.

本発明の態様4に係る制御方法は、表示部(ディスプレイ20)と、近接または接触する物体を検出する平面状の検出領域を有する物体検出部(タッチパッド30)と、上記物体検出部が上記物体を検出した位置を示す位置情報を取得する位置情報取得部(タッチイベント判定部12)とを備えた情報処理装置の制御方法であって、上記表示部の表示領域に表示されている1または複数のオブジェクトから1つの対象オブジェクトを選択する対象選択ステップと、上記位置情報から上記物体の移動を指示するユーザ操作が複数回検出されたとき、各ユーザ操作に応じたアクションを、同一の上記対象オブジェクトに対して順次実行する動作制御ステップと、を含んでいる。   In the control method according to aspect 4 of the present invention, a display unit (display 20), an object detection unit (touch pad 30) having a planar detection region for detecting an object that approaches or touches, and the object detection unit includes the above-described object detection unit. A control method for an information processing apparatus including a position information acquisition unit (touch event determination unit 12) that acquires position information indicating a position at which an object is detected, wherein 1 or displayed in a display area of the display unit When a target selection step for selecting one target object from a plurality of objects and a user operation for instructing movement of the object from the position information are detected a plurality of times, an action corresponding to each user operation is performed with the same target And a motion control step executed sequentially on the object.

上記の構成によれば、上記態様1に係る情報処理装置と同じ効果を奏することができる。   According to said structure, there can exist the same effect as the information processing apparatus which concerns on the said aspect 1. FIG.

本発明の各態様に係る情報処理装置の制御方法は、コンピュータによって実現してもよく、この場合には、コンピュータに上記制御方法の各ステップを実行させることにより上記制御方法をコンピュータにて実現させる制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The control method of the information processing apparatus according to each aspect of the present invention may be realized by a computer. In this case, the computer executes the control method by causing the computer to execute each step of the control method. A control program and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、タッチパッドを備えた情報処理装置に利用することができる。   The present invention can be used for an information processing apparatus including a touch pad.

10 主制御部(情報処理装置)
20 ディスプレイ(表示部)
20B ディスプレイ(表示部、物体検出部)
30 タッチパッド(物体検出部)
12 タッチイベント判定部(位置情報取得部)
13 表示制御部
123 長押し判定部(対象選択部)
pt ポインタ(標識)
10 Main control unit (information processing device)
20 Display (display part)
20B display (display unit, object detection unit)
30 Touchpad (object detection unit)
12 Touch event determination unit (location information acquisition unit)
13 Display Control Unit 123 Long Press Determination Unit (Target Selection Unit)
pt pointer (sign)

Claims (5)

表示部と、近接または接触する物体を検出する平面状の検出領域を有する物体検出部と、上記物体検出部が上記物体を検出した位置を示す位置情報を取得する位置情報取得部とを備えた情報処理装置であって、
上記表示部の表示領域に表示されている1または複数のオブジェクトから1つの対象オブジェクトを選択する対象選択部をさらに備え、
上記位置情報から上記物体の移動を指示するユーザ操作が複数回検出されたとき、各ユーザ操作に応じたアクションを、同一の上記対象オブジェクトに対して順次実行する
ことを特徴とする情報処理装置。
A display unit; an object detection unit having a planar detection region for detecting an object that approaches or touches; and a position information acquisition unit that acquires position information indicating a position where the object detection unit detects the object. An information processing apparatus,
A target selection unit for selecting one target object from one or a plurality of objects displayed in the display area of the display unit;
An information processing apparatus that sequentially executes an action corresponding to each user operation on the same target object when a user operation for instructing movement of the object is detected a plurality of times from the position information.
上記対象オブジェクトに所定の標識を付与して表示する表示制御部をさらに備えた
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a display control unit that displays the target object with a predetermined sign.
上記対象選択部は、1回目の上記ユーザ操作によって指示された上記物体の移動の始点の位置にあったオブジェクトを上記対象オブジェクトとする
ことを特徴とする請求項1または2に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the target selection unit sets the object at the start position of the movement of the object instructed by the first user operation as the target object. .
表示部と、近接または接触する物体を検出する平面状の検出領域を有する物体検出部と、上記物体検出部が上記物体を検出した位置を示す位置情報を取得する位置情報取得部とを備えた情報処理装置の制御方法であって、
上記表示部の表示領域に表示されている1または複数のオブジェクトから1つの対象オブジェクトを選択する対象選択ステップと、
上記位置情報から上記物体の移動を指示するユーザ操作が複数回検出されたとき、各ユーザ操作に応じたアクションを、同一の上記対象オブジェクトに対して順次実行する動作制御ステップと、
を含むことを特徴とする制御方法。
A display unit; an object detection unit having a planar detection region for detecting an object that approaches or touches; and a position information acquisition unit that acquires position information indicating a position where the object detection unit detects the object. A method for controlling an information processing apparatus,
A target selection step of selecting one target object from one or a plurality of objects displayed in the display area of the display unit;
An operation control step of sequentially executing an action corresponding to each user operation on the same target object when a user operation instructing movement of the object is detected a plurality of times from the position information;
The control method characterized by including.
請求項4に記載の情報処理装置の制御方法を実行するための制御プログラムであって、コンピュータに上記対象選択ステップおよび上記動作制御ステップを実行させるための制御プログラム。   A control program for executing the control method of the information processing apparatus according to claim 4, wherein the control program causes a computer to execute the object selection step and the operation control step.
JP2015006038A 2015-01-15 2015-01-15 Information processing apparatus, control method thereof, and control program Expired - Fee Related JP6134748B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015006038A JP6134748B2 (en) 2015-01-15 2015-01-15 Information processing apparatus, control method thereof, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015006038A JP6134748B2 (en) 2015-01-15 2015-01-15 Information processing apparatus, control method thereof, and control program

Publications (3)

Publication Number Publication Date
JP2016133828A true JP2016133828A (en) 2016-07-25
JP2016133828A5 JP2016133828A5 (en) 2016-09-15
JP6134748B2 JP6134748B2 (en) 2017-05-24

Family

ID=56437939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015006038A Expired - Fee Related JP6134748B2 (en) 2015-01-15 2015-01-15 Information processing apparatus, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP6134748B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61177485A (en) * 1985-02-01 1986-08-09 松下電器産業株式会社 Scroll controller
JPH05134653A (en) * 1991-11-11 1993-05-28 Matsushita Electric Ind Co Ltd Window screen scrolling device
JP2003248551A (en) * 2002-02-25 2003-09-05 Ricoh Co Ltd Display apparatus with touch panel and display control method for the apparatus
JP2011023040A (en) * 2005-07-04 2011-02-03 Atlab Inc Input device of content providing device
JP2012203484A (en) * 2011-03-24 2012-10-22 Sony Corp Information processing apparatus, information processing method, and program
JP2014215890A (en) * 2013-04-26 2014-11-17 シャープ株式会社 Electronic apparatus, information processing method, and information processing program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61177485A (en) * 1985-02-01 1986-08-09 松下電器産業株式会社 Scroll controller
JPH05134653A (en) * 1991-11-11 1993-05-28 Matsushita Electric Ind Co Ltd Window screen scrolling device
JP2003248551A (en) * 2002-02-25 2003-09-05 Ricoh Co Ltd Display apparatus with touch panel and display control method for the apparatus
JP2011023040A (en) * 2005-07-04 2011-02-03 Atlab Inc Input device of content providing device
JP2012203484A (en) * 2011-03-24 2012-10-22 Sony Corp Information processing apparatus, information processing method, and program
JP2014215890A (en) * 2013-04-26 2014-11-17 シャープ株式会社 Electronic apparatus, information processing method, and information processing program

Also Published As

Publication number Publication date
JP6134748B2 (en) 2017-05-24

Similar Documents

Publication Publication Date Title
US9851809B2 (en) User interface control using a keyboard
WO2016114269A1 (en) Information processing device and control method therefor
CN104145236B (en) Method and apparatus for the content in mobile terminal
JP6319483B2 (en) Information processing device
US20090164930A1 (en) Electronic device capable of transferring object between two display units and controlling method thereof
JP6381032B2 (en) Electronic device, control method thereof, and program
TWI655572B (en) Information processing device, information processing method and computer readable recording medium
WO2014141548A1 (en) Display control
JP2014164718A (en) Information terminal
JP6027703B1 (en) Information processing apparatus and control program
JP6077573B2 (en) Information processing apparatus, control method thereof, and control program
JP6134748B2 (en) Information processing apparatus, control method thereof, and control program
JP6118005B1 (en) Information processing apparatus and control program
JP2016224688A (en) Information processing device, control method, control program, and recording medium
JP7196246B2 (en) USER INTERFACE PROCESSING PROGRAM, RECORDING MEDIUM, USER INTERFACE PROCESSING METHOD
JP6367720B2 (en) Information processing apparatus and program
JP6114886B2 (en) Information processing apparatus, control method for information processing apparatus, and control program
CN110945469A (en) Touch input device and method
JP2016130976A (en) Information processing apparatus, control method thereof, and control program
JP2016218859A (en) Information processing device, control method, and control program
JP2014165884A (en) Character entry unit, character entry method, control program, and recording media
US20190155472A1 (en) Information processing device, and control method for information processing device
JP2014164355A (en) Input device and control method of input device
JP2016224543A (en) Information processing device, control method, control program, and recording medium
JP2014160301A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160728

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160728

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170424

R150 Certificate of patent or registration of utility model

Ref document number: 6134748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees