JP5501715B2 - User interface device, control method for user interface device, and program - Google Patents

User interface device, control method for user interface device, and program Download PDF

Info

Publication number
JP5501715B2
JP5501715B2 JP2009222215A JP2009222215A JP5501715B2 JP 5501715 B2 JP5501715 B2 JP 5501715B2 JP 2009222215 A JP2009222215 A JP 2009222215A JP 2009222215 A JP2009222215 A JP 2009222215A JP 5501715 B2 JP5501715 B2 JP 5501715B2
Authority
JP
Japan
Prior art keywords
finger
trajectory
touch panel
gesture
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009222215A
Other languages
Japanese (ja)
Other versions
JP2011070489A (en
Inventor
伸昌 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2009222215A priority Critical patent/JP5501715B2/en
Publication of JP2011070489A publication Critical patent/JP2011070489A/en
Application granted granted Critical
Publication of JP5501715B2 publication Critical patent/JP5501715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザインターフェース装置、ユーザインターフェース装置の制御方法、及びプログラムに関する。   The present invention relates to a user interface device, a user interface device control method, and a program.

ユーザがユーザインターフェース装置としてのタッチパネルの画面に指先でタッチすると、その指先でタッチした地点の座標がタッチパネルからジェスチャー解析部へ送られる。ジェスチャー解析部は、その座標及びそれまでに送られた座標の履歴から、何のジェスチャーかを判断し、ジェスチャーの判断結果(ページ送り、回転、ズーム等)とそのパラメータ(ページ送りであれば移動量、回転であれば角度、ズームであれば倍率)をアプリケーションに渡す。それまでの座標の履歴から何のジェスチャーかを判断できない場合は、次のタッチを待つ。ジェスチャーが完了したり、中断したりしたと判断された場合は、それまでの座標の履歴のデータを消去して、次のタッチを待つ。   When the user touches the screen of the touch panel as the user interface device with a fingertip, the coordinates of the point touched with the fingertip are sent from the touch panel to the gesture analysis unit. The gesture analysis unit determines what gesture it is from the coordinates and the history of coordinates sent so far, and the gesture determination result (page feed, rotation, zoom, etc.) and its parameters (if page feed, moves) The amount, the angle for rotation, and the magnification for zoom). If no gesture can be determined from the history of coordinates up to that point, the next touch is awaited. If it is determined that the gesture has been completed or interrupted, the coordinate history data up to that point is erased and the next touch is awaited.

アプリケーションは、受け取ったジェスチャー及びそのパラメータにより動作を行う。例えば、画像表示ソフトでは、ページ送りのジェスチャーにより画面に表示されている写真を切り替えたり、回転のジェスチャーにより表示画像を回転させたり、ズームのジェスチャーにより画像を拡大(縮小)表示させたりする。   The application performs an operation according to the received gesture and its parameters. For example, in the image display software, a photograph displayed on the screen is switched by a page turning gesture, a display image is rotated by a rotation gesture, and an image is enlarged (reduced) by a zoom gesture.

この種のユーザインターフェース装置が特許文献1に開示されている。
特許文献1に記載の発明は、「ユーザインターフェース装置及びユーザインターフェース方法」に関する発明であり、具体的には、「所定のコマンドが割り付けられているジェスチャーを記憶するとともに、そのジェスチャーを誘導する案内軌跡を記憶する記憶手段と、軌跡入力デバイスに対するユーザの操作軌跡を解析する軌跡解析手段と、軌跡解析手段がユーザの操作軌跡を解析する毎に、記憶手段に記憶されているジェスチャーの中から、その操作軌跡に合致する1以上のジェスチャーを検索するジェスチャー検索手段と、記憶手段からジェスチャー検索手段により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡を表示する一方、ジェスチャー検索手段により前回検索されたジェスチャーがユーザの操作軌跡と合致しなくなると、表示しているジェスチャーの案内軌跡を消去する案内軌跡表示手段と、ジェスチャー検索手段により検索されたジェスチャーが1つに絞られると、そのジェスチャーに割り付けられているコマンドを呼び出すコマンド呼出手段とを備えた」ものである。
すなわち、特許文献1に記載の発明は、ユーザの操作軌跡に合致する1以上のジェスチャーを検索し、その案内軌跡を表示する。また、ジェスチャーが1つに絞られると、そのジェスチャーに関連づけられているコマンドを呼び出す。
This type of user interface device is disclosed in Patent Document 1.
The invention described in Patent Document 1 is an invention related to “user interface device and user interface method”. Specifically, “a guide locus that stores a gesture to which a predetermined command is assigned and guides the gesture” Storage means for storing, a trajectory analysis means for analyzing the user's operation trajectory for the trajectory input device, and each time the trajectory analysis means analyzes the user's operation trajectory, from the gestures stored in the storage means, Gesture search means for searching for one or more gestures that match the operation trajectory, and obtaining the guidance trajectory of the gesture searched for by the gesture search means from the storage means and displaying the guidance trajectory, while searching for the previous time by the gesture search means Does not match the user's operation trajectory Then, a guidance trajectory display means for deleting the guidance trajectory of the displayed gesture, and a command calling means for calling a command assigned to the gesture when the gesture searched by the gesture search means is narrowed down to one. It's a thing.
That is, the invention described in Patent Document 1 searches for one or more gestures that match the user's operation locus, and displays the guidance locus. When a gesture is narrowed down to one, a command associated with the gesture is called.

特開2006−331210号公報JP 2006-331210 A

しかしながら、上述した従来技術では、どういうジェスチャー操作ができるかを案内するが、移動量や移動方向に応じた処理を行うジェスチャーに対して、移動量や移動方向に対してどのようなコマンドが関連づけられているかを示すことについては全く考慮されていない。   However, the above-described conventional technique guides what kind of gesture operation can be performed, but what commands are associated with the movement amount and the movement direction with respect to a gesture that performs processing according to the movement amount and the movement direction. It is not considered at all to indicate whether or not

また、従来技術では、1本指で固定の図形等のジェスチャーを案内するため、マルチタッチで両方の指を動かし、かつ両方の指の相対的な移動(量及び方向)に応じた処理を行うジェスチャーの際に、どちらの指をどのくらい移動させたか(1本目を固定して2本目を移動させたのか、両方の指を同程度ずつ移動させたのか)によりジェスチャーの案内を変えることが考慮されておらず、操作性に改善の余地がある。   In addition, in the prior art, in order to guide a gesture such as a fixed figure with one finger, both fingers are moved by multi-touch, and processing according to the relative movement (amount and direction) of both fingers is performed. When gesturing, it is considered to change the guidance of the gesture depending on how much of which finger is moved (whether the first finger is fixed and the second finger is moved, or both fingers are moved by the same amount). There is room for improvement in operability.

そこで、本発明の目的は、上記課題を解決するため、操作性を向上させたユーザインターフェース装置、ユーザインターフェース装置の制御方法、及びプログラムを提供することにある。   Accordingly, an object of the present invention is to provide a user interface device, a user interface device control method, and a program with improved operability in order to solve the above-described problems.

本発明の装置は、接触開始からの指の軌跡を検知するタッチパネルと、所定の規則性を有する前記指の軌跡であるジェスチャーと所定の処理との対応関係を記憶する記憶手段と、前記タッチパネルへの接触開始から接触終了までの指の軌跡が前記ジェスチャーの規則性に対応している場合に、接触終了地点に応じて定められるパラメータに従って前記所定の処理を実行する処理手段と、前記タッチパネルにより検知された接触開始からの指の軌跡が前記ジェスチャーの規則性に対応するか否かを判断し、対応する場合に、前記指の軌跡を前記規則性に従って延長した案内軌跡及び前記案内軌跡上の複数の地点で接触終了したときのそれぞれの予想処理結果を前記タッチパネルに表示するように制御する制御手段と、を備えたことを特徴とする。 The apparatus of the present invention includes a touch panel for detecting a finger trajectory from the start of contact, a storage unit for storing a correspondence between a gesture that is the finger trajectory having a predetermined regularity and a predetermined process, and the touch panel. When the finger trajectory from the start of contact to the end of contact corresponds to the regularity of the gesture, processing means for executing the predetermined process according to a parameter determined according to the contact end point and detected by the touch panel It is determined whether or not the finger trajectory from the start of touching corresponds to the regularity of the gesture, and in this case, a guide trajectory obtained by extending the finger trajectory according to the regularity and a plurality of the trajectories on the guide trajectory characterized by comprising a control means for controlling so that each predicted process results displayed on the touch panel when the touch end at point

本発明によれば、指の軌跡に基づいてタッチパネルに案内軌跡を表示し、案内軌跡上に、ポイントとなる地点と、その地点まで操作したときに予想される結果とを表示することにより、操作性を向上させたユーザインターフェース装置、ユーザインターフェース装置の制御方法、及びプログラムの提供を実現することができる。   According to the present invention, a guidance trajectory is displayed on the touch panel based on the trajectory of the finger, and on the guidance trajectory, a point to be a point and a result expected when operating up to that point are displayed. It is possible to realize provision of a user interface device, a user interface device control method, and a program with improved performance.

本発明に係るユーザインターフェース装置の制御方法の一実施の形態を示すフローチャートである。It is a flowchart which shows one Embodiment of the control method of the user interface apparatus which concerns on this invention. 本発明に係るユーザインターフェース装置の一実施の形態を示すブロック図である。It is a block diagram which shows one Embodiment of the user interface apparatus which concerns on this invention. (a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の一実施例を示す説明図である。(A), (b) is explanatory drawing which shows one Example of the control method of the user interface apparatus based on this invention. (a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。(A), (b) is explanatory drawing which shows the other Example of the control method of the user interface apparatus based on this invention. (a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。(A), (b) is explanatory drawing which shows the other Example of the control method of the user interface apparatus based on this invention. (a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。(A), (b) is explanatory drawing which shows the other Example of the control method of the user interface apparatus based on this invention. (a)〜(c)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。(A)-(c) is explanatory drawing which shows the other Example of the control method of the user interface apparatus based on this invention.

次に本発明の実施の形態について図面を参照して説明する。
図1は、本発明に係るユーザインターフェース装置の制御方法の一実施の形態を示すフローチャートである。
図2は、本発明に係るユーザインターフェース装置の一実施の形態を示すブロック図である。
Next, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a flowchart showing an embodiment of a control method for a user interface device according to the present invention.
FIG. 2 is a block diagram showing an embodiment of a user interface device according to the present invention.

<構 成>
図2に示すユーザインターフェース装置は、タッチパネル1、CPU2、ROM3、RAM4、I/Oポート5、及びバスライン6を有する。
<Configuration>
The user interface device shown in FIG. 2 includes a touch panel 1, a CPU 2, a ROM 3, a RAM 4, an I / O port 5, and a bus line 6.

タッチパネル1は、液晶表示装置とパネルスイッチとが一体化された入力装置であり、パネルスイッチは指がタッチされた地点の信号を発生する機能を有する。
例えば、パネルスイッチは、抵抗膜式、赤外線式、超音波表面弾性波式、音響波照合式、プロジェクテッド・キャパシティブ式のいずれを用いてもよい。
The touch panel 1 is an input device in which a liquid crystal display device and a panel switch are integrated, and the panel switch has a function of generating a signal at a point where a finger is touched.
For example, the panel switch may use any one of a resistive film type, an infrared type, an ultrasonic surface acoustic wave type, an acoustic wave collation type, and a projected capacitive type.

抵抗膜式のタッチパネルは、ガラス基板上に平行透明電極(センサ・ワイヤ)を設け、平行透明電極の上にスペーサを設け、スペーサの上に透明平行電極と直交するように他の透明平行電極(センサ・ワイヤ)を貼り合わせたものであり、最上層の透明平行電極が押圧されることにより透明電極同士が接触することで交点の座標が分かるようになっている。   The resistive touch panel has a parallel transparent electrode (sensor wire) on a glass substrate, a spacer on the parallel transparent electrode, and another transparent parallel electrode (on the spacer so as to be orthogonal to the transparent parallel electrode ( Sensor wire), and the coordinates of the intersection point can be understood by contacting the transparent electrodes by pressing the uppermost transparent parallel electrode.

赤外線式のタッチパネルは、赤外線のビームを縦横に走らせておき、指で遮光されたことを検知することで交点の座標が分かるようになっている。   An infrared touch panel is configured so that the coordinates of the intersection point can be known by running an infrared beam vertically and horizontally and detecting that the finger is shielded from light.

超音波表面弾性波式のタッチパネルは、物体の表付近に集中して伝播する表面弾性波を利用したものである。   The ultrasonic surface acoustic wave type touch panel utilizes surface acoustic waves that propagate in a concentrated manner near the surface of an object.

音響波式のタッチパネルは、タッチパネル表面に触れたことで発生る音響パルスがタッチパネルを伝わってくるのを検出し、信号解析によってタッチ位置を割り出すものである。   The acoustic wave type touch panel detects an acoustic pulse generated by touching the surface of the touch panel and is transmitted through the touch panel, and determines a touch position by signal analysis.

プロジェクテッド・キャパシティブ式のタッチパネルは、抵抗膜式と同様に縦横に電極が走っている点では同様であるが、抵抗膜のようにタッチされた場所が導通するのではなく、電極間の静電容量の変化をとらえるものである。   The projected capacitive touch panel is the same as the resistive film type in that the electrodes run vertically and horizontally, but the touched location does not conduct like the resistive film, but the electrostatic capacitance between the electrodes It captures changes in capacity.

CPU2は、座標検出部2a、ジェスチャー完了判断部2b、ジェスチャー種類決定判断部2c、及び案内表示タッチ判断部2dを有する機能を有し、例えばマイクロプロセッサが用いられる。   The CPU 2 has a function including a coordinate detection unit 2a, a gesture completion determination unit 2b, a gesture type determination determination unit 2c, and a guidance display touch determination unit 2d. For example, a microprocessor is used.

座標検出部2aは、タッチパネル1の画面にタッチされた指の地点の座標を検出する機能である。
ジェスチャー完了判断部2bは、タッチパネル1に指がタッチされたまま移動することによるジェスチャーが完了したか否かを判断する機能部である。
ジェスチャー種類決定判断部2cは、タッチパネル1に指がタッチされたまま移動することによるジェスチャーの種類が、ページ送りか、回転か、拡大か、縮小か決定したか否かを判断する機能部である。
案内表示タッチ判断部2dは、タッチパネル1の画面に表示された案内表示がタッチされたか否かを判断する機能部である。
The coordinate detection unit 2 a is a function that detects the coordinates of the point of the finger touched on the screen of the touch panel 1.
The gesture completion determination unit 2b is a functional unit that determines whether or not a gesture by moving while a finger is touched on the touch panel 1 is completed.
The gesture type determination determination unit 2c is a functional unit that determines whether it is determined whether the type of gesture by moving while the finger is touched on the touch panel 1 is page turning, rotation, enlargement, or reduction. .
The guidance display touch determination unit 2d is a functional unit that determines whether the guidance display displayed on the screen of the touch panel 1 has been touched.

ROM3は、ユーザインターフェース装置を統括制御する制御プログラムやジェスチャーのパターンのデータを格納するメモリである。   The ROM 3 is a memory that stores a control program for overall control of the user interface device and gesture pattern data.

RAM4は、タッチパネル1により入力された座標のデータを格納するメモリである。   The RAM 4 is a memory that stores coordinate data input by the touch panel 1.

I/Oポート5は、外部の電子機器、例えばパーソナルコンピュータと接続するためのポートであり、例えばUSB(Universal Serial Bus)やRS232C等が用いられる。   The I / O port 5 is a port for connecting to an external electronic device such as a personal computer. For example, a USB (Universal Serial Bus), RS232C, or the like is used.

<動 作>
次に、図2に示したユーザインターフェース装置の動作について図1を参照して説明する。
動作の主体は、CPU2である。
まず、CPU2は、タッチパネル1の画面に指がタッチされた地点の座標を検出する(ステップS1)。
CPU2は、タッチパネル1の画面上の指がタッチされた地点の座標をRAM4に格納する(ステップS2)。
CPU2は、座標履歴からジェスチャーを判断する(ステップS3)。
CPU2は、ジェスチャーが完了したか否かを判断する(ステップS4)。
CPU2は、ジェスチャーが完了したと判断した場合(ステップS4/Y)、ジェスチャーの処理を実行し終了する(ステップS9)。
<Operation>
Next, the operation of the user interface device shown in FIG. 2 will be described with reference to FIG.
The subject of operation is the CPU 2.
First, the CPU 2 detects the coordinates of the point where the finger is touched on the screen of the touch panel 1 (step S1).
The CPU 2 stores the coordinates of the point where the finger on the screen of the touch panel 1 is touched in the RAM 4 (step S2).
The CPU 2 determines a gesture from the coordinate history (step S3).
The CPU 2 determines whether or not the gesture has been completed (step S4).
If the CPU 2 determines that the gesture has been completed (step S4 / Y), it executes the gesture process and ends (step S9).

CPU2は、ジェスチャーが完了していないと判断した場合(ステップS4/N)、ジェスチャーの種類が決まっているか否かを判断する(ステップS5)。
CPU2は、ジェスチャーの種類が決まっていると判断した場合(ステップS5/Y)、タッチパネル1の画面に案内軌跡を表示し(ステップS6)、ポイントとなる地点の案内をタッチパネル1の画面に表示する(ステップS7)。
CPU2は、タッチパネル1の画面に表示された案内表示がタッチされたか否かを判断し(ステップS8)、案内表示がタッチされたと判断すると(ステップS8/Y)、ジェスチャーの処理を実行し終了する(ステップS9)。
CPU2は、タッチパネル1の画面上の案内表示がタッチされていないと判断した場合(ステップS8/N)、ステップS1に戻り、以下繰り返す。
If the CPU 2 determines that the gesture has not been completed (step S4 / N), it determines whether or not the type of gesture has been determined (step S5).
When the CPU 2 determines that the type of gesture has been determined (step S5 / Y), the CPU 2 displays a guidance trajectory on the screen of the touch panel 1 (step S6), and displays guidance for the point to be a point on the screen of the touch panel 1. (Step S7).
The CPU 2 determines whether or not the guidance display displayed on the screen of the touch panel 1 has been touched (step S8). If the CPU 2 determines that the guidance display has been touched (step S8 / Y), it executes the gesture process and ends. (Step S9).
When the CPU 2 determines that the guidance display on the screen of the touch panel 1 is not touched (step S8 / N), the CPU 2 returns to step S1 and repeats the following.

<プログラム>
以上で説明した本発明にかかるユーザインターフェース装置は、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばマイクロプロセッサなどの汎用的なものが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明を実現する場合の説明を以下で行う。
<Program>
The user interface device according to the present invention described above is realized by a program that causes a computer to execute processing. Examples of the computer include general-purpose computers such as a microprocessor, but the present invention is not limited to this. Therefore, as an example, a case where the present invention is realized by a program will be described below.

プログラムとしては、コンピュータに、
(1)タッチパネルが、接触した指の動作がジェスチャーであるか否かを判断する手順、
(2)指の動作がジェスチャーである場合に、そのジェスチャーに対応づけられた軌跡に基づいてタッチパネルに案内軌跡を表示する手順、
(3)案内軌跡上に、ポイントとなる地点と、その地点まで操作したときに予想される結果とを表示する手順、
を実行させるプログラムが挙げられる。
As a program, on a computer,
(1) A procedure for determining whether the touched finger is a gesture,
(2) When a finger motion is a gesture, a procedure for displaying a guidance trajectory on the touch panel based on the trajectory associated with the gesture,
(3) On the guidance trajectory, a procedure for displaying the point to be a point and the expected result when operating to that point,
A program that executes

これにより、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明にかかるユーザインターフェース装置を実現することができる。
このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。
Thus, the user interface device according to the present invention can be realized anywhere as long as there is a computer environment capable of executing the program.
Such a program may be stored in a computer-readable storage medium.

<記憶媒体>
ここで、記憶媒体としては、例えば、CD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(CD Recordable)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)、FeRAM(強誘電体メモリ)等の半導体メモリやHDD(Hard Disc Drive)が挙げられる。
<Storage medium>
Here, examples of the storage medium include computer-readable storage media such as a CD-ROM (Compact Disc Read Only Memory), a flexible disk (FD), a CD-R (CD Recordable), and a DVD (Digital Versatile Disk). , Flash memory, RAM (Random Access Memory), ROM (Read Only Memory), semiconductor memory such as FeRAM (ferroelectric memory), and HDD (Hard Disc Drive).

なお、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。   The above-described embodiment shows an example of a preferred embodiment of the present invention, and the present invention is not limited thereto, and various modifications can be made without departing from the scope of the invention. is there.

図3(a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の一実施例を示す説明図である。
タッチパネル1(図2参照)の画面1aに写真(顔写真)が表示されている際にユーザが指(例えば右手人差し指)10でタッチしたまま矢印11方向になぞることにより(いわゆる、パン)、ジェスチャー種類決定判断部2cはユーザの操作をパンと判断し、画面1aのページ送りが行われる(図3(a))。
FIGS. 3A and 3B are explanatory views showing an embodiment of a control method of the user interface device according to the present invention.
When a photo (face photo) is displayed on the screen 1a of the touch panel 1 (see FIG. 2), the user touches with a finger (for example, the right index finger) 10 and traces in the direction of the arrow 11 (so-called panning), thereby gesturing The type determination determining unit 2c determines that the user's operation is panning, and the page of the screen 1a is paged (FIG. 3A).

指10が画面1aにタッチしたままなぞると、画面1bに切り替わると共に、案内表示としての撮影履歴12が画面1a上に重畳表示される。この場合、指10の位置は撮影履歴12のうちの3月末頃であることが示されている。   When the finger 10 keeps touching the screen 1a, the screen is switched to the screen 1b, and the shooting history 12 as a guidance display is superimposed on the screen 1a. In this case, it is shown that the position of the finger 10 is around the end of March in the shooting history 12.

画面1a上に案内表示が行われることにより、ユーザは、現在の写真がいつ頃撮影した写真で、目的の撮影日の写真を表示するために指をどの一まで動かせばよいかを把握することができ、また、撮影履歴12の撮影月を直接タッチすることでその撮影月の写真を表示させることができ、従って操作性が向上する。   By displaying guidance on the screen 1a, the user grasps when the current photograph is a photograph taken and to what extent the finger should be moved to display the photograph on the target photographing date. In addition, the photograph of the photographing month can be displayed by directly touching the photographing month of the photographing history 12, so that the operability is improved.

図4(a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。
タッチパネル1の画面1aに顔写真が横向きに表示されている場合に、ユーザが一方の指(例えば左手の指)13で画面1aの中央をタッチすると共に、他方の指(例えば右手の指)10を画面1aの上側をタッチしたまま(マルチタッチ)、矢印14方向に移動すると、ジェスチャー種類決定判断部2cはユーザの操作を回転と判断し、回転に対応付けられた案内軌跡と、案内表示として回転後の縮小画像を表示する(図4(a))。
すなわち、タッチパネル1は、画面1a上に指10の案内軌跡T1を表示し、更に案内軌跡T1上の、画面1aの上側に現在の向きの縮小画像1bを表示し、
画面1aの右側に90度右回転した後の縮小画像(この場合、正立画像)1cを表示し、画面下側に180度回転した後の縮小画像1dを表示し、左側に270度回転した後の縮小画像(この場合、倒立画像)1eを表示する(図4(b))。
4A and 4B are explanatory views showing another embodiment of the control method of the user interface device according to the present invention.
When a face photo is displayed sideways on the screen 1 a of the touch panel 1, the user touches the center of the screen 1 a with one finger (for example, the finger of the left hand) and the other finger (for example, the finger of the right hand) 10. If the upper side of the screen 1a is touched (multi-touch) and moved in the direction of the arrow 14, the gesture type determination determining unit 2c determines that the user's operation is rotation, and displays a guidance trajectory associated with the rotation and a guidance display. A reduced image after rotation is displayed (FIG. 4A).
That is, the touch panel 1 displays a guidance trajectory T1 of the finger 10 on the screen 1a, and further displays a reduced image 1b of the current orientation on the upper side of the screen 1a on the guidance trajectory T1,
A reduced image (in this case, an upright image) 1c rotated 90 degrees on the right side of the screen 1a is displayed, a reduced image 1d after 180 degrees rotated is displayed on the lower side of the screen, and rotated 270 degrees on the left side. A later reduced image (inverted image in this case) 1e is displayed (FIG. 4B).

ここで、指13を固定し、指10を案内軌跡T1上の目的の位置まで移動させた場合、移動させた位置の角度まで画像を回転させるが、画面1a上から指10と指13とを離したときに、一定時間(例えば、2〜3秒)案内表示1b〜1eを表示したままにしておき、その間に指で再度画面1aの案内表示1b〜1eのいずれかをタッチすることにより選択され、その選択された状態の回転処理を行うように構成してもよい。   Here, when the finger 13 is fixed and the finger 10 is moved to the target position on the guidance trajectory T1, the image is rotated to the angle of the moved position, but the finger 10 and the finger 13 are moved from the screen 1a. When it is released, the guidance display 1b to 1e is kept displayed for a certain period of time (for example, 2 to 3 seconds), and it is selected by touching any one of the guidance displays 1b to 1e on the screen 1a during that time. The rotation processing in the selected state may be performed.

これらの案内表示により、ユーザは、指をどの位置まで回転させるとどのように表示されるかが把握することができ、また、縮小画像1b・1c・1d・1eを直接タッチすることで、タッチした縮小画像の状態になるよう回転させることができ、従って操作性が向上する。   With these guidance displays, the user can grasp how the finger is displayed to what position, and touch the reduced images 1b, 1c, 1d, and 1e by directly touching them. Therefore, the operability is improved.

図5(a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。
タッチパネル1の画面1aに指10と指13とを同時に矢印16、17方向にほぼ同一速度で離れるように移動させると(図5(a))、ジェスチャー種類決定判断部2cはユーザの操作をズームと判断し、画面1aに案内軌跡T2及び矩形状の枠線L1〜L3及び解説18、19が案内表示として表示される。
すなわち、枠線L1には「画面に収める」の解説表示が連動し、枠線L2は指10、13に連動し、枠線L3は「実寸大」の解説表示(ピクセル等倍)が連動し、指10、13を所望の大きさになるように動かすか、案内表示をタッチすることによりサイズが選択される。
ユーザは、案内表示に基づいて所望するサイズを選択することができるので、操作性が向上する。
FIGS. 5A and 5B are explanatory views showing another embodiment of the control method of the user interface device according to the present invention.
When the finger 10 and the finger 13 are simultaneously moved on the screen 1a of the touch panel 1 in the directions of arrows 16 and 17 so as to leave at substantially the same speed (FIG. 5A), the gesture type determination determining unit 2c zooms in on the user's operation. The guidance trajectory T2, the rectangular frame lines L1 to L3, and the explanations 18 and 19 are displayed as guidance displays on the screen 1a.
That is, the explanation display of “fit on screen” is linked to the frame line L1, the frame line L2 is linked to the fingers 10 and 13, and the comment display of “actual size” is linked (pixel same size) to the frame line L3. The size is selected by moving the fingers 10 and 13 to a desired size or touching the guidance display.
Since the user can select a desired size based on the guidance display, the operability is improved.

図6(a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。
図6(a)、(b)に示した実施例の図5(a)、(b)に示した実施例との相違点は、案内表示のうちの解説表示がアイコンである点である。
すなわち、アイコン20が枠線L1に対応し、アイコン21が枠線L3に対応している。
このように構成してもユーザは、案内表示に基づいて所望するサイズを選択することができるので、操作性が向上する。
FIGS. 6A and 6B are explanatory views showing another embodiment of the method for controlling the user interface device according to the present invention.
The difference between the embodiment shown in FIGS. 6A and 6B and the embodiment shown in FIGS. 5A and 5B is that the explanation display in the guidance display is an icon.
That is, the icon 20 corresponds to the frame line L1, and the icon 21 corresponds to the frame line L3.
Even if configured in this way, the user can select a desired size based on the guidance display, so that the operability is improved.

図7(a)〜(c)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。
図7(a)〜(c)に示した実施例の図5(a)、(b)に示した実施例との相違点は、指10、13を同時に矢印16、17方向にほぼ同一速度で離れるように移動させる途中、指10を固定したままさらに指13を矢印22方向に離れるように移動させる点である。
この場合には、両方の指の移動量の直近の割合を元に案内表示を行う。すなわち、指10、13を同時に移動している間は、指10と指13の移動する割合が同じため、枠線L1〜L3を図7(b)のように、指10と指13とを同じ距離だけ移動させた場合の位置に表示し、指10を停止すると共に指13を移動させた場合、指13のみが移動するため枠線L1〜L3を表示する位置を図7(c)のように、指13のみが移動した場合の位置に切り替える。
このように構成してもユーザは、案内表示に基づいて所望するサイズを選択することができるので、操作性が向上する。
FIGS. 7A to 7C are explanatory views showing another embodiment of the method for controlling the user interface device according to the present invention.
The difference between the embodiment shown in FIGS. 7A to 7C and the embodiment shown in FIGS. 5A and 5B is that the fingers 10 and 13 are simultaneously moved in the directions of arrows 16 and 17 at substantially the same speed. In the middle of moving away, the finger 13 is further moved away in the direction of the arrow 22 while the finger 10 is fixed.
In this case, guidance display is performed based on the most recent ratio of the movement amounts of both fingers. That is, while the fingers 10 and 13 are moving at the same time, the moving ratio of the finger 10 and the finger 13 is the same, so the frame lines L1 to L3 are connected to the finger 10 and the finger 13 as shown in FIG. When the finger 10 is stopped and the finger 13 is moved, the position where the frame lines L1 to L3 are displayed is displayed as shown in FIG. 7C. Thus, it switches to the position when only the finger 13 has moved.
Even if configured in this way, the user can select a desired size based on the guidance display, so that the operability is improved.

以上において、本実施例によれば、移動量及び移動方向に応じた処理を行うジェスチャーで、どのくらいの量でどうなるのかの案内表示を行うことができる。
マルチタッチの際に、両方の指を移動する割合に応じた適切な案内を表示できる。
表示された案内を直接タッチしてそのポイント地点の結果となる処理を行うことができる。
As described above, according to the present embodiment, it is possible to perform a guidance display as to how much and in what amount the gesture is performed according to the movement amount and the movement direction.
In the case of multi-touch, it is possible to display an appropriate guidance according to the ratio of moving both fingers.
The displayed guidance can be directly touched to perform processing resulting in the point.

1 タッチパネル
1a 画面
1b〜1e 縮小画像
2 CPU
2a 座標検出部
2b ジェスチャー完了判断部
2c ジェスチャー種類決定判断部
2d 案内表示タッチ判断部
3 ROM
4 RAM
5 I/Oポート
6 バスライン
10、13 指
11、14、16、17、22 矢印
12、18、19 案内表示
20、21 アイコン
L1〜L4 枠線
T1 回転のジェスチャーに対応付けられた案内軌跡
T2 ズームのジェスチャーに対応付けられた案内軌跡
1 Touch Panel 1a Screen 1b-1e Reduced Image 2 CPU
2a Coordinate detection unit 2b Gesture completion determination unit 2c Gesture type determination determination unit 2d Guidance display touch determination unit 3 ROM
4 RAM
5 I / O port 6 Bus line 10, 13 Finger 11, 14, 16, 17, 22 Arrow 12, 18, 19 Guidance display 20, 21 Icon L1-L4 Frame line T1 Guidance locus associated with the gesture of rotation T2 Guide trajectory associated with zoom gesture

Claims (8)

接触開始からの指の軌跡を検知するタッチパネルと、
所定の規則性を有する前記指の軌跡であるジェスチャーと所定の処理との対応関係を記憶する記憶手段と、
前記タッチパネルへの接触開始から接触終了までの指の軌跡が前記ジェスチャーの規則性に対応している場合に、接触終了地点に応じて定められるパラメータに従って前記所定の処理を実行する処理手段と、
前記タッチパネルにより検知された接触開始からの指の軌跡が前記ジェスチャーの規則性に対応するか否かを判断し、対応する場合に、前記指の軌跡を前記規則性に従って延長した案内軌跡及び前記案内軌跡上の複数の地点で接触終了したときのそれぞれの予想処理結果を前記タッチパネルに表示するように制御する制御手段と、
を備えたことを特徴とするユーザインターフェース装置。
A touch panel that detects the trajectory of the finger from the start of contact;
Storage means for storing a correspondence relationship between a gesture that is a trajectory of the finger having a predetermined regularity and a predetermined process;
Processing means for executing the predetermined processing according to a parameter determined according to a contact end point when a finger trajectory from the start of contact to the touch panel corresponds to the regularity of the gesture;
It is determined whether or not the finger trajectory detected from the contact start detected by the touch panel corresponds to the regularity of the gesture, and if so, the guide trajectory obtained by extending the finger trajectory according to the regularity and the guidance each expected processing results and control means for controlling so as to display on the touch panel when the touch end by a plurality of points on the trajectory,
A user interface device comprising:
前記制御手段は、前記予想される結果を前記案内軌跡上の所定の近傍に表示することを特徴とする請求項1記載のユーザインターフェース装置。   The user interface device according to claim 1, wherein the control unit displays the expected result in a predetermined vicinity on the guide locus. タッチパネルに接触開始からの指の軌跡を検知し、所定の規則性を有する前記指の軌跡であるジェスチャーと所定の処理との対応関係を記憶し、前記タッチパネルへの接触開始から接触終了までの指の軌跡が前記ジェスチャーの規則性に対応している場合に、接触終了地点に応じて定められるパラメータに従って前記所定の処理を実行し、前記タッチパネルにより検知された接触開始からの指の軌跡が前記ジェスチャーの規則性に対応するか否かを判断し、対応する場合に、前記指の軌跡を前記規則性に従って延長した案内軌跡及び前記案内軌跡上の複数の地点で接触終了したときのそれぞれの予想処理結果を前記タッチパネルに表示することを特徴とするユーザインターフェースの制御方法。 A finger trajectory from the start of contact is detected on the touch panel, a correspondence relationship between the gesture that is the trajectory of the finger having a predetermined regularity and a predetermined process is stored, and the finger from the start of contact to the touch panel to the end of contact is stored. When the trajectory of the touch corresponds to the regularity of the gesture, the predetermined processing is executed according to a parameter determined according to the contact end point, and the trajectory of the finger detected from the touch start detected by the touch panel is the gesture Whether or not it corresponds to the regularity of the information, and in the case of corresponding, the guidance trajectory obtained by extending the trajectory of the finger according to the regularity and respective prediction processes when the contact is ended at a plurality of points on the guidance trajectory the method of the user interface and displaying the result in the touch panel. 前記案内軌跡上の指の接触位置が変化した場合、直近の位置に基づいて予想される表示を変更することを特徴とする請求項3記載のユーザインターフェース装置の制御方法。   4. The method of controlling a user interface device according to claim 3, wherein when a finger contact position on the guide locus changes, an expected display is changed based on the latest position. 前記指を前記タッチパネルから離した後、前記案内軌跡を一定時間表示するとともに、前記予想される結果が表示された前記地点を直接タッチした場合は、前記結果となる処理を行うことを特徴とする請求項3または4に記載のユーザインターフェース装置の制御方法。   After the finger is released from the touch panel, the guidance trajectory is displayed for a certain period of time, and when the point where the expected result is displayed is directly touched, the process that results in the result is performed. The control method of the user interface device according to claim 3 or 4. 前記指が複数の場合に、前記各指の相対的な動作に応じて案内軌跡を表示することを特徴とする請求項3から5の何れか一項に記載のユーザインターフェース装置の制御方法。   The method for controlling a user interface device according to any one of claims 3 to 5, wherein, when there are a plurality of fingers, a guide locus is displayed according to a relative movement of each finger. 前記複数の指のうち1本目を固定して2本目を動作する場合には2本目の指に対して案内軌跡を表示することを特徴とする請求項6記載のユーザインターフェース装置の制御方法。   7. The method of controlling a user interface device according to claim 6, wherein when the second finger is operated while the first finger is fixed among the plurality of fingers, a guide locus is displayed for the second finger. コンピュータに、
タッチパネルが、接触開始からの指の軌跡を検知する手順、
記憶手段が、所定の規則性を有する前記指の軌跡であるジェスチャーと所定の処理との対応関係を記憶する手順、
処理手段が、前記タッチパネルへの接触開始から接触終了までの指の軌跡が前記ジェスチャーの規則性に対応している場合に、接触終了地点に応じて定められるパラメータに従って前記所定の処理を実行する手順、
制御手段が、前記タッチパネルにより検知された接触開始からの指の軌跡が前記ジェスチャーの規則性に対応するか否かを判断し、対応する場合に、前記指の軌跡を前記規則性に従って延長した案内軌跡及び前記案内軌跡上の複数の地点で接触終了したときのそれぞれの予想処理結果を前記タッチパネルに表示するように制御する手順、
を実行させることを特徴とするプログラム。
On the computer,
The procedure for the touch panel to detect the trajectory of the finger from the start of contact,
A procedure for storing a correspondence relationship between a gesture that is a trajectory of the finger having a predetermined regularity and a predetermined process;
A procedure in which processing means executes the predetermined process according to a parameter determined according to a contact end point when a finger trajectory from the start of contact to the touch panel to the end of contact corresponds to the regularity of the gesture. ,
The control means determines whether or not the finger trajectory detected from the touch start detected by the touch panel corresponds to the regularity of the gesture, and in the case of the guidance, the finger trajectory is extended according to the regularity. procedure for controlling so that each predicted process results when in contact ends a locus and a plurality of points on the guide track displayed on the touch panel,
A program characterized by having executed.
JP2009222215A 2009-09-28 2009-09-28 User interface device, control method for user interface device, and program Active JP5501715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009222215A JP5501715B2 (en) 2009-09-28 2009-09-28 User interface device, control method for user interface device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009222215A JP5501715B2 (en) 2009-09-28 2009-09-28 User interface device, control method for user interface device, and program

Publications (2)

Publication Number Publication Date
JP2011070489A JP2011070489A (en) 2011-04-07
JP5501715B2 true JP5501715B2 (en) 2014-05-28

Family

ID=44015704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009222215A Active JP5501715B2 (en) 2009-09-28 2009-09-28 User interface device, control method for user interface device, and program

Country Status (1)

Country Link
JP (1) JP5501715B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5459720B2 (en) * 2011-05-13 2014-04-02 ニチユ三菱フォークリフト株式会社 forklift
CN102902469B (en) * 2011-07-25 2015-08-19 宸鸿光电科技股份有限公司 Gesture identification method and touch-control system
JP5880024B2 (en) * 2011-12-22 2016-03-08 株式会社バッファロー Information processing apparatus and program
JP5565886B2 (en) * 2012-08-17 2014-08-06 Necシステムテクノロジー株式会社 Input device, input method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11224161A (en) * 1998-02-04 1999-08-17 Pfu Ltd Character input device and recording medium
JP4684745B2 (en) * 2005-05-27 2011-05-18 三菱電機株式会社 User interface device and user interface method

Also Published As

Publication number Publication date
JP2011070489A (en) 2011-04-07

Similar Documents

Publication Publication Date Title
US8525776B2 (en) Techniques for controlling operation of a device with a virtual touchscreen
JP5506375B2 (en) Information processing apparatus and control method thereof
US8446389B2 (en) Techniques for creating a virtual touchscreen
JP5659586B2 (en) Display control device, display control method, display control program, and recording medium
JPWO2013094371A1 (en) Display control apparatus, display control method, and computer program
CN110647244A (en) Terminal and method for controlling the same based on spatial interaction
KR20140010003A (en) Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
JP2002304256A (en) Information processor
CN108874284B (en) Gesture triggering method
JP6248462B2 (en) Information processing apparatus and program
JP5501715B2 (en) User interface device, control method for user interface device, and program
JP4879933B2 (en) Screen display device, screen display method and program
KR20130124061A (en) Control method of terminal by using spatial interaction
JP5675484B2 (en) Display device, display device control method, and program
US9256360B2 (en) Single touch process to achieve dual touch user interface
KR20130124139A (en) Control method of terminal by using spatial interaction
CN105308540A (en) Method for processing touch event and apparatus for same
KR102194778B1 (en) Control method of terminal by using spatial interaction
JP6907368B2 (en) Electronic devices and their control methods
JP5269154B2 (en) User interface device capable of executing various operations while touching finger, input operation determination method, and program
JP2012198855A (en) Information processor, information processing method, and program
KR102061254B1 (en) Control method of terminal by using spatial interaction
US11893229B2 (en) Portable electronic device and one-hand touch operation method thereof
TWI522895B (en) Interface operating method and portable electronic apparatus using the same
KR20130124143A (en) Control method of terminal by using spatial interaction

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131219

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140312

R150 Certificate of patent or registration of utility model

Ref document number: 5501715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250