JP5713400B2 - User interface device capable of operation with finger using pointer, operation invoking method, and program - Google Patents

User interface device capable of operation with finger using pointer, operation invoking method, and program Download PDF

Info

Publication number
JP5713400B2
JP5713400B2 JP2011208507A JP2011208507A JP5713400B2 JP 5713400 B2 JP5713400 B2 JP 5713400B2 JP 2011208507 A JP2011208507 A JP 2011208507A JP 2011208507 A JP2011208507 A JP 2011208507A JP 5713400 B2 JP5713400 B2 JP 5713400B2
Authority
JP
Japan
Prior art keywords
pointer
finger
tip
pressing force
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011208507A
Other languages
Japanese (ja)
Other versions
JP2013069195A (en
JP2013069195A5 (en
Inventor
松木 友明
友明 松木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2011208507A priority Critical patent/JP5713400B2/en
Publication of JP2013069195A publication Critical patent/JP2013069195A/en
Publication of JP2013069195A5 publication Critical patent/JP2013069195A5/ja
Application granted granted Critical
Publication of JP5713400B2 publication Critical patent/JP5713400B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を表示するディスプレイと、ユーザインタフェースとしてのタッチパネルとを備えたユーザインタフェース装置に関する。   The present invention relates to a user interface device including a display for displaying an image and a touch panel as a user interface.

従来、指で、又はスタイラス等のポインティングデバイスで、画面に触れることによって入力操作を行う、タッチパネルを搭載したユーザインタフェース装置が広く普及している。特に、スマートフォン、タブレット型コンピュータ、電子書籍、PDA(Personal Digital Assistant)といったユーザインタフェース装置、いわゆる携帯型情報機器では、指等による操作を受け入れるユーザインタフェースとしてタッチパネルが積極的に採用されている。   2. Description of the Related Art Conventionally, user interface devices equipped with a touch panel that perform an input operation by touching a screen with a finger or a pointing device such as a stylus are widely used. In particular, in user interface devices such as smartphones, tablet computers, electronic books, and PDAs (personal digital assistants), so-called portable information devices, touch panels are actively employed as user interfaces that accept operations with fingers and the like.

このような携帯型情報機器では、一般に、指をタッチパネルに接触させて、アイコン、リンクといったオブジェクトを選択し、その機能を発動させることが可能である。さらに、指で、文字又は図形の手書き入力を行って、手書き文字データ又は描画データを作成できるものも多い。例えば、手書きメモを作成して撮影した写真データに説明を添えたり、地図等の画像に道順や目的地等を示す描画情報を付加したり、更には、手書き入力を要するアプリケーションを利用したりすることができる。この手書き入力機能については、種々の応用が可能なこともあり、従来、様々な工夫がなされてきた。   In such a portable information device, it is generally possible to select an object such as an icon or a link by bringing a finger into contact with the touch panel and activate its function. In addition, many handwritten character data or drawing data can be created by handwriting input of characters or figures with a finger. For example, a handwritten memo is created and a description is added to the photographed data, a drawing information indicating a route or a destination is added to an image such as a map, or an application that requires handwritten input is used. be able to. The handwriting input function can be applied in various ways, and various devices have been conventionally made.

例えば、特許文献1では、指で軌跡を描画している中、2つの端点を結ぶ線分を簡単に描画することの可能な描画装置が開示されている。この装置では、2本の指を用いて、第1端点及び第2端点を決定し、これらの端点を結ぶ線分を示す描画データを生成している。   For example, Patent Document 1 discloses a drawing apparatus capable of easily drawing a line segment connecting two end points while drawing a locus with a finger. In this apparatus, the first end point and the second end point are determined using two fingers, and drawing data indicating a line segment connecting these end points is generated.

また、特許文献2では、タブレット部に対する入力ペンの描画操作に応じて描画情報を取り込む手書き入力表示装置が開示されている。この装置では、描画情報に関連付けられたユーザIDと、入力された消去対象範囲とに応じて、描画情報が消去されるか否かが決定される。この際、消去対象範囲は、入力ペンによって閉曲線を描画することにより画定される。   Patent Document 2 discloses a handwriting input display device that captures drawing information in accordance with a drawing operation of an input pen on a tablet unit. In this apparatus, whether or not the drawing information is to be erased is determined according to the user ID associated with the drawing information and the inputted erasure target range. At this time, the range to be erased is defined by drawing a closed curve with the input pen.

特開2011−100253号公報JP 2011-100503 A 特表2010−239469号公報Special table 2010-239469

しかしながら、上述したような従来技術を用いても、携帯型情報機器において、ディスプレイ画面(上のタッチパネル)の端・隅付近に指を接触させて、又は細かな表示位置範囲を有するオブジェクトに指を接触させて、所望の操作を行うことは困難であった。さらに、文字、図形といった入力情報の細部にわたる入力を、指で行うことも困難であった。   However, even with the conventional technology as described above, in a portable information device, a finger is brought into contact with the vicinity of the edge / corner of the display screen (upper touch panel) or an object having a fine display position range is placed. It has been difficult to perform a desired operation in contact. In addition, it is difficult to input details of input information such as characters and figures with a finger.

実際、携帯型情報機器では、他の道具を用いず随時手軽に、指によって、オブジェクトの選択、手書き入力等の操作を行いたい場合が少なくない。また、例えば、手書き入力を、指を用いた他の操作の前後で行う状況も頻繁に発生する。従って、特許文献2に開示されたようなポインティングデバイスを用いず、直接指で操作を行うことが、多くの場合に求められる。   In fact, in portable information devices, there are many cases where it is desired to easily perform operations such as object selection and handwriting input with a finger without using other tools. In addition, for example, a situation in which handwriting input is performed before and after another operation using a finger frequently occurs. Therefore, it is often required to perform an operation with a finger directly without using a pointing device as disclosed in Patent Document 2.

一方で、携帯型情報機器では、その携帯性故に、指での操作を行うタッチパネルの面積も限られている。その結果、表示されるリンク等のオブジェクトにおける表示位置範囲も、小さなサイズとなりがちである。従って、例えば、多数のリンクが密に並んでいる中から、指で所望の1つを選択するのは非常に困難となる。   On the other hand, in the portable information device, because of its portability, the area of the touch panel that is operated with a finger is limited. As a result, the display position range of an object such as a displayed link tends to be small. Therefore, for example, it is very difficult to select a desired one with a finger from among a large number of links closely arranged.

さらに、タッチパネル面積の制限故に、例えば、手書き入力の場合、できる限り小さなサイズの文字又は図形を入力することによって、所望の情報量を確保したい場合も多い。しかしながら、例えば特許文献1に記載されたような指による軌跡の入力では、指の接触地点、すなわち描かれる軌跡の最先端位置が、この指に隠れて視認できない。その結果、小さなサイズの文字又は図形の細部を、指によって正確に、意図した通りに入力することが困難となってしまう。   Furthermore, because of the limitation of the touch panel area, for example, in the case of handwriting input, it is often desired to secure a desired amount of information by inputting characters or figures of the smallest possible size. However, for example, when a trajectory is input by a finger as described in Patent Document 1, the finger contact point, that is, the most advanced position of the drawn trajectory is hidden behind the finger and cannot be visually recognized. As a result, it becomes difficult to input details of small-sized characters or figures accurately with a finger as intended.

以上に述べた問題は、指をタッチパネルに接触させて、オブジェクトの選択・発動や手書き入力等のための操作を行う携帯型情報機器のすべてに当てはまるものである。そこで、本発明は、タッチパネルに対する指での操作によっても、指の届き難い箇所又は細部において所望の位置を指定することができるユーザインタフェース装置、動作発動方法及びプログラムを提供することを目的とする。   The problems described above apply to all portable information devices that perform operations for selecting and activating an object, handwriting input, and the like by bringing a finger into contact with the touch panel. Therefore, an object of the present invention is to provide a user interface device, an operation activation method, and a program that can specify a desired position in a place or details that are difficult to reach by a finger operation on the touch panel.

本発明によれば、自身の先端によって入力位置を指し示すポインタを表示する画像表示部と、指の各時点での接触位置を逐次出力するタッチパネルと、当該指により該タッチパネルに与えられた押圧力を検出する押圧力検出部とを備えたユーザインタフェース装置であって、
当該指の各時点での接触位置に応じて、ポインタの先端の位置を逐次決定するポインタ位置決定手段と、
各時点で先端が決定された位置となるようにポインタを表示させるポインタ表示手段と、
当該指の各時点での接触位置に応じた位置にポインタを表示させ、さらに当該指を接触させたまま押し込む一連の操作によって検出される押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
押圧力判定手段が真の判定を行った際、ポインタの先端の位置に関連付けられた動作を発動させる動作制御手段と
を有するユーザインタフェース装置が提供される。
According to the present invention, an image display unit that displays a pointer that points to an input position with its tip, a touch panel that sequentially outputs a contact position of each finger, and a pressing force applied to the touch panel by the finger. A user interface device comprising a pressing force detection unit for detecting,
Pointer position determining means for sequentially determining the position of the tip of the pointer in accordance with the contact position at each time point of the finger;
Pointer display means for displaying a pointer so that the tip is located at each time point;
A pointer is displayed at a position corresponding to the contact position of the finger at each point in time, and a push button for determining whether or not the pressing force detected by a series of pressing operations while the finger is in contact is equal to or greater than a predetermined threshold value. Pressure determining means;
There is provided a user interface device having operation control means for activating an action associated with the position of the tip of the pointer when the pressing force determination means makes a true determination.

この本発明のユーザインタフェース装置によれば、押圧力判定手段が真の判定を行った際、動作制御手段は、ポインタの先端の位置を自身の表示位置範囲内に含むオブジェクトに関連付けられた動作を発動させることも好ましい。   According to this user interface device of the present invention, when the pressing force determining means makes a true determination, the action control means performs an action associated with an object that includes the position of the tip of the pointer within its display position range. It is also preferable to activate.

また、本発明のユーザインタフェース装置によれば、当該指の接触位置がポインタの表示位置範囲と重畳したか否かを判定する接触位置判定手段を更に有しており、
ポインタ位置決定手段は、接触位置判定手段が真の判定を行った際、当該指の各時点での接触位置に応じて、ポインタの先端の位置を逐次決定し、
動作制御手段は、先端の位置の軌跡であって、押圧力判定手段により真の判定がなされた区間となる軌跡に対応した、ポインタによる入力結果を表示させる
ことも好ましい。
In addition, according to the user interface device of the present invention, it further includes contact position determination means for determining whether or not the contact position of the finger is superimposed on the display position range of the pointer.
The pointer position determination means sequentially determines the position of the tip of the pointer according to the contact position at each time point of the finger when the contact position determination means makes a true determination,
It is also preferable that the operation control means displays the input result by the pointer corresponding to the locus of the position of the tip, which corresponds to the locus in which the true determination is made by the pressing force determination means.

また、ポインタによる入力結果が表示される上記の実施形態において、ユーザの操作から見て、当該指をポインタに接触させて該ポインタを保持した上で、当該指を該ポインタに押し込みながら移動させた際、動作制御手段は、当該指の移動に合わせて移動する先端の位置の軌跡に対応した、ポインタによる入力結果を表示させることも好ましい。   Further, in the above embodiment in which the input result by the pointer is displayed, the finger is brought into contact with the pointer to hold the pointer and moved while being pushed into the pointer as viewed from the user's operation. At this time, it is also preferable that the operation control means displays an input result by the pointer corresponding to the locus of the position of the tip that moves in accordance with the movement of the finger.

さらに、ポインタによる入力結果が表示される上記の実施形態において、ポインタ位置決定手段は、当該指の接触位置がポインタの表示位置範囲と重畳した当初の時点での当該指の接触位置を、同時点での先端の位置に変換する並進変換を算出し、その後の各時点で、当該指の接触位置を該並進変換によって変換した結果の位置を、ポインタの先端の位置とすることも好ましい。   Further, in the above-described embodiment in which an input result by the pointer is displayed, the pointer position determination unit determines the contact position of the finger at the initial time point when the contact position of the finger is superimposed on the display position range of the pointer. It is also preferable to calculate a translational conversion to be converted into the position of the tip at the point, and at each subsequent time point, a position obtained by converting the contact position of the finger by the translational conversion is set as the position of the tip of the pointer.

また、ポインタによる入力結果が表示される上記の実施形態において、ポインタによる入力結果は、画像表示部の画面に表示された所定の対象が、ポインタの先端による作用を受けて変化した結果であることも好ましい。 Further, in the above embodiment in which the input result by the pointer is displayed , the input result by the pointer is a result of a predetermined object displayed on the screen of the image display unit being changed by the action of the tip of the pointer. Is also preferable.

さらに、ポインタによる入力結果が表示される上記の実施形態において、ポインタによる入力結果は、先端の位置の軌跡を含む筆跡イメージであることも好ましい。   Furthermore, in the above-described embodiment in which an input result by the pointer is displayed, the input result by the pointer is preferably a handwriting image including a locus of the position of the tip.

また、ポインタによる入力結果が表示される上記の実施形態において、ポインタ表示手段は、当該指による所定の操作に応じて、ポインタとして、右利き用のポインタと左利き用のポインタとを表示し分けることも好ましい。   Further, in the above embodiment in which the input result by the pointer is displayed, the pointer display means displays a right-handed pointer and a left-handed pointer as the pointer according to a predetermined operation by the finger. Is also preferable.

本発明によれば、さらに、自身の先端によって入力位置を指し示すポインタを表示する画像表示部と、指の各時点での接触位置を逐次出力するタッチパネルと、当該指により該タッチパネルに与えられた押圧力を検出する押圧力検出部とを備えたユーザインタフェース装置に搭載されたプログラムであって、
当該指の各時点での接触位置に応じて、ポインタの先端の位置を逐次決定するポインタ位置決定手段と、
各時点で先端が決定された位置となるようにポインタを表示させるポインタ表示手段と、
当該指の各時点での接触位置に応じた位置にポインタを表示させ、さらに当該指を接触させたまま押し込む一連の操作によって検出される押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
押圧力判定手段が真の判定を行った際、ポインタの先端の位置に関連付けられた動作を発動させる動作制御手段と
してコンピュータを機能させるユーザインタフェース装置用のプログラムが提供される。
According to the present invention, the image display unit that displays a pointer that points to the input position with the tip of itself, the touch panel that sequentially outputs the contact position of each finger, and the press applied to the touch panel by the finger. A program installed in a user interface device including a pressure detection unit for detecting pressure,
Pointer position determining means for sequentially determining the position of the tip of the pointer in accordance with the contact position at each time point of the finger;
Pointer display means for displaying a pointer so that the tip is located at each time point;
A pointer is displayed at a position corresponding to the contact position of the finger at each point in time, and a push button for determining whether or not the pressing force detected by a series of pressing operations while the finger is in contact is equal to or greater than a predetermined threshold value. Pressure determining means;
A program for a user interface device is provided that causes a computer to function as an operation control unit that activates an operation associated with the position of the tip of the pointer when the pressing force determination unit makes a true determination.

本発明によれば、さらにまた、自身の先端によって入力位置を指し示すポインタを表示する画像表示部と、指の各時点での接触位置を逐次出力するタッチパネルと、当該指により該タッチパネルに与えられた押圧力を検出する押圧力検出部とを備えたユーザインタフェース装置における動作発動方法であって、
当該指の各時点での接触位置に応じて、ポインタの先端の位置を逐次決定する第1のステップと、
各時点で先端が決定された位置となるようにポインタを表示させる第2のステップと、
当該指の各時点での接触位置に応じた位置にポインタを表示させ、さらに当該指を接触させたまま押し込む一連の操作によって検出される押圧力が所定閾値以上であるか否かを判定する第3のステップと、
第3のステップで真の判定がなされた際、ポインタの先端の位置に関連付けられた動作を発動させる第4のステップと
を有する動作発動方法が提供される。
According to the present invention, furthermore, an image display unit that displays a pointer that indicates an input position with the tip of itself, a touch panel that sequentially outputs a contact position at each time point of the finger, and the touch panel provided to the touch panel by the finger An operation activation method in a user interface device including a pressing force detection unit for detecting a pressing force,
A first step of sequentially determining the position of the tip of the pointer according to the contact position of each finger at each time point;
A second step of displaying a pointer so that the tip is positioned at each time point;
A pointer is displayed at a position corresponding to the contact position at each time point of the finger, and it is further determined whether or not the pressing force detected by a series of operations of pushing the finger while keeping the finger in contact is equal to or greater than a predetermined threshold value. 3 steps,
When the true determination is made in the third step, there is provided an action invoking method including a fourth step of invoking an action associated with the position of the tip of the pointer.

本発明のユーザインタフェース装置、動作発動方法及びプログラムによれば、タッチパネルに対する指での操作によっても、指の届き難い箇所又は細部において所望の位置を指定することができる。   According to the user interface device, the operation activation method, and the program of the present invention, it is possible to specify a desired position in a place where the finger is difficult to reach or in detail by an operation with a finger on the touch panel.

本発明によるポインタを用いた手書き入力を示す、携帯型情報機器の前面図、及び指による操作の概略図である。FIG. 6 is a front view of a portable information device showing a handwritten input using a pointer according to the present invention, and a schematic diagram of an operation by a finger. 指による押圧力p値と、ポインタによる入力結果(筆跡イメージ)の表示との関係を説明するための携帯型情報機器の前面図及びグラフである。A pressing force p C value with the finger, a front view and a graph of a portable information device for explaining the relationship between the display of the input result of the pointer (handwriting image). 指がポインタを保持した場合における指の接触位置とポインタの先端位置との関係を示す概略図と、指がポインタを持ち替える(保持し直す)場合を示す概略図と、右利き用及び左利き用のポインタをそれぞれ取り扱う場合を示す概略図とである。Schematic showing the relationship between the contact position of the finger and the tip position of the pointer when the finger holds the pointer, a schematic showing the case where the finger moves (holds again) the pointer, and right-handed and left-handed It is the schematic which shows the case where a pointer is each handled. 本発明によるポインタを用いた動作発動(情報入力)の他の実施形態を示す、携帯型情報機器の前面図である。It is a front view of the portable information device which shows other embodiment of operation | movement activation (information input) using the pointer by this invention. 本発明による携帯型情報機器の一実施形態を概略的に示す斜視図及び機能構成図である。FIG. 1 is a perspective view and a functional configuration diagram schematically showing an embodiment of a portable information device according to the present invention. 本発明による動作発動(情報入力)方法の一実施形態を示すフローチャートである。It is a flowchart which shows one Embodiment of the operation | movement activation (information input) method by this invention.

以下、本発明の実施形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明によるユーザインタフェース装置では、ディスプレイの画面に表示されたポインタが接触した指によって保持され、この指の接触位置の移動に合わせて、入力位置となるポインタの先端が移動する。さらに、指によるポインタ(タッチパネル)に対する押圧力が所定閾値以上である場合に、ポインタの先端の位置が指定され、この先端の位置に関連付けられた動作が発動する点に特徴を有する。   In the user interface device according to the present invention, the pointer displayed on the screen of the display is held by the touched finger, and the tip of the pointer serving as the input position moves in accordance with the movement of the contact position of the finger. Furthermore, when the pressing force with respect to the pointer (touch panel) by the finger is equal to or greater than a predetermined threshold value, the position of the tip of the pointer is designated, and an operation associated with the position of the tip is activated.

また、本発明によるユーザインタフェース装置では、ユーザの指がタッチパネルに接触することによって情報が入力される。そのため、当該装置の多くは、手で携帯して操作可能である、スマートフォンやタブレット型コンピュータのような携帯型情報機器である。従って、以下、本発明の実施形態として、携帯型情報機器を説明する。   In the user interface device according to the present invention, information is input when a user's finger contacts the touch panel. Therefore, most of the devices are portable information devices such as smartphones and tablet computers that can be carried and operated by hand. Therefore, hereinafter, a portable information device will be described as an embodiment of the present invention.

図1(A)及び(B)は、本発明によるポインタを用いた指による操作を示す、携帯型情報機器1の前面図、及び指による操作の概略図である。   1A and 1B are a front view of the portable information device 1 and a schematic diagram of the operation with the finger, showing the operation with the finger using the pointer according to the present invention.

図1(A)によれば、携帯型情報機器1は、ポインタ104を表示するディスプレイ101と、ディスプレイ101の画面上に配置されたタッチパネル100とを備えている。ここで、ポインタ104は、自身の先端104eによって入力位置を指し示す、ユーザインタフェースのためのイメージである。また、携帯型情報機器1は、指によりタッチパネル100に与えられた押圧力pを検出する押圧力検出部103(図5参照)も備えている。 Referring to FIG. 1A, the portable information device 1 includes a display 101 that displays a pointer 104 and a touch panel 100 that is disposed on the screen of the display 101. Here, the pointer 104 is an image for a user interface that indicates an input position by the tip 104e of the pointer 104e. The portable information device 1 also includes a pressing force detection unit 103 (see FIG. 5) that detects a pressing force p C applied to the touch panel 100 by a finger.

ここで最初に、ポインタ104を用いて、多数のリンク(オブジェクト)109が密集して表示されている中から、指で所望の1つを選択する実施形態を説明する。尚、ポインタ104は、図1(A)に示した形態に限定されるものではない。例えば、矢印状でもよく、指の接触位置105とは異なる位置を指し示すものであればよい。   Here, first, an embodiment will be described in which a desired one is selected with a finger from among a large number of links (objects) 109 displayed using the pointer 104. The pointer 104 is not limited to the form shown in FIG. For example, an arrow shape may be used as long as it indicates a position different from the finger contact position 105.

図1(A)によれば、ユーザは、指をポインタ104(タッチパネル100)に接触させる。すなわち、指の接触位置105をポインタ104の表示位置範囲と重畳させる。これにより、指がポインタ104を保持する。ここで「保持」とは、指がタッチパネル100に接触している限り、ポインタ104が指の移動に伴い指と一体となって移動する状態を指す。   According to FIG. 1A, the user makes a finger touch the pointer 104 (touch panel 100). That is, the finger contact position 105 is superimposed on the display position range of the pointer 104. As a result, the finger holds the pointer 104. Here, “hold” refers to a state in which the pointer 104 moves together with the finger as the finger moves as long as the finger is in contact with the touch panel 100.

次いで、ユーザは、指を接触させたまま移動(スライド)させ、指と共に移動するポインタ104の先端104eを、所望のリンク109の表示位置範囲内に置く。その後、指が、接触位置105(タッチパネル100)を押圧力pで押し込む。 Next, the user moves (slides) the finger in contact with the finger, and places the tip 104e of the pointer 104 that moves with the finger within the display position range of the desired link 109. Thereafter, the finger pushes contact position 105 (touch panel 100) with a pressing force p C.

この押圧力pが所定の押圧力閾値pTH以上である場合に、後述する動作制御部125(図5)が、先端104eの位置を自身の表示位置範囲内に含むリンク109に関連付けられた動作を発動させる。具体的には、リンク109のハイパーテキスト機能が発動し、所望のリンク先の文書又は画像等を閲覧することが可能となる。 When the pressing force p C is equal to or greater than a predetermined pressing force threshold value p TH , an operation control unit 125 (FIG. 5) described later is associated with a link 109 that includes the position of the tip 104e within its own display position range. Activate the action. Specifically, the hypertext function of the link 109 is activated, and it becomes possible to browse a desired link destination document or image.

以上、本実施形態によれば、指の接触位置105から離隔した先端104eをもって、画面上の位置を指定し、リンク109等のオブジェクトの機能を発動させる。その結果、ディスプレイ101の画面に表示された細部において、さらには画面の端・隅付近等の指の届き難い箇所においても、所望の位置を指定し、所望の機能を発動させることが容易となる。   As described above, according to the present embodiment, the position on the screen is designated with the tip 104e separated from the contact position 105 of the finger, and the function of the object such as the link 109 is activated. As a result, it is easy to designate a desired position and activate a desired function in details displayed on the screen of the display 101, and also in places where fingers are difficult to reach, such as near the edges and corners of the screen. .

尚、以上の実施形態では、ポインタ104は、指が接触する前から表示されている。これに対する変更態様として、ポインタ104は、指がディスプレイ101の画面(タッチパネル100)に接触した際に表示されることも好ましい。この場合、指の接触位置105から所定の並進ベクトル分だけ変位した位置が、表示されるポインタ104における先端104eの位置となる。また、上記の押圧力閾値pTHは、例えば、0.5N(ニュートン)乃至2.0Nの範囲内の値に設定可能である。 In the above embodiment, the pointer 104 is displayed before the finger contacts. As a change mode for this, the pointer 104 is also preferably displayed when the finger touches the screen (touch panel 100) of the display 101. In this case, the position displaced from the finger contact position 105 by a predetermined translation vector is the position of the tip 104e in the displayed pointer 104. Further, the pressing force threshold value p TH can be set to a value in the range of 0.5 N (Newton) to 2.0 N, for example.

次いで、ポインタ104を用いて、手書き入力を指で行う実施形態を説明する。図1(B)は、この手書き入力の様子を示している。尚、図1(B)において、ポインタ104は筆記具のイメージであり、先端104eがペン(筆)先となっている。また、ディスプレイ101の画面全体を、メモ用紙イメージが占めている。このメモ用紙イメージは、ポインタ104の先端(ペン先)104eによる作用を受けて変化する(文字等が描かれる)対象であるが、画面の一部をなす所定の領域を占めるものであってもよい。   Next, an embodiment in which handwriting input is performed with a finger using the pointer 104 will be described. FIG. 1B shows the state of this handwriting input. In FIG. 1B, the pointer 104 is an image of a writing instrument, and the tip 104e is a pen (brush) tip. The memo paper image occupies the entire screen of the display 101. This memo paper image is an object that changes (characters and the like are drawn) under the action of the tip (pen nib) 104e of the pointer 104, but may occupy a predetermined area that forms part of the screen. .

図1(B)によれば、最初に、ユーザは、指をポインタ104(タッチパネル100)に接触させる。すなわち、指の接触位置105をポインタ104の表示位置範囲と重畳させる。これにより、指がポインタ104を保持する。   According to FIG. 1B, first, the user brings a finger into contact with the pointer 104 (touch panel 100). That is, the finger contact position 105 is superimposed on the display position range of the pointer 104. As a result, the finger holds the pointer 104.

この保持の際、ユーザは、先端104eが指で隠れることなく視認できるような位置、例えばポインタ104の中程の位置、に指を接触させる。次いで、ユーザは、指を接触させたまま移動(スライド)させ、指と共に移動するポインタ104の先端104eを、文字の書き始めの所望の位置に置く。   At the time of holding, the user brings the finger into contact with a position where the tip 104 e can be seen without being hidden by the finger, for example, a middle position of the pointer 104. Next, the user moves (slides) the finger in contact with the finger, and places the tip 104e of the pointer 104 that moves together with the finger at a desired position at the beginning of writing the character.

次いで、ユーザは、指をポインタ104(タッチパネル100)に押し込みながら移動(スライド)させる。これに伴って、ポインタ104(ポインタ104の先端104e)も移動する。その結果、先端104eの位置が、指が押し込まれた区間として、ある軌跡をなす。この際、この(指が押し込まれた区間である)軌跡を含む筆跡イメージ106が、画面に表示される。この筆跡イメージ106は、ポインタ104による入力結果となる。   Next, the user moves (slides) while pushing the finger into the pointer 104 (touch panel 100). Along with this, the pointer 104 (the tip 104e of the pointer 104) also moves. As a result, the position of the tip 104e forms a certain trajectory as a section where the finger is pushed. At this time, the handwriting image 106 including the locus (which is a section where the finger is pressed) is displayed on the screen. The handwriting image 106 becomes an input result by the pointer 104.

この際、指の接触位置105と、筆跡イメージ106を発生させている先端104eとは、所定の距離だけ離隔している。従って、ユーザは、先端104eを、指に遮られることなく常に視認することができる。   At this time, the finger contact position 105 and the tip 104e generating the handwriting image 106 are separated from each other by a predetermined distance. Therefore, the user can always visually recognize the tip 104e without being blocked by a finger.

さらに、筆跡イメージ106は、一度表示されると所定のコマンドが発生しない限り画面に残存し、ポインタ104の先端104eが移動すると共に、この先端104eを追うように伸長することも好ましい。これにより、ユーザは、意図した文字、図形等の情報を、画面(メモ用紙イメージ)に書き残すことができる。ユーザは、意図した情報を書き記した後、指をタッチパネル100から離すか、指を接触させながらも押し込みを止める。これにより、手書き動作が終了する。   Further, once displayed, the handwriting image 106 remains on the screen unless a predetermined command is generated, and the tip 104e of the pointer 104 moves, and the handwriting image 106 is preferably extended so as to follow the tip 104e. Thereby, the user can write down information on the intended character, figure, etc. on the screen (memo paper image). After writing the intended information, the user removes his / her finger from the touch panel 100 or stops pushing while touching the finger. Thereby, the handwriting operation ends.

尚、上記の手書き入力によって形成された筆跡イメージ106は、手書き文字データとして、携帯型情報機器1内のメモリに保存されることができる。   The handwriting image 106 formed by the above handwriting input can be stored in the memory in the portable information device 1 as handwritten character data.

以上に述べたように、指がポインタ104を保持して手書き動作が発動する条件は、
a)指の接触位置105がポインタ104の表示位置範囲と重畳し、その後、指がタッチパネル100に接触し続け、
b)指による押し込みの際の、タッチパネル100に対する押圧力pが、所定の押圧力閾値をpTHとして、次式
(1) p≧pTH
を満たすことである。尚、押圧力閾値pTHは、例えば、0.5N乃至2.0Nの範囲内の値に設定可能である。
As described above, the condition that the finger holds the pointer 104 and the handwriting action is activated is as follows.
a) The finger contact position 105 overlaps the display position range of the pointer 104, and then the finger continues to touch the touch panel 100,
b) upon pushing with a finger, the pressing force p C on the touch panel 100, a predetermined pressing force threshold as p TH, the following equation (1) p Cp TH
Is to satisfy. The pressing force threshold p TH can be set to a value within the range of 0.5N to 2.0N, for example.

上記の条件b)を設けることによって、ユーザの指等が意図せずにタッチパネル100に触れて意図しない書き込みが生じてしまう、といった誤動作を回避することが可能となる。すなわち、ユーザの意図する通りの手書き動作を発動させることが容易となる。さらに、指による押し込み(条件b))を止めさえすれば、指を接触させたままでも、手書き動作を発動させずに、ポインタ104を次の手書き開始位置まで移動させることが可能となる。   By providing the above condition b), it is possible to avoid malfunctions such as unintentional writing that occurs when the user's finger or the like touches the touch panel 100 without intention. That is, it becomes easy to activate a handwriting operation as intended by the user. Furthermore, as long as pressing with the finger (condition b) is stopped, the pointer 104 can be moved to the next handwriting start position without activating the handwriting operation even with the finger kept in contact.

さらに、後述する触覚応答機構部102(図5)が、指に、手書き動作が発動している間、触覚応答を与えることも好ましい。ここで、手書き動作が発動している間とは、上述した条件a)及びb)が満たされている間であり、筆跡イメージ106が新たに伸長しつつ表示されている間である。これにより、ユーザは、実際に筆記具で紙等の媒体に筆記又は描画している感覚を指から体感でき、リアルな操作感を得ることができる。   Furthermore, it is also preferable that the tactile response mechanism unit 102 (FIG. 5), which will be described later, gives a tactile response to the finger while the handwriting action is activated. Here, while the handwriting operation is activated, the above-described conditions a) and b) are satisfied, and the handwritten image 106 is displayed while being newly expanded. Thereby, the user can experience from the finger the feeling of actually writing or drawing on a medium such as paper with a writing instrument, and can obtain a realistic operational feeling.

また、指による押圧力pの閾値pTHを、ユーザが適宜設定し、調整できることも好ましい。これにより、ユーザは、手書き動作を発動させずに指を接触させたまま移動させる操作と、手書きを行う操作とを自らの感覚、好みに合わせて、確実に実行し分けることができる。この際、閾値pTHを変化させるための、押圧力閾値調整用のスライドスイッチイメージ107が表示され、使用されてもよい。 It is also preferable that the user can set and adjust the threshold value p TH of the pressing force p C by the finger as appropriate. Thus, the user can reliably execute the operation of moving the finger while keeping it in contact with the handwriting operation and the operation of performing the handwriting according to his / her sense and preference. At this time, a slide switch image 107 for adjusting the pressing force threshold value for changing the threshold value p TH may be displayed and used.

以上に述べたように、本実施形態によれば、ポインタ104に指を接触させることによりこのポインタ104が保持され、指の接触位置105の移動に合わせて、ポインタの先端104eが移動する。ここで、接触位置105と先端104eとは互いに一定の位置関係をもって離隔しながら並進する。これにより、ユーザは、この入力位置となる先端104eを、指に遮られることなく常に視認することができる。その結果、例え小さなサイズの文字又は図形であっても、入力情報を細部にわたって意図通りに入力することができる。   As described above, according to the present embodiment, the pointer 104 is held by bringing the finger into contact with the pointer 104, and the tip 104e of the pointer moves in accordance with the movement of the finger contact position 105. Here, the contact position 105 and the tip 104e translate while being spaced apart from each other with a fixed positional relationship. Thereby, the user can always visually recognize the tip 104e as the input position without being blocked by the finger. As a result, it is possible to input the input information in detail as intended, even if the character or figure has a small size.

また、水彩画イメージ等をポインタ104によって生成できるお絵かき動作においても、入力位置となる先端104eを、指に遮られることなく常に視認することができる。その結果、より細かいペン(筆)操作を行うことができ、所望の入力結果(水彩画イメージ等)を得ることが容易となる。   Even in a drawing operation in which a watercolor image or the like can be generated by the pointer 104, the tip 104e serving as the input position can always be visually recognized without being blocked by a finger. As a result, a finer pen (brush) operation can be performed, and a desired input result (watercolor image or the like) can be easily obtained.

さらに、接触位置105と先端104eとは互いに一定の位置関係をもって離隔している。従って、例えば画面の端辺付近又は隅付近等、指先が届き難い領域にも、ポインタ104の先端104eを及ぼすことができる。その結果、画面の概ね全ての領域に、筆記又は描画等、所望の入力結果を表示させることが可能となる。   Furthermore, the contact position 105 and the tip 104e are separated from each other with a certain positional relationship. Accordingly, the tip 104e of the pointer 104 can be applied to an area where the fingertip is difficult to reach, such as near the edge or corner of the screen. As a result, it is possible to display desired input results such as writing or drawing in almost all areas of the screen.

図2(A)及び(B)は、指による押圧力p値と、ポインタによる入力結果(筆跡イメージ106)の表示との関係を説明するための携帯型情報機器1の前面図及びグラフである。 2A and 2B are a front view and a graph of the portable information device 1 for explaining the relationship between the pressing force p C value by the finger and the display of the input result (handwriting image 106) by the pointer. is there.

図2(A)によれば、ディスプレイ101の画面内に、点2aから始まり、点2b、点2c、点2d、点2e、点2f、点2gを順次介して、点2hに至る、ポインタ104の先端104eの位置の道程(軌跡)の実施例が示されている。この道程のうち、点2bから点2cまでの軌跡が、ひらがなの「の」を表す筆跡イメージ106として画面に表示されている。   According to FIG. 2 (A), the pointer 104 starts from the point 2a and reaches the point 2h sequentially through the point 2b, the point 2c, the point 2d, the point 2e, the point 2f, and the point 2g in the screen of the display 101. An example of the path (trajectory) of the position of the tip 104e is shown. Of these journeys, the trajectory from point 2b to point 2c is displayed on the screen as a handwriting image 106 representing “no” of hiragana.

また、点2eから点2fまでの軌跡と、点2gから点2hまでの軌跡とが、ひらがなの「り」を表す筆跡イメージ106として画面に表示されている。尚、この実施例では、ポインタ104の先端104eが点2dに達した時点で、ユーザは、ポインタ104を保持し直している(持ち替えている)。   In addition, the trajectory from the point 2e to the point 2f and the trajectory from the point 2g to the point 2h are displayed on the screen as a handwriting image 106 representing Hiragana “ri”. In this embodiment, when the tip 104e of the pointer 104 reaches the point 2d, the user holds the pointer 104 again (holds it).

この先端104eの位置の道程(軌跡)における、指によるタッチパネル100に対する押圧力pの大きさの変遷を、図2(B)に示す。図2(B)によれば、指による押圧力pは、先端104eの位置が点2aから点2bに向かって進行するにつれて大きくなり、点2bで所定の押圧力閾値pTHに達する。 FIG. 2B shows the transition of the magnitude of the pressing force p C applied to the touch panel 100 by the finger in the path (trajectory) of the position of the tip 104e. According to FIG. 2 (B), the pressing force p C by a finger becomes larger as the position of the tip 104e proceeds toward from point 2a to point 2b, reaches a predetermined pressing force threshold p TH at the point 2b.

その後、押圧力pは、先端104eの位置が点2bから点2cに至るまでの間、上述した式(1)p≧pTHの条件を満たす。これに応じて、点2bから先端104eの位置までの軌跡を含む筆跡イメージ106が、先端104eの移動と共に伸長しつつ描かれていく。次いで、先端104eの位置が点2cに達した段階で、ひらがなの「の」を表す筆跡イメージ106の描写が完了する。 Thereafter, the pressing force p C satisfies the above-described equation (1) p C ≧ p TH until the position of the tip 104e reaches the point 2b to the point 2c. In response to this, the handwriting image 106 including the locus from the point 2b to the position of the tip 104e is drawn while expanding along with the movement of the tip 104e. Next, when the position of the tip 104e reaches the point 2c, the drawing of the handwriting image 106 representing "no" of hiragana is completed.

その後、押圧力pは、ポインタ104の先端104eの位置が点2cから離れるにつれて低下し、先端104eの位置が点2dに達した段階でゼロとなる。これは、ユーザがポインタ104を持ち替える(保持し直す)際に、指をポインタ104(タッチパネル100)から離隔させたことによる。この持ち替えの後、押圧力pは、先端104eの位置が点2eに向かうにつれて大きくなり、点2eで所定の押圧力閾値pTHに達する。 Thereafter, the pressing force p C decreases as the position of the tip 104e of the pointer 104 moves away from the point 2c, and becomes zero when the position of the tip 104e reaches the point 2d. This is because the finger is separated from the pointer 104 (touch panel 100) when the user moves (holds) the pointer 104 again. After this dimensional worlds, the pressing force p C becomes larger as the position of the tip 104e is directed to the point 2e, reaches a predetermined pressing force threshold p TH at the point 2e.

その後、押圧力pは、先端104eの位置が点2eから点2fに至るまでの間、上述した式(1)p≧pTHの条件を満たす。これに応じて、点2eから先端104eの位置までの軌跡を含む筆跡イメージ106が、先端104eの移動と共に伸長しつつ描かれていく。次いで、先端104eの位置が点2fに達した段階で、ひらがなの「り」の左部分を表す筆跡イメージ106が描写される。 Thereafter, the pressing force p C satisfies the above-described equation (1) p C ≧ p TH until the position of the tip 104e reaches the point 2e to the point 2f. In response to this, the handwriting image 106 including the locus from the point 2e to the position of the tip 104e is drawn while expanding along with the movement of the tip 104e. Next, when the position of the tip 104e reaches the point 2f, a handwriting image 106 representing the left part of “Hi” in Hiragana is drawn.

さらに、押圧力pは、先端104eの位置がさらに進行して点2gから点2hに至るまでの間、上述した式(1)p≧pTHの条件を満たす。これに応じて、点2gから先端104eの位置までの軌跡を含む筆跡イメージ106が、先端104eの移動と共に伸長しつつ描かれていく。次いで、先端104eの位置が点2hに達した段階で、ひらがなの「り」の右部分を表す筆跡イメージ106が描写され、ひらがなの「り」の描写が完了する。 Further, the pressing force p C satisfies the condition of the above-described formula (1) p C ≧ p TH until the position of the tip 104e further advances and reaches from the point 2g to the point 2h. In response to this, the handwriting image 106 including the locus from the point 2g to the position of the tip 104e is drawn while expanding along with the movement of the tip 104e. Next, when the position of the tip 104e reaches the point 2h, the handwriting image 106 representing the right portion of the “RI” of the hiragana is drawn, and the drawing of the “RI” of the hiragana is completed.

以上に述べたように、本発明によれば、先端104eの位置の軌跡であって、指による押圧力pが所定閾値pTH以上である区間となる軌跡(点2b−点2c、点2e−点2f、点2g−点2h)に対応した入力結果(筆跡イメージ106)が表示される。その結果、誤動作が発生し難くなり、ユーザの意図する通りの手書き動作が発動可能となる。また、指をタッチパネル100に接触させたままで、手書き動作を発動させたり、させなかったりといった選択が可能となる。すなわち、画面に垂直方向での指の動きをほとんど抑えた操作で、画面を指でなぞりながら、手書き動作が可能となる。 As described above, according to the present invention, the locus of the position of the tip 104e, which is a locus in which the pressing force p C by the finger is equal to or greater than the predetermined threshold p TH (point 2b−point 2c, point 2e). -The input result (handwriting image 106) corresponding to point 2f, point 2g-point 2h) is displayed. As a result, malfunctions are less likely to occur, and handwriting operations as intended by the user can be activated. Further, it is possible to select whether or not to activate the handwriting operation while keeping the finger in contact with the touch panel 100. That is, a handwriting operation can be performed while tracing the screen with a finger by an operation in which the movement of the finger in the direction perpendicular to the screen is almost suppressed.

図3(A)は、指がポインタ104を保持した場合における、指の接触位置105と先端104e位置との関係を示す概略図である。また、図3(B)は、指がポインタ104を持ち替える(保持し直す)場合を示す概略図である。さらに、図3(C)は、右利き用及び左利き用のポインタ104をそれぞれ取り扱う場合を示す概略図である。   FIG. 3A is a schematic diagram showing the relationship between the finger contact position 105 and the tip 104e position when the finger holds the pointer 104. FIG. FIG. 3B is a schematic diagram illustrating a case where a finger changes (holds again) the pointer 104. Further, FIG. 3C is a schematic diagram showing a case where the right-handed and left-handed pointers 104 are respectively handled.

図3(A)に示すように、指の接触位置105が、最初に、ポインタ104の表示位置範囲と重畳する。ここで、この表示位置範囲は、図3(A)において、ポインタ104のイメージを規定する外郭線内の領域となる。指は、ポインタ104の先端104eがこの指で隠れて見えなくなることのないように、先端104eから離隔した位置に接触させられる。   As shown in FIG. 3A, the finger contact position 105 first overlaps the display position range of the pointer 104. Here, the display position range is an area within an outline defining the image of the pointer 104 in FIG. The finger is brought into contact with a position separated from the tip 104e so that the tip 104e of the pointer 104 is not hidden by the finger and cannot be seen.

ここで、画面にxy直交座標系を設け、指の接触位置105の座標を(xC0,yC0)とし、ポインタ104の先端104eの位置の座標を(xP0,yP0)とする。すると、座標(xC0,yC0)から座標(xP0,yP0)への並進移動の座標変換(並進変換)fを決定することができる。具体的には、
(1) Δx=xP0−xC0
(2) Δy=yP0−yC0
として、並進変換fは、
(3) f:(x,y)→(x+Δx,y+Δy)
と算出される。
Here, an xy orthogonal coordinate system is provided on the screen, the coordinates of the finger contact position 105 are (x C0 , y C0 ), and the coordinates of the position of the tip 104 e of the pointer 104 are (x P0 , y P0 ). Then, it is possible to determine the coordinates (x C0, y C0) coordinate transformation of the translational movement from the coordinates (x P0, y P0) (translational transform) f T. In particular,
(1) Δx = x P0 −x C0
(2) Δy = y P0 −y C0
The translational transformation f T is
(3) f T : (x, y) → (x + Δx, y + Δy)
Is calculated.

次いで、ユーザが、指を接触させながら移動させ、その結果、接触位置105の座標が、(xC1,yC1)にまで変化する。この際のポインタ104の先端104eの位置は、(xC1,yC1)を並進変換fによって並進移動させることによって決定される。具体的には、この際の先端104eの位置の座標(xP1,yP1)は、次式
(4) xP1=xC1+Δx
(5) yP1=yC1+Δy
によって算出される。
Next, the user moves the finger while touching it, and as a result, the coordinates of the contact position 105 change to (x C1 , y C1 ). Position of the leading end 104e of the pointer 104 at this time is determined by translating the translational transform f T a (x C1, y C1). Specifically, the coordinates (x P1 , y P1 ) of the position of the tip 104e at this time are expressed by the following equation (4) x P1 = x C1 + Δx
(5) y P1 = y C1 + Δy
Is calculated by

指の接触位置105が座標(xC1,yC1)の位置まで移動した際の、ポインタ104の先端104eは、上記の算出された座標(xP1,yP1)の位置にまで移動させられる。これにより、ユーザは、指によってポインタ104を保持した感覚を得ながら、ポインタ104の先端104eを意図通りに移動させることができる。 When the finger contact position 105 moves to the position of the coordinates (x C1 , y C1 ), the tip 104e of the pointer 104 is moved to the position of the calculated coordinates (x P1 , y P1 ). Thus, the user can move the tip 104e of the pointer 104 as intended while obtaining the feeling of holding the pointer 104 with a finger.

次に、ユーザがポインタ104を持ち替える(保持し直す)場合での、ポインタ104の先端104eの位置を決定する方法を説明する。   Next, a method for determining the position of the tip 104e of the pointer 104 when the user changes (holds) the pointer 104 again will be described.

図3(B)によれば、最初に、指が、接触位置105でポインタ104に接触する。ユーザはその後、ポインタ104を持ち替えるため、指をポインタ104(タッチパネル100)から離隔させ、再びポインタ104に接触させる。この際の指の接触位置105′は、接触位置105とは異なる点となっている。   According to FIG. 3B, first, the finger contacts the pointer 104 at the contact position 105. Thereafter, in order to change the pointer 104, the user moves the finger away from the pointer 104 (touch panel 100) and touches the pointer 104 again. At this time, the finger contact position 105 ′ is different from the contact position 105.

指が最初に接触位置105でポインタ104に接触した際、すなわち保持した際、ポインタ104の先端104eの位置は、上述したように、式(3)で表される並進変換f:(x,y)→(x+Δx,y+Δy)で求められる。この並進変換fは、指が離隔せず接触している間、記憶されて、先端104eの位置の算出に用いられる。 When the finger first contacts the pointer 104 at the contact position 105, that is, when the finger 104 is held, the position of the tip 104e of the pointer 104 is, as described above, the translational transformation f T : (x, y) → (x + Δx, y + Δy). The translational transform f T is during contact without separation finger, stored, used for calculating the position of the tip 104e.

次いで、指が持ち替えのためにポインタ104(タッチパネル100)から離隔すると、記憶されていた並進変換fは、消去(リセット)される。その後、指が再び接触位置105′で接触すると、新たな並進変換f′が改めて決定される。この並進変換f′は、接触位置105′の座標を(xC0′,yC0′)とし、ポインタ104の先端104eの位置の座標を(xP0,yP0)とすると、
(6) Δx′=xP0−xC0
(7) Δy′=yP0−yC0
として、
(8) f′:(x,y)→(x+Δx′,y+Δy′)
と算出される。
Then, when away from the pointer 104 (touch panel 100) for re-holding the finger, translational transform f T which has been stored is erased (reset). Thereafter, when the finger again contacts at the contact position 105 ′, a new translational transformation f T ′ is determined again. This translational transformation f T ′ has the coordinates of the contact position 105 ′ as (x C0 ′, y C0 ′) and the coordinates of the position of the tip 104 e of the pointer 104 as (x P0 , y P0 ).
(6) Δx ′ = x P0 −x C0
(7) Δy ′ = y P0 −y C0
As
(8) f T ': ( x, y) → (x + Δx', y + Δy ')
Is calculated.

その後、ユーザが、指を接触させながら移動させた場合の、ポインタ104の先端104eの位置は、この並進変換f′を用いて決定される。このように、ユーザは、ポインタ104を持ち替えることができ、その結果、随時、指の接触位置105とポインタ104の先端104e位置との関係を、操作しやすいように調整することができる。 Thereafter, the position of the tip 104e of the pointer 104 when the user moves the finger while making contact with the finger is determined using the translational transformation f T ′. In this way, the user can change the pointer 104, and as a result, the relationship between the finger contact position 105 and the tip 104e position of the pointer 104 can be adjusted so that it can be easily operated.

次に、ユーザが、右利き用及び左利き用のポインタ104をそれぞれ取り扱うことが可能な実施形態を説明する。   Next, an embodiment in which the user can handle the right-handed and left-handed pointers 104 will be described.

図3(C)に示した実施形態によれば、画面に、ポインタを切り替えるための切り替えスイッチイメージ108が表示されている。ユーザが、指で切り替えスイッチイメージ108の「R」部を、所定の閾値pTH以上の押圧力pで押し込むと、右利き用のポインタ104が所定の位置に表示される。この右利き用のポインタ104は、画面を正面から見た場合にペン(筆)先(先端104e)が左下を向く形で、斜めに伸長している。このため、ユーザの右手の指で筆記・描画を行うのに適した仕様となっている。ユーザは、好ましくは右手の指を、表示されたポインタ104に接触させることによって、ポインタ104を保持することができる。 According to the embodiment shown in FIG. 3C, the changeover switch image 108 for switching the pointer is displayed on the screen. When the user presses the “R” portion of the changeover switch image 108 with a pressing force p C equal to or higher than a predetermined threshold value p TH with a finger, the right-handed pointer 104 is displayed at a predetermined position. The right-handed pointer 104 extends obliquely so that the pen (brush tip) (tip 104e) faces the lower left when the screen is viewed from the front. Therefore, the specification is suitable for writing / drawing with the finger of the user's right hand. The user can hold the pointer 104 by preferably touching the displayed pointer 104 with the finger of the right hand.

一方、ユーザが、指で切り替えスイッチイメージ108の「L」部を、所定の閾値pTH以上の押圧力pで押し込むと、左利き用のポインタ104′が所定の位置に表示される。この左利き用のポインタ104′は、画面を正面から見た場合にペン(筆)先(先端104e′)が右下を向く形で、斜めに伸長している。このため、ユーザの左手の指で筆記・描画を行うのに適した仕様となっている。ユーザは、好ましくは左手の指を、表示されたポインタ104′に接触させることによって、ポインタ104′を保持することができる。 On the other hand, when the user presses the “L” portion of the changeover switch image 108 with his / her finger with a pressing force p C equal to or higher than a predetermined threshold value p TH , a left-handed pointer 104 ′ is displayed at a predetermined position. This left-handed pointer 104 'extends obliquely such that the pen (brush tip) (tip 104e') faces the lower right when the screen is viewed from the front. Therefore, the specification is suitable for writing and drawing with the finger of the left hand of the user. The user can hold the pointer 104 ', preferably by touching the displayed pointer 104' with the finger of the left hand.

尚、既に右利き用(左利き用)のポインタ104(104′)が表示されている状況において、切り替えスイッチイメージ108の「L」部(「R」部)を押し込んだ場合、ポインタ104(104′)が、自身のペン(筆)先(先端104e′)の向きを左下(右下)に変えて、ポインタ104′(104)に変換されることも好ましい。   When the right-handed (left-handed) pointer 104 (104 ′) is already displayed, if the “L” portion (“R” portion) of the changeover switch image 108 is pressed, the pointer 104 (104 ′) ) Is preferably converted into a pointer 104 ′ (104) by changing the direction of its pen (brush) tip (tip 104e ′) to the lower left (lower right).

また、以上に述べたような切り替えスイッチイメージ108を用いずに、指による所定の操作でポインタの切り替えを行うことも可能である。例えば、右利き用(左利き用)のポインタ104(104′)を、指で、所定時間内に所定閾値pTH以上の押圧力pで2度押し込むことにより、左利き用(右利き用)のポインタ104′(104)に変換させるように設定されていてもよい。 Further, the pointer can be switched by a predetermined operation with a finger without using the changeover switch image 108 as described above. For example, a right-handed (left-handed) pointer 104 (104 ′) is pushed twice with a finger with a pressing force p C equal to or greater than a predetermined threshold value pTH within a predetermined time. The pointer 104 ′ (104) may be set so as to be converted.

図4(A)及び(B)は、本発明によるポインタを用いた情報入力(動作発動)の他の実施形態を示す、携帯型情報機器1の前面図である。   FIGS. 4A and 4B are front views of the portable information device 1 showing another embodiment of information input (operation activation) using a pointer according to the present invention.

図4(A)によれば、携帯型情報機器1は、ポインタ204を表示するディスプレイ101と、ディスプレイ101の画面上に配置されたタッチパネル100とを備えている。本実施形態では、ポインタ204は手術用のメスのイメージであり、先端204eが刃先となっている。また、ディスプレイ101の画面には、患者の左腕イメージ206が表示されている。この左腕イメージ206は、ポインタ204の先端(刃先)204eによる作用を受けて変化する(切開される)対象である。   According to FIG. 4A, the portable information device 1 includes a display 101 that displays a pointer 204 and a touch panel 100 that is arranged on the screen of the display 101. In this embodiment, the pointer 204 is an image of a surgical knife, and the tip 204e is a cutting edge. A patient's left arm image 206 is displayed on the screen of the display 101. The left arm image 206 is a target that changes (cuts) under the action of the tip (blade edge) 204e of the pointer 204.

最初に、ユーザは、指の接触位置205をポインタ(メスイメージ)204の表示位置範囲と重畳させる。これにより、指がポインタ204を保持する。次いで、ユーザは、指を接触させたまま移動させ、指と共に移動するポインタ204の先端(刃先)204eを、所望の切開開始位置に置く。   First, the user overlaps the contact position 205 of the finger with the display position range of the pointer (female image) 204. As a result, the finger holds the pointer 204. Next, the user moves the finger in contact with the finger, and places the tip (blade edge) 204e of the pointer 204 that moves with the finger at a desired incision start position.

次いで、ユーザは、指を、ポインタ204(タッチパネル100)に所定閾値pTH以上の押圧力pで押し込みながら移動させる。これに伴って、ポインタ204の先端204eも移動する。これにより、この先端204eの位置は、指が押し込まれた(p≧pTHである)区間となる軌跡をなす。この際、この軌跡を含む切開イメージ207が、画面に表示される。 The user then the finger, the pointer 204 is moved while pressing a predetermined threshold p TH or more of the pressing force p C (the touch panel 100). Along with this, the tip 204e of the pointer 204 also moves. As a result, the position of the tip 204e forms a trajectory that is a section in which the finger is pressed (p C ≧ p TH ). At this time, an incision image 207 including this locus is displayed on the screen.

ここで、指の接触位置205と、切開イメージ207を発生させている先端(刃先)204eとは、所定の距離だけ離隔している。従って、ユーザは、先端(刃先)204eを、指に遮られることなく常に視認することができる。   Here, the finger contact position 205 and the tip (blade edge) 204e generating the incision image 207 are separated from each other by a predetermined distance. Therefore, the user can always visually recognize the tip (blade edge) 204e without being blocked by the finger.

本実施形態では、ユーザの操作から見て、指を、ポインタ204に押し込みながら移動させることによって、切開イメージ207が表示される。すなわち、ある程度の力を対象に加えて初めて切開が可能となる。これにより、ユーザは、対象イメージに対して、リアルな操作感を得ながら作用を及ぼすことができる。   In the present embodiment, the incision image 207 is displayed by moving a finger while pushing it into the pointer 204 as viewed from the user's operation. That is, an incision is possible only after a certain amount of force is applied to the subject. Thereby, the user can act on the target image while obtaining a realistic operation feeling.

図4(B)によれば、携帯型情報機器1は、ポインタ304を表示するディスプレイ101と、ディスプレイ101の画面上に配置されたタッチパネル100とを備えている。本実施形態では、ポインタ304は化石発掘用のスコップのイメージであり、先端304eが刃先となっている。また、ディスプレイ101の画面には、発掘現場の地層イメージ306が表示されている。この地層イメージ306は、ポインタ304の先端(刃先)204eによる作用を受けて変化する(掘削される)対象である。   According to FIG. 4B, the portable information device 1 includes a display 101 that displays a pointer 304 and a touch panel 100 that is arranged on the screen of the display 101. In the present embodiment, the pointer 304 is an image of a fossil scoop, and the tip 304e is a cutting edge. In addition, on the screen of the display 101, a formation image 306 of the excavation site is displayed. The formation image 306 is a target that is changed (excavated) under the action of the tip (cutting edge) 204e of the pointer 304.

最初に、ユーザは、指の接触位置305をポインタ(スコップイメージ)304の表示位置範囲と重畳させる。これにより、指がポインタ304を保持する。次いで、ユーザは、指を接触させたまま移動させ、指と共に移動するポインタ304の先端(刃先)304eを、所望の掘削開始位置に置く。   First, the user overlaps the contact position 305 of the finger with the display position range of the pointer (scoop image) 304. As a result, the finger holds the pointer 304. Next, the user moves the finger in contact with the finger, and places the tip (blade edge) 304e of the pointer 304 that moves together with the finger at a desired excavation start position.

次いで、ユーザは、指を、ポインタ304(タッチパネル100)に所定閾値pTH以上の押圧力pで押し込みながら移動させる。これに伴って、ポインタ304の先端304eも移動する。これにより、この先端304eの位置は、指が押し込まれた(p≧pTHである)区間となる軌跡をなす。この際、この軌跡を含む掘削跡イメージ307が、画面に表示される。尚、掘削跡イメージ307は、その位置によっては、地層イメージ306の内部に前もって埋もれていた化石イメージの一部が露出した部分を含んでいてもよい。 The user then the finger is moved while pressing a predetermined threshold p TH or more of the pressing force p C pointer 304 (touch panel 100). Along with this, the tip 304e of the pointer 304 also moves. As a result, the position of the tip 304e forms a trajectory that is a section in which the finger is pressed (p C ≧ p TH ). At this time, the excavation trace image 307 including this trajectory is displayed on the screen. The excavation trace image 307 may include a portion where a part of the fossil image previously buried in the formation image 306 is exposed depending on the position.

ここで、指の接触位置305と、掘削跡イメージ307を発生させている先端(刃先)304eとは、所定の距離だけ離隔している。従って、ユーザは、先端(刃先)304eを、指に遮られることなく常に視認することができる。   Here, the finger contact position 305 and the tip (blade edge) 304e generating the excavation trace image 307 are separated by a predetermined distance. Therefore, the user can always visually recognize the tip (blade edge) 304e without being blocked by a finger.

以上に述べたように、本実施形態では、ユーザの操作から見て、指を、ポインタ304に押し込みながら移動させることによって、掘削跡イメージ307が表示される。すなわち、ある程度の力を対象に加えて初めて掘削が可能となる。これにより、ユーザは、対象イメージに対して、リアルな操作感を得ながら作用を及ぼすことができる。   As described above, in this embodiment, the excavation trace image 307 is displayed by moving a finger while pushing it into the pointer 304 as viewed from the user's operation. That is, excavation is possible only after a certain amount of force is applied to the object. Thereby, the user can act on the target image while obtaining a realistic operation feeling.

図5は、本発明による携帯型情報機器1の一実施形態を概略的に示す斜視図及び機能構成図である。   FIG. 5 is a perspective view and a functional configuration diagram schematically showing an embodiment of the portable information device 1 according to the present invention.

図5によれば、携帯型情報機器1は、タッチパネル100と、ディスプレイ101と、触覚応答機構部102と、押圧力検出部103と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、プログラムを実行することによってその機能を実現させる。   Referring to FIG. 5, the portable information device 1 includes a touch panel 100, a display 101, a tactile response mechanism unit 102, a pressing force detection unit 103, and a processor memory. Here, the processor memory realizes its function by executing a program.

ディスプレイ101は、画面にポインタ104(、204、304)を表示する。また、タッチパネル100は、ディスプレイ101の画面上に配置されており、ユーザの指の接触位置105を時間経過に応じて逐次出力する。このタッチパネル100としては、投影型静電容量方式タッチパネル、表面型静電容量方式タッチパネル、抵抗膜方式タッチパネル、超音波表面弾性波方式タッチパネル、又は赤外線走査方式タッチパネル等を採用することができる。   The display 101 displays the pointer 104 (, 204, 304) on the screen. The touch panel 100 is disposed on the screen of the display 101 and sequentially outputs the contact position 105 of the user's finger as time passes. As this touch panel 100, a projected capacitive touch panel, a surface capacitive touch panel, a resistive touch panel, an ultrasonic surface acoustic wave touch panel, an infrared scanning touch panel, or the like can be employed.

触覚応答機構部102は、タッチパネル100に接触した指に対して、タッチパネル100を振動させることにより触覚応答を与える。例えば、ユーザが指を所定閾値pTH以上の押圧力pで押し込んで、ポインタによる入力結果(筆跡イメージ106等)が新たに伸長しつつ表示される際に、所定の強度の振動が指に与えられる。触覚応答機構部102は、例えば、PZT(チタン酸ジルコン酸鉛)等の圧電材料を用いて形成された圧電アクチュエータとすることができる。 The tactile response mechanism unit 102 gives a tactile response to the finger touching the touch panel 100 by vibrating the touch panel 100. For example, when a user presses a finger with a pressing force p C equal to or greater than a predetermined threshold value p TH and a pointer input result (handwriting image 106 or the like) is displayed while being newly expanded, vibration with a predetermined intensity is applied to the finger. Given. The tactile response mechanism 102 can be a piezoelectric actuator formed using a piezoelectric material such as PZT (lead zirconate titanate).

押圧力検出部103は、指によってタッチパネル100に与えられる押圧力pを検出する。押圧力検出部103は、例えば、タッチパネル100の四隅下に設置されており、指を押し付けられて撓んだタッチパネル100が自身に及ぼす押圧の合計を、押圧力pとして検出する。押圧力検出部103は、例えば、PZT等の圧電材料を用いて形成された圧電センサとすることができる。また、圧電アクチュエータで構成された触覚応答機構部102を設ける代わりに又は設けると共に、この押圧力検出部103を触覚応答機構部として利用することも可能である。 The pressing force detection unit 103 detects a pressing force p C applied to the touch panel 100 by a finger. The pressing force detection unit 103 is installed, for example, under the four corners of the touch panel 100, and detects the total pressure exerted on the touch panel 100 that is bent by pressing a finger as the pressing force p C. The pressing force detection unit 103 can be, for example, a piezoelectric sensor formed using a piezoelectric material such as PZT. In addition to or in addition to providing the tactile response mechanism unit 102 formed of a piezoelectric actuator, the pressing force detection unit 103 can be used as a tactile response mechanism unit.

プロセッサ・メモリは、タッチパネル100から出力される指の接触位置信号と、押圧力検出部103から出力される押圧力信号とを入力し、これらの信号に基づいてユーザの指によるポインタ104(、204、304)に対する操作を認知する。次いで、この操作の内容に合わせて、ポインタによる入力結果(筆跡イメージ106、切開イメージ207、掘削跡イメージ307)を表示させる。   The processor memory inputs a finger contact position signal output from the touch panel 100 and a pressing force signal output from the pressing force detection unit 103, and a pointer 104 (, 204) by the user's finger based on these signals. 304) is recognized. Next, input results (handwriting image 106, incision image 207, excavation trace image 307) by the pointer are displayed in accordance with the contents of this operation.

同じく図5によれば、このプロセッサ・メモリは、接触位置判定部121と、ポインタ位置決定部122と、ポインタ表示部123と、押圧力判定部124と、動作制御部125と、触覚応答制御部126と、表示制御部111と、アプリケーション処理部112とを有している。   Similarly, according to FIG. 5, the processor memory includes a contact position determination unit 121, a pointer position determination unit 122, a pointer display unit 123, a pressing force determination unit 124, an operation control unit 125, and a tactile response control unit. 126, a display control unit 111, and an application processing unit 112.

接触位置判定部121は、タッチパネル100から出力される指の接触位置信号を入力し、指の接触位置105がポインタ104の表示位置範囲と重畳したか否かを判定する。また、この判定結果を、ポインタ位置決定部122に出力する。さらに、指のタッチパネル100に対する接触の有無に関する情報も、ポインタ位置決定部122に逐次出力する。   The contact position determination unit 121 receives a finger contact position signal output from the touch panel 100 and determines whether or not the finger contact position 105 overlaps the display position range of the pointer 104. Further, the determination result is output to the pointer position determination unit 122. Further, information regarding the presence or absence of a finger touching the touch panel 100 is also sequentially output to the pointer position determination unit 122.

ポインタ位置決定部122は、接触位置判定部121から真の判定、すなわち指の接触位置105がポインタ104の表示位置範囲と重畳したとの判定を入力した際、その後の指の各時点での接触位置105に応じて、ポインタ104の先端104eの位置を逐次決定する。   When the pointer position determination unit 122 inputs a true determination from the contact position determination unit 121, that is, a determination that the finger contact position 105 is superimposed on the display position range of the pointer 104, the pointer position determination unit 122 performs subsequent finger contact at each time point. The position of the tip 104e of the pointer 104 is sequentially determined according to the position 105.

この際、ポインタ位置決定部122は、重畳した当初の時点での接触位置105の座標(xC0,yC0)を同時点でのポインタ104の先端104eの位置の座標(xP0,yP0)に変換する並進変換fを決定する。次いで、その後の各時点で、指の接触位置105をこの並進変換fによって変換した結果の位置を、先端104eの位置とする。また、ポインタ位置決定部122は、決定した先端104eの位置情報をポインタ表示部123及び動作制御部125に逐次出力する。 At this time, the pointer position determining unit 122 uses the coordinates (x C0 , y C0 ) of the contact position 105 at the initial superimposed time as the coordinates (x P0 , y P0 ) of the position of the tip 104e of the pointer 104 at the same point. determining the translational transform f T to convert to. Then, in each subsequent time point, the position of the result of a contact position 105 of the finger is converted by the translational transform f T, the position of the tip 104e. Further, the pointer position determination unit 122 sequentially outputs the determined position information of the tip 104e to the pointer display unit 123 and the operation control unit 125.

一方で、ポインタ位置決定部122は、接触位置判定部121から指の接触位置が存在しない、すなわち指がタッチパネル100に接触していないとの情報を入力した際、その時点で、先端104eの位置の決定を停止する。この場合、先端104eの位置は、この決定停止直前の位置を維持する。   On the other hand, when the information indicating that the finger contact position does not exist, that is, the finger is not in contact with the touch panel 100, is input from the contact position determination unit 121, the pointer position determination unit 122 at that time is the position of the tip 104e. Stop making decisions. In this case, the position of the tip 104e is maintained at the position immediately before the determination stop.

ポインタ表示部123は、ポインタ位置決定部122から、先端104eの位置情報を入力する。さらに、この入力した位置情報を用い、各時点で先端104eが決定された位置となるようにポインタ104を表示させることを、表示制御部111に指示する。   The pointer display unit 123 receives position information of the tip 104e from the pointer position determination unit 122. Further, using this input position information, the display control unit 111 is instructed to display the pointer 104 so that the tip 104e is positioned at each time point.

押圧力判定部124は、押圧力検出部103から出力される押圧力信号を入力し、指による押圧力pが所定の押圧力閾値pTH以上であるか否かを判定する。また、この判定結果を、動作制御部125に出力する。 The pressing force determination unit 124 receives the pressing force signal output from the pressing force detection unit 103, and determines whether or not the pressing force p C by the finger is equal to or greater than a predetermined pressing force threshold value pTH. Further, the determination result is output to the operation control unit 125.

動作制御部125は、ポインタ位置決定部122から先端104eの位置情報を入力し、さらに押圧力判定部124から判定結果を入力する。動作制御部125は、次いで、これらの入力された位置情報及び判定結果に基づき、ポインタ104の先端104eの位置の軌跡であって、押圧力判定部124により真の判定(p≧pTH)がなされた区間となる軌跡を決定する。 The operation control unit 125 inputs the position information of the tip 104e from the pointer position determination unit 122, and further inputs the determination result from the pressing force determination unit 124. Next, the motion control unit 125 is a locus of the position of the tip 104e of the pointer 104 based on the input position information and determination result, and the true determination (p C ≧ p TH ) by the pressing force determination unit 124. The trajectory that becomes the section where is made is determined.

動作制御部125は、さらに、この決定された軌跡に対応した、ポインタ104による入力結果(筆跡イメージ106等)を表示するように、表示制御部111に指示する。この際、動作制御部125は、この指示と同時に、触覚応答制御部126に対して、触覚応答を発動させるように指示を行うことも好ましい。尚、上記のポインタ104による入力結果は、動作制御部125によって決定されてもよく、または表示制御部111によって、決定された軌跡に基づきアプリケーション処理部112からの情報を受けて決定されてもよい。触覚応答制御部126は、動作制御部125から入力した、触覚応答発動の指示に基づき、触覚応答(例えば振動)を指に対して与えるべく触覚応答機構部102を制御する。   The operation control unit 125 further instructs the display control unit 111 to display an input result (handwriting image 106 or the like) by the pointer 104 corresponding to the determined locus. At this time, it is also preferable that the operation control unit 125 instructs the tactile response control unit 126 to activate a tactile response simultaneously with this instruction. The input result by the pointer 104 may be determined by the operation control unit 125, or may be determined by the display control unit 111 based on the determined locus and receiving information from the application processing unit 112. . The tactile response control unit 126 controls the tactile response mechanism unit 102 to give a tactile response (for example, vibration) to the finger based on the instruction of tactile response activation input from the operation control unit 125.

表示制御部111は、アプリケーション処理部112からアプリケーション処理情報を入力して、アプリケーションの実行に応じた画像をディスプレイ101に表示させる。また、表示制御部111は、ポインタ表示部123から、ポインタ104を表示させる指示情報を入力し、各時点で先端104eが決定された位置となるように、ポインタ104をディスプレイ101に表示させる。さらに、表示制御部111は、動作制御部125から、ポインタ104による入力結果(筆跡イメージ106等)を表示させる指示情報を入力し、先端104eの軌跡に対応したポインタ104による入力結果をディスプレイ101に表示させる。   The display control unit 111 inputs application processing information from the application processing unit 112 and causes the display 101 to display an image corresponding to the execution of the application. Further, the display control unit 111 inputs instruction information for displaying the pointer 104 from the pointer display unit 123, and causes the display 101 to display the pointer 104 so that the tip 104e is positioned at each time point. Further, the display control unit 111 inputs instruction information for displaying an input result (handwriting image 106 or the like) by the pointer 104 from the operation control unit 125, and the input result by the pointer 104 corresponding to the locus of the tip 104e is displayed on the display 101. Display.

図6は、本発明による動作発動(情報入力)方法の一実施形態を示すフローチャートである。   FIG. 6 is a flowchart showing an embodiment of an operation activation (information input) method according to the present invention.

図6によれば、最初に、ディスプレイ101にポインタ104(、204、304)が表示される(ステップS601)。次いで、タッチパネル100によって、指の接触が検知される(ステップS602)。次いで、接触位置判定部121によって、指の接触位置105がポインタ104の表示位置範囲と重畳したか否かの判定がなされる(ステップS603)。   According to FIG. 6, first, the pointer 104 (204, 304) is displayed on the display 101 (step S601). Next, the touch of the finger is detected by the touch panel 100 (step S602). Next, the contact position determination unit 121 determines whether or not the finger contact position 105 overlaps the display position range of the pointer 104 (step S603).

ステップ603で指の接触位置105がポインタ104の表示位置範囲と重畳したと判定された際、ポインタ位置決定部122によって、並進変換fが決定される(ステップS604)。並進変換fは、重畳した当初の時点での接触位置105の座標(xC0,yC0)を同時点でのポインタ104の先端104e位置の座標(xP0,yP0)に変換するものである。一方、ポインタ104の表示位置範囲と重畳していないと判定された際、ステップS602に戻って、指の接触の検知が行われる。 When the contact position 105 of the finger is determined to overlap with the display position range of the pointer 104 in step 603, the pointer position determination unit 122, translational transform f T is determined (step S604). Translational transform f T is for converting coordinates of the contact position 105 at the initial time obtained by superimposing (x C0, y C0) to the coordinates (x P0, y P0) of the tip 104e position of the pointer 104 at the same time is there. On the other hand, when it is determined that the pointer 104 does not overlap with the display position range of the pointer 104, the process returns to step S602 to detect finger contact.

並進変換fの決定(ステップS604)の後、ポインタ104による入力結果を表示するためのループに入り(ステップS605)、接触位置判定部121によって、指の接触位置105が測定される(ステップS606)。次いで、ポインタ位置決定部122により、指の接触位置105に応じて、ポインタ104の先端104eの位置が決定される(ステップS607)。具体的には、指の接触位置105を、決定された並進変換fによって変換した結果の位置が、先端104eの位置とされる。 After the determination of the translational transform f T (step S604), enters a loop for displaying an input result by the pointer 104 (step S605), by the contact position determination unit 121, the contact position 105 of the finger is measured (step S606 ). Next, the pointer position determination unit 122 determines the position of the tip 104e of the pointer 104 according to the finger contact position 105 (step S607). Specifically, a contact position 105 of the finger, the position of the result of converting the determined translational transform f T, is the position of the tip 104e.

次いで、ポインタ表示部123によって、先端104eがステップS607で決定された位置となるように、ポインタ104が表示される(ステップS608)。次いで、押圧力検出部103が、指による押圧力pを測定する(ステップS609)。 Next, the pointer 104 is displayed by the pointer display unit 123 so that the tip 104e is located at the position determined in step S607 (step S608). Next, the pressing force detection unit 103 measures the pressing force p C by the finger (step S609).

次いで、押圧力判定部122によって、押圧力pが所定の押圧力閾値pTH以上であるか否かが判定される(ステップS610)。所定の押圧力閾値pTH以上であると判定された場合、動作制御部125によって、先端104eの位置の軌跡であってp≧pTHである区間の軌跡に対応した、ポインタ104による入力結果(筆跡イメージ106等)が表示される(ステップS611)。その後、接触位置判定部121によって、指の接触の有無が測定される(ステップS612)。一方、ステップS610で所定の押圧力閾値pTH未満であると判定された場合、ステップS611を経ずに、ステップS612に移行する。 Next, the pressing force determination unit 122 determines whether or not the pressing force p C is equal to or greater than a predetermined pressing force threshold value p TH (step S610). When it is determined that the pressure is equal to or greater than the predetermined pressing force threshold value p TH , the operation control unit 125 inputs an input result by the pointer 104 corresponding to the locus of the position of the tip 104e and the locus of the section where p C ≧ p TH. (Handwriting image 106 etc.) is displayed (step S611). Thereafter, the contact position determination unit 121 measures the presence or absence of finger contact (step S612). On the other hand, if it is determined to be less than a predetermined pressure threshold p TH in step S610, the without going through step S611, the process proceeds to step S612.

次いで、接触位置判定部121によって、指が接触しているか否かが判定される(ステップ613)。ここで、指が接触していると判定された場合、以上に述べたステップS605乃至ステップS613からなる入力結果表示(動作制御)ループが繰り返される。一方、指が接触していない(指の接触位置が存在しない)と判定された場合、本情報入力方法は終了する。尚、図3(B)に示したように、ユーザの指がポインタ104を持ち替えた場合、以上に述べたフローが一旦終了して、再度開始され、ステップS604で、並進変換fが更新される。 Next, the contact position determination unit 121 determines whether or not the finger is in contact (step 613). Here, when it is determined that the finger is in contact, the input result display (operation control) loop including the steps S605 to S613 described above is repeated. On the other hand, when it is determined that the finger is not in contact (the finger contact position does not exist), the information input method ends. Incidentally, as shown in FIG. 3 (B), if the user's finger dimensional worlds pointer 104, and ends the flow described above is once started again, in step S604, the translational transform f T is updated The

以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   For the various embodiments of the present invention described above, various changes, modifications, and omissions in the technical idea and scope of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1 携帯型情報機器(ユーザインタフェース装置)
100 タッチパネル
101 ディスプレイ
102 触覚応答機構部
103 押圧力検出部
104、104′、204、304 ポインタ
104e、104e′、204e、304e ポインタの先端
105、205、305 指の接触位置
106 筆跡イメージ(ポインタによる入力結果)
107 スライドスイッチイメージ
108 切り替えスイッチイメージ
109 リンク(オブジェクト)
111 表示制御部
112 アプリケーション処理部
121 接触位置判定部
122 ポインタ位置決定部
123 ポインタ表示部
124 押圧力判定部
125 動作制御部
126 触覚応答制御部
206 左腕イメージ(ポインタの先端による作用を受けて変化する対象)
207 切開イメージ(ポインタによる入力結果)
306 地層イメージ(ポインタの先端による作用を受けて変化する対象)
307 掘削跡イメージ(ポインタによる入力結果)
1 Portable information device (user interface device)
DESCRIPTION OF SYMBOLS 100 Touch panel 101 Display 102 Tactile response mechanism part 103 Pressing force detection part 104,104 ', 204,304 Pointer 104e, 104e', 204e, 304e Pointer 105,205,305 Point of finger contact 106 Handwriting image (input by pointer result)
107 Slide switch image 108 Changeover switch image 109 Link (object)
DESCRIPTION OF SYMBOLS 111 Display control part 112 Application process part 121 Contact position determination part 122 Pointer position determination part 123 Pointer display part 124 Pressing force determination part 125 Operation | movement control part 126 Tactile response control part 206 Left arm image (it changes according to the effect | action by the front-end | tip of a pointer Target)
207 Incision image (input result by pointer)
306 Geologic image (object that changes under the action of the tip of the pointer)
307 Excavation image (input result by pointer)

Claims (10)

自身の先端によって入力位置を指し示すポインタを表示する画像表示部と、指の各時点での接触位置を逐次出力するタッチパネルと、当該指により該タッチパネルに与えられた押圧力を検出する押圧力検出部とを備えたユーザインタフェース装置であって、
当該指の各時点での接触位置に応じて、前記ポインタの前記先端の位置を逐次決定するポインタ位置決定手段と、
各時点で前記先端が決定された位置となるように前記ポインタを表示させるポインタ表示手段と、
当該指の各時点での接触位置に応じた位置に前記ポインタを表示させ、さらに当該指を接触させたまま押し込む一連の操作によって検出される前記押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
前記押圧力判定手段が真の判定を行った際、前記ポインタの前記先端の位置に関連付けられた動作を発動させる動作制御手段と
を有することを特徴とするユーザインタフェース装置。
An image display unit that displays a pointer that indicates an input position with its tip, a touch panel that sequentially outputs a contact position of each finger, and a pressing force detection unit that detects a pressing force applied to the touch panel by the finger A user interface device comprising:
Pointer position determining means for sequentially determining the position of the tip of the pointer according to the contact position at each time point of the finger;
Pointer display means for displaying the pointer so that the tip is determined at each time point;
Whether or not the pressing force detected by a series of operations in which the pointer is displayed at a position corresponding to the contact position at each time point of the finger and the finger is pressed while being in contact is greater than or equal to a predetermined threshold value. A pressing force determining means for determining;
An operation control means for activating an action associated with the position of the tip of the pointer when the pressing force determination means makes a true determination.
当該指の接触位置が前記ポインタの表示位置範囲と重畳したか否かを判定する接触位置判定手段を更に有しており、
前記ポインタ位置決定手段は、前記接触位置判定手段が真の判定を行った際、当該指の各時点での接触位置に応じて、ポインタの先端の位置を逐次決定し、
前記動作制御手段は、前記先端の位置の軌跡であって、前記押圧力判定手段により真の判定がなされた区間となる軌跡に対応した、前記ポインタによる入力結果を表示させる
ことを特徴とする請求項1に記載のユーザインタフェース装置。
Contact position determination means for determining whether or not the contact position of the finger overlaps the display position range of the pointer;
The pointer position determination means sequentially determines the position of the tip of the pointer according to the contact position at each time point of the finger when the contact position determination means makes a true determination,
The operation control means displays an input result by the pointer corresponding to a locus of the position of the tip, which corresponds to a locus that is a section in which a true determination is made by the pressing force determination means. Item 4. The user interface device according to Item 1.
ユーザの操作から見て、当該指を前記ポインタに接触させて該ポインタを保持した上で、当該指を該ポインタに押し込みながら移動させた際、前記動作制御手段は、当該指の移動に合わせて移動する前記先端の位置の軌跡に対応した、前記ポインタによる入力結果を表示させることを特徴とする請求項2に記載のユーザインタフェース装置。   When viewed from the user's operation, when the finger is brought into contact with the pointer and the pointer is held, and the finger is moved while being pushed into the pointer, the motion control means adjusts the movement of the finger. The user interface device according to claim 2, wherein an input result by the pointer corresponding to a locus of the position of the moving tip is displayed. 前記ポインタ位置決定手段は、当該指の接触位置が前記ポインタの表示位置範囲と重畳した当初の時点での当該指の接触位置を、同時点での前記先端の位置に変換する並進変換を算出し、その後の各時点で、当該指の接触位置を該並進変換によって変換した結果の位置を、該ポインタの前記先端の位置とすることを特徴とする請求項1又は2に記載のユーザインタフェース装置。   The pointer position determining means calculates a translational conversion for converting the finger contact position at the initial time when the finger contact position overlaps the display position range of the pointer into the position of the tip at the same point. 3. The user interface device according to claim 1, wherein at each subsequent time point, a position obtained by converting the contact position of the finger by the translation conversion is set as the position of the tip of the pointer. 前記ポインタによる入力結果は、前記画像表示部の画面に表示された所定の対象が、前記ポインタの先端による作用を受けて変化した結果であることを特徴とする請求項2から4のいずれか1項に記載のユーザインタフェース装置。   5. The input result by the pointer is a result of a predetermined object displayed on the screen of the image display unit being changed by the action of the tip of the pointer. 6. The user interface device according to item. 前記ポインタによる入力結果は、前記先端の位置の軌跡を含む筆跡イメージであることを特徴とする請求項2から5のいずれか1項に記載のユーザインタフェース装置。   The user interface device according to claim 2, wherein the input result by the pointer is a handwriting image including a locus of the position of the tip. 前記ポインタ表示手段は、当該指による所定の操作に応じて、前記ポインタとして、右利き用のポインタと左利き用のポインタとを表示し分けることを特徴とする請求項2から6のいずれか1項に記載のユーザインタフェース装置。   The said pointer display means displays the right-handed pointer and the left-handed pointer separately as said pointer according to predetermined operation with the said finger | toe, The any one of Claim 2 to 6 characterized by the above-mentioned. The user interface device described in 1. 前記動作制御手段は、前記押圧力判定手段が真の判定を行った際、前記ポインタの前記先端の位置を自身の表示位置範囲内に含むオブジェクトに関連付けられた動作を発動させることを特徴とする請求項1に記載のユーザインタフェース装置。   The motion control means activates an action associated with an object including the position of the tip of the pointer within its display position range when the pressing force determination means makes a true determination. The user interface device according to claim 1. 自身の先端によって入力位置を指し示すポインタを表示する画像表示部と、指の各時点での接触位置を逐次出力するタッチパネルと、当該指により該タッチパネルに与えられた押圧力を検出する押圧力検出部とを備えたユーザインタフェース装置に搭載されたプログラムであって、
当該指の各時点での接触位置に応じて、前記ポインタの前記先端の位置を逐次決定するポインタ位置決定手段と、
各時点で前記先端が決定された位置となるように前記ポインタを表示させるポインタ表示手段と、
当該指の各時点での接触位置に応じた位置に前記ポインタを表示させ、さらに当該指を接触させたまま押し込む一連の操作によって検出される前記押圧力が所定閾値以上であるか否かを判定する押圧力判定手段と、
前記押圧力判定手段が真の判定を行った際、前記ポインタの前記先端の位置に関連付けられた動作を発動させる動作制御手段と
してコンピュータを機能させることを特徴とするユーザインタフェース装置用のプログラム。
An image display unit that displays a pointer that indicates an input position with its tip, a touch panel that sequentially outputs a contact position of each finger, and a pressing force detection unit that detects a pressing force applied to the touch panel by the finger A program installed in a user interface device comprising:
Pointer position determining means for sequentially determining the position of the tip of the pointer according to the contact position at each time point of the finger;
Pointer display means for displaying the pointer so that the tip is determined at each time point;
Whether or not the pressing force detected by a series of operations in which the pointer is displayed at a position corresponding to the contact position at each time point of the finger and the finger is pressed while being in contact is greater than or equal to a predetermined threshold value. A pressing force determining means for determining;
A program for a user interface device, which causes a computer to function as an operation control unit that activates an operation associated with the position of the tip of the pointer when the pressing force determination unit makes a true determination.
自身の先端によって入力位置を指し示すポインタを表示する画像表示部と、指の各時点での接触位置を逐次出力するタッチパネルと、当該指により該タッチパネルに与えられた押圧力を検出する押圧力検出部とを備えたユーザインタフェース装置における動作発動方法であって、
当該指の各時点での接触位置に応じて、前記ポインタの前記先端の位置を逐次決定する第1のステップと、
各時点で前記先端が決定された位置となるように前記ポインタを表示させる第2のステップと、
当該指の各時点での接触位置に応じた位置に前記ポインタを表示させ、さらに当該指を接触させたまま押し込む一連の操作によって検出される前記押圧力が所定閾値以上であるか否かを判定する第3のステップと、
第3のステップで真の判定がなされた際、前記ポインタの前記先端の位置に関連付けられた動作を発動させる第4のステップと
を有することを特徴とする動作発動方法。
An image display unit that displays a pointer that indicates an input position with its tip, a touch panel that sequentially outputs a contact position of each finger, and a pressing force detection unit that detects a pressing force applied to the touch panel by the finger An operation activation method in a user interface device comprising:
A first step of sequentially determining the position of the tip of the pointer according to the contact position at each time point of the finger;
A second step of displaying the pointer so that the tip is positioned at each time point;
Whether or not the pressing force detected by a series of operations in which the pointer is displayed at a position corresponding to the contact position at each time point of the finger and the finger is pressed while being in contact is greater than or equal to a predetermined threshold value. A third step of determining;
And a fourth step of activating an action associated with the position of the tip of the pointer when a true determination is made in the third step.
JP2011208507A 2011-09-26 2011-09-26 User interface device capable of operation with finger using pointer, operation invoking method, and program Active JP5713400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011208507A JP5713400B2 (en) 2011-09-26 2011-09-26 User interface device capable of operation with finger using pointer, operation invoking method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011208507A JP5713400B2 (en) 2011-09-26 2011-09-26 User interface device capable of operation with finger using pointer, operation invoking method, and program

Publications (3)

Publication Number Publication Date
JP2013069195A JP2013069195A (en) 2013-04-18
JP2013069195A5 JP2013069195A5 (en) 2014-01-09
JP5713400B2 true JP5713400B2 (en) 2015-05-07

Family

ID=48474813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011208507A Active JP5713400B2 (en) 2011-09-26 2011-09-26 User interface device capable of operation with finger using pointer, operation invoking method, and program

Country Status (1)

Country Link
JP (1) JP5713400B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6887745B2 (en) * 2014-12-26 2021-06-16 キヤノンメディカルシステムズ株式会社 Medical image display device
JP6313395B1 (en) * 2016-10-17 2018-04-18 グリー株式会社 Drawing processing method, drawing processing program, and drawing processing apparatus
KR102044824B1 (en) * 2017-06-20 2019-11-15 주식회사 하이딥 Apparatus capable of sensing touch and touch pressure and control method thereof
JP7355087B2 (en) 2021-09-14 2023-10-03 カシオ計算機株式会社 Operation sheet, operation device and electronic equipment
JP7396337B2 (en) * 2021-09-14 2023-12-12 カシオ計算機株式会社 Electronic devices, input methods and programs

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546310A (en) * 1991-08-17 1993-02-26 Ricoh Co Ltd Information processor
JP2000267808A (en) * 1999-03-16 2000-09-29 Oki Electric Ind Co Ltd Input method linking touch panel input device with display device
JP4115198B2 (en) * 2002-08-02 2008-07-09 株式会社日立製作所 Display device with touch panel

Also Published As

Publication number Publication date
JP2013069195A (en) 2013-04-18

Similar Documents

Publication Publication Date Title
JP5295328B2 (en) User interface device capable of input by screen pad, input processing method and program
JP3955042B2 (en) Coordinate input device
US9678662B2 (en) Method for detecting user gestures from alternative touchpads of a handheld computerized device
EP2256614B1 (en) Display control apparatus, display control method, and computer program
KR101683320B1 (en) Dual screen portable touch sensitive computing system
US20160364138A1 (en) Front touchscreen and back touchpad operated user interface employing semi-persistent button groups
JP4979600B2 (en) Portable terminal device and display control method
JP2005135441A6 (en) Coordinate input device
KR20160124786A (en) In-air ultrasound pen gestures
JP2004265453A6 (en) Coordinate input device
JP2004265451A6 (en) Coordinate input device
JP2004265450A6 (en) Coordinate input device
JPH10149254A6 (en) Coordinate input device
JP5713400B2 (en) User interface device capable of operation with finger using pointer, operation invoking method, and program
JP6991486B2 (en) Methods and systems for inserting characters into strings
JP5220898B2 (en) User interface device capable of scroll control by pressing, image scrolling method, and program
JP2013546066A (en) User touch and non-touch based interaction with the device
JP5374564B2 (en) Drawing apparatus, drawing control method, and drawing control program
WO2012169189A1 (en) Touch panel input device
JP5813543B2 (en) User interface device capable of scroll control by maximum pressing force value, image scroll method, and program
JP2010257197A (en) Input processing apparatus
CN106484175A (en) The user interface of electronic equipment, the processing method of input and electronic equipment
JP6114792B2 (en) User interface device capable of scroll control according to contact degree, image scrolling method, and program
JP5269154B2 (en) User interface device capable of executing various operations while touching finger, input operation determination method, and program
TW200941307A (en) Extended cursor generating method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150305

R150 Certificate of patent or registration of utility model

Ref document number: 5713400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250