JP4015133B2 - Terminal device - Google Patents

Terminal device Download PDF

Info

Publication number
JP4015133B2
JP4015133B2 JP2004119967A JP2004119967A JP4015133B2 JP 4015133 B2 JP4015133 B2 JP 4015133B2 JP 2004119967 A JP2004119967 A JP 2004119967A JP 2004119967 A JP2004119967 A JP 2004119967A JP 4015133 B2 JP4015133 B2 JP 4015133B2
Authority
JP
Japan
Prior art keywords
gesture
sensor
finger
contact
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004119967A
Other languages
Japanese (ja)
Other versions
JP2005303870A (en
Inventor
武典 川又
剛 泉福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004119967A priority Critical patent/JP4015133B2/en
Publication of JP2005303870A publication Critical patent/JP2005303870A/en
Application granted granted Critical
Publication of JP4015133B2 publication Critical patent/JP4015133B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Telephone Function (AREA)

Description

この発明は携帯可能な端末装置に係るものであり、特に端末装置の操作を効率化するユーザインターフェース技術に関する。   The present invention relates to a portable terminal device, and more particularly, to a user interface technology for improving the efficiency of operation of the terminal device.

携帯電話は、固定式電話との操作性を承継しているため、テンキーを中心とした操作インターフェースが採用されることが多い。また携帯電話は持ち運び容易であることが求められるので、筐体サイズが限られており、筐体に装着可能なキーの個数が限られている。一方で、携帯電話は高機能化の一途を辿っており、少ないキー操作の組み合わせで複雑な機能を選択する必要があるために、操作性が劣化しやすい。   Since the mobile phone inherits the operability with the fixed phone, an operation interface centered on a numeric keypad is often employed. Also, since mobile phones are required to be easy to carry, the case size is limited, and the number of keys that can be attached to the case is limited. On the other hand, mobile phones are becoming increasingly sophisticated, and it is necessary to select complicated functions with a combination of few key operations, so operability tends to deteriorate.

このような問題を解決する方法として、テンキーとは異なる入力デバイスを備える方法がある。そのような入力デバイスの一例として各種の拡張キーがある。またキー以外のデバイスを使用するものとしては、感圧可能なセンサを用いて携帯電話の操作性を向上しようとした構成もある(例えば、特許文献1)。   As a method of solving such a problem, there is a method of providing an input device different from the numeric keypad. There are various extended keys as an example of such an input device. In addition, as a device using a device other than a key, there is a configuration that attempts to improve the operability of a mobile phone using a pressure-sensitive sensor (for example, Patent Document 1).

特開2001−69223「通信装置」公報Japanese Patent Laid-Open No. 2001-69223 “Communication Device”

特許文献1に記載された技術は、感圧可能なセンサを通じたスクロール操作を簡易に行うものであるが、感圧センサはスクロール操作以外の用途にも用いることが可能であり、またそうすることにより携帯電話の複雑な機能を効率的に選択することができる。その一方で、感圧センサはテンキーのクリック感のようなしっかりとした操作感がないことが多く、そのために利用者に不安を与えしまう。このことから、感圧センサを用いた操作インターフェースは、画面に表示された項目をポインティングする目的で用いられることが多く、キー操作のように直接的に機能を選択するような操作インターフェースに採用されづらいものであった。   Although the technique described in Patent Document 1 performs a scroll operation through a pressure-sensitive sensor, the pressure-sensitive sensor can be used for purposes other than the scroll operation, and to do so. Thus, it is possible to efficiently select a complicated function of the mobile phone. On the other hand, pressure-sensitive sensors often do not have a solid operational feeling like the click feeling of a numeric keypad, which makes the user uneasy. For this reason, an operation interface using a pressure sensor is often used for the purpose of pointing an item displayed on the screen, and is adopted as an operation interface for directly selecting a function like a key operation. It was hard.

この発明は、指の接触位置を検出するセンサを用いて、利用者に幅広い機能の中から所望の操作を、確実な操作感で行うことのできる端末装置を提供することを目的とする。   An object of the present invention is to provide a terminal device that allows a user to perform a desired operation from a wide range of functions with a certain sense of operation using a sensor that detects a contact position of a finger.

この発明による端末装置は、片手で把持可能な筐体を有し、この筐体を把持する手の指でキー操作して使用する端末装置において、上記筐体に開閉自在に装着され閉蓋時に上記筐体の正面一部を覆い隠す部位と、上記筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であって、上記部位の閉蓋時と開蓋時のいずれにおいても外部に露出する位置に装着され、接触した指の接触位置を検出するセンサと、このセンサにより検出された接触位置の時系列からジェスチャを切り出すジェスチャ識別手段と、このジェスチャ識別手段により切り出された複数のジェスチャを組み合わせて、組み合わされた複数のジェスチャに対応する機能を実行する制御手段とを備え、前記センサは、さらに指の接触面の大きさを検出し、前記ジェスチャ識別手段は、このセンサに検出された接触位置の時系列から、上記接触面の大きさが所定値を下回った時間帯における接触位置の時系列を棄却してジェスチャを切り出し、入力時系列およびジェスチャパターンのベクトル要素から算出した絶対距離値にペナルティ値を加味したマッチングによる距離値を算出し、ジェスチャーパターンの算出に前記マッチングによる距離値を用いたものである。
また、この発明による端末装置は、片手で把持可能な筐体を有し、この筐体を把持する手の指でキー操作して使用する端末装置において、上記筐体に開閉自在に装着され閉蓋時に上記筐体の正面の一部を覆い隠す部位と、上記筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であって、上記部位の閉蓋時と開蓋時のいずれにおいても外部に露出する位置に装着され、接触した指の接触位置を検出するセンサと、このセンサにより検出された接触位置の時系列からジェスチャを切り出すジェスチャ識別手段と、このジェスチャ識別手段により切り出された複数のジェスチャを組み合わせて、組み合わされた複数のジェスチャに対応する機能を実行する制御手段とを備え、前記センサは、さらに指の接触面の大きさを検出し、前記ジェスチャ識別手段は、このセンサに検出された接触位置の時系列から、上記接触面の大きさが所定値を下回った時間帯における接触位置の時系列を棄却してジェスチャを切り出し、更に、指がセンサの表面から離れる動作が発生しても、即座にジェスチャの終了とは判断せず、センサの表面から指が離れる前の指がセンサの表面に接していた状態と、その後において指がセンサの表面に接していた状態との差異に基づいて方向と移動ベクトルの絶対値を与え、ジェスチャ認識するものである。
A terminal device according to the present invention has a housing that can be gripped with one hand, and is a terminal device that is used by operating a key with a finger of a hand that grips the housing. A part that covers a part of the front surface of the housing and a position where the hand holding the housing can be touched with a finger while maintaining the key operable position, and when the part is closed A sensor that is mounted at a position exposed to the outside both when the lid is opened and detects the contact position of the touched finger, a gesture identification unit that cuts out a gesture from the time series of the contact position detected by the sensor, and Control means for executing a function corresponding to the plurality of combined gestures by combining a plurality of gestures cut out by the gesture identification means, and the sensor further determines the size of the contact surface of the finger. Out, the gesture identification means, from the time series of the contact position detected in the sensor, Shi cut out gestures size of the contact surface dismissed time series of the contact position in the time zone below a predetermined value The distance value by matching is calculated by adding a penalty value to the absolute distance value calculated from the input time series and the vector element of the gesture pattern, and the distance value by the matching is used for calculating the gesture pattern .
In addition, a terminal device according to the present invention has a housing that can be held with one hand. In a terminal device that is used by operating a key with a finger of a hand that holds the housing, the terminal device is attached to the housing so as to be freely opened and closed. A part that covers a part of the front surface of the casing when the cover is closed, and a position where the hand holding the casing can be touched with a finger while maintaining the position where the key can be operated. A sensor that is mounted at a position exposed to the outside both when the lid is open and when the lid is opened, detects a contact position of the touched finger, and a gesture identification unit that cuts out a gesture from the time series of the contact position detected by the sensor, And a control means for executing a function corresponding to the plurality of combined gestures by combining a plurality of gestures cut out by the gesture identification means, and the sensor further includes a large contact surface of the finger. The gesture identifying means rejects the time series of the contact position in the time zone when the size of the contact surface is below a predetermined value from the time series of the contact position detected by the sensor, and performs the gesture. Cutting, and even if the operation of moving the finger away from the sensor surface occurs, it is not immediately determined that the gesture has ended, and the finger before the finger leaves the sensor surface is in contact with the sensor surface; Thereafter, the absolute value of the direction and the movement vector is given based on the difference from the state where the finger is in contact with the surface of the sensor, and the gesture is recognized.

このように、この発明による端末装置によれば、時間的に操作パターンが変動しても適切なジェスチャパターンを選択することができる、また例えば、上から下へのストローク操作と下から上へのストローク操作とを一続きの操作(上→下→上)で行うような簡単な変形にも容易に対応できる、指が離れている前後のセンサに接していた状態に基づいて、指が離れている間の移動量ベクトルを補完することで、ジェスチャの動きを適切に数値化することが可能となるという効果を奏するものである。
Thus , according to the terminal device according to the present invention, an appropriate gesture pattern can be selected even if the operation pattern fluctuates with time. For example, the stroke operation from the top to the bottom and the bottom to the top can be selected. The finger is released based on the state where the finger is in contact with the front and back sensors, which can easily cope with simple deformations such as a stroke operation and a series of operations (up → down → up). By complementing the movement amount vector during the period, the movement of the gesture can be appropriately digitized.

以下、この発明の実施の形態を図を用いて説明する。
実施の形態1.
図1は、この発明の実施の形態1による端末装置を携帯電話として構成した場合の背面斜視図である。図の端末装置1において、開閉部位2は本体部位3に対してヒンジ機構4を介して開閉自在に装着されている。また本体部位3にはセンサ5が装着されている。このセンサ5は、物体が接触するとその接触位置を電気信号に変換して出力するセンサとなっている。
Embodiments of the present invention will be described below with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a rear perspective view of a terminal device according to Embodiment 1 of the present invention configured as a mobile phone. In the terminal device 1 shown in the figure, the opening / closing part 2 is attached to the main body part 3 through a hinge mechanism 4 so as to be freely opened and closed. A sensor 5 is attached to the body part 3. The sensor 5 is a sensor that converts the contact position into an electrical signal and outputs it when an object comes into contact.

図1の例では、センサ5は本体部位3の側面に設置されている。しかしながら、センサ5の設置位置は側面に限られるものではなく、筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であれば、如何なる位置であってもよい。ここで、「筐体を把持する手をキー操作可能な位置に維持する」とは、筐体を把持した手でそのままキーの大部分を操作できるように、筐体を把持した状態を保つ行為を意味しているのであって、例えば図2に示すような方法で端末装置を把持するような行為を指す。   In the example of FIG. 1, the sensor 5 is installed on the side surface of the main body part 3. However, the installation position of the sensor 5 is not limited to the side surface, and any position can be used as long as it can be touched by the finger of the hand while keeping the hand holding the housing at a key operable position. Also good. Here, “maintaining the hand holding the casing in a position where the key can be operated” means an act of holding the casing so that the majority of the keys can be operated with the hand holding the casing. For example, it means an act of gripping the terminal device by a method as shown in FIG.

一般に、端末装置1のように携帯可能な端末装置では、片手でも操作しやすいように、キーボタンを一箇所に集中して配置する。そして利用者はその端末を把持する場合に、これらのキーを操作しやすい位置を手で把持するのである。このような場合、手で端末装置を把持したままであっても、その手の一部の指を限定的に動かすことが可能である場合が多い。そしてセンサ5は、このような状態の指によって接触可能な位置に配置されるのである。なお、センサ5に接触する指の位置は、指の先端である必要はなく、指のいずれかの部位であればよいのである。   Generally, in a portable terminal device such as the terminal device 1, key buttons are concentrated and arranged at one place so that it can be easily operated with one hand. When the user grips the terminal, the user grips a position where these keys can be easily operated by hand. In such a case, even if the terminal device is held with a hand, it is often possible to move a part of fingers of the hand in a limited manner. And the sensor 5 is arrange | positioned in the position which can contact with the finger of such a state. Note that the position of the finger that contacts the sensor 5 need not be the tip of the finger, but may be any part of the finger.

端末装置1は、図3に示すように、開閉部位2がヒンジ機構4を介して本体部位3に開閉自在に装着されているので、筐体を折り畳んでおくことができる。しかしそれのみならず、開閉部位2を閉蓋した場合(筐体を折り畳んだ状態)においても、センサ5は外部に露出するように配置されているので、筐体を折り畳んだ状態でもセンサ5に接触することが可能となっている。さらに加えて、閉蓋時においても、開蓋時の把持位置とほぼ同じ位置を手で把持したまま、その手の一部の指で接触可能な位置にセンサ5が設置されているという特徴を有している。このようなセンサ5の設置位置としては、端末装置1の側面や背面が代表的である。こうすることで、開蓋・閉蓋の別にかかわらずセンサ5を用いて端末装置1を操作することが可能となる。   As shown in FIG. 3, the terminal device 1 has the opening / closing part 2 attached to the main body part 3 via the hinge mechanism 4 so as to be freely opened and closed, so that the casing can be folded. However, the sensor 5 is arranged so as to be exposed to the outside even when the opening / closing part 2 is closed (in a state in which the housing is folded). It is possible to contact. In addition, even when the lid is closed, the sensor 5 is installed at a position where it can be touched by a finger of a part of the hand while gripping the same position as the gripping position when the lid is opened. Have. As the installation position of such a sensor 5, the side surface and the back surface of the terminal device 1 are typical. By doing so, the terminal device 1 can be operated using the sensor 5 regardless of whether the lid is opened or closed.

図4は、端末装置1の構成を示すブロック図である。図においてヒンジ機構4及びセンサ5は、図1に示した同一符号の構成部位と同じものである。ヒンジ機構4は、開閉部位2と本体部位3とを開閉自在に結合するのみならず、開閉部位2を開閉する操作を検出して、それぞれの操作で信号が発生するようなスイッチ機能を内蔵している。このようなスイッチ機能を有するヒンジ機構は、折り畳み式の携帯電話端末などですでに広く利用されているものであるので、ここではその構造について詳述しない。   FIG. 4 is a block diagram illustrating a configuration of the terminal device 1. In the figure, the hinge mechanism 4 and the sensor 5 are the same as the components having the same reference numerals shown in FIG. The hinge mechanism 4 not only connects the opening / closing part 2 and the body part 3 so as to be freely opened / closed, but also has a built-in switch function that detects an operation to open / close the opening / closing part 2 and generates a signal in each operation. ing. Since such a hinge mechanism having a switch function is already widely used in a foldable mobile phone terminal or the like, its structure will not be described in detail here.

またセンサ5は、表面に接触した物体の接触位置を電気信号として出力するセンサである。なお、このようなセンサの実現方式としては、センサ表面を圧力で押した場合にセンサ本体に変形が生じ、その変形によってセンサの電気抵抗の特性に生じた変化を電気信号として出力する感圧センサ方式や、導体が表面付近に接近した場合に静電容量特性に生じる変化を電気信号として出力する非接触型静電容量センサ方式などを初めとする各種方式が知られているが、センサ5に採用するセンサは、物体の接触位置を検出できるものであれば如何なる方式であってもよい。また物体の接触位置の出力の仕方としては、センサ信号を処理する回路がセンサから接触位置の時系列(接触位置の時間変化)が得られるようになっていればどのような方法であってもよく、例えば、センサがその回路に対して割り込み信号を出力するようにしていてもよいし、センサの信号処理回路からポーリングによってセンサの状態を取得するようにしてもよい。   The sensor 5 is a sensor that outputs a contact position of an object in contact with the surface as an electric signal. As a method for realizing such a sensor, when the sensor surface is pressed with pressure, the sensor body is deformed, and a change in the electric resistance characteristic of the sensor due to the deformation is output as an electric signal. Various methods are known, including a non-contact type capacitive sensor method that outputs a change that occurs in capacitance characteristics as an electrical signal when a conductor approaches the vicinity of the surface. Any sensor may be used as long as it can detect the contact position of an object. The contact position of the object can be output by any method as long as the circuit that processes the sensor signal can obtain the time series of the contact position (time change of the contact position) from the sensor. For example, the sensor may output an interrupt signal to the circuit, or the sensor state may be acquired by polling from the signal processing circuit of the sensor.

図5は、このようなセンサ5の構成例を示した図である。図の拡大部分はセンサ5が拡大した状態で示されている。この例におけるセンサ5は小さな圧電素子5−1〜5−Nからなる配列で構成されている。圧電素子5−1〜5−Nはそれぞれ独立した圧電素子となっており、物体等が表面と接触することで圧迫を検出した場合に、独立して信号を出力できるようになっている。この結果、複数の部位がそれぞれ押された状態と押されていない状態の2値で表されることとなる。ここでは圧電素子5−1〜5−Nのそれぞれが押された状態を「1」と表現し、押されていない状態(通常の状態)を「0」と表現することとする。このように、このセンサ5の構成例では、各圧電素子は押されているか押されていないかの2値で表現されるため、圧力の絶対値を取得しない。しかし後述するように、このような構成のセンサにもかかわらず、この発明によれば安定した操作性を実現することができる。なお、以降においては、センサ5は状態が変化した場合に割り込み信号を出力することができるようになっているものとし、また必要に応じて現在の状態を取得できる(ポーリング可能な)ようになっているものとして説明を進める。   FIG. 5 is a diagram showing a configuration example of such a sensor 5. The enlarged portion of the figure is shown with the sensor 5 enlarged. The sensor 5 in this example is composed of an array composed of small piezoelectric elements 5-1 to 5-N. Each of the piezoelectric elements 5-1 to 5-N is an independent piezoelectric element, and can output a signal independently when pressure is detected by contact of an object or the like with the surface. As a result, each of the plurality of parts is represented by a binary value in a pressed state and a non-pressed state. Here, a state where each of the piezoelectric elements 5-1 to 5-N is pressed is expressed as “1”, and a state where the piezoelectric elements are not pressed (normal state) is expressed as “0”. As described above, in the configuration example of the sensor 5, each piezoelectric element is expressed by a binary value indicating whether the piezoelectric element is pressed or not pressed, and thus the absolute value of the pressure is not acquired. However, as will be described later, in spite of such a sensor, stable operability can be realized according to the present invention. In the following, it is assumed that the sensor 5 can output an interrupt signal when the state changes, and the current state can be acquired if necessary (can be polled). The explanation will proceed as if it were.

ジェスチャ識別手段6は、センサ5が出力する接触位置の時系列を処理し、ジェスチャを切り出す回路又は素子である。ただしジェスチャ識別手段6は、コンピュータプログラムと中央演算装置との組み合わせによって同様の機能を実現するように構成されていても構わない。ジェスチャ辞書7は、ジェスチャ識別手段6が切り出すジェスチャのパターンをデータとして記憶する記憶素子又は回路、あるいは記憶媒体である。   The gesture identifying means 6 is a circuit or element that processes a time series of contact positions output from the sensor 5 and cuts out a gesture. However, the gesture identifying means 6 may be configured to realize a similar function by a combination of a computer program and a central processing unit. The gesture dictionary 7 is a storage element or circuit or a storage medium that stores a gesture pattern cut out by the gesture identification unit 6 as data.

制御手段8は、端末装置1の備えている機能であって、ジェスチャが表している一纏まりの機能を、ジェスチャ識別手段6が切り出したジェスチャに合わせて選択し、実行する回路又は素子である。その場合には、ヒンジ機構4が開蓋時・閉蓋時に出力する信号を記憶することで、現在の開閉部位2の状態に応じて、実行する機能を選択するようになっている。   The control means 8 is a function of the terminal device 1 and is a circuit or element that selects and executes a group of functions represented by the gesture according to the gesture cut out by the gesture identification means 6. In this case, the function to be executed is selected according to the current state of the opening / closing part 2 by storing a signal output when the hinge mechanism 4 is opened or closed.

ここで、「一纏まりの機能」とは、操作者が操作によって意識的に選択する機能の単位(まとまり)をいう。例えば携帯電話の場合、発呼をする操作においてさまざまな処理が行われるが、操作者はそれらの処理の一つ一つを分解した形で操作しようと意識するのではなく、「発呼」という一纏まりの機能を操作により選択するのである。このような機能はテンキーや拡張キーなどを一回又は数回操作することで選択できるようになっていることが多い。したがって「一纏まりの機能」とは、テンキー又は拡張キー、ショートカットキーを操作することで操作者が選択しうる機能、と考えることができる。但し、ここでいう一纏まりの機能とは、予めメニュー項目などの形で選択可能とされた機能には限定されず、例えば操作者が事後的にカスタマイズにより追加定義していくマクロ機能(複数の機能の組み合わせ)やアプリケーションプログラムを導入することによって拡張した機能のようなものも「一纏まりの機能」の中に含まれるものとする。   Here, “a group of functions” refers to a unit (group) of functions that an operator consciously selects by operation. For example, in the case of a mobile phone, various processes are performed in the operation of making a call, but the operator is not conscious of operating each of these processes in a disassembled form, but called “call”. A group of functions is selected by operation. In many cases, such a function can be selected by operating a numeric keypad or an extended key once or several times. Therefore, the “collective functions” can be considered as functions that the operator can select by operating the numeric keypad, the extended key, or the shortcut key. However, the group of functions mentioned here is not limited to functions that can be selected in the form of menu items in advance. For example, a macro function (multiple functions that an operator defines later by customization) A combination of functions) and functions expanded by introducing an application program are also included in the “collective functions”.

なお、制御手段8も、ジェスチャ識別手段6と同じように、コンピュータプログラムと中央演算装置との組み合わせによって同様の機能を実現するように構成されていてもよい。またジェスチャ識別手段6と制御手段8を必ずしも別体に構成する必要はなく、同一のCPUによって構成しコンピュータプログラムのサブルーチンレベル、あるいは処理ステップレベルでそれぞれの機能を果たすように構成してもよいのである。   Note that, similarly to the gesture identification unit 6, the control unit 8 may also be configured to realize the same function by a combination of a computer program and a central processing unit. In addition, the gesture identification means 6 and the control means 8 do not necessarily have to be configured separately, and may be configured by the same CPU so as to perform the respective functions at the subroutine level of the computer program or at the processing step level. is there.

タイマ9は、ジェスチャ識別手段6や制御手段8に必要に応じてクロック信号を供給する回路又は素子であって、水晶発振子などを用いて構成される。機能テーブル10は、ジェスチャとそのジェスチャに対応する機能の対応表であって、図示せぬ記憶素子又は回路、記憶媒体などに記憶される情報である。   The timer 9 is a circuit or element that supplies a clock signal to the gesture identification unit 6 and the control unit 8 as necessary, and is configured using a crystal oscillator or the like. The function table 10 is a correspondence table of gestures and functions corresponding to the gestures, and is information stored in a storage element or circuit (not shown), a storage medium, or the like.

なお、端末装置1は、携帯電話を例として構成したものであるので、図4に示した構成要素以外に、無線信号を送受信する部位や電源制御を行う部位、キー操作部、LEDや表示部などの構成要素を備えているが、それらの部位の構成や実現方式は、この発明の構成には直接影響するものではないので、ここでは説明を省略する。   Since the terminal device 1 is configured by taking a mobile phone as an example, in addition to the components shown in FIG. 4, a part for transmitting and receiving a radio signal, a part for power control, a key operation part, an LED and a display part However, the configuration and implementation method of these parts do not directly affect the configuration of the present invention, and thus the description thereof is omitted here.

続いて、端末装置1の動作について説明する。端末装置1の動作は、ジェスチャ識別手段6における処理と制御手段7における処理とに大別される。始めにジェスチャ識別手段6における処理について説明する。図6は、ジェスチャ識別手段6の処理のフローチャートである。まずセンサ5に指が接触すると、センサ5の圧電素子5−1〜5−Nのいずれかが割り込み信号を発生し、ジェスチャ識別手段6にジェスチャの開始を通知する。これを受けてジェスチャ識別手段6において、図6の処理が活性化される。   Next, the operation of the terminal device 1 will be described. The operation of the terminal device 1 is roughly divided into processing in the gesture identification unit 6 and processing in the control unit 7. First, processing in the gesture identification unit 6 will be described. FIG. 6 is a flowchart of the process of the gesture identification unit 6. First, when the finger touches the sensor 5, one of the piezoelectric elements 5-1 to 5 -N of the sensor 5 generates an interrupt signal and notifies the gesture identification unit 6 of the start of the gesture. In response to this, the gesture identification means 6 activates the processing of FIG.

図において、ジェスチャ識別手段6はセンサ5に対してポーリングを行い、現在の状態を取得する(ステップS1)。ここで取得される現在の状態とは、圧電素子5−1〜5−Nそれぞれの状態が「1」(押されている状態)か「0」(押されていない状態)のいずれかで表現された1と0の配列である。続いて、指がセンサ5を接触する接触面の大きさが所定値を超えているかどうかを調べる(ステップS2)。指は一定の大きさを有しているので、指がセンサ5に接触すると複数個の圧電素子が同時に「1」の状態となりうる。しかもその場合には、「1」の状態となる圧電素子は隣接する。したがって隣接する圧電素子であって、状態が「1」となっている圧電素子の個数を数えることによって、接触面の大きさを取得することができる。ここで、指は表面が柔らかいので、センサ5に軽く接している状態(例えば、図7)に比べれば、強く押した状態(例えば、図8)では、変形の度合いが大きく、接触面が広がる。このことから、接触面の大きさは指の圧力と相関があるといえる。   In the figure, the gesture identification means 6 polls the sensor 5 to acquire the current state (step S1). The current state acquired here is expressed by either “1” (pressed state) or “0” (not pressed state) of each of the piezoelectric elements 5-1 to 5 -N. Is a 1 and 0 array. Subsequently, it is checked whether or not the size of the contact surface with which the finger contacts the sensor 5 exceeds a predetermined value (step S2). Since the finger has a certain size, when the finger contacts the sensor 5, the plurality of piezoelectric elements can be simultaneously in a “1” state. In addition, in that case, the piezoelectric elements in the “1” state are adjacent to each other. Therefore, the size of the contact surface can be obtained by counting the number of adjacent piezoelectric elements whose state is “1”. Here, since the surface of the finger is soft, the degree of deformation is large and the contact surface is widened when pressed strongly (for example, FIG. 8) as compared to the state where the finger 5 is lightly touched (for example, FIG. 7). . From this, it can be said that the size of the contact surface has a correlation with the finger pressure.

このように、接触面の大きさを取得することで、圧力の絶対値を取得できないセンサ素子を使用していても、間接的に圧力に基づく処理が可能となる。そしてこの接触面の大きさが所定値を超えているか否かを検定することで、操作者が誤ってセンサ5に触れてしまった場合に発生する信号を棄却することが可能となる。   Thus, by acquiring the size of the contact surface, even if a sensor element that cannot acquire the absolute value of pressure is used, processing based on pressure can be indirectly performed. Then, it is possible to reject a signal generated when the operator accidentally touches the sensor 5 by examining whether or not the size of the contact surface exceeds a predetermined value.

また、ユーザが触る位置に基づいて操作を行うユーザインターフェースでは、接触開始直後において接触位置が変動するためにジェスチャの形状が不安定となることが多い。そのため、ステップS2のように、何らかの条件を設けて不安定な接触位置を棄却した方がよりしっかりした操作感が得られるのである。   Further, in a user interface that performs an operation based on a position touched by a user, the shape of the gesture often becomes unstable because the contact position fluctuates immediately after the start of contact. For this reason, as in step S2, it is possible to obtain a more stable operational feeling by disposing an unstable contact position under some condition.

ステップS2で、接触面の大きさが所定値を上回らない場合は、ステップS3に進む(ステップS2:No)。ステップS3では、タイマ9を用いて一定時間、例えば10ミリ秒が経過するまで待機し、その時間が経過後、再びステップS1に戻って次の状態の処理を行う。一方、ステップS2で、接触面の大きさが所定値を上回った場合はステップS4に進む。   If it is determined in step S2 that the size of the contact surface does not exceed the predetermined value, the process proceeds to step S3 (No in step S2). In step S3, the timer 9 is used to wait until a certain time, for example, 10 milliseconds elapses. After that time, the process returns to step S1 again to perform the next state. On the other hand, if the size of the contact surface exceeds a predetermined value in step S2, the process proceeds to step S4.

以上の処理は、接触面の大きさが所定値を上回らない場合に、その状態を棄却することで誤操作や処理の不安定感を取り除くことを目的としているが、この場合に状態を棄却せずに、すべての圧電素子の状態が「0」となっていると仮定して、ステップS4に進む制御を行っても構わない。   The purpose of the above processing is to eliminate erroneous operation and instability of processing by rejecting the state when the size of the contact surface does not exceed a predetermined value, but in this case the state is not rejected. In addition, assuming that the state of all the piezoelectric elements is “0”, the control may proceed to step S4.

また、より圧力値が直接得られるセンサを用いて構成している場合は、ステップS2を接触面の大きさではなく圧力値に基づいて検定するようにしてもよい。   Further, when the sensor is configured using a sensor that directly obtains the pressure value, step S2 may be verified based on the pressure value instead of the size of the contact surface.

続いて、このようにして取得した接触位置の情報を接触位置の時系列に追加する(ステップS4)。接触位置の時系列は、複数の接触位置データからなる配列であって、発生時刻順にデータが並べられたものである。ここでは、記憶容量を節約するために、「1」が連続する圧電素子の分布の中央値(分布の中心となる圧電素子の位置、あるいは分布の中心となる圧電素子を識別する情報)のみを採用して時系列の要素として記憶する。その際、タイマ9から現在時刻を取得して接触位置とともに時系列要素として記憶しておくようにしてもよい。   Subsequently, the information on the contact position acquired in this way is added to the time series of the contact position (step S4). The time series of contact positions is an array composed of a plurality of contact position data, and the data is arranged in order of occurrence time. Here, in order to save the storage capacity, only the median value of the distribution of piezoelectric elements in which “1” continues (the position of the piezoelectric element that is the center of the distribution, or information that identifies the piezoelectric element that is the center of the distribution) Adopt and store as time-series elements. At this time, the current time may be acquired from the timer 9 and stored as a time series element together with the contact position.

次に、ジェスチャが終了したかどうかを判断する(ステップS5)。ジェスチャの終了を判断する方法の例として、「1」の状態となっている圧電素子の個数が0個となったかどうかを判断する方法(第1の方法)が考えられる。ジェスチャ操作中は、指がセンサ5のいずれかの部位に接しているので、いずれかの圧電素子が「1」の状態となっている。そしてジェスチャが終了すると、指がセンサ5を離れるので、「1」の状態となっている圧電素子の個数が0個となる。したがって「1」の状態となっている圧電素子の個数が0個となったかどうかで、指がセンサ5に接しているかどうかを判別できる。この方法はセンサ5を指が離れたことをもって、ジェスチャが完了したと判断するものであり、指が離れると即座に、ジェスチャが完了した、と判断されることになる。   Next, it is determined whether or not the gesture has been completed (step S5). As an example of a method for determining the end of the gesture, a method (first method) for determining whether or not the number of piezoelectric elements in the “1” state has become zero can be considered. During the gesture operation, since the finger is in contact with any part of the sensor 5, any one of the piezoelectric elements is in the “1” state. When the gesture ends, the finger leaves the sensor 5, and the number of piezoelectric elements in the “1” state becomes zero. Therefore, whether or not the finger is in contact with the sensor 5 can be determined based on whether or not the number of piezoelectric elements in the “1” state becomes zero. In this method, it is determined that the gesture has been completed when the finger is released from the sensor 5, and it is immediately determined that the gesture has been completed when the finger is released.

また他に、定常状態が一定時間経過したことを検知する方法(第2の方法)が考えられる。これは、時系列要素の間の差分を求めることで検知することができる。すなわち一定数以上の時系列要素の間の差分が0(前後の要素が同じ)であれば、何ら新たな操作をセンサ5に加えていないことを意味するから、そのことをもってジェスチャの終了を判断するのである。   In addition, a method (second method) for detecting that a certain period of time has elapsed in the steady state can be considered. This can be detected by obtaining a difference between time series elements. In other words, if the difference between a certain number of time-series elements is 0 (the preceding and following elements are the same), it means that no new operation has been applied to the sensor 5, and that is the end of the gesture. To do.

ただし指をセンサ5に触れたまま状態変化が生じない場合は、操作者が操作に不慣れであったり、考えながら操作しているために、ジェスチャの途中であることも想定できるので、この場合においても「1」の状態となっている圧電素子の個数が0個となった状態が一定時間継続した場合に、ジェスチャ終了と判断するようにする。   However, if the state does not change with the finger touching the sensor 5, the operator is unfamiliar with the operation or operating while thinking, so it can be assumed that the gesture is in progress. If the state where the number of piezoelectric elements in the “1” state becomes zero continues for a certain period of time, it is determined that the gesture has ended.

第2の方法、すなわち一定時間が経過する間、状態変化が生じないことを利用してジェスチャの終了を判断する方法は、ジェスチャを中断しても再開できることを特徴としている。第1の方法の場合は、指がセンサ5から離れたら即座にジェスチャ終了と判断してしまうので、ジェスチャの再開という概念がない。また、第2の方法の場合は、ジェスチャの中断(指がセンサ5から離れている時間)までも操作の一環としてみなすことができるので、ジェスチャの自由度や組み合わせが豊富となり表現力が増すという利点がある。以降では、第2の方法に基づいてジェスチャ終了を判断するものとして説明することとする。しかし、第1の方法であってもジェスチャを利用することができるので、この発明の趣旨は達成される。   The second method, that is, the method of determining the end of the gesture by utilizing the fact that the state does not change during a certain period of time, is characterized in that it can be resumed even if the gesture is interrupted. In the case of the first method, since the gesture is immediately determined to end when the finger leaves the sensor 5, there is no concept of resuming the gesture. Further, in the case of the second method, since the gesture can be regarded as part of the operation even when the gesture is interrupted (the time when the finger is away from the sensor 5), the degree of freedom and combinations of the gestures are abundant and the expressive power increases. There are advantages. In the following description, it is assumed that the gesture end is determined based on the second method. However, since the gesture can be used even in the first method, the gist of the present invention is achieved.

なお、ステップS5において、ジェスチャ終了と判断されなかった場合は、ステップS3に進み(ステップS5:Yes)、ステップS1からの処理を繰り返す。   If it is determined in step S5 that the gesture has not ended, the process proceeds to step S3 (step S5: Yes), and the processing from step S1 is repeated.

また、ステップS5において、ジェスチャ終了と判断された場合は、ステップS6に進む。ここでは、これまでの接触位置の時系列をジェスチャに変換する。この構成では、一定時間が経過することを条件としてジェスチャ終了の判断する方法(第2の方法)を採用しているので、時系列の中には、指がセンサ5に接触していない状態(圧電素子がすべて「0」の状態)も含まれている。   If it is determined in step S5 that the gesture has ended, the process proceeds to step S6. Here, the time series of the previous contact positions are converted into gestures. In this configuration, since a method (second method) for determining the end of the gesture is employed on condition that a certain time has elapsed, the state in which the finger is not in contact with the sensor 5 in the time series ( The state in which the piezoelectric elements are all “0”) is also included.

次に、時系列を移動量ベクトルに変換する(ステップS6)。移動量ベクトルとは時系列要素間の接触位置の変化量(差分)であるが、変化する方向に応じて、例えば図9に示すような符号を付することとする。そして移動量ベクトルに変換された入力時系列とジェスチャ辞書8に記憶されている各ジェスチャパターンとの距離値を算出する(ステップS7)。   Next, the time series is converted into a movement amount vector (step S6). The movement amount vector is the amount of change (difference) in the contact position between the time series elements, and for example, a symbol as shown in FIG. 9 is attached according to the changing direction. Then, a distance value between the input time series converted into the movement amount vector and each gesture pattern stored in the gesture dictionary 8 is calculated (step S7).

ジェスチャ辞書8に記憶されているジェスチャパターンは、この端末装置1によって認識可能なジェスチャの基本的な時系列情報であり、例えば図10に示すようなパターン(ジェスチャ1〜ジェスチャ11)などの移動量ベクトルの時系列情報が予め記憶されている。ここに記憶されるジェスチャパターンの特徴は、ストローク操作(センサ5の表面を指で一方向のみになぞる操作)とタップ操作(センサ5の表面に一時的に接触する操作)を最小単位とした場合に、これらの最小単位を2つ以上含んだ組み合わせとして構成されているという点である。   The gesture patterns stored in the gesture dictionary 8 are basic time-series information of gestures that can be recognized by the terminal device 1. For example, movement amounts such as patterns (gesture 1 to gesture 11) as shown in FIG. Vector time-series information is stored in advance. The feature of the gesture pattern stored here is when the stroke operation (operation that traces the surface of the sensor 5 in only one direction with a finger) and the tap operation (operation that temporarily touches the surface of the sensor 5) are the minimum units. Further, it is configured as a combination including two or more of these minimum units.

このような構成を採用することで、次のような効果が生じる。まず、携帯電話の筐体側面のように限られたスペースに接触センサを配置した場合、設置面の一定方向になぞる(ストローク操作)か、タップ操作程度の操作バリエーションしかないが、これらを複数組み合わせることで複雑なジェスチャパターンを作り出せる。したがって異なるジェスチャを多くの機能に対応させることが可能となり、ジェスチャ操作の適用範囲を広げることができる。   By adopting such a configuration, the following effects are produced. First, when the contact sensor is placed in a limited space such as the side of the case of a mobile phone, it can be traced in a fixed direction on the installation surface (stroke operation) or has only an operation variation equivalent to a tap operation. This makes it possible to create complex gesture patterns. Therefore, it becomes possible to make different gestures correspond to many functions, and the application range of the gesture operation can be expanded.

また、ジェスチャの最小単位一つだけで機能選択をさせることも考えられるが、センサ5は筐体外部に露出しているものであるため、誤操作も生じやすい。最小単位となるジェスチャを複数組み合わせることで、かかる誤操作の可能性を減じることができるのである。   Further, although it is conceivable to select a function with only one minimum unit of gesture, since the sensor 5 is exposed outside the housing, an erroneous operation is likely to occur. By combining a plurality of gestures as minimum units, the possibility of such an erroneous operation can be reduced.

ジェスチャパターンとの距離値の算出は、一般的なパターン照合技術を用いて行う。このようなパターン照合技術はいくつか知られており、どのような方法でパターン照合を行ってもよい。以下の説明では、そのような方法の例として、DP(Dynamic Programming)マッチングによる方法を紹介する。   The calculation of the distance value with the gesture pattern is performed using a general pattern matching technique. Several such pattern matching techniques are known, and pattern matching may be performed by any method. In the following description, a method based on DP (Dynamic Programming) matching is introduced as an example of such a method.

入力時系列およびジェスチャパターンのi番目のベクトル要素をそれぞれf(i)、g(i)とし、d(i,j)を入力時系列のi番目のベクトル要素とジェスチャパターンのj番目のベクトル要素との絶対値距離d(i,j)=|f(i)−g(j)|により算出する。そして、入力時系列のi番目のベクトル要素とジェスチャパターンのj番目のベクトル要素との差を算出する際のDP評価値h(i,j)を以下のように算出し、これをDPマッチングによる距離値とする。

Figure 0004015133
The i-th vector element of the input time series and the gesture pattern are f (i) and g (i), respectively, and d (i, j) is the i-th vector element of the input time series and the j-th vector element of the gesture pattern. Absolute value distance d (i, j) = | f (i) −g (j) | Then, a DP evaluation value h (i, j) for calculating the difference between the i-th vector element of the input time series and the j-th vector element of the gesture pattern is calculated as follows, and this is calculated by DP matching. The distance value.
Figure 0004015133

なお上式において、DP_PENALTYは1対1の対応付け以外の場合のペナルティ値を表している。つまり対応付けを行う入力時系列のベクトル要素とジェスチャパターンのベクトル要素とが1対1の対応付けとならない場合、多対1あるいは1対多の対応付けを行うが、この場合は多対1あるいは1対多の対応付けを評価値として表す必要がある。例えば、入力時系列のベクトル要素が上方向で、ジェスチャパターンのベクトル要素が下方向となった場合、両者を対応づけたときの評価値は、−1(上方向)と+1(下方向)なので2となるが、この場合は対応付けが正しく行えていないので、ペナルティ値をこの評価値に加えることとしたものである。   In the above equation, DP_PENALTY represents a penalty value other than one-to-one correspondence. In other words, when the input time series vector element to be associated and the vector element of the gesture pattern do not have a one-to-one correspondence, a many-to-one or one-to-many association is performed. One-to-many correspondence needs to be expressed as an evaluation value. For example, when the input time series vector element is in the upward direction and the gesture pattern vector element is in the downward direction, the evaluation values when both are associated are -1 (upward) and +1 (downward). In this case, since the association is not correctly performed, the penalty value is added to the evaluation value.

また、このようなペナルティ値を事後的に増減して評価値を調整するのではなく、最初の数値化の段階で、上方向を−N、下方向を+Nすることで、正しく対応付けができなかった場合の評価値を大きくすることも可能である。   In addition, instead of adjusting the evaluation value by exaggerating the penalty value afterwards, it is possible to correctly associate by setting -N for the upward direction and + N for the downward direction at the initial numerical stage. It is also possible to increase the evaluation value when there is not.

このように、DPマッチングによって、ジェスチャパターンとの距離値を算出することとしたので、時間的に操作パターンが変動しても適切なジェスチャパターンを選択することができる。また例えば、上から下へのストローク操作と下から上へのストローク操作とを一続きの操作(上→下→上)で行うような簡単な変形にも容易に対応できるのである。   As described above, since the distance value to the gesture pattern is calculated by DP matching, an appropriate gesture pattern can be selected even if the operation pattern fluctuates with time. Further, for example, it is possible to easily cope with a simple deformation in which a stroke operation from the top to the bottom and a stroke operation from the bottom to the top are performed by a series of operations (up, down, up).

なお、ステップS5において、指がセンサ5の表面から離れる動作が発生しても、即座にジェスチャの終了とは判断しないこととしたので、時系列の中には「1」の圧電素子数のが0個の状態の時系列要素が含まれることになる。この場合の移動量ベクトルは次のようにして算出する。すなわち、その前において指がセンサ5の表面に接していた状態と、その後において指がセンサ5の表面に接していた状態との差異に基づいて方向と移動ベクトルの絶対値を与えることとする。例えば、上から下になぞるストローク操作を続けて二回高速に行う場合、指がセンサ5の表面に接していない間の指の移動速度は大きくなると考えられる。またタップ操作を二回繰り返すような場合は、ほぼ同じ位置を二回タップすることが多いので、指の移動速度はほぼ0と考えられる。このように、指が離れている前後のセンサ5に接していた状態に基づいて、指が離れている間の移動量ベクトルを補完することで、ジェスチャの動きを適切に数値化することが可能となる。   In step S5, even if the movement of the finger away from the surface of the sensor 5 occurs, it is not immediately determined that the gesture has ended. Therefore, the number of piezoelectric elements of “1” is not included in the time series. A time series element of 0 states is included. The movement amount vector in this case is calculated as follows. That is, the absolute value of the direction and the movement vector is given based on the difference between the state in which the finger is in contact with the surface of the sensor 5 before that and the state in which the finger is in contact with the surface of the sensor 5 after that. For example, when the stroke operation that traces from the top to the bottom is continuously performed twice at high speed, it is considered that the moving speed of the finger increases while the finger is not in contact with the surface of the sensor 5. In addition, when the tap operation is repeated twice, the finger movement speed is considered to be almost zero because the same position is often tapped twice. As described above, it is possible to appropriately quantify the movement of the gesture by complementing the movement amount vector while the finger is separated based on the state where the finger is in contact with the sensor 5 before and after the finger is separated. It becomes.

最後に、このようにしてジェスチャパターンごとに算出したDPマッチングの距離値の中で、入力時系列との最も距離値が小さいジェスチャパターンをジェスチャ識別手段の処理結果として出力する(ステップS8)。   Finally, among the DP matching distance values calculated for each gesture pattern in this way, the gesture pattern having the smallest distance value with respect to the input time series is output as the processing result of the gesture identifying means (step S8).

次に制御手段8の処理について説明する。制御手段8は、ジェスチャ識別手段6によって特定されたジェスチャパターンを取得し、このジェスチャパターンに対応する機能を機能テーブル10から特定して、その機能を実行する。図11は、機能テーブル10の内容の例を示す図である。図が示すように、機能テーブル10はジェスチャパターンを識別する情報と、そのジェスチャパターンに対応する開蓋時の機能と閉蓋時の機能との対応表である。表において、「−」(ハイフン)は、対応する機能が存在しない、すなわち、このようなジェスチャ操作を行っても何も機能が実行されないことを意味する。なお、図11に示した例では同一のジェスチャに対する開蓋時機能と閉蓋時機能は常に同一か、あるいは閉蓋時機能がなく開蓋時機能のみが指定されている例のみに限られているが、このような例に限定されるものではなく、
また、すでに述べたように開閉部位2が開蓋状態にあるのか閉蓋状態にあるのか、については、閉蓋操作・開蓋操作に伴ってヒンジ機構4から送出される信号に基づいて判断する。このようにして、制御手段8は、この表を参照してジェスチャ識別手段6が特定したジェスチャパターンに対応する機能を実行するのである。
Next, processing of the control means 8 will be described. The control means 8 acquires the gesture pattern specified by the gesture identification means 6, specifies the function corresponding to this gesture pattern from the function table 10, and executes the function. FIG. 11 is a diagram illustrating an example of the contents of the function table 10. As shown in the figure, the function table 10 is a correspondence table between information for identifying a gesture pattern, and a function at the time of opening and a function at the time of closing corresponding to the gesture pattern. In the table, “-” (hyphen) means that the corresponding function does not exist, that is, no function is executed even if such a gesture operation is performed. In the example shown in FIG. 11, the opening function and the closing function for the same gesture are always the same, or only the opening function is specified without the closing function. However, it is not limited to such an example,
Further, as described above, whether the opening / closing part 2 is in the open state or the closed state is determined based on a signal sent from the hinge mechanism 4 in accordance with the closing operation / opening operation. . In this way, the control means 8 executes a function corresponding to the gesture pattern specified by the gesture identification means 6 with reference to this table.

このように、端末装置1によれば、筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置に装着されたセンサ5に対して指によるジェスチャ操作を行うことにより操作可能としたので、多様な操作を片手で行うことが可能となる。   As described above, according to the terminal device 1, a gesture operation with a finger is performed on the sensor 5 mounted at a position where the hand that holds the casing can be touched with the finger of the hand while the hand is held at a position where the key can be operated. Since it is possible to operate by performing, various operations can be performed with one hand.

また、ジェスチャ識別手段6によってジェスチャを切り出し、切り出したジェスチャを複数個組み合わせてジェスチャパターンとした上で、ジェスチャパターンに対応する一纏まりの機能を選択して実行するようにしたので、接触センサを用いたユーザインターフェースにもかかわらず、しっかりとした操作感で操作することが可能となる。   In addition, the gesture identifying means 6 cuts out a gesture, combines a plurality of the cut out gestures into a gesture pattern, and selects and executes a set of functions corresponding to the gesture pattern. The user interface can be operated with a solid operational feeling regardless of the user interface.

またセンサ5を開蓋時と閉蓋時のどちらでも操作できる位置に配置したので、開蓋時のみならず閉蓋時においてもジェスチャ操作が可能である。さらに、機能テーブル10に、各ジェスチャパターンに対応する開蓋時の機能と閉蓋時の機能を記憶させることとし、ヒンジ機構4から得られた閉開蓋情報に基づいてジェスチャパターンに対応するいずれかの機能を選択することとしたので、閉蓋状態・開蓋状態のそれぞれの状態に合わせて最適な機能をジェスチャにより独立して選択できる。   Further, since the sensor 5 is disposed at a position where it can be operated both when the lid is opened and when the lid is closed, gesture operation is possible not only when the lid is opened but also when the lid is closed. Further, the function table 10 stores the function at the time of opening and the function at the time of closing corresponding to each gesture pattern, and any of the functions corresponding to the gesture pattern based on the information on the closing and opening of the cover obtained from the hinge mechanism 4 is stored. Since such a function is selected, an optimal function can be independently selected by a gesture according to the closed state and the open state.

また閉蓋時と開蓋時で独立した機能を対応付けるように構成したことにより、ジェスチャ操作で選択できる機能を制限できる。このため、閉蓋状態で端末装置1を持ち運ぶ場合などに、センサ5に物体が接触する等の原因により、誤ってジェスチャ識別してしまっても、一部の機能が実行されないように制限することが可能なのである。   Further, by configuring the functions so as to be associated with each other when the lid is closed and when the lid is opened, the functions that can be selected by the gesture operation can be limited. For this reason, when carrying the terminal device 1 in a closed state, even if a gesture is mistakenly identified due to an object touching the sensor 5 or the like, it is limited so that some functions are not executed. Is possible.

なお、この発明の実施の形態1においては、この発明による端末装置として、携帯電話端末を例にとって説明した。しかしこのことは、この発明に係る端末装置が携帯電話端末に限定されることを意味するものではない。つまりこの発明は、PDA(Personal Digital Assistant)や電子辞書のような携帯情報機器、さらには固定式電話機の受話器部分(子機を含む)や家電機器のリモコン端末のように片手で把持可能であって、さらにキーを押下して機能選択し操作を行うようになっているあらゆる端末装置に広く適用できるのである。   In the first embodiment of the present invention, a mobile phone terminal has been described as an example of the terminal device according to the present invention. However, this does not mean that the terminal device according to the present invention is limited to a mobile phone terminal. In other words, the present invention can be held with one hand such as a portable information device such as a PDA (Personal Digital Assistant) or an electronic dictionary, a receiver unit (including a slave unit) of a fixed telephone, or a remote control terminal of a home appliance. In addition, the present invention can be widely applied to all terminal devices that are further operated by selecting a function by pressing a key.

さらに、この発明の実施の形態1においては、1次元の接触位置を出力するセンサを用いて構成しているが、接触位置やジェスチャの形状は1次元に限定されるものではなく、2次元であってもよい。2次元のジェスチャのマッチングについても、上述したDPマッチングで行うことが可能であることは広く知られている。   Furthermore, in Embodiment 1 of the present invention, the sensor is used to output a one-dimensional contact position, but the contact position and the shape of the gesture are not limited to one dimension, but two-dimensional. There may be. It is well known that two-dimensional gesture matching can be performed by the above-described DP matching.

また、この発明の実施の形態1においては、ジェスチャ識別手段6においてジェスチャの組み合わせを切り出すこととしたが、この他にもジェスチャ識別手段6で一つ一つのジェスチャ(ストローク操作やタップ操作)を切り出しておき、制御手段8でジェスチャの組み合わせを構成するようにしてもよい。   In the first embodiment of the present invention, the gesture identification unit 6 cuts out a combination of gestures. In addition to this, each gesture (stroke operation or tap operation) is cut out by the gesture identification unit 6. In addition, the control means 8 may constitute a combination of gestures.

実施の形態2.
実施の形態1では、接触センサを用いてこの発明の端末装置1を構成する例について説明したが、接触センサに替えて非接触型センサを用いても構成できる。この発明の実施の形態2による端末装置はかかる特徴を有するものである。
Embodiment 2. FIG.
In Embodiment 1, although the example which comprises the terminal device 1 of this invention using a contact sensor was demonstrated, it replaces with a contact sensor and can also comprise using a non-contact type sensor. The terminal device according to the second embodiment of the present invention has such a feature.

図12は、この発明の実施の形態2による端末装置の正面図である。図において、端末装置11は回動可能な部位12(以下、回動部位12という)を有する携帯電話装置である。本体部位13は回動部位12と図示せぬヒンジ機構14によって回動自在に結合されている。センサ15は、実施の形態1におけるセンサ5と同じように、端末装置11の筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置に装着されている。なお、図13は回動部位12の角度を変えた状態の正面図である。また図14は、回動部位12を本体部位13に重ね合わせた状態の正面図である。この図が示すように、回動部位12は、本体部位13の正面の一部(キー操作部)を覆い隠すように開閉自在に装着された部位であって、図14のように回動部位12と本体部位13とをほぼ完全に重ね合わせた状態を、閉蓋時と呼ぶこととする。またそうでない状態のことを開蓋時という。   FIG. 12 is a front view of a terminal device according to Embodiment 2 of the present invention. In the figure, a terminal device 11 is a mobile phone device having a rotatable part 12 (hereinafter referred to as a rotational part 12). The main body part 13 is rotatably coupled to the pivot part 12 by a hinge mechanism 14 (not shown). Similar to the sensor 5 in the first embodiment, the sensor 15 is mounted at a position where the hand that holds the casing of the terminal device 11 can be touched by the finger of the hand while maintaining the hand operable position. . FIG. 13 is a front view showing a state in which the angle of the rotating portion 12 is changed. FIG. 14 is a front view showing a state in which the rotating part 12 is superposed on the main body part 13. As shown in this figure, the rotating part 12 is a part that is mounted so as to be openable and closable so as to cover part of the front surface (key operation part) of the main body part 13, and as shown in FIG. A state in which the body part 13 and the body part 13 are almost completely overlapped is referred to as a closed state. The state that is not so is called when the lid is opened.

図15は、端末装置11の構成を示すブロック図である。図において、ヒンジ機構14は、実施の形態1におけるヒンジ機構4と同じように開閉操作に伴って、その操作が行われたことを通知する信号を端末装置11の制御部分に送出するようになっている。センサ15は、図12〜図14のセンサ15と同じものであり、非接触型センサであることを特徴としている。このような非接触型センサの例としては、米国Cirque社のTSM9910や、米国Synaptics社製TouchPadなどの静電容量型非接触センサなどがある。これらのセンサは、導体である人体の一部がセンサ表面に近づくことによって生じる静電容量の変化を検知し、そのことを電気信号として出力することが主な原理とされている。しかしながら、この発明においてはいかなる原理でセンサ表面への接近を検出してもよく、例えば赤外線や温度変化を用いてセンサ表面への接近を検出するようなでもよいのである。なお、以下の説明ではセンサ15が静電容量型非接触センサを用いて構成されているものとして説明する。   FIG. 15 is a block diagram illustrating a configuration of the terminal device 11. In the figure, the hinge mechanism 14 sends a signal notifying that the operation has been performed to the control part of the terminal device 11 in accordance with the opening / closing operation in the same manner as the hinge mechanism 4 in the first embodiment. ing. The sensor 15 is the same as the sensor 15 of FIGS. 12 to 14 and is characterized by being a non-contact type sensor. As an example of such a non-contact type sensor, there is a capacitance type non-contact sensor such as TSM9910 manufactured by Circue USA or TouchPad manufactured by Syntactics USA. The main principle of these sensors is to detect a change in capacitance that occurs when a part of the human body that is a conductor approaches the sensor surface, and output this as an electrical signal. However, in the present invention, the approach to the sensor surface may be detected by any principle, for example, the approach to the sensor surface may be detected using infrared rays or temperature change. In the following description, it is assumed that the sensor 15 is configured using a capacitive non-contact sensor.

ジェスチャ操作履歴16は、操作者がセンサ15に対して行ったジェスチャ操作に関する情報のうち、ジェスチャ操作の速さを表す情報、例えば各ジェスチャ完了までの所要時間を蓄積し、記憶するジェスチャ操作履歴ファイルであり、記憶素子や記憶回路、又は記憶媒体を用いて構成されている。所要時間算出手段17は、ジェスチャ操作履歴16に記憶されているジェスチャ操作の速さを表す情報に基づいて、ジェスチャ操作完了の所要時間の最大値算出する部位である。なお、所要時間算出手段17は、コンピュータプログラムと中央演算装置との組み合わせによって同様の機能を実現するように構成されていてもよい。   The gesture operation history 16 is a gesture operation history file that accumulates and stores information indicating the speed of the gesture operation, for example, the time required for completion of each gesture among the information related to the gesture operation performed by the operator on the sensor 15. And is configured using a storage element, a storage circuit, or a storage medium. The required time calculation means 17 is a part that calculates the maximum value of the required time for completing the gesture operation based on the information indicating the speed of the gesture operation stored in the gesture operation history 16. The required time calculation means 17 may be configured to realize a similar function by a combination of a computer program and a central processing unit.

なお、その他図4と同一の符号を付された構成要素については実施の形態1と同様であるので、説明を省略する。また端末装置11は、この発明の実施の形態の一例として、携帯電話として構成したものである。したがって、図15に示した構成要素以外に、無線部や電源制御部、テンキー、LEDや表示部などの構成要素を備えているが、そのような構成要素の実現方式は、この発明の構成には直接影響するものではないので、それらの部位についても説明を省略する。   The other components denoted by the same reference numerals as those in FIG. 4 are the same as those in the first embodiment, and thus the description thereof is omitted. The terminal device 11 is configured as a mobile phone as an example of the embodiment of the present invention. Therefore, in addition to the components shown in FIG. 15, components such as a wireless unit, a power supply control unit, a numeric keypad, an LED, and a display unit are provided. The implementation method of such components is the configuration of the present invention. Since these do not directly affect, explanation of these parts is also omitted.

続いて、端末装置11の動作について説明する。図14は、端末装置11の動作のフローチャートである。なお、図14において図6のフローチャートと同一の符号を付したステップは、実施の形態1と同様であるので、ここでは異なる動作ステップ部分についてのみ説明を行うこととする。   Next, the operation of the terminal device 11 will be described. FIG. 14 is a flowchart of the operation of the terminal device 11. In FIG. 14, steps denoted by the same reference numerals as those in the flowchart of FIG. 6 are the same as those in the first embodiment, and therefore only different operation step portions will be described here.

まずセンサ15に指が接近すると、センサ15は割り込み信号を発生し、ジェスチャ識別手段6にジェスチャの開始を通知する。これを受けてジェスチャ識別手段6では図14の処理が活性化され、処理が開始される。それと同時に、センサ15は、いくつかのプロット(代表点)における指とセンサ表面との距離の情報を表す信号をプロット毎に出力する。この信号は、図15に示すように表面と接触しているプロット(距離0)で最大となり、一定の距離以上離れたプロットでは0となる。したがって最大値となるプロットの個数を数えれば、接触面の大きさを求めることができる。   First, when a finger approaches the sensor 15, the sensor 15 generates an interrupt signal and notifies the gesture identification unit 6 of the start of the gesture. In response to this, the gesture identification means 6 activates the process of FIG. 14 and starts the process. At the same time, the sensor 15 outputs a signal representing information on the distance between the finger and the sensor surface in several plots (representative points) for each plot. As shown in FIG. 15, this signal becomes maximum when the plot is in contact with the surface (distance 0), and becomes zero when the plot is separated by a certain distance or more. Therefore, if the number of plots having the maximum value is counted, the size of the contact surface can be obtained.

また最大値のプロットに替えて、一定値以上の信号値となるプロットの個数を数えることでも、接触面の大きさと同等の情報を得ることができる。これによって非接触ではあるが、センサ表面に指を接触させている状態の情報も取得できるので、識別可能なジェスチャパターンの数を増やすことができ、したがって数多くの機能をそれぞれ特有のジェスチャ操作で指示することが可能となる。   Also, by replacing the maximum value plot with the number of plots having a signal value equal to or greater than a certain value, information equivalent to the size of the contact surface can be obtained. As a result, it is possible to obtain information on the state where the finger is in contact with the sensor surface even though it is non-contact, so that the number of identifiable gesture patterns can be increased, and therefore many functions can be indicated by specific gesture operations. It becomes possible to do.

ステップS1でこのセンサ15の状態を取得し、以降ステップS2〜S4まで処理を行った時点で、ジェスチャ識別手段6は、所要時間算出手段17を用いて、ジェスチャ完了の所要時間の最大値を算出する。所要時間算出手段17は、ジェスチャ操作履歴16に蓄積されているジェスチャ操作の速さを表す情報に基づいて、ジェスチャ完了の所要時間の最大値を決定する。ジェスチャ完了の所要時間の最大値の決定方法としては、例えばジェスチャ操作履歴16に記憶されるジェスチャ操作の速さを表す情報が、各ジェスチャ完了までの所要時間であるならば、所要時間の平均値を求め、この平均値にある一定のマージン値を加えた値を所要時間の最大値とする、などの方法が考えられる。   When the state of the sensor 15 is acquired in step S1 and the processing from step S2 to S4 is performed thereafter, the gesture identification unit 6 uses the required time calculation unit 17 to calculate the maximum value of the required time for gesture completion. To do. The required time calculation means 17 determines the maximum value of the required time for completing the gesture based on the information indicating the speed of the gesture operation accumulated in the gesture operation history 16. As a method for determining the maximum value of the required time for gesture completion, for example, if the information indicating the speed of the gesture operation stored in the gesture operation history 16 is the required time to completion of each gesture, the average value of the required time And a value obtained by adding a certain margin value to the average value is set as the maximum value of the required time.

また、ジェスチャ操作の速さを表す情報としては、移動量ベクトルから算出された指の移動速度としてもよく、この場合には、例えば図15に示すように、この指の移動速度を数段階に分けて、それぞれの段階に応じてタイムアウト値を設けておいて、このタイムアウト値に基づいて決定するようにしてもよい。   Also, the information indicating the speed of the gesture operation may be the finger moving speed calculated from the moving amount vector. In this case, for example, as shown in FIG. Alternatively, a timeout value may be provided according to each stage, and the determination may be made based on this timeout value.

ステップS5において、センサ15の状態が定常状態になってから所要時間算出手段17が算出したジェスチャ完了の所要時間の最大値が経過したかどうかを調べ、経過している場合にはそこでジェスチャが完了したものと判断する。ここでセンサ15が定常状態となった場合とは、時系列の前の要素と今回の要素が変化がない状態をいう。そしてジェスチャが終了したと判定した場合には(ステップS5:Yes)、ステップS52に進み、ジェスチャの速さを表す情報をジェスチャ操作履歴16に記憶させる。その後ステップS6〜S8は実施の形態1と同様である。   In step S5, it is checked whether or not the maximum required time for completion of the gesture calculated by the required time calculation means 17 has elapsed since the state of the sensor 15 becomes a steady state. Judge that it was done. Here, the case where the sensor 15 is in a steady state refers to a state in which the previous element in the time series and the current element do not change. If it is determined that the gesture has been completed (step S5: Yes), the process proceeds to step S52, and information indicating the speed of the gesture is stored in the gesture operation history 16. Thereafter, steps S6 to S8 are the same as those in the first embodiment.

また、制御手段8がヒンジ機構14から通知される信号に基づいて、開蓋時と閉蓋時のそれぞれの機能をジェスチャパターンに合わせて選択する点についても、実施の形態1と同様である。   The control unit 8 is also similar to the first embodiment in that each function at the time of opening and closing is selected according to the gesture pattern based on a signal notified from the hinge mechanism 14.

以上のように、この発明の実施の形態2の端末装置によれば、回動部位12を備えた開閉自在の筐体を有する端末装置において、開蓋時と閉蓋時の双方で外部から露出する位置にセンサ15を装着したので、どちらの状態であってもセンサ15に対するジェスチャを行うことで、操作を行うことができる。   As described above, according to the terminal device according to the second embodiment of the present invention, in the terminal device having an openable / closable housing having the rotation part 12, it is exposed from the outside both when the lid is opened and when the lid is closed. Since the sensor 15 is mounted at the position to be operated, it is possible to perform an operation by performing a gesture on the sensor 15 in any state.

またジェスチャ操作履歴16と所要時間算出手段17とを備え、ジェスチャ操作の速さを表す情報に基づいて、ジェスチャ完了までの時間を変更するように構成した。これによって、操作者の操作習熟度が上がり、手早く操作できるようになってきた場合に、より短時間かつ効率的に操作が行えるようになるのである。   The gesture operation history 16 and the required time calculation means 17 are provided, and the time until the completion of the gesture is changed based on the information indicating the speed of the gesture operation. As a result, when the operator's operation proficiency level increases and the operator can operate quickly, the operation can be performed more quickly and efficiently.

なお上述の記載においては、毎回ジェスチャ完了までの時間を設定しなおすこととして処理の説明を行ったが、学習モード・定常モードのように、一時期のみジェスチャ完了までの時間を変更するようにし、以降は変更しないようにしておいてもよい。   In the above description, the processing has been described as resetting the time until completion of the gesture every time, but the time until completion of the gesture is changed only once, as in the learning mode / steady mode, and thereafter May be left unchanged.

また実施の形態1の端末装置では折り畳み式の筐体を有するものとして、さらに端末装置11では回動可能な部位を備える筐体を有するものとして、この発明の実施の形態を説明してきたが、所謂フリップ式やスライド式などの筐体を有するものであっても適用可能であることはいうまでもないのである。   Moreover, although the terminal device of Embodiment 1 has been described as having a foldable housing, and the terminal device 11 has a housing having a rotatable part, the embodiment of the present invention has been described. Needless to say, the present invention can be applied to a case having a so-called flip type or slide type casing.

この発明は、特に携帯電話を初めとする携帯情報端末やテレビやオーディオ、家電製品などのリモコン端末を効率的に操作するユーザインターフェースに適用可能である。   The present invention is particularly applicable to a user interface for efficiently operating a portable information terminal such as a mobile phone, or a remote control terminal such as a television, audio, or home appliance.

この発明の実施の形態1の端末装置の背面斜視図である。It is a back perspective view of the terminal device of Embodiment 1 of this invention. この発明の実施の形態1の端末装置を手で把持した状態を示す正面図である。It is a front view which shows the state which hold | gripped the terminal device of Embodiment 1 of this invention by hand. この発明の実施の形態1の端末装置の閉蓋時の正面図である。It is a front view at the time of lid closing of the terminal device of Embodiment 1 of this invention. この発明の実施の形態1の端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the terminal device of Embodiment 1 of this invention. この発明の実施の形態1のセンサの詳細な構成例を示した図である。It is the figure which showed the detailed structural example of the sensor of Embodiment 1 of this invention. この発明の実施の形態1による端末装置の動作のフローチャートである。It is a flowchart of operation | movement of the terminal device by Embodiment 1 of this invention. この発明の実施の形態1のセンサで発生する信号の分布例を示す図である。It is a figure which shows the example of distribution of the signal which generate | occur | produces with the sensor of Embodiment 1 of this invention. この発明の実施の形態1のセンサで発生する信号の別の分布例を示す図である。It is a figure which shows another example of distribution of the signal which generate | occur | produces with the sensor of Embodiment 1 of this invention. この発明の実施の形態1の時系列と移動量ベクトルの関係を説明する図である。It is a figure explaining the relationship between the time series of Embodiment 1 of this invention, and a movement amount vector. この発明の実施の形態1のジェスチャパターンの例を示す表である。It is a table | surface which shows the example of the gesture pattern of Embodiment 1 of this invention. この発明の実施の形態1のジェスチャと機能の対応関係を示す図である。It is a figure which shows the correspondence of the gesture and function of Embodiment 1 of this invention. この発明の実施の形態2の端末装置の開蓋時の斜視図である。It is a perspective view at the time of lid opening of the terminal device of Embodiment 2 of this invention. この発明の実施の形態2の端末装置の開蓋時の別の斜視図である。It is another perspective view at the time of lid opening of the terminal device of Embodiment 2 of this invention. この発明の実施の形態2の端末装置の閉蓋時の別の斜視図である。It is another perspective view at the time of lid closing of the terminal device of Embodiment 2 of this invention. この発明の実施の形態2の端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the terminal device of Embodiment 2 of this invention. この発明の実施の形態2の端末装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the terminal device of Embodiment 2 of this invention. この発明の実施の形態2のセンサが発生する信号の状態の説明図である。It is explanatory drawing of the state of the signal which the sensor of Embodiment 2 of this invention generate | occur | produces. この発明の実施の形態2によるジェスチャ完了のタイムアウト値の設定例を示す図である。It is a figure which shows the example of a setting of the timeout value of the gesture completion by Embodiment 2 of this invention.

符号の説明Explanation of symbols

5、15 センサ、6 ジェスチャ識別手段、8 制御手段、16 ジェスチャ操作履歴、17 所要時間算出手段。

5, 15 sensors, 6 gesture identification means, 8 control means, 16 gesture operation history, 17 required time calculation means.

Claims (2)

片手で把持可能な筐体を有し、この筐体を把持する手の指でキー操作して使用する端末装置において、
上記筐体に開閉自在に装着され閉蓋時に上記筐体の正面一部を覆い隠す部位と、
上記筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であって、上記部位の閉蓋時と開蓋時のいずれにおいても外部に露出する位置に装着され、接触した指の接触位置を検出するセンサと、
このセンサにより検出された接触位置の時系列からジェスチャを切り出すジェスチャ識別手段と、
このジェスチャ識別手段により切り出された複数のジェスチャを組み合わせて、組み合わされた複数のジェスチャに対応する機能を実行する制御手段とを備え、
前記センサは、さらに指の接触面の大きさを検出し、
前記ジェスチャ識別手段は、このセンサに検出された接触位置の時系列から、上記接触面の大きさが所定値を下回った時間帯における接触位置の時系列を棄却してジェスチャを切り出し、入力時系列およびジェスチャパターンのベクトル要素から算出した絶対距離値にペナルティ値を加味したマッチングによる距離値を算出し、ジェスチャーパターンの算出に前記マッチングによる距離値を用いたことを特徴とする端末装置。
In a terminal device that has a casing that can be gripped with one hand and is used by operating a key with a finger of a hand that grips the casing,
A part that is attached to the casing so as to be freely opened and closed and covers a part of the front of the casing when the lid is closed;
A position where the hand holding the housing can be touched with the finger of the hand while maintaining the position where the key can be operated, and is exposed to the outside both when the part is closed and when the cover is opened. A sensor that detects the contact position of the finger that is worn and touched;
Gesture identification means for cutting out a gesture from a time series of contact positions detected by the sensor;
Control means for combining a plurality of gestures cut out by the gesture identification means and executing a function corresponding to the plurality of gestures combined;
The sensor further detects the size of the contact surface of the finger,
The gesture identification means, from the time series of the contact position detected in the sensor, to cut out the gesture size of the contact surface dismissed time series of the contact position in the time zone below a predetermined value, the input A terminal device characterized by calculating a distance value by matching in which a penalty value is added to an absolute distance value calculated from vector elements of a time series and a gesture pattern, and using the distance value by the matching for calculating a gesture pattern .
片手で把持可能な筐体を有し、この筐体を把持する手の指でキー操作して使用する端末装置において、In a terminal device that has a casing that can be gripped with one hand and is used by operating a key with a finger of a hand that grips the casing,
上記筐体に開閉自在に装着され閉蓋時に上記筐体の正面の一部を覆い隠す部位と、  A part that is attached to the casing so as to be freely opened and closed and covers a part of the front of the casing when the lid is closed;
上記筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であって、上記部位の閉蓋時と開蓋時のいずれにおいても外部に露出する位置に装着され、接触した指の接触位置を検出するセンサと、  A position where the hand holding the casing can be touched with a finger of the hand while maintaining the position where the key can be operated, and is exposed to the outside both when the part is closed and when the lid is opened. A sensor that detects the contact position of a finger that is worn and touched;
このセンサにより検出された接触位置の時系列からジェスチャを切り出すジェスチャ識別手段と、  Gesture identification means for cutting out a gesture from a time series of contact positions detected by the sensor;
このジェスチャ識別手段により切り出された複数のジェスチャを組み合わせて、組み合わされた複数のジェスチャに対応する機能を実行する制御手段とを備え、  Control means for combining a plurality of gestures cut out by the gesture identification means and executing a function corresponding to the plurality of gestures combined;
前記センサは、さらに指の接触面の大きさを検出し、The sensor further detects the size of the contact surface of the finger,
前記ジェスチャ識別手段は、このセンサに検出された接触位置の時系列から、上記接触面の大きさが所定値を下回った時間帯における接触位置の時系列を棄却してジェスチャを切り出し、更に、指がセンサの表面から離れる動作が発生しても、即座にジェスチャの終了とは判断せず、センサの表面から指が離れる前の指がセンサの表面に接していた状態と、その後において指がセンサの表面に接していた状態との差異に基づいて方向と移動ベクトルの絶対値を与え、ジェスチャ認識することを特徴とする端末装置。The gesture identifying means cuts out the gesture by rejecting the time series of the contact position in the time zone in which the size of the contact surface is below a predetermined value from the time series of the contact position detected by the sensor, Does not immediately determine that the gesture has ended, and the finger is in contact with the sensor surface before the finger is released from the sensor surface. A terminal device characterized by giving an absolute value of a direction and a movement vector based on a difference from a state of being in contact with the surface of the object and recognizing a gesture.
JP2004119967A 2004-04-15 2004-04-15 Terminal device Expired - Fee Related JP4015133B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004119967A JP4015133B2 (en) 2004-04-15 2004-04-15 Terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004119967A JP4015133B2 (en) 2004-04-15 2004-04-15 Terminal device

Publications (2)

Publication Number Publication Date
JP2005303870A JP2005303870A (en) 2005-10-27
JP4015133B2 true JP4015133B2 (en) 2007-11-28

Family

ID=35334850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004119967A Expired - Fee Related JP4015133B2 (en) 2004-04-15 2004-04-15 Terminal device

Country Status (1)

Country Link
JP (1) JP4015133B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101015352B1 (en) * 2005-05-27 2011-02-16 샤프 가부시키가이샤 Display device
JP4721986B2 (en) * 2006-08-25 2011-07-13 京セラ株式会社 Portable electronic device and method for controlling portable electronic device
JP5063118B2 (en) * 2007-01-09 2012-10-31 京セラドキュメントソリューションズ株式会社 Gesture authentication method and gesture authentication device
JP4853302B2 (en) * 2007-01-19 2012-01-11 日本電気株式会社 Command input device for portable terminal and command input method for portable terminal
US20110126094A1 (en) * 2009-11-24 2011-05-26 Horodezky Samuel J Method of modifying commands on a touch screen user interface
US8432368B2 (en) * 2010-01-06 2013-04-30 Qualcomm Incorporated User interface methods and systems for providing force-sensitive input
JP2012194810A (en) * 2011-03-16 2012-10-11 Kyocera Corp Portable electronic apparatus, method for controlling contact operation, and contact operation control program
JP2013020304A (en) * 2011-07-07 2013-01-31 Ntt Docomo Inc Mobile information terminal, action feature learning method, action feature authentication method, and program
JP5843693B2 (en) * 2012-05-18 2016-01-13 三菱電機株式会社 Touch panel device
JP6031600B2 (en) * 2012-07-15 2016-11-24 アップル インコーポレイテッド Disambiguation of 3D interaction multi-touch gesture recognition
CN103116417A (en) * 2013-01-30 2013-05-22 华为技术有限公司 Touching strip and mobile terminal device
US9575557B2 (en) * 2013-04-19 2017-02-21 Qualcomm Incorporated Grip force sensor array for one-handed and multimodal interaction on handheld devices and methods
CN114506754B (en) * 2020-11-17 2023-12-05 上海三菱电梯有限公司 Non-contact button operation recognition system

Also Published As

Publication number Publication date
JP2005303870A (en) 2005-10-27

Similar Documents

Publication Publication Date Title
US9965044B2 (en) Information processing method, apparatus, and device
US8451254B2 (en) Input to an electronic apparatus
JP5243967B2 (en) Information input using sensors attached to fingers
TWI420889B (en) Electronic apparatus and method for symbol input
JP4699955B2 (en) Information processing device
JP5977627B2 (en) Information processing apparatus, information processing method, and program
KR100782927B1 (en) Apparatus and method for inputting character in portable terminal
JP4015133B2 (en) Terminal device
US6415165B1 (en) Portable telephone device with additional display and data inputting capability
US20080136679A1 (en) Using sequential taps to enter text
US20100164880A1 (en) Method of converting touch pad into touch mode or number-key and/or hot-key input mode
JP3143445U (en) Electronic devices that do not interfere with contact movement
JP6109788B2 (en) Electronic device and method of operating electronic device
JP2007207107A (en) Portable terminal
KR20100062899A (en) Inputting method and device using touch pattern
TWI520045B (en) Method for determining keys of a virtual keyboard and touch-controlled device utilizing the same
WO2018112803A1 (en) Touch screen-based gesture recognition method and device
US8064946B2 (en) Handheld wireless communication device
WO2001015411A1 (en) Operating device
JP2012168869A (en) Portable terminal and key operation device
US20200050314A1 (en) Touch sensing method, electronic device and non-transitory computer readable recording medium device
JP2014167712A (en) Information processing device, information processing method, and program
JP2009157709A (en) Pointing device
CN103713840B (en) Portable apparatus and its key hit area adjustment method
US20070254699A1 (en) Handheld wireless communication device

Legal Events

Date Code Title Description
A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees