JP4015133B2 - Terminal device - Google Patents
Terminal device Download PDFInfo
- Publication number
- JP4015133B2 JP4015133B2 JP2004119967A JP2004119967A JP4015133B2 JP 4015133 B2 JP4015133 B2 JP 4015133B2 JP 2004119967 A JP2004119967 A JP 2004119967A JP 2004119967 A JP2004119967 A JP 2004119967A JP 4015133 B2 JP4015133 B2 JP 4015133B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- sensor
- finger
- contact
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
- Telephone Function (AREA)
Description
この発明は携帯可能な端末装置に係るものであり、特に端末装置の操作を効率化するユーザインターフェース技術に関する。 The present invention relates to a portable terminal device, and more particularly, to a user interface technology for improving the efficiency of operation of the terminal device.
携帯電話は、固定式電話との操作性を承継しているため、テンキーを中心とした操作インターフェースが採用されることが多い。また携帯電話は持ち運び容易であることが求められるので、筐体サイズが限られており、筐体に装着可能なキーの個数が限られている。一方で、携帯電話は高機能化の一途を辿っており、少ないキー操作の組み合わせで複雑な機能を選択する必要があるために、操作性が劣化しやすい。 Since the mobile phone inherits the operability with the fixed phone, an operation interface centered on a numeric keypad is often employed. Also, since mobile phones are required to be easy to carry, the case size is limited, and the number of keys that can be attached to the case is limited. On the other hand, mobile phones are becoming increasingly sophisticated, and it is necessary to select complicated functions with a combination of few key operations, so operability tends to deteriorate.
このような問題を解決する方法として、テンキーとは異なる入力デバイスを備える方法がある。そのような入力デバイスの一例として各種の拡張キーがある。またキー以外のデバイスを使用するものとしては、感圧可能なセンサを用いて携帯電話の操作性を向上しようとした構成もある(例えば、特許文献1)。 As a method of solving such a problem, there is a method of providing an input device different from the numeric keypad. There are various extended keys as an example of such an input device. In addition, as a device using a device other than a key, there is a configuration that attempts to improve the operability of a mobile phone using a pressure-sensitive sensor (for example, Patent Document 1).
特許文献1に記載された技術は、感圧可能なセンサを通じたスクロール操作を簡易に行うものであるが、感圧センサはスクロール操作以外の用途にも用いることが可能であり、またそうすることにより携帯電話の複雑な機能を効率的に選択することができる。その一方で、感圧センサはテンキーのクリック感のようなしっかりとした操作感がないことが多く、そのために利用者に不安を与えしまう。このことから、感圧センサを用いた操作インターフェースは、画面に表示された項目をポインティングする目的で用いられることが多く、キー操作のように直接的に機能を選択するような操作インターフェースに採用されづらいものであった。
Although the technique described in
この発明は、指の接触位置を検出するセンサを用いて、利用者に幅広い機能の中から所望の操作を、確実な操作感で行うことのできる端末装置を提供することを目的とする。 An object of the present invention is to provide a terminal device that allows a user to perform a desired operation from a wide range of functions with a certain sense of operation using a sensor that detects a contact position of a finger.
この発明による端末装置は、片手で把持可能な筐体を有し、この筐体を把持する手の指でキー操作して使用する端末装置において、上記筐体に開閉自在に装着され閉蓋時に上記筐体の正面の一部を覆い隠す部位と、上記筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であって、上記部位の閉蓋時と開蓋時のいずれにおいても外部に露出する位置に装着され、接触した指の接触位置を検出するセンサと、このセンサにより検出された接触位置の時系列からジェスチャを切り出すジェスチャ識別手段と、このジェスチャ識別手段により切り出された複数のジェスチャを組み合わせて、組み合わされた複数のジェスチャに対応する機能を実行する制御手段とを備え、前記センサは、さらに指の接触面の大きさを検出し、前記ジェスチャ識別手段は、このセンサに検出された接触位置の時系列から、上記接触面の大きさが所定値を下回った時間帯における接触位置の時系列を棄却してジェスチャを切り出し、入力時系列およびジェスチャパターンのベクトル要素から算出した絶対距離値にペナルティ値を加味したマッチングによる距離値を算出し、ジェスチャーパターンの算出に前記マッチングによる距離値を用いたものである。
また、この発明による端末装置は、片手で把持可能な筐体を有し、この筐体を把持する手の指でキー操作して使用する端末装置において、上記筐体に開閉自在に装着され閉蓋時に上記筐体の正面の一部を覆い隠す部位と、上記筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であって、上記部位の閉蓋時と開蓋時のいずれにおいても外部に露出する位置に装着され、接触した指の接触位置を検出するセンサと、このセンサにより検出された接触位置の時系列からジェスチャを切り出すジェスチャ識別手段と、このジェスチャ識別手段により切り出された複数のジェスチャを組み合わせて、組み合わされた複数のジェスチャに対応する機能を実行する制御手段とを備え、前記センサは、さらに指の接触面の大きさを検出し、前記ジェスチャ識別手段は、このセンサに検出された接触位置の時系列から、上記接触面の大きさが所定値を下回った時間帯における接触位置の時系列を棄却してジェスチャを切り出し、更に、指がセンサの表面から離れる動作が発生しても、即座にジェスチャの終了とは判断せず、センサの表面から指が離れる前の指がセンサの表面に接していた状態と、その後において指がセンサの表面に接していた状態との差異に基づいて方向と移動ベクトルの絶対値を与え、ジェスチャ認識するものである。
A terminal device according to the present invention has a housing that can be gripped with one hand, and is a terminal device that is used by operating a key with a finger of a hand that grips the housing. A part that covers a part of the front surface of the housing and a position where the hand holding the housing can be touched with a finger while maintaining the key operable position, and when the part is closed A sensor that is mounted at a position exposed to the outside both when the lid is opened and detects the contact position of the touched finger, a gesture identification unit that cuts out a gesture from the time series of the contact position detected by the sensor, and Control means for executing a function corresponding to the plurality of combined gestures by combining a plurality of gestures cut out by the gesture identification means, and the sensor further determines the size of the contact surface of the finger. Out, the gesture identification means, from the time series of the contact position detected in the sensor, Shi cut out gestures size of the contact surface dismissed time series of the contact position in the time zone below a predetermined value The distance value by matching is calculated by adding a penalty value to the absolute distance value calculated from the input time series and the vector element of the gesture pattern, and the distance value by the matching is used for calculating the gesture pattern .
In addition, a terminal device according to the present invention has a housing that can be held with one hand. In a terminal device that is used by operating a key with a finger of a hand that holds the housing, the terminal device is attached to the housing so as to be freely opened and closed. A part that covers a part of the front surface of the casing when the cover is closed, and a position where the hand holding the casing can be touched with a finger while maintaining the position where the key can be operated. A sensor that is mounted at a position exposed to the outside both when the lid is open and when the lid is opened, detects a contact position of the touched finger, and a gesture identification unit that cuts out a gesture from the time series of the contact position detected by the sensor, And a control means for executing a function corresponding to the plurality of combined gestures by combining a plurality of gestures cut out by the gesture identification means, and the sensor further includes a large contact surface of the finger. The gesture identifying means rejects the time series of the contact position in the time zone when the size of the contact surface is below a predetermined value from the time series of the contact position detected by the sensor, and performs the gesture. Cutting, and even if the operation of moving the finger away from the sensor surface occurs, it is not immediately determined that the gesture has ended, and the finger before the finger leaves the sensor surface is in contact with the sensor surface; Thereafter, the absolute value of the direction and the movement vector is given based on the difference from the state where the finger is in contact with the surface of the sensor, and the gesture is recognized.
このように、この発明による端末装置によれば、時間的に操作パターンが変動しても適切なジェスチャパターンを選択することができる、また例えば、上から下へのストローク操作と下から上へのストローク操作とを一続きの操作(上→下→上)で行うような簡単な変形にも容易に対応できる、指が離れている前後のセンサに接していた状態に基づいて、指が離れている間の移動量ベクトルを補完することで、ジェスチャの動きを適切に数値化することが可能となるという効果を奏するものである。
Thus , according to the terminal device according to the present invention, an appropriate gesture pattern can be selected even if the operation pattern fluctuates with time. For example, the stroke operation from the top to the bottom and the bottom to the top can be selected. The finger is released based on the state where the finger is in contact with the front and back sensors, which can easily cope with simple deformations such as a stroke operation and a series of operations (up → down → up). By complementing the movement amount vector during the period, the movement of the gesture can be appropriately digitized.
以下、この発明の実施の形態を図を用いて説明する。
実施の形態1.
図1は、この発明の実施の形態1による端末装置を携帯電話として構成した場合の背面斜視図である。図の端末装置1において、開閉部位2は本体部位3に対してヒンジ機構4を介して開閉自在に装着されている。また本体部位3にはセンサ5が装着されている。このセンサ5は、物体が接触するとその接触位置を電気信号に変換して出力するセンサとなっている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a rear perspective view of a terminal device according to
図1の例では、センサ5は本体部位3の側面に設置されている。しかしながら、センサ5の設置位置は側面に限られるものではなく、筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であれば、如何なる位置であってもよい。ここで、「筐体を把持する手をキー操作可能な位置に維持する」とは、筐体を把持した手でそのままキーの大部分を操作できるように、筐体を把持した状態を保つ行為を意味しているのであって、例えば図2に示すような方法で端末装置を把持するような行為を指す。
In the example of FIG. 1, the
一般に、端末装置1のように携帯可能な端末装置では、片手でも操作しやすいように、キーボタンを一箇所に集中して配置する。そして利用者はその端末を把持する場合に、これらのキーを操作しやすい位置を手で把持するのである。このような場合、手で端末装置を把持したままであっても、その手の一部の指を限定的に動かすことが可能である場合が多い。そしてセンサ5は、このような状態の指によって接触可能な位置に配置されるのである。なお、センサ5に接触する指の位置は、指の先端である必要はなく、指のいずれかの部位であればよいのである。
Generally, in a portable terminal device such as the
端末装置1は、図3に示すように、開閉部位2がヒンジ機構4を介して本体部位3に開閉自在に装着されているので、筐体を折り畳んでおくことができる。しかしそれのみならず、開閉部位2を閉蓋した場合(筐体を折り畳んだ状態)においても、センサ5は外部に露出するように配置されているので、筐体を折り畳んだ状態でもセンサ5に接触することが可能となっている。さらに加えて、閉蓋時においても、開蓋時の把持位置とほぼ同じ位置を手で把持したまま、その手の一部の指で接触可能な位置にセンサ5が設置されているという特徴を有している。このようなセンサ5の設置位置としては、端末装置1の側面や背面が代表的である。こうすることで、開蓋・閉蓋の別にかかわらずセンサ5を用いて端末装置1を操作することが可能となる。
As shown in FIG. 3, the
図4は、端末装置1の構成を示すブロック図である。図においてヒンジ機構4及びセンサ5は、図1に示した同一符号の構成部位と同じものである。ヒンジ機構4は、開閉部位2と本体部位3とを開閉自在に結合するのみならず、開閉部位2を開閉する操作を検出して、それぞれの操作で信号が発生するようなスイッチ機能を内蔵している。このようなスイッチ機能を有するヒンジ機構は、折り畳み式の携帯電話端末などですでに広く利用されているものであるので、ここではその構造について詳述しない。
FIG. 4 is a block diagram illustrating a configuration of the
またセンサ5は、表面に接触した物体の接触位置を電気信号として出力するセンサである。なお、このようなセンサの実現方式としては、センサ表面を圧力で押した場合にセンサ本体に変形が生じ、その変形によってセンサの電気抵抗の特性に生じた変化を電気信号として出力する感圧センサ方式や、導体が表面付近に接近した場合に静電容量特性に生じる変化を電気信号として出力する非接触型静電容量センサ方式などを初めとする各種方式が知られているが、センサ5に採用するセンサは、物体の接触位置を検出できるものであれば如何なる方式であってもよい。また物体の接触位置の出力の仕方としては、センサ信号を処理する回路がセンサから接触位置の時系列(接触位置の時間変化)が得られるようになっていればどのような方法であってもよく、例えば、センサがその回路に対して割り込み信号を出力するようにしていてもよいし、センサの信号処理回路からポーリングによってセンサの状態を取得するようにしてもよい。
The
図5は、このようなセンサ5の構成例を示した図である。図の拡大部分はセンサ5が拡大した状態で示されている。この例におけるセンサ5は小さな圧電素子5−1〜5−Nからなる配列で構成されている。圧電素子5−1〜5−Nはそれぞれ独立した圧電素子となっており、物体等が表面と接触することで圧迫を検出した場合に、独立して信号を出力できるようになっている。この結果、複数の部位がそれぞれ押された状態と押されていない状態の2値で表されることとなる。ここでは圧電素子5−1〜5−Nのそれぞれが押された状態を「1」と表現し、押されていない状態(通常の状態)を「0」と表現することとする。このように、このセンサ5の構成例では、各圧電素子は押されているか押されていないかの2値で表現されるため、圧力の絶対値を取得しない。しかし後述するように、このような構成のセンサにもかかわらず、この発明によれば安定した操作性を実現することができる。なお、以降においては、センサ5は状態が変化した場合に割り込み信号を出力することができるようになっているものとし、また必要に応じて現在の状態を取得できる(ポーリング可能な)ようになっているものとして説明を進める。
FIG. 5 is a diagram showing a configuration example of such a
ジェスチャ識別手段6は、センサ5が出力する接触位置の時系列を処理し、ジェスチャを切り出す回路又は素子である。ただしジェスチャ識別手段6は、コンピュータプログラムと中央演算装置との組み合わせによって同様の機能を実現するように構成されていても構わない。ジェスチャ辞書7は、ジェスチャ識別手段6が切り出すジェスチャのパターンをデータとして記憶する記憶素子又は回路、あるいは記憶媒体である。
The gesture identifying means 6 is a circuit or element that processes a time series of contact positions output from the
制御手段8は、端末装置1の備えている機能であって、ジェスチャが表している一纏まりの機能を、ジェスチャ識別手段6が切り出したジェスチャに合わせて選択し、実行する回路又は素子である。その場合には、ヒンジ機構4が開蓋時・閉蓋時に出力する信号を記憶することで、現在の開閉部位2の状態に応じて、実行する機能を選択するようになっている。
The control means 8 is a function of the
ここで、「一纏まりの機能」とは、操作者が操作によって意識的に選択する機能の単位(まとまり)をいう。例えば携帯電話の場合、発呼をする操作においてさまざまな処理が行われるが、操作者はそれらの処理の一つ一つを分解した形で操作しようと意識するのではなく、「発呼」という一纏まりの機能を操作により選択するのである。このような機能はテンキーや拡張キーなどを一回又は数回操作することで選択できるようになっていることが多い。したがって「一纏まりの機能」とは、テンキー又は拡張キー、ショートカットキーを操作することで操作者が選択しうる機能、と考えることができる。但し、ここでいう一纏まりの機能とは、予めメニュー項目などの形で選択可能とされた機能には限定されず、例えば操作者が事後的にカスタマイズにより追加定義していくマクロ機能(複数の機能の組み合わせ)やアプリケーションプログラムを導入することによって拡張した機能のようなものも「一纏まりの機能」の中に含まれるものとする。 Here, “a group of functions” refers to a unit (group) of functions that an operator consciously selects by operation. For example, in the case of a mobile phone, various processes are performed in the operation of making a call, but the operator is not conscious of operating each of these processes in a disassembled form, but called “call”. A group of functions is selected by operation. In many cases, such a function can be selected by operating a numeric keypad or an extended key once or several times. Therefore, the “collective functions” can be considered as functions that the operator can select by operating the numeric keypad, the extended key, or the shortcut key. However, the group of functions mentioned here is not limited to functions that can be selected in the form of menu items in advance. For example, a macro function (multiple functions that an operator defines later by customization) A combination of functions) and functions expanded by introducing an application program are also included in the “collective functions”.
なお、制御手段8も、ジェスチャ識別手段6と同じように、コンピュータプログラムと中央演算装置との組み合わせによって同様の機能を実現するように構成されていてもよい。またジェスチャ識別手段6と制御手段8を必ずしも別体に構成する必要はなく、同一のCPUによって構成しコンピュータプログラムのサブルーチンレベル、あるいは処理ステップレベルでそれぞれの機能を果たすように構成してもよいのである。
Note that, similarly to the gesture identification unit 6, the
タイマ9は、ジェスチャ識別手段6や制御手段8に必要に応じてクロック信号を供給する回路又は素子であって、水晶発振子などを用いて構成される。機能テーブル10は、ジェスチャとそのジェスチャに対応する機能の対応表であって、図示せぬ記憶素子又は回路、記憶媒体などに記憶される情報である。
The timer 9 is a circuit or element that supplies a clock signal to the gesture identification unit 6 and the
なお、端末装置1は、携帯電話を例として構成したものであるので、図4に示した構成要素以外に、無線信号を送受信する部位や電源制御を行う部位、キー操作部、LEDや表示部などの構成要素を備えているが、それらの部位の構成や実現方式は、この発明の構成には直接影響するものではないので、ここでは説明を省略する。
Since the
続いて、端末装置1の動作について説明する。端末装置1の動作は、ジェスチャ識別手段6における処理と制御手段7における処理とに大別される。始めにジェスチャ識別手段6における処理について説明する。図6は、ジェスチャ識別手段6の処理のフローチャートである。まずセンサ5に指が接触すると、センサ5の圧電素子5−1〜5−Nのいずれかが割り込み信号を発生し、ジェスチャ識別手段6にジェスチャの開始を通知する。これを受けてジェスチャ識別手段6において、図6の処理が活性化される。
Next, the operation of the
図において、ジェスチャ識別手段6はセンサ5に対してポーリングを行い、現在の状態を取得する(ステップS1)。ここで取得される現在の状態とは、圧電素子5−1〜5−Nそれぞれの状態が「1」(押されている状態)か「0」(押されていない状態)のいずれかで表現された1と0の配列である。続いて、指がセンサ5を接触する接触面の大きさが所定値を超えているかどうかを調べる(ステップS2)。指は一定の大きさを有しているので、指がセンサ5に接触すると複数個の圧電素子が同時に「1」の状態となりうる。しかもその場合には、「1」の状態となる圧電素子は隣接する。したがって隣接する圧電素子であって、状態が「1」となっている圧電素子の個数を数えることによって、接触面の大きさを取得することができる。ここで、指は表面が柔らかいので、センサ5に軽く接している状態(例えば、図7)に比べれば、強く押した状態(例えば、図8)では、変形の度合いが大きく、接触面が広がる。このことから、接触面の大きさは指の圧力と相関があるといえる。
In the figure, the gesture identification means 6 polls the
このように、接触面の大きさを取得することで、圧力の絶対値を取得できないセンサ素子を使用していても、間接的に圧力に基づく処理が可能となる。そしてこの接触面の大きさが所定値を超えているか否かを検定することで、操作者が誤ってセンサ5に触れてしまった場合に発生する信号を棄却することが可能となる。
Thus, by acquiring the size of the contact surface, even if a sensor element that cannot acquire the absolute value of pressure is used, processing based on pressure can be indirectly performed. Then, it is possible to reject a signal generated when the operator accidentally touches the
また、ユーザが触る位置に基づいて操作を行うユーザインターフェースでは、接触開始直後において接触位置が変動するためにジェスチャの形状が不安定となることが多い。そのため、ステップS2のように、何らかの条件を設けて不安定な接触位置を棄却した方がよりしっかりした操作感が得られるのである。 Further, in a user interface that performs an operation based on a position touched by a user, the shape of the gesture often becomes unstable because the contact position fluctuates immediately after the start of contact. For this reason, as in step S2, it is possible to obtain a more stable operational feeling by disposing an unstable contact position under some condition.
ステップS2で、接触面の大きさが所定値を上回らない場合は、ステップS3に進む(ステップS2:No)。ステップS3では、タイマ9を用いて一定時間、例えば10ミリ秒が経過するまで待機し、その時間が経過後、再びステップS1に戻って次の状態の処理を行う。一方、ステップS2で、接触面の大きさが所定値を上回った場合はステップS4に進む。 If it is determined in step S2 that the size of the contact surface does not exceed the predetermined value, the process proceeds to step S3 (No in step S2). In step S3, the timer 9 is used to wait until a certain time, for example, 10 milliseconds elapses. After that time, the process returns to step S1 again to perform the next state. On the other hand, if the size of the contact surface exceeds a predetermined value in step S2, the process proceeds to step S4.
以上の処理は、接触面の大きさが所定値を上回らない場合に、その状態を棄却することで誤操作や処理の不安定感を取り除くことを目的としているが、この場合に状態を棄却せずに、すべての圧電素子の状態が「0」となっていると仮定して、ステップS4に進む制御を行っても構わない。 The purpose of the above processing is to eliminate erroneous operation and instability of processing by rejecting the state when the size of the contact surface does not exceed a predetermined value, but in this case the state is not rejected. In addition, assuming that the state of all the piezoelectric elements is “0”, the control may proceed to step S4.
また、より圧力値が直接得られるセンサを用いて構成している場合は、ステップS2を接触面の大きさではなく圧力値に基づいて検定するようにしてもよい。 Further, when the sensor is configured using a sensor that directly obtains the pressure value, step S2 may be verified based on the pressure value instead of the size of the contact surface.
続いて、このようにして取得した接触位置の情報を接触位置の時系列に追加する(ステップS4)。接触位置の時系列は、複数の接触位置データからなる配列であって、発生時刻順にデータが並べられたものである。ここでは、記憶容量を節約するために、「1」が連続する圧電素子の分布の中央値(分布の中心となる圧電素子の位置、あるいは分布の中心となる圧電素子を識別する情報)のみを採用して時系列の要素として記憶する。その際、タイマ9から現在時刻を取得して接触位置とともに時系列要素として記憶しておくようにしてもよい。 Subsequently, the information on the contact position acquired in this way is added to the time series of the contact position (step S4). The time series of contact positions is an array composed of a plurality of contact position data, and the data is arranged in order of occurrence time. Here, in order to save the storage capacity, only the median value of the distribution of piezoelectric elements in which “1” continues (the position of the piezoelectric element that is the center of the distribution, or information that identifies the piezoelectric element that is the center of the distribution) Adopt and store as time-series elements. At this time, the current time may be acquired from the timer 9 and stored as a time series element together with the contact position.
次に、ジェスチャが終了したかどうかを判断する(ステップS5)。ジェスチャの終了を判断する方法の例として、「1」の状態となっている圧電素子の個数が0個となったかどうかを判断する方法(第1の方法)が考えられる。ジェスチャ操作中は、指がセンサ5のいずれかの部位に接しているので、いずれかの圧電素子が「1」の状態となっている。そしてジェスチャが終了すると、指がセンサ5を離れるので、「1」の状態となっている圧電素子の個数が0個となる。したがって「1」の状態となっている圧電素子の個数が0個となったかどうかで、指がセンサ5に接しているかどうかを判別できる。この方法はセンサ5を指が離れたことをもって、ジェスチャが完了したと判断するものであり、指が離れると即座に、ジェスチャが完了した、と判断されることになる。
Next, it is determined whether or not the gesture has been completed (step S5). As an example of a method for determining the end of the gesture, a method (first method) for determining whether or not the number of piezoelectric elements in the “1” state has become zero can be considered. During the gesture operation, since the finger is in contact with any part of the
また他に、定常状態が一定時間経過したことを検知する方法(第2の方法)が考えられる。これは、時系列要素の間の差分を求めることで検知することができる。すなわち一定数以上の時系列要素の間の差分が0(前後の要素が同じ)であれば、何ら新たな操作をセンサ5に加えていないことを意味するから、そのことをもってジェスチャの終了を判断するのである。
In addition, a method (second method) for detecting that a certain period of time has elapsed in the steady state can be considered. This can be detected by obtaining a difference between time series elements. In other words, if the difference between a certain number of time-series elements is 0 (the preceding and following elements are the same), it means that no new operation has been applied to the
ただし指をセンサ5に触れたまま状態変化が生じない場合は、操作者が操作に不慣れであったり、考えながら操作しているために、ジェスチャの途中であることも想定できるので、この場合においても「1」の状態となっている圧電素子の個数が0個となった状態が一定時間継続した場合に、ジェスチャ終了と判断するようにする。
However, if the state does not change with the finger touching the
第2の方法、すなわち一定時間が経過する間、状態変化が生じないことを利用してジェスチャの終了を判断する方法は、ジェスチャを中断しても再開できることを特徴としている。第1の方法の場合は、指がセンサ5から離れたら即座にジェスチャ終了と判断してしまうので、ジェスチャの再開という概念がない。また、第2の方法の場合は、ジェスチャの中断(指がセンサ5から離れている時間)までも操作の一環としてみなすことができるので、ジェスチャの自由度や組み合わせが豊富となり表現力が増すという利点がある。以降では、第2の方法に基づいてジェスチャ終了を判断するものとして説明することとする。しかし、第1の方法であってもジェスチャを利用することができるので、この発明の趣旨は達成される。
The second method, that is, the method of determining the end of the gesture by utilizing the fact that the state does not change during a certain period of time, is characterized in that it can be resumed even if the gesture is interrupted. In the case of the first method, since the gesture is immediately determined to end when the finger leaves the
なお、ステップS5において、ジェスチャ終了と判断されなかった場合は、ステップS3に進み(ステップS5:Yes)、ステップS1からの処理を繰り返す。 If it is determined in step S5 that the gesture has not ended, the process proceeds to step S3 (step S5: Yes), and the processing from step S1 is repeated.
また、ステップS5において、ジェスチャ終了と判断された場合は、ステップS6に進む。ここでは、これまでの接触位置の時系列をジェスチャに変換する。この構成では、一定時間が経過することを条件としてジェスチャ終了の判断する方法(第2の方法)を採用しているので、時系列の中には、指がセンサ5に接触していない状態(圧電素子がすべて「0」の状態)も含まれている。
If it is determined in step S5 that the gesture has ended, the process proceeds to step S6. Here, the time series of the previous contact positions are converted into gestures. In this configuration, since a method (second method) for determining the end of the gesture is employed on condition that a certain time has elapsed, the state in which the finger is not in contact with the
次に、時系列を移動量ベクトルに変換する(ステップS6)。移動量ベクトルとは時系列要素間の接触位置の変化量(差分)であるが、変化する方向に応じて、例えば図9に示すような符号を付することとする。そして移動量ベクトルに変換された入力時系列とジェスチャ辞書8に記憶されている各ジェスチャパターンとの距離値を算出する(ステップS7)。
Next, the time series is converted into a movement amount vector (step S6). The movement amount vector is the amount of change (difference) in the contact position between the time series elements, and for example, a symbol as shown in FIG. 9 is attached according to the changing direction. Then, a distance value between the input time series converted into the movement amount vector and each gesture pattern stored in the
ジェスチャ辞書8に記憶されているジェスチャパターンは、この端末装置1によって認識可能なジェスチャの基本的な時系列情報であり、例えば図10に示すようなパターン(ジェスチャ1〜ジェスチャ11)などの移動量ベクトルの時系列情報が予め記憶されている。ここに記憶されるジェスチャパターンの特徴は、ストローク操作(センサ5の表面を指で一方向のみになぞる操作)とタップ操作(センサ5の表面に一時的に接触する操作)を最小単位とした場合に、これらの最小単位を2つ以上含んだ組み合わせとして構成されているという点である。
The gesture patterns stored in the
このような構成を採用することで、次のような効果が生じる。まず、携帯電話の筐体側面のように限られたスペースに接触センサを配置した場合、設置面の一定方向になぞる(ストローク操作)か、タップ操作程度の操作バリエーションしかないが、これらを複数組み合わせることで複雑なジェスチャパターンを作り出せる。したがって異なるジェスチャを多くの機能に対応させることが可能となり、ジェスチャ操作の適用範囲を広げることができる。 By adopting such a configuration, the following effects are produced. First, when the contact sensor is placed in a limited space such as the side of the case of a mobile phone, it can be traced in a fixed direction on the installation surface (stroke operation) or has only an operation variation equivalent to a tap operation. This makes it possible to create complex gesture patterns. Therefore, it becomes possible to make different gestures correspond to many functions, and the application range of the gesture operation can be expanded.
また、ジェスチャの最小単位一つだけで機能選択をさせることも考えられるが、センサ5は筐体外部に露出しているものであるため、誤操作も生じやすい。最小単位となるジェスチャを複数組み合わせることで、かかる誤操作の可能性を減じることができるのである。
Further, although it is conceivable to select a function with only one minimum unit of gesture, since the
ジェスチャパターンとの距離値の算出は、一般的なパターン照合技術を用いて行う。このようなパターン照合技術はいくつか知られており、どのような方法でパターン照合を行ってもよい。以下の説明では、そのような方法の例として、DP(Dynamic Programming)マッチングによる方法を紹介する。 The calculation of the distance value with the gesture pattern is performed using a general pattern matching technique. Several such pattern matching techniques are known, and pattern matching may be performed by any method. In the following description, a method based on DP (Dynamic Programming) matching is introduced as an example of such a method.
入力時系列およびジェスチャパターンのi番目のベクトル要素をそれぞれf(i)、g(i)とし、d(i,j)を入力時系列のi番目のベクトル要素とジェスチャパターンのj番目のベクトル要素との絶対値距離d(i,j)=|f(i)−g(j)|により算出する。そして、入力時系列のi番目のベクトル要素とジェスチャパターンのj番目のベクトル要素との差を算出する際のDP評価値h(i,j)を以下のように算出し、これをDPマッチングによる距離値とする。
なお上式において、DP_PENALTYは1対1の対応付け以外の場合のペナルティ値を表している。つまり対応付けを行う入力時系列のベクトル要素とジェスチャパターンのベクトル要素とが1対1の対応付けとならない場合、多対1あるいは1対多の対応付けを行うが、この場合は多対1あるいは1対多の対応付けを評価値として表す必要がある。例えば、入力時系列のベクトル要素が上方向で、ジェスチャパターンのベクトル要素が下方向となった場合、両者を対応づけたときの評価値は、−1(上方向)と+1(下方向)なので2となるが、この場合は対応付けが正しく行えていないので、ペナルティ値をこの評価値に加えることとしたものである。 In the above equation, DP_PENALTY represents a penalty value other than one-to-one correspondence. In other words, when the input time series vector element to be associated and the vector element of the gesture pattern do not have a one-to-one correspondence, a many-to-one or one-to-many association is performed. One-to-many correspondence needs to be expressed as an evaluation value. For example, when the input time series vector element is in the upward direction and the gesture pattern vector element is in the downward direction, the evaluation values when both are associated are -1 (upward) and +1 (downward). In this case, since the association is not correctly performed, the penalty value is added to the evaluation value.
また、このようなペナルティ値を事後的に増減して評価値を調整するのではなく、最初の数値化の段階で、上方向を−N、下方向を+Nすることで、正しく対応付けができなかった場合の評価値を大きくすることも可能である。 In addition, instead of adjusting the evaluation value by exaggerating the penalty value afterwards, it is possible to correctly associate by setting -N for the upward direction and + N for the downward direction at the initial numerical stage. It is also possible to increase the evaluation value when there is not.
このように、DPマッチングによって、ジェスチャパターンとの距離値を算出することとしたので、時間的に操作パターンが変動しても適切なジェスチャパターンを選択することができる。また例えば、上から下へのストローク操作と下から上へのストローク操作とを一続きの操作(上→下→上)で行うような簡単な変形にも容易に対応できるのである。 As described above, since the distance value to the gesture pattern is calculated by DP matching, an appropriate gesture pattern can be selected even if the operation pattern fluctuates with time. Further, for example, it is possible to easily cope with a simple deformation in which a stroke operation from the top to the bottom and a stroke operation from the bottom to the top are performed by a series of operations (up, down, up).
なお、ステップS5において、指がセンサ5の表面から離れる動作が発生しても、即座にジェスチャの終了とは判断しないこととしたので、時系列の中には「1」の圧電素子数のが0個の状態の時系列要素が含まれることになる。この場合の移動量ベクトルは次のようにして算出する。すなわち、その前において指がセンサ5の表面に接していた状態と、その後において指がセンサ5の表面に接していた状態との差異に基づいて方向と移動ベクトルの絶対値を与えることとする。例えば、上から下になぞるストローク操作を続けて二回高速に行う場合、指がセンサ5の表面に接していない間の指の移動速度は大きくなると考えられる。またタップ操作を二回繰り返すような場合は、ほぼ同じ位置を二回タップすることが多いので、指の移動速度はほぼ0と考えられる。このように、指が離れている前後のセンサ5に接していた状態に基づいて、指が離れている間の移動量ベクトルを補完することで、ジェスチャの動きを適切に数値化することが可能となる。
In step S5, even if the movement of the finger away from the surface of the
最後に、このようにしてジェスチャパターンごとに算出したDPマッチングの距離値の中で、入力時系列との最も距離値が小さいジェスチャパターンをジェスチャ識別手段の処理結果として出力する(ステップS8)。 Finally, among the DP matching distance values calculated for each gesture pattern in this way, the gesture pattern having the smallest distance value with respect to the input time series is output as the processing result of the gesture identifying means (step S8).
次に制御手段8の処理について説明する。制御手段8は、ジェスチャ識別手段6によって特定されたジェスチャパターンを取得し、このジェスチャパターンに対応する機能を機能テーブル10から特定して、その機能を実行する。図11は、機能テーブル10の内容の例を示す図である。図が示すように、機能テーブル10はジェスチャパターンを識別する情報と、そのジェスチャパターンに対応する開蓋時の機能と閉蓋時の機能との対応表である。表において、「−」(ハイフン)は、対応する機能が存在しない、すなわち、このようなジェスチャ操作を行っても何も機能が実行されないことを意味する。なお、図11に示した例では同一のジェスチャに対する開蓋時機能と閉蓋時機能は常に同一か、あるいは閉蓋時機能がなく開蓋時機能のみが指定されている例のみに限られているが、このような例に限定されるものではなく、
また、すでに述べたように開閉部位2が開蓋状態にあるのか閉蓋状態にあるのか、については、閉蓋操作・開蓋操作に伴ってヒンジ機構4から送出される信号に基づいて判断する。このようにして、制御手段8は、この表を参照してジェスチャ識別手段6が特定したジェスチャパターンに対応する機能を実行するのである。
Next, processing of the control means 8 will be described. The control means 8 acquires the gesture pattern specified by the gesture identification means 6, specifies the function corresponding to this gesture pattern from the function table 10, and executes the function. FIG. 11 is a diagram illustrating an example of the contents of the function table 10. As shown in the figure, the function table 10 is a correspondence table between information for identifying a gesture pattern, and a function at the time of opening and a function at the time of closing corresponding to the gesture pattern. In the table, “-” (hyphen) means that the corresponding function does not exist, that is, no function is executed even if such a gesture operation is performed. In the example shown in FIG. 11, the opening function and the closing function for the same gesture are always the same, or only the opening function is specified without the closing function. However, it is not limited to such an example,
Further, as described above, whether the opening /
このように、端末装置1によれば、筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置に装着されたセンサ5に対して指によるジェスチャ操作を行うことにより操作可能としたので、多様な操作を片手で行うことが可能となる。
As described above, according to the
また、ジェスチャ識別手段6によってジェスチャを切り出し、切り出したジェスチャを複数個組み合わせてジェスチャパターンとした上で、ジェスチャパターンに対応する一纏まりの機能を選択して実行するようにしたので、接触センサを用いたユーザインターフェースにもかかわらず、しっかりとした操作感で操作することが可能となる。 In addition, the gesture identifying means 6 cuts out a gesture, combines a plurality of the cut out gestures into a gesture pattern, and selects and executes a set of functions corresponding to the gesture pattern. The user interface can be operated with a solid operational feeling regardless of the user interface.
またセンサ5を開蓋時と閉蓋時のどちらでも操作できる位置に配置したので、開蓋時のみならず閉蓋時においてもジェスチャ操作が可能である。さらに、機能テーブル10に、各ジェスチャパターンに対応する開蓋時の機能と閉蓋時の機能を記憶させることとし、ヒンジ機構4から得られた閉開蓋情報に基づいてジェスチャパターンに対応するいずれかの機能を選択することとしたので、閉蓋状態・開蓋状態のそれぞれの状態に合わせて最適な機能をジェスチャにより独立して選択できる。
Further, since the
また閉蓋時と開蓋時で独立した機能を対応付けるように構成したことにより、ジェスチャ操作で選択できる機能を制限できる。このため、閉蓋状態で端末装置1を持ち運ぶ場合などに、センサ5に物体が接触する等の原因により、誤ってジェスチャ識別してしまっても、一部の機能が実行されないように制限することが可能なのである。
Further, by configuring the functions so as to be associated with each other when the lid is closed and when the lid is opened, the functions that can be selected by the gesture operation can be limited. For this reason, when carrying the
なお、この発明の実施の形態1においては、この発明による端末装置として、携帯電話端末を例にとって説明した。しかしこのことは、この発明に係る端末装置が携帯電話端末に限定されることを意味するものではない。つまりこの発明は、PDA(Personal Digital Assistant)や電子辞書のような携帯情報機器、さらには固定式電話機の受話器部分(子機を含む)や家電機器のリモコン端末のように片手で把持可能であって、さらにキーを押下して機能選択し操作を行うようになっているあらゆる端末装置に広く適用できるのである。 In the first embodiment of the present invention, a mobile phone terminal has been described as an example of the terminal device according to the present invention. However, this does not mean that the terminal device according to the present invention is limited to a mobile phone terminal. In other words, the present invention can be held with one hand such as a portable information device such as a PDA (Personal Digital Assistant) or an electronic dictionary, a receiver unit (including a slave unit) of a fixed telephone, or a remote control terminal of a home appliance. In addition, the present invention can be widely applied to all terminal devices that are further operated by selecting a function by pressing a key.
さらに、この発明の実施の形態1においては、1次元の接触位置を出力するセンサを用いて構成しているが、接触位置やジェスチャの形状は1次元に限定されるものではなく、2次元であってもよい。2次元のジェスチャのマッチングについても、上述したDPマッチングで行うことが可能であることは広く知られている。
Furthermore, in
また、この発明の実施の形態1においては、ジェスチャ識別手段6においてジェスチャの組み合わせを切り出すこととしたが、この他にもジェスチャ識別手段6で一つ一つのジェスチャ(ストローク操作やタップ操作)を切り出しておき、制御手段8でジェスチャの組み合わせを構成するようにしてもよい。 In the first embodiment of the present invention, the gesture identification unit 6 cuts out a combination of gestures. In addition to this, each gesture (stroke operation or tap operation) is cut out by the gesture identification unit 6. In addition, the control means 8 may constitute a combination of gestures.
実施の形態2.
実施の形態1では、接触センサを用いてこの発明の端末装置1を構成する例について説明したが、接触センサに替えて非接触型センサを用いても構成できる。この発明の実施の形態2による端末装置はかかる特徴を有するものである。
In
図12は、この発明の実施の形態2による端末装置の正面図である。図において、端末装置11は回動可能な部位12(以下、回動部位12という)を有する携帯電話装置である。本体部位13は回動部位12と図示せぬヒンジ機構14によって回動自在に結合されている。センサ15は、実施の形態1におけるセンサ5と同じように、端末装置11の筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置に装着されている。なお、図13は回動部位12の角度を変えた状態の正面図である。また図14は、回動部位12を本体部位13に重ね合わせた状態の正面図である。この図が示すように、回動部位12は、本体部位13の正面の一部(キー操作部)を覆い隠すように開閉自在に装着された部位であって、図14のように回動部位12と本体部位13とをほぼ完全に重ね合わせた状態を、閉蓋時と呼ぶこととする。またそうでない状態のことを開蓋時という。
FIG. 12 is a front view of a terminal device according to
図15は、端末装置11の構成を示すブロック図である。図において、ヒンジ機構14は、実施の形態1におけるヒンジ機構4と同じように開閉操作に伴って、その操作が行われたことを通知する信号を端末装置11の制御部分に送出するようになっている。センサ15は、図12〜図14のセンサ15と同じものであり、非接触型センサであることを特徴としている。このような非接触型センサの例としては、米国Cirque社のTSM9910や、米国Synaptics社製TouchPadなどの静電容量型非接触センサなどがある。これらのセンサは、導体である人体の一部がセンサ表面に近づくことによって生じる静電容量の変化を検知し、そのことを電気信号として出力することが主な原理とされている。しかしながら、この発明においてはいかなる原理でセンサ表面への接近を検出してもよく、例えば赤外線や温度変化を用いてセンサ表面への接近を検出するようなでもよいのである。なお、以下の説明ではセンサ15が静電容量型非接触センサを用いて構成されているものとして説明する。
FIG. 15 is a block diagram illustrating a configuration of the
ジェスチャ操作履歴16は、操作者がセンサ15に対して行ったジェスチャ操作に関する情報のうち、ジェスチャ操作の速さを表す情報、例えば各ジェスチャ完了までの所要時間を蓄積し、記憶するジェスチャ操作履歴ファイルであり、記憶素子や記憶回路、又は記憶媒体を用いて構成されている。所要時間算出手段17は、ジェスチャ操作履歴16に記憶されているジェスチャ操作の速さを表す情報に基づいて、ジェスチャ操作完了の所要時間の最大値算出する部位である。なお、所要時間算出手段17は、コンピュータプログラムと中央演算装置との組み合わせによって同様の機能を実現するように構成されていてもよい。
The
なお、その他図4と同一の符号を付された構成要素については実施の形態1と同様であるので、説明を省略する。また端末装置11は、この発明の実施の形態の一例として、携帯電話として構成したものである。したがって、図15に示した構成要素以外に、無線部や電源制御部、テンキー、LEDや表示部などの構成要素を備えているが、そのような構成要素の実現方式は、この発明の構成には直接影響するものではないので、それらの部位についても説明を省略する。
The other components denoted by the same reference numerals as those in FIG. 4 are the same as those in the first embodiment, and thus the description thereof is omitted. The
続いて、端末装置11の動作について説明する。図14は、端末装置11の動作のフローチャートである。なお、図14において図6のフローチャートと同一の符号を付したステップは、実施の形態1と同様であるので、ここでは異なる動作ステップ部分についてのみ説明を行うこととする。
Next, the operation of the
まずセンサ15に指が接近すると、センサ15は割り込み信号を発生し、ジェスチャ識別手段6にジェスチャの開始を通知する。これを受けてジェスチャ識別手段6では図14の処理が活性化され、処理が開始される。それと同時に、センサ15は、いくつかのプロット(代表点)における指とセンサ表面との距離の情報を表す信号をプロット毎に出力する。この信号は、図15に示すように表面と接触しているプロット(距離0)で最大となり、一定の距離以上離れたプロットでは0となる。したがって最大値となるプロットの個数を数えれば、接触面の大きさを求めることができる。
First, when a finger approaches the
また最大値のプロットに替えて、一定値以上の信号値となるプロットの個数を数えることでも、接触面の大きさと同等の情報を得ることができる。これによって非接触ではあるが、センサ表面に指を接触させている状態の情報も取得できるので、識別可能なジェスチャパターンの数を増やすことができ、したがって数多くの機能をそれぞれ特有のジェスチャ操作で指示することが可能となる。 Also, by replacing the maximum value plot with the number of plots having a signal value equal to or greater than a certain value, information equivalent to the size of the contact surface can be obtained. As a result, it is possible to obtain information on the state where the finger is in contact with the sensor surface even though it is non-contact, so that the number of identifiable gesture patterns can be increased, and therefore many functions can be indicated by specific gesture operations. It becomes possible to do.
ステップS1でこのセンサ15の状態を取得し、以降ステップS2〜S4まで処理を行った時点で、ジェスチャ識別手段6は、所要時間算出手段17を用いて、ジェスチャ完了の所要時間の最大値を算出する。所要時間算出手段17は、ジェスチャ操作履歴16に蓄積されているジェスチャ操作の速さを表す情報に基づいて、ジェスチャ完了の所要時間の最大値を決定する。ジェスチャ完了の所要時間の最大値の決定方法としては、例えばジェスチャ操作履歴16に記憶されるジェスチャ操作の速さを表す情報が、各ジェスチャ完了までの所要時間であるならば、所要時間の平均値を求め、この平均値にある一定のマージン値を加えた値を所要時間の最大値とする、などの方法が考えられる。
When the state of the
また、ジェスチャ操作の速さを表す情報としては、移動量ベクトルから算出された指の移動速度としてもよく、この場合には、例えば図15に示すように、この指の移動速度を数段階に分けて、それぞれの段階に応じてタイムアウト値を設けておいて、このタイムアウト値に基づいて決定するようにしてもよい。 Also, the information indicating the speed of the gesture operation may be the finger moving speed calculated from the moving amount vector. In this case, for example, as shown in FIG. Alternatively, a timeout value may be provided according to each stage, and the determination may be made based on this timeout value.
ステップS5において、センサ15の状態が定常状態になってから所要時間算出手段17が算出したジェスチャ完了の所要時間の最大値が経過したかどうかを調べ、経過している場合にはそこでジェスチャが完了したものと判断する。ここでセンサ15が定常状態となった場合とは、時系列の前の要素と今回の要素が変化がない状態をいう。そしてジェスチャが終了したと判定した場合には(ステップS5:Yes)、ステップS52に進み、ジェスチャの速さを表す情報をジェスチャ操作履歴16に記憶させる。その後ステップS6〜S8は実施の形態1と同様である。
In step S5, it is checked whether or not the maximum required time for completion of the gesture calculated by the required time calculation means 17 has elapsed since the state of the
また、制御手段8がヒンジ機構14から通知される信号に基づいて、開蓋時と閉蓋時のそれぞれの機能をジェスチャパターンに合わせて選択する点についても、実施の形態1と同様である。
The
以上のように、この発明の実施の形態2の端末装置によれば、回動部位12を備えた開閉自在の筐体を有する端末装置において、開蓋時と閉蓋時の双方で外部から露出する位置にセンサ15を装着したので、どちらの状態であってもセンサ15に対するジェスチャを行うことで、操作を行うことができる。
As described above, according to the terminal device according to the second embodiment of the present invention, in the terminal device having an openable / closable housing having the rotation part 12, it is exposed from the outside both when the lid is opened and when the lid is closed. Since the
またジェスチャ操作履歴16と所要時間算出手段17とを備え、ジェスチャ操作の速さを表す情報に基づいて、ジェスチャ完了までの時間を変更するように構成した。これによって、操作者の操作習熟度が上がり、手早く操作できるようになってきた場合に、より短時間かつ効率的に操作が行えるようになるのである。
The
なお上述の記載においては、毎回ジェスチャ完了までの時間を設定しなおすこととして処理の説明を行ったが、学習モード・定常モードのように、一時期のみジェスチャ完了までの時間を変更するようにし、以降は変更しないようにしておいてもよい。 In the above description, the processing has been described as resetting the time until completion of the gesture every time, but the time until completion of the gesture is changed only once, as in the learning mode / steady mode, and thereafter May be left unchanged.
また実施の形態1の端末装置では折り畳み式の筐体を有するものとして、さらに端末装置11では回動可能な部位を備える筐体を有するものとして、この発明の実施の形態を説明してきたが、所謂フリップ式やスライド式などの筐体を有するものであっても適用可能であることはいうまでもないのである。
Moreover, although the terminal device of
この発明は、特に携帯電話を初めとする携帯情報端末やテレビやオーディオ、家電製品などのリモコン端末を効率的に操作するユーザインターフェースに適用可能である。 The present invention is particularly applicable to a user interface for efficiently operating a portable information terminal such as a mobile phone, or a remote control terminal such as a television, audio, or home appliance.
5、15 センサ、6 ジェスチャ識別手段、8 制御手段、16 ジェスチャ操作履歴、17 所要時間算出手段。
5, 15 sensors, 6 gesture identification means, 8 control means, 16 gesture operation history, 17 required time calculation means.
Claims (2)
上記筐体に開閉自在に装着され閉蓋時に上記筐体の正面の一部を覆い隠す部位と、
上記筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であって、上記部位の閉蓋時と開蓋時のいずれにおいても外部に露出する位置に装着され、接触した指の接触位置を検出するセンサと、
このセンサにより検出された接触位置の時系列からジェスチャを切り出すジェスチャ識別手段と、
このジェスチャ識別手段により切り出された複数のジェスチャを組み合わせて、組み合わされた複数のジェスチャに対応する機能を実行する制御手段とを備え、
前記センサは、さらに指の接触面の大きさを検出し、
前記ジェスチャ識別手段は、このセンサに検出された接触位置の時系列から、上記接触面の大きさが所定値を下回った時間帯における接触位置の時系列を棄却してジェスチャを切り出し、入力時系列およびジェスチャパターンのベクトル要素から算出した絶対距離値にペナルティ値を加味したマッチングによる距離値を算出し、ジェスチャーパターンの算出に前記マッチングによる距離値を用いたことを特徴とする端末装置。 In a terminal device that has a casing that can be gripped with one hand and is used by operating a key with a finger of a hand that grips the casing,
A part that is attached to the casing so as to be freely opened and closed and covers a part of the front of the casing when the lid is closed;
A position where the hand holding the housing can be touched with the finger of the hand while maintaining the position where the key can be operated, and is exposed to the outside both when the part is closed and when the cover is opened. A sensor that detects the contact position of the finger that is worn and touched;
Gesture identification means for cutting out a gesture from a time series of contact positions detected by the sensor;
Control means for combining a plurality of gestures cut out by the gesture identification means and executing a function corresponding to the plurality of gestures combined;
The sensor further detects the size of the contact surface of the finger,
The gesture identification means, from the time series of the contact position detected in the sensor, to cut out the gesture size of the contact surface dismissed time series of the contact position in the time zone below a predetermined value, the input A terminal device characterized by calculating a distance value by matching in which a penalty value is added to an absolute distance value calculated from vector elements of a time series and a gesture pattern, and using the distance value by the matching for calculating a gesture pattern .
上記筐体に開閉自在に装着され閉蓋時に上記筐体の正面の一部を覆い隠す部位と、 A part that is attached to the casing so as to be freely opened and closed and covers a part of the front of the casing when the lid is closed;
上記筐体を把持する手をキー操作可能な位置に維持したままその手の指で接触可能な位置であって、上記部位の閉蓋時と開蓋時のいずれにおいても外部に露出する位置に装着され、接触した指の接触位置を検出するセンサと、 A position where the hand holding the casing can be touched with a finger of the hand while maintaining the position where the key can be operated, and is exposed to the outside both when the part is closed and when the lid is opened. A sensor that detects the contact position of a finger that is worn and touched;
このセンサにより検出された接触位置の時系列からジェスチャを切り出すジェスチャ識別手段と、 Gesture identification means for cutting out a gesture from a time series of contact positions detected by the sensor;
このジェスチャ識別手段により切り出された複数のジェスチャを組み合わせて、組み合わされた複数のジェスチャに対応する機能を実行する制御手段とを備え、 Control means for combining a plurality of gestures cut out by the gesture identification means and executing a function corresponding to the plurality of gestures combined;
前記センサは、さらに指の接触面の大きさを検出し、The sensor further detects the size of the contact surface of the finger,
前記ジェスチャ識別手段は、このセンサに検出された接触位置の時系列から、上記接触面の大きさが所定値を下回った時間帯における接触位置の時系列を棄却してジェスチャを切り出し、更に、指がセンサの表面から離れる動作が発生しても、即座にジェスチャの終了とは判断せず、センサの表面から指が離れる前の指がセンサの表面に接していた状態と、その後において指がセンサの表面に接していた状態との差異に基づいて方向と移動ベクトルの絶対値を与え、ジェスチャ認識することを特徴とする端末装置。The gesture identifying means cuts out the gesture by rejecting the time series of the contact position in the time zone in which the size of the contact surface is below a predetermined value from the time series of the contact position detected by the sensor, Does not immediately determine that the gesture has ended, and the finger is in contact with the sensor surface before the finger is released from the sensor surface. A terminal device characterized by giving an absolute value of a direction and a movement vector based on a difference from a state of being in contact with the surface of the object and recognizing a gesture.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004119967A JP4015133B2 (en) | 2004-04-15 | 2004-04-15 | Terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004119967A JP4015133B2 (en) | 2004-04-15 | 2004-04-15 | Terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005303870A JP2005303870A (en) | 2005-10-27 |
JP4015133B2 true JP4015133B2 (en) | 2007-11-28 |
Family
ID=35334850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004119967A Expired - Fee Related JP4015133B2 (en) | 2004-04-15 | 2004-04-15 | Terminal device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4015133B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101015352B1 (en) * | 2005-05-27 | 2011-02-16 | 샤프 가부시키가이샤 | Display device |
JP4721986B2 (en) * | 2006-08-25 | 2011-07-13 | 京セラ株式会社 | Portable electronic device and method for controlling portable electronic device |
JP5063118B2 (en) * | 2007-01-09 | 2012-10-31 | 京セラドキュメントソリューションズ株式会社 | Gesture authentication method and gesture authentication device |
JP4853302B2 (en) * | 2007-01-19 | 2012-01-11 | 日本電気株式会社 | Command input device for portable terminal and command input method for portable terminal |
US20110126094A1 (en) * | 2009-11-24 | 2011-05-26 | Horodezky Samuel J | Method of modifying commands on a touch screen user interface |
US8432368B2 (en) * | 2010-01-06 | 2013-04-30 | Qualcomm Incorporated | User interface methods and systems for providing force-sensitive input |
JP2012194810A (en) * | 2011-03-16 | 2012-10-11 | Kyocera Corp | Portable electronic apparatus, method for controlling contact operation, and contact operation control program |
JP2013020304A (en) * | 2011-07-07 | 2013-01-31 | Ntt Docomo Inc | Mobile information terminal, action feature learning method, action feature authentication method, and program |
JP5843693B2 (en) * | 2012-05-18 | 2016-01-13 | 三菱電機株式会社 | Touch panel device |
JP6031600B2 (en) * | 2012-07-15 | 2016-11-24 | アップル インコーポレイテッド | Disambiguation of 3D interaction multi-touch gesture recognition |
CN103116417A (en) * | 2013-01-30 | 2013-05-22 | 华为技术有限公司 | Touching strip and mobile terminal device |
US9575557B2 (en) * | 2013-04-19 | 2017-02-21 | Qualcomm Incorporated | Grip force sensor array for one-handed and multimodal interaction on handheld devices and methods |
CN114506754B (en) * | 2020-11-17 | 2023-12-05 | 上海三菱电梯有限公司 | Non-contact button operation recognition system |
-
2004
- 2004-04-15 JP JP2004119967A patent/JP4015133B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005303870A (en) | 2005-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9965044B2 (en) | Information processing method, apparatus, and device | |
US8451254B2 (en) | Input to an electronic apparatus | |
JP5243967B2 (en) | Information input using sensors attached to fingers | |
TWI420889B (en) | Electronic apparatus and method for symbol input | |
JP4699955B2 (en) | Information processing device | |
JP5977627B2 (en) | Information processing apparatus, information processing method, and program | |
KR100782927B1 (en) | Apparatus and method for inputting character in portable terminal | |
JP4015133B2 (en) | Terminal device | |
US6415165B1 (en) | Portable telephone device with additional display and data inputting capability | |
US20080136679A1 (en) | Using sequential taps to enter text | |
US20100164880A1 (en) | Method of converting touch pad into touch mode or number-key and/or hot-key input mode | |
JP3143445U (en) | Electronic devices that do not interfere with contact movement | |
JP6109788B2 (en) | Electronic device and method of operating electronic device | |
JP2007207107A (en) | Portable terminal | |
KR20100062899A (en) | Inputting method and device using touch pattern | |
TWI520045B (en) | Method for determining keys of a virtual keyboard and touch-controlled device utilizing the same | |
WO2018112803A1 (en) | Touch screen-based gesture recognition method and device | |
US8064946B2 (en) | Handheld wireless communication device | |
WO2001015411A1 (en) | Operating device | |
JP2012168869A (en) | Portable terminal and key operation device | |
US20200050314A1 (en) | Touch sensing method, electronic device and non-transitory computer readable recording medium device | |
JP2014167712A (en) | Information processing device, information processing method, and program | |
JP2009157709A (en) | Pointing device | |
CN103713840B (en) | Portable apparatus and its key hit area adjustment method | |
US20070254699A1 (en) | Handheld wireless communication device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20050916 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070912 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |