JPWO2010143673A1 - 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム - Google Patents
電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム Download PDFInfo
- Publication number
- JPWO2010143673A1 JPWO2010143673A1 JP2011518567A JP2011518567A JPWO2010143673A1 JP WO2010143673 A1 JPWO2010143673 A1 JP WO2010143673A1 JP 2011518567 A JP2011518567 A JP 2011518567A JP 2011518567 A JP2011518567 A JP 2011518567A JP WO2010143673 A1 JPWO2010143673 A1 JP WO2010143673A1
- Authority
- JP
- Japan
- Prior art keywords
- data
- trajectory
- display
- touch panel
- panel display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 18
- 230000006870 function Effects 0.000 description 43
- 238000010586 diagram Methods 0.000 description 13
- 238000000034 method Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
そこで、クオリティの高い表示を生かしつつ操作の分かりやすさを実現するために、タッチパネルディスプレイが採用されている。タッチパネルディスプレイは、利用者がタッチしたものを入力データとして入力するタッチパネルの機能と、実行結果を表示するための表示部の機能とを有している。タッチパネルディスプレイに表示された表示データに対して、利用者がタッチパネルディスプレイを指やペンなどで指し示す(タッチする)ことによって、キー操作によるカーソルの移動と決定キーによる選択決定のプロセスを短縮することができる。これにより、入力回数の少ない操作が実現されるようになった。
更に、タッチパネルディスプレイを利用した技術として、ジェスチャー入力という手法が実現されている。ジェスチャー入力とは、利用者がタッチパネルディスプレイをタッチして所定の軌跡(入力軌跡)を入力することを指す。図14Aに示されるように、予め決められた軌跡213−1が携帯端末装置の記憶部に登録され、図14Bに示されるように、入力軌跡220と軌跡213−1とが一致する場合、携帯端末装置は、軌跡213−1に対応する機能を起動させて実行する。
しかし、現在のジェスチャー入力の方法には、以下のような問題点がある。
まず、第1の問題点について説明する。ジェスチャー入力では、利用者は、予め決められた軌跡データと同じ軌跡を入力軌跡として描く必要がある。このため、複数種類の軌跡データが存在する場合、利用者は、複数の軌跡データを記憶していなければならない。この場合、利用者は、記憶違いや、あいまいな軌跡の入力により、ジェスチャー入力を利用できないことが考えられる。この場合、図14Bに示されるように、入力軌跡221と軌跡213−1とが一致しないので、携帯端末装置は、利用者の所望の機能を起動・実行しない。このため、利用者に対して、ジェスチャー入力をサポートすることが望まれる。
次に、第2の問題点について説明する。携帯端末装置は、利用者によるタッチパネルディスプレイへのタッチ操作、又は、利用者による入力部の操作に基づいて処理を実行し、その処理に基づいて生成した表示データをタッチパネルディスプレイに表示する。このとき、携帯端末装置は、この表示データをタッチパネルディスプレイに表示した際に、常にジェスチャー入力を受け付けるとは限らない。これは、ソフトウェアの中には、ジェスチャー入力に対応しているものと対応していないものとが存在するためである。ここで例えば、ジェスチャー入力に対応していないソフトウェアを実行中に、このソフトウェアで用いる表示データがタッチパネルディスプレイに表示され、利用者がタッチパネルディスプレイをタッチして所定の軌跡を描いたとする。このとき、ソフトウェアは処理を行わない。しかしながら、利用者は、ソフトウェアが処理を行わない理由が、実行中のソフトウェアがジェスチャー入力に対応しておらず、携帯端末装置がジェスチャー入力を受け付ける状態でなかったためなのか、描いた軌跡が誤っていたためなのか、それともジェスチャー入力の入力ミスであるためなのかを判断することができない。このため、ジェスチャー入力を受け付けるか否かを利用者が判断できることが望まれる。
ジェスチャー入力に関する技術を紹介する。
特許文献1には、携帯端末が記載されている。携帯端末は、カメラから入力された判定対象物の移動軌跡に関連付けられた動作を実行するカメラ入力インタフェースを備えている。携帯端末は、更に、判定対象物の移動軌跡と移動軌跡に関連付けられた動作との対応関係を示す操作ガイダンス情報を出力する手段と、入力を受け付けた判定対象物の移動軌跡をディスプレイの表示内容に重ねるように描画する手段と、を備えたことを特徴としている。
特許文献2には、ユーザインタフェース装置が記載されている。ユーザインタフェース装置は、記憶手段と、軌跡解析手段と、ジェスチャー検索手段と、案内軌跡表示手段と、コマンド呼出手段とを備えている。記憶手段は、所定のコマンドが割り付けられているジェスチャーを記憶するとともに、そのジェスチャーを誘導する案内軌跡を記憶する。軌跡解析手段は、軌跡入力デバイスに対するユーザの操作軌跡を解析する。ジェスチャー検索手段は、軌跡解析手段がユーザの操作軌跡を解析する毎に、記憶手段に記憶されているジェスチャーの中から、その操作軌跡に合致する1以上のジェスチャーを検索する。案内軌跡表示手段は、記憶手段からジェスチャー検索手段により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡を表示する一方、ジェスチャー検索手段により前回検索されたジェスチャーがユーザの操作軌跡と合致しなくなると、表示しているジェスチャーの案内軌跡を消去する。コマンド呼出手段は、ジェスチャー検索手段により検索されたジェスチャーが1つに絞られると、そのジェスチャーに割り付けられているコマンドを呼び出す。
特許文献2に記載された技術は、軌跡データを正確に覚えていないときに、軌跡データに割り付けられたコマンドを利用するものである。この技術では、利用者による入力軌跡(操作軌跡)に一致する1以上の軌跡データ(案内軌跡)をタッチパネルディスプレイに表示することにより、利用者に対してジェスチャー入力をサポートしている点で上述の第1の問題点が一部解決されているが、やはり、利用者は複数の軌跡データを記憶していなければならない。また、上述の第2の問題点については全く考慮されていない。
本発明の目的は、上述した課題である、ジェスチャー入力をサポートし、さらに、利用者が、電子機器がジェスチャー入力を受け付ける状態であるか否かを判断することができないという課題を解決する電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラムを提供することである。すなわち、本発明の目的は、ジェスチャー入力をサポートすることができ、電子機器がジェスチャー入力を受け付ける状態であるか否かを利用者が判断することができる電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラムを提供することにある。
また、本発明のジェスチャー処理方法は、タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいてジェスチャー入力を受け付けるか否かを判別し、ジェスチャー入力を受け付けると判別した場合は、表示データに関連付けられた軌跡関連情報に含まれる軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示する。
また、本発明のジェスチャー処理プログラムは、コンピュータに、タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいてジェスチャー入力を受け付けるか否かを判別させ、ジェスチャー入力を受け付けると判別した場合は、表示データに関連付けられた軌跡関連情報に含まれる軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示させる。
図2は、本発明の第1の実施形態に係る電子機器の構成を示すブロック図である。
図3は、記憶部に記憶される情報を示す図である。
図4は、本発明の第1の実施形態に係るジェスチャー処理方法を示すフローチャートである。
図5Aは、軌跡データを示す図である。
図5Bは、別の軌跡データを示す図である。
図5Cは、表示データを示す図である。
図5Dは、軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示した例を示す図である。
図6は、軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示した別の例を示す図である。
図7は、機能情報を、軌跡データと表示データとに重ねてタッチパネルディスプレイにオーバレイ表示した例を示す図である。
図8は、本発明の第3の実施形態に係る携帯端末装置の外観構成を示している。
図9は、本発明の第3の実施形態に係る携帯端末装置の構成を示すブロック図である。
図10は、データベースの内容を示している。
図11は、本発明の第3の実施形態に係る携帯端末装置の動作の処理を示すフローチャートである。
図12は、本発明の第3の実施形態に係る携帯端末装置の動作の処理を示すフローチャートである。
図13Aは、軌跡データ13−iの例を示している。
図13Bは、軌跡データ13−iと画像データ11−1とがタッチパネルディスプレイ1にオーバレイ表示されているときに、利用者が、軌跡データ13−iを参考にしてタッチパネルディスプレイ1に入力軌跡20をジェスチャー入力した例である。
図14Aは、軌跡データの例を示している。
図14Bは、入力軌跡と軌跡データとが一致する例と入力軌跡と軌跡データとが一致しない例とを示している。
〔第1の実施形態〕
図1は、本発明の第1の実施形態に係る電子機器100の外観構成を示す図である。電子機器100はジェスチャー入力を可能とするタッチパネルディスプレイ101を備える。
図2は、電子機器100の構成を示すブロック図である。電子機器100は、タッチパネルディスプレイ101と、記憶部104と、制御部103とを有する。記憶部104は、複数の表示データ111と、各々の表示データ111に関連付けられた軌跡関連情報115と、を記憶する。ここで、表示データ111は、図3に示すように、画像A(111−1)、画像B(111−2)などの画像データや、文字列H(111−3)などの文字データなどである。また、軌跡関連情報115−1、115−2には、図3に示すように、軌跡a1(113−1)や軌跡a2(113−2)などの軌跡データ113と、軌跡データ113に関連付けられた機能a1(114−1)や機能a2(114−2)などの機能情報114とが含まれる。
制御部103は、タッチパネルディスプレイ101に表示する表示データ111に関連付けられた軌跡関連情報115に基づいて、ジェスチャー入力を受け付けるか否かを判別する。そして、ジェスチャー入力を受け付けると判別した場合は、この表示データ111に関連付けられた軌跡関連情報115に含まれる軌跡データ113を表示データ111に重ねてタッチパネルディスプレイ101にオーバレイ表示する。なお、タッチパネルディスプレイ101に表示する表示データ111は、記憶部104に記憶された複数の表示データ111の中から、制御部103が適宜選択したものである。制御部103は、例えば、利用者の入力に基づいてタッチパネルディスプレイ101に表示する表示データ111を選択する。
本実施形態に係る電子機器100によれば、制御部103が、表示データ111に関連付けられた軌跡関連情報115に基づいて、ジェスチャー入力を受け付けるか否かを判別する。さらに、ジェスチャー入力を受け付けると判別した場合は、軌跡データ113を表示データ111に重ねてタッチパネルディスプレイ101にオーバレイ表示する。そのため、電子機器100により、ジェスチャー入力をサポートすることができ、利用者は軌跡を記憶せずとも、正しい軌跡を正確にジェスチャー入力することができる。
また、本実施形態に係る電子機器100によれば、ジェスチャー入力を受け付ける場合は軌跡データがタッチパネルディスプレイ101にオーバレイ表示されるため、利用者は、オーバレイ表示した状態の電子機器100がジェスチャー入力を受け付けることを判断することができる。また、軌跡データ113がオーバレイ表示されない場合は、利用者は、ジェスチャー入力を受け付けないことを判断することができる。
次に、本実施形態に係るジェスチャー処理方法について、図4を用いて説明する。
はじめに、表示データに関連付けられた軌跡関連情報に基づいて、ジェスチャー入力を受け付けるか否かを判別する(ステップS101)。
ここで、ジェスチャー入力を受け付けると判別した場合は、軌跡データを表示データに重ねてタッチパネルディスプレイにオーバレイ表示する(ステップS102)。
一方、ジェスチャー入力を受け付けないと判別した場合は、軌跡データを表示データに重ねてオーバレイ表示しない。このとき、例えば、制御部103は、表示データのみをタッチパネルディスプレイ101に表示することとしても良い。
軌跡データ113を表示データ111に重ねてオーバレイ表示することについて図5を用いて説明する。図5A、図5Bに、軌跡データとして、軌跡a1(113−1)、軌跡a2(113−2)を示す。また、図5Cに、表示データとして、画像A(111−1)を示す。画像A(111−1)は、メールを表す画像データである。軌跡a1(113−1)、軌跡a2(113−2)を画像A(111−1)に重ねてタッチパネルディスプレイ101にオーバレイ表示すると、図5Dのようになる。利用者は、オーバレイ表示されたディスプレイを確認することにより、軌跡データ113の表示の有無に基づいて、電子機器100がジェスチャー入力を受け付ける状態であるか否かを判別することができ、さらに、どのような軌跡のジェスチャー入力を受け付けるかを瞬時に把握することが可能となる。
記憶部104には、ジェスチャー入力を受け付けるか否かを表す可否情報が含まれることとしても良い。可否情報が含まれることにより、制御部103は、可否情報に基づいて、ジェスチャー入力を受け付けるか否かを判別することが可能となる。
図3に示すように、軌跡関連情報115が軌跡データ113と機能情報114とを含む場合、所定の表示データ111に関連付けられた軌跡データ113又は機能情報114の有無に基づいて、制御部103はジェスチャー入力を受け付けるか否かを判別する。例えば、画像A(111−1)には、これに関連付けられた軌跡a1(113−1)と機能a1(114−1)、軌跡a2(113−2)と機能a2(114−2)が存在するため、画像A(111−1)をディスプレイに表示する場合には、制御部103はジェスチャー入力を受け付けると判別することができる。一方、画像B(111−2)には、これに関連付けられた軌跡データ113及び機能情報114が存在しない。そのため、画像B(111−2)をディスプレイに表示する場合には、制御部103はジェスチャー入力を受け付けないと判別することができる。なお、画像B(111−2)の軌跡データ113欄と機能情報欄114には「0」が記載されているが、これは、各欄に該当するものがないことを意味している。
一つの表示データ111に、複数の軌跡関連情報115が関連付けられることとしても良い。この場合、制御部103は、複数の軌跡関連情報115に含まれる複数の軌跡データ113を表示データ111に重ねてタッチパネルディスプレイ101にオーバレイ表示するのが望ましい。これにより、利用者は、複数種類の軌跡を瞬時に把握することが可能となる。
軌跡データ113が複数ある場合は、各軌跡データ113を異なる表示形式にしてオーバレイ表示するのが望ましい。例えば、図6に示すように、軌跡163−1、163−2のそれぞれを異なる線種に設定することにより、利用者はそれぞれの軌跡163−1、163−2を正確に把握することができる。また、軌跡163−1、163−2のそれぞれを異なる色に設定しても、利用者は同様の効果を得ることができる。
制御部103は、軌跡データ113に関連付けられた機能情報114を、軌跡データ113と表示データ111とに重ねてタッチパネルディスプレイ101にオーバレイ表示することとしても良い。例えば、図7に示すように、軌跡a1(113−1)と併せて機能a1(114−1)を表示し、さらに、軌跡a1(113−2)と併せて機能b2(114−1)を表示する。これにより、利用者は、それぞれの軌跡a1(113−1)、軌跡a2(113−2)をジェスチャー入力すると、どのような機能が実行されるかを理解することができる。図7には、軌跡a1(113−1)がジェスチャー入力された場合はテキスト入力機能(text−entry)を実行し、軌跡a2(113−2)がジェスチャー入力された場合はメール送信機能(send)を実行する例を示す。
〔第2の実施形態〕
次に、本発明の第2の実施形態について説明する。第2の実施形態では、表示データと軌跡データとを重ねてタッチパネルディスプレイにオーバレイ表示した後の電子機器の制御に関して説明する。なお、表示データと軌跡データとを重ねてオーバレイ表示することについては第1の実施形態にて説明済みであるため、本実施形態では説明を省略する。
第2の実施形態に係る電子機器100の制御部103は、軌跡データ113と表示データ111とがタッチパネルディスプレイ101にオーバレイ表示されているときにジェスチャー入力が行われた場合、軌跡データ113の中から、ジェスチャー入力により入力された入力軌跡に一致する軌跡データ113を選択軌跡データとして確定する。そして、選択軌跡データに関連付けられた機能を実行する。例えば、入力軌跡が軌跡a1(113−1)と一致した場合は、機能a1(114−1)を実行する(図3)。これにより、利用者は、ジェスチャー入力を用いて所望の機能を電子機器100に実行させることが可能となる。
制御部103は、選択軌跡データを確定した後に、軌跡データ113をタッチパネルディスプレイ101に表示することを終了することとしても良い。これにより、利用者は選択軌跡データが確定されたことを把握することが可能となる。
制御部103は、タッチパネルディスプイレイ101に表示した軌跡データ113の中に入力軌跡に一致する軌跡データが存在しないと判別した場合、軌跡データ113をタッチパネルディスプレイ101に表示することを終了しても良い。これにより、利用者は選択軌跡データが確定されなかったことを把握することが可能となる。
また、制御部103は、軌跡データ113を表示データ111に重ねてオーバレイ表示した後に所定時間内にジェスチャー入力が行われなかった場合、軌跡データ113をタッチパネルディスプレイ101に表示することを終了することとしても良い。
〔第3の実施形態〕
次に、本発明の第3の実施形態について説明する。第3の実施形態に係る電子機器は携帯端末装置である。第3の実施形態に係る携帯端末装置の制御部は、可否情報に基づいて、ジェスチャー入力を受け付けるか否かを判別する。また、表示データとして、文字データを画像データとしたものを用いる。
図8は、本実施形態に係る携帯端末装置の外観構成を示している。
本実施形態に係る携帯端末装置は、タッチパネルディスプレイ1と、入力部2とを具備している。タッチパネルディスプレイ1は、利用者がタッチしたものを入力データとして入力するタッチパネルの機能と、実行結果を表示するための表示部の機能とを有している。
図9は、本実施形態に係る携帯端末装置の構成を示すブロック図である。
本実施形態に係る携帯端末装置は、更に、CPU(Central Processing Unit)である制御部3と、記録媒体である記憶部4とを具備している。記憶部4には、コンピュータに実行させるためのコンピュータプログラム5が記憶されている。制御部3は、起動時などに記憶部4からコンピュータプログラム5を読み取って実行する。
記憶部4は、機能6−1〜6−m(mは2以上の整数)を有している。具体的には、ソフトウェアである機能6−1〜6−mが更に記憶部4に記憶され、制御部3が、後述の動作により、記憶部4から機能6−1〜6−mのうちの1つの機能である機能6−i(iは1≦i≦mを満たす整数)を起動させて実行する。
記憶部4は、データベース7を備えている。図10は、データベース7の内容を示している。
データベース7は、複数パターンの画像データ11−1〜11−n(nは2以上の整数)を記憶する。制御部3は、後述の動作により、データベース7から複数パターンの画像データ11−1〜11−nのうちの1つの画像データを選択し、タッチパネルディスプイレイ1に表示する。
データベース7には、更に、複数パターンの画像データ11−1〜11−nの各々に対して、可否情報12が登録されている。可否情報12は、画像データ11を用いるソフトウェアがジェスチャー入力に対応するか否かを表す。ソフトウェアがジェスチャー入力に対応する場合は、画像データ11をタッチパネルディスプレイ1に表示した際に、携帯情報端末はジェスチャー入力を受け付ける状態になる。一方、ソフトウェアがジェスチャー入力に対応しない場合は、画像データ11をタッチパネルディスプレイ1に表示した際に、携帯情報端末はジェスチャー入力を受け付けない状態となる。
データベース7には、更に、画像データ11に関連付けられた軌跡関連情報15が登録されている。ここでは、画像データ11−1に関連付けられた軌跡関連情報15−1〜15−mが登録されている例を示す。軌跡関連情報15−1〜15−mは、それぞれ、軌跡データ13−1〜13−mと、軌跡データ13−1〜13−mに関連付けられた機能6−1〜6−mの名称である機能情報14−1〜14−mとを含んでいる。
図11は、携帯端末装置の動作として、可否情報と軌跡関連情報とをデータベースに7登録する処理を示すフローチャートである。
まず、複数パターンの画像データ11−1〜11−nの各々に対して、上述の可否情報12をデータベース7に登録する(ステップS1)。可否情報12の登録については、例えば設計者が予め行う。
次に、上述の軌跡関連情報15−1〜15−mを、画像データ11−1に関連付けて、データベース7に登録する(ステップS2)。軌跡関連情報15−1〜15−mの登録については、例えば設計者が予め行う。そして、さらに追加して登録する場合は、利用者が行ってもよい。
図12は、本実施形態に係るジェスチャー処理方法を示すフローチャートである。
利用者は、タッチパネルディスプレイ1へのタッチ操作、又は、入力部2の操作を行っていない(ステップS11−NO)。この場合、制御部3は、現在の画像データをタッチパネルディスプレイ1に表示する。即ち、待機状態である。
利用者は、タッチパネルディスプレイ1へのタッチ操作、又は、入力部2の操作を行ったものとする(ステップS11−YES)。この場合、制御部3は、複数パターンの画像データ11−1〜11−nのうちの、利用者によるタッチパネルディスプレイ1へのタッチ操作、又は、利用者による入力部2の操作に基づいて選択した画像データ11をタッチパネルディスプレイ1に表示する(ステップS12)。
制御部3は、データベース7を参照する(ステップS13)。
ここで、画像データ11に対する可否情報12は、ジェスチャー入力を受け付けることが可能であることを表しているものとする(ステップS13−YES)。この場合、制御部3は、データベース7に登録された軌跡データ13を画像データ11に重ねてタッチパネルディスプレイ1にオーバレイ表示する(ステップS14)。例えば、図13Aは、軌跡データ13−iの例を示し、図13Bは、画像データ11−1と軌跡データ13−iとがオーバレイ表示された例を示している。画像データ11−1には、「お世話になっております。ご質問について、」という文字列が含まれている。軌跡データ13−iには機能情報14−iが関連付けられている。
軌跡データ13と画像データ11とがタッチパネルディスプレイ1にオーバレイ表示されているときに、制御部3は、タッチパネルディスプレイ1に対して利用者によりジェスチャー入力が行われるか否かを所定時間が経過するまで監視する(ステップS15−NO、S19−NO)。
監視の結果、タッチパネルディスプレイ1に対して利用者によりジェスチャー入力が行われたものとする(ステップS15−YES)。この場合、制御部3は、軌跡関連情報15に含まれる軌跡データ13の中から、入力軌跡20(図13A参照)に一致する軌跡データ13、例えば13−i(図13B参照)を選択軌跡データとして選択(確定)する(ステップS16−YES)。例えば、図13Bは、軌跡データ13−iと画像データ11−1とがタッチパネルディスプレイ1にオーバレイ表示されているときに、利用者が、軌跡データ13−iを参考にしてタッチパネルディスプレイ1に入力軌跡20をジェスチャー入力した例である。
選択軌跡データ13が確定されたとき、制御部3は、タッチパネルディスプレイ1への軌跡データ13の表示を終了する(ステップS17)。そして、制御部3は、選択軌跡データに対応する機能6を起動させて実行する(ステップS18)。具体的には、制御部3は、データベース7に登録された軌跡関連情報15に含まれる機能情報14の中から、選択軌跡データに関連付けられた機能情報14を選択し、機能情報14が表す機能6を起動させて実行する。
又は、監視の結果、所定時間が経過するまでに、タッチパネルディスプレイ1に対して利用者によりジェスチャー入力が行われない(ステップS19−YES)。この場合、制御部3は、タッチパネルディスプレイ1への軌跡データ13の表示を終了する(ステップS20)。
又は、監視の結果、タッチパネルディスプレイ1に対して利用者によりジェスチャー入力が行われたが(ステップS15−YES)、軌跡関連情報15に含まれる軌跡データ13の中に、入力軌跡20に一致する軌跡を含む軌跡データ13が存在しない場合、奇跡データが確定しない(ステップS16−NO)。確定しない状態で所定時間が経過した場合(S19−YES)、制御部3は、タッチパネルディスプレイ1への軌跡データ13の表示を終了する(ステップS20)。
一方、画像データ11に関連付けられた可否情報12は、ジェスチャー入力の受け付けられないことを表しているものとする(ステップS13−NO)。この場合、制御部3は、画像データ11をタッチパネルディスプレイ1に表示する。そして、軌跡データ13をタッチパネルディスプレイ1にオーバレイ表示しない。
本実施形態による携帯端末装置によれば、第1、2の効果を実現する。
まず、第1の効果について説明する。
ジェスチャー入力を行うためには、利用者は、予め決められた軌跡データと同じ軌跡を入力軌跡20として描く必要がある。このため、軌跡データが複数種類も存在する場合、利用者は、例えば、軌跡データ13−1〜13−mを記憶していなければならない。即ち、利用者は、機能6−1〜6−mの中から所望の機能を携帯端末装置に起動・実行させるために、機能6−1〜6−mに対応する軌跡データ13−1〜13−mを記憶していなければならない。この場合、利用者は、記憶違いや、あいまいな軌跡の入力により、ジェスチャー入力を利用できないことが考えられる。そこで、本実施形態による携帯端末装置によれば、複数パターンの画像データ11−1〜11−nのうちの、利用者の操作に基づいて選択された画像データ11をタッチパネルディスプレイ1に表示するときに、ジェスチャー入力をサポートするために軌跡データ13を画像データ11に重ねてタッチパネルディスプレイ1にオーバレイ表示する。
このように、本実施形態による携帯端末装置によれば、第1の効果として、軌跡データ13をタッチパネルディスプレイ1にオーバレイ表示することにより、ジェスチャー入力をサポートすることができる。これにより、前述の第1の問題点が解決される。
次に、第2の効果について説明する。
本実施形態による携帯端末装置では、複数パターンの画像データ11のうちの、利用者によるタッチパネルディスプレイ1へのタッチ操作、又は、利用者による入力部の操作に基づいて選択された画像データ11をタッチパネルディスプレイ1に表示する。ここで、選択された画像データ11をディスプレイ1に表示したときに、必ずしも制御部がジェスチャー入力を受け付けるとは限らない。例えば、画像データ11が用いられるソフトウェアによっては、電子機器がジェスチャー入力を受け付ける状態になる場合もあれば、ジェスチャー入力を受け付けない状態になる場合もある。本実施形態による携帯端末装置によれば、ジェスチャー入力を受け付けることができる場合、軌跡データ13を画像データ11に重ねてタッチパネルディスプレイ1にオーバレイ表示する。
このように、本実施形態による携帯端末装置によれば、第2の効果として、軌跡データ13をタッチパネルディスプレイ1にオーバレイ表示することにより、利用者は、携帯端末がジェスチャー入力を受け付ける状態にあることを判断することができる。一方、軌跡データ13をタッチパネルディスプレイ1にオーバレイ表示しない場合、利用者は、携帯端末がジェスチャー入力を受け付けない状態にあることを判断することができる。これにより、前述の第2の問題点が解決される。
以上の説明により、本実施形態による携帯端末装置によれば、ジェスチャー入力をサポートすることができ、利用者は、携帯端末装置がジェスチャー入力を受け付ける状態にあるか否かを判断することができる。
〔第4の実施形態〕
次に、本発明の第3の実施形態に係る電子機器について以下に説明する。本実施形態に係る電子機器は携帯端末装置である。
本発明の携帯端末装置は、タッチパネルディスプレイと、記憶部と、制御部とを具備している。記憶部には、複数パターンの画像データの各々に対して、利用者がタッチパネルディスプレイにタッチすることによってジェスチャー入力を受け付けるか否かを表す可否情報が登録され、複数パターンの画像データのうちの、ジェスチャー入力を受け付ける画像データに対して登録軌跡データが登録されている。登録軌跡データは、それぞれ、ジェスチャー入力をサポートするための登録軌跡と、登録軌跡に関連付けられた機能の名称とを含んでいる。制御部は、複数パターンの画像データのうちの、利用者の操作に応じた画像データをタッチパネルディスプレイに表示する。このとき、制御部は、画像データに対する可否情報がジェスチャー入力の受け付けを表している場合、記憶部に登録された登録軌跡データを画像データに重ねてタッチパネルディスプレイにオーバレイ表示する。
本発明は上記実施形態に限定されることなく、特許請求の範囲に記載した発明の範囲内で、種々の変形が可能であり、それらも本発明の範囲内に含まれるものであることはいうまでもない。
この出願は、2009年6月10日に出願された日本出願特願2009−138828を基礎とする優先権を主張し、その開示の全てをここに取り込む。
2、101 入力部
3、103 制御部(CPU)
4、104 記憶部
5 コンピュータプログラム
6−1〜6−m 機能
6−i 機能
7 データベース
11−1〜11−n 画像データ
12 可否情報
13−1〜13−m 軌跡データ
13−i 軌跡データ
14−1〜14−m 機能情報
14−i 機能情報
15−1〜15−m 軌跡関連情報
20、220、221 入力軌跡
100 電子機器
111 表示データ
113、163 軌跡データ
114 機能情報
115 軌跡関連情報
Claims (23)
- タッチパネルディスプレイと、
複数の表示データと、各々の前記表示データに関連付けられた軌跡関連情報と、を記憶する記憶部と、
制御部と、を備え、
前記軌跡関連情報には、軌跡データと、前記軌跡データに関連付けられた機能情報とが含まれ、
前記制御部は、前記タッチパネルディスプレイに表示する前記表示データに関連付けられた前記軌跡関連情報に基づいて、ジェスチャー入力を受け付けるか否かを判別し、前記ジェスチャー入力を受け付けると判別した場合は、前記表示データに関連付けられた前記軌跡関連情報に含まれる前記軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示する電子機器。 - 前記制御部は、前記軌跡データと前記表示データとが前記タッチパネルディスプレイにオーバレイ表示されているときに前記ジェスチャー入力が行われた場合、前記軌跡データの中から、前記ジェスチャー入力により入力された入力軌跡に一致する前記軌跡データを選択軌跡データとして確定し、前記選択軌跡データに関連付けられた機能を実行する請求項1に記載の電子機器。
- 前記制御部は、前記選択軌跡データを確定した後に、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項2に記載の電子機器。
- 前記制御部は、前記軌跡データと前記表示データとが前記タッチパネルディスプレイにオーバレイ表示されているときに前記ジェスチャー入力が行われ、前記ジェスチャー入力により入力された入力軌跡と前記軌跡データとが一致しないと判別した場合、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項1から3のいずれか一項に記載の電子機器。
- 前記制御部は、前記軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示した後に所定時間内に前記ジェスチャー入力が行われなかった場合、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項1から4のいずれか一項に記載の電子機器。
- 前記制御部は、前記ジェスチャー入力を受け付けないと判別した場合は、前記表示データを前記タッチパネルディスプレイに表示する請求項1から5のいずれか一項に記載の電子機器。
- 前記記憶部には、前記表示データが前記ジェスチャー入力を受け付けるか否かを表す可否情報が記憶され、
前記制御部は、前記可否情報に基づいて、前記ジェスチャー入力を受け付けるか否かを判別する請求項1から6のいずれか一項に記載の電子機器。 - 前記軌跡関連情報には、複数の軌跡データが含まれ、
前記制御部は、複数の前記軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示する請求項1から7のいずれか一項に記載の電子機器。 - 前記制御部は、それぞれの前記軌跡データを異なる表示形式で前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示する請求項8に記載の電子機器。
- 前記制御部は、前記軌跡データに関連付けられた前記機能情報を、前記軌跡データと前記表示データとに重ねて前記タッチパネルディスプレイにオーバレイ表示する請求項1から9のいずれか一項に記載の電子機器。
- 前記表示データは、利用者による前記タッチパネルディスプレイへのタッチ操作により選択される請求項1から10のいずれか一項に記載の電子機器。
- 入力部を更に具備し、
前記表示データは、利用者による前記タッチパネルディスプレイへのタッチ操作、又は、前記利用者による前記入力部の操作により選択される請求項1から10のいずれか一項に記載の電子機器。 - タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいてジェスチャー入力を受け付けるか否かを判別し、
前記ジェスチャー入力を受け付けると判別した場合は、前記表示データに関連付けられた前記軌跡関連情報に含まれる軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示するジェスチャー処理方法。 - 前記軌跡データと前記表示データとが前記タッチパネルディスプレイにオーバレイ表示されているときに前記ジェスチャー入力が行われた場合、前記軌跡データの中から、前記ジェスチャー入力により入力された入力軌跡に一致する前記軌跡データを選択軌跡データとして確定し、前記選択軌跡データに関連付けられた機能を実行する請求項13に記載のジェスチャー処理方法。
- 前記選択軌跡データを確定した後に、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項14に記載のジェスチャー処理方法。
- 前記軌跡データと前記表示データとが前記タッチパネルディスプレイにオーバレイ表示されているときに前記ジェスチャー入力が行われ、前記ジェスチャー入力により入力された入力軌跡と前記軌跡データとが一致しないと判別した場合、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項13から15のいずれか一項に記載のジェスチャー処理方法。
- 前記軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示した後に所定時間内に前記ジェスチャー入力が行われなかった場合、前記軌跡データを前記タッチパネルディスプレイに表示することを終了する請求項13から16のいずれか一項に記載のジェスチャー処理方法。
- 前記ジェスチャー入力を受け付けないと判別した場合は、前記表示データを前記タッチパネルディスプレイに表示する請求項13から17のいずれか一項に記載のジェスチャー処理方法。
- 前記ジェスチャー入力を受け付けるか否かを表す可否情報を記憶部に記憶する請求項13から18のいずれか一項に記載のジェスチャー処理方法。
- 前記可否情報に基づいて、前記ジェスチャー入力を受け付けるか否かを判別する請求項19に記載のジェスチャー処理方法。
- 前記表示データを、利用者による操作に基づいて選択する請求項13から20のいずれかに記載のジェスチャー処理方法。
- 前記ジェスチャー入力を受け付けないと判別した場合は、
前記表示データを前記タッチパネルディスプレイに表示する請求項13から21のいずれかに記載のジェスチャー処理方法。 - コンピュータに、
タッチパネルディスプレイに表示する表示データに関連付けられた軌跡関連情報に基づいてジェスチャー入力を受け付けるか否かを判別させ、
前記ジェスチャー入力を受け付けると判別した場合は、前記表示データに関連付けられた前記軌跡関連情報に含まれる軌跡データを前記表示データに重ねて前記タッチパネルディスプレイにオーバレイ表示させるジェスチャー処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011518567A JP5522167B2 (ja) | 2009-06-10 | 2010-06-03 | 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009138828 | 2009-06-10 | ||
JP2009138828 | 2009-06-10 | ||
PCT/JP2010/059802 WO2010143673A1 (ja) | 2009-06-10 | 2010-06-03 | 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム |
JP2011518567A JP5522167B2 (ja) | 2009-06-10 | 2010-06-03 | 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2010143673A1 true JPWO2010143673A1 (ja) | 2012-11-29 |
JP5522167B2 JP5522167B2 (ja) | 2014-06-18 |
Family
ID=43308928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011518567A Active JP5522167B2 (ja) | 2009-06-10 | 2010-06-03 | 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US9176663B2 (ja) |
EP (1) | EP2442214A4 (ja) |
JP (1) | JP5522167B2 (ja) |
KR (2) | KR101517655B1 (ja) |
CN (1) | CN102460353B (ja) |
WO (1) | WO2010143673A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5729756B2 (ja) * | 2011-02-18 | 2015-06-03 | Necカシオモバイルコミュニケーションズ株式会社 | 携帯電子機器、その制御方法及びプログラム |
KR101370830B1 (ko) * | 2012-04-25 | 2014-03-25 | 한국과학기술연구원 | 사용자 인터페이스 구현 시스템 및 구현 방법 |
TWI456487B (zh) * | 2012-04-26 | 2014-10-11 | Acer Inc | 行動裝置以及手勢判斷方法 |
JP5672262B2 (ja) * | 2012-04-27 | 2015-02-18 | コニカミノルタ株式会社 | 画像処理装置、その制御方法、および、その制御プログラム |
EP2884376A4 (en) * | 2012-08-08 | 2016-06-08 | Nec Corp | PORTABLE ELECTRONIC DEVICE AND CONTROL METHOD AND PROGRAM THEREFOR |
JP5772773B2 (ja) | 2012-09-19 | 2015-09-02 | コニカミノルタ株式会社 | 画像処理装置、操作標準化方法および操作標準化プログラム |
JP5999579B2 (ja) * | 2012-09-19 | 2016-09-28 | ブラザー工業株式会社 | 電子機器及び操作端末の操作表示方法 |
EP2752749B1 (en) | 2012-10-08 | 2016-07-27 | Huawei Device Co., Ltd. | Processing method of touch screen device user interface and touch screen device |
CN103809794B (zh) * | 2012-11-13 | 2017-11-28 | 联想(北京)有限公司 | 一种信息处理方法以及电子设备 |
KR20140089238A (ko) * | 2013-01-04 | 2014-07-14 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
KR101795204B1 (ko) * | 2013-06-25 | 2017-11-07 | 후지쯔 가부시끼가이샤 | 정보 처리 장치 및 기록 매체 |
JP5917461B2 (ja) * | 2013-08-08 | 2016-05-18 | 東芝テック株式会社 | 情報処理装置、プログラム |
CN105474112B (zh) * | 2013-08-21 | 2019-03-08 | 三菱电机株式会社 | 程序编辑方法 |
CN104199552B (zh) * | 2014-09-11 | 2017-10-27 | 福州瑞芯微电子股份有限公司 | 多屏显示方法、设备及系统 |
US10671277B2 (en) | 2014-12-17 | 2020-06-02 | Datalogic Usa, Inc. | Floating soft trigger for touch displays on an electronic device with a scanning module |
US11567626B2 (en) * | 2014-12-17 | 2023-01-31 | Datalogic Usa, Inc. | Gesture configurable floating soft trigger for touch displays on data-capture electronic devices |
CN105786375A (zh) * | 2014-12-25 | 2016-07-20 | 阿里巴巴集团控股有限公司 | 在移动终端操作表单的方法及装置 |
CN105363201B (zh) * | 2015-08-27 | 2018-09-25 | 腾讯科技(深圳)有限公司 | 提示信息的显示方法及装置 |
KR101718070B1 (ko) * | 2015-09-17 | 2017-03-20 | 주식회사 한컴플렉슬 | 제스처 조합 기반의 이벤트 실행이 가능한 터치스크린 장치 및 그 동작 방법 |
WO2017047930A1 (ko) * | 2015-09-17 | 2017-03-23 | 주식회사 한컴플렉슬 | 선택적 자유선 입력이 가능한 터치스크린 장치 및 상기 터치스크린 장치의 선택적 자유선 입력 지원 방법 |
KR101718071B1 (ko) * | 2015-09-17 | 2017-03-20 | 주식회사 한컴플렉슬 | 선택적 자유선 입력이 가능한 터치스크린 장치 및 상기 터치스크린 장치의 선택적 자유선 입력 지원 방법 |
WO2017047929A1 (ko) * | 2015-09-17 | 2017-03-23 | 주식회사 한컴플렉슬 | 제스처 조합 기반의 이벤트 실행이 가능한 터치스크린 장치 및 그 동작 방법 |
JP6470356B2 (ja) * | 2017-07-21 | 2019-02-13 | 株式会社コロプラ | 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置 |
EP3663908A4 (en) * | 2017-08-02 | 2020-08-12 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING SYSTEM, PROGRAM GENERATION METHOD AND PROGRAM |
US11093122B1 (en) * | 2018-11-28 | 2021-08-17 | Allscripts Software, Llc | Graphical user interface for displaying contextually relevant data |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05127819A (ja) * | 1991-10-31 | 1993-05-25 | Nec Corp | ストロークコマンド支援方式 |
JP2006099468A (ja) * | 2004-09-29 | 2006-04-13 | Toshiba Corp | ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラム |
JP2007065809A (ja) * | 2005-08-30 | 2007-03-15 | Sony Corp | ヘルプガイダンス表示方法、ヘルプガイダンス表示装置、情報処理装置、プリントキオスク装置及びプログラム |
JP2007213245A (ja) * | 2006-02-08 | 2007-08-23 | Nec Corp | 携帯端末及びプログラム |
JP2008282092A (ja) * | 2007-05-08 | 2008-11-20 | Canon Inc | ジェスチャーコマンドを覚えながら操作できる情報処理装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7623119B2 (en) * | 2004-04-21 | 2009-11-24 | Nokia Corporation | Graphical functions by gestures |
JP4684745B2 (ja) | 2005-05-27 | 2011-05-18 | 三菱電機株式会社 | ユーザインタフェース装置及びユーザインタフェース方法 |
US7480870B2 (en) * | 2005-12-23 | 2009-01-20 | Apple Inc. | Indication of progress towards satisfaction of a user input condition |
US9395905B2 (en) * | 2006-04-05 | 2016-07-19 | Synaptics Incorporated | Graphical scroll wheel |
KR101304461B1 (ko) * | 2006-12-04 | 2013-09-04 | 삼성전자주식회사 | 제스처 기반 사용자 인터페이스 방법 및 장치 |
KR20080104858A (ko) * | 2007-05-29 | 2008-12-03 | 삼성전자주식회사 | 터치 스크린 기반의 제스쳐 정보 제공 방법 및 장치, 그장치를 포함하는 정보 단말 기기 |
JP4378519B2 (ja) * | 2007-06-29 | 2009-12-09 | シャープ株式会社 | 情報表示装置 |
JP4897655B2 (ja) | 2007-12-05 | 2012-03-14 | 本田技研工業株式会社 | 車両用自動変速機 |
-
2010
- 2010-06-03 JP JP2011518567A patent/JP5522167B2/ja active Active
- 2010-06-03 CN CN201080025922.8A patent/CN102460353B/zh active Active
- 2010-06-03 KR KR1020127000628A patent/KR101517655B1/ko active IP Right Grant
- 2010-06-03 WO PCT/JP2010/059802 patent/WO2010143673A1/ja active Application Filing
- 2010-06-03 US US13/377,020 patent/US9176663B2/en active Active
- 2010-06-03 KR KR1020147013006A patent/KR101517742B1/ko active IP Right Grant
- 2010-06-03 EP EP10786204.7A patent/EP2442214A4/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05127819A (ja) * | 1991-10-31 | 1993-05-25 | Nec Corp | ストロークコマンド支援方式 |
JP2006099468A (ja) * | 2004-09-29 | 2006-04-13 | Toshiba Corp | ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラム |
JP2007065809A (ja) * | 2005-08-30 | 2007-03-15 | Sony Corp | ヘルプガイダンス表示方法、ヘルプガイダンス表示装置、情報処理装置、プリントキオスク装置及びプログラム |
JP2007213245A (ja) * | 2006-02-08 | 2007-08-23 | Nec Corp | 携帯端末及びプログラム |
JP2008282092A (ja) * | 2007-05-08 | 2008-11-20 | Canon Inc | ジェスチャーコマンドを覚えながら操作できる情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20140069359A (ko) | 2014-06-09 |
KR101517742B1 (ko) | 2015-05-04 |
KR20120027504A (ko) | 2012-03-21 |
EP2442214A4 (en) | 2015-05-20 |
KR101517655B1 (ko) | 2015-05-04 |
CN102460353A (zh) | 2012-05-16 |
CN102460353B (zh) | 2015-09-30 |
US9176663B2 (en) | 2015-11-03 |
EP2442214A1 (en) | 2012-04-18 |
WO2010143673A1 (ja) | 2010-12-16 |
JP5522167B2 (ja) | 2014-06-18 |
US20120086662A1 (en) | 2012-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5522167B2 (ja) | 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム | |
KR101019039B1 (ko) | 터치 스크린을 구비한 단말기 및 데이터 검색 방법. | |
JP2019220237A (ja) | 文字入力インターフェース提供方法及び装置 | |
CN105630327B (zh) | 便携式电子设备和控制可选元素的显示的方法 | |
KR101633842B1 (ko) | 연속적인 제스쳐 입력을 위한 복수의 그래픽 키보드들 | |
US9703418B2 (en) | Mobile terminal and display control method | |
WO2014062358A1 (en) | Multi-gesture text input prediction | |
US11379116B2 (en) | Electronic apparatus and method for executing application thereof | |
CN102144206A (zh) | 姿势输入操作设备、方法、程序和便携式设备 | |
EP2909702B1 (en) | Contextually-specific automatic separators | |
JP2014106625A (ja) | 携帯端末、携帯端末の制御方法、プログラム、および記録媒体 | |
US9965454B2 (en) | Assisted punctuation of character strings | |
JP2014195202A (ja) | シンボル入力装置及びプログラム | |
JP5752759B2 (ja) | 電子機器、方法、およびプログラム | |
CN101539820A (zh) | 触摸屏划线输入法 | |
JP2016045875A (ja) | 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法 | |
US10261675B2 (en) | Method and apparatus for displaying screen in device having touch screen | |
JP7120450B2 (ja) | 表示装置 | |
JP5335870B2 (ja) | 情報処理装置、方法及びコンピュータ・プログラム | |
JP6349705B2 (ja) | 語学学習装置、表示方法、およびプログラム | |
JP2013162202A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2014116726A (ja) | 携帯電子機器、携帯電子機器の文字入力方法およびプログラム | |
TW201520946A (zh) | 快速顯示Skype聯絡人名單之方法及其電腦可程式產品及可攜式電子裝置 | |
JP2014186613A (ja) | 電子機器、表示制御方法、及びプログラム | |
JP2015022734A (ja) | 電子機器、辞書検索プログラム、辞書検索システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130805 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131022 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140121 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140324 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5522167 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |