JP2010061636A - タッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法 - Google Patents
タッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法 Download PDFInfo
- Publication number
- JP2010061636A JP2010061636A JP2009118903A JP2009118903A JP2010061636A JP 2010061636 A JP2010061636 A JP 2010061636A JP 2009118903 A JP2009118903 A JP 2009118903A JP 2009118903 A JP2009118903 A JP 2009118903A JP 2010061636 A JP2010061636 A JP 2010061636A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- user
- user interface
- key value
- interface method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1662—Details related to the integrated keyboard
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
Abstract
【課題】端末機の使用者インターフェース方法に関するものであって、特にタッチスクリーンあるいはタッチパッドなどに行われる使用者のタッチの軌跡及び方向を認識し、これに基づいて使用者の命令を処理するようにした端末機の使用者インターフェース方法に関する。
【解決手段】タッチスクリーン110を備え、使用者がタッチスクリーン110をタッチした位置を認識する端末機100により行われ、使用者のタッチが、端末機100によって予め決められた多数の外点のいずれか一つから始めて、上記多数の外点に取り囲まれた端末機100によって予め決められた内点を経た後、上記多数の外点のいずれか一つで終わることになれば、端末機100に保存されているタッチ対キー値テーブルを探索し、上記使用者のタッチの軌跡と方向に該当するキー値を確認する(a)段階、及び上記確認されたキー値に該当する使用者の命令を処理する(b)段階を含んでなる。
【選択図】図1
【解決手段】タッチスクリーン110を備え、使用者がタッチスクリーン110をタッチした位置を認識する端末機100により行われ、使用者のタッチが、端末機100によって予め決められた多数の外点のいずれか一つから始めて、上記多数の外点に取り囲まれた端末機100によって予め決められた内点を経た後、上記多数の外点のいずれか一つで終わることになれば、端末機100に保存されているタッチ対キー値テーブルを探索し、上記使用者のタッチの軌跡と方向に該当するキー値を確認する(a)段階、及び上記確認されたキー値に該当する使用者の命令を処理する(b)段階を含んでなる。
【選択図】図1
Description
本発明は、端末機の使用者インターフェース方法に関するものであって、特に、タッチスクリーンあるいはタッチパッドなどに行われる使用者のタッチの軌跡及び方向を認識し、これに基づいて使用者の命令を処理するようにした端末機の使用者インターフェース方法に関する。
周知のように、端末機の入力装置としては、キーボード(key board)、キーパッド(key pad)、タッチパッド(touch pad)及びタッチスクリーン(touch screen)などがある。すなわち、使用者は、このような入力装置を用いて端末機に文字を入力するか、端末機に設けられた各種プログラムの動作を制御することができる。ここで、文字とは、表音文字及び表意文字以外に、数字、各種の特殊記号などをひっくるめて称える。
一方、携帯電話やPDA及びMP3などのようにハンドヘルド(handheld)基盤の端末機の開発動向を見れば、キーパッドは小型化される反面、ディスプレー画面は大きくなる傾向がある。
しかし、キーパッドの小型化は、言い換えれば、ボタンを小さくし、ボタン間の間隔をぎっしりとするということを意味するが、このようになれば、目的キーを正確に押しにくいという問題点がある。
勿論、ボタンの大きさはそのまま置いて、その数を減らすことにより空間の制約を克服することができる。しかし、このようになれば、1つのボタンに、より多い文字が割り当てられなければならない。結局、キー操作の頻度だけが高くなり、便宜性は落ちるわけである。従って、使用者は、特定文字を入力するために多くのボタンを連続して押さなければならない煩わしさがある。また、キーパッドが比較的小さな領域を占めると言っても、キーパッドの存在は、ディスプレー画面の大きさを拡大するに大きい制約になる。
これにより、最近の端末機には、入力装置としてタッチスクリーンが採用されている場合が多い 。
しかし、タッチスクリーンと言っても、画面上に表現できるボタンの数には限界がある。従って、上述したように1つのボタンに多い数の文字が割り当てられるしかない。
本発明は、前述した問題点を解決するために案出されたものであって、使用者がタッチスクリーンやタッチパッドを用いて端末機を操作する時、一回の線引きで所望のキー値を入力できるようにしたタッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法(入力方法)を提供することにその目的がある。
前述した目的を果たすために、本発明の一実施例による使用者インターフェース方法は、タッチ手段を備え、使用者が上記タッチ手段をタッチした位置を認識する端末機により行われ、使用者のタッチが、上記端末機によって予め決められた多数の外点のいずれか一つから始めて、上記多数の外点に取り囲まれた上記端末機によって予め決められた内点を経た後、上記多数の外点のいずれか一つで終わることになれば、上記端末機に保存されているタッチ対キー値テーブルを探索し、上記使用者のタッチの軌跡と方向に該当するキー値を確認する(a)段階、及び、上記確認されたキー値に該当する使用者の命令を処理する(b)段階を含んでなる。
また、上記(a)段階から確認されたキー値が文字の場合には、上記(b)段階は上記文字を表示する。
また、上記タッチ手段がタッチスクリーンで具現されたら、上記端末機は、上記内点、上記多数の外点、及び上記内点と上記多数の外点を連結するガイドラインを表示するのが望ましい。
また、上記タッチ手段がタッチパッドで具現されたら、上記タッチパッドには上記内点、上記多数の外点、及び上記内点と上記多数の外点を連結するガイドラインが表示されているのが望ましい。
本発明の他の実施例による使用者インターフェース方法は、タッチ手段を備え、使用者が上記タッチ手段をタッチした位置を認識する端末機により行われ、使用者のタッチが、上記端末機によって予め決められた多数の外点のいずれか一つから始めて、上記多数の外点に取り囲まれた上記端末機によって予め決められた内点を経た後、上記多数の外点のいずれか一つで終わるか、使用者のタッチが、上記多数の外点のいずれか一つから始めて上記内点を経ず、他の外点で終わることになれば、上記端末機に保存されているタッチ対キー値テーブルを探索し、上記使用者のタッチの軌跡と方向に該当するキー値を確認する(a)段階、及び、上記確認されたキー値に該当する使用者の命令を処理する(b)段階を含んでなる。
また、上記タッチ対キー値テーブルにおいて、上記内点を経る使用者のタッチには文字キー値が割り当てられ、上記内点を経ない使用者のタッチには非文字キー値が割り当てられるのが望ましい。
また、上記タッチ手段がタッチスクリーンで具現されたら、上記端末機は、上記内点、上記多数の外点、及び上記内点と上記多数の外点を連結するガイドラインを表示するのが望ましい。
また、上記タッチ手段がタッチパッドで具現されたら、上記タッチパッドには上記内点、上記多数の外点、及び上記内点と上記多数の外点を連結するガイドラインが表示されているのが望ましい。
本発明のタッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法によれば、使用者はタッチスクリーンやタッチパッドの一部分の制限された空間、すなわち、多数の外点に取り囲まれた空間内で一回の線引きで所望のキー値を入力することができる。例えば、8個の外点から最大56(8*7)個、あるいは最大64(8*8)個のキー値のいずれか一つを一回の線引きで入力することができる。
従って、端末機のボタン数は画期的に減りつつも、キー操作の正確性及び便宜性は高める効果がある。
また、一回の線引きで所望のキー値を入力することができるということは、片手で端末機を操作することが容易であるということだ。
以下には、添付した図面を参照して本発明の望ましい実施例によるタッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法について詳細に説明する。
図1及び図2は、それぞれ、本発明のタッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法が適用できる移動通信端末機とノートパソコンの外観を示した斜視図である。勿論、本発明はこのような外観を有する端末機に限らず、PDA、MP3プレーヤー、電子辞典、リモートコントローラー及びナビゲーションなどの多様な分野に適用できる。
図1に示すように、本発明が適用できる移動通信端末機100には主回路とアンテナが内蔵されており、前面にはタッチスクリーン110及びキーパッド115が配置される。
また、移動通信端末機100の前面には内部のスピーカー(未図示)と連通されているスピーカーホール105と、内部のマイク(未図示)と連通されているマイクホール(未図示)が穿孔される。
また、移動通信端末機100の前面には内部のスピーカー(未図示)と連通されているスピーカーホール105と、内部のマイク(未図示)と連通されているマイクホール(未図示)が穿孔される。
また、背面の適所、例えば、上部にはカメラレンズ(未図示)及び夜間撮影時の照明のためのフラッシュ(未図示)が設けられる。
また、タッチスクリーン110には、使用者のキー入力をガイドするためのガイドライン111を表示する。
図2に示すように、本発明が適用できるノートパソコン100´には、通常、マウス、ジョイスティックなどのポインティング装置の代わりにタッチパッド110´が配置される。
また、タッチパッド110´には、使用者のキー入力をガイドするためのガイドライン111´が表示される。この時、タッチパッド110´の表面でガイドライン111´に該当する部位は陽刻や陰刻、すなわち、凸状又は凹状にすることができる。
図3は、本発明の一実施例によるタッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法が具現可能な端末機の電気的なブロック構成図である。
図3に示すように、本発明による移動通信端末機100の電気的なブロック構成は、キー入力部130、タッチ認識部125、RF送/受信部135、保存部140、ビデオ処理部165、オーディオ処理部160、カメラ駆動部155、映像処理部150及び制御部120を含んでなることができる。
具体的に、キー入力部130は、使用者が自分の指やスタイラスペンを用いてタッチスクリーン110(あるいはタッチパッド)をタッチすることになれば、それに相応するタッチ信号を発生させることである。また、キー入力部130は、使用者がキーパッド115を押すことになれば、それに相応するキー信号を発生させることである。
次に、タッチ認識部125は、キー入力部120から入力されるタッチ信号を分析して使用者がタッチスクリーン100をタッチした位置を認識し、タッチの軌跡と方向を認識することである。
また、タッチ認識部125は、使用者のタッチが端末機100によって予め決められた多数の外点のいずれか一つから始めて、上記多数の外点に取り囲まれた端末機100によって予め決められた内点を経た後、多数の外点のいずれか一つで終わることになれば、このような使用者のタッチを一つの「線引き」と認識することである。ここで、外点及び内点は、前述したガイドライン111あるいは111´上に位置するものである。
また、タッチ認識部125は、使用者のタッチが多数の外点のいずれか一つから始めて内点を経ないで、他の外点で終わっても、このような使用者のタッチを一つの線引きと認識することになる。
次に、RF送/受信部135は、制御部120の制御により、アンテナを通じて基地局と無線周波信号を送/受信することである。
次に、保存部140は、端末機のOS(operating system)、各種アプリケーションプログラム、制御部120の演算過程から発生するデータ、使用者が設定したデータ及びタッチ対キー値テーブルを保存するためのものである。ここで、タッチ対キー値テーブルは、一つの線引きに文字キーや非文字キーが対応されていることである。非文字キーとは、文字以外にコントロール(Ctrl)、アルト(Alt)、シフト(Shift)、エンター(Enter)、タブ(Tab)及び韓国語/英語の切り替えキーなどを称える。周知のように、これらの非文字キーはキーの本来の意味を変更させるか、プログラム動作を制御する時、あるいはモニター上でテキスト又はカーソルを移動させる時に使用されるものである。
次に、ビデオ処理部165は、制御部120の制御により、タッチスクリーン110を通じて映像が出力されるように映像信号を処理するものである。
次に、オーディオ処理部160は、制御部120の制御により、マイク175から入力されたアナログ形態の音声信号を相応するデジタル音声信号に変換し、デジタル音声信号を相応するアナログ音声信号に変換してスピーカー170から出力するものである。
次に、カメラ駆動部155は、制御部120の制御により、CCDカメラ180を駆動するものであり、映像処理部150は、CCDカメラ180から出力されたイメージデータを処理するものである。
次に、制御部120は、キー入力部130が発生させたタッチ信号やキー信号、あるいはRF送/受信部135から入力されるRF信号に基づき、端末機100を総括的に制御するものである。特に、制御部120は、保存部140に保存されているタッチ対キー値テーブルを探索し、タッチ認識部125により認識された線引きの軌跡及び方向に該当するキー値を確認し、このように確認されたキー値に該当する使用者の命令を処理するようにビデオ処理部165、RF送/受信部135、オーディオ処理部160あるいはカメラ駆動部155を制御するものである。言わば、文字を表示するようにビデオ処理部165を制御する。または、タッチスクリーン110上に表示される画面を切り替えるようにビデオ処理部165を制御する。または、確認されたキー値に該当する端末機番号で電話をかけるようにRF送/受信部135を制御する。
図4は、本発明の一実施例によるタッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法を説明するためのフローチャートであり、以上で説明した端末機100、100´により行われる。
また、図5乃至図8は、本発明の一実施例によるタッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法を説明するための概念図である。制御部120は図5乃至図8に示すように、多数の外点21乃至28、多数の外点21乃至28を連結する閉ループ内に位置した内点10、内点10と外点21乃至28を連結するガイドライン(a)乃至(h)、及び近接した外点同士を連結するガイドラインα乃至θをタッチスクリーン110上に表示するようにビデオ処理部165を制御する。一方、図5乃至図8に示すような点などとガイドラインは、タッチパッド110´上に描かれることができる。
図4に示すように、段階S11では使用者のタッチが多数の外点21乃至28のいずれか一つから始めて内点10を経た後、多数の外点21乃至28のいずれか一つで終わることになれば、このような使用者のタッチを一つの線引きと認識することになる。または、使用者のタッチが多数の外点21乃至28のいずれか一つから始めて内点10を経ず、他の外点で終わることになれば、このような使用者のタッチも一つの線引きと認識することになる。
次に、段階S13ではタッチ対キー値テーブルを探索し、段階S11で認識された線引きの軌跡と方向に該当するキー値を確認する。
図5を参照に、第1の例を挙げれば、使用者のタッチが外点21から始めてガイドライン(a)に沿って内点10を経たった後、ガイドライン(f)に沿って外点26で終わることになれば、このような線引きの軌跡と方向に該当するキー値は文字「A」になる。また、使用者のタッチが「21→(a)→10→(e)→25」であると、これに該当するキー値は文字「B」になる。また、使用者のタッチが「21→(a)→10→(d)→24」であると、これに該当するキー値は文字「C」になる。
すなわち、使用者はA、BあるいはCを入力するためには、外点21でタッチを始めれば良い。一方、D、EあるいはFを入力しようとしたら外点22で始めれば良いし、G、HあるいはIは、外点23から始めれば良い。また、L、KあるいはJは外点24で、O、NあるいはMは外点25で、R、QあるいはPは外点26で、U、SあるいはTは外点27で、最後にY、V、W、XあるいはZは外点28で始めれば良い。結局、使用者は一回の線引きでアルファベット26字のいずれか一つを入力することができるようになる。
ここで、制御部120は、外点の近くには該当外点をタッチの始点とする線引きに対応されるキー値などをタッチスクリーン110上に表示するようにビデオ処理部165を制御するのが望ましい。これにより、使用者は自分の所望するキー値を入力するために、どの外点でタッチを始めなければならないかを容易に認知することができるようになる。
一方、外点21上に表示されているABCを見れば、AはBの左側に表示されており、CはBの右側に表示されていることが分かる。これにより、使用者はタッチの方向を左にすればAが入力されるということ、タッチの方向を一直線にすればBが入力されるということ、そして、タッチの方向を右側にすればCが入力されるということを直観的に認識することができるようになる。
図6を参照に、第2の例を挙げれば、使用者のタッチが「21→(a)→10→(h)→28」であると、これに該当するキー値は、文字「!」になる。また、使用者のタッチが「26→(f)→10→(e)→25」であると、これに該当するキー値は、文字「]」になる。結局、使用者は、一回の線引きでアルファベット26字及び多数の特殊文字のいずれか一つを入力することができるようになる。
図7を参照に、第3の例を挙げれば、使用者のタッチが「27→(g)→10→(b)→22」であると、これに該当するキー値は、韓国語の文字「
以上のように、外点の個数が「N」と言ったら、一回の線引きで最大「N*(N−1)」個のキー値のいずれか一つを入力することができる。例えば、8個の外点から最大56(8*7)個のキー値のいずれか一つを一回の線引きで入力することができることである。
もし、タッチの始点と終点が同一なことも、一つの線引きになることができれば、一回の線引きで最大「N*N」個のキー値のいずれか一つを入力することができる。
図8を参照に、第4の例を挙げれば、使用者のタッチが「28→θ→21→α→22」であると、これに該当するキー値は、方向キー「UP」になる。また、使用者のタッチが「25→ε→26→ζ→27」であると、これに該当するキー値は、エンターキー「Enter」になる。結局、使用者は、外郭のガイドラインα乃至θに沿って線引きをすることになれば、非文字キーを入力することができるようになる。
再び、図4に戻って、段階S15では段階S13から確認されたキー値に該当する使用者の命令を処理することになる。例えば、端末機100は、文字を表示するか、タッチスクリーン110上に表示される画面を切り替えるか、あるいは、キー値に該当する端末機番号で電話をかけることである。
本発明のタッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法は、前述した実施例に限らず、本発明の技術思想が許容する範囲で多様に変形して実施することができる。
100、100´: 端末機
110: タッチスクリーン
110´: タッチパッド
120: 制御部
125: タッチ認識部
130: キー入力部
135: RF送/受信部
140: 保存部
150: 映像処理部
155: カメラ駆動部
160: オーディオ処理部
165: ビデオ処理部
170: スピーカー
175: マイク
180: CCDカメラ
110: タッチスクリーン
110´: タッチパッド
120: 制御部
125: タッチ認識部
130: キー入力部
135: RF送/受信部
140: 保存部
150: 映像処理部
155: カメラ駆動部
160: オーディオ処理部
165: ビデオ処理部
170: スピーカー
175: マイク
180: CCDカメラ
Claims (13)
- タッチ手段を備え、使用者が前記タッチ手段をタッチした位置を認識する端末機により行われ、
使用者のタッチが、前記端末機によって予め決められた多数の外点のいずれか一つから始めて、前記多数の外点に取り囲まれた前記端末機によって予め決められた内点を経た後、前記多数の外点のいずれか一つで終わることになれば、前記端末機に保存されているタッチ対キー値テーブルを探索し、前記使用者のタッチの軌跡と方向に該当するキー値を確認する(a)段階、 及び
前記確認されたキー値に該当する使用者の命令を処理する(b)段階を含んでなる
ことを特徴とする使用者インターフェース方法。 - 前記(a)段階から確認されたキー値が文字の場合には、前記(b)段階は前記文字を表示する
ことを特徴とする請求項1に記載の使用者インターフェース方法。 - 前記タッチ手段はタッチスクリーンであり、
前記内点及び前記多数の外点を表示する
ことを特徴とする請求項1に記載の使用者インターフェース方法。 - 前記内点と前記多数の外点を連結するガイドラインを表示する
ことを特徴とする請求項3に記載の使用者インターフェース方法。 - 前記タッチ手段はタッチパッドであり、
前記タッチパッドには前記内点及び前記多数の外点が表示されている
ことを特徴とする請求項1に記載の使用者インターフェース方法。 - 前記タッチパッドには前記内点と前記多数の外点を連結するガイドラインが表示されている
ことを特徴とする請求項5に記載の使用者インターフェース方法。 - タッチ手段を備え、使用者が前記タッチ手段をタッチした位置を認識する端末機により行われ、
使用者のタッチが、前記端末機によって予め決められた多数の外点のいずれか一つから始めて、前記多数の外点に取り囲まれた前記端末機によって予め決められた内点を経た後、前記多数の外点のいずれか一つで終わるか、使用者のタッチが、前記多数の外点のいずれか一つから始めて前記内点を経ず、他の外点で終わることになれば、前記端末機に保存されているタッチ対キー値テーブルを探索し、前記使用者のタッチの軌跡と方向に該当するキー値を確認する(a)段階、及び
前記確認されたキー値に該当する使用者の命令を処理する(b)段階を含んでなる
ことを特徴とする使用者インターフェース方法。 - 前記タッチ対キー値テーブルにおいて、前記内点を経る使用者のタッチには文字キー値が割り当てられ、前記内点を経ない使用者のタッチには非文字キー値が割り当てられる
ことを特徴とする請求項7に記載の使用者インターフェース方法。 - 前記タッチ手段はタッチスクリーンであり、
前記内点及び前記多数の外点を表示する
ことを特徴とする請求項7に記載の使用者インターフェース方法。 - 前記内点と前記多数の外点を連結するガイドラインを表示する
ことを特徴とする請求項9に記載の使用者インターフェース方法。 - 前記タッチ手段はタッチパッドであり、
前記タッチパッドには前記内点及び前記多数の外点が表示されている
ことを特徴とする請求項7に記載の使用者インターフェース方法。 - 前記タッチパッドには前記内点と前記多数の外点を連結するガイドラインが表示されている
ことを特徴とする請求項11に記載の使用者インターフェース方法。 - コンピューターに、請求項1乃至12のいずれかに記載の使用者インターフェース方法の各処理段階を実行させるためのプログラムを記録したコンピューターで読み取り可能な媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080086951A KR100993508B1 (ko) | 2008-09-03 | 2008-09-03 | 터치 궤적 및 터치 방향의 인식에 기초한 사용자 인터페이스 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010061636A true JP2010061636A (ja) | 2010-03-18 |
Family
ID=41166203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009118903A Pending JP2010061636A (ja) | 2008-09-03 | 2009-05-15 | タッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20100053104A1 (ja) |
EP (1) | EP2166442A1 (ja) |
JP (1) | JP2010061636A (ja) |
KR (1) | KR100993508B1 (ja) |
CN (1) | CN101667081A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015153289A (ja) * | 2014-02-18 | 2015-08-24 | 学校法人日本大学 | 情報処理装置、情報処理方法、及びプログラム |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170140169A1 (en) * | 2013-04-01 | 2017-05-18 | Passtouch, Llc | System and method for signature pathway authentication and identification |
FR2966945B1 (fr) * | 2010-10-29 | 2014-03-21 | Schlue Volker | Dispositif de saisie de signes comprenant une zone de base et au moins deux zones peripheriques, procede et programme associe |
JP5813948B2 (ja) * | 2010-12-20 | 2015-11-17 | 株式会社バンダイナムコエンターテインメント | プログラム及び端末装置 |
KR101799270B1 (ko) * | 2010-12-29 | 2017-11-21 | 엘지전자 주식회사 | 이동 단말기 및 이것의 터치 인식 방법 |
CN102426491A (zh) * | 2011-05-12 | 2012-04-25 | 北京汇冠新技术股份有限公司 | 一种用于触摸屏的多点触控实现方法及系统 |
KR101323281B1 (ko) * | 2012-04-06 | 2013-10-29 | 고려대학교 산학협력단 | 입력 장치 및 문자 입력 방법 |
KR101936090B1 (ko) | 2012-08-29 | 2019-01-08 | 삼성전자주식회사 | 키 입력 제어 장치 및 방법 |
CN104317513B (zh) * | 2014-10-17 | 2018-11-13 | 广东欧珀移动通信有限公司 | 一种控制蓝光播放器ui界面光标移动速度的方法 |
CN107635901A (zh) * | 2015-05-20 | 2018-01-26 | 通力股份公司 | 具有辅助轮的控制面板 |
CN104865478B (zh) * | 2015-06-12 | 2018-01-05 | 武汉精测电子技术股份有限公司 | 一种触控屏的划线检测系统及其检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200126A (ja) * | 1993-12-21 | 1995-08-04 | Xerox Corp | ユーザ・インターフェース装置、グラフィック・キーボード装置、及びグラフィック・キーボード使用方法 |
US20080075368A1 (en) * | 2004-06-18 | 2008-03-27 | Yevgeniy Pavlovich Kuzmin | Stroke-Based Data Entry Device, System, And Method |
WO2008051011A1 (en) * | 2006-10-23 | 2008-05-02 | Oh Ui Jin | Input device |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5764794A (en) * | 1993-10-27 | 1998-06-09 | Perlin; Kenneth | Method and apparatus for electronically storing alphanumeric characters |
US6031525A (en) * | 1998-04-01 | 2000-02-29 | New York University | Method and apparatus for writing |
EP1183590B1 (en) * | 1999-06-09 | 2005-08-17 | Malvern Scientific Solutions Limited | Communication system and method |
US6967642B2 (en) * | 2001-01-31 | 2005-11-22 | Microsoft Corporation | Input device with pattern and tactile feedback for computer input and control |
GB0112870D0 (en) * | 2001-05-25 | 2001-07-18 | Koninkl Philips Electronics Nv | Text entry method and device therefore |
US7199786B2 (en) * | 2002-11-29 | 2007-04-03 | Daniel Suraqui | Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system |
US7729542B2 (en) * | 2003-04-04 | 2010-06-01 | Carnegie Mellon University | Using edges and corners for character input |
KR100593993B1 (ko) * | 2003-10-22 | 2006-06-30 | 삼성전자주식회사 | 문자인식장치 및 방법 |
JP4462120B2 (ja) | 2005-06-13 | 2010-05-12 | パナソニック株式会社 | 文字入力装置 |
CA2612489A1 (en) * | 2005-06-16 | 2007-10-11 | Firooz Ghassabian | Data entry system |
GB0516246D0 (en) * | 2005-08-08 | 2005-09-14 | Scanlan Timothy | A data entry device and method |
US8882590B2 (en) * | 2006-04-28 | 2014-11-11 | Nintendo Co., Ltd. | Touch-controlled game character motion providing dynamically-positioned virtual control pad |
TW200743993A (en) | 2006-05-26 | 2007-12-01 | Uniwill Comp Corp | Input apparatus and input method thereof |
-
2008
- 2008-09-03 KR KR1020080086951A patent/KR100993508B1/ko not_active IP Right Cessation
-
2009
- 2009-05-15 JP JP2009118903A patent/JP2010061636A/ja active Pending
- 2009-05-21 EP EP09006868A patent/EP2166442A1/en not_active Withdrawn
- 2009-06-02 CN CN200910203260A patent/CN101667081A/zh active Pending
- 2009-08-14 US US12/541,854 patent/US20100053104A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200126A (ja) * | 1993-12-21 | 1995-08-04 | Xerox Corp | ユーザ・インターフェース装置、グラフィック・キーボード装置、及びグラフィック・キーボード使用方法 |
US20080075368A1 (en) * | 2004-06-18 | 2008-03-27 | Yevgeniy Pavlovich Kuzmin | Stroke-Based Data Entry Device, System, And Method |
WO2008051011A1 (en) * | 2006-10-23 | 2008-05-02 | Oh Ui Jin | Input device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015153289A (ja) * | 2014-02-18 | 2015-08-24 | 学校法人日本大学 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR100993508B1 (ko) | 2010-11-10 |
KR20100027863A (ko) | 2010-03-11 |
US20100053104A1 (en) | 2010-03-04 |
EP2166442A1 (en) | 2010-03-24 |
CN101667081A (zh) | 2010-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010061636A (ja) | タッチ軌跡及びタッチ方向の認識に基づいた使用者インターフェース方法 | |
US10228844B2 (en) | Mobile terminal | |
CN108121457B (zh) | 提供字符输入界面的方法和设备 | |
JP6245788B2 (ja) | 情報入力装置 | |
KR101169148B1 (ko) | 문자 입력 디바이스, 문자 입력 방법 및 컴퓨터 판독가능한 매체 | |
US8860665B2 (en) | Character input device and character input method | |
US9703418B2 (en) | Mobile terminal and display control method | |
US8508483B2 (en) | Apparatus and method for inputting characters in a terminal | |
JP5739131B2 (ja) | 携帯電子機器、携帯電子機器の制御方法及びプログラム | |
US9256363B2 (en) | Information processing device and character input method | |
EP2915036A1 (en) | Keyboard with gesture-redundant keys removed | |
JP2007316732A (ja) | 項目選択装置、情報処理装置、及び項目選択のためのコンピュータプログラム | |
KR102336329B1 (ko) | 전자 기기 및 전자 기기의 작동 방법 | |
JP2012088750A (ja) | 電子機器及び電子機器の文字入力プログラム | |
US20140327615A1 (en) | Display device and input control method | |
JP2010152759A (ja) | 文字入力装置、文字入力支援方法、及び、文字入力支援プログラム | |
JP6013004B2 (ja) | 文字入力装置およびその制御方法、制御プログラム、ならびに、制御プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP7036862B2 (ja) | 電子機器、制御方法、及びプログラム | |
EP3422164B1 (en) | Character input method, apparatus, and terminal | |
KR101255801B1 (ko) | 한글 입력 가능한 휴대 단말기 및 그것의 키패드 표시 방법 | |
JP6940625B2 (ja) | 入力情報修正方法及び情報端末 | |
JP2020035484A (ja) | 電子機器、文字入力制御方法、及び文字入力プログラム | |
JP2014116726A (ja) | 携帯電子機器、携帯電子機器の文字入力方法およびプログラム | |
JP2013162202A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20080158186A1 (en) | Method for inputting character |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110803 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120105 |