JP5916042B2 - タッチスクリーンを備えた装置及びそのタッチ認識方法 - Google Patents

タッチスクリーンを備えた装置及びそのタッチ認識方法 Download PDF

Info

Publication number
JP5916042B2
JP5916042B2 JP2010136329A JP2010136329A JP5916042B2 JP 5916042 B2 JP5916042 B2 JP 5916042B2 JP 2010136329 A JP2010136329 A JP 2010136329A JP 2010136329 A JP2010136329 A JP 2010136329A JP 5916042 B2 JP5916042 B2 JP 5916042B2
Authority
JP
Japan
Prior art keywords
touch
input
released
control unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010136329A
Other languages
English (en)
Other versions
JP2010287241A (ja
Inventor
聖 鑽 李
聖 鑽 李
ヒョン 秀 金
ヒョン 秀 金
永 壽 尹
永 壽 尹
守 衒 李
守 衒 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010287241A publication Critical patent/JP2010287241A/ja
Application granted granted Critical
Publication of JP5916042B2 publication Critical patent/JP5916042B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチスクリーンを備えた装置のタッチ認識方法(METHOD FOR RECOGNIZING TOUCH INPUT IN TOUCH SCREEN BASED DEVICE)に関し、より詳細には、タッチ入力とタッチ解除の位置が異なる場合において、位置を補正してタッチを認識する方法及びその方法が適用されるタッチスクリーンを備えた装置に関する。
最近、携帯端末機の普及率が急速に増加し、携帯端末機はもはや現代人の生活必需品となっている。このような携帯端末機は、固有の音声通話サービスだけでなく各種データの伝送サービスや多様な付加サービスも提供できるようになり、機能上マルチメディア通信機器に変貌するようになった。
タッチスクリーン基盤の携帯端末機が開発され、タッチUI(User Interface)技術が継続的に研究されており、ユーザは多様なタッチ入力によって携帯端末機を操作できるようになった。一般的に、携帯端末機に使用されるタッチスクリーンは、ユーザがタッチパネルにタッチを入力するとx、y抵抗値により位置を認識する。スタイラスペンやその他の先端がとがっている物体でタッチパネルにタッチを入力する場合には、タッチを入力する時の位置とタッチを解除する時の位置とがほとんど一致する。しかし、指のように伸縮性のある広い面でタッチパネルにタッチを入力する場合には、タッチ入力の位置とタッチ解除の位置とが変わる場合がある。図7のように、ユーザがタッチを入力する際にはユーザの指が「x」の部分をタッチしたが、図8のように、ユーザがタッチを解除する際には「o」の部分で指を離す場合が発生し得る。このような場合、携帯端末機は、ユーザの意図とは違った座標値でタッチが入力されたと認識し、これはタッチ感度を落とす原因として作用し得る。その結果、正確でない入力が記録されるか、活性化され得る。
本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、タッチの入力部分と解除部分とが相違する位置を有する場合、これを補正してタッチを認識する方法及びその方法が適用されるタッチスクリーンを備えた装置を提供することにある。
上記目的を達成するためになされた本発明の一特徴によるタッチ認識方法は、タッチスクリーンを備えた装置のタッチ認識方法であって、タッチが入力されるとタッチ入力が前記タッチスクリーン上で活性化されるステップと、前記タッチ入力の活性化の開始から終了までの前記タッチ入力の位置変更を判断するステップと、前記判断されたタッチ入力の変更された位置でタッチ解除が発生すると、前記タッチ入力の活性化の開始位置で前記タッチ入力が解除されたと認識するステップと、を有し、
前記タッチ入力が解除されたと認識するステップは、前記タッチ入力の活性化の開始から終了までの前記タッチ入力の位置距離が、予め設定された臨界値以下に該当するか否かを判断するステップを更に含み、前記臨界値以下であると判断する場合、前記タッチ入力の活性化の開始位置で前記タッチ入力が解除されたと認識する
上記目的を達成するためになされた本発明の一特徴によるタッチスクリーンを備えた装置は、タッチの入力又は解除を感知してタッチ信号を生成するタッチセンサーと、前記タッチセンサーから生成された前記タッチ信号を受信して、タッチ入力とタッチ解除の位置変更を判断し、該変更された位置でタッチ解除が発生すると、前記タッチが入力された位置及びタッチ解除位置間の距離が、予め設定された臨界値以下に該当する場合、前記タッチが入力された位置で前記タッチが解除されたと認識する制御部と、を備える。
上記目的を達成するためになされた本発明の他の特徴によるタッチ認識方法は、タッチが入力されると該タッチが入力された位置を確認するステップと、
前記タッチが入力された位置及び前記変更された位置間の距離が、予め設定された臨界距離以下に該当するか否かを判断するステップと、
前記変更された位置でタッチ解除が発生すると、前記タッチが入力された位置及び前記変更された位置間の距離が前記臨界距離以下に該当する場合、前記タッチが入力された位置で前記タッチが解除されたと認識するステップと、を有する。

本発明のタッチ認識方法によれば、タッチスクリーンを備えた携帯端末機は、ユーザの意図に合わせてタッチを認識することができ、これによってタッチ感度が向上する効果が発生する。
本発明の一実施例による携帯端末機の構成図である。 本発明の第1実施例によるタッチスクリーンを備えた装置におけるタッチ認識ステップを表すフローチャートである。 本発明の一実施例によるドラッグ動作を区分するための臨界距離を示した例示図である。 本発明の一実施例によるタッチ認識方法が適用されるアプリケーション表示画面の例示図を表す。 本発明の一実施例による図4のアプリケーション表示画面中の(a)部分を座標値に対応させて示した例示図である。 本発明の第2実施例によるタッチスクリーンを備えた装置におけるタッチ認識ステップを表すフローチャートである。 本発明の一実施例による、ユーザがタッチを入力する時のタッチ位置を表す図面である。 本発明の一実施例による、ユーザがタッチを解除する時のタッチ位置を表す図面である。
本発明の実施例による「タッチ入力」はユーザがタッチ器具(指等)でタッチスクリーンをタッチする動作に該当する。本発明の実施例による「タッチ解除」はユーザがタッチスクリーンからタッチ器具を離す動作に該当する。
以下、本発明のタッチスクリーンを備えた装置及びそのタッチ認識方法を実施するための形態の具体例を、図面を参照しながら詳細に説明する。ここで、図面において、同一の構成要素はなるべく同一の符号で表す。また、本発明の要旨を曖昧にし得る公知機能及び構成に関する詳細な説明は省略する。
本発明の実施例では携帯端末機を例に挙げて説明するが、これに限定されず、テレビ、コンピュータ、ノートブックコンピュータといった大型ディスプレーを備えた機器にも適用することができる。本発明の実施例による携帯端末機は、タッチスクリーンを備えた端末機であり、好ましくは移動通信端末機、携帯用マルチメディア再生装置(Portable Multimedia Player:PMP)、個人情報端末機(Personal Digital Assistant:PDA)、スマートフォーン(Smart Phone)、MP3プレーヤーといった全ての情報通信機器及びマルチメディア機器や、それに対する応用にも適用することができる。
図1は、本発明の一実施例による携帯端末機の構成図である。
無線通信部110は携帯端末機の無線通信のための該当データの送受信機能を遂行する。無線通信部110は、送信する信号の周波数をアップ変換及び増幅するRF送信機と、受信する信号を低雑音増幅して周波数をダウン変換するRF受信機等で構成され得る。また、無線通信部110は、無線チャンネルを介してデータを受信して制御部160に出力し、制御部160から出力されたデータを、無線チャンネルを介して伝送することができる。
オーディオ処理部120はコーデックで構成することができ、コーデックは、パケットデータ等を処理するデータコーデックと音声等のオーディオ信号を処理するオーディオコーデックとを備える。オーディオ処理部120は、デジタルオーディオ信号を、オーディオコーデックを介してアナログオーディオ信号に変換し、スピーカー(SPK)を介して再生し、マイク(MIC)から入力されたアナログオーディオ信号を、オーディオコーデックを介してデジタルオーディオ信号に変換する。
格納部130は、携帯端末機の動作に必要なプログラム及びデータを格納する役割を果たし、プログラム領域とデータ領域とに区分し得る。本実施例による格納部130は、ユーザのタッチ入力とタッチ解除とを認識するプログラムを格納する。また、格納部130は、ドラッグ動作と認識する臨界距離に関する情報を格納することができる。本実施例による格納部130は、全体のタッチ領域が少なくとも一つの区分領域で区分される場合、それぞれの区分領域が占める座標範囲及び区分領域のタッチ時に遂行する機能に関する情報を格納することができる。格納部130は、それぞれのアプリケーションごとに区分領域に関する情報を格納することができる。
タッチスクリーン部140はタッチセンサー142及び表示部144を含む。タッチセンサー142は、タッチ器具がタッチスクリーンに接触したか否かを感知する役割を果たす。タッチ器具にはユーザの指又はタッチペン(スタイラスペン)等が該当する。タッチセンサー142は、静電容量方式(capacitive overlay)、圧力式抵抗膜方式(resistive overlay)、赤外線感知方式(infrared beam)等のタッチ感知センサーで構成するか、圧力センサー(pressure sensor)で構成することもできるが、これに限定されず、物体の接触又は圧力が感知できる全ての種類のセンサーが本発明のタッチセンサー142に該当し得る。タッチセンサー142は表示部144に付着して形成することができ、それ以外にも携帯端末機の一面又は一側に形成することができる。タッチセンサー142は、タッチスクリーンへのユーザのタッチ入力を感知し、タッチ信号を発生させて制御部160に伝送する役割を果たす。タッチ信号はタッチが入力された位置情報を含むことができる。本実施例によるタッチセンサー142は、タッチ解除を感知し、タッチが解除された位置情報を含むタッチ信号を発生させて制御部160に伝送する。また、タッチセンサー142は、入力されたタッチの位置が変更されたことを感知し、変更されたタッチ位置情報を含むタッチ信号を発生させて制御部160に伝送する。
表示部144は液晶表示装置(LCD:Liquid Crystal Display)で形成することができ、携帯端末機のメニュー、入力されたデータ、機能設定情報、及びその他の多様な情報をユーザに視覚的に提供する。例えば、表示部144は、携帯端末機の起動画面、待機画面、表示画面、通話画面、その他のアプリケーション実行画面を出力する機能を遂行する。本実施例による表示部144は、制御部160の制御によって格納部130に格納されたイメージを表示する役割を果たす。本実施例による表示部144は、全体のタッチ領域が少なくとも一つの区分領域で区分される場合、それぞれの区分領域を区分して表示することができる。
キー入力部150は携帯端末機を制御するためのユーザのキー操作信号を入力して制御部160に伝達する。キー入力部150は数字キー、方向キーを含むキーパッドで構成することができ、携帯端末機の一側面に所定の機能キーで形成することもできる。本発明の実施例として、タッチセンサー142のみで全ての操作が可能な携帯端末機の場合には、キー入力部150を省略することもできる。
制御部160は携帯端末機の全般の動作を制御する機能を遂行する。本実施例による制御部160は、タッチセンサー142からタッチ信号を入力してタッチが入力された位置を確認する。また、制御部160は、タッチセンサー142からタッチ信号を入力して、変更されたタッチの位置又はタッチが解除された位置を確認する。制御部160は、変更されたタッチの位置でタッチが解除されたことを確認すると、タッチが入力された位置でタッチが解除されたと認識する。本実施例により、制御部160は、タッチが入力された位置と変更された位置との距離を判断し、予め設定された臨界距離以下に該当すると判断すれば、タッチが入力された位置でタッチが解除されたと認識する。本実施例により、全体のタッチ領域が少なくとも一つの区分領域で区分される場合、制御部160はタッチが入力される全体領域を複数の区分領域で区分して認識し、タッチが入力された位置が含まれる区分領域と変更された位置が含まれる区分領域とが、同一の区分領域に該当するか否かを判断し、同一の区分領域に該当しないと判断する場合、変更された位置でタッチ解除が発生すると、タッチが入力された位置でタッチが解除されたと認識する。
図2は、本発明の第1実施例によるタッチスクリーンを備えた装置におけるタッチ認識ステップを表すフローチャートである。
205ステップで、制御部160はタッチセンサー142を制御してユーザからタッチが入力されたか否かを判断する。タッチセンサー142は、ユーザからタッチが入力されるとタッチ入力信号を発生させて制御部160に伝達する。制御部160が、タッチセンサー142からタッチ入力信号を受信すると、210ステップでタッチが入力された位置(x1,y1)を確認する。本実施例によるタッチセンサー142は、一つのピクセル(pixel)単位でタッチを認識することができ、この場合、タッチセンサー142は、タッチが入力されたピクセルの座標値に関する情報を含むタッチ入力信号を発生させて制御部160に伝達する。本実施例により、タッチセンサー142は、ピクセル間の間隔より大きい間隔単位でタッチを認識することができ、この場合、タッチセンサー142は、一定間隔に設定された座標でタッチが入力された座標値に関する情報を含むタッチ入力信号を発生させて制御部160に伝達することができる。制御部160は、タッチセンサー142からタッチ入力信号を受信し、タッチが入力された位置(x1,y1)を確認する。
図4は、本発明の一実施例によるタッチ認識方法が適用されるアプリケーション表示画面の例示図を表す。図4に示した表示画面は、(a)の方向キーを操作して(b)の円を動かすゲームアプリケーションの表示画面である。図5は、本発明の一実施例による図4のアプリケーション表示画面中の(a)部分を座標値に対応させて示した例示図である。図5は、(a)部分を(0,0)から(100,150)までの座標値に対応させて示している。本実施例では、ユーザが右方向キーをタッチ入力し、制御部160はユーザが入力した座標値を(55,75)と認識したと仮定する。
215ステップで、制御部160はタッチセンサー142を制御してタッチ位置が変更されたか否かを判断する。タッチセンサー142は、タッチが入力された位置が変更されたことを感知し、タッチ入力信号を発生させて制御部160に伝達する。タッチ入力信号には変更されたタッチ位置(x2,y2)に関する情報が含まれる。制御部160は、220ステップで、タッチセンサー142からタッチ入力信号を受信し、変更されたタッチ位置(x2,y2)を確認する。図4及び図5を参照して説明すると、ユーザがタッチスクリーンにタッチを入力した状態で指を動かし、制御部160はタッチ位置が(50,77)に変更されたと認識する。
次いで、制御部160は、225ステップで、タッチが入力された位置(x1,y1)と変更されたタッチ位置(x2,y2)間の距離(s)を演算し、演算した距離(s)が予め設定された臨界距離(Sth)以下に該当するか否かを判断する。本実施例による臨界距離(Sth)とは、ドラッグ(drag)動作と認識するための最小限の移動距離を意味する。例えば、携帯端末機に臨界距離(Sth)が18ピクセル(pixels)と設定されている場合、ユーザがタッチ入力後、18ピクセルを超過する移動動作を入力すれば、制御部160はユーザの動作をドラッグ動作と認識することになる。
図3は、本発明の一実施例によるドラッグ動作を区分するための臨界距離を示した例示図である。基準線を@と設定する場合、ユーザが基準線にタッチを入力した後、18ピクセルを超過して移動すれば、制御部160はユーザ動作をドラッグ動作と認識する。一方、ユーザが基準線@を中心に18ピクセル以下で移動すれば、制御部160はユーザ動作をドラッグ動作と認識せず単純なタッチ入力と認識する。臨界距離(Sth)を移動する時間により、移動動作はドラッグ(drag)、ムーブ(move)、フリック(flick)等で区分することができ、制御部160は移動速度を移動距離と共に測定し、ユーザが入力する動作をこれら三つの動作中のいずれか一つの動作と認識することができる。図4及び図5を参照して説明すると、制御部160は(55,75)及び(50,77)間の移動距離(s)を演算し、演算された移動距離(s)が臨界距離(Sth)以下に該当するか否かを判断する。
制御部160は、225ステップで、演算した距離(s)が予め設定された臨界距離(Sth)以下に該当すると判断する場合、230ステップで、タッチセンサー142を制御してタッチ解除が発生したか否かを判断する。ユーザがタッチスクリーン部140を指でタッチした状態から指を離すと、タッチセンサー142はタッチ解除が発生したことを感知し、タッチ解除信号を発生させて制御部160に伝達する。本実施例により、タッチ解除信号にはタッチ解除が発生した位置に関する情報を含むことができる。制御部160はタッチセンサー142からタッチ解除信号を受信する。次いで、制御部160は、235ステップで、タッチが入力された位置(x1,y1)でタッチが解除されたと認識する。即ち、制御部160は、タッチが解除された位置(x2,y2)ではなくタッチが入力された位置(x1,y1)でタッチ解除が発生したと認識する。図4及び図5を参照して説明すると、制御部160は(50,77)ではなく(55,75)でタッチ解除が発生したと認識する。
215ステップで、制御部160が、タッチ位置が変更されたと判断しない場合、240ステップで、タッチセンサー142を制御してタッチ解除が発生したか否かを判断する。タッチセンサー142は、タッチ解除信号を発生させて制御部160に伝達し、制御部160はタッチセンサー142からタッチ解除信号を受信して、タッチが解除された位置(x2,y2)を確認する。制御部160は、245ステップで、タッチが解除された位置(x2,y2)でタッチが解除されたと認識する。
225ステップで、制御部160が演算した距離(s)が予め設定された臨界距離(Sth)を超過すると判断する場合、250ステップで、制御部160は入力された動作をドラッグ動作と認識する。本実施例により、制御部160は入力時間を測定し、測定された結果により、ユーザの入力された動作をドラッグ、ムーブ、フリック中のいずれか一つの動作と認識することができる。制御部160は、表示部144を制御してドラッグ動作に対応するようにGUI(Graphic User Interface)を移動させて表示することができる。
本実施例により、制御部160は、タッチセンサー142からタッチ入力信号及びタッチ解除信号を受信して、タッチが入力された位置及びタッチが解除された位置を確認し、二つの位置間の距離(s)を演算し、予め設定された臨界距離(Sth)以下であると判断する場合、タッチが入力された位置でタッチが解除されたと認識することができる。
図6は、本発明の第2実施例によるタッチスクリーンを備えた装置におけるタッチ認識ステップを表すフローチャートである。
505ステップで、制御部160は、タッチセンサー142を制御してユーザからタッチが入力されたか否かを判断する。タッチセンサー142は、ユーザからタッチが入力されるとタッチ入力信号を発生させて制御部160に伝達する。制御部160が、タッチセンサー142からタッチ入力信号を受信すると、510ステップで、タッチが入力された位置(x1,y1)を確認する。本発明の実施例として、表示部144が操作領域と表示領域とに区分され、操作領域が所定の個数の区分領域で区分される場合、制御部160はタッチが入力された位置(x1,y1)がどの区分領域に含まれるのかを確認することができる。図4及び図5を参照して説明すると、(a)領域は操作領域に該当し、(b)領域は表示領域に該当する。また、(a)領域は上方向、下方向、左方向、右方向領域で区分されている。図5を参照すると、(a)領域は上方向の三角形領域(角頂点(0,150)、(100,150)、(50,75))、下方向の三角形領域(角頂点(0,0)、(100,0)、(50,75))、左方向の三角形領域(角頂点(0,0)、(0,150)、(50,75))、右方向の三角形領域(角頂点(100,0)、(100,150)、(50,75))で区分された形態が示されている。本実施例では、ユーザが右方向キーにタッチを入力し、制御部160は、ユーザが入力した座標値を(55,75)と認識したと仮定する。本実施例により、制御部160は座標値(55,75)を確認して、タッチが入力された位置が右方向の三角形領域に含まれると認識することができる。
515ステップで、制御部160は、タッチセンサー142を制御してタッチ位置が変更されたか否かを判断する。タッチセンサー142は、タッチが入力された位置が変更されたことを感知し、タッチ入力信号を発生させて制御部160に伝達する。制御部160は、520ステップで、タッチセンサー142からタッチ入力信号を受信し、変更されたタッチ位置(x2,y2)を確認する。図4及び図5を参照して説明すると、ユーザがタッチスクリーンにタッチを入力した状態で指を動かし、制御部160はタッチ位置が(50,77)に変更されたことを認識したと仮定する。本実施例により、制御部160は座標値(50,77)を確認して、タッチが入力された位置が上方向の三角形領域に含まれると認識することができる。
525ステップで、制御部160は、タッチセンサー142を制御してタッチ解除が発生したか否かを判断する。タッチセンサー142は、タッチ解除信号を発生させて制御部160に伝達し、制御部160は、タッチセンサー142からタッチ解除信号を受信して、タッチが解除されたことを認識する。
530ステップで、制御部160は、520ステップで確認した変更されたタッチ位置が含まれる区分領域と、510ステップで確認したタッチが入力された位置が含まれる区分領域とが、同一の区分領域に該当するか否かを判断する。本実施例における「同一の区分領域」とは、タッチ発生時に同一の機能を遂行するように設定された範囲の領域を意味する。図4及び図5を参照して説明すると、制御部160は、510ステップでタッチが入力された位置を(55,75)と確認して右方向の三角形領域に含まれると認識し、520ステップで変更されたタッチ位置を(50,77)と確認して上方向の三角形領域に含まれると認識した。この場合、制御部160は、変更されたタッチ位置が含まれる領域と、タッチが入力された位置が含まれる領域とが、同一の領域に含まれていないと判断する。この場合、制御部160は、535ステップで、タッチが入力された位置(x1,y1)でタッチが解除されたと認識する。図4及び図5を参照して説明すると、制御部160は(55,75)でタッチが解除されたと認識する。即ち、制御部160は、タッチ位置の移動動作はユーザが意図した動作ではないと判断し、タッチが解除された時の位置ではなく、最初にタッチを入力した位置でタッチが解除されたと認識する。
タッチが入力された位置が(55,75)と確認され、変更されたタッチ位置が(57,75)と確認された場合、二つの座標の両方とも右方向の三角形領域に含まれ、同一の区分領域に該当する。この場合、制御部160は、530ステップで、変更されたタッチ位置が含まれる区分領域と、タッチが入力された位置が含まれる区分領域とが、同一の区分領域に該当すると判断する。この時、制御部160は、545ステップで、タッチが解除された位置でタッチが解除されたと認識する。515ステップでタッチ位置が変更されなければ、制御部160は、540ステップでタッチセンサー142を制御してタッチが解除されたか否かを判断し、タッチが解除されたと認識すると、545ステップでタッチが解除された位置でタッチが解除されたと認識する。
本発明の実施例として、上記タッチ認識方法は、ハードウェア又はCD ROM、RAM、フロッピー(登録商標)ディスク、ハードディスク、又はマグネチックオプティカルディスクのような格納媒体に格納されるか、ネットワークによってダウンロードできるソフトウェア又はコンピュータコードにより成り立つ。そこで、上記タッチ認識方法は、一般のコンピュータ又は特別プロセッサーを利用するソフトウェアによって実行されるか、或いは、ASIC又はFPGAのようなプログラム可能であるか、専用のハードウェア上で実行することができる。コンピュータ、プロセッサー、又はプログラム可能なハードウェアは、RAM、ROM、Flashのようなコンピュータ、プロセッサーによってアクセスされて実行される際、ソフトウェア又はコンピュータコードを格納或いは受信するメモリー構成要素を含む。
以上、図面を参照しながら本発明の実施形態について詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
110 無線通信部
120 オーディオ処理部
130 格納部
140 タッチスクリーン部
142 タッチセンサー
144 表示部
150 キー入力部
160 制御部

Claims (6)

  1. タッチスクリーンを備えた装置のタッチ認識方法であって、
    タッチが入力されると、前記タッチが入力された第1の位置を確認するステップと、
    前記タッチの位置が変更されると、変更された第2の位置を確認するステップと、
    前記第2の位置でタッチ解除が発生すると、前記第1の位置から前記第2の位置への移動距離及び移動速度を決定するステップと、
    前記移動距離が、予め設定された臨界距離以下であると、前記第1の位置で前記タッチが解除されたと認識するステップと、を有し、
    前記移動距離が、前記予め設定された臨界距離を超過すると、前記決定された移動速度によってドラッグ(drag)、ムーブ(move)、及びフリック(flick)のうちの何れかが入力されたと認識することを特徴とするタッチ認識方法。
  2. タッチが入力される全体領域が複数の区分領域で区分され
    前記タッチ入力が解除されたと認識するステップは、前記第1の位置を含む区分領域で前記タッチが解除されたと認識することを特徴とする請求項1に記載のタッチ認識方法。
  3. 前記複数の区分領域は複数の方向キーに対応することを特徴とする請求項に記載のタッチ認識方法。
  4. タッチスクリーンを備えた装置であって、
    タッチの入力又は解除を感知してタッチ信号を生成するタッチセンサーと、
    前記タッチセンサーから生成された前記タッチ信号を受信して、前記タッチが入力された第1の位置及び変更された第2の位置を確認し、該第2の位置でタッチ解除されることを確認すると、前記第1の位置から前記第2の位置への移動距離及び移動速度を決定して、前記移動距離が、予め設定された臨界距離以下であると、前記第1の位置で前記タッチが解除されたと認識する制御部と、を備え
    前記移動距離が、前記予め設定された臨界距離を超過すると、前記決定された移動速度によってドラッグ(drag)、ムーブ(move)及びフリック(flick)のうちの何れかが入力されたと認識することを特徴とする装置。
  5. タッチが入力される全体領域が複数の区分領域で区分され、
    前記制御部は、前記第1の位置を含む区分領域で前記タッチ入力が解除されたと認識することを特徴とする請求項4に記載の装置。
  6. 前記複数の区分領域は複数の方向キーに対応することを特徴とする請求項5に記載の装置。
JP2010136329A 2009-06-15 2010-06-15 タッチスクリーンを備えた装置及びそのタッチ認識方法 Expired - Fee Related JP5916042B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2009-0052634 2009-06-15
KR1020090052634A KR20100134153A (ko) 2009-06-15 2009-06-15 터치스크린을 구비한 장치의 터치 인식 방법

Publications (2)

Publication Number Publication Date
JP2010287241A JP2010287241A (ja) 2010-12-24
JP5916042B2 true JP5916042B2 (ja) 2016-05-11

Family

ID=43306028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010136329A Expired - Fee Related JP5916042B2 (ja) 2009-06-15 2010-06-15 タッチスクリーンを備えた装置及びそのタッチ認識方法

Country Status (3)

Country Link
US (1) US20100315366A1 (ja)
JP (1) JP5916042B2 (ja)
KR (1) KR20100134153A (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10324605B2 (en) 2011-02-16 2019-06-18 Apple Inc. Media-editing application with novel editing tools
KR101750898B1 (ko) * 2010-12-06 2017-06-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8725443B2 (en) 2011-01-24 2014-05-13 Microsoft Corporation Latency measurement
US8988087B2 (en) 2011-01-24 2015-03-24 Microsoft Technology Licensing, Llc Touchscreen testing
US9099161B2 (en) 2011-01-28 2015-08-04 Apple Inc. Media-editing application with multiple resolution modes
JP2012168932A (ja) 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
US9542092B2 (en) 2011-02-12 2017-01-10 Microsoft Technology Licensing, Llc Prediction-based touch contact tracking
US8982061B2 (en) * 2011-02-12 2015-03-17 Microsoft Technology Licensing, Llc Angular contact geometry
US11747972B2 (en) 2011-02-16 2023-09-05 Apple Inc. Media-editing application with novel editing tools
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US8773377B2 (en) 2011-03-04 2014-07-08 Microsoft Corporation Multi-pass touch contact tracking
US8773374B2 (en) * 2011-05-13 2014-07-08 Blackberry Limited Identification of touch point on touch screen device
US8913019B2 (en) 2011-07-14 2014-12-16 Microsoft Corporation Multi-finger detection and component resolution
CN102890612B (zh) * 2011-07-22 2017-02-15 腾讯科技(深圳)有限公司 一种屏幕滚动的方法和装置
US9378389B2 (en) 2011-09-09 2016-06-28 Microsoft Technology Licensing, Llc Shared item account selection
US9785281B2 (en) 2011-11-09 2017-10-10 Microsoft Technology Licensing, Llc. Acoustic touch sensitive testing
US9524050B2 (en) 2011-11-29 2016-12-20 Google Inc. Disambiguating touch-input based on variation in pressure along a touch-trail
US8436827B1 (en) 2011-11-29 2013-05-07 Google Inc. Disambiguating touch-input based on variation in characteristic such as speed or pressure along a touch-trail
US8914254B2 (en) 2012-01-31 2014-12-16 Microsoft Corporation Latency measurement
JP5953879B2 (ja) * 2012-03-30 2016-07-20 ブラザー工業株式会社 画像表示装置のプログラム、画像表示装置、画像表示装置の制御方法
KR102096070B1 (ko) * 2012-06-22 2020-04-14 삼성전자주식회사 터치 인식 개선 방법 및 그 전자 장치
US9317147B2 (en) 2012-10-24 2016-04-19 Microsoft Technology Licensing, Llc. Input testing tool
US9335913B2 (en) * 2012-11-12 2016-05-10 Microsoft Technology Licensing, Llc Cross slide gesture
JP6093635B2 (ja) * 2013-04-23 2017-03-08 シャープ株式会社 情報処理装置
CN106168864A (zh) 2015-05-18 2016-11-30 佳能株式会社 显示控制装置以及显示控制方法
KR102464280B1 (ko) * 2015-11-06 2022-11-08 삼성전자주식회사 입력 처리 방법 및 장치
US11209912B2 (en) * 2016-12-06 2021-12-28 Rohde & Schwarz Gmbh & Co. Kg Measuring device and configuration method
KR102717180B1 (ko) 2017-02-24 2024-10-15 삼성전자주식회사 전자장치 및 그 제어방법
CN111273838B (zh) * 2018-12-19 2022-07-22 深圳市鸿合创新信息技术有限责任公司 触摸显示装置中悬浮工具栏的移动方法及触摸显示装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US7911456B2 (en) * 1992-06-08 2011-03-22 Synaptics Incorporated Object position detector with edge motion feature and gesture recognition
US5621438A (en) * 1992-10-12 1997-04-15 Hitachi, Ltd. Pointing information processing apparatus with pointing function
JPH08249118A (ja) * 1995-03-10 1996-09-27 Fuji Electric Co Ltd タッチパネル装置及びその制御方法
JPH09258899A (ja) * 1996-03-21 1997-10-03 Oki Electric Ind Co Ltd タッチパネル制御装置
JPH11175212A (ja) * 1997-12-15 1999-07-02 Hitachi Ltd タッチパネル装置のタッチ操作処理方法
FI116591B (fi) * 2001-06-29 2005-12-30 Nokia Corp Menetelmä ja laite toiminnon toteuttamiseksi
EP1457864A1 (en) * 2001-09-21 2004-09-15 International Business Machines Corporation INPUT APPARATUS, COMPUTER APPARATUS, METHOD FOR IDENTIFYING INPUT OBJECT, METHOD FOR IDENTIFYING INPUT OBJECT IN KEYBOARD, AND COMPUTER PROGRAM
FI112119B (fi) * 2002-06-25 2003-10-31 Nokia Corp Menetelmä ohjauskomennon tulkitsemiseksi ja kannettava elektroninen laite
JP2004355426A (ja) * 2003-05-30 2004-12-16 Hitachi Ltd タッチパネル操作性向上ソフトウェア及び端末
CN100412766C (zh) * 2003-08-29 2008-08-20 诺基亚公司 在基于触摸的用户输入装置上用于识别双点用户输入的方法和装置
US7761814B2 (en) * 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
KR100791287B1 (ko) * 2005-10-26 2008-01-04 삼성전자주식회사 그래픽 객체의 3차원 동작을 제어하는 장치 및 방법
US7652662B2 (en) * 2006-04-26 2010-01-26 Mediatek Inc. Portable electronic device and a method of controlling the same
JP4087879B2 (ja) * 2006-06-29 2008-05-21 株式会社シンソフィア タッチパネルの文字認識方法及び文字入力方法
EP1988444A3 (en) * 2007-04-30 2016-03-02 Samsung Electronics Co., Ltd. Character input apparatus and method
KR20080105724A (ko) * 2007-06-01 2008-12-04 삼성전자주식회사 터치 패널을 갖는 통신 단말기 및 그의 터치 좌표값 산출방법
US8296670B2 (en) * 2008-05-19 2012-10-23 Microsoft Corporation Accessing a menu utilizing a drag-operation
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor

Also Published As

Publication number Publication date
KR20100134153A (ko) 2010-12-23
JP2010287241A (ja) 2010-12-24
US20100315366A1 (en) 2010-12-16

Similar Documents

Publication Publication Date Title
JP5916042B2 (ja) タッチスクリーンを備えた装置及びそのタッチ認識方法
JP6965319B2 (ja) 文字入力インターフェース提供方法及び装置
JP5964936B2 (ja) 携帯端末機のイメージ処理方法
US8405621B2 (en) Variable rate media playback methods for electronic devices with touch interfaces
CN107608558B (zh) 具有触摸屏的移动终端及在移动终端提供用户界面的方法
US9891732B2 (en) Selective rejection of touch contacts in an edge region of a touch surface
JP5823400B2 (ja) 複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機
KR101640464B1 (ko) 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
JP5946462B2 (ja) 携帯端末機及びその画面制御方法
US20090251432A1 (en) Electronic apparatus and control method thereof
CN108733303B (zh) 便携式终端的触摸输入方法和设备
US8081170B2 (en) Object-selecting method using a touchpad of an electronic apparatus
CN108920069B (zh) 一种触控操作方法、装置、移动终端和存储介质
KR20130097331A (ko) 터치 스크린을 구비하는 전자기기에서 객체를 선택하기 위한 장치 및 방법
KR20080105724A (ko) 터치 패널을 갖는 통신 단말기 및 그의 터치 좌표값 산출방법
WO2018218392A1 (zh) 触摸操作的处理方法和触摸键盘
JP2011243157A (ja) 電子機器、ボタンサイズ制御方法、及びプログラム
JP5738446B2 (ja) 携帯電話機、電子機器、ならびに電子機器の文字入力方法およびプログラム
KR20130102670A (ko) 터치스크린 단말기의 세밀한 조작을 위한 사용자별 손가락 및 터치 펜 접촉 위치 포인트 설정을 위한 방법 및 시스템
US9529498B2 (en) Input processing apparatus and method using a user interface
KR20120107348A (ko) 감압식 터치스크린 디바이스의 멀티 터치 처리방법
KR20110010522A (ko) 드래그 동작을 활용한 사용자 인터페이스 방법 및 단말기
EP2407866B1 (en) Portable electronic device and method of determining a location of a touch
JP5067345B2 (ja) 携帯通信端末、携帯通信端末の制御方法、プログラム、及び記録媒体
KR20110053014A (ko) 터치스크린을 포함하는 전자 기기의 사용자 인터페이스 제공 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150318

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150325

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160401

R150 Certificate of patent or registration of utility model

Ref document number: 5916042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees