JP2013540330A - ディスプレイでジェスチャを認識する方法及びその装置 - Google Patents

ディスプレイでジェスチャを認識する方法及びその装置 Download PDF

Info

Publication number
JP2013540330A
JP2013540330A JP2013534814A JP2013534814A JP2013540330A JP 2013540330 A JP2013540330 A JP 2013540330A JP 2013534814 A JP2013534814 A JP 2013534814A JP 2013534814 A JP2013534814 A JP 2013534814A JP 2013540330 A JP2013540330 A JP 2013540330A
Authority
JP
Japan
Prior art keywords
gesture
input
display
recognized
recognizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013534814A
Other languages
English (en)
Inventor
ドン−ジン・ウン
タク−ホン・リー
スン−ビン・クク
ヨ−ジュン・ユン
ピル−スン・ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013540330A publication Critical patent/JP2013540330A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K11/00Methods or arrangements for graph-reading or for converting the pattern of mechanical parameters, e.g. force or presence, into electrical signal
    • G06K11/06Devices for converting the position of a manually-operated writing or tracing member into an electrical signal

Abstract

ディスプレイに対するタッチ入力を受信し、タッチ入力に関するジェスチャ入力を認識し、認識されたジェスチャ入力に割り当てられた機能を行う、タッチ基盤ディスプレイでジェスチャを認識する方法が開示されている。

Description

本発明の一実施形態は、ディスプレイでジェスチャを認識する方法及びその装置に係り、さらに詳細には、タッチ入力の可能なディスプレイでタッチジェスチャを認識し、それによる機能を行わせるディスプレイでジェスチャを認識する方法及びその装置に関する。
現在学校などで電子黒板(electronic blackboard)が多く普及している。電子黒板は、電子ペンで書き込み可能な導体性の平板ボードを意味する。
電子黒板は、3つの形態に大別されるが、第1には、タブレットタイプのLCDモニタ型の電子黒板があり、第2には、一般のホワイトボード形態の黒板型電子黒板があり、第3には、ビームプロジェクト付きのプロジェクションTV型電子黒板が開発・発売されている。また、電子黒板は、書き込み方法において、書き込み時に電子ペンと手とをいずれも用いて書き込み可能な電子黒板と、必ず電子ペンのみを用いて初めて書き込み可能な電子黒板とに分けられる。
最近は、電子黒板のような形態の大型ディスプレイ(Large Format Display;LFD)にタッチスクリーン技術が多く適用されている。電子黒板で書き込みなどの機能を行いつつディスプレイされる筆記の色相を変えるか、または新たな画面を浮かべるなどの機能変換のために、一般的に電子黒板の角に位置しているボタンやメニューをクリックする方法が多く使われている。ジェスチャの認識可能なタッチスクリーンディスプレイの改良が要求されている。
本発明が解決しようとする技術的課題は、画面の一部分に割り当てられているボタンやメニューをクリックせずに、筆記と区分できるジェスチャを認識できるタッチ入力の可能なディスプレイでジェスチャを認識する方法及びその装置を提供するところにある。
前記技術的課題を解決するための本発明の一実施形態によって、タッチ入力の可能なディスプレイでジェスチャを認識する方法が提供される。前記方法は、前記ディスプレイで入力手段によってタッチを用いたジェスチャ入力を認識する段階と、前記認識されたジェスチャに割り当てられた機能を行わせる段階と、を含む。
前記技術的課題を解決するための本発明の一実施形態によって、ディスプレイ装置が提供される。前記ディスプレイ装置は、タッチ入力を受信するディスプレイ部と、前記ディスプレイ部で入力手段によってタッチを用いたジェスチャ入力を認識するジェスチャ認識部と、前記認識されたジェスチャに割り当てられた機能を行わせる制御部と、を備える。
本発明の一実施形態によるディスプレイ装置でジェスチャ認識方法に関するフローチャートである。 本発明の一実施形態による第1ジェスチャ及び第2ジェスチャの例を示す図面である。 本発明の一実施形態による第1ジェスチャ及び第2ジェスチャの例を示す図面である。 本発明の一実施形態による第1ジェスチャ及び第2ジェスチャの例を示す図面である。 本発明の一実施形態による第1ジェスチャ及び第2ジェスチャの例を示す図面である。 本発明の一実施形態によるジェスチャを認識し、これによる機能を行うシナリオを示す図面である。 本発明の一実施形態によるジェスチャを認識し、これによる機能を行うシナリオを示す図面である。 本発明の一実施形態によるジェスチャを認識し、これによる機能を行うシナリオを示す図面である。 本発明の一実施形態によるディスプレイ装置に関するブロックダイヤグラムである。
添付した図面を参照して本発明の望ましい実施形態を詳細に説明する。
図1は、本発明の一実施形態によるディスプレイ装置でジェスチャ認識方法に関するフローチャートを示す図面である。
図1を参照すれば、段階110でディスプレイ装置は、タッチを用いた第1ジェスチャを認識する。ディスプレイ装置は、タッチ入力を受信するディスプレイを備えており、タッチ入力による動作をジェスチャと認識する。例えば、ディスプレイ装置は、ユーザがディスプレイにタッチを用いて丸い円を描く動作などをジェスチャと認識する。ディスプレイ装置は、スタイラスまたは指などの入力手段を介して筆記入力及びジェスチャ入力を受信する。ディスプレイ装置が電子黒板である場合、ディスプレイへの入力があれば、ディスプレイ装置は、その入力が筆記入力であるか、またはジェスチャ入力であるかを判断する。ディスプレイ装置は、入力が予め定義されたジェスチャであるかどうかを比べる。比較結果、ディスプレイ装置は、その入力が予め定義されたジェスチャと対応する場合には、ジェスチャと認識し、対応しない場合には筆記動作と認識する。
段階120で、ディスプレイ装置は、第1ジェスチャを認識した後、第2ジェスチャを認識する。第2ジェスチャは、第1ジェスチャがジェスチャであることを確認するためのものでありうる。また、第1ジェスチャと別個のジェスチャでもありうる。第1ジェスチャ後に所定の時間内に第2ジェスチャが認識され、所定の時間はディスプレイ装置の製造者によって設定できる。
図2Aないし図2Dは、本発明の一実施形態による第1ジェスチャ及び第2ジェスチャの例を示す図面である。
図2Aを参照すれば、第1ジェスチャ201は、入力手段220でディスプレイ210に円を描くジェスチャであり、第2ジェスチャ202は、第1ジェスチャ201直後に入力手段220をディスプレイ210から外すジェスチャである。
図2Bを参照すれば、第1ジェスチャ201は、入力手段220でディスプレイ210に円を描くジェスチャであり、第2ジェスチャ203は、第1ジェスチャ201後にディスプレイ210にタップを入力するジェスチャである。
図2Cを参照すれば、第1ジェスチャ201は、入力手段220でディスプレイ210に円を描くジェスチャであり、第2ジェスチャ204は、第1ジェスチャ201後の他のジェスチャである。
図2Dを参照すれば、第1ジェスチャ201は、入力手段220でディスプレイ210に円を描くジェスチャであり、第2ジェスチャ205は、第1ジェスチャ201後に一定時間の間に、入力手段220をディスプレイ210に待ち状態に位置させるジェスチャである。
入力手段220がディスプレイ210から分離されず、入力手段220がディスプレイ210内に待ち状態モードで位置する場合、使用性は劣るものの認識エラーが低減する。一方、入力手段220がディスプレイ210内に待ち状態に位置せず、入力手段220がディスプレイ210から分離された場合、使用性は向上するものの認識エラーが増加する。ディスプレイ装置の製造者は、認識エラーを向上させるか、または使用性を向上させるかを定める。
段階130で、ディスプレイ装置は、第1ジェスチャ及び第2ジェスチャのうち少なくとも一つに割り当てられた機能を行う。第2ジェスチャが第1ジェスチャを区分する機能のみを行う場合、ジェスチャによる機能は第1ジェスチャに割り当てられうる。例えば、円を描く第1ジェスチャに画像開きという機能が割り当てられている場合、ディスプレイ装置は第1ジェスチャを認識し、第1ジェスチャを区分する第2ジェスチャ、例えば、タップ入力を認識する場合に画像開き機能を行わせる。または、前記とは異なって、この場合に第2ジェスチャ自体に機能が割り当てられていることも考慮できる。
また、第1ジェスチャ及び第2ジェスチャがいずれも認識される場合、一つの機能のみを行うように機能が割り当てられてもよい。例えば、ディスプレイ装置は、円を描くジェスチャと、その後のタップ入力ジェスチャとを認識する場合には画像開き機能を行わせ、円を描くジェスチャと一定時間入力手段を待ち状態に維持させるジェスチャとを認識する場合にはハイライト機能を行わせる。
ディスプレイ装置は、ディスプレイでジェスチャの入力がある位置で認識されたジェスチャに割り当てられた機能を行わせることもできる。
また、本図面では、第1ジェスチャ及び第2ジェスチャ、すなわち、2つのジェスチャを認識する場合、ジェスチャに割り当てられた機能が行われると説明したが、一つのジェスチャのみを認識する場合にもジェスチャに割り当てられた機能が行われるということはいうまでもない。
図3Aないし図3Cは、本発明の一実施形態によるジェスチャを認識し、これによる機能を行うシナリオを示す図面である。
図3Aを参照すれば、ディスプレイ装置である電子黒板300には、所定の機能を行えるメニューボタン330が備えられている。電子黒板300のユーザは、メニューボタン330のいずれか一つをタッチして機能を行わせてもよい。ユーザが入力手段である指310を用い、イメージ320が表示された近くで第1ジェスチャ301を行う。
次いで、図3Bを参照すれば、ユーザは入力手段である指310を用い、タップ入力である第2ジェスチャ302を行う。
次いで、図3Cを参照すれば、電子黒板300は、第1ジェスチャ301及び/または第2ジェスチャ302にマッピングされた機能を行う。図3Cでは、第1ジェスチャ301の動作領域をハイライトする機能が行われたことを示す。
図3Aないし図3Cの実施形態の場合、ユーザはメニューボタン330を選択せず、ジェスチャを用いて電子黒板300のメニュー機能を行える。
図4は、本発明の一実施形態によるディスプレイ装置に関するブロックダイヤグラムを示す図面である。
図4を参照すれば、ディスプレイ装置400は、ディスプレイ部410、ジェスチャ認識部420及び制御部430を備え、ディスプレイ部410は、タッチ部412及び画面表示部414を備える。
ディスプレイ装置400は、タッチ入力の可能なディスプレイ装置を意味する。代表的に、ハンドライティングにより筆記入力及びジェスチャ入力を受信するデバイスである電子黒板を例としてあげる。但し、これに限定されるものではなく、タブレットPC、モバイル器機などのタッチスクリーンにドローイングできる機器にいずれも適用される。
ディスプレイ部410のタッチ部412は、指またはスタイラスなどの入力手段でタッチすれば、その位置を入力される。タッチ部412の代表的な例は、タッチスクリーンパネルを挙げられる。タッチスクリーンパネルは、例えば、個人用コンピュータ、ノート型パソコン、PMP(Portable Media Player)などの電子装置の画面表示部414の前面に設けられ、入力手段などを用いて接触するか、または文字または絵を描き込む作業を行うことで電子装置に特定命令やデータを入力できる入力装置の一つである。一般的なタッチスクリーンパネルの駆動方式としては、抵抗膜方式(registive overlay)及び静電容量方式(capacitive overlay)が主に使われてきた。静電容量方式のタッチスクリーンパネルは、互いに直交する方向にパターニングされている下部電極と上部電極とが誘電物質により分離されている構造を持っており、タッチによる下部電極と上部電極との交差点での静電容量の変化を認識する。抵抗膜方式のタッチスクリーンパネルは、互いに直交する方向にパターニングされている下部電極と上部電極とがスペーサによって分離されている構造を持っており、タッチによる下部電極と上部電極との接触による抵抗の変化を認識する。タッチスクリーンパネルは、画面表示部414、例えば、完成された液晶表示装置(LCD;Liquid Crystal Display)の前面に取り付けられた状態で使われるか、または液晶表示装置に一体化された状態で使われている。タッチ部412には、スタイラスまたは指などの入力手段を介して筆記入力とジェスチャ入力とがいずれも可能である。ディスプレイ部410の画面表示部412は、入力された筆記などで入力を表示する。
ジェスチャ認識部420は、タッチを用いた第1ジェスチャを認識する。ジェスチャ認識部420は、タッチ入力による動作をジェスチャと認識する。例えば、ジェスチャ認識部420は、ユーザがディスプレイにタッチで丸い円を描く動作などをジェスチャと認識する。タッチ部412への入力がある場合、ジェスチャ認識部420は、入力が筆記入力であるか、またはジェスチャ入力であるかを判断する。ジェスチャ認識部420は、保存部(図示せず)に保存されている入力が予め定義されたジェスチャであるかどうかを比べる。比較結果、ジェスチャ認識部420は、入力の予め定義されたジェスチャと対応する場合にはジェスチャと認識する。例えば、ディスプレイ装置400が電子黒板である場合、比較結果、ジェスチャ認識部420は、対応する場合にはジェスチャと認識し、対応しない場合には筆記動作と認識する。
ジェスチャ認識部420は、第1ジェスチャを認識した後、第2ジェスチャを認識する。第2ジェスチャは、第1ジェスチャがジェスチャであることを区分するジェスチャであるか、または第1ジェスチャと別個のジェスチャである。但し、第1ジェスチャ後に所定の時間内に第2ジェスチャが認識されねばならない。所定の時間は、ディスプレイ装置の製造者によって設定できる。第1ジェスチャ及び第2ジェスチャの第1例としては、第1ジェスチャは、入力手段でタッチ部412に円を描くジェスチャであり、第2ジェスチャは、第1ジェスチャ直後に入力手段をタッチ部412から外すジェスチャであり、第2例としては、第1ジェスチャは、入力手段でタッチ部412に円を描くジェスチャであり、第2ジェスチャは、第1ジェスチャ後にタッチ部412にタップを入力するジェスチャであり、第3例としては、第1ジェスチャは、入力手段でタッチ部412に円を描くジェスチャであり、第2ジェスチャは、第1ジェスチャ後の他のジェスチャであり、第4例としては、第1ジェスチャは、入力手段でタッチ部412に円を描くジェスチャであり、第2ジェスチャは、第1ジェスチャ後に一定時間、入力手段をタッチ部412に待ち状態に維持させるジェスチャを持つ。
入力手段がタッチ部412から分離されず、入力手段が待ち状態に維持される場合、使用性は劣るものの認識エラーが低減する。一方、入力手段が待ち状態に維持されず、入力手段がタッチ部412から分離された場合、使用性は向上するが、認識エラーが増加する。ディスプレイ装置の製造者は、認識エラーを低減させるか、または使用性を向上させるかを定める。
制御部430は、第1ジェスチャ及び第2ジェスチャのうち少なくとも一つに割り当てられた機能を行う。第2ジェスチャが第1ジェスチャを区分する機能のみを行う場合、ジェスチャによる機能は第1ジェスチャに割り当てられうる。例えば、円を描く第1ジェスチャに画像開きという機能が割り当てられている場合、ジェスチャ認識部420が第1ジェスチャを認識し、第1ジェスチャを区分する第2ジェスチャ、例えば、タップ入力を認識する場合、制御部430は画像開き機能を行わせる。または、前記とは異なって、この場合に第2ジェスチャ自体に機能が割り当てられていることも考慮できる。
また、第1ジェスチャ及び第2ジェスチャがいずれも認識される場合、制御部430は、一つの機能のみを行うように機能が割り当てられてもよい。例えば、制御部430は、円を描くジェスチャとその後のタップ入力ジェスチャとを認識する場合には画像開き機能を行わせ、円を描くジェスチャ及び一定時間入力手段を待ち状態に維持させるジェスチャを認識する場合には、ハイライト機能を行わせる。
制御部430は、タッチ部412で第1ジェスチャの入力がある位置で認識されたジェスチャに割り当てられた機能を行わせることもできる。
ディスプレイ装置400は、第1ジェスチャ及び第2ジェスチャ、すなわち、2つのジェスチャを認識する場合、ジェスチャに割り当てられた機能が行われると説明したが、ディスプレイ装置400は、一つのジェスチャのみを認識する場合にも、ジェスチャに割り当てられた機能が行われるということはいうまでもない。
以上で説明したようなタッチ入力の可能なディスプレイでジェスチャを認識する方法はまた、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現できる。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取られるデータが保存されるあらゆる記録媒体を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがある。またコンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータで読み取り可能なコードが保存されて行われる。そして、前記ディスク管理方法を具現するための機能的なプログラム、コード及びコードセグメントは、当業者によって容易に推論される。
これまで本発明についてその望ましい実施形態を中心として説明した。当業者ならば、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態に具現されるということを理解できるであろう。したがって、開示された実施形態は限定的な観点ではなく説明的な観点で考慮されねばならない。本発明の範囲は前記の説明ではなく特許請求の範囲に示されており、それと同等な範囲内にあるすべての差は本発明に含まれていると解釈されねばならない。
201 第1ジェスチャ
202 第2ジェスチャ
203 第2ジェスチャ
204 第2ジェスチャ
205 第2ジェスチャ
210 ディスプレイ
220 入力手段

Claims (19)

  1. タッチ入力の可能なディスプレイでジェスチャを認識する方法において、
    前記ディスプレイに対するタッチ入力を受信する段階と、
    前記タッチ入力に関するジェスチャ入力を認識する段階と、
    前記認識されたジェスチャ入力に割り当てられた機能を行わせる段階と、を含むことを特徴とするタッチ入力の可能なディスプレイでジェスチャを認識する方法。
  2. 前記タッチ入力に関する第1ジェスチャ入力を認識する段階は、
    第2タッチ入力を受信する段階と、
    前記第1ジェスチャ入力を認識した後、前記第2タッチ入力に関する第2ジェスチャ入力を認識する段階と、を含み、
    前記認識されたジェスチャに割り当てられた機能を行わせる段階は、前記第2ジェスチャ入力が認識された後、前記認識された第1ジェスチャ及び第2ジェスチャのうち少なくとも一つに割り当てられた機能を行わせることを特徴とする請求項1に記載のタッチ入力の可能なディスプレイでジェスチャを認識する方法。
  3. 前記第2ジェスチャは、前記第1ジェスチャ以後に行われ、入力手段を前記ディスプレイから分離することを特徴とする請求項2に記載のタッチ入力の可能なディスプレイでジェスチャを認識する方法。
  4. 前記第2ジェスチャは、前記第1ジェスチャ以後に行われ、入力手段を用いて前記ディスプレイにタップを入力することを特徴とする請求項2に記載のタッチ入力の可能なディスプレイでジェスチャを認識する方法。
  5. 前記第2ジェスチャは前記第1ジェスチャ以後に行われ、前記第1ジェスチャと異なるジェスチャ動作のジェスチャであることを特徴とする請求項2に記載のタッチ入力の可能なディスプレイでジェスチャを認識する方法。
  6. 前記第2ジェスチャは、入力手段を用いて、前記第1ジェスチャ以後に前記ディスプレイに所定の時間タッチを維持することを特徴とする請求項2に記載のタッチ入力の可能なディスプレイでジェスチャを認識する方法。
  7. 前記認識されたジェスチャに割り当てられた機能を行わせる段階は、
    前記認識されたジェスチャと予め定義されたジェスチャとを比べる段階と、
    前記比較結果、前記認識されたジェスチャが前記予め定義されたジェスチャに対応する場合、前記予め定義されたジェスチャにマッチングする機能を行わせる段階と、を含むことを特徴とする請求項1に記載のタッチ入力の可能なディスプレイでジェスチャを認識する方法。
  8. 前記ディスプレイが、タッチ入力手段を介して筆記入力及びジェスチャ入力がいずれも可能なディスプレイであり、前記比較結果、前記認識されたジェスチャが予め定義されたジェスチャと対応しない場合には、前記認識されたジェスチャを筆記と認識する段階をさらに含むことを特徴とする請求項7に記載のタッチ入力の可能なディスプレイでジェスチャを認識する方法。
  9. 前記認識されたジェスチャに割り当てられた機能は、前記ディスプレイで前記ジェスチャの入力のある位置で行われることを特徴とする請求項1に記載のタッチ入力の可能なディスプレイでジェスチャを認識する方法。
  10. タッチ入力を受信するディスプレイ部と、
    前記タッチ入力に関するジェスチャ入力を認識するジェスチャ認識部と、
    前記認識されたジェスチャ入力に割り当てられた機能を行わせる制御部と、を備えることを特徴とするディスプレイ装置。
  11. 前記ジェスチャ認識部は、第1ジェスチャ入力及び第2ジェスチャ入力を認識し、
    前記制御部は、前記認識された第1ジェスチャ及び第2ジェスチャのうち少なくとも一つに割り当てられた機能を行わせることを特徴とする請求項10に記載のディスプレイ装置。
  12. 前記第2ジェスチャは、前記第1ジェスチャ以後の入力であり、入力手段を前記ディスプレイから分離することを特徴とする請求項11に記載のディスプレイ装置。
  13. 前記第2ジェスチャは、前記第1ジェスチャ以後に行われ、入力手段を用いて前記ディスプレイにタップを入力することを特徴とする請求項11に記載のディスプレイ装置。
  14. 前記第2ジェスチャは、前記第1ジェスチャ以後に行われ、前記第1ジェスチャと異なることを特徴とする請求項11に記載のディスプレイ装置。
  15. 前記第2ジェスチャは、入力手段を用いて、前記第1ジェスチャ以後に前記ディスプレイに所定の時間タッチを維持することを特徴とする請求項11に記載のディスプレイ装置。
  16. 前記制御部は、前記認識されたジェスチャと予め定義されたジェスチャとを比べ、前記比較結果、前記認識されたジェスチャが前記予め定義されたジェスチャに対応する場合、前記予め定義されたジェスチャにマッチングする機能を行わせることを特徴とする請求項10に記載のディスプレイ装置。
  17. 前記ディスプレイ部が筆記入力及びジェスチャ入力を受信し、前記制御部は、前記比較結果、前記認識されたジェスチャが予め定義されたジェスチャと対応しない場合には、前記認識されたジェスチャを筆記と認識することを特徴とする請求項16に記載のディスプレイ装置。
  18. 前記制御部は、前記ディスプレイ部で前記ジェスチャの入力のある位置で前記認識されたジェスチャに割り当てられた機能を行わせることを特徴とする請求項10に記載のディスプレイ装置。
  19. タッチ入力を受信するディスプレイでジェスチャを認識する方法を具現するためのプログラムを記録したコンピュータで読み取り可能な記録媒体において、
    ディスプレイに対するタッチ入力を受信する段階と、
    前記タッチ入力に関するジェスチャ入力を認識する段階と、
    前記認識されたジェスチャ入力に割り当てられた機能を行う段階と、を含むことを特徴とするタッチ入力の可能なディスプレイでジェスチャを認識する方法を具現するためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
JP2013534814A 2010-10-20 2011-10-19 ディスプレイでジェスチャを認識する方法及びその装置 Pending JP2013540330A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020100102509A KR20120040970A (ko) 2010-10-20 2010-10-20 디스플레이에서 제스쳐를 인식하는 방법 및 그 장치
KR10-2010-0102509 2010-10-20
PCT/KR2011/007770 WO2012053812A1 (en) 2010-10-20 2011-10-19 Method and apparatus for recognizing a gesture in a display

Publications (1)

Publication Number Publication Date
JP2013540330A true JP2013540330A (ja) 2013-10-31

Family

ID=45972597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013534814A Pending JP2013540330A (ja) 2010-10-20 2011-10-19 ディスプレイでジェスチャを認識する方法及びその装置

Country Status (11)

Country Link
US (1) US20120098772A1 (ja)
EP (1) EP2630561A1 (ja)
JP (1) JP2013540330A (ja)
KR (1) KR20120040970A (ja)
CN (1) CN103262014A (ja)
AU (1) AU2011318746A1 (ja)
BR (1) BR112013009571A2 (ja)
CA (1) CA2814498A1 (ja)
MX (1) MX2013004282A (ja)
RU (1) RU2013122862A (ja)
WO (1) WO2012053812A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130201161A1 (en) * 2012-02-03 2013-08-08 John E. Dolan Methods, Systems and Apparatus for Digital-Marking-Surface Content-Unit Manipulation
CN102799376A (zh) * 2012-07-11 2012-11-28 广东欧珀移动通信有限公司 一种触控设备的快捷功能设定方法
EP2872981A4 (en) 2012-07-13 2016-10-19 Samsung Electronics Co Ltd METHOD FOR SENDING AND RECEIVING DATA BETWEEN A MEMO LAYER AND APPLICATION AND ELECTRONIC DEVICE THEREFOR
KR102084041B1 (ko) * 2012-08-24 2020-03-04 삼성전자 주식회사 펜 기능 운용 방법 및 시스템
US10073545B2 (en) * 2012-10-31 2018-09-11 Guha Jayachandran Apparatus, systems and methods for human computer interaction
KR101990039B1 (ko) * 2012-11-30 2019-06-18 엘지전자 주식회사 이동 단말기 및 이의 제어방법
CN103543833B (zh) * 2013-10-30 2016-03-23 天津三星电子有限公司 一种显示器参数遥控调节方法、装置及显示器
US10353230B2 (en) * 2014-02-21 2019-07-16 Lg Chem, Ltd. Electronic blackboard
CN105988567B (zh) 2015-02-12 2023-03-28 北京三星通信技术研究有限公司 手写信息的识别方法和装置
KR20170103379A (ko) * 2016-03-04 2017-09-13 주식회사 이노스파크 반응형 유저인터페이스 제공 방법
KR20220046906A (ko) * 2020-10-08 2022-04-15 삼성전자주식회사 전자 장치 및 이의 제어 방법
US11922008B2 (en) 2021-08-09 2024-03-05 Samsung Electronics Co., Ltd. Electronic device processing input of stylus pen and method for operating the same
KR20230022766A (ko) * 2021-08-09 2023-02-16 삼성전자주식회사 스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5862256A (en) * 1996-06-14 1999-01-19 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by size discrimination
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
KR100360141B1 (ko) * 2000-10-17 2002-11-09 (주)네이스텍 터치스크린을 이용한 디바이스에서의 제스처를 통한필기입력 방법
US7365737B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Non-uniform gesture precision
JP2006172439A (ja) * 2004-11-26 2006-06-29 Oce Technologies Bv 手操作を用いたデスクトップスキャン
KR100735663B1 (ko) * 2005-10-06 2007-07-04 삼성전자주식회사 이동통신 단말기에서 패널입력의 패턴인식을 이용한 명령일괄처리 방법
US8587526B2 (en) * 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
CN100426200C (zh) * 2006-10-13 2008-10-15 广东威创视讯科技股份有限公司 基于交互式输入设备的智能输入编码方法
US20110012856A1 (en) * 2008-03-05 2011-01-20 Rpo Pty. Limited Methods for Operation of a Touch Input Device
KR20100091434A (ko) * 2009-02-10 2010-08-19 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
KR20100093293A (ko) * 2009-02-16 2010-08-25 주식회사 팬택 터치 기능을 갖는 이동 단말기 및 그 이동 단말기의 터치 인식 방법
KR20100097376A (ko) * 2009-02-26 2010-09-03 삼성전자주식회사 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
CN101825980A (zh) * 2009-03-05 2010-09-08 友达光电股份有限公司 用于触控感应设备的手势方法

Also Published As

Publication number Publication date
EP2630561A1 (en) 2013-08-28
RU2013122862A (ru) 2014-11-27
US20120098772A1 (en) 2012-04-26
CN103262014A (zh) 2013-08-21
AU2011318746A1 (en) 2013-05-02
BR112013009571A2 (pt) 2016-07-12
MX2013004282A (es) 2013-07-05
KR20120040970A (ko) 2012-04-30
WO2012053812A1 (en) 2012-04-26
CA2814498A1 (en) 2012-04-26

Similar Documents

Publication Publication Date Title
JP2013540330A (ja) ディスプレイでジェスチャを認識する方法及びその装置
US11061503B1 (en) Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10152948B2 (en) Information display apparatus having at least two touch screens and information display method thereof
US8638303B2 (en) Stylus settings
US20120182238A1 (en) Method and apparatus for recognizing a pen touch in a device
US10146341B2 (en) Electronic apparatus and method for displaying graphical object thereof
RU2623885C2 (ru) Запись формулы для ограниченного устройства отображения
KR20140038568A (ko) 터치스크린 장치의 사용자로부터 수신된 입력 및 제스쳐에 응답하여 동작을 수행하는 컴퓨터로 구현된 방법 및 컴퓨터 판독가능 매체
KR102152383B1 (ko) 단말 장치 및 그 제어 방법
US9442580B2 (en) Electronic apparatus and touch operating method thereof
US10146424B2 (en) Display of objects on a touch screen and their selection
US20130293495A1 (en) Method for inputting touch and touch display apparatus
JP2020513619A (ja) ディスプレイ装置及びその制御方法
TW201635098A (zh) 書寫裝置及其操作方法
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display
JP6220374B2 (ja) 情報処理装置、出力文字コード判定方法、及びプログラム
木谷篤 Menu designs for note-taking applications on tablet devices
TW201039203A (en) Electronic device, display device and method for identifying gestures of touch input