JP2013054745A - 携帯端末機の入力装置及び方法 - Google Patents
携帯端末機の入力装置及び方法 Download PDFInfo
- Publication number
- JP2013054745A JP2013054745A JP2012192142A JP2012192142A JP2013054745A JP 2013054745 A JP2013054745 A JP 2013054745A JP 2012192142 A JP2012192142 A JP 2012192142A JP 2012192142 A JP2012192142 A JP 2012192142A JP 2013054745 A JP2013054745 A JP 2013054745A
- Authority
- JP
- Japan
- Prior art keywords
- input
- application
- pen
- touch
- handwriting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
- G06F3/0441—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using active external devices, e.g. active pens, for receiving changes in electrical potential transmitted by the digitiser, e.g. tablet driving signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/046—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】携帯端末機は、ボタンと、ボタンのクリック有無によってそれぞれ第1電気信号を有する第1入力及び第2電気信号を有する第2入力を発生するペンと、ペンのタッチ有無を感知し、これによる第1入力及び第2入力の感知信号を発生するタッチデバイスとを備え、また、ペンのタッチによってタッチパネルを介して感知される入力を分析する過程と、入力が第1電気信号の変化を有する第1入力なら実行中のアプリで第1入力に対応して設定された機能を行う第1入力処理過程と、入力が第2電気信号の変化を有する第2入力なら設定されたアプリを呼出す、又は設定された命令を実行する過程とを備え、ここで、第1入力は、実行中のアプリの動作を制御する一般入力、ハンドライティング文字、及びドローイングなどを含み、第2入力は、特定のアプリを呼出す命令語及び特定動作の実行を命令する命令語である。
【選択図】図5
Description
また、本発明は、ペンにボタンを追加することによって、携帯端末機で実行されるアプリケーションの動作制御と独立的に携帯端末機の特定のアプリケーションの呼出及び特定のコマンドの発生ができる携帯端末機の多様な入力を発生する装置及び方法を提案する。
また、ペンにボタンを追加し、携帯端末機で実行されるアプリケーションの動作制御と独立的に携帯端末機の特定のアプリケーション呼出及び特定のコマンドを発生する携帯端末機の多様な入力を発生できる。
従って、携帯端末機にペンを使用した入力機能を導入することによって、従来のペン特有のハンドライティング動作がモバイル全般に拡張され、これにより、既存には不可能であった、手書きのペンに特有の動作を携帯端末機上で具現できるという効果がある。
図1は、本発明の実施例による携帯端末機の構成を示す図である。
図1を参照すれば、本発明の実施例による携帯端末機100は、ボタン11と、ヘッド12と、アルミニウムなどで構成される胴体で構成されるペン10とを含む。ここで、ヘッド12は、導電性物質(例えば、シリコーンゴム材質)で構成され、ボタン11の押圧有無によって異なる大きさの電気信号を発生する構成を内部に備える。
また、前記タッチパネル120は、表示部130と一体形に構成できる。本発明の実施例によるタッチパネル120は、ペン10及びユーザの指などのタッチを区別して感知できなければならない。表示部130は、携帯端末機で実行されるアプリケーションの動作画面を表示する。
また、制御部110は、映像処理部を備え、ドローイング又はハンドライティングされたイメージを表示されている画面イメージと結合し、新しいイメージを生成する。また、制御部110は、クロップ(crop)処理部を備え、ユーザが表示された画面に閉曲線をドローイングしてクロップ命令を発生すると、閉曲線内のイメージをクロップして処理する。
即ち、通信部150は、前述のような通信部のうち1つ以上を備え得る。例えば、通信部150は、LTE、WiFi、ブルートゥース、NFC通信部などを備え得る。オーディオ処理部160は、携帯端末機のオーディオ信号を処理し、ビデオ処理部170は、携帯端末機のビデオ信号を処理する。
また、ペン10は、ボタン11を備え、ボタン10の押圧有無によって異なる大きさの電気信号を発生できる構成を有する。即ち、人が接触した状態(人がペンを手に握った状態)でペン10は、電気信号を発生し、その際、ペン10は、ボタンを押圧しない状態では、第1の大きさの電気信号を発生し、ボタンを押圧した状態では、第2の大きさの電気信号を発生するように構成される。
また、タッチパネル120の場合、ペン10のヘッド12の接触面積と指の接触面積は、その大きさが異なる。即ち、ペン10の接触面積は、指接触面積に比べて相対的に小さく、従って、制御部110は、タッチパネル120を介して受信される入力を感知する際、接触する面積の大きさによってペンタッチか、又は指タッチかを弁別できる。また、ペン10は、ボタンの押圧の有無によって異なる大きさの電気信号を発生する。従って、タッチパネル120を介して感知される電気信号の変化値が異なるので、制御部110は、電気信号の変化によって、ボタン押圧の有無に依存するペン入力を区別して感知できる。
そして一方、第2入力信号は、携帯端末機で特定の機能を行う命令語入力になり、ペン10のボタン11を押圧した状態でペンのゼスチャー(hand gesture)によって発生される。即ち、第2入力は、ペン10のボタン11を押圧した状態でのロングプレス、ダブルタップ(ダブルクリック)、フリック(水平、垂直)、及び特定形態のゼスチャー(例えば、円形、方形又はこれと類似の形態の動きなど)などに区分できる。第2入力は、第1入力の一般入力と重複できる。
メモリ140は、第1入力信号及び第2入力信号による機能及び命令語に対するマッピングテーブルを備える。制御部110は、第1又は第2入力信号発生時に、メモリ140を参照して現在実行されているアプリケーションに対して入力された信号による機能又は命令を行う。
前述のようなペン10の入力を効率的に処理するために、制御部110は、ペン入力設定(セッティング)動作を実行できる。
図2は、本発明の実施例によってペン設定手続を示す図である。また、図3及び図4は、図2のようなペン設定手続を行う過程で表示部130に表示される画面を示す図である。
まず、前記ショートカット設定」は、特定のアプリケーションを迅速に実行する機能の設定を意味し、前記タッチ領域モード設定は、ペンタッチが主に発生するタッチパネルの領域の設定を意味し、前記ペン検出モード設定は、文字入力を行うアプリケーション実行時に、文字入力パッド(handwriting_pad)をオンさせるか否かの設定を意味する。
従って、ユーザは、画面315にメニュー表示されるタグ項目のうち1つを選択でき、或る項目が選択されれば、制御部110は、219段階で、これを感知し、221段階で、選択された項目をショートカットに登録する。前記ショートカット機能は、前述したように、ペン10の第2入力の1つとマッピングできる。図3の317は、前記ショートカット機能を第2入力のダブルクリックとしてマッピングしたと仮定した場合であり、ショートカットのデフォルトは、クィックメモに設定される場合を例示している。しかし、219段階で、ショートカット項目の選択がなければ、制御部110は、217段階に戻り、アイテム表示及び/又は選択機能の実行を続ける。また、221段階を行った後、制御部110は、235段階に進行し、設定モードの終了であるかを検査し、終了なら、設定モードを終了し、そうではなければ、213段階に戻る。
また、223段階で、タッチ領域設定モードが選択されなければ、制御部110は、231段階に進行し、ペン検出モード設定であるかを検査する。この際、ユーザがペン検出モード設定(タグ「pen detection」による)を選択すれば、制御部110は、231段階でこれを感知し、233段階で、ハンドライティングパッド(handwriting pad)の表示有無を設定するペン検出モードのオン又はオフを設定するように表示する。この際、制御部110は、233段階で、ユーザがペンオフを選択すれば、携帯端末機のテキスト入力モードで直前に使用されたIME(last IME)が表示されるように設定し、ペンオンを選択すれば、携帯端末機のテキスト入力モードでハンドライティングパッド(handwriting pad)が表示されるように設定する。ここで、携帯端末機のテキスト入力モードは例えば、SMSなどのテキストメッセージアプリ、電子メールアプリ、又はメッセンジャーアプリである。この際、ペン検出モードがオフ状態でテキスト入力モードが行われる場合、制御部110は、直前状態のIMEを表示部130に表示する。
前述のように、ペン設定モードを行った後、ユーザは、ペンを利用して携帯端末機の動作を行うか、又は制御することができる。
図5は、本発明の実施例によってペン10を利用した携帯端末機の動作制御に係るペン入力の判定手続を示す流れ図である。
図5を参照すれば、図1に示した携帯端末機のタッチパネル120の入力は、ペン10又は指を用いて入力される。制御部110は、411段階で入力有無を検査し、413段階で入力の種類を判別する。この際、入力がなければ制御部110は411段階で、これを感知し入力を待機する。そして、手タッチ入力なら、制御部110は413段階で、これを感知し(「Pen入力?」で「NO」に行く)、手タッチ入力を処理する。しかし、ペン10の入力なら、制御部110は、411段階及び413段階でこれを感知し、415段階で、ペン10の第1入力であるか又は第2入力であるかを確認する。ここで、第1入力は、ペン10のボタン11を押圧しない状態で入力される信号であり、第2入力は、ペン10のボタン11を押圧した状態で入力される信号を意味する。この際、第1入力なら、制御部110は、417段階で、入力された信号を分析した後、419段階で、分析された結果によって対応する動作を行った後、411段階に戻る。そして、第2入力なら、制御部110は、415段階で、これを感知し、425段階で、入力された信号を分析した後、423段階で、分析された結果によって当該命令を行った後、411段階に戻る。
このように、第1入力の一般入力及び第2入力は、同一の形態をとり得る。例えば、上述のロングプレス、フリックなどの形態をとり得る。
図8を参照すれば、ペン10の第1入力が感知されれば、制御部110は、611段階で、第1入力を分析する。本発明の実施例による第1入力としては、図6のような一般入力、文書作成モードでのハンドライティング文字入力、ドローイングモードでのドローイング入力、イメージが表示されるモードでのクロップ入力などがある。しかし、ペン10の第1入力は、前述のような入力以外にさらに拡張することもできる。以下の説明では、一般入力、文書作成モードでのハンドライティング文字入力、ドローイングモードでのドローイング入力、及びクロップモードでのクロップ入力の順に説明する。
第一に、図6のような一般入力なら、制御部110は、613段階で、これを感知し、615段階で当該入力を処理する。
図9は、図8の615段階で処理される、第1入力のうちの一般入力に対する処理手続の詳細を示す図である。
この際、フリックが水平方向に感知されれば、制御部110は、現在のページで以前又は次のページに移動し、上下方向に感知されれば、制御部110は、画面を上方又は下方にスクロールする。図9では、図6のように、第1入力の一般入力が設定された場合を仮定して説明しているが、前記一般入力と入力タイプのマッピング結果によって異なる機能を行うこともできる。また、一般入力の形態がタップ(tap)、ロングプレス(long press)、フリック(flick)の場合を例示して説明しているが、他の形態の一般入力をさらに追加することもできる。
第二に、第1入力がハンドライティングであり、現在のアプリケーションが文書作成モードの場合、制御部110は、617段階で、これを感知し、619段階で、ハンドライティングされる文字を認識して処理することができる。
図10は、本発明の実施例によってペン10を利用して文書を作成する手続を示す図である。
図10は、図8の619段階で行われる動作を表示する図である。図10を参照すれば、文書作成モードは、前述したように、SMS、電子メール、メッセンジャーなどのアプリケーションで行われることができる。このような場合、ペン10がタッチするか、又はタッチパネル120の一定距離以内に近接することを感知すれば、制御部110は811段階で、図11に示すようなハンドライティングパッドを表示部130に表示する。この際、ハンドライティングパッドは、前述したように、ペン10によってライティングされる文字を表示する第2表示領域355と、ライティングされた文字を認識して表示する第1表示領域351と、ハンドライティングの作成するために必要なソフトキーを表示する領域353とで構成される。
また、919領域「IME」は、文書作成パッドを変更する領域であって、図11のようなハンドライティングパッドを表示する状態で前記「IME」を選択すれば、上述の図4の画面333、335のように各々、QWERTYキーパッド又は3*4キーパッドが表示される。そして、921領域は、バックスペース及び削除(back space and delete)機能を行う領域であって、この領域が選択されれば、制御部110は、現在のカーソルー位置を後方に移動させる。923領域は、エンターキー領域であって、作成中の文書のエンターキー機能を行う。この際、前記エンターキー領域がタッチされた場合、制御部110は、第2表示領域355にテキストがあれば、挿入“Insert”動作を行い、テキストがなく、マルチラインの場合には、エンターキー“Enter”動作を行い、テキストがなく、マルチラインでもない場合には、完了“Done”機能を行い、電子メールの場合、URL入力窓にテキストがなければ、“Go”機能を行う。
この際、前記認識方法としては、何れも周知の、完成認識(単語単位で認識)方法、又は字画認識方法を使用できる。そして、前述のように、文書を作成及び認識する過程で誤認識が発生する場合、制御部110は、第1表示領域351の底部(又はハンドライティングパッドの特定位置に設定される領域)に推薦文字を表示し、ユーザが表示された推薦文字を選択すれば、制御部110は、選択された文字を第1表示領域351の当該文字位置に挿入できる。
図12を参照すれば、ユーザが誤って入力した文字は、第2表示領域に表示される誤入力された文字の上にオーバライトして修正する。即ち、図12の931欄のように、USをUKに修正しようとする場合、第2表示領域355に表示されるS文字の上にKをハンドライティングする。このような場合、制御部110は、第2表示領域355にライティングされた文字にオーバーライティングされる文字は、文字修正として感知し、先にライティングされた文字の代わりに、後でライティングされた文字を認識して修正した後、これを第1表示領域351に表示する。
また、文書作成時に行単位又は単語を削除しようとする場合、図12の933欄のように、第2表示領域355に表示される当該文字の上で右側から左側に線引きをすればよい。このような場合、制御部110は、右側から左側方向に線引きが感知されれば、線に位置する文字を削除し、第1表示領域351に表示する。前述のような方法で図12の935欄のように、ライティングされた文字の上で右側から左側方向に線引きが感知されれば、制御部110は、以前文字と当該文字との間に空間(space機能)を作る。図12の937欄のように、ライティングされた文字と文字との間を連結すれば、制御部110は、文字と文字との間の空白を除去する。図12の939欄のように、エンター形状の線引きが感知されれば、制御部110は、当該位置で改行機能を行う。図12の941欄のように、“鴎(カモメ)”型のタッチが発生すれば、制御部110は、当該位置にライティングされた文字を削除する。
また、図12の943欄のように、ライティングされた文字の上にロングタッチ(long press)が発生すれば、制御部110は、当該位置にライティングされた文字によって文字を修正するための単語を表示し、ユーザが表示される単語を選択すれば、当該単語を選択する。例えば、第2表示領域355に表示された文字が“cook”であり、前記“cook”字の上にペン10のロングプレス(Long press)が感知されれば、制御部110は、ハンドライティングパッドの設定された位置(例えば、第1表示領域351の下部領域)に代替可能な単語(例えば、cook、book、cool…)を表示する。そして、ユーザが所望の単語をクリック(tap)すれば、制御部110は、ユーザが選択された単語を前記long pressされた単語に代替して表示する。
以上の823段階の後、本方法は、上述の図8の619段階に戻ってこれを完了し、同じく上述の図5の419段階に戻ってこれを完了する。
第三に、ペン10を用いた第1入力のドローイングが感知されれば、制御部110は、図8の621段階で、これを感知し、623段階で、ペン10を用いて入力されるドローイングを感知して処理する。
図13は、本発明の実施例においてドローイング入力を処理する手続を示す図であり、図8の623の動作手続を示している。また、図14ないし図20は、図13のようなドローイングモードを行う具体例を示す図である。
図13を参照すれば、ドローイングモードでは、ユーザがドローイングモードを選択してドローイング動作を行うことができ、また、現在行われるアプリケーション中でハンドライティング又はドローイングを行うこともできる。即ち、図14に示したように、文書作成モードで作成された文書にドローイングを挿入又は追加して伝送しようとする場合、ユーザは、当該アプリケーションでドローイングモードに進入し、ドローイング動作を行った後、これを当該文書に挿入又は追加することができる。また、現在行われるアプリケーション中でイメージにドローイング動作を行い、当該イメージに重ね書き(overwriting)することもできる。
ドローイングモードでユーザがドローイングパッドの表示を選択すれば、制御部110は、1011段階で、これを感知し、1013段階で、現在アプリケーションをしばらく中断し、ドローイングパッドを表示する。
例えば、図14の1111のように、電子メール文書を作成している最中に、例えば「挿入(Insert)」タグをタップする機能を実行すれば、1113のように選択できる項目を表示し、ここで、「ドローイング(Drawing)」タグをペン10を利用して第1入力として選択(タップ、又はクリック)すれば、制御部110は、1115のようにドローイングパッドを表示する。その後、前記ドローイングパッドにユーザがペン10を利用してドローイングすれば、制御部110は、1015段階で、タッチパネル120を介してこれを感知し、表示部130に1117のように表示する。その後、ユーザがドローイング終了(1117画面の「完了(done)」タグをタッチ)すれば、制御部110は、1017段階で、これを感知し、1019段階で、1119のように、ドローイングイメージを生成し、1021段階で、当該イメージを処理する。
前述したように、ドローイングパッドを利用してドローイングを行うアプリケーションの種類によっては、図16のように、文書作成アプリケーション(テキストメッセージ、電子メールなどのメッセージアプリケーション)でメッセージを作成している途中に描画できるドローイングパッドを提供し、メッセージとともに描いた絵を伝送でき、また、図17のように、ハンドライティングパッドを提供するアプリケーション(即ち、テキスト入力が可能なアプリケーション)で直接ユーザがハンドライティングしてドローイング機能を実行できる。
上記のようにドローイングパッドを使用せずに、ドローイングを実行できるアプリケーションは例えば、次の通りである。現在行われているマルチメディアアプリケーション(例えば、Photo Editor、Video Maker、Galleryアプリケーション)の場合、図15のように、ユーザが表示部130に表示されるマルチメディアイメージの上に直接ドローイングを行い、マルチメディアイメージにユーザのドローイングが追加されたイメージを生成する。
また、ハンドライティング機能が提供されるメモアプリケーション(例えば、クィックメモ、リッチメモアプリケーション)でユーザがハンドライティングしたメモを図18のようにイメージとして生成して処理する。即ち、メモアプリケーションで作成されたハンドライティング文字をドローイングのようにイメージとして生成する。
また、イメージが表示されるアプリケーション(例えば、電子ブックアプリケーションなど)において図19のように、表示されたイメージに対してユーザが直接、注釈設定、ライティングなどのハンドライティング及びドローイングを行い、ドローイングイメージとして生成する。
また、編集可能なアプリケーション(editable screen captureアプリケーションなど)で図20のように、ユーザが画面に直接ライティングしてドローイングイメージを生成する。このような場合、ハンドライティング編集が可能な画面キャプチャー機能を提供でき、携帯端末機上に表示される全ての画面で当該ドローイング機能を行う。例えば、インターネットサーフィン、雑誌画面、文書画面などを表示するアプリケーションで当該画面にドローイングを行い、画面を編集できる。
第四に、前記画面にイメージが表示される状態で、ペンを利用して表示されるイメージの特定部分を囲むように円形又は多角形の閉曲線をドローイングし、クロップ機能を選択すれば、制御部110は、625段階で、これを感知し、当該画面をクロップし、クロップされた画面を処理する。例えば、表示部130に写真などのようなイメージが表示される状態で閉曲線ドローイングをした後、クロップ項目を選択し、タッチ(タップ、又はクリック)すれば、制御部110は、これをイメージクロップとして見なし、閉曲線内部のイメージをキャプチャして処理する。そして、前記クロップされた画面をメモリに保存し、また、他の画面に挿入又は追加して新しいイメージとして生成する。
しかし、ペン10のボタン11を押圧した状態でタッチパネル120にタッチされる場合、制御部110は、図5の421段階で、これを第2入力として感知し、第2入力が感知されれば、制御部110は、425段階及び423段階で入力される第2入力のハンドゼスチャーによって当該命令を処理する。ここで、第2入力のうち、特定入力(例えば、long press)を除いた残りの第2入力は、現在実行中のアプリケーションに関係なく、対応する命令に対応するアプリケーションを行う。
図21は、本発明の実施例によって第2入力を処理する手続を示す流れ図である。
また、図22及び図23は、図21のような手続を行いながら処理される具体例を示す図である。
例えば、前記ショ−トカットアプリケーションがクィックメモに設定された場合、図22の1311及び1321のように、ペン10のボタンがクリックオン(押圧)された状態でダブルクリックが発生すれば、制御部110は、1323のように、ショ−トカットに設定されたクィックメモを表示部130に表示する。
また、第1入力及び第2入力は、前述したように、ペンがタッチパネル120にタッチされるとき、異なる大きさの電気信号を発生するものと仮定している。即ち、ペン10は、ボタンがクリックオン(押圧)される場合とクリックオン(押圧)されない場合で、発生する電気信号が異なる大きさを有し、このような場合、ペン10がタッチパネル120にタッチされると、異なる電気信号の変化を引き起こす。ここで、第1入力は、ペン10のボタン11がクリックオンされない状態で前記タッチパネルを介して感知される入力として仮定し、第2入力は、ペン10のボタン11がクリックオンされた状態で前記タッチパネルを介して感知される入力と仮定している。しかし、ペン10のボタン11がクリックオンされない状態で前記タッチパネルを介して感知される入力を第2入力とし、ペン10のボタン11がクリックオンされた状態で前記タッチパネルを介して感知される入力を第1入力としても、同一の動作を行うことができる。
図24ないし図26は、本発明の実施例による携帯端末機のリッチメモリスト及びリストを制御する手続を示す図である。
図24ないし図26を参照すれば、図24において画面1411は、リッチメモをサムネイルリスト(list arranged by thumbnails)として示す図であり、図25において画面1451は、リッチメモをリスト−バイ−リスト(list by list)として示す図である。図24を参照すれば、リッチメモのサムネイルリストを示す画面1411は、クィックメモ及びリッチメモのサムネイル項目をリストで示していて、リストの各項目の特徴は、表1413のように定義される。ここで、クィックメモボタンは、クィックメモを1つのサムネイルで表示し、リッチメモをそれぞれ対応するサムネイルで構成し、リスト化する。図24のようなリッチメモのサムネイルリストを示す画面1411を表示する状態でユーザがメニュー呼出をすれば、図24 の表1421のようなメニューが呼び出される。ここで、前記メニュー呼出は、前述したように、第2入力として実行でき、図7のように、第2入力を定義した場合、図24の1411のように、リッチメモのサムネイルリストを示す画面が表示された状態でペン10のボタン11をクリックオンし、下側方向から上側方向にフリックすれば、制御部110は、これをメニュー呼出として感知する。そして、表1421のように表示されたメニューにおいて当該項目をクリック(第1入力のタップ)すれば、選択された項目のリストが表1423、1425、1427のように表示される。
図27及び図28を参照すれば、ユーザは、リッチメモのリストが表示された状態で特定のリッチメモのサムネイル(又はリスト上の項目)を選択すれば、図27の画面1511に示すように該当するリッチメモを表示する。この際、前記リッチメモの形態は、表1513に示す構造を有する。そして、前記画面1511の状態で、前述したような第2入力でメニューを呼出すれば、表1521のようなメニューが呼出され、呼出されたメニューで表1523〜1527のような下部メニューを選択できる。
この際、前記リッチメモを作成する方法は、テキスト及びドローイングは、前述したようなペン10を利用して実行でき、この際、第1入力のテキストライティング、ドローイング及びクロップなどの方法を使用でき、また、一般入力によってリッチメモアプリケーションの動作を制御できる。ここで、前記リッチメモのハンドライティングは、ドローイングパッド上で実行でき、前記ハンドライティング文字は、イメージとして処理でき、また、メニューを通じて認識命令を発生して認識できる。即ち、前記リッチメモは、ペン10を用いてドローイング、ハンドライティングなどを通じて作成でき、また、作成されたリッチメモにビデオ及び/又はオーディオなども挿入できる。さらに、前記ハンドライティングされた文字は、必要時に、認識命令によってデータに変換して保存できる。さらに、上記のように作成されたリッチメモは、メモリ140に保存でき、また、通信部150を介して外部装置又は外部加入者に伝送できる。
図30は、図29のクィックメモリストでクィックメモを生成するためのパッド構成を示す図である。図30を参照すれば、クィックメモアプリケーションにおいてユーザは、画面1711のようなドローイングパッド又は画面1723のようなテキストパッドを利用してクィックメモを作成できる。そして、ユーザは、ペン10を用いてメニュー呼出を行うことができ、この際、メニューは例えば、表1725〜1731に示すとおりである。
図31は、本発明の実施例によってクィックメモアプリケーションを選択する方法を説明するための図である。図31を参照すれば、ショートカットアプリケーションに前記クィックメモが設定された場合、ユーザが、画面1811に示すように、任意のアプリケーションを実行している状態でショートカット機能に設定されたクィックメモを選択するために、第2入力(ペン10のボタン11をクリックオンした状態でダブルタップを発生すれば、制御部110は、これを感知し、画面1813に示すようなクィックメモアプリケーションを行うためのドローイングパッドを表示する。そして、ユーザが画面1813に示すようなドローイングパッド上にクィックメモをドローイング及び/又はハンドライティングにより作成すれば、制御部110は、これをドローイングパッド上に表示する。そして、作成されたクィックメモは、図29の画面1611のようなクィックメモのサムネイルリストに登録される。
11 ボタン
12 ヘッド
100 携帯端末機
110 制御部
120 タッチパネル
130 表示部
140 メモリ
150 通信部
160 オーディオ処理部
170 ビデオ処理部
Claims (15)
- 携帯端末機の入力装置において、
ボタンを備え、ボタンクリックの有無によってそれぞれ第1電気信号を有する第1入力及び第2電気信号を有する第2入力を発生するペンと、
前記ペンタッチ時に電気信号が変化するタッチセンサーを備えるタッチパネルと、
前記タッチパネルを介して入力される入力を分析し、第1入力なら、実行中のアプリケーションで前記第1入力に対応して設定された機能を行い、第2入力なら、設定されたアプリケーションを呼出す、又は、設定された命令を実行する制御部と、
前記制御部の制御下に第1入力及び第2入力の少なくとも一方に従って処理される画面を表示する表示部と、から構成され、
前記第1入力は、実行されるアプリケーションの動作を制御する一般入力、ハンドライティング文字、及びドローイングの内の少なくとも一つを含み、前記第2入力は、特定のアプリケーションを呼出す命令語及び特定動作の実行を命令する命令語であることを特徴とする装置。 - 前記制御部が、文書作成アプリケーション実行時にハンドライティングパッドを表示し、前記ハンドライティングパッドに入力されるハンドライティング文字を表示し、前記ハンドライティング文字を認識して処理することを特徴とする請求項1に記載の装置。
- 前記制御部が、ドローイングアプリケーション選択時にドローイングパッドを表示し、前記第1入力のドローイングをドローイングパッドで表示し、ドローイング終了時に現在実行されるアプリケーションに前記ドローイングにより生成されたイメージを含ませて処理することを特徴とする請求項2に記載の装置。
- 前記ドローイングがイメージを表示するアプリケーション上に発生すれば、現在の画面イメージに入力される前記第1入力のドローイングを表示し、ドローイング終了時に前記画面イメージに前記ドローイングを含んでイメージとして生成することを特徴とする請求項3に記載の装置。
- 前記制御部が、前記第2入力感知時に入力タイプを分析し、アプリケーション呼出なら対応する第2入力に設定されたアプリケーションを呼出して表示し、コマンドなら対応する第2入力に設定されたコマンドを行うことを特徴とする請求項1に記載の装置。
- タッチデバイスを備える携帯端末機の入力方法において、
ペンがボタンを備え、前記ボタンクリックの有無によってそれぞれ第1電気信号を有する第1入力及び第2電気信号を有する第2入力を発生し、前記ペンのタッチによってタッチパネルを介して感知される入力を分析する過程と、
前記入力が第1電気信号の変化を有する第1入力なら実行されるアプリケーションで前記第1入力に対応して設定された機能を行う第1入力処理過程と、
前記入力が第2電気信号の変化を有する第2入力なら設定されたアプリケーション呼出又は設定された命令を行う過程と、から構成され、
前記第1入力は、実行されるアプリケーションの動作を制御する一般入力、ハンドライティング文字及びドローイング
の内の少なくとも一つを含み、前記第2入力は、特定のアプリケーションを呼出す命令語及び特定動作の実行を命令する命令語であることを特徴とする方法。 - 前記第1入力処理過程が、
文書作成アプリケーション実行時にハンドライティングパッドを表示する過程と、
前記ハンドライティングパッドに入力されるハンドライティング文字を表示する過程と、
前記ハンドライティング文字を認識して処理する過程と、を含むことを特徴とする請求項6に記載の方法。 - 前記ハンドライティングされる文字を認識する過程において、前記表示されるハンドライティング文字の上に修正のための第1入力が発生すれば、当該機能で文字を修正する過程をさらに備えることを特徴とする請求項7に記載の方法。
- 前記文書作成アプリケーションがテキストメッセージアプリケーション、電子メールアプリケーション、又はメッセンジャーアプリケーションの何れかであることを特徴とする請求項8に記載の方法。
- 第1入力処理過程が、
前記ドローイングモードアプリケーション選択時にドローイングパッドを表示する過程と、
前記第1入力のドローイングをドローイングパッドで表示する過程と、
前記ドローイング終了時に現在実行されるアプリケーションに前記ドローイングされたイメージを含ませて処理する過程と、をさらに備えることを特徴とする請求項6に記載の方法。 - 前記実行されるアプリケーションは、文字作成アプリケーションであり、前記生成されたドローイングされたイメージを前記作成された電子メールに含むことを特徴とする請求項10に記載の方法。
- 前記第1入力処理過程が、
前記イメージが表示されるアプリケーション上で前記第1入力のドローイングが発生すれば、現在の画面イメージに入力される前記第1入力のドローイングを表示する過程と、
前記ドローイング終了時に前記画面イメージに前記ドローイングイメージを含んでイメージで生成する過程と、をさらに備えることを特徴とする請求項10に記載の方法。 - 前記第1入力の一般入力は、タップ、ロングプレス、水平フリック及び上下フリックの内の少なくとも一つを含み、前記一般入力発生時に実行されるアプリケーションで前記一般入力に対応する機能を行うことを特徴とする請求項12に記載の方法。
- 前記第2入力処理過程が、
前記第2入力感知時に入力タイプを分析する過程と、
前記第2入力がアプリケーション呼出なら対応する第2入力に設定されたアプリケーションを呼出して表示する過程と、
前記第2入力がコマンドなら対応する第2入力に設定されたコマンドを行う過程と、から構成されることを特徴とする請求項6に記載の方法。 - 前記アプリケーション呼出のための第2入力は、ダブルクリック、ロングプレスの内の少なくとも一つを含み、コマンド実行のための第2入力は、フリックであることを特徴とする請求項14に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2011-0087527 | 2011-08-31 | ||
KR1020110087527A KR101862123B1 (ko) | 2011-08-31 | 2011-08-31 | 휴대단말기의 입력 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013054745A true JP2013054745A (ja) | 2013-03-21 |
Family
ID=46845615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012192142A Pending JP2013054745A (ja) | 2011-08-31 | 2012-08-31 | 携帯端末機の入力装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20130050141A1 (ja) |
EP (1) | EP2565770B1 (ja) |
JP (1) | JP2013054745A (ja) |
KR (1) | KR101862123B1 (ja) |
CN (1) | CN102968206B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016197455A (ja) * | 2013-08-30 | 2016-11-24 | 三星電子株式会社Samsung Electronics Co.,Ltd. | フィールドの属性に応じてコンテンツを提供する電子装置及び方法 |
JP2018032428A (ja) * | 2017-10-25 | 2018-03-01 | シャープ株式会社 | タッチ操作機能付表示装置およびタッチ入力の識別方法 |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8594740B2 (en) | 2008-06-11 | 2013-11-26 | Pantech Co., Ltd. | Mobile communication terminal and data input method |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
KR101963787B1 (ko) * | 2012-07-09 | 2019-03-29 | 삼성전자주식회사 | 휴대 단말기의 부가 기능 운용 방법 및 장치 |
KR101973634B1 (ko) * | 2012-08-23 | 2019-04-29 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
JP6039343B2 (ja) * | 2012-10-04 | 2016-12-07 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
KR102044460B1 (ko) * | 2012-11-12 | 2019-11-13 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
KR20140076261A (ko) * | 2012-12-12 | 2014-06-20 | 삼성전자주식회사 | 펜을 이용한 사용자 인터페이스 제공 단말 및 방법 |
KR20140117137A (ko) * | 2013-03-26 | 2014-10-07 | 삼성전자주식회사 | 터치용 펜을 이용한 휴대용 장치 및 이를 이용한 어플리케이션 제어 방법 |
JP2014203305A (ja) * | 2013-04-05 | 2014-10-27 | 株式会社東芝 | 電子機器、電子機器の制御方法、電子機器の制御プログラム |
GB2512887B (en) * | 2013-04-10 | 2017-09-13 | Samsung Electronics Co Ltd | Displaying history information for a selected action |
KR102157270B1 (ko) * | 2013-04-26 | 2020-10-23 | 삼성전자주식회사 | 펜을 이용하는 사용자 단말 장치 및 그 제어 방법 |
KR20140132171A (ko) * | 2013-05-07 | 2014-11-17 | 삼성전자주식회사 | 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법 |
JP2015001751A (ja) * | 2013-06-13 | 2015-01-05 | コニカミノルタ株式会社 | 手書き入力装置及び制御プログラム並びに制御方法 |
KR102180961B1 (ko) * | 2013-07-16 | 2020-11-19 | 삼성전자주식회사 | 입력 처리 방법 및 그 전자 장치 |
KR102147935B1 (ko) | 2013-08-29 | 2020-08-25 | 삼성전자주식회사 | 데이터 처리 방법 및 그 전자 장치 |
TWI502476B (zh) * | 2013-12-02 | 2015-10-01 | Acer Inc | 電子裝置與其觸控操作方法 |
KR101526803B1 (ko) * | 2013-12-11 | 2015-06-05 | 현대자동차주식회사 | 자동차의 조작계 터치패드를 이용한 문자 입력 시스템 및 방법 |
US9524428B2 (en) | 2014-04-28 | 2016-12-20 | Lenovo (Singapore) Pte. Ltd. | Automated handwriting input for entry fields |
US20150347364A1 (en) * | 2014-06-03 | 2015-12-03 | Lenovo (Singapore) Pte. Ltd. | Highlighting input area based on user input |
KR20160023298A (ko) * | 2014-08-22 | 2016-03-03 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 입력 인터페이스 제공 방법 |
DE202015006141U1 (de) * | 2014-09-02 | 2015-12-14 | Apple Inc. | Elektronische Touch-Kommunikation |
US20160132992A1 (en) * | 2014-11-06 | 2016-05-12 | Microsoft Technology Licensing, Llc | User interface scaling for devices based on display size |
US10949075B2 (en) | 2014-11-06 | 2021-03-16 | Microsoft Technology Licensing, Llc | Application command control for small screen display |
CN107209608A (zh) | 2015-01-28 | 2017-09-26 | 平蛙实验室股份公司 | 动态触摸隔离帧 |
EP3256936A4 (en) | 2015-02-09 | 2018-10-17 | FlatFrog Laboratories AB | Optical touch system comprising means for projecting and detecting light beams above and inside a transmissive panel |
JP2016224834A (ja) * | 2015-06-03 | 2016-12-28 | キヤノン株式会社 | 電子機器、その制御方法 |
US9530318B1 (en) * | 2015-07-28 | 2016-12-27 | Honeywell International Inc. | Touchscreen-enabled electronic devices, methods, and program products providing pilot handwriting interface for flight deck systems |
WO2017026570A1 (ko) * | 2015-08-11 | 2017-02-16 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
KR102386480B1 (ko) * | 2015-10-05 | 2022-04-15 | 삼성전자주식회사 | 전자 기기의 입력 식별 방법 및 장치 |
CN108369470B (zh) | 2015-12-09 | 2022-02-08 | 平蛙实验室股份公司 | 改进的触控笔识别 |
CN105739873B (zh) * | 2016-03-10 | 2018-12-04 | 努比亚技术有限公司 | 一种截屏方法及终端 |
DK201670596A1 (en) * | 2016-06-12 | 2018-02-19 | Apple Inc | Digital touch on live video |
CN107656688A (zh) * | 2016-07-26 | 2018-02-02 | 中兴通讯股份有限公司 | 一种屏幕截屏方法和装置 |
EP3545392A4 (en) | 2016-11-24 | 2020-07-29 | FlatFrog Laboratories AB | AUTOMATIC TACTILE SIGNAL OPTIMIZATION |
KR102495467B1 (ko) | 2016-12-07 | 2023-02-06 | 플라트프로그 라보라토리즈 에이비 | 개선된 터치 장치 |
US10963104B2 (en) | 2017-02-06 | 2021-03-30 | Flatfrog Laboratories Ab | Optical coupling in touch-sensing systems |
US20200012359A1 (en) * | 2017-02-07 | 2020-01-09 | Flatfrog Laboratories Ab | Stylus button control |
WO2018174786A1 (en) | 2017-03-22 | 2018-09-27 | Flatfrog Laboratories | Pen differentiation for touch displays |
EP4036697A1 (en) | 2017-03-28 | 2022-08-03 | FlatFrog Laboratories AB | Optical touch sensing apparatus |
CN117311543A (zh) | 2017-09-01 | 2023-12-29 | 平蛙实验室股份公司 | 触摸感测设备 |
US11567610B2 (en) | 2018-03-05 | 2023-01-31 | Flatfrog Laboratories Ab | Detection line broadening |
KR102473081B1 (ko) * | 2018-07-11 | 2022-12-02 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 기능 수행 방법 |
TWI780222B (zh) * | 2018-09-07 | 2022-10-11 | 日商東普雷股份有限公司 | 靜電電容式鍵盤裝置 |
EP3867733A1 (en) * | 2018-10-15 | 2021-08-25 | Ricoh Company, Ltd. | Input apparatus, input method, program, and input system |
US11943563B2 (en) | 2019-01-25 | 2024-03-26 | FlatFrog Laboratories, AB | Videoconferencing terminal and method of operating the same |
KR20200095972A (ko) | 2019-02-01 | 2020-08-11 | 삼성전자주식회사 | 버튼 입력에 기능을 맵핑하기 위한 전자 장치 및 방법 |
US11551480B2 (en) * | 2019-04-11 | 2023-01-10 | Ricoh Company, Ltd. | Handwriting input apparatus, handwriting input method, program, and input system |
KR20210014397A (ko) * | 2019-07-30 | 2021-02-09 | 삼성전자주식회사 | 스타일러스 펜에 의한 제스처를 확인하는 전자 장치 및 그 동작 방법 |
CN111708445B (zh) * | 2019-08-26 | 2023-08-15 | 义隆电子股份有限公司 | 主动式触控笔 |
JP2023512682A (ja) | 2020-02-10 | 2023-03-28 | フラットフロッグ ラボラトリーズ アーベー | 改良型タッチ検知装置 |
CN113791725A (zh) * | 2021-08-04 | 2021-12-14 | 惠州Tcl云创科技有限公司 | 触控笔操作的识别方法、智能终端及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266493A (ja) * | 1993-03-17 | 1994-09-22 | Hitachi Ltd | 手書きイメージメモ処理方法 |
JPH0757053A (ja) * | 1993-08-13 | 1995-03-03 | Sony Corp | 手書き入力表示方法 |
JPH08249114A (ja) * | 1995-03-15 | 1996-09-27 | Matsushita Electric Ind Co Ltd | ペン入力装置 |
JP2010020658A (ja) * | 2008-07-14 | 2010-01-28 | Panasonic Corp | 情報端末装置およびその入力制御方法 |
JP2011128991A (ja) * | 2009-12-18 | 2011-06-30 | Canon Inc | 座標入力装置およびその制御方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5347295A (en) * | 1990-10-31 | 1994-09-13 | Go Corporation | Control of a computer through a position-sensed stylus |
US5500937A (en) * | 1993-09-08 | 1996-03-19 | Apple Computer, Inc. | Method and apparatus for editing an inked object while simultaneously displaying its recognized object |
AU1279597A (en) * | 1995-12-14 | 1997-07-03 | Motorola, Inc. | Electronic book diary and method for use therefor |
TW524352U (en) * | 1999-11-10 | 2003-03-11 | U Teh Internat Corp | Touch control device with pressure hand-written pen |
US7224991B1 (en) * | 2000-09-12 | 2007-05-29 | At&T Corp. | Method and system for handwritten electronic messaging |
US6798907B1 (en) * | 2001-01-24 | 2004-09-28 | Advanced Digital Systems, Inc. | System, computer software product and method for transmitting and processing handwritten data |
US20030044069A1 (en) * | 2001-08-30 | 2003-03-06 | Yuan-Wan Ku | Handwriting recognition system and method of using the same |
US7716058B2 (en) * | 2001-09-05 | 2010-05-11 | Voice Signal Technologies, Inc. | Speech recognition using automatic recognition turn off |
US6894683B2 (en) * | 2002-07-10 | 2005-05-17 | Intel Corporation | Multi-mouse actions stylus |
JP2005293239A (ja) * | 2004-03-31 | 2005-10-20 | Fujitsu Ltd | 情報共有装置及び情報共有方法 |
US7646379B1 (en) * | 2005-01-10 | 2010-01-12 | Motion Computing, Inc. | Wireless and contactless electronic input stylus having at least one button with optical scan and programmable pointer functionality |
US7477233B2 (en) * | 2005-03-16 | 2009-01-13 | Microsoft Corporation | Method and system for providing modifier key behavior through pen gestures |
US7661068B2 (en) * | 2006-06-12 | 2010-02-09 | Microsoft Corporation | Extended eraser functions |
US8111922B2 (en) * | 2007-06-08 | 2012-02-07 | Microsoft Corporation | Bi-directional handwriting insertion and correction |
US9019245B2 (en) * | 2007-06-28 | 2015-04-28 | Intel Corporation | Multi-function tablet pen input device |
US20100185627A1 (en) * | 2009-01-12 | 2010-07-22 | Kinpo Electronics, Inc. | Sorting method of multimedia files |
CN101859220B (zh) * | 2009-04-08 | 2012-07-18 | 深圳富泰宏精密工业有限公司 | 电子装置及其数据处理方法 |
US8482539B2 (en) * | 2010-01-12 | 2013-07-09 | Panasonic Corporation | Electronic pen system |
US8952939B2 (en) * | 2010-10-26 | 2015-02-10 | Nomadbrush Llc | Conductive brush for use with a computing device |
US10146329B2 (en) * | 2011-02-25 | 2018-12-04 | Nokia Technologies Oy | Method and apparatus for providing different user interface effects for different motion gestures and motion properties |
US9329703B2 (en) * | 2011-06-22 | 2016-05-03 | Apple Inc. | Intelligent stylus |
US9965107B2 (en) * | 2011-10-28 | 2018-05-08 | Atmel Corporation | Authenticating with active stylus |
-
2011
- 2011-08-31 KR KR1020110087527A patent/KR101862123B1/ko active IP Right Grant
-
2012
- 2012-07-11 US US13/546,488 patent/US20130050141A1/en not_active Abandoned
- 2012-08-29 EP EP12182255.5A patent/EP2565770B1/en active Active
- 2012-08-30 CN CN201210315973.5A patent/CN102968206B/zh active Active
- 2012-08-31 JP JP2012192142A patent/JP2013054745A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266493A (ja) * | 1993-03-17 | 1994-09-22 | Hitachi Ltd | 手書きイメージメモ処理方法 |
JPH0757053A (ja) * | 1993-08-13 | 1995-03-03 | Sony Corp | 手書き入力表示方法 |
JPH08249114A (ja) * | 1995-03-15 | 1996-09-27 | Matsushita Electric Ind Co Ltd | ペン入力装置 |
JP2010020658A (ja) * | 2008-07-14 | 2010-01-28 | Panasonic Corp | 情報端末装置およびその入力制御方法 |
JP2011128991A (ja) * | 2009-12-18 | 2011-06-30 | Canon Inc | 座標入力装置およびその制御方法 |
Non-Patent Citations (2)
Title |
---|
"本誌初登場! 簡単&超便利 驚嘆の高機能 新世代フリーソフト", WINDOWS100%, vol. 第14巻第5号 通巻151号, JPN6017005409, 13 April 2011 (2011-04-13), JP, pages p. 42 * |
北 真也, EVERNOTE情報整理術, vol. 第1版, JPN6017005411, 1 April 2011 (2011-04-01), pages pp. 40-47 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016197455A (ja) * | 2013-08-30 | 2016-11-24 | 三星電子株式会社Samsung Electronics Co.,Ltd. | フィールドの属性に応じてコンテンツを提供する電子装置及び方法 |
US10088977B2 (en) | 2013-08-30 | 2018-10-02 | Samsung Electronics Co., Ltd | Electronic device and method for providing content according to field attribute |
JP2018032428A (ja) * | 2017-10-25 | 2018-03-01 | シャープ株式会社 | タッチ操作機能付表示装置およびタッチ入力の識別方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102968206A (zh) | 2013-03-13 |
EP2565770A3 (en) | 2017-10-25 |
KR101862123B1 (ko) | 2018-05-30 |
US20130050141A1 (en) | 2013-02-28 |
CN102968206B (zh) | 2017-07-14 |
EP2565770B1 (en) | 2019-10-02 |
KR20130024220A (ko) | 2013-03-08 |
EP2565770A2 (en) | 2013-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013054745A (ja) | 携帯端末機の入力装置及び方法 | |
AU2020267498B2 (en) | Handwriting entry on an electronic device | |
US11947782B2 (en) | Device, method, and graphical user interface for manipulating workspace views | |
JP6584638B2 (ja) | 文書編集における手書きサポートを提供するデバイス及び方法 | |
US10042551B2 (en) | Mobile terminal having a screen with a circular form and method for controlling the same | |
US8650507B2 (en) | Selecting of text using gestures | |
US9898111B2 (en) | Touch sensitive device and method of touch-based manipulation for contents | |
US9335899B2 (en) | Method and apparatus for executing function executing command through gesture input | |
EP2565769A2 (en) | Apparatus and method for changing an icon in a portable terminal | |
EP2613247B1 (en) | Method and apparatus for displaying a keypad on a terminal having a touch screen | |
JP2015230732A (ja) | 文書操作のためのデバイス、方法及びグラフィカルユーザインタフェース | |
US20130263013A1 (en) | Touch-Based Method and Apparatus for Sending Information | |
KR20140030361A (ko) | 휴대단말기의 문자 인식장치 및 방법 | |
KR20080068491A (ko) | 터치 방식 정보 입력 단말기 및 그 방법 | |
US20150077358A1 (en) | Electronic device and method of controlling the same | |
KR102143997B1 (ko) | 단말장치의 정보 리스트 처리장치 및 방법 | |
KR20140039517A (ko) | 필기 기반으로 특정 기능을 실행하는 방법 및 그에 따른 디바이스 | |
US20150062015A1 (en) | Information processor, control method and program | |
KR20190063853A (ko) | 입력 필드의 이동 방법 및 장치 | |
US20160132478A1 (en) | Method of displaying memo and device therefor | |
KR20090121167A (ko) | 범위 지정을 이용한 사용자 인터페이스 방법 | |
JP7036862B2 (ja) | 電子機器、制御方法、及びプログラム | |
KR20140030398A (ko) | 명령어 패드 운용 방법 및 이를 지원하는 단말기 | |
KR20190063937A (ko) | 표시 영역 자동 분할 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180220 |