JP2013054745A - 携帯端末機の入力装置及び方法 - Google Patents

携帯端末機の入力装置及び方法 Download PDF

Info

Publication number
JP2013054745A
JP2013054745A JP2012192142A JP2012192142A JP2013054745A JP 2013054745 A JP2013054745 A JP 2013054745A JP 2012192142 A JP2012192142 A JP 2012192142A JP 2012192142 A JP2012192142 A JP 2012192142A JP 2013054745 A JP2013054745 A JP 2013054745A
Authority
JP
Japan
Prior art keywords
input
application
pen
touch
handwriting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012192142A
Other languages
English (en)
Inventor
Hyun-Mi Park
賢 美 朴
Sang Hyuk Ko
祥 赫 高
Tae-Youn Kim
泰 延 金
Hyun Kyoung Kim
賢 キョン 金
Hye Bin Park
ヒェ 斌 朴
Sae Gee Oh
セ ギ 呉
Jin Young Jeon
軫 泳 全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013054745A publication Critical patent/JP2013054745A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0441Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using active external devices, e.g. active pens, for receiving changes in electrical potential transmitted by the digitiser, e.g. tablet driving signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ペン入力での新しい動作モードを提供する。
【解決手段】携帯端末機は、ボタンと、ボタンのクリック有無によってそれぞれ第1電気信号を有する第1入力及び第2電気信号を有する第2入力を発生するペンと、ペンのタッチ有無を感知し、これによる第1入力及び第2入力の感知信号を発生するタッチデバイスとを備え、また、ペンのタッチによってタッチパネルを介して感知される入力を分析する過程と、入力が第1電気信号の変化を有する第1入力なら実行中のアプリで第1入力に対応して設定された機能を行う第1入力処理過程と、入力が第2電気信号の変化を有する第2入力なら設定されたアプリを呼出す、又は設定された命令を実行する過程とを備え、ここで、第1入力は、実行中のアプリの動作を制御する一般入力、ハンドライティング文字、及びドローイングなどを含み、第2入力は、特定のアプリを呼出す命令語及び特定動作の実行を命令する命令語である。
【選択図】図5

Description

本発明は、携帯端末機の入力装置及び方法に関し、特にタッチパネルを使用する携帯端末機のペン入力装置及び方法に関する。
現在、携帯端末機は、一般的にタッチデバイスを装着する傾向にあり、タッチデバイスはタッチパネル上のタッチ位置を感知し、携帯端末機の動作を制御している。このようなタッチデバイスは、一般的に電気信号感知方式を使用する傾向にある。前述のような携帯端末機は、指タッチ操作中心の動作を提供している。しかし、指タッチ方式は、精密な作業を行うに適していない。
従って、タッチデバイスを備える携帯端末機において指と同時に他の入力方法に対する要求が次第に大きくなっている。特に、メモ、描画(ドロ−イング)などのように精密な入力を必要とする場合、ペン使用はより有利である。
従って、本発明の実施例は、タッチデバイスを備える携帯端末機においてペン入力装置及び方法を提案する。本発明の実施例では、従来実際に使用しているペンの動作をタッチモバイルデバイスにもそのまま適用し、タッチモバイルデバイス上のペンゼスチャー、ペンハンドライティングなど、指タッチだけでは実現できないであろう新しい動作モードを提供する。
このために、ペンでアプリケーションの動作を行うための第1入力と、該第1入力と独立的に特定のアプリケーションを呼び出すか又は特定のコマンドを行うための第2入力を発生し、携帯端末機が前記第1入力と第2入力によってそれぞれ設定された機能又は命令を実行できる。
本発明は、ペンの入力によって実行されるアプリケーションの動作制御を実行でき、ハンドライティング(手書き)による文字入力を実行でき、ドローイングイメージを多様なアプリケーションに含ませることができる携帯端末機の入力装置及び方法を制御する。
また、本発明は、ペンにボタンを追加することによって、携帯端末機で実行されるアプリケーションの動作制御と独立的に携帯端末機の特定のアプリケーションの呼出及び特定のコマンドの発生ができる携帯端末機の多様な入力を発生する装置及び方法を提案する。
本発明の実施例による携帯端末機の入力装置は、ボタンを備え、ボタンクリック有無によってそれぞれ第1電気信号を有する第1入力及び第2電気信号を有する第2入力を発生するペンと、前記ペンタッチ時に電気信号が変化するタッチセンサーを備えるタッチパネルと、前記タッチパネルを介して入力される入力を分析し、第1入力なら、実行中のアプリケーションで前記第1入力に対応して設定された機能を行い、第2入力なら、設定されたアプリケーションを呼出す、又は、設定された命令を実行する制御部と、前記制御部の制御下に第1入力及び第2入力の少なくとも一方に従って処理される画面を表示する表示部と、から構成され、前記第1入力は、実行中のアプリケーションの動作を制御する一般入力、ハンドライティング文字、及びドローイングの内の少なくとも一つを含み、前記第2入力は、特定のアプリケーションを呼出す命令語及び特定動作の実行を命令する命令語であることを特徴とする。
また、本発明の実施例によってタッチデバイスを備える携帯端末機の入力方法は、ペンがボタンを備え、前記ボタンクリックの有無によってそれぞれ第1電気信号を有する第1入力及び第2電気信号を有する第2入力を発生し、前記ペンのタッチによってタッチパネルを介して感知される入力を分析する過程と、前記入力が第1電気信号の変化を有する第1入力なら実行されるアプリケーションで前記第1入力に対応して設定された機能を行う第1入力処理過程と、前記入力が第2電気信号の変化を有する第2入力なら設定されたアプリケーション呼出又は設定された命令を行う過程と、から構成され、前記第1入力は、実行されるアプリケーションの動作を制御する一般入力、ハンドライティング文字及びドローイングの内の少なくとも一つを含み、前記第2入力は、特定のアプリケーション呼出及び特定動作の実行を命令する命令語であることを特徴とする。
タッチデバイスを備える携帯端末機において、ペンを使用してタッチ機能を行うことによって、従来のペン手書きに特有の動作を提供でき、これにより、精密な動作制御を実現でき、同時にハンドライティングによる文字入力を実現でき、ユーザの便宜性を向上でき、ハンドライティングによるドローイングイメージを多様なアプリケーションに活用でき、携帯端末機の多様な効果を具現できる。
また、ペンにボタンを追加し、携帯端末機で実行されるアプリケーションの動作制御と独立的に携帯端末機の特定のアプリケーション呼出及び特定のコマンドを発生する携帯端末機の多様な入力を発生できる。
従って、携帯端末機にペンを使用した入力機能を導入することによって、従来のペン特有のハンドライティング動作がモバイル全般に拡張され、これにより、既存には不可能であった、手書きのペンに特有の動作を携帯端末機上で具現できるという効果がある。
は、本発明の実施例による携帯端末機の構成を示す図である。 は、本発明の実施例によってペン設定手続を示す図である。 は、図2のようなペン設定手続を行う過程で表示部に表示される画面を示す図である。 は、図2のようなペン設定手続を行う過程で表示部に表示される画面を示す図である。
は、本発明の実施例によってペンを利用した携帯端末機の動作制御に係るペン入力の判定手続を示す流れ図である。 は、本発明の実施例による第1入力のうち一般入力の形態の例を示す図である。 は、本発明の実施例による第2入力の形態の例を示す図である。 は、図5で行われる第1入力の分析処理手続を示す流れ図である。 は、図8で処理される第1入力のうちの一般入力に対する処理手続の詳細を示す図である。 は、本発明の実施例によってペンを利用して文書を作成する手続を示す図である。 は、文字作成アプリケーションで表示されるハンドライティングパッド(handwriting IME)を示す図である。 は、文書作成アプリケーションでハンドライティングされる文字修正方法を示す図である。 は、本発明の実施例においてドローイング入力を処理する手続を示す図である。 は図13のドローイングモードを行う第1の例を示す図である。 は図13のドローイングモードを行う第2の例を示す図である。 は図13のドローイングモードを行う第3の例を示す図である。 は図13のドローイングモードを行う第4の例を示す図である。 は図13のドローイングモードを行う第5の例を示す図である。 は図13のドローイングモードを行う第6の例を示す図である。 は図13のドローイングモードを行う第7の例を示す図である。
は、本発明の実施例によって第2入力を処理する手続を示す流れ図である。 は、図21のような手続を行いながら処理される第1の具体例を示す図である。 は、図21のような手続を行いながら処理される第2の具体例を示す図である。 は、本発明の実施例による携帯端末機のリッチメモリスト及びリストを制御する手続を示す図である。 は、本発明の実施例による携帯端末機のリッチメモリスト及びリストを制御する手続を示す図である。 は、本発明の実施例による携帯端末機のリッチメモリスト及びリストを制御する手続を示す図である。 は、本発明の実施例によるリッチメモの例を示す図である。 は、リッチメモで使用されるドローイングパッドの例を示す図である。 は、本発明の実施例によるリッチメモに含まれたクィックメモリストを示す図である。 は、図29のクィックメモリストでクィックメモを生成するためのパッド構成を示す図である。 は、本発明の実施例によってクィックメモアプリケーションを選択する方法を説明するための図である。
以下、添付の図面を参照して本発明の好ましい実施例を詳しく説明する。この際、添付の図面において同一の構成要素は、できるだけ同一の符号で示していることに留意しなければならない。
また、下記説明では、ペンの入力による動作モードに関する具体的な特定事項が示されているが、これは、本発明のより全般的な理解を助けるために提供されたものに過ぎず、このような特定事項に限定することなく本発明が実施され得ることは、この技術分野における通常の知識を有する者にとって自明であると言える。また、本発明を説明するにあたって、関連する公知機能あるいは構成に対する具体的な説明が本発明の要旨を却って不明瞭にすると判断される場合、そのような詳細な説明を省略する。
本発明は、タッチデバイスを備える携帯端末機においてペンタッチによって特定機能又はコマンドを行う装置及び方法を提案する。ここで、前記携帯端末機は、携帯電話機、MP3などのようなマルチメディア機器、タブレットPCなどを全て含む。また、本発明の実施例においてペンは、ボタン及び/又はこれと類似の機能を有する手段を備え、互いに異なる種類の入力信号を発生できる。以下の説明において、第1入力は、ボタンを押圧しない状態でタッチパネルを介して感知される入力信号を意味し、第2入力は、ボタンを押圧した状態でタッチパネルを介して感知される信号を意味する。また、以下の説明において文書作成モードというのは、ユーザのハンドライティングされた文字入力を文字データに変換するためのモードを意味し、ドローイング(描画)モードというのは、ユーザのハンドライティングによるドローイング入力をイメージに変換するためのモードを意味する。この際、ドローイングモードでハンドライティングされた文字は、認識命令発生時に文字データに変換できる。
[携帯端末機の構成]
図1は、本発明の実施例による携帯端末機の構成を示す図である。
図1を参照すれば、本発明の実施例による携帯端末機100は、ボタン11と、ヘッド12と、アルミニウムなどで構成される胴体で構成されるペン10とを含む。ここで、ヘッド12は、導電性物質(例えば、シリコーンゴム材質)で構成され、ボタン11の押圧有無によって異なる大きさの電気信号を発生する構成を内部に備える。
また、タッチパネル120は、電気信号感知方式のタッチデバイスのみを使用でき、又は、電磁気誘導(electromagnetic)方式及び電気信号感知方式のタッチデバイスを使用できる。電磁気誘導方式及び電気信号感知方式のタッチデバイスを使用する場合、電磁気誘導方式のタッチパネルはペンタッチパネルとして、ペンタッチによる誘導電流(induced current)を測定する。また、携帯端末機100の制御部110(図示せず)は、前記タッチパネル120にタッチされるペンの誘導電流の変化によりタッチ有無及び位置を判断する。また、前記制御部110は、指タッチ時、電気信号感知タッチパネルを介して感知する。従って、前記制御部110は、指タッチ及びペンタッチ入力をそれぞれ独立に動作するタッチパネルを介して感知するので、前記制御部110は両方のタッチ入力を同時に受信できる。本発明の実施例において、前記ペンタッチパネルは、電気信号感知方式のタッチパネル又は電磁気誘導方式のタッチパネルを使用できる。
また、前記タッチパネル120は、表示部130と一体形に構成できる。本発明の実施例によるタッチパネル120は、ペン10及びユーザの指などのタッチを区別して感知できなければならない。表示部130は、携帯端末機で実行されるアプリケーションの動作画面を表示する。
メモリ140は、携帯端末機の動作プログラム及び本発明の実施例によるプログラムを保存し、また、本発明の実施例によるペン10の入力形態(input type)に対応して動作するべき機能又は命令語を保存している。
制御部110は、携帯端末機の全般的な動作を制御し、本発明の実施例によってタッチパネル120を介して受信される異なるペン入力形態を分析し、当該機能又は命令語を処理する。また、制御部110は、文字認識処理部を備え、文書作成モードでハンドライティングされた文字を認識する。即ち、表示部130の画面上に、ハンドライティング文字認識命令が発生するとタッチパネル120を介してハンドライティング文字を認識する。
また、制御部110は、映像処理部を備え、ドローイング又はハンドライティングされたイメージを表示されている画面イメージと結合し、新しいイメージを生成する。また、制御部110は、クロップ(crop)処理部を備え、ユーザが表示された画面に閉曲線をドローイングしてクロップ命令を発生すると、閉曲線内のイメージをクロップして処理する。
通信部150は、携帯端末機100の通信機能を行う。ここで、通信部150は、公衆通信網(PSTN)と無線通信するCDMA、WCDMA、又はLTE方式の通信部であり得、無線インターネット網と連結されるWiFi、WiMax、又はWiBro方式の通信部であり得、また、近距離の外部装置と無線通信ができる、ブルートゥース(Bluetooth(登録商標))、NFC(Near Field Communication)、又はRFID方式などの通信部であり得る。
即ち、通信部150は、前述のような通信部のうち1つ以上を備え得る。例えば、通信部150は、LTE、WiFi、ブルートゥース、NFC通信部などを備え得る。オーディオ処理部160は、携帯端末機のオーディオ信号を処理し、ビデオ処理部170は、携帯端末機のビデオ信号を処理する。
ペン10の構造は、身体に流れる電流を機器の表面にまでよく到達させる導電性の胴体(例えば、アルミニウム製など)と、一定の最小面積以上の面積で電気信号を検知できるように拡大変形できる材質(例えば、シリコーン又はシリコーンゴム)のヘッド12を備える。
また、ペン10は、ボタン11を備え、ボタン10の押圧有無によって異なる大きさの電気信号を発生できる構成を有する。即ち、人が接触した状態(人がペンを手に握った状態)でペン10は、電気信号を発生し、その際、ペン10は、ボタンを押圧しない状態では、第1の大きさの電気信号を発生し、ボタンを押圧した状態では、第2の大きさの電気信号を発生するように構成される。
前述のような構成を有する携帯端末機においてタッチパネル120は、タッチセンサーを備え、前記タッチセンサーは、或る一定の最小面積以上の面積で電気信号が感知されれば、これをタッチとして認識する。例えば、「三星」(登録商標)製のタッチスウクリーン付き電子装置である「ギャラクシーSシリーズ」(登録商標)、「ギャラクシーNote」(登録商標)、「ギャラクシーNEXUS」(登録商標)の場合は、横・縦共各々、2.5mm以上の面積で、「アップル」(登録商標)製の「アイホン」(登録商標)の場合は、横・縦共各々、3mm以上の面積で、「パンテック」(登録商標)製の「ベガX」(登録商標)の場合は、横・縦共各々、5mm以上の面積で、各々電気信号が感知されると、これをタッチとして認識する。
また、タッチパネル120の場合、ペン10のヘッド12の接触面積と指の接触面積は、その大きさが異なる。即ち、ペン10の接触面積は、指接触面積に比べて相対的に小さく、従って、制御部110は、タッチパネル120を介して受信される入力を感知する際、接触する面積の大きさによってペンタッチか、又は指タッチかを弁別できる。また、ペン10は、ボタンの押圧の有無によって異なる大きさの電気信号を発生する。従って、タッチパネル120を介して感知される電気信号の変化値が異なるので、制御部110は、電気信号の変化によって、ボタン押圧の有無に依存するペン入力を区別して感知できる。
また、タッチパネル120を構成するとき、指タッチを感知するためのタッチセンサー及びペン10のタッチを感知するためのタッチセンサーをそれぞれ独立的に構成することもできる。これは、指及びペンのタッチによる接触面積及び/又は電気信号の大きさが異なるので、制御部110は、それぞれのタッチセンサーから発生する電気信号の変化を感知し、指タッチ又はペン10のタッチを区別して感知できる。
以下の説明において、ペン10のボタンを押圧しない状態(ボタンオフ状態)で発生するタッチ信号を第1入力信号と称し、ボタンを押圧した状態(ボタンオン状態)で発生するタッチ信号を第2入力信号と称することにする。本発明の実施例において第1入力信号は、タップ(tap)、ロングプレス(long press)、フリック(flick)などのような一般入力(general input)、ライティング(handwriting)、ドローイング(drawing)及びクロップ(crop)などに区分でき、当該アプリケーションで設定された機能を行う入力になる。
そして一方、第2入力信号は、携帯端末機で特定の機能を行う命令語入力になり、ペン10のボタン11を押圧した状態でペンのゼスチャー(hand gesture)によって発生される。即ち、第2入力は、ペン10のボタン11を押圧した状態でのロングプレス、ダブルタップ(ダブルクリック)、フリック(水平、垂直)、及び特定形態のゼスチャー(例えば、円形、方形又はこれと類似の形態の動きなど)などに区分できる。第2入力は、第1入力の一般入力と重複できる。
メモリ140は、第1入力信号及び第2入力信号による機能及び命令語に対するマッピングテーブルを備える。制御部110は、第1又は第2入力信号発生時に、メモリ140を参照して現在実行されているアプリケーションに対して入力された信号による機能又は命令を行う。
[ペン設定手続]
前述のようなペン10の入力を効率的に処理するために、制御部110は、ペン入力設定(セッティング)動作を実行できる。
図2は、本発明の実施例によってペン設定手続を示す図である。また、図3及び図4は、図2のようなペン設定手続を行う過程で表示部130に表示される画面を示す図である。
図2と、図3及び図4を参照すれば、図3に示すような画面311が表示されている状態で、211段階で、タグ「pen_settings」(ペン設定モード)が選択されなければ、制御部110は、250段階で設定された当該機能を行う。しかし、図3の画面311が表示されている状態でタグ「pen_settings」(ペン設定モード)が選択されれば、制御部110は、211段階で、ペン設定モードであることを感知し、213段階で、図3の画面313を表示する。前記ペン設定モードで設定できる機能には、タグ「shortcut_settings」によるショートカット設定、タグ「preferred_hand_side」によるタッチ領域モード設定、タグ「pen_detection」によるペン検出モード設定がある。
まず、前記ショートカット設定」は、特定のアプリケーションを迅速に実行する機能の設定を意味し、前記タッチ領域モード設定は、ペンタッチが主に発生するタッチパネルの領域の設定を意味し、前記ペン検出モード設定は、文字入力を行うアプリケーション実行時に、文字入力パッド(handwriting_pad)をオンさせるか否かの設定を意味する。
この際、ユーザがタグ「shortcut settings」(ショートカット設定)を選択すれば、制御部110は、215段階で、これを感知し、217段階で、図3の画面315に、ショートカット機能に係るアプリケーション項目タグを表示する。図3では、メモ項目の例を表示していて、ここで、タグ「S_memo」は、携帯端末機でペン10を使用して多様なメモ(ハンドライティング、ドローイング、オーディオ、イメージなどを結合した電子的メモ)を作成できるリッチメモ(rich memo)機能設定用であり、タグ「Quick_memo」(クィックメモ)は、ハンドライティングメモ機能設定用である。
従って、ユーザは、画面315にメニュー表示されるタグ項目のうち1つを選択でき、或る項目が選択されれば、制御部110は、219段階で、これを感知し、221段階で、選択された項目をショートカットに登録する。前記ショートカット機能は、前述したように、ペン10の第2入力の1つとマッピングできる。図3の317は、前記ショートカット機能を第2入力のダブルクリックとしてマッピングしたと仮定した場合であり、ショートカットのデフォルトは、クィックメモに設定される場合を例示している。しかし、219段階で、ショートカット項目の選択がなければ、制御部110は、217段階に戻り、アイテム表示及び/又は選択機能の実行を続ける。また、221段階を行った後、制御部110は、235段階に進行し、設定モードの終了であるかを検査し、終了なら、設定モードを終了し、そうではなければ、213段階に戻る。
また、215段階で、「ショートカット設定」の選択がなければ、制御部110は、223段階で、「タッチ領域モード設定」か検査する。この際、ユーザが「タッチ領域モード設定」(タグ「Preferred_hand_side」による)を選択すれば、制御部110は、223段階で、これを感知し、225段階で、図3の画面321の「Preferred_hand」のようなタッチ領域項目を表示する。これは、携帯端末機の全体に適用される機能であって、ユーザがペン10を使用するとき、ペン10の傾きに合わせたタッチ領域認識を右手又は左手ユーザに区分して設定するためである。この際、ユーザがタッチ領域項目タグ「Right handed」(右利き)、又は、タグ「Left handed」(左利き)を選択すれば、制御部110は、227段階で、これを感知し、229段階で、選択された項目によるタッチパネル120のタッチ領域を決定する。即ち、制御部110は、右手又は左手の何れであることを確認した後、選択結果によってタッチパネル120でタッチ領域を設定し、この際、設定されるタッチ領域は、他の領域より認識能力を高めて使用する。制御部110は、229段階を行った後、235段階に進行し、227段階で、タッチ領域項目が選択されなければ、225段階に戻って、タッチ項目領域表示を続ける。
また、223段階で、タッチ領域設定モードが選択されなければ、制御部110は、231段階に進行し、ペン検出モード設定であるかを検査する。この際、ユーザがペン検出モード設定(タグ「pen detection」による)を選択すれば、制御部110は、231段階でこれを感知し、233段階で、ハンドライティングパッド(handwriting pad)の表示有無を設定するペン検出モードのオン又はオフを設定するように表示する。この際、制御部110は、233段階で、ユーザがペンオフを選択すれば、携帯端末機のテキスト入力モードで直前に使用されたIME(last IME)が表示されるように設定し、ペンオンを選択すれば、携帯端末機のテキスト入力モードでハンドライティングパッド(handwriting pad)が表示されるように設定する。ここで、携帯端末機のテキスト入力モードは例えば、SMSなどのテキストメッセージアプリ、電子メールアプリ、又はメッセンジャーアプリである。この際、ペン検出モードがオフ状態でテキスト入力モードが行われる場合、制御部110は、直前状態のIMEを表示部130に表示する。
ここで図4を参照すると、前記ペン検出モードがオン状態で、図4の画面331に示すように手のタッチが感知されれば、制御部110は、以前状態のIMEを分析し、QWERTYモードなら、画面333のように表示し、3*4キーパッドモードなら、画面335のように表示する。一方、画面341のようにペン10のタッチが感知されれば、制御部110は、画面343のようにハンドライティングパッドを表示する。前記ハンドライティングパッドの構成を見れば、ユーザは、355領域にペン10を利用して文字をハンドライティングし、ライティングされた文字は、認識され、351領域に表示される。そして、ユーザは、ハンドライティング動作を行いながら、353領域に表示される項目(soft key)を利用して文章を作成できる。
図2のようなペン設定モードを行った後、ユーザがペン設定モードを終了すれば、制御部110は235段階で、これを感知しペン設定モードを終了する。
前述のように、ペン設定モードを行った後、ユーザは、ペンを利用して携帯端末機の動作を行うか、又は制御することができる。
[ペン入力判定]
図5は、本発明の実施例によってペン10を利用した携帯端末機の動作制御に係るペン入力の判定手続を示す流れ図である。
図5を参照すれば、図1に示した携帯端末機のタッチパネル120の入力は、ペン10又は指を用いて入力される。制御部110は、411段階で入力有無を検査し、413段階で入力の種類を判別する。この際、入力がなければ制御部110は411段階で、これを感知し入力を待機する。そして、手タッチ入力なら、制御部110は413段階で、これを感知し(「Pen入力?」で「NO」に行く)、手タッチ入力を処理する。しかし、ペン10の入力なら、制御部110は、411段階及び413段階でこれを感知し、415段階で、ペン10の第1入力であるか又は第2入力であるかを確認する。ここで、第1入力は、ペン10のボタン11を押圧しない状態で入力される信号であり、第2入力は、ペン10のボタン11を押圧した状態で入力される信号を意味する。この際、第1入力なら、制御部110は、417段階で、入力された信号を分析した後、419段階で、分析された結果によって対応する動作を行った後、411段階に戻る。そして、第2入力なら、制御部110は、415段階で、これを感知し、425段階で、入力された信号を分析した後、423段階で、分析された結果によって当該命令を行った後、411段階に戻る。
図6は、本発明の実施例による第1入力のうち一般入力(general inputs)の形態の例を示す図であり、図7は、本発明の実施例による第2入力の形態の例を示す図である。
第1入力は例えば、図6に示すようなタップ(Tap)、ロングプレス(Long_press)、フリック(Flick)などの一般入力、そして図示しないハンドライティング、ドローイング及びクロップである。第1入力の一般入力のうち、タップは、実行されるアプリケーションでアイテムを選択(Select_item)する機能に、ロングプレスは、関連情報をポップアップ表示(display contextual pop−up)する機能に、フリックは、左右方向又は上下方向によって以前又は次のページに移動(Move to next page or previous page)するか又はスクロール(Scroll up or down)する機能に、各々設定できる。
第2入力は、ボタン11を押圧した状態でペン10のタッチによるゼスチャー(hand gesture)であって、携帯端末機の特定機能を行う命令語に設定できる。即ち、図7に示したように、第2入力のうちダブルクリックは、実行されるアプリケーションに関係なく、メモモードに移動し(図2のペン設定モードにおいて、ショートカット機能としてクィックメモを設定し、前記ショートカットを行う命令語として第2入力のダブルクリックが設定された場合)、メモ機能を行う命令語として使用される。そして、第2入力のうちロングプレスは、映像処理モード(例えば、動画を表示するモード、例えば、カメラモード、映像再生モードなど)でスクリーンキャプチャー命令語として使用できる。
フリック(flick)は、ユーザの水平方向又は上下方向へのタッチ入力によって発生される。以下の説明で、水平フリック及び左右フリックの用語は、同一の意味で使用され、また、垂直フリック及び上下フリックの用語も同じ意味で使用される。このようなフリックは第2入力としては、バック(Back)動作又はメニュー(Menu)呼出の命令語として使用できる。また、ユーザの円形状のタッチ入力は、ホーム画面移動の命令語として使用できる。即ち、第2入力は、携帯端末機において任意のアプリケーションを行う状態で特定の機能を行うように命令する入力として使用でき、また、特定のアプリケーションを行う状態で設定された動作(例えば、スクリーンキャプチャー)を行うように指示する命令語として使用できる。
このように、第1入力の一般入力及び第2入力は、同一の形態をとり得る。例えば、上述のロングプレス、フリックなどの形態をとり得る。
図8は、本発明の実施例によって図5の417段階で行われる第1入力の分析処理手続を示す流れ図である。
図8を参照すれば、ペン10の第1入力が感知されれば、制御部110は、611段階で、第1入力を分析する。本発明の実施例による第1入力としては、図6のような一般入力、文書作成モードでのハンドライティング文字入力、ドローイングモードでのドローイング入力、イメージが表示されるモードでのクロップ入力などがある。しかし、ペン10の第1入力は、前述のような入力以外にさらに拡張することもできる。以下の説明では、一般入力、文書作成モードでのハンドライティング文字入力、ドローイングモードでのドローイング入力、及びクロップモードでのクロップ入力の順に説明する。
[一般入力]
第一に、図6のような一般入力なら、制御部110は、613段階で、これを感知し、615段階で当該入力を処理する。
図9は、図8の615段階で処理される、第1入力のうちの一般入力に対する処理手続の詳細を示す図である。
図9を参照すれば、711段階でタップ入力が発生したと感知すれば、制御部110は713段階で、現在実行中のアプリケーションでタッチされたアイテムを選択する。また、715段階でロングプレス(LONG PRESS)が感知されれば、制御部110は717段階で、当該アプリケーションに関連する機能をポップアップ表示(display contextual pop−up)する。また、719段階でフリック(FLICK)が発生すれば、制御部110は、これを感知し、719段階で、フリック方向によって設定された機能を行う。
この際、フリックが水平方向に感知されれば、制御部110は、現在のページで以前又は次のページに移動し、上下方向に感知されれば、制御部110は、画面を上方又は下方にスクロールする。図9では、図6のように、第1入力の一般入力が設定された場合を仮定して説明しているが、前記一般入力と入力タイプのマッピング結果によって異なる機能を行うこともできる。また、一般入力の形態がタップ(tap)、ロングプレス(long press)、フリック(flick)の場合を例示して説明しているが、他の形態の一般入力をさらに追加することもできる。
[文書作成モードでのハンドライティング入力]
第二に、第1入力がハンドライティングであり、現在のアプリケーションが文書作成モードの場合、制御部110は、617段階で、これを感知し、619段階で、ハンドライティングされる文字を認識して処理することができる。
図10は、本発明の実施例によってペン10を利用して文書を作成する手続を示す図である。
図10は、図8の619段階で行われる動作を表示する図である。図10を参照すれば、文書作成モードは、前述したように、SMS、電子メール、メッセンジャーなどのアプリケーションで行われることができる。このような場合、ペン10がタッチするか、又はタッチパネル120の一定距離以内に近接することを感知すれば、制御部110は811段階で、図11に示すようなハンドライティングパッドを表示部130に表示する。この際、ハンドライティングパッドは、前述したように、ペン10によってライティングされる文字を表示する第2表示領域355と、ライティングされた文字を認識して表示する第1表示領域351と、ハンドライティングの作成するために必要なソフトキーを表示する領域353とで構成される。
ここで、911領域の「Symbol」は、特殊文字を呼び出す機能キーであって、ローマ字、数学記号、特殊記号などの文字の組合わせを表示する。913領域の「Voice」は、文書作成モードで音声を挿入する機能を行い、915領域(コンパス又はギアを表示)は、設定機能「Settings」を行う領域である。また、917領域は、言語を選択する領域(例えば、本図では「English」とラベリング)であって、ロングプレス(又はクリック)すれば、使用可能な言語を関連ポップアップ画面(display contextual pop up)で表示する。この際、ポップアップ画面は、英語、フランス語、韓国語などの使用可能な言語の項目を表示する。
また、919領域「IME」は、文書作成パッドを変更する領域であって、図11のようなハンドライティングパッドを表示する状態で前記「IME」を選択すれば、上述の図4の画面333、335のように各々、QWERTYキーパッド又は3*4キーパッドが表示される。そして、921領域は、バックスペース及び削除(back space and delete)機能を行う領域であって、この領域が選択されれば、制御部110は、現在のカーソルー位置を後方に移動させる。923領域は、エンターキー領域であって、作成中の文書のエンターキー機能を行う。この際、前記エンターキー領域がタッチされた場合、制御部110は、第2表示領域355にテキストがあれば、挿入“Insert”動作を行い、テキストがなく、マルチラインの場合には、エンターキー“Enter”動作を行い、テキストがなく、マルチラインでもない場合には、完了“Done”機能を行い、電子メールの場合、URL入力窓にテキストがなければ、“Go”機能を行う。
図11のようなハンドライティングパッドが表示される状態は、図10で、811段階を行った後、813段階の動作に進行できる。813段階を行う状態で、ユーザは、第2表示領域355にハンドライティング文字を発生できる。その場合、制御部110は815段階でペン10の移動軌跡によって発生するハンドライティング文字を、タッチパネル120を介して感知し、第2表示領域355に表示し、また、第2表示領域353に表示されるハンドライティング文字を認識し、第1表示領域351に表示する。
この際、前記認識方法としては、何れも周知の、完成認識(単語単位で認識)方法、又は字画認識方法を使用できる。そして、前述のように、文書を作成及び認識する過程で誤認識が発生する場合、制御部110は、第1表示領域351の底部(又はハンドライティングパッドの特定位置に設定される領域)に推薦文字を表示し、ユーザが表示された推薦文字を選択すれば、制御部110は、選択された文字を第1表示領域351の当該文字位置に挿入できる。
しかし、ユーザの誤入力又は文字認識過程で誤認識が発生する場合、ユーザは、タッチパネル120を利用して誤入力又は誤認識を修正できる。この際、ユーザの修正要求が発生すれば、制御部110は、817段階で、これを感知し、819段階で、ユーザの文書修正要求によって入力されるハンドライティング文字を再認識して修正した後、813段階に戻る。この際、上記のような修正は、第2表示領域355でユーザのハンドライティングによって直接修正することができるようにすることが好ましい。
図12は、本発明の実施例による文字修正方法を示す図である。また、文書修正は、一般的な文書修正用の文字(記号)をハンドライティングしても可能なようにできる。
図12を参照すれば、ユーザが誤って入力した文字は、第2表示領域に表示される誤入力された文字の上にオーバライトして修正する。即ち、図12の931欄のように、USをUKに修正しようとする場合、第2表示領域355に表示されるS文字の上にKをハンドライティングする。このような場合、制御部110は、第2表示領域355にライティングされた文字にオーバーライティングされる文字は、文字修正として感知し、先にライティングされた文字の代わりに、後でライティングされた文字を認識して修正した後、これを第1表示領域351に表示する。
また、文書作成時に行単位又は単語を削除しようとする場合、図12の933欄のように、第2表示領域355に表示される当該文字の上で右側から左側に線引きをすればよい。このような場合、制御部110は、右側から左側方向に線引きが感知されれば、線に位置する文字を削除し、第1表示領域351に表示する。前述のような方法で図12の935欄のように、ライティングされた文字の上で右側から左側方向に線引きが感知されれば、制御部110は、以前文字と当該文字との間に空間(space機能)を作る。図12の937欄のように、ライティングされた文字と文字との間を連結すれば、制御部110は、文字と文字との間の空白を除去する。図12の939欄のように、エンター形状の線引きが感知されれば、制御部110は、当該位置で改行機能を行う。図12の941欄のように、“鴎(カモメ)”型のタッチが発生すれば、制御部110は、当該位置にライティングされた文字を削除する。
また、図12の943欄のように、ライティングされた文字の上にロングタッチ(long press)が発生すれば、制御部110は、当該位置にライティングされた文字によって文字を修正するための単語を表示し、ユーザが表示される単語を選択すれば、当該単語を選択する。例えば、第2表示領域355に表示された文字が“cook”であり、前記“cook”字の上にペン10のロングプレス(Long press)が感知されれば、制御部110は、ハンドライティングパッドの設定された位置(例えば、第1表示領域351の下部領域)に代替可能な単語(例えば、cook、book、cool…)を表示する。そして、ユーザが所望の単語をクリック(tap)すれば、制御部110は、ユーザが選択された単語を前記long pressされた単語に代替して表示する。
前述したように、図11の第2表示領域にハンドライティングされた文字は認識され、第1表示領域351に表示され、この際、図12のような修正が発生すれば、制御部110は、817段階で、これを感知し、819段階で、該当する修正要求によるライティング文字又は文書を修正(文字修正、文章又は単語削除、空白追加、空白除去、改行、文字削除、文字変更選択など)する。この際、前述のような修正は、ユーザが第2表示領域355に表示される文字の上に直接修正でき、制御部110は、ユーザの修正要求によるペン10の入力を感知し、文書修正手続を行う。従って、文書修正手続が簡便に実行できることが分かる。
上記のようなハンドライティング文字入力及び修正を行う場合、制御部110は、これを認識し、第1表示領域351に表示し、上記のように、文書作成モードを行う状態で終了命令が発生すれば、制御部110は、821段階で、これを感知し、作成された文字を処理する。この際、前記作成された文字を処理する方法は、文書作成モードによって異なり得る。即ち、SMSの場合には、作成された文書を設定された電話番号加入者に伝送すると同時に、メモリ140に保存し、EMSの場合には、作成された文書を設定された電子メール加入者に伝送すると同時に、メモリ140に保存し、メモの場合には、ユーザの指定によって対応するメモ(アラーム、スケジュールなど)としてメモリ140に保存できる。
以上の823段階の後、本方法は、上述の図8の619段階に戻ってこれを完了し、同じく上述の図5の419段階に戻ってこれを完了する。
図10では、文書作成モードでハンドライティングパッドを表示する状態で第1入力のライティング文字として処理する方法を示しているが、ハンドライティングパッドを表示しない状態でもハンドライティングされた文字を文書として認識できる。このような場合、制御部110は、ハンドライティングされた文字を表示部130に表示し、ユーザが認識命令を発生すれば、表示中のハンドライティング文字を認識し、文書に変換する。
[ドローイング入力]
第三に、ペン10を用いた第1入力のドローイングが感知されれば、制御部110は、図8の621段階で、これを感知し、623段階で、ペン10を用いて入力されるドローイングを感知して処理する。
図13は、本発明の実施例においてドローイング入力を処理する手続を示す図であり、図8の623の動作手続を示している。また、図14ないし図20は、図13のようなドローイングモードを行う具体例を示す図である。
図13を参照すれば、ドローイングモードでは、ユーザがドローイングモードを選択してドローイング動作を行うことができ、また、現在行われるアプリケーション中でハンドライティング又はドローイングを行うこともできる。即ち、図14に示したように、文書作成モードで作成された文書にドローイングを挿入又は追加して伝送しようとする場合、ユーザは、当該アプリケーションでドローイングモードに進入し、ドローイング動作を行った後、これを当該文書に挿入又は追加することができる。また、現在行われるアプリケーション中でイメージにドローイング動作を行い、当該イメージに重ね書き(overwriting)することもできる。
図14乃至図20は、図13のドローイングモードを行う各々、第1乃至第7の例を示す図であって、以下、これらを参照して説明する。
ドローイングモードでユーザがドローイングパッドの表示を選択すれば、制御部110は、1011段階で、これを感知し、1013段階で、現在アプリケーションをしばらく中断し、ドローイングパッドを表示する。
例えば、図14の1111のように、電子メール文書を作成している最中に、例えば「挿入(Insert)」タグをタップする機能を実行すれば、1113のように選択できる項目を表示し、ここで、「ドローイング(Drawing)」タグをペン10を利用して第1入力として選択(タップ、又はクリック)すれば、制御部110は、1115のようにドローイングパッドを表示する。その後、前記ドローイングパッドにユーザがペン10を利用してドローイングすれば、制御部110は、1015段階で、タッチパネル120を介してこれを感知し、表示部130に1117のように表示する。その後、ユーザがドローイング終了(1117画面の「完了(done)」タグをタッチ)すれば、制御部110は、1017段階で、これを感知し、1019段階で、1119のように、ドローイングイメージを生成し、1021段階で、当該イメージを処理する。
即ち、図14のように、電子メールを作成する中にドローイングモードを選択した場合、制御部110は、ドローイングパッドを表示し、ドローイングパッド上にユーザのドローイングを表示する。その後、ドローイングを終了すれば、制御部110は、生成されたドローイングを電子メールメッセージに挿入し、ユーザが「伝送(Send)」などの機能を選択すれば、前記ドローイングイメージを含むメッセージを相手に伝送すると同時に、メモリ140に保存する。
前述したように、ドローイングパッドを利用してドローイングを行うアプリケーションの種類によっては、図16のように、文書作成アプリケーション(テキストメッセージ、電子メールなどのメッセージアプリケーション)でメッセージを作成している途中に描画できるドローイングパッドを提供し、メッセージとともに描いた絵を伝送でき、また、図17のように、ハンドライティングパッドを提供するアプリケーション(即ち、テキスト入力が可能なアプリケーション)で直接ユーザがハンドライティングしてドローイング機能を実行できる。
また、前記ドローイングパッドを使用せずに、ドローイングを実行できるアプリケーションの場合、ユーザがペン10を利用して第1入力のドローイングを発生すると、制御部110は、1011段階で、これを感知し、1023段階で、現在の画面の上にユーザから発生するドローイングを表示する。その後、ユーザがドローイングを終了すれば、制御部110は、1023段階で、これを感知し、1019段階で、ドローイングイメージを生成し、1021段階で、ユーザの命令によって生成されたイメージを処理する。
上記のようにドローイングパッドを使用せずに、ドローイングを実行できるアプリケーションは例えば、次の通りである。現在行われているマルチメディアアプリケーション(例えば、Photo Editor、Video Maker、Galleryアプリケーション)の場合、図15のように、ユーザが表示部130に表示されるマルチメディアイメージの上に直接ドローイングを行い、マルチメディアイメージにユーザのドローイングが追加されたイメージを生成する。
また、ハンドライティング機能が提供されるメモアプリケーション(例えば、クィックメモ、リッチメモアプリケーション)でユーザがハンドライティングしたメモを図18のようにイメージとして生成して処理する。即ち、メモアプリケーションで作成されたハンドライティング文字をドローイングのようにイメージとして生成する。
また、イメージが表示されるアプリケーション(例えば、電子ブックアプリケーションなど)において図19のように、表示されたイメージに対してユーザが直接、注釈設定、ライティングなどのハンドライティング及びドローイングを行い、ドローイングイメージとして生成する。
また、編集可能なアプリケーション(editable screen captureアプリケーションなど)で図20のように、ユーザが画面に直接ライティングしてドローイングイメージを生成する。このような場合、ハンドライティング編集が可能な画面キャプチャー機能を提供でき、携帯端末機上に表示される全ての画面で当該ドローイング機能を行う。例えば、インターネットサーフィン、雑誌画面、文書画面などを表示するアプリケーションで当該画面にドローイングを行い、画面を編集できる。
[クロップ入力]
第四に、前記画面にイメージが表示される状態で、ペンを利用して表示されるイメージの特定部分を囲むように円形又は多角形の閉曲線をドローイングし、クロップ機能を選択すれば、制御部110は、625段階で、これを感知し、当該画面をクロップし、クロップされた画面を処理する。例えば、表示部130に写真などのようなイメージが表示される状態で閉曲線ドローイングをした後、クロップ項目を選択し、タッチ(タップ、又はクリック)すれば、制御部110は、これをイメージクロップとして見なし、閉曲線内部のイメージをキャプチャして処理する。そして、前記クロップされた画面をメモリに保存し、また、他の画面に挿入又は追加して新しいイメージとして生成する。
前述したように、ペン10のボタン11を押圧しない状態でタッチパネル120にタッチされる場合、制御部110は、図5の415段階で、これを第1入力として感知し、第1入力が感知されれば、制御部110は、417段階及び419段階で入力される形態によって一般入力、ハンドライティング、ドローイング又はクロップとして認識し、当該アプリケーションを処理する。
しかし、ペン10のボタン11を押圧した状態でタッチパネル120にタッチされる場合、制御部110は、図5の421段階で、これを第2入力として感知し、第2入力が感知されれば、制御部110は、425段階及び423段階で入力される第2入力のハンドゼスチャーによって当該命令を処理する。ここで、第2入力のうち、特定入力(例えば、long press)を除いた残りの第2入力は、現在実行中のアプリケーションに関係なく、対応する命令に対応するアプリケーションを行う。
前述したように、本発明の第1入力は、ペン10のボタン11を押圧することなく入力する。第1入力は、指で行う全てのインタラクションをペンでも同様に提供できる。この際さらに第1入力は、アプリケーションでペンに特化した機能を実行できる。
[第2入力]
図21は、本発明の実施例によって第2入力を処理する手続を示す流れ図である。
また、図22及び図23は、図21のような手続を行いながら処理される具体例を示す図である。
図5と図21を参照すれば、図5の415段階で第1入力ではないと、即ち、第2入力が感知されれば、制御部110は、図21の1211段階で、第2入力を確認した後、第2入力の形態を分析する。この際、第2入力がダブルクリックなら、1213段階で、これを感知し、1215段階で、設定されたアプリケーションを呼出して処理する。この際、前記アプリケーションは、図2の段階215乃至221のようなペン設定手続で設定されるショートカット(shortcut)アプリケーションであり得る。
例えば、前記ショ−トカットアプリケーションがクィックメモに設定された場合、図22の1311及び1321のように、ペン10のボタンがクリックオン(押圧)された状態でダブルクリックが発生すれば、制御部110は、1323のように、ショ−トカットに設定されたクィックメモを表示部130に表示する。
また一方、第2入力がロングプレス(long press)であるならば、制御部110は、1213段階では「ダブルクリック」ではないと感知し、1217段階で「ロングプレス」と感知し、1219段階で、現在実行されているアプリケーションで表示されている画面をキャプチャする。この際、前記アプリケーションは、画面イメージを表示するアプリケーションになる。例えば、図22の1311及び1313のように、ペン10のボタンがクリックオン(押圧)された状態でlong pressが発生すれば、制御部110は、1315のように表示されるイメージをキャプチャし、表示部130に表示する。
また、第2入力が水平フリックなら、制御部110は、1221段階で、これを感知し、1223段階で、水平フリックに設定された命令を行う。ここでは、前記水平フリックが右側から左側に行われ、設定された命令は、バック(BACK)機能に設定された場合を仮定している。このような場合、図23の1311及び1331のように、ペン10のボタンがクリックオン(押圧)された状態で右側から左側にフリックが感知されれば、制御部110は、1333のように「BACK」機能を行う。
また、第2入力が上下フリックなら、制御部110は、1225段階で、これを感知し、1227段階で、上下フリックに設定された命令を行う。ここでは、前記上下フリックが下側から上側に行われ、設定された命令は、「メニュー(Menu)呼出」機能に設定された場合を仮定している。このような場合、図23の1311及び1341のように、ペン10のボタンがクリックされた状態で下側から 上側にフリックが感知されれば、制御部110は、1333のように「メニュー呼出」機能を行う。
また、第2入力が円形なら、制御部110は、1225段階で上下フリックを感知せず、1229段階で、円形入力を感知し、1231段階で、該円形入力に対応して設定された命令を行う。ここでは、前記円形の第2入力に設定された命令がホーム画面呼出の場合を仮定する。
前述したように、第2入力は、ペン10のボタンがクリックオン(押圧)された状態で入力されるハンドゼスチャーであり、制御部110は、感知される第2入力を分析し、それぞれ対応する命令を行う。この際、第2入力は、ダブルタップ及びロングプレスなどのアプリケーション呼出ゼスチャーと、フリック(右→左)及びフリック(下→上)などの特定のコマンド実行ゼスチャーよりなる。第2入力は、ペンのボタンを押圧した状態で既定のゼスチャー入力として、従来のペンの使用経験を継承できるようにハードキー(Hard_key)の機能をペンのジェスチャーにマッピングし、ペン全般の使用性改善、スクリーンキャプチャー、メモなどのアプリケーション呼出、及びバック(Back)、メニュー(Memu)など特定のコマンドを行うことができる。
また、第1入力及び第2入力は、前述したように、ペンがタッチパネル120にタッチされるとき、異なる大きさの電気信号を発生するものと仮定している。即ち、ペン10は、ボタンがクリックオン(押圧)される場合とクリックオン(押圧)されない場合で、発生する電気信号が異なる大きさを有し、このような場合、ペン10がタッチパネル120にタッチされると、異なる電気信号の変化を引き起こす。ここで、第1入力は、ペン10のボタン11がクリックオンされない状態で前記タッチパネルを介して感知される入力として仮定し、第2入力は、ペン10のボタン11がクリックオンされた状態で前記タッチパネルを介して感知される入力と仮定している。しかし、ペン10のボタン11がクリックオンされない状態で前記タッチパネルを介して感知される入力を第2入力とし、ペン10のボタン11がクリックオンされた状態で前記タッチパネルを介して感知される入力を第1入力としても、同一の動作を行うことができる。
上記のように、タッチデバイスを備える携帯端末機において本発明によるペン入力機能を使用すれば、さまざまな特化されたサービスを効率的に実行できる。このようなサービスのうち1つがメモ機能である。現在携帯端末機のメモは、文字、イメージ、ビデオ及びオーディオなどが結合された複合メモ(以下、rich memo、s−memo)機能をサービスしている。また、携帯端末機をスケジューラに使用でき、従って、迅速にメモ機能を実行できるクィックメモ機能も追加することが好ましい。
[リッチメモ]
図24ないし図26は、本発明の実施例による携帯端末機のリッチメモリスト及びリストを制御する手続を示す図である。
図24ないし図26を参照すれば、図24において画面1411は、リッチメモをサムネイルリスト(list arranged by thumbnails)として示す図であり、図25において画面1451は、リッチメモをリスト−バイ−リスト(list by list)として示す図である。図24を参照すれば、リッチメモのサムネイルリストを示す画面1411は、クィックメモ及びリッチメモのサムネイル項目をリストで示していて、リストの各項目の特徴は、表1413のように定義される。ここで、クィックメモボタンは、クィックメモを1つのサムネイルで表示し、リッチメモをそれぞれ対応するサムネイルで構成し、リスト化する。図24のようなリッチメモのサムネイルリストを示す画面1411を表示する状態でユーザがメニュー呼出をすれば、図24 の表1421のようなメニューが呼び出される。ここで、前記メニュー呼出は、前述したように、第2入力として実行でき、図7のように、第2入力を定義した場合、図24の1411のように、リッチメモのサムネイルリストを示す画面が表示された状態でペン10のボタン11をクリックオンし、下側方向から上側方向にフリックすれば、制御部110は、これをメニュー呼出として感知する。そして、表1421のように表示されたメニューにおいて当該項目をクリック(第1入力のタップ)すれば、選択された項目のリストが表1423、1425、1427のように表示される。
図25に示す画面1451に示すリッチメモのリスト−バイ−リストは、図24のサムネイルリストと異なる形態を有するリストであって、参照符号1451、1453、1461、1463、1465、1467は、それぞれ図24の1411、1413、1421、1423、1425、1427に対応する。
図26は、本発明の実施例によって前記リッチメモ及びクィックメモを選択する手続を説明するための図である。画面1481に示すようなサムネイルリストでクィックメモボタンをクリック(tap)すれば、画面1491に示すようなクィックメモリストを表示する。そして、画面1491のクィックメモリストを表示した状態でペン10を利用して水平フリック(右から左)の第2入力を発生すれば、制御部110は、画面1481のリッチメモのサムネイルリストを再び表示する。また、画面1481のなリッチメモのサムネイルリストが表示された状態でペン10を利用して垂直フリック(下側から上側)の第2入力を発生すれば、制御部110は、メニューを呼出し、ユーザの選択によって画面1483のようなリッチメモのリストを表示することができる。
また、画面1481又は1483のようなリッチメモリストを表示する状態でユーザがペン10を利用して生成ボタンをクリックすれば、画面1485のようなドローイングパッドを生成し、ユーザは、前記ドローイングパッドを用いてリッチメモを作成できる。また、画面1491のように、クィックメモリストを表示する状態でユーザがクィックメモをクリック(第1入力のタップ)すれば、画面1493のようなドローイングパッド又は画面1495のようなテキストパッドを生成し、ユーザは、これを利用してクィックメモをドローイング又はテキストとして生成できる。
図27は、本発明の実施例によるリッチメモの例を示す図であり、図28は、リッチメモで使用されるドローイングパッドの例を示している。
図27及び図28を参照すれば、ユーザは、リッチメモのリストが表示された状態で特定のリッチメモのサムネイル(又はリスト上の項目)を選択すれば、図27の画面1511に示すように該当するリッチメモを表示する。この際、前記リッチメモの形態は、表1513に示す構造を有する。そして、前記画面1511の状態で、前述したような第2入力でメニューを呼出すれば、表1521のようなメニューが呼出され、呼出されたメニューで表1523〜1527のような下部メニューを選択できる。
また、ユーザは、リッチメモのリストが表示される状態は、特定のリッチメモが表示される状態で生成ボタンを押圧すれば、図28の画面1551のようなドローイングパッドを表示する。ここで、前記ドローイングパッドは例えば、図28の表1555のような構成を有する。表1553及び1555に示すようなメニュー及び設定を通じて、ユーザは、画面1557のように、画面1551のようなドローイングパッドにタイトルを追加でき、またユーザは、画面1559のように、画面1551のようなドローイングパッドにタグを追加できる。前述したように、リッチメモは、テキストメモ以外にドローイングによるイメージ生成、イメージ挿入、オーディオ音挿入などを行うことができる。
この際、前記リッチメモを作成する方法は、テキスト及びドローイングは、前述したようなペン10を利用して実行でき、この際、第1入力のテキストライティング、ドローイング及びクロップなどの方法を使用でき、また、一般入力によってリッチメモアプリケーションの動作を制御できる。ここで、前記リッチメモのハンドライティングは、ドローイングパッド上で実行でき、前記ハンドライティング文字は、イメージとして処理でき、また、メニューを通じて認識命令を発生して認識できる。即ち、前記リッチメモは、ペン10を用いてドローイング、ハンドライティングなどを通じて作成でき、また、作成されたリッチメモにビデオ及び/又はオーディオなども挿入できる。さらに、前記ハンドライティングされた文字は、必要時に、認識命令によってデータに変換して保存できる。さらに、上記のように作成されたリッチメモは、メモリ140に保存でき、また、通信部150を介して外部装置又は外部加入者に伝送できる。
図29は、本発明の実施例によるリッチメモに含まれたクィックメモリストを示す図である。クィックメモは、画面1611に示すようなサムネイルリストで表示され、前述したように、メニュー呼出の第2入力発生時に、表1613のようなメニューを表示し、表示されるメニュー上で表1615〜1621のような下部メニューを選択できる。
図30は、図29のクィックメモリストでクィックメモを生成するためのパッド構成を示す図である。図30を参照すれば、クィックメモアプリケーションにおいてユーザは、画面1711のようなドローイングパッド又は画面1723のようなテキストパッドを利用してクィックメモを作成できる。そして、ユーザは、ペン10を用いてメニュー呼出を行うことができ、この際、メニューは例えば、表1725〜1731に示すとおりである。
また、前記クィックメモアプリケーションは、リッチメモアプリケーションを行う時に選択でき、また、第2入力を通じてクィックメモを選択できる。即ち、図2及び図3で説明したように、ユーザは、設定過程でショートカット機能で行うアプリケーションを設定できる。この際、前記ショートカットアプリケーションに前記クィックメモが設定された場合、図31に示すように、クィックメモアプリケーションを選択することができる。
図31は、本発明の実施例によってクィックメモアプリケーションを選択する方法を説明するための図である。図31を参照すれば、ショートカットアプリケーションに前記クィックメモが設定された場合、ユーザが、画面1811に示すように、任意のアプリケーションを実行している状態でショートカット機能に設定されたクィックメモを選択するために、第2入力(ペン10のボタン11をクリックオンした状態でダブルタップを発生すれば、制御部110は、これを感知し、画面1813に示すようなクィックメモアプリケーションを行うためのドローイングパッドを表示する。そして、ユーザが画面1813に示すようなドローイングパッド上にクィックメモをドローイング及び/又はハンドライティングにより作成すれば、制御部110は、これをドローイングパッド上に表示する。そして、作成されたクィックメモは、図29の画面1611のようなクィックメモのサムネイルリストに登録される。
本明細書と図面に開示された本発明の実施例は、本発明の技術内容を容易に説明し、本発明の理解を助けるために特定例を提示したものに過ぎず、本発明の範囲を限定しようとするものではない。ここに開示された実施例以外にも、本発明の技術的思想に基づく他の変形例が実施可能であることは、本発明が属する技術分野における通常の知識を有する者に自明であろう。
10 ペン
11 ボタン
12 ヘッド
100 携帯端末機
110 制御部
120 タッチパネル
130 表示部
140 メモリ
150 通信部
160 オーディオ処理部
170 ビデオ処理部

Claims (15)

  1. 携帯端末機の入力装置において、
    ボタンを備え、ボタンクリックの有無によってそれぞれ第1電気信号を有する第1入力及び第2電気信号を有する第2入力を発生するペンと、
    前記ペンタッチ時に電気信号が変化するタッチセンサーを備えるタッチパネルと、
    前記タッチパネルを介して入力される入力を分析し、第1入力なら、実行中のアプリケーションで前記第1入力に対応して設定された機能を行い、第2入力なら、設定されたアプリケーションを呼出す、又は、設定された命令を実行する制御部と、
    前記制御部の制御下に第1入力及び第2入力の少なくとも一方に従って処理される画面を表示する表示部と、から構成され、
    前記第1入力は、実行されるアプリケーションの動作を制御する一般入力、ハンドライティング文字、及びドローイングの内の少なくとも一つを含み、前記第2入力は、特定のアプリケーションを呼出す命令語及び特定動作の実行を命令する命令語であることを特徴とする装置。
  2. 前記制御部が、文書作成アプリケーション実行時にハンドライティングパッドを表示し、前記ハンドライティングパッドに入力されるハンドライティング文字を表示し、前記ハンドライティング文字を認識して処理することを特徴とする請求項1に記載の装置。
  3. 前記制御部が、ドローイングアプリケーション選択時にドローイングパッドを表示し、前記第1入力のドローイングをドローイングパッドで表示し、ドローイング終了時に現在実行されるアプリケーションに前記ドローイングにより生成されたイメージを含ませて処理することを特徴とする請求項2に記載の装置。
  4. 前記ドローイングがイメージを表示するアプリケーション上に発生すれば、現在の画面イメージに入力される前記第1入力のドローイングを表示し、ドローイング終了時に前記画面イメージに前記ドローイングを含んでイメージとして生成することを特徴とする請求項3に記載の装置。
  5. 前記制御部が、前記第2入力感知時に入力タイプを分析し、アプリケーション呼出なら対応する第2入力に設定されたアプリケーションを呼出して表示し、コマンドなら対応する第2入力に設定されたコマンドを行うことを特徴とする請求項1に記載の装置。
  6. タッチデバイスを備える携帯端末機の入力方法において、
    ペンがボタンを備え、前記ボタンクリックの有無によってそれぞれ第1電気信号を有する第1入力及び第2電気信号を有する第2入力を発生し、前記ペンのタッチによってタッチパネルを介して感知される入力を分析する過程と、
    前記入力が第1電気信号の変化を有する第1入力なら実行されるアプリケーションで前記第1入力に対応して設定された機能を行う第1入力処理過程と、
    前記入力が第2電気信号の変化を有する第2入力なら設定されたアプリケーション呼出又は設定された命令を行う過程と、から構成され、
    前記第1入力は、実行されるアプリケーションの動作を制御する一般入力、ハンドライティング文字及びドローイング
    の内の少なくとも一つを含み、前記第2入力は、特定のアプリケーションを呼出す命令語及び特定動作の実行を命令する命令語であることを特徴とする方法。
  7. 前記第1入力処理過程が、
    文書作成アプリケーション実行時にハンドライティングパッドを表示する過程と、
    前記ハンドライティングパッドに入力されるハンドライティング文字を表示する過程と、
    前記ハンドライティング文字を認識して処理する過程と、を含むことを特徴とする請求項6に記載の方法。
  8. 前記ハンドライティングされる文字を認識する過程において、前記表示されるハンドライティング文字の上に修正のための第1入力が発生すれば、当該機能で文字を修正する過程をさらに備えることを特徴とする請求項7に記載の方法。
  9. 前記文書作成アプリケーションがテキストメッセージアプリケーション、電子メールアプリケーション、又はメッセンジャーアプリケーションの何れかであることを特徴とする請求項8に記載の方法。
  10. 第1入力処理過程が、
    前記ドローイングモードアプリケーション選択時にドローイングパッドを表示する過程と、
    前記第1入力のドローイングをドローイングパッドで表示する過程と、
    前記ドローイング終了時に現在実行されるアプリケーションに前記ドローイングされたイメージを含ませて処理する過程と、をさらに備えることを特徴とする請求項6に記載の方法。
  11. 前記実行されるアプリケーションは、文字作成アプリケーションであり、前記生成されたドローイングされたイメージを前記作成された電子メールに含むことを特徴とする請求項10に記載の方法。
  12. 前記第1入力処理過程が、
    前記イメージが表示されるアプリケーション上で前記第1入力のドローイングが発生すれば、現在の画面イメージに入力される前記第1入力のドローイングを表示する過程と、
    前記ドローイング終了時に前記画面イメージに前記ドローイングイメージを含んでイメージで生成する過程と、をさらに備えることを特徴とする請求項10に記載の方法。
  13. 前記第1入力の一般入力は、タップ、ロングプレス、水平フリック及び上下フリックの内の少なくとも一つを含み、前記一般入力発生時に実行されるアプリケーションで前記一般入力に対応する機能を行うことを特徴とする請求項12に記載の方法。
  14. 前記第2入力処理過程が、
    前記第2入力感知時に入力タイプを分析する過程と、
    前記第2入力がアプリケーション呼出なら対応する第2入力に設定されたアプリケーションを呼出して表示する過程と、
    前記第2入力がコマンドなら対応する第2入力に設定されたコマンドを行う過程と、から構成されることを特徴とする請求項6に記載の方法。
  15. 前記アプリケーション呼出のための第2入力は、ダブルクリック、ロングプレスの内の少なくとも一つを含み、コマンド実行のための第2入力は、フリックであることを特徴とする請求項14に記載の方法。
JP2012192142A 2011-08-31 2012-08-31 携帯端末機の入力装置及び方法 Pending JP2013054745A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0087527 2011-08-31
KR1020110087527A KR101862123B1 (ko) 2011-08-31 2011-08-31 휴대단말기의 입력 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2013054745A true JP2013054745A (ja) 2013-03-21

Family

ID=46845615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012192142A Pending JP2013054745A (ja) 2011-08-31 2012-08-31 携帯端末機の入力装置及び方法

Country Status (5)

Country Link
US (1) US20130050141A1 (ja)
EP (1) EP2565770B1 (ja)
JP (1) JP2013054745A (ja)
KR (1) KR101862123B1 (ja)
CN (1) CN102968206B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197455A (ja) * 2013-08-30 2016-11-24 三星電子株式会社Samsung Electronics Co.,Ltd. フィールドの属性に応じてコンテンツを提供する電子装置及び方法
JP2018032428A (ja) * 2017-10-25 2018-03-01 シャープ株式会社 タッチ操作機能付表示装置およびタッチ入力の識別方法

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR101963787B1 (ko) * 2012-07-09 2019-03-29 삼성전자주식회사 휴대 단말기의 부가 기능 운용 방법 및 장치
KR101973634B1 (ko) * 2012-08-23 2019-04-29 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP6039343B2 (ja) * 2012-10-04 2016-12-07 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
KR102044460B1 (ko) * 2012-11-12 2019-11-13 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR20140076261A (ko) * 2012-12-12 2014-06-20 삼성전자주식회사 펜을 이용한 사용자 인터페이스 제공 단말 및 방법
KR20140117137A (ko) * 2013-03-26 2014-10-07 삼성전자주식회사 터치용 펜을 이용한 휴대용 장치 및 이를 이용한 어플리케이션 제어 방법
JP2014203305A (ja) * 2013-04-05 2014-10-27 株式会社東芝 電子機器、電子機器の制御方法、電子機器の制御プログラム
GB2512887B (en) * 2013-04-10 2017-09-13 Samsung Electronics Co Ltd Displaying history information for a selected action
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
KR20140132171A (ko) * 2013-05-07 2014-11-17 삼성전자주식회사 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법
JP2015001751A (ja) * 2013-06-13 2015-01-05 コニカミノルタ株式会社 手書き入力装置及び制御プログラム並びに制御方法
KR102180961B1 (ko) * 2013-07-16 2020-11-19 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
KR102147935B1 (ko) 2013-08-29 2020-08-25 삼성전자주식회사 데이터 처리 방법 및 그 전자 장치
TWI502476B (zh) * 2013-12-02 2015-10-01 Acer Inc 電子裝置與其觸控操作方法
KR101526803B1 (ko) * 2013-12-11 2015-06-05 현대자동차주식회사 자동차의 조작계 터치패드를 이용한 문자 입력 시스템 및 방법
US9524428B2 (en) 2014-04-28 2016-12-20 Lenovo (Singapore) Pte. Ltd. Automated handwriting input for entry fields
US20150347364A1 (en) * 2014-06-03 2015-12-03 Lenovo (Singapore) Pte. Ltd. Highlighting input area based on user input
KR20160023298A (ko) * 2014-08-22 2016-03-03 삼성전자주식회사 전자 장치 및 전자 장치의 입력 인터페이스 제공 방법
DE202015006141U1 (de) * 2014-09-02 2015-12-14 Apple Inc. Elektronische Touch-Kommunikation
US20160132992A1 (en) * 2014-11-06 2016-05-12 Microsoft Technology Licensing, Llc User interface scaling for devices based on display size
US10949075B2 (en) 2014-11-06 2021-03-16 Microsoft Technology Licensing, Llc Application command control for small screen display
CN107209608A (zh) 2015-01-28 2017-09-26 平蛙实验室股份公司 动态触摸隔离帧
EP3256936A4 (en) 2015-02-09 2018-10-17 FlatFrog Laboratories AB Optical touch system comprising means for projecting and detecting light beams above and inside a transmissive panel
JP2016224834A (ja) * 2015-06-03 2016-12-28 キヤノン株式会社 電子機器、その制御方法
US9530318B1 (en) * 2015-07-28 2016-12-27 Honeywell International Inc. Touchscreen-enabled electronic devices, methods, and program products providing pilot handwriting interface for flight deck systems
WO2017026570A1 (ko) * 2015-08-11 2017-02-16 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102386480B1 (ko) * 2015-10-05 2022-04-15 삼성전자주식회사 전자 기기의 입력 식별 방법 및 장치
CN108369470B (zh) 2015-12-09 2022-02-08 平蛙实验室股份公司 改进的触控笔识别
CN105739873B (zh) * 2016-03-10 2018-12-04 努比亚技术有限公司 一种截屏方法及终端
DK201670596A1 (en) * 2016-06-12 2018-02-19 Apple Inc Digital touch on live video
CN107656688A (zh) * 2016-07-26 2018-02-02 中兴通讯股份有限公司 一种屏幕截屏方法和装置
EP3545392A4 (en) 2016-11-24 2020-07-29 FlatFrog Laboratories AB AUTOMATIC TACTILE SIGNAL OPTIMIZATION
KR102495467B1 (ko) 2016-12-07 2023-02-06 플라트프로그 라보라토리즈 에이비 개선된 터치 장치
US10963104B2 (en) 2017-02-06 2021-03-30 Flatfrog Laboratories Ab Optical coupling in touch-sensing systems
US20200012359A1 (en) * 2017-02-07 2020-01-09 Flatfrog Laboratories Ab Stylus button control
WO2018174786A1 (en) 2017-03-22 2018-09-27 Flatfrog Laboratories Pen differentiation for touch displays
EP4036697A1 (en) 2017-03-28 2022-08-03 FlatFrog Laboratories AB Optical touch sensing apparatus
CN117311543A (zh) 2017-09-01 2023-12-29 平蛙实验室股份公司 触摸感测设备
US11567610B2 (en) 2018-03-05 2023-01-31 Flatfrog Laboratories Ab Detection line broadening
KR102473081B1 (ko) * 2018-07-11 2022-12-02 삼성전자주식회사 전자 장치 및 전자 장치의 기능 수행 방법
TWI780222B (zh) * 2018-09-07 2022-10-11 日商東普雷股份有限公司 靜電電容式鍵盤裝置
EP3867733A1 (en) * 2018-10-15 2021-08-25 Ricoh Company, Ltd. Input apparatus, input method, program, and input system
US11943563B2 (en) 2019-01-25 2024-03-26 FlatFrog Laboratories, AB Videoconferencing terminal and method of operating the same
KR20200095972A (ko) 2019-02-01 2020-08-11 삼성전자주식회사 버튼 입력에 기능을 맵핑하기 위한 전자 장치 및 방법
US11551480B2 (en) * 2019-04-11 2023-01-10 Ricoh Company, Ltd. Handwriting input apparatus, handwriting input method, program, and input system
KR20210014397A (ko) * 2019-07-30 2021-02-09 삼성전자주식회사 스타일러스 펜에 의한 제스처를 확인하는 전자 장치 및 그 동작 방법
CN111708445B (zh) * 2019-08-26 2023-08-15 义隆电子股份有限公司 主动式触控笔
JP2023512682A (ja) 2020-02-10 2023-03-28 フラットフロッグ ラボラトリーズ アーベー 改良型タッチ検知装置
CN113791725A (zh) * 2021-08-04 2021-12-14 惠州Tcl云创科技有限公司 触控笔操作的识别方法、智能终端及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266493A (ja) * 1993-03-17 1994-09-22 Hitachi Ltd 手書きイメージメモ処理方法
JPH0757053A (ja) * 1993-08-13 1995-03-03 Sony Corp 手書き入力表示方法
JPH08249114A (ja) * 1995-03-15 1996-09-27 Matsushita Electric Ind Co Ltd ペン入力装置
JP2010020658A (ja) * 2008-07-14 2010-01-28 Panasonic Corp 情報端末装置およびその入力制御方法
JP2011128991A (ja) * 2009-12-18 2011-06-30 Canon Inc 座標入力装置およびその制御方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5500937A (en) * 1993-09-08 1996-03-19 Apple Computer, Inc. Method and apparatus for editing an inked object while simultaneously displaying its recognized object
AU1279597A (en) * 1995-12-14 1997-07-03 Motorola, Inc. Electronic book diary and method for use therefor
TW524352U (en) * 1999-11-10 2003-03-11 U Teh Internat Corp Touch control device with pressure hand-written pen
US7224991B1 (en) * 2000-09-12 2007-05-29 At&T Corp. Method and system for handwritten electronic messaging
US6798907B1 (en) * 2001-01-24 2004-09-28 Advanced Digital Systems, Inc. System, computer software product and method for transmitting and processing handwritten data
US20030044069A1 (en) * 2001-08-30 2003-03-06 Yuan-Wan Ku Handwriting recognition system and method of using the same
US7716058B2 (en) * 2001-09-05 2010-05-11 Voice Signal Technologies, Inc. Speech recognition using automatic recognition turn off
US6894683B2 (en) * 2002-07-10 2005-05-17 Intel Corporation Multi-mouse actions stylus
JP2005293239A (ja) * 2004-03-31 2005-10-20 Fujitsu Ltd 情報共有装置及び情報共有方法
US7646379B1 (en) * 2005-01-10 2010-01-12 Motion Computing, Inc. Wireless and contactless electronic input stylus having at least one button with optical scan and programmable pointer functionality
US7477233B2 (en) * 2005-03-16 2009-01-13 Microsoft Corporation Method and system for providing modifier key behavior through pen gestures
US7661068B2 (en) * 2006-06-12 2010-02-09 Microsoft Corporation Extended eraser functions
US8111922B2 (en) * 2007-06-08 2012-02-07 Microsoft Corporation Bi-directional handwriting insertion and correction
US9019245B2 (en) * 2007-06-28 2015-04-28 Intel Corporation Multi-function tablet pen input device
US20100185627A1 (en) * 2009-01-12 2010-07-22 Kinpo Electronics, Inc. Sorting method of multimedia files
CN101859220B (zh) * 2009-04-08 2012-07-18 深圳富泰宏精密工业有限公司 电子装置及其数据处理方法
US8482539B2 (en) * 2010-01-12 2013-07-09 Panasonic Corporation Electronic pen system
US8952939B2 (en) * 2010-10-26 2015-02-10 Nomadbrush Llc Conductive brush for use with a computing device
US10146329B2 (en) * 2011-02-25 2018-12-04 Nokia Technologies Oy Method and apparatus for providing different user interface effects for different motion gestures and motion properties
US9329703B2 (en) * 2011-06-22 2016-05-03 Apple Inc. Intelligent stylus
US9965107B2 (en) * 2011-10-28 2018-05-08 Atmel Corporation Authenticating with active stylus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266493A (ja) * 1993-03-17 1994-09-22 Hitachi Ltd 手書きイメージメモ処理方法
JPH0757053A (ja) * 1993-08-13 1995-03-03 Sony Corp 手書き入力表示方法
JPH08249114A (ja) * 1995-03-15 1996-09-27 Matsushita Electric Ind Co Ltd ペン入力装置
JP2010020658A (ja) * 2008-07-14 2010-01-28 Panasonic Corp 情報端末装置およびその入力制御方法
JP2011128991A (ja) * 2009-12-18 2011-06-30 Canon Inc 座標入力装置およびその制御方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"本誌初登場! 簡単&超便利 驚嘆の高機能 新世代フリーソフト", WINDOWS100%, vol. 第14巻第5号 通巻151号, JPN6017005409, 13 April 2011 (2011-04-13), JP, pages p. 42 *
北 真也, EVERNOTE情報整理術, vol. 第1版, JPN6017005411, 1 April 2011 (2011-04-01), pages pp. 40-47 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197455A (ja) * 2013-08-30 2016-11-24 三星電子株式会社Samsung Electronics Co.,Ltd. フィールドの属性に応じてコンテンツを提供する電子装置及び方法
US10088977B2 (en) 2013-08-30 2018-10-02 Samsung Electronics Co., Ltd Electronic device and method for providing content according to field attribute
JP2018032428A (ja) * 2017-10-25 2018-03-01 シャープ株式会社 タッチ操作機能付表示装置およびタッチ入力の識別方法

Also Published As

Publication number Publication date
CN102968206A (zh) 2013-03-13
EP2565770A3 (en) 2017-10-25
KR101862123B1 (ko) 2018-05-30
US20130050141A1 (en) 2013-02-28
CN102968206B (zh) 2017-07-14
EP2565770B1 (en) 2019-10-02
KR20130024220A (ko) 2013-03-08
EP2565770A2 (en) 2013-03-06

Similar Documents

Publication Publication Date Title
JP2013054745A (ja) 携帯端末機の入力装置及び方法
AU2020267498B2 (en) Handwriting entry on an electronic device
US11947782B2 (en) Device, method, and graphical user interface for manipulating workspace views
JP6584638B2 (ja) 文書編集における手書きサポートを提供するデバイス及び方法
US10042551B2 (en) Mobile terminal having a screen with a circular form and method for controlling the same
US8650507B2 (en) Selecting of text using gestures
US9898111B2 (en) Touch sensitive device and method of touch-based manipulation for contents
US9335899B2 (en) Method and apparatus for executing function executing command through gesture input
EP2565769A2 (en) Apparatus and method for changing an icon in a portable terminal
EP2613247B1 (en) Method and apparatus for displaying a keypad on a terminal having a touch screen
JP2015230732A (ja) 文書操作のためのデバイス、方法及びグラフィカルユーザインタフェース
US20130263013A1 (en) Touch-Based Method and Apparatus for Sending Information
KR20140030361A (ko) 휴대단말기의 문자 인식장치 및 방법
KR20080068491A (ko) 터치 방식 정보 입력 단말기 및 그 방법
US20150077358A1 (en) Electronic device and method of controlling the same
KR102143997B1 (ko) 단말장치의 정보 리스트 처리장치 및 방법
KR20140039517A (ko) 필기 기반으로 특정 기능을 실행하는 방법 및 그에 따른 디바이스
US20150062015A1 (en) Information processor, control method and program
KR20190063853A (ko) 입력 필드의 이동 방법 및 장치
US20160132478A1 (en) Method of displaying memo and device therefor
KR20090121167A (ko) 범위 지정을 이용한 사용자 인터페이스 방법
JP7036862B2 (ja) 電子機器、制御方法、及びプログラム
KR20140030398A (ko) 명령어 패드 운용 방법 및 이를 지원하는 단말기
KR20190063937A (ko) 표시 영역 자동 분할 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180220