JP2015522883A - 手書きイメージ認識を用いたアプリケーションの制御方法及び装置 - Google Patents
手書きイメージ認識を用いたアプリケーションの制御方法及び装置 Download PDFInfo
- Publication number
- JP2015522883A JP2015522883A JP2015521556A JP2015521556A JP2015522883A JP 2015522883 A JP2015522883 A JP 2015522883A JP 2015521556 A JP2015521556 A JP 2015521556A JP 2015521556 A JP2015521556 A JP 2015521556A JP 2015522883 A JP2015522883 A JP 2015522883A
- Authority
- JP
- Japan
- Prior art keywords
- application
- memo
- user
- input
- touch panel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 230000004044 response Effects 0.000 claims abstract description 27
- 230000006870 function Effects 0.000 claims description 206
- 238000012545 processing Methods 0.000 description 64
- 238000010586 diagram Methods 0.000 description 53
- 230000008569 process Effects 0.000 description 15
- 238000007726 management method Methods 0.000 description 14
- 238000003058 natural language processing Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 230000003993 interaction Effects 0.000 description 8
- 238000012015 optical character recognition Methods 0.000 description 8
- 229940037003 alum Drugs 0.000 description 7
- 241001422033 Thestylus Species 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 238000012905 input function Methods 0.000 description 5
- 239000000126 substance Substances 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006854 communication Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000003213 activating effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001364 causal effect Effects 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002250 progressing effect Effects 0.000 description 2
- 241000531897 Loma Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/142—Image acquisition using hand-held instruments; Constructional details of the instruments
- G06V30/1423—Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
手書きイメージ認識を用いたアプリケーションの制御方法及び装置が提供される。この方法は、実行されたアプリケーションをタッチパネルの上に表示するステップと、予め定められたユーザ入力を感知するステップと、感知されたユーザ入力に応答して、前記アプリケーションの上に、手書き入力領域と、手書き入力が不可能な領域とを含むメモウィンドウを表示するステップと、前記メモウィンドウの手書き入力領域で、手書き入力イメージを受信及び認識するステップと、認識の結果に従い、前記アプリケーションの機能を制御するステップとを含む。
Description
本発明は、手書きイメージ認識を用いたアプリケーションの制御方法及び装置に関する。より詳しくは、本発明は、タッチパネルを含む電子装置において、手書き入力を認識して、現在実行中のアプリケーションの機能を制御する装置及び方法に関する。
最近、携帯用電子機器の成長と共に、直観的な入/出力が可能なユーザインターフェース(UI: User Interface)の要求が増大している。例えば、キーボード、キーパッド、マウスなどの別途の構成を利用して、情報を入力する伝統的なUI方式は、指やタッチ用の電子ペンなどを用いて、画面を直接タッチするか、音声を用いて情報を入力する直観的なUI方式へ漸次進化している。
その上、UI技術は、ユーザの便宜を考慮するのみならず、直観的であり、かつ人間中心の開発が行われている。この代表的なUI技術として、ユーザが音声で携帯用電子機器と対話し、これを介して、所望の情報を入力するか、所望の情報を得るのが可能となった。
代表的に、スマートフォンのような、ユーザの携帯用電子機器には、多様なアプリケーションがインストールされ、このインストールされたアプリケーションを介して、新しい機能を利用できる。
代表的に、スマートフォンにインストールされた複数のアプリケーションは、独立的に駆動するのが一般的であるが、複数のアプリケーションが連動して新しい機能又は結果を、ユーザに提供することは、一般的ではなかった。
例えば、スケジュール管理をサポートするアプリケーションにおいて、直観的UIをサポートするユーザ端末にもかかわらず、当該アプリケーションでサポートするUIのみを用いて情報の入力が可能であった。
さらに、タッチパネル又はタッチパネルを用いて、メモ機能をサポートするユーザ端末において、ユーザが、指、電子ペンなどの入力手段を用いて、主に情報をメモする用途としてのみ活用するだけで、メモ内容を他のアプリケーションに連携して活用する方案は提示されなかった。
従って、ユーザ端末において、手書きベースのユーザインターフェースを用いて、ユーザとの情報を交換する装置及び方法が必要となった。
上記の情報は、本開示の理解を助けるだけの背景情報として提示される。本発明に関する従来の技術として適用できるかどうかについては、確認されず、断定されない。
本発明の目的は、上述の問題及び/又は短所を解決するために、後述の少なくとも一つの利点を提供することにある。従って、本発明は、ユーザ端末において、手書きベースのユーザインターフェースを用いて、ユーザとの情報を交換する装置及び方法を提供する。
本発明の他の目的は、タッチパネルを含む電子装置において、手書き認識を用いて実行中のアプリケーションの機能を制御する装置及び方法を提供することにある。特に、本発明の目的は、ユーザがタッチパネルに入力した手書きイメージを認識して、現在実行中のアプリケーションの機能を制御する装置及び方法を提供することにある。ユーザ端末は、タッチパネルを含む電子装置である。前記タッチパネルは、グラフィックとテキストを表示し、ユーザと装置との間の相互作用をサポートするユーザインターフェースを提供するように、様々な電子装置に用いられている。
本発明のまた他の目的は、ユーザ端末において、手書きベースのメモ機能を用いて、所定のコマンドを実行させるユーザインターフェース装置及び方法を提供することにある。
本発明のまた他の目的は、ユーザ端末において、手書きベースのメモ機能を用いて、問答が可能なユーザインターフェース装置及び方法を提供することにある。
本発明のまた他の目的は、ユーザ端末において、メモ機能を用いて、画面の上に表示されたメモ内容から選択された全体又は一部のメモを処理するためのコマンドを受信するためのユーザインターフェース装置及び方法を提供することにある。
本発明のまた他の目的は、電子ペンを用いたメモ機能をサポートするユーザ端末において、メモモードとコマンド処理モードとの転換をサポートするユーザインターフェース装置及び方法を提供することにある。
本発明のまた他の目的は、ユーザ端末において、メモ機能により、駆動されているアプリケーション又は他のアプリケーションを制御するためのコマンドの入力が可能なユーザインターフェース装置及び方法を提供することにある。
本発明のまた他の目的は、ユーザ端末において、ユーザのメモパターンを分析し、前記分析したメモパターンを考慮して、メモ機能により入力される情報を判断するユーザインターフェース装置及び方法を提供することにある。
本発明の一態様によると、手書きベースのメモ機能をサポートするユーザ端末におけるユーザインターフェース方法が提供される。この方法は、特定のアプリケーションが実行されている中に、ユーザの要請により、手書きが可能なメモ階層が、前記特定のアプリケーションの実行画面の上に表示され、前記ユーザにより前記メモ階層に手書きされる内容に基づいて、前記ユーザの意図を認知し、前記認知したユーザの意図に応じて、前記特定のアプリケーションの動作を制御することを含む。前記メモ階層は、メモウィンドウで実現されてもよい。即ち、前記メモ階層と前記メモウィンドウとは、同様の意味として使用可能である。
本発明の他の態様によると、手書きベースのメモ機能をサポートするユーザ端末におけるユーザインターフェース装置が提供される。この装置は、タッチパネルを有する電子装置を含み、特定のアプリケーションが実行されている中に、ユーザの要請により手書きが可能なメモ階層が、前記特定のアプリケーションの実行画面の上に表示され、前記ユーザの要請に応じて、前記メモ階層に手書きした内容に基づいて、前記ユーザの意図を認知し、前記特定のアプリケーションの動作は、前記認知したユーザの意図に応じて制御される。
本発明のまた他の態様によると、タッチパネルを含む電子装置におけるアプリケーションの制御方法が提供される。この方法は、実行されたアプリケーションを、前記タッチパネルの上に表示するステップと、予め定められた入力を表示するステップと、感知されたユーザ入力に応答して、前記アプリケーションの上に、手書き入力領域と、手書き入力が不可能な領域とを含むメモウィンドウを表示するステップと、前記メモウィンドウの手書き入力領域に、手書きイメージを受信及び認識するステップと、認識の結果に従い、前記アプリケーションの機能を制御するステップとを含む。
前記メモウィンドウの前記手書き入力が不可能な領域には、前記アプリケーションから提供されたテキスト及びイメージのうち、少なくとも一つが表示されてもよい。
前記メモウィンドウは、前記手書き入力が不可能な領域の上にタッチが感知されると、前記手書き入力領域に入力された手書きイメージを認識して、前記認識された手書きイメージを、前記手書きイメージとマッチするテキストに変換し、前記テキストを、前記アプリケーションに提供し得る。
前記アプリケーションは、前記メモウィンドウから提供されたテキストを、前記アプリケーションの機能を制御するためのコマンド及び該コマンドと関連したデータに分けてもよい。
本発明の更なる他の態様によると、タッチパネルを含む電子装置におけるアプリケーションの制御方法が提供される。この方法は、実行されたアプリケーションと関連付いた情報を示すグラフィックオブジェクト及び前記アプリケーションの機能を制御するためのボタンを、前記タッチパネルの上に表示するステップと、前記ボタンの上にタッチが感知されると、前記ボタンに対応する前記アプリケーションの機能を制御するステップと、前記タッチパネルの上に、予め定められた入力が感知されると、少なくとも一つの前記グラフィックオブジェクト及び前記ボタン上の手書き入力領域と、手書き入力が不可能な領域とを含むメモウィンドウを、前記タッチパネルに表示するステップと、前記タッチパネルの上に予め定められた入力が感知されると、前記メモウィンドウの手書き入力領域に手書きイメージを受信及び認識するステップと、認識の結果に従い、前記アプリケーションの機能を制御するステップとを含む。
前記メモウィンドウの前記手書き入力が不可能な領域には、前記アプリケーションから提供されたテキスト及びイメージのうち、少なくとも一つが表示されてもよい。
前記メモウィンドウは、前記テキスト及び前記イメージの上にタッチが感知されると、前記手書き入力領域に入力された手書きイメージを認識して、前記認識された手書きイメージを、前記手書きイメージとマッチするテキストに変換し、前記テキストを前記アプリケーションに提供する。
前記ボタンの上に前記メモウィンドウが表示されると、前記ボタンは非活性化されてもよい。
本発明のまた他の態様によると、タッチパネルを含む電子装置におけるアプリケーションの制御方法が提供される。この方法は、第1モードで、タッチ入力が感知されると、実行されたアプリケーションの機能を制御するステップと、
第2モードで、前記アプリケーションの実行中に前記タッチパネル上の予め定められた入力を識別し、識別された入力に従い、手書き入力が可能なメモウィンドウを、前記アプリケーションに表示し、前記メモウィンドウに入力された手書きイメージを認識し、前記認識された手書きイメージに従い、前記実行されたアプリケーションの機能を制御するステップと、を含む。
第2モードで、前記アプリケーションの実行中に前記タッチパネル上の予め定められた入力を識別し、識別された入力に従い、手書き入力が可能なメモウィンドウを、前記アプリケーションに表示し、前記メモウィンドウに入力された手書きイメージを認識し、前記認識された手書きイメージに従い、前記実行されたアプリケーションの機能を制御するステップと、を含む。
前記第2モードの状態では、前記第1モードが行われないようにしてもよい。
本発明のまた他の態様によると、電子装置が提供される。この電子装置は、タッチを感知するタッチパネルと、実行されたアプリケーションを前記タッチパネルに表示し、前記タッチパネルから感知された、予め定められた入力に応答して、前記アプリケーションに、手書き入力領域と、手書き入力が不可能な領域とを含むメモウィンドウを表示し、前記メモウィンドウの手書き入力領域に手書きイメージを認識し、認識の結果に従い、前記アプリケーションの機能を制御する制御部と、を含む。
前記制御部は、前記メモウィンドウの前記手書き入力が不可能な領域に、前記アプリケーションから提供されるテキスト及びイメージが表示されるように制御することができる。
また、前記制御部は、前記テキスト及びイメージの上にタッチが感知されると、前記手書き入力領域に入力された手書きイメージを認識して、前記認識された手書きイメージを、前記手書きイメージとマッチするテキストに変換し、前記テキストに対応する前記アプリケーションの機能を制御することができる。さらに、前記制御部は、前記テキストを、前記アプリケーションの機能を制御するためのコマンドと該コマンドと関連付いたデータとに分けてもよい。
本発明のまた他の態様によると、電子装置が提供される。この電子装置は、タッチを感知するタッチパネルと、実行されたアプリケーションと関連付いた情報を示すグラフィックオブジェクト及び前記アプリケーションの機能を制御するためのボタンの少なくとも一つを、前記タッチパネルの上に表示し、前記ボタンの上にタッチが感知されると、前記ボタンに対応する前記アプリケーションの機能を制御し、前記タッチパネルの上に予め定められた入力が感知されると、グラフィックオブジェクト及びボタン上の手書き入力領域と、手書き入力が不可能な領域とを含むメモウィンドウを、前記タッチパネルに表示し、前記メモウィンドウの手書き入力領域に入力された手書きイメージを認識し、認識の結果に従い、前記アプリケーションの機能が行われるように制御する制御部と、を含む。
前記制御部は、前記メモウィンドウの前記手書き入力が不可能な領域には、前記アプリケーションから提供されたテキスト及びイメージが表示されるように制御することができる。また、前記制御部は、前記テキスト及びイメージの上にタッチが感知されると、前記手書き入力領域に入力された手書きイメージを認識して、前記認識された手書きイメージを、前記手書きイメージとマッチするテキストに変換し、前記テキストに対応する前記アプリケーションの機能を制御することができる。さらに、前記制御部は、前記メモウィンドウが前記ボタンの上に表示されると、前記ボタンが非活性化されるように制御してもよい。
本発明のまた他の態様によると、電子装置が提供される。この電子装置は、タッチを感知するタッチパネルと、タッチ入力が感知されると、実行されたアプリケーションの機能を制御する第1モードで動作され、前記アプリケーションの実行中に、前記タッチパネル上の予め定められた入力を識別し、識別された入力に従い、手書き入力が可能なメモウィンドウを、前記アプリケーションに表示し、前記メモウィンドウに入力された手書きイメージを認識し、前記認識された手書きイメージに応じて、前記実行されたアプリケーションの機能を制御する第2モードで動作される制御部と、を含む。
本発明のまた他の態様によると、電子装置が提供される。この電子装置は、タッチを感知するタッチパネルと、実行されたアプリケーションと関連付いた情報を示すグラフィックオブジェクト及び前記アプリケーションの機能を制御するためのボタンの少なくとも一つを、前記タッチパネルの上に表示し、前記ボタン上にタッチが感知されると、前記ボタンに対応するアプリケーションの機能が行われるように制御し、前記タッチパネルの上に、予め定められた入力が感知されると、前記グラフィックオブジェクト及び前記ボタンが表示される画面に、手書き入力が可能なメモウィンドウを表示し、前記メモウィンドウに入力された手書きイメージを認識し、認識の結果に従い、前記アプリケーションの機能が行われるように制御する制御部と、を含む。
本発明の他の目的、効果、及び顕著な特徴は、添付の図面と関連して、本発明の実施形態を開示する後述の詳細な説明から当業者に明らかとなる。
本発明の実施形態によると、多様な用途においてメモ機能をサポートすることにより、ユーザの利便さを向上することができ、これにより、その用途の直観的な制御が可能である。
本発明の実施形態によると、ユーザが画面にメモ階層を起動し、このメモ階層上の情報を手書きするとき、ユーザ端末は、前記情報を認識し、前記情報に該当する動作を実行する。この目的のために、メモ階層を画面に起動するための技術を付加的に記述することが好ましい。
本発明の実施形態による前述の目的及び他の目的、構成及び効果は、添付の図面と共に、以下の詳細な説明からより明らかとなる。
図面の全般に渡って、類似の部分、構成要素、及び構造については同様の参照番号を付ける。
以下の説明は、添付の図面を参照して、特許請求の範囲の記載及びこれと均等したものの範囲内で定められた本発明の実施形態の包括的な理解を助けるために提供される。以下の説明は、本発明の理解を助けるために多様な特定の細部事項を含んでいるものの、これらは単なる例示的なものに過ぎない。したがって、本発明の範囲及び趣旨から逸脱することなく、本発明に記載された実施形態の多様な変形及び修正が可能であることは、当業者には明らかである。また、公知の機能及び構成についての詳細な説明は、説明の便宜上、省略する。
後述の説明及び特許請求の範囲に用いられた用語及び単語は、書誌の意味に限定されず、専ら本発明の明確で、かつ一貫性のある理解のために用いられる。したがって、本発明の実施形態により後述する説明は、単に添付の特許請求の範囲及びこれらの均等物により定められる本発明を制限する目的ではなく、単に例示的な目的のために提供されることは、当業者には明らかである。
明細書において明確に言及しない限り、「a」、「an」、及び、「the」の単数形態は、複数の対象を含む。例えば、「a component surface」への言及は、そのようなsurfaceの一つ又はそれ以上への言及を含む。
用語「実質的に(substantially)は、挙げられた特徴、パラメータ、又は値が、必ずしも正確に成し遂げられる必要はないが、例えば、偏差、許容誤差、測定エラー、測定精密限界及び当業者に知られた他の要因を含めて、変動又は号差が、特性を提供するための意図された効果を妨げない程度に起こり得ることを意味する。
以下、本発明の実施形態による詳細な説明では、前述の技術的課題を達成するための代表的な実施形態を提示するはずである。また、本発明の実施形態についての説明の便宜上、定義している個体の名称を同様に使ってもよい。しかし、説明の便宜上、使われた名称が、本発明の実施形態による権利を限定することではなく、類似の技術的背景を有するシステムについて、同様又は容易な変更により適用が可能であることは、明らかである。
本発明の実施形態では、NLI(Natural Language Interaction)で手書きベースのUI技術(以下、「手書きベースのNLI」と称する)を適用したユーザ端末において、メモ機能を用いて、ユーザとの問答手続きを行うことが可能とする。
前記NLIは、通常、理解と生成能力を含む。このような機能は、入力したものをコンピュータが理解し、人が理解しやすくようにテキストを表示するようにする。このように人間と電子機器との間に、自然語で対話を可能とする自然語の理解への一つの応用であると言える。
例えば、ユーザ端末は、手書きベースのNLIを用いて、ユーザから入力されるコマンドを実行するか、前記入力されたコマンドを実行するために必要な情報を、問答手続きを介してユーザから獲得する。
本発明の実施形態においては、手書きベースのNLIをユーザ端末に適用するために、好ましくは、メモモードとコマンド処理モードとの相互間の転換が、手書きベースのNLIを介して有機的に実施すべきである。前記メモモードにおいて、ユーザは、ユーザ端末において、指、電子ペンなどの入力手段を用いて、駆動中のアプリケーションにより表示される画面の上にメモを書き、一方で、前記コマンド処理モードにおいては、メモモードを介して入力されたメモ内容が、現在駆動されているアプリケーションによる情報と連動して処理される。
例えば、電子ペンに備えられたボタンを押し付けると、即ち、ハードウェアにおける信号が発生すると、前記メモモードとコマンド処理モードとの間に転換が生じ得る。
以下、メモ機能をサポートするための主な入力手段として、電子ペンを説明する。しかし、以下の説明による本発明の実施形態は、入力手段として電子ペンを用いるユーザ端末にのみ適用可能なことではない。換言すると、本発明の実施形態においては、タッチパネルの上に情報の入力が可能な手段であれば、いずれも入力手段として用いることができることは明らかである。
本発明の実施形態の手書きベースのNLIを用いて、ユーザ端末がユーザとの問答によりユーザから意図された情報を受信し、この受信された情報を処理した結果を、ユーザに提供するためには、ユーザ端末とユーザとの間に、事前に相互の約束による情報を共有するのが好ましい。例えば、動作モードの転換を要請するために、シンボル、パターン、テキスト、及びこれらの組合せのうちの少なくとも一つを用いることを約束してもよく、ジェスチャー入力認識機能を介して、一つの動作を用いることを約束してもよい。要請される代表的な動作モードの転換は、メモモードからコマンド処理モードへ、又はコマンド処理モードからメモモードへの転換となってもよい。
一方、シンボル、パターン、テキスト、又はこれらの組合せに相応する入力情報を約束する時に、ユーザのメモパターンを分析し、前記分析の結果を考慮して決めることが好ましい。これは、ユーザが意図した情報を直観的に入力することができる利便さを提供する。
多様なアプリケーションが駆動された状況で、手書きベースのNLIを適用して、メモ機能により前記駆動中のアプリケーションを制御し、その制御結果を出力する様々なシナリオは、本発明の別途の実施形態として記述する。
例えば、メモした内容のうち、全体又は一部を選択し、この選択されたメモ内容を特定のコマンドにより処理するシナリオ、駆動された特定のアプリケーションの画面に、メモ機能を用いて特定の情報を入力するシナリオ、その他に、手書きベースのNLIを用いた問答手続きにより特定のコマンドを処理するシナリオなどについて具体的に説明する。
以下、添付した図面を参照して、本発明の実施形態を詳細に説明する。図面のうち、同様の構成要素には、同様の参照符号を付することに留意すべきである。また、本発明の要旨を不要に曖昧にするおそれがある公知機能及び構成についての説明は、省略する。
図1は、本発明の一実施形態による手書きベースのNLIをサポートするユーザ端末の構成図である。この際、図1では、手書きベースのNLIをサポートするために、ユーザ端末に備えるべき構成のみを示しているが、前記ユーザ端末には、その他の機能を実行するための構成が、さらに具備されてもよい。その上に、図1に示している各構成は、ハードウェア機能ブロックのみならず、ソフトウェア機能ブロックの形態で実現することができる。
図1を参照すると、アプリケーション実行部110は、ユーザの要請に応じて、ネットワーク又は外部のインターフェースを介して提供されるアプリケーションを、メモリ(図示せず)と連動してインストールする。アプリケーション実行部110は、ユーザの要請に応じて、予めインストールしたアプリケーションのうちの一つを駆動させ、前記駆動中のアプリケーションを外部のコマンドに基づいて制御する。前記外部のコマンドは、自体的に発生するコマンドを除いた、外部から入力される大部分のコマンドを含む。
例えば、前記外部のコマンドは、ネットワークを介して入力される情報によるコマンドの他に、手書きベースのNLIを用いてユーザにより入力される情報によるコマンドを含む。以下では、説明の便宜上、手書きベースのNLIを用いて、ユーザにより入力される情報によるコマンドに限って説明する。しかし、本発明の実施形態は、必ずこれに限定されることではないことに留意すべきである。
アプリケーション実行部110は、特定のアプリケーションをインストールするか、駆動する結果を、手書きベースのNLIを介してユーザに提供する。例えば、アプリケーション実行部110は、タッチパネル部130のディスプレイ手段を介して、特定のアプリケーションのインストール又は駆動による結果を出力する。タッチパネル部130は、タッチを感知することができる。
タッチパネル部130は、手書きベースのNLIを介して情報の入/出力を処理する構成である。タッチパネル部130は、ディスプレイ機能と、入力機能とを実行する。前記ディスプレイ機能は、ある情報を画面に表示する機能を包括的に意味し、前記入力機能は、ユーザから情報を受ける機能を包括的に意味する。
しかし、ユーザ端末が、前記ディスプレイ機能と前記入力機能とを実行するための別途の構成を備え得ることは自明である。一例として、ユーザ端末は、動作の感知のためのカメラをさらに含んでもよい。
実施形態において、タッチパネル部130は、タッチパネル部130の動作を、ディスプレイ機能と入力機能とに区分せず、ディスプレイ機能と入力機能とを行うことと説明する。タッチパネル部130は、ユーザから入力される特定の情報又は特定のコマンドを認知し、前記認知した情報又はコマンドを、アプリケーション実行部110及び/又はコマンド処理部120へ伝達する。
前記情報は、ユーザにより作成されたメモに関する情報又は手書きベースのNLIによる問答手続きにおける答弁に関する情報となってもよい。また、前記情報は、現在画面の上に表示されたメモの内容のうち、一部又は全部を選択するための情報となってもよい。
前記コマンドは、特定のアプリケーションのインストールを要請するコマンド又は既にインストールされたアプリケーションのうち、特定のアプリケーションの駆動を要請するコマンドとなってもよい。前記コマンドは、選択されたアプリケーションによりサポートされる特定の動作、機能などの実行を要請するコマンドとなってもよい。
前記情報又はコマンドは、テキストの他に、線、シンボル、パターン及びこれらの組合せなどの形態で入力されてもよい。このような線、シンボル、パターンなどは、約束により予め設定されてもよい。
タッチパネル部130は、アプリケーション実行部110による特定のアプリケーションの駆動、又は駆動されたアプリケーションにおける特定の機能の実行による結果を画面に表示する。
さらに、タッチパネル部130は、問答手続きによる質問又は結果を画面に表示する。例えば、ユーザにより特定のコマンドが入力される時、タッチパネル部130は、コマンド処理部120から提供される前記特定のコマンドの処理結果を表示するか、又はユーザから前記特定のコマンドを処理するために必要な追加情報を獲得するための質問を表示する。前記質問に対する応答として、ユーザから追加情報が入力されると、タッチパネル部130は、前記入力された追加情報をコマンド処理部120へ伝達する。
その後、タッチパネル部130は、コマンド処理部120の要請により、他の情報を得るための追加質問を表示するか、前記入力される追加情報を反映した前記特定のコマンドの処理結果を表示する。
コマンド処理部120は、ユーザにより入力されたテキスト、シンボル、イメージ、パターンなどを、タッチパネル部130から伝達され、前記伝達されたテキスト、シンボル、イメージ、パターンなどにより、ユーザが伝達しようとする内容を確認する。
一例として、コマンド処理部120は、伝達されたテキスト、シンボル、イメージ、パターンなどの自然語処理を介して、ユーザが伝達しようとする内容を認識することができる。前記自然語処理のために、コマンド処理部120は、手書きベースのNLIを使用する。前記ユーザが伝達しようとする内容は、特定のアプリケーションの駆動又は現在駆動中のアプリケーションにおける特定の機能の実行を要請するコマンド、又は質問に対する応答を含む。
コマンド処理部120は、前記ユーザが伝達しようとする内容が、ある動作を要請するコマンドであると判断する際、前記判断されたコマンドを処理する。具体的に、コマンド処理部120は、前記判断されたコマンドによって、アプリケーション実行部110で特定のアプリケーションを駆動することを指示するか、現在駆動中のアプリケーションで特定の機能を実行することを指示してもよい。この場合、コマンド処理部120は、アプリケーション実行部110から処理結果を受信し、この処理結果をタッチパネル部130に提供する。
アプリケーション実行部110は、前記処理結果をコマンド処理部120ではなく、タッチパネル部130に直接提供してもよい。
前記判断されたコマンドを処理するために追加情報が必要な場合、コマンド処理部120は、追加情報を得るための質問を生成し、この質問をタッチパネル部130に提供する。その後、コマンド処理部120は、前記質問に対する応答を、タッチパネル部130から受信する。
コマンド処理部120は、前記判断されたコマンドを処理するために十分な情報を獲得するまで、タッチパネル部130を介してユーザとの問答、即ち、ユーザとの対話を持続する。例えば、コマンド処理部120は、タッチパネル部130を介した問答手続きを繰り返して行ってもよい。
前述のような動作のために、コマンド処理部120は、タッチパネル部130との連動により手書きベースのNLIを採用する。例えば、コマンド処理部120は、手書きに基づいた自然語インターフェースを用いて、メモ機能によりユーザと電子機器との間の問答、即ち、対話が可能となる。前記対話を通じて、前記ユーザ端末は、ユーザのコマンドを処理するか、又はその処理結果をユーザに提供する。
タッチパネル部130は、タッチを感知することができる。アプリケーション実行部110と、コマンド処理部120とは、制御部(図示せず)に含まれるか、又は制御部自体が、コマンド処理部120及びアプリケーション実行部110の動作を実施するように実現されてもよい。前記制御部は、実行されたアプリケーションをタッチパネルの上に表示し、前記タッチパネルから検出された予め定められたジェスチャーに応答して、前記アプリケーションにメモウィンドウを表示する。前記メモウィンドウは、手書き入力領域と手書き入力が不可能な領域に区分けられる。手書き入力領域では、ユーザのタッチ入力が感知されてもよい。手書き入力が不可能な領域では、ユーザのタッチ入力が無視されてもよい。予め定められたジェスチャーは、ユーザが指又は電子ペンを用いて、タッチパネルをタッチドラッグする動作となってもよい。前記予め定められたジェスチャーは、指又は電子ペンを用いて、タッチパネルの上に特定の模様やパターンを表示する動作であってもよい。
前記制御部は、前記メモウィンドウの手書き入力領域に入力された手書きイメージを認識し、前記認識の結果に従い、前記アプリケーションの機能が行われるように制御することができる。
ユーザが、メモウィンドウの手書き入力領域に手書きメモをすると、制御部は、入力される手書きイメージを認識し、この認識された手書きイメージに対応するテキストを出力することができる。
手書きイメージは、ユーザが電子ペンを用いて、タッチパネルの上に字を書く動作により生成されてもよい。メモウィンドウは、固有の名称を有し、メモウィンドウの名称は、実行されたアプリケーションによって異なる。例えば、現在実行中のアプリケーションが、メモウィンドウに表示されるメモウィンドウの名称についての情報を有している。
制御部は、前記メモウィンドウの前記手書き入力が不可能な領域に、前記アプリケーションから提供されたテキスト及びイメージが表示されるように制御することができる。前記テキストは、メモウィンドウの名称となってもよく、前記イメージは、アイコンであってもよい。
ユーザがイメージをタッチすると、メモウィンドウが消えることができる。例えば、アイコンは、ユーザが操作できるボタンと同様である。
制御部は、前記テキスト又はイメージの上にタッチが感知されると、前記手書き入力領域に入力されたメモの手書きイメージを認識して、前記手書きイメージをこれとマッチするテキストに変換し、前記テキストに基づいて、前記アプリケーションの機能を制御することができる。前記テキストは、コマンドとなっても、コマンドを実行するのに用いられるデータとなってもよい。
制御部は、前記テキストを、前記アプリケーションの機能を制御するコマンド又は前記コマンドと関連付いたデータとして識別することができる。
本発明の実施形態によると、電子装置は、タッチを感知するタッチパネルと、制御部とを含んでもよい。前記制御部は、実行されたアプリケーションと関連付いた情報を示すグラフィックオブジェクト及び前記アプリケーションの機能を制御するためのボタンが、前記タッチパネルの上に表示されるように制御することができる。アプリケーションが実行されると、テキスト又はイメージから構成されるグラフィックオブジェクトは、タッチパネルの上に表示されてもよい。さらに、前記アプリケーションの機能を制御するために、ユーザからコマンドの入力を受けるボタンが、タッチパネルの上に表示されてもよい。ユーザがボタンをタッチすると、ボタンに割り当てられたコマンドがアプリケーションへ伝達される。
制御部は、ボタンの上にタッチが感知されると、前記アプリケーションの機能を制御することができる。また、制御部は、前記タッチパネルの上に、予め定められたジェスチャーが感知されると、前記タッチパネルの上に表示されたグラフィックオブジェクト及び前記ボタンとオーバーラップしてメモウィンドウを表示することができる。例えば、ユーザがタッチパネルの上にドラッグをすると、前記メモウィンドウが表示されてもよい。
前記メモウィンドウは、手書き入力領域と、手書き入力が不可能な領域とに分けられてもよい。前記制御部は、前記手書き入力領域に入力された手書きイメージを認識し、前記認識の結果に従い、前記アプリケーションの機能が行われるように制御することができる。
前記制御部は、前記メモウィンドウの前記手書き入力が不可能な領域に、前記アプリケーションから提供されたテキスト及びイメージが表示されるように制御することができる。
前記制御部は、前記メモウィンドウに表示された前記テキスト又はイメージの上にタッチが感知されると、前記手書き入力領域に入力された手書きイメージを認識して、前記手書きイメージを、これとマッチする第1テキストに変換し、前記第1テキストに応じて、前記アプリケーションの機能を制御することができる。第1テキストは、手書きイメージの認識結果から得られる。
前記制御部は、また前記ボタンの機能を示す第2テキストを前記ボタンに表示する。前記第1テキストが、前記ボタンに表示された第2テキストと完全にマッチするか、又は一部マッチする場合、前記制御部は、前記ボタンに対応する前記アプリケーションの機能を実行することができる。第1テキストは、第2テキストと完全にマッチしてもよい。また、第1テキストは、第2テキストと部分的にマッチしてもよい。例えば、ユーザが入力した手書きイメージを認識した第1テキストの結果値が「delete」であり、ボタンに表示されている第2テキストが「delete item」であると、第1テキストは、部分的に第2テキストとマッチする。この場合、制御部は、前記アプリケーションの機能のうち、第1テキストに対応する「delete」コマンドが実行されるように制御することができる。
前記制御部は、前記ボタンの上にオーバーラップして前記メモウィンドウが表示されると、前記ボタンが非活性化されるように制御することができる。前記メモウィンドウは、半透明の状態で表示されてもよい。前記メモウィンドウによりボタンが隠されるため、制御部はボタンを非活性化する。前記ボタンの位置から検出されるタッチ入力を無視してもよい。
本発明の一実施形態において、電子装置は、タッチパネルと、該タッチパネルの上に、実行されたアプリケーションに関する情報を示すグラフィックオブジェクト及び前記アプリケーションの機能を制御するためのボタンを表示する。前記ボタンがタッチされると、前記電子装置は、前記ボタンに対応するアプリケーションの機能が行われるように制御する。前記タッチパネルの上に、予め定められたジェスチャーが入力されると、前記電子装置は、前記グラフィックオブジェクト及び前記ボタンが表示される画面に、手書き入力が可能なメモウィンドウを表示し、前記メモウィンドウを介して入力された手書きイメージを認識し、前記認識の結果に従い、前記アプリケーションの機能が行われるように制御することができる。
図2は、本発明の一実施形態によるユーザ端末における手書きベースのNLIをサポートするためのコマンド処理部の構成例を示している。
図2を参照すると、手書きベースのNLIをサポートするコマンド処理部120は、認知エンジン(Recognition Engine)210と、NLIエンジン220とを含む。
認知エンジン210は、認知管理モジュール212と、遠隔認知クライアントモジュール214と、地域認知モジュール(Local Recognition Module)216とを含む。地域認知モジュール216は、手書き認知ブロック215−1、光文字認知ブロック215−2、及びオブジェクト認知ブロック215−3から構成される。
NLIエンジン220は、対話モジュール(Dialog Module)222と、知能モジュール(Intelligence Module)224とを含む。対話モジュール222は、対話の流れを制御するための対話管理ブロック及びユーザの意図を把握するための自然語理解(NUL)ブロッから構成される。知能モジュール224は、ユーザの選好度を反映するためにユーザモデリングブロック、一般常識を反映するための常識推論ブロック及びユーザの状況を反映するためのコンテキスト管理ブロックから構成される。
認知エンジン210は、電子ペンなどの入力手段に相応する描きエンジン(Drawing Engine)と、カメラなどの知能入力プラットホーム(Intelligent Input Platform)とによる情報を入力することができる。知能入力プラットホーム(図示せず)は、OCR(Optical Character Reader)などのような光文字認識機となってもよい。前記知能入力プラットホームは、印刷テキスト又は手書きテキストや数字又はシンボルの形態を有する情報を読取り、前記読み取れた情報を認知エンジン210に提供することができる。前記描きエンジンは、指、物体、ペンなど、各種の入力手段による入力を受けるための構成要素として、前記入力手段による入力情報を感知し、前記感知された入力情報を認知エンジン210に提供することができる。これにより、認知エンジン210は、知能入力プラットホーム及びタッチパネル部130から情報の入力を受けて、各種の情報を認識することができる。
本発明の一実施形態においては、タッチパネル部130が入力手段から入力を受けて、タッチ入力認識情報と、ペン入力認識情報とを認知エンジン210に提供する場合を例として説明する。
本発明の一実施形態によると、認知エンジン210は、情報として入力されたテキスト、線、シンボル、パターン、イメージ、又はこれらの組合せから、現在表示されたメモ内容のうち、ユーザにより選ばれた一部又は全体の領域のメモ内容を認識するか、ユーザにより選択されたコマンドを認識する。ユーザにより選択されたコマンドは、予め定められた入力である。ユーザにより選択されたコマンドは、約束されたシンボル、パターン、テキスト、これらの組合せのうちの少なくとも一つ又はジェスチャー認識機能を介して、事前に約束された少なくとも一つのジェスチャーに対応してもよい。
認知エンジン210は、前述の動作で得られた認識の結果を出力する。
このために、認知エンジン210は、入力情報の認識結果を出力するための全般的な制御を提供する認知管理モジュール212、遠隔認知クライアントモジュール214及び入力情報を認知するための地域認知モジュール216を含む。地域認知モジュール216は、手書き入力情報を認知する手書き認知ブロック215−1と、入力される光学式信号から情報を認知する光文字認知ブロック215−2と、入力されるジェスチャーから情報を認知するオブジェクト認知ブロック215−3とを少なくとも含む。
このために、認知エンジン210は、入力情報の認識結果を出力するための全般的な制御を提供する認知管理モジュール212、遠隔認知クライアントモジュール214及び入力情報を認知するための地域認知モジュール216を含む。地域認知モジュール216は、手書き入力情報を認知する手書き認知ブロック215−1と、入力される光学式信号から情報を認知する光文字認知ブロック215−2と、入力されるジェスチャーから情報を認知するオブジェクト認知ブロック215−3とを少なくとも含む。
手書き認知ブロック215−1は、手書き入力情報を認知する。例えば、手書き認知ブロック215−1は、メモ画面の上に、タッチペン20により手書きした内容を認識する。具体的に、手書き認知ブロック215−1は、タッチパネル部130からメモ画面の上にタッチされるポイントの座標値の入力を受けて、前記タッチされたポイントの座標値をストロークとして格納し、前記ストロークを用いてストロークアレイを生成する。手書き認知ブロック215−1は、予め格納された手書きライブラリーと、前記生成されたストロークアレイを含むストロークアレイリストとを用いて、手書きした内容を認識する。手書き認知ブロック215−1は、認識された内容のうち、メモ内容及びコマンドに該当する認識の結果を出力する。
光文字認知ブロック215−2は、光感知モジュールにより感知された光信号の入力を受け、光文字認識の結果を出力する。オブジェクト認知ブロック215−3は、動作感知モジュールにより感知されたジェスチャー感知信号の入力を受け、ジェスチャーを認識し、ジェスチャー認識の結果を出力する。
手書き認知ブロック215−1、光文字認知ブロック215−2及びオブジェクト認知ブロック215−3から認知された認識の結果は、NLIエンジン220又はアプリケーション実行部110に提供される。
NLIエンジン220は、認知エンジン210から提供される認知の結果についての分析などの処理により、ユーザの意図を把握する。例えば、NLIエンジン220は、認知エンジン210から提供される認知の結果から、ユーザの意図した入力情報を把握する。具体的に、NLIエンジン220は、手書きベースのNLIを用いてユーザとの問答による対話を行って、十分な情報を収集し、前記収集した情報に基づいてユーザの意図を把握する。
このために、NLIエンジン220を構成する対話モジュール222は、ユーザとの対話のための質問を構成し、前記構成した質問をユーザに伝達して、ユーザからの応答を受信するための対話の流れを制御する。対話モジュール222は、問答から獲得した情報を管理する(対話管理ブロック)。対話モジュール222は、また前記管理されている情報を考慮して、最初に提供されたコマンドについての自然語処理を介してユーザの意図を理解する(NLUブロック)。
NLIエンジン220を構成する知能モジュール224は、自然語処理を介してユーザの意図を把握するために参照される情報を生成し、この参照情報を対話モジュール222に提供する。例えば、知能モジュール224は、メモの時にユーザの習慣などを分析して、ユーザの選好度を反映する情報をモデル(ユーザモデリングブロック)するか、一般常識を反映するための情報を推論(常識推論ブロック)するか、現在ユーザの状況を考慮する情報を管理(コンテキスト管理ブロック)する。
従って、対話モジュール222は、知能モジュール224から提供される情報の援助を受けて、ユーザとの問答手続きに応じた対話の流れを制御することができる。
一方、アプリケーション実行部110は、認知エンジン210からコマンドに該当する認識の結果を受信し、前記コマンドが、予め格納された類義語テーブルに存在するか否かを判断して、前記コマンドに該当する類義語が存在すると、類義語に該当するIDを読み取れる。アプリケーション実行部110は、予め格納されたメソッドテーブルで前記IDに該当するメソッドを実行する。これによって、前記メソッドが、前記コマンドに相応するアプリケーションを実行させ、前記アプリケーションに前記メモ内容が伝達される。アプリケーション実行部110は、前記メモ内容を用いて当該アプリケーションの機能を行う。
図3は、本発明の一実施形態によるユーザ端末における手書きベースのNLIを用いて、ユーザインターフェースをサポートするための制御動作を示しているフローチャートである。
図3を参照すると、ユーザ端末は、ステップ310において、特定のアプリケーションを駆動し、前記駆動されたアプリケーションの機能を提供する。前記特定のアプリケーションは、ユーザの要請により、ユーザ端末にインストールされたアプリケーションのうち、ユーザにより駆動が要請されたアプリケーションである。
図3を参照すると、ユーザ端末は、ステップ310において、特定のアプリケーションを駆動し、前記駆動されたアプリケーションの機能を提供する。前記特定のアプリケーションは、ユーザの要請により、ユーザ端末にインストールされたアプリケーションのうち、ユーザにより駆動が要請されたアプリケーションである。
一例として、ユーザは、ユーザ端末のメモ機能により、前記特定のアプリケーションを駆動してもよい。例えば、ユーザ端末は、ユーザの要請によりメモ階層を画面の上に起動する。その後、特定のアプリケーションの識別情報と、実行コマンドに相応する識別情報が入力されるとき、ユーザ端末は、前記特定のアプリケーションを検索し、その検出されたアプリケーションを駆動する。この方法は、ユーザ端末に多くのアプリケーションがインストールされた場合に、所望のアプリケーションの素早い実行のために有用である。
前記特定のアプリケーションの識別情報は、例えば、当該アプリケーションの名称となってもよい。前記実行コマンドに相応する情報は、アプリケーションの駆動をコマンドするために、事前に設定されたイメージ、シンボル、パターン、テキストなどとなってもよい。
図4は、本発明の一実施形態により、メモ機能を用いて特定のアプリケーション又は特定の機能による動作を要請する例を示している。
図4を参照すると、メモ機能を用いて作成されたメモ内容中の一部内容を、線、閉曲線、イメージなどを使って選択し、前記選択した一部内容を他のアプリケーションを用いて処理する。例えば、線を使って「ギャラクシーメモプレミアムスイート(Galaxy Note Premium Suite)」というメモ内容を選択し、前記選択したメモ内容をテキスト発送アプリケーションを用いて伝送することをコマンドする。
ユーザ入力とマッチするアプリケーションが、ユーザ端末に存在しない場合、候補群に該当するアプリケーションから、ユーザが所望のアプリケーションを選択できるように、類似のアプリケーションによる候補群を、ユーザに提供してもよい。
他の例として、ユーザ端末によりサポートされる機能は、メモ機能により実行されてもよい。このために、ユーザ端末は、ユーザの要請によりメモ階層を呼び出し、ユーザにより入力される情報に応じて、インストールされたアプリケーションの検索を実施する。
例えば、検索のキーワードは、ユーザ端末にインストールされたアプリケーションのうち、特定のアプリケーションを検索するために、メモ機能による画面に入力される。その後、ユーザ端末は、入力されたキーワードとマッチするアプリケーションについての検索を行う。例えば、ユーザが、メモ機能を用いて画面の上に「自動車ゲーム」と入力したとき、ユーザ端末は、インストールされたアプリケーションのうち、「自動車ゲーム」と関連付いたアプリケーションを検索し、その検索結果を、画面の上に提供する。
他の例として、ユーザは、メモ機能により、画面の上にインストール時期、例えば、「February 2011」を入力してもよい。その後、ユーザ端末は、February 2011にインストールされたアプリケーションについての検索を行う。例えば、ユーザが、メモ機能を用いて、画面の上に「February 2011」と入力するとき、ユーザ端末は、インストールされたアプリケーションのうち、「February 2011」にインストールされたアプリケーションを検索し、その検索結果を、画面の上に提供する。
前述のように、ユーザのメモにより特定のアプリケーションを駆動するか、検索することは、ユーザ端末に多くのアプリケーションがインストールされた場合に有用である。
アプリケーションをより効率よく検索するためには、インストールされたアプリケーションについての索引作業が行われることが好ましい。索引作業によりインストールされたアプリケーションは、特徴、分野、機能などの基準によって分類されてもよい。
ユーザが特定のキー又はジェスチャーを入力すると、ユーザが駆動のためのアプリケーションの識別情報を入力するか、特定のアプリケーションの検索のための索引情報を入力するためにメモ階層が呼び出されてもよい。
前述の方式で駆動されるか、検索される特定のアプリケーションは、メモアプリケーション、スケジュール管理アプリケーション、地図アプリケーション、音楽アプリケーション、地下鉄アプリケーションなどを含む。
図3を参照すると、前記特定のアプリケーションが駆動されると、前記ユーザ端末は、ステップ312において、手書き情報が入力されるか否かを監視する。入力される情報は、テキストの他に、線、シンボル、パターン及びこれらの組合せの形態で入力することができる。前記ユーザ端末は、現在画面の上で、メモにより表示された内容中の一部又は全部を選択する領域を指定する情報の入力を監視してもよい。
前記メモされた内容のうち、一部又は全部が選択されたとき、前記ユーザ端末は、ステップ312において、前記選択された領域内に表示されたメモ内容を処理するためのコマンドに相応する情報の追加入力を連続して監視する。
前記ユーザ端末は、手書き情報の入力が感知されると、ステップ314において、前記感知した入力情報を認識するための動作を行う。例えば、前記一部又は全部が選択された領域内のメモ内容についてのテキスト情報を認識するか、テキストの他にも、線、シンボル、パターン及びこれらの組合わせの形態で入力された情報を認識する。前記入力された情報への認識は、図2に示した認知エンジン210内で行われる。
前記ユーザ端末が前記感知した入力情報を認識すると、前記ユーザ端末は、前記認識したテキスト情報の内容を理解するために、前記認識したテキスト情報に対する自然語処理を行う。前記認識したテキスト情報の自然語処理は、NLIエンジン220内で行われる。
前記ユーザ端末は、入力情報として、ユーザがテキストとシンボルとを混用して入力したと判断する場合、自然語処理と共にシンボルの処理も行う。
前記シンボル処理のためには、ユーザ端末は、ユーザの実際のメモパターンを分析し、前記メモパターンの分析を介して、ユーザが多く用いる代表シンボルを検出する。その後、ユーザ端末は、前記検出した代表シンボルを、ユーザがどのような意図として用いるかを分析し、その分析結果に基づいて当該代表シンボルの意味を決定する。
代表シンボル別に、ユーザが伝達しようとする意味は、データベース化して、向後入力されるシンボルを解釈する時に適用してもよい。例えば、シンボル処理のために、予め整理されたデータベースを活用してもよい。
図5は、本発明の実施形態によるユーザの実際のメモパターンを示している。
図5を参照すると、ユーザは、→、()、_、−、+、?などのシンボルを多く使う。例えば、シンボル→は、敷衍説明又は段落区分などの意味として用いられ、シンボル()は、()内の内容が用語の定義又は記述であることを示す。
図5を参照すると、ユーザは、→、()、_、−、+、?などのシンボルを多く使う。例えば、シンボル→は、敷衍説明又は段落区分などの意味として用いられ、シンボル()は、()内の内容が用語の定義又は記述であることを示す。
同一のシンボルが、異なる意味で解釈されてもよい。例えば、シンボル→は、「時間の流れ」、「因果関係」、「位置」、「属性の関係説明」、「集中化(clustering)のための基準点」、「変更」などのように多様な意味として用いられてもよい。
図6は、本発明の一実施形態により、多様な意味として解釈される一つのシンボルを示している。
図6を参照すると、シンボル→は、時間の流れ、因果関係、位置などの意味で用いられてもよい。
図6を参照すると、シンボル→は、時間の流れ、因果関係、位置などの意味で用いられてもよい。
図7は、本発明の一実施形態により、前記シンボルによって異なる意味として解釈するテキストとシンボルとが結合された入力情報を示している。
図7を参照すると、「ソウル→プサン」というユーザの入力情報は、「ソウルからプサンまで」という意味の他に、「ソウルをプサンに変更」という意味とも解釈されてもよい。複数の意味として解釈できるシンボルの場合には、追加情報又は前後の情報との関係などを考慮して、その意味を解釈しても良い。しかし、このような解釈は、ユーザの意図を正確に把握することができない原因として作用することもある。
図7を参照すると、「ソウル→プサン」というユーザの入力情報は、「ソウルからプサンまで」という意味の他に、「ソウルをプサンに変更」という意味とも解釈されてもよい。複数の意味として解釈できるシンボルの場合には、追加情報又は前後の情報との関係などを考慮して、その意味を解釈しても良い。しかし、このような解釈は、ユーザの意図を正確に把握することができない原因として作用することもある。
前記のような問題を解消するためには、シンボル認識/理解への深みのある研究及び努力が要求される。例としては、人文学分野の記号学(semiotics)において、シンボル認識及び理解関係についての研究が進んでおり、これは、広告、文学、映画、交通信号などで活用されている。記号学は、広い意味でサイン及びシンボルの機能と分析、意味作用と表現、意思疎通と関連した多様な体系を研究する学問の分野である。
サイン及びシンボルは、また工学的なアプローチもなされている。例えば、機械、電気、コンピュータ分野において、フローチャートと設計図のシンボル認識と関連して研究が進んでいる。これは、Sketch(Hand−drawn Diagram)認知などで活用されている。また、化学分野では、複雑な化学構造式のシンボルを認識するための関連の研究が進行されており、これはHand−drawn Chemical Diagram Recognitionなどで活用されている。
図8は、本発明の一実施形態により、記号学におけるサイン及びシンボルの活用を示し、図9は、本発明の一実施形態により、機械、電気、コンピュータ分野及び化学分野において、サイン及びシンボルの活用を示している。
再び図3を参照すると、前記ユーザ端末は、認識の結果の自然語処理により、ユーザが入力した情報による内容を理解した後、ステップ318において、前記認識した内容に基づいて、ユーザが当該情報を入力した意図を把握する。
前記ユーザ端末は、当該情報を入力したユーザの意図を把握すると、ステップ322で、前記ユーザの意図に相応する動作を行うか、前記ユーザの意図に対応する応答を出力する。前記ユーザ端末は、前記ユーザの意図に相応する動作を行った後、その結果をユーザに出力してもよい。
しかし、前記ユーザ端末は、当該情報を入力したユーザの意図を把握できないと、ステップ320において、ユーザとの問答手続きを介してユーザの意図を把握するための追加情報を獲得する。このために、前記ユーザ端末は、ユーザに問うための質問を構成し、前記質問をユーザに提供する。ユーザが、この質問に対する応答により、追加情報を入力するとき、前記ユーザ端末は、前に自然語処理を行って理解した内容に、新たに入力された情報を考慮して、ユーザの意図を再び把握する。
図面には示していないが、前記ユーザ端末は、前記新たに入力された情報の内容を理解するために、ステップ314とステップ316をさらに行ってもよい。
前記ユーザ端末は、ユーザの意図を正確に把握するまで、ステップ320での問答手続き、即ち、ユーザとの対話を介してユーザの意図を把握するために要求される大部分の情報を確保することができる。
前述の問答手続きを経て、ユーザの意図を把握した場合、前記ユーザ端末は、ステップ322で前記ユーザの意図に相応する動作又は応答の結果を、ユーザに出力する。
前記ユーザ端末に備えられたユーザインターフェース装置の構成及びその構成に基づいて、手書きベースのNLIによるユーザインターフェースの方案は、多様なシナリオを仮定してもよい。
図10〜図17は、本発明の一実施形態によるメモ機能をサポートするアプリケーションに基づいた動作シナリオを示している。
具体的に、図10〜図17は、メモ機能をサポートするアプリケーションにおいて、ユーザにより入力されたメモ内容を、他のアプリケーションを呼び出して処理することを示している。
図10は、本発明の一実施形態により、ユーザ端末におけるメモ機能を用いてメモした一部の内容をメール発送するシナリオを示している。
図10を参照すると、ユーザは、メモ機能を活用してユーザ端末の画面に手書きし、前記手書きの内容中の一部を、線、シンボル、閉曲線などを用いて選択する。一例として、前記一部の内容の選択は、手書きした全体内容中の一部領域を、閉曲線を用いて選択することにより、前記閉曲線内に存在する領域内の内容が選択されてもよい。
その後、ユーザは、約束された又は直観的に認知可能なシンボルとテキストとを活用して、前記選択した内容の処理を要請するコマンドを入力する。例えば、図面では、前記選択した領域を指定する矢印と任意の人(キムファキョン先任)を指定するテキストを手書きする。
情報の入力により、ユーザ端末は、選択された領域内のメモ内容を、「キムファキョン先任」に伝送しなさいというユーザの意図を把握する。その後、ユーザ端末は、インストールされたアプリケーションのうち、選択されたメモ内容の伝送が可能な推奨アプリケーションを抽出し、前記抽出した推奨アプリケーションを画面上に表示することにより、ユーザが推奨アプリケーションの選択又は駆動を要請できるようにする。
前記ユーザ端末は、ユーザにより推奨アプリケーションのうちの一つのアプリケーションが選択される時、前記選択されたアプリケーションを起動し、前記アプリケーションを活用して、先に選択したメモ内容を「キムファキョン先任」に伝送する。
前記ユーザ端末は、受信側に関する情報が事前に登録されていないと、ユーザに、「キムファキョン先任」のメールアドレスなどを問い合わせしてもよい。この場合、ユーザ端末は、前記選択したメモ内容を、ユーザからメールアドレスの入力に応答して伝送する。
前記ユーザ端末は、ユーザの意図した通りに処理した後、その結果を画面上に表示することにより、ユーザが自分の意図に適切な処理が行われたかを確認できるようにする。一例として、ユーザ端末は、メール伝送が完了されたことを知らせる内容のメッセージと共に、メールの発送内訳をリストに格納するか否かを問い合わせる。これに応答して、ユーザがメールの発送内訳をリストに格納することを要請する時、前記ユーザ端末は、メールの発送内訳をリストに登録する。
前述のようなシナリオは、ユーザ端末内で、アプリケーション間の移動なしで、会議などを進行する過程で行われた手書きのうち、必要な内容を当事者にメールで伝送した後、相互作用を通じて、メールの発送内訳を格納することができ、生産性の向上に役立つことができる。
図11a及び図11bは、本発明の一実施形態により、ユーザ端末がメモ機能を用いてメモした全体の内容を発送するシナリオを示している。
図11a及び図11bを参照すると、ユーザは、メモ機能を活用してメモ内容を画面に手書きする(Writing memo)。その後、ユーザは、前記手書きした内容のうち、全体を、線、シンボル、閉曲線などを使って選択する(Triggering)。一例として、閉曲線を用いて、メモが行われた全体領域を選択することにより、前記閉曲線の内に存在する全体内容が選択されたと認知できる。
ユーザは、約束された又は直観的に認知可能なテキスト、一例として、「テキスト送り」と手書きすることにより、前記選択した内容についてのテキスト発送を要請する(Writing command)。
ユーザが入力した情報に基づいて、ユーザインターフェースを構成するNLIエンジンは、選択された領域内の内容についてのテキスト発送が、ユーザの意図であることを認知する。その後、前記NLIエンジンは、テキスト発送のための情報が足りないと判断して、ユーザとの問答手続きを介して所望の情報をさらに獲得する。例えば、前記NLIエンジンは、テキストを送る対象が誰かを問合せる質問、即ち「誰に?」という質問をユーザに提供する。
これに対する応答として、ユーザが、メモ機能を用いてテキストを伝達する対象に関する情報を入力する。前記情報は、対象者の名前又は電話番号を直接入力することも可能である。図11bでは、対象者の名前として、「キムファキョン」、「ベジュユン」が入力される。
前記NLIエンジンは、住所録に、入力された名前、「キムファキョン」、「ベジュユン」に対応して登録された電話番号を確認し、前記確認した電話番号を受信対象として、先に選択した内容を本文とするテキストを発送する。前記選択した内容がイメージの場合、ユーザ端末は、前記イメージをテキストにさらに変換して、認知可能な形態に変換する手続きを追加に行ってもよい。
テキストの伝送が完了されると、前記NLIエンジンは、処理結果を知らせる内容、例えば、「テキストの伝送が完了されました。」というメッセージを表示する。これにより、ユーザは、自分の意図に応じて適切な処理が行われたことを確認できるようになる。
図12a及び図12bは、本発明の一実施形態により、ユーザ端末におけるメモ機能を用いてメモした一部の内容の意味を確認するシナリオを示している。
図12a及び図12bを参照すると、ユーザは、メモ機能を活用してユーザ端末の画面に手書きする(Writing memo)。その後、ユーザは、前記内容中の一部を、線、シンボル、閉曲線などを用いて選択する(Triggering)。例えば、ユーザは、閉曲線を用いて、メモが行われた全体領域のうち、一部領域に記載された一つの単語を選択してもよい。
ユーザは、約束された又は直観的に認知可能なシンボル、例えば、「?」と手書きすることにより、前記選択した単語の意味を要請する(Writing command)。
ユーザにより入力された情報に基づいて、ユーザインターフェースを構成するNLIエンジンは、選択した単語内の意味を確認するために、どのような検索エンジンを用いるかを問合せる。このために、前記NLIエンジンは、ユーザとの問答手続きを利用する。例えば、前記NLIエンジンは、画面の上に「Which search engine?」と表示して、ユーザが検索エンジンを選択する情報を入力することを誘導する。
ユーザが、応答としてメモ機能を用いて「wikipedia」を入力した。したがって、前記NLIエンジンは、前記ユーザの入力により検索するエンジンとして、「wikipedia」を用いなさいというユーザの意図を認知する。前記NLIエンジンは、「wikipedia」を用いて、先に選択した「MLS」の意味を確認した後、その結果を表示する。これにより、ユーザは、「MLS」の意味を、画面を介して提供される情報から確認できるようになる。
図13a及び図13bは、本発明の一実施形態により、ユーザ端末において、メモ機能を用いてメモした内容の一部を、他のアプリケーションのための情報として登録するシナリオを示している。
図13a及び図13bを参照すると、ユーザは、メモ機能を活用して中国旅行のために用意する事項を整理する内容を、ユーザ端末の画面に手書きする(Writing memo)。その後、ユーザは、前記手書きした内容中の一部を、線、シンボル、閉曲線などを用いて選択する(Triggering)。例えば、閉曲線を用いてメモが行われた全体領域のうち、「航空券残金決済」という内容がメモされた一部領域を選択する。
ユーザは、約束された又は直観的に認知可能なテキスト、例えば、「やることリストに登録」というテキストを手書きすることにより、前記選択した内容のやることリストとして登録することを要請する(Writing command)。
ユーザが入力した情報に基づいて、ユーザインターフェースを構成するNLIエンジンは、選択された領域の内容に相応する業務の日程管理を要請することが、ユーザの意図であることを認知する。その後、前記NLIエンジンは、日程管理のための情報が足りないと判断して、ユーザとの問答手続きを介して必要な情報をさらに獲得する。例えば、前記NLIエンジンは、日程を問合せる質問、一例として、「完了日を入力してください」という質問をユーザに提供する。
これに対する応答として、ユーザが、メモ機能を用いて当該日程を処理する予定の日付として「5月2日」を入力する。前記NLIエンジンは、前記選択した内容を、5月2日まで処理する業務として記憶する。
ユーザの要請を処理した後、前記NLIエンジンは、その処理結果を知らせる内容、一例として、「セーブされました」というメッセージを表示する。これにより、ユーザは、自分の意図によって適切な処理が行われたことを確認できるようになる。
図14a及び図14bは、本発明の一実施形態により、ユーザ端末におけるメモ機能によりメモした内容を、ロック機能を用いて記憶するシナリオを示す。図14cは、本発明の一実施形態により、ロック機能により記憶されたメモ内容を読み取るシナリオを示している。
図14a及び図14bを参照すると、ユーザは、メモ機能によりユーザ端末の画面の上に、大阪旅行中の経験を写真とメモなどを用いて手書きする(Writing memo)。その後、ユーザは、前記手書きした内容のうち、一部又は全部を、線、シンボル、閉曲線などを用いて選択する(Triggering)。例えば、閉曲線を用いて、メモが行われた全体領域を選択することができる。
ユーザは、約束された又は直観的に認知可能なテキスト、例えば、「ロック」というテキストを手書きすることにより、前記選択した内容を、ロック機能により登録することを要請する(Writing command)。
ユーザが入力した情報に基づいて、ユーザインターフェースを構成するNLIエンジンは、メモされた内容を、ロック機能を活用して記憶することが、ユーザの意図であることを認知する。その後、前記NLIエンジンは、ロック機能を設定するための追加情報が必要であると判断して、ユーザとの問答手続きを介して、必要な情報をさらに獲得する。例えば、前記NLIエンジンは、ロック機能を設定するために、暗証番号を問合せる質問、一例として、「暗証番号を入力してください」というメッセージを画面に表示する。
これに対する応答として、ユーザが、メモ機能を用いてロック機能を設定するための暗証番号として「3295」を入力する。これにより、前記NLIエンジンは、前記選択した内容を、暗証番号「3295」を使って記憶する。
当該メモ内容を、ロック機能を用いて記憶した後、前記NLIエンジンは、その処理結果を知らせる内容、一例として、「セーブされました」というメッセージを表示する。これにより、ユーザは、自分の意図に応じて適切な処理が行われたことを確認できるようになる。
図14cを参照すると、ユーザは、ロック機能により記憶されたメモのうち、所望のメモを選択する(Selecting memo)。前記ユーザにより特定のメモが選択される時、NLIエンジンは、前記選択されたメモを提供するためには、暗証番号が必要であることを認知した後、問答手続きを進行して、ユーザによる当該暗証番号の入力を誘導する(Writing Password)。例えば、前記NLIエンジンは、ユーザが暗証番号を入力できるメモウィンドウを表示する。
前記NLIエンジンは、ユーザが正確な暗証番号が入力するとき、前記選択されたメモを画面の上に表示する。
図15は、本発明の一実施形態により、ユーザ端末におけるメモ機能を用いてメモした一部の内容により特定の機能を実行するシナリオを示している。
図15を参照すると、ユーザは、メモ機能によりユーザ端末の画面にメモ内容を手書きする(Writing memo)。その後、ユーザは、前記手書きした内容のうち一部を、線、シンボル、閉曲線などを用いて選択する(Triggering)。一例として、閉曲線を用いて、メモが行われた全体領域のうち、電話番号、即ち、「010−9530−0163」がメモされた一部領域を選択する。
ユーザは、約束された又は直観的に認知可能なテキスト、一例として、「通話」と手書きすることにより、前記電話番号で電話通話を要請する(Writing command)。
ユーザにより入力された情報に基づいて、ユーザインターフェースを構成するNLIエンジンは、前記選択された電話番号を自然語に翻訳して認知し、前記電話番号「010−9530−0163」への電話通話をトライする。
図16a及び図16bは、本発明の一実施形態により、ユーザ端末におけるメモ機能を用いてメモした一部の内容を隠すシナリオを示している。
図16a及び図16bを参照すると、ユーザは、メモ機能を活用して、自分が利用するウェブページ別のIDと暗証番号とを、ユーザ端末の画面に手書きする(Writing memo)。その後、ユーザは、前記内容のうち一部又は全部を、線、シンボル、閉曲線などを用いて選択する(Triggering)。一例として、ユーザは、閉曲線を用いて、メモが行われた全体領域において、一部のメモ、即ち、暗証番号に相応するメモ「wnse3281」を選択する。
ユーザは、約束された又は直観的に認知可能なテキスト、例えば、「hide」というテキストを手書きすることにより、前記選択した内容の隠しを要請する(Writing command)。
ユーザが入力した情報に基づいて、ユーザインターフェースを構成するNLIエンジンは、選択したメモ内容を隠すのが、ユーザの意図であることを認知する。前記NLIエンジンは、隠し機能を利用するために、追加情報が必要であると判断して、ユーザとの問答手続きを介して必要な情報をさらに獲得する。前記NLIエンジンは、隠し機能を設定するために、暗証番号を問合せる質問、一例として、「Enter the password」というメッセージを画面に出力する。
これに対する応答として、ユーザがメモ機能を用いて、隠し機能を設定するための暗証番号として「3295」を手書きする時、前記NLIエンジンは、「3295」を自然語に翻訳して認知した後、「3295」を記憶する。その後、前記NLIエンジンは、前記選択されたメモ内容を隠すことにより、前記暗証番号が画面上に表示されないようにする。
図17は、本発明の一実施形態により、ユーザ端末におけるメモ機能を用いてメモした一部の内容を翻訳するシナリオを示している。
図17を参照すると、ユーザは、メモ機能を活用してユーザ端末の画面に、メモを手書きする(Writing memo)。その後、ユーザは、前記メモ内容のうち一部を、線、シンボル、閉曲線などを用いて選択する(Triggering)。一例として、ユーザは、アンダーラインを用いて、メモが行われた全体領域のうち、「明日午前11時まで要請文書受け」という文章を選択する。
ユーザは、約束された又は直観的に認知可能なテキスト、一例として、「翻訳」と手書きすることにより、前記選択した文章の翻訳を要請する(Writing command)。
ユーザにより入力された情報に基づいて、ユーザインターフェースを構成するNLIエンジンは、前記選択された文章の翻訳を要請する。その後、前記NLIエンジンは、ユーザとの問答手続きを用いて、翻訳する言語を指定することを要請する質問を画面に表示する。例えば、前記NLIエンジンは、画面の上にメッセージ「Which Language?」を表示して、ユーザが翻訳する言語を入力できるように誘導する。
これに対する応答として、ユーザがメモ機能を用いて「イタリア語」とメモする際、前記NLIエンジンは、前記ユーザの意図した言語が「イタリア語」であることを認知する。その後、前記NLIエンジンは、前記認知されたメモ内容、即ち、「明日午前11時まで要請文書受け」という文章をイタリア語に翻訳して出力する。これにより、ユーザは、自分が要請した文章のイタリア語翻訳文を、画面を介して読み取れる。
図18は、本発明の一実施形態によるユーザ端末におけるメモ機能を用いて、駆動アプリケーションを制御する構成を示している。図18に示している構成は、ユーザ端末において実行中の特定のアプリケーションの画面の上に、メモ階層をオーバーラップして表示し、前記表示されたメモ階層に手書きされる内容からユーザの意図を把握して、ユーザ端末でユーザの意図に応じて、前記実行されたアプリケーションの動作を制御する。前記実行された特定のアプリケーションは、「下位階層アプリケーション」と称する。また、前記下位階層アプリケーションの実行による画面の上に、メモ階層をオーバーラップして表示するためには、メモ機能をサポートするアプリケーションが追加に実行されることを暗示する。
図18を参照すると、下位階層アプリケーション駆動エンジン1810は、ユーザにより要請された特定のアプリケーション、即ち、下位階層アプリケーションを実行させ、前記ユーザの意図を認知して、前記実行された下位階層アプリケーションを制御する全般的な動作を行う。
特に、ユーザがメモ階層を呼び出した後、前記メモ階層にメモ内容を手書きして、動作コマンドを発する時、下位階層アプリケーション駆動エンジン1810は、前記動作コマンドに応じて前記実行された下位階層アプリケーションの動作を制御する。
このために、下位階層アプリケーション駆動エンジン1810は、前記下位階層アプリケーションの機能メニューを考慮して、現時点で前記実行された下位階層アプリケーションの動作を制御するために要求される情報を指示するために、特定の情報をメモ階層アプリケーション駆動エンジン1820に提供することができる。前記特定の情報は、前記下位階層アプリケーションの種類、前記下位階層アプリケーションに基づいて、現在実行中の機能メニューのうちの少なくとも一つを含む。
この場合、下位階層アプリケーション駆動エンジン1810は、現在実行中の下位階層アプリケーションの動作を制御するために、より正確な情報を受信することができる。
メモ階層アプリケーション駆動エンジン1820は、メモ機能をサポートするアプリケーションの実行を要請するために、事前に約束された形式による入力が、ユーザにより行われるかを持続的に監視する。例えば、前記事前に約束された形式は、前記下位階層アプリケーションの実行画面の上で、タッチドラッグされてもよい。前記タッチドラッグは、画面の左側から右側方向又はその反対方向に行われるか、画面の下側から上側方向又はその反対方向に行われてもよい。前記タッチドラッグのためには、認識が可能なツールのいずれも用いてもよい。前記ツールは、指又は電子ペンなどであってもよい。
メモ階層アプリケーション駆動エンジン1820は、ユーザからメモ機能をサポートするアプリケーションの実行が要請される時、ユーザによるメモが可能なメモ階層を呼び出す。前記呼び出されたメモ階層は、前記下位階層アプリケーションの実行画面とオーバーラップする。
前記メモ階層は、前記下位階層アプリケーションの実行画面が映りかねないように、前記下位階層アプリケーションの実行画面の上にオーバーラップするのが好ましい。画面の上で、前記メモ階層がオーバーラップされる領域は、ユーザの要求に応じて設定される。例えば、メモ階層は、設定により画面の全体にオーバーラップされても、画面の一部にのみオーバーラップされてもよい。また、画面の一部にオーバーラップされるようにメモ階層が表示された後、ユーザがメモ階層の外郭線又は頂点を選択してドラッグすることにより、前記メモ階層のサイズを変更してもよい。
前述のように、メモ階層アプリケーション駆動エンジン1820は、下位階層アプリケーションが実行されているうちに、ユーザの要請により、メモが可能なメモ階層を、画面に表示するための全般的な動作を制御する。
下位階層アプリケーション駆動エンジン1810が、前記下位階層アプリケーションの制御のために必要な情報を示す時、メモ階層アプリケーション駆動エンジン1820は、「ユーザによる入力が要求される情報をガイドするメッセージ」をさらに表示する。一例として、現在音楽再生アプリケーションが、下位階層アプリケーションとして実行されているとき、メモ階層に「歌のタイトルを書いてください」又は「アーティストを書いてください」というメッセージが表示される。
メモ階層アプリケーション駆動エンジン1820は、メモ階層を画面の上に表示した後、ユーザにより手書きされた内容に基づいて、前記ユーザの意図を認知する。その後、メモ階層アプリケーション駆動エンジン1820は、前記ユーザの意図により、下位階層アプリケーションが駆動できるように、関連の制御情報を下位階層アプリケーション駆動エンジン1810に提供する。
メモ階層アプリケーション駆動エンジン1820は、手書きメモ内容の入力が完了されたことを認知するために、前記表示されたメニュー階層に、入力メニューボタンを追加に表示してもよい。この場合、メモ階層アプリケーション駆動エンジン1820は、ユーザが前記入力メニューボタンを押し付ける際、前記メモ階層に手書きされた内容に基づいて、前記ユーザの意図を認知するための動作を開始する。
前記手書きした内容に基づいたユーザの意図を確認し、この認知されたユーザの意図に応じて、当該アプリケーションの動作を制御することは、前述した。したがって、この具体的な説明は、前記ユーザの意図認識及び動作制御と同様に適用できる。そして、ユーザの意図認識及び動作制御の繰返し説明は省略する。
図19は、本発明の一実施形態によるユーザ端末におけるメモ階層を呼び出して、下位階層アプリケーションを制御するための制御動作を示している。
図19を参照すると、ユーザ端末は、ユーザの要請により、特定のアプリケーション、即ち、下位階層アプリケーションを駆動する(ステップ1910)。前記ユーザ端末は、前記下位階層アプリケーションが駆動された後、前記駆動された下位階層アプリケーションについての全般的な動作を制御する。前記ユーザ端末は、前記下位階層アプリケーションの動作状況を画面に表示して、前記下位階層アプリケーションの動作状態を確認できるようにする。
前記ユーザ端末は、下位階層アプリケーションが実行されている状況において、ユーザがメモ階層を呼び出したかを持続的に監視する(ステップ1912)。例えば、前記ユーザ端末は、ユーザが下位階層アプリケーションの実行画面をタッチドラッグするとき、メモ階層を呼び出す。前記タッチドラッグは、画面の左側から右側方向又はその反対方向に行われてもよく、画面の下側から上側方向又はその反対方向に行われてもよい。前記タッチドラッグのためには、認識が可能なツールのいずれも用いてもよい。前記ツールは、主にユーザの指又は電子ペンであってもよい。
図20a〜図20cは、本発明の一実施形態によるユーザ端末におけるメモ階層を呼び出すための動作を示している。
図20aを参照すると、例えば、ユーザが、音楽再生アプリケーションにおいて、再生目録をサポートする機能メニューが活性化された画面をタッチし、ユーザが画面の左側から右側にタッチドラッグするとき(図20aを参照)、メニュー階層は呼び出される。
その他に、ユーザが、電子ペンに備えられた機能ボタンを押したままに(図20cを参照)、音楽再生アプリケーションにおいて、再生目録をサポートする機能メニューが活性化された画面の設定された範囲内にアクセスするとき(ホバリング機能)、メニュー階層が呼び出されてもよい。
図19を参照すると、前記ユーザ端末は、ユーザの要請により呼び出されたメモ階層を、前記下位階層アプリケーションの実行画面の上に表示する(ステップ1914)。前記ユーザ端末は、画面に表示されるメモ階層に「ユーザによる入力が要求される情報をガイドするメッセージ」をさらに表示し得る。
例えば、図20bを参照すると、例えば、呼び出されたメニュー階層は、音楽再生アプリケーションにおいて再生目録をサポートする機能メニューが活性化された画面が映りかねないように、画面にオーバーラップされる。図20bでは、前記メモ階層に「歌のタイトルを書いてください!」というメッセージが表示される。
図面には示していないが、前記ユーザ端末は、メモ階層がオーバーラップされる領域を、ユーザの要求に応じて設定してもよい。例えば、前記メモ階層は、画面の全体にオーバーラップされても、画面の一部にのみオーバーラップされてもよい。前記メモ階層のサイズは、前記画面の一部に表示されたメモ階層の外郭線又は頂点を選択してドラッグすることにより、変更されてもよい。
前記ユーザ端末は、前記表示されたメモ階層に、ユーザが手書きによるメモを完了したかを監視する(ステップ1916)。一例として、メモ階層に「入力メニューボタン」がさらに表示されて、前記ボタンが押されるかによって、ユーザがメモ完了の可否を判断してもよい。
図20bを参照すると、検索機能を示すアイコンは、入力メニューボタンとして、メモ階層を表示した画面の右側の下段に表示される。
しかし、前記入力メニューボタンは、検索機能を示すアイコンのみに限定されず、メモ階層に入力される情報によって、変わることは自明である。
図21a〜図21dは、本発明の一実施形態によるユーザ端末における画面の上に表示されたメモ階層上のユーザ手書きメモを示している。
図21aを参照すると、「アプリケーション名を書いてください」というタイトルと、前記アプリケーション名に関連した実行を示すメニュー実行ボタンとを含むメモ階層が表示される。ユーザが前記表示されたメモ階層に「日程」と手書きする。ユーザが、メモ階層に表示されたアプリケーションの実行要請に該当するメニュー実行ボタンを押すとき、ユーザ端末は、日程を処理するスケジューリングサービスを提供するアプリケーションを実行する。
図21bを参照すると、「歌を書いてください!」というタイトルと、前記タイトルに関連した実行を示すメニュー実行ボタンとを含むメモ階層が表示される。ユーザが、前記表示されたメモ階層に「一人で」と手書きする。ユーザが、メモ階層に表示された音楽再生要請に該当するメニュー実行ボタンを押す際に、ユーザ端末は、「一人で」という音楽を検索して再生する。
図21cを参照すると、「アーティストを書いてください!」というタイトルと、前記タイトルに関連した実行を示すメニュー実行ボタンとを含むメモ階層が表示される。ユーザが、前記表示されたメモ階層に「キムボムス」と手書きする。ユーザがメモ階層に表示された検索要請に該当するメニュー実行ボタンを押す際に、ユーザ端末は、「キムボムス」が歌った音楽又はアルバムを検索し、その検索結果を表示する。
図21dを参照すると、「電話の相手を書いてください」というタイトルと、前記タイトルに関連した実行を示すメニュー実行ボタンとを含むメモ階層が表示される。ユーザが前記表示されたメモ階層に「キムハヨン」と手書きする。ユーザがメモ階層に表示された電話かけの要請に該当するメニュー実行ボタンを押す際に、ユーザ端末は、下位階層アプリケーションとして実行中のコンタクトリストに、「キムハヨン」に対応して記録された電話番号への電話連結をトライする。
前記ユーザ端末は、メモの完了を感知すると、前記ユーザが画面に表示されたメモ階層に手書きした内容に基づいて、ユーザの意図を把握する(ステップ1918)。その後、前記ユーザ端末は、現在実行中の下位階層アプリケーションの動作を、前記把握したユーザの意図に応じて制御する(ステップ1920)。
前述の説明では、下位階層アプリケーションの駆動による画面が表示された状況を前提にした。しかし、ユーザ端末が、どのようなアプリケーションも実行されていない初期画面でも、ユーザの要求に応じてメニュー階層を表示し、前記表示されたメニュー階層を介してユーザの手書きにより入力される情報に基づいて、ユーザの意図による動作を行うことも可能である。
図22は、本発明の一実施形態によるユーザ端末におけるメモ階層を用いて、現在実行中の特定のアプリケーションを制御する例を示している。
図22を参照すると、ユーザ端末は、下位階層アプリケーションとして音楽再生アプリケーションが実行されている状況で、メモ階層の呼び出しが、ユーザにより行われるかを監視する(図22aを参照)。前記ユーザ端末は、ユーザによりメモ階層が呼び出される時、タイトルと入力メニューボタンとがセットされたメニュー階層を画面に活性化する。例えば、タイトルと入力メニューボタンとがセットされたメニュー階層は、音楽再生アプリケーションの実行画面の上に表示される(図22の(b)を参照)。図22の(b)では、メモ階層のタイトルが、「歌を書いてください!」と表示される。
前記ユーザ端末は、ユーザが所望の内容(例えば、「一人で」)を手書きし、表示された入力メニューボタンを押しているかを監視する。前記ユーザ端末は、ユーザにより入力表示ボタンが押されることを感知する際、ユーザが手書きした内容が「一人で」ということを認知した後、前記認知した「一人で」というテキストを、現在実行中の音楽再生アプリケーションに提供する(図22の(d)を参照)。
前記音楽再生アプリケーションは、提供された「一人で」というタイトルを有する歌を検索し、前記検索により確認された歌を再生する。検索範囲は、ユーザの設定により指定されてもよい。例えば、ユーザ端末に格納された歌を検索対象と設定しても、音楽サービスを提供するウェブサイトを検索対象と設定してもよい。前記ウェブサイトを検索対象と設定するためには、当該ウェブサイトにアクセスするための認証に必要な情報などが、ユーザ端末により管理されるか、ユーザにより入力される必要がある。
複数の検索結果が「一人で」とマッチする場合、前記検索結果に該当する複数の歌を順次的に再生するか、ユーザが再生する歌を選択できるようにする。例えば、検索結果がリストの形式で画面に表示されるようにして、ユーザが前記リストから再生する歌を選択するようにするのが好ましい。図23〜図28は、特定のアプリケーションが駆動された後に、メモ機能をサポートする他のアプリケーションが起動され、この起動されたアプリケーションにより、前記駆動されたアプリケーションが実行されるシナリオを示している。
図23は、本発明の一実施形態により、ユーザ端末の初期画面の上で、メモ階層を実行し、特定のアプリケーションをメモ階層で実行するシナリオを示している。
図23を参照すると、ユーザ端末は、初期画面においてメモアプリケーションを実行させて、初期画面の上にメモ階層を起動し、アプリケーションの識別情報(例えば、アプリケーション名称)「チャットオン」を受信すると、当該アプリケーションが実行される。
図23を参照すると、ユーザ端末は、初期画面においてメモアプリケーションを実行させて、初期画面の上にメモ階層を起動し、アプリケーションの識別情報(例えば、アプリケーション名称)「チャットオン」を受信すると、当該アプリケーションが実行される。
図24は、本発明の一実施形態により、ユーザ端末におけるメモ機能を用いて、特定のアプリケーションにおける特定の動作を制御するシナリオを示している。
図24を参照すると、メモ階層は、音楽再生アプリケーションが実行された画面の上で、メモアプリケーションを実行することにより起動される。その後、ユーザが、聴取を望む音楽のタイトル「ヨスの夜海」を記載する際、ユーザ端末は、駆動中のアプリケーションで「ヨスの夜海」に該当する音源を再生する。
図24を参照すると、メモ階層は、音楽再生アプリケーションが実行された画面の上で、メモアプリケーションを実行することにより起動される。その後、ユーザが、聴取を望む音楽のタイトル「ヨスの夜海」を記載する際、ユーザ端末は、駆動中のアプリケーションで「ヨスの夜海」に該当する音源を再生する。
図25は、本発明の一実施形態により、ユーザ端末におけるメモ機能を用いて駆動中の特定のアプリケーションを制御するシナリオを示している。
図25を参照すると、ユーザが動画を視聴する中に、メモ階層を起動して移動する時間、即ち「40:22」と記載すると、ユーザ端末は、駆動中の動画を再生時点40分22秒の時点に移動する。このような機能は、動画の再生時の他にも、音楽を聴取する中にも、同様に適用してもよい。
図25を参照すると、ユーザが動画を視聴する中に、メモ階層を起動して移動する時間、即ち「40:22」と記載すると、ユーザ端末は、駆動中の動画を再生時点40分22秒の時点に移動する。このような機能は、動画の再生時の他にも、音楽を聴取する中にも、同様に適用してもよい。
ユーザが、eブックリーダーアプリケーションの実行中に、メモ階層を起動し、移動するページを、例えば、「105」とメモする際、ユーザ端末は、当該読んでいた本の105ページへ移動する。
図26は、本発明の一実施形態により、ユーザ端末においてウェブブラウザーが実行されている中に、メモ機能を用いた検索を試みるシナリオを示している。
図26を参照すると、ウェブブラウザーを用いて特定のウェブページを読んでいる中に、ユーザが、画面に表示された内容のうち、一部を選択し、メモ階層を起動して「検索」という単語をメモすることで、前記選択した内容についての検索をコマンドする。前記NLIエンジンは、ユーザの意図を認知し、選択した内容を自然語処理を介して理解する。その後、前記NLIエンジンは、前記選択した内容を、設定された検索エンジンにより検索し、検索された結果を画面に表示する。
図26を参照すると、ウェブブラウザーを用いて特定のウェブページを読んでいる中に、ユーザが、画面に表示された内容のうち、一部を選択し、メモ階層を起動して「検索」という単語をメモすることで、前記選択した内容についての検索をコマンドする。前記NLIエンジンは、ユーザの意図を認知し、選択した内容を自然語処理を介して理解する。その後、前記NLIエンジンは、前記選択した内容を、設定された検索エンジンにより検索し、検索された結果を画面に表示する。
前述のように、ユーザ端末では、特定のアプリケーションを提供する画面の上で、選択とメモ機能による情報の入力を共に考慮して処理するシナリオの実現も可能である。
図27は、本発明の一実施形態により、地図アプリケーションにおいて、メモ機能を用いて意図した情報を獲得するシナリオを示している。
図27を参照すると、ユーザは、地図アプリケーションの画面で、メモ機能を用いて閉曲線により特定の領域を選択し、検索する情報、一例として、「名所?」とメモすることにより、前記選択した領域内での名所を検索するコマンドする。
図27を参照すると、ユーザは、地図アプリケーションの画面で、メモ機能を用いて閉曲線により特定の領域を選択し、検索する情報、一例として、「名所?」とメモすることにより、前記選択した領域内での名所を検索するコマンドする。
このようなユーザの意図を認知した、ユーザ端末のNLIエンジンは、自分が保有したデータベース又はサーバのデータベースに基づいて、有用な情報を探し、このように探した情報を、現在の画面に表示された地図の上に追加に表示する。
図28は、本発明の一実施形態により、スケジュール管理アプリケーションが駆動された状態で、メモ機能を用いて意図の情報を入力するシナリオを示している。
図28を参照すると、スケジュール管理アプリケーションが駆動される間、ユーザは、メモ機能を実行し、画面の上でオフラインで直観的に行われる形態で手書きを行う。例えば、ユーザが、スケジュール管理のための画面で、閉曲線などを用いて特定の日付を選択し、前記選択した日付のスケジュールを入力する。例えば、前記ユーザが、2012年8月14日を選択し、選択した日付にTFワークショップがあることをメモする。その後、ユーザ端末のNLIエンジンは、追加情報として時間を入力することを要請する。例えば、前記NLIエンジンは、画面に「Time?」という質問を表示することにより、ユーザがメモ機能を活用して正確な時間、一例として、「3:00PM」をメモするように誘導する。
図29と図30は、本発明の実施形態により記号学と関連付いたシナリオの例を示している。
図29を参照すると、図29は、メモ機能により進行される問答手続きの流れに基づいて、手書きシンボルの意味を解釈する例を示している。例えば、「イタリア出張」というメモと、「インチョン→ロマ」というメモの両方が手書きされている場合を仮定し得る。この場合、前記シンボル→は、地域間の移動を意味すると解釈してもよいので、ユーザ端末のNLIエンジンは、ユーザに日程を問合せる質問、一例として、「When?」という質問を出力する。
図29を参照すると、図29は、メモ機能により進行される問答手続きの流れに基づいて、手書きシンボルの意味を解釈する例を示している。例えば、「イタリア出張」というメモと、「インチョン→ロマ」というメモの両方が手書きされている場合を仮定し得る。この場合、前記シンボル→は、地域間の移動を意味すると解釈してもよいので、ユーザ端末のNLIエンジンは、ユーザに日程を問合せる質問、一例として、「When?」という質問を出力する。
さらには、前記NLIエンジンは、ユーザによりメモされた日付、即ち、4月5日にインチョンからロマへ移動するために利用できる飛行機偏に関する情報を検索し、その結果をユーザに提供することができる。
図30を参照すると、図30は、メモ機能により入力されるシンボルの意味を、駆動中のアプリケーションと連動して解釈する例を示している。
例えば、地下鉄アプリケーションが駆動されている画面において、シンボル、即ち、矢印を用いて、ユーザが出発地と目的地とを直観的に選択する際、ユーザ端末は、現在駆動中のアプリケーションが、二つの起点間を移動するための列車の到着時間及び所要時間に関する情報を提供することができる。
例えば、地下鉄アプリケーションが駆動されている画面において、シンボル、即ち、矢印を用いて、ユーザが出発地と目的地とを直観的に選択する際、ユーザ端末は、現在駆動中のアプリケーションが、二つの起点間を移動するための列車の到着時間及び所要時間に関する情報を提供することができる。
図31は、本発明の他の実施形態によるユーザ端末におけるメモ階層を呼び出して、下位階層アプリケーションを制御するための制御動作を示している。
図31を参照すると、ユーザが下位階層アプリケーションを始めると(ステップ3110)、制御部は、前記下位階層アプリケーションが、メモ階層に表示される情報を、前記メモ階層へ送ったかをチェックする。前記メモ階層は、別途のアプリケーションとなってもよい。前記メモ階層は、ウィンドウの形態でタッチパネルの上に表示されてもよい。以下の詳細な説明において、メモウィンドウとは、メモ階層と同様に使われる。
制御部は、下位階層アプリケーションが実行されている間に、予め定められたジェスチャーが、タッチパネルの上に生成されるかをチェックする。制御部は、電子装置の全般的な動作を制御することができる。図1において、アプリケーション実行部110と、コマンド処理部120とが制御部に該当することができる。予め定められたジェスチャーは、ユーザの指又は電子ペンを用いてタッチパネルの上で、タッチドラッグされてもよい。また、予め定められたジェスチャーは、ユーザがタッチパネルの上に、指又は電子ペンを用いて特定の模様やパターンを表示する動作であってもよい。制御部は、下位階層アプリケーションが実行されているうちに、予め定められたジェスチャーが感知されると、メモ階層を呼び出すことができる。
制御部は、下位階層アプリケーションが実行されているうちに、タッチパネル上の特定の領域にタッチが発生すると、メモ階層を呼び出すことができる。メモ階層は、別途のアプリケーションにより駆動されてもよい。また、メモ階層は、下位階層アプリケーションに含まれるソフトウェアモジュールとなってもよい。
メモ階層には、ユーザ入力を要請する情報が表示されてもよい。メモ階層に表示される情報は、下位階層アプリケーションからメモ階層に伝達されることができる(ステップ3120)。
メモ階層が呼び出されると、下位階層アプリケーションから伝達された情報が、メモ階層に表示されてもよい(ステップ3140)。メモ階層は、メモ階層の名称を表示するタイトル領域を含んでもよい。メモ階層は、ユーザが手書きを入力できる領域を含んでもよい。メモ階層は、ユーザが操作できるボタンを含んでもよい。ユーザがメモ階層に手書きメモを入力すると(ステップ3150)、制御部は、前記メモの手書きイメージを認識し(ステップ3160)、認識された手書きイメージに相応するテキストを、下位階層アプリケーションへ伝達することができる(ステップ3170)。下位階層アプリケーションは、伝達されたテキストを、下位階層アプリケーションで管理しているコマンドと比較する。下位階層アプリケーションは、メモウィンドウから伝達されたテキストが、下位階層アプリケーションで管理するコマンドと同一であるか、又は一部が一致すると、当該コマンドと関連付いた動作を行うことができる(ステップ3180)。
図32a〜図32cは、本発明の一実施形態により、下位階層アプリケーションが実行されている状態で、メモ階層を実行する動作を示している。前記メモ階層は、前記アプリケーションが表示される階層の上に表示される別途の階層となってもよい。メモ階層は、メモウィンドウとなってもよく、以下の詳細な説明では、「メモウィンドウ」と称する。
以下の詳細な説明から、タッチ入力とは、タッチパネルの上に表示されたグラフィックオブジェクトをタッチすることをいい、手書き入力とは、ユーザが電子ペン又は指で文字を書くことを意味する。
図32aを参照すると、電子装置において、実行中のアプリケーションがタッチパネルの上に表示される。制御部は、アプリケーションが実行されると、実行されたアプリケーションに関する情報を示すグラフィックオブジェクト及びアプリケーションの機能を制御するためのメニューアイテムを、タッチパネルの上に表示することができる。前記メニューアイテムは、ボタン状で表示されてもよい。ユーザは、前記メニューアイテムをタッチして、アプリケーションの機能を行ってもよい。制御部は、メニューアイテムの上にタッチが感知されると、前記メニューアイテムに対応するアプリケーションの機能を制御することができる。
例えば、住所録アプリケーションが実行されると、住所録アプリケーションと関連付いたグラフィックオブジェクトと、住所録アプリケーションの機能を制御するためのメニューアイテム3216、3218、3220、3222、3224、3226が、タッチパネルの上に表示される。住所録アプリケーションは、第1メニュー領域、検索ウィンドウ3208、住所録アイテム3210、3212、3214、及び第2メニュー領域から構成されている。第1メニュー領域は、4個のメニューアイテム3202、3203、3204、3206を含んでもよい。メニューアイテム3202、3203、3204、3206は、それぞれ前記メニューアイテムを示すアイコンと、メニュー名を含む。例えば、メニューアイテム3202は、受話器のアイコンと、Call logテキストとを含む。メニューアイテム3203は、人のアイコンと、Contactテキストとを含む。ユーザが、メニューアイテム3202、3203、3204、3206のうちの一つをタッチすると、タッチされたメニューアイテムの色相が変更されてもよい。メニューアイテムが選択されるによって、住所録アイテムを構成するコンテンツが変更されてもよい。例えば、住所録アイテム3210、3212、3214が変更されてもよい。第2メニュー領域には、メニューアイテム3216、3218、3220、3222、3224、3226が表示されてもよい。制御部は、メニューアイテム3216、3218、3220、3222、3224、3226のうちの一つの上にタッチが感知されると、タッチされたメニューアイテムに対応するアプリケーションの機能を制御することができる。
例えば、メニューアイテム3216には、ゴミ箱アイコンとコマンド「Delete」とが表示されてもよい。メニューアイテム3216、3218、3220、3222、3224、3226のうちの一つを選択すると、選択されたメニューアイテムに対応するコマンドが、住所録アイテム3210、3212、3214に対して実行されてもよい。メニューアイテム3216が選択されると、住所録アイテム3210、3212、3214は、他の住所録と同期化されてもよい。メニューアイテム3224が選択されると、住所録アイテム3210、3212、3214から選択された住所録アイテムが、他の住所録に含まれている同一人物に関する情報と併合されてもよい。
第2メニュー領域は、住所録アイテム3210、3212、3214の上に表示されてもよい。6個の住所録アイテムが、最初にタッチパネルの上に表示される。第2メニュー領域がタッチパネルの上に表示されるによって、6個のメニューアイテムのうちの3個の住所録アイテム3210、3212、3214が、タッチパネルの上に表示されるが、残りの住所録アイテム(図示せず)は、第2メニュー領域により隠されるようになる。
図32bを参照すると、タッチパネルの上に第1メニューアイテム3252、3254、3256、3258が表示される。タッチパネルの上に、住所録領域3230がさらに表示されてもよい。住所録領域3230は、複数の住所録アイテムを含んでもよい。前記住所録アイテムは、コマンドの対象となり得る。例えば、住所録アイテムは、コマンドが実行されるとき、データとして用いられてもよい。ユーザが住所録アイテム3238、3240、3242、3244、3246、3248のうちの一つをタッチすると、タッチされた住所録アイテムが選択され、他の住所録アイテムと視覚的に区別される。例えば、ユーザが、住所録アイテム3238をタッチすると、住所録アイテム3238は、他の住所録アイテム3240、3242、3244、3246、3248と視覚的に区別できるように異なる色相で表示されてもよい。メモウィンドウ3231は、半透明に表示されてもよい。メモウィンドウ3231が、下位階層アプリケーションの住所録アプリケーションの上にオーバーラップされてもよく、住所録アイテム3240、3242、3244、3246、3248が、メモウィンドウ3231の下に見られることができる。住所録アプリケーションの実行中に、ユーザがタッチパネルで予め定められたジェスチャーを入力すると、制御部は、前記タッチパネルで予め定められたジェスチャーを検出し、検出されたジェスチャーに応答して、前記住所録アプリケーションとオーバーラップしてメモウィンドウ3231を表示する。メモウィンドウ3231は、手書き入力領域と、手書き入力が不可能な領域とに分けられる。前記住所録アプリケーションは、タッチパネルの上に表示され、メモウィンドウは、前記住所録アプリケーションの上に表示されるので、前記住所録アプリケーションは、下位階層アプリケーションと称される。
前記予め定められたジェスチャーは、タッチパネルの特定の領域をタッチする動作となり得る。さらに、前記予め定められたジェスチャーは、タッチパネルの上をドラッグする動作となってもよい。また、前記予め定められたジェスチャーは、タッチパネルの上に、電子ペンを用いて予め定められた模様を描く動作となってもよい。電子ペンは、スタイラスペンであってもよい。さらに、前記予め定められたジェスチャーは、スタイラスペンを用いてタッチパネルをスイープ(swipe)する動作となってもよい。
前述のように、メモウィンドウ3231は、手書き入力が不可能な領域を含んでもよい。前記手書き入力が不可能な領域には、下位階層アプリケーションから提供されたテキスト及びイメージが表示されてもよい。前記手書き入力が不可能な領域は、タイトル領域3232となってもよい。また、前記手書き入力が不可能な領域は、ユーザが操作できるボタン3236を含んでもよい。ボタン3236は、下位階層アプリケーションから提供されたイメージとなってもよい。
メモウィンドウ3231は、ユーザにより手書きの入力を受ける手書き入力領域3233を含んでもよい。
タイトル領域3232には、メモウィンドウ3231の名称が表示されてもよい。メモウィンドウ3231の名称は、下位階層アプリケーションから受信されてもよい。例えば、制御部は、下位階層アプリケーションからタイトル領域3232に表示される名称の伝達を受けて、メモウィンドウ3231のタイトル領域3232にその名称を表示することができる。タイトル領域3232では、タッチ入力が無視されてもよい。制御部は、住所録アイテム3238、3240、3242、3244、3246、3248が表示された状態では、タッチを感知することができる。制御部は、メモウィンドウ3231が表示されると、タイトル領域3231から検出されるタッチ入力を無視してもよい。制御部は、メモウィンドウ3231が活性化されると、メモウィンドウ3231の手書き入力領域3233を通じてのみ、下位階層アプリケーションを制御するコマンドを実行することができる。また、制御部は、メモウィンドウ3231が活性化されると、下位階層アプリケーションを制御するための第1メニューアイテム3252、3254、3256、3258から生成されるタッチ入力を無視してもよい。
例えば、メモウィンドウ3231のタイトル領域3232に、「Memo Layer」が表示されてもよい。
「Memo Layer」テキストは、下位階層アプリケーションに該当する住所録アプリケーションから受信されてもよい。
「Memo Layer」テキストは、下位階層アプリケーションに該当する住所録アプリケーションから受信されてもよい。
手書き入力領域3233は、ユーザから手書き入力を受けることができる。手書き入力は、タッチパネルの上で発生される連続的なタッチの動きとなってもよい。手書き入力は、ユーザがスタイラスペン又は指を用いて、タッチパネルの上に文字を入力する動作により生成されてもよい。
ユーザが手書き入力領域3233にメモを手書きをすると、制御部は、ユーザが入力した手書きイメージを手書き入力領域3233に表示することができる。例えば、制御部は、ユーザがスタイラスペンや指を用いて、手書き入力領域に手書きをすると、この入力を受けることができる。
制御部は、メモウィンドウ3231が表示される前には、手書き入力領域3233に該当するタッチパネル上の領域でタッチを検出し、これに対応する機能を行ってもよい。例えば、メモウィンドウ3231が表示される前には、タッチパネル上の領域には、住所録アイテム3238、3240、3242、3244、3246が表示されてもよい。ユーザが住所録アイテム3238をタッチすると、制御部は、このタッチに対応して住所録アイテム3238の色相を変更してもよい。制御部は、前記タッチパネル領域にメモウィンドウ3231が表示されると、前記タッチパネル領域のタッチ入力を無視してもよい。メモウィンドウ3231が表示されると、ユーザは、住所録アイテム3238、3240、3242、3244、3246をタッチすることができない。例えば、ボタン(メニューアイテム)の上に、メモウィンドウが表示されると、前記ボタン(メニューアイテム)は、非活性化される。
メモウィンドウ3231が表示されると、ユーザは、手書き入力を介して実行中のアプリケーションに、コマンド及びコマンド実行に必要なデータを入力することができる。例えば、ユーザは、メモウィンドウ3231が表示される前には、タッチ入力により実行中のアプリケーションに、コマンド及びコマンド実行に必要なデータを入力することができる。メモウィンドウ3231が表示されると、ユーザは、手書き入力を介して実行中のアプリケーションに、コマンド及びコマンド実行に必要なデータを入力することができる。
手書き入力は、スタイラスペンの動きにより生成されてもよい。ユーザがスタイラスペンを用いてタッチパネルをタッチし、タッチを保持しながら、スタイラスペンを動かせると、制御部は、タッチパネルの上で移動するスタイラスペンの動きを感知することができ、これに対応してスタイラスペンの動く軌跡をタッチパネルに表示することができる。前記スタイラスペンの動く軌跡は、手書きイメージである。手書き入力は、またユーザの指の動きによって生成されてもよい。
メモウィンドウ3231には、ユーザが操作できるボタン3236が表示されてもよい。ボタン3236は、下位階層アプリケーションにより提供されてもよい。下位階層アプリケーションは、メモウィンドウ33231に表示されるボタン3236のイメージを有している。前記イメージは、テキスト、イメージ又はアイコンなどとなってもよい。
制御部は、メモウィンドウに表示された前記テキスト又はイメージの上に、タッチが感知されると、前記手書き入力領域に入力された手書きイメージを認識して、前記手書きイメージを、これとマッチするテキストに変換し、前記テキストを前記アプリケーションに提供することができる。
例えば、制御部は、ユーザがボタン3236をタッチすると、入力された手書きイメージを認識し、前記認識の結果に従い、前記アプリケーションの機能を行うことができる。
また、制御部は、手書き入力領域3233に表示された手書きイメージを認識することができる。制御部は、ユーザがボタン3236をタッチすると、手書き入力領域3233に表示された手書きイメージを、認知エンジン210に伝達する。認知エンジン210は、手書きイメージを認識し、この手書きイメージをテキストに変換することができる。例えば、ユーザが手書き入力領域3233に手書きメモを入力すると、制御部は、手書きイメー3234を表示する。手書き入力領域3233に手書きが表示された状態で、ユーザがボタン3236をタッチすると、制御部は、手書きイメージ3234を認知エンジン210に伝達し、認知エンジン210は、手書きイメージ3234を認識して、「Merge」というテキストを制御部に提供する。認知エンジン210は、ソフトウェアモジュールとなってもよい。制御部は、認識された結果を下位階層アプリケーションに伝達することができる。制御部は、下位階層アプリケーションの住所録アプリケーションに、「Merge」機能を実行するように制御することができる。
認識された手書きイメージは、下位階層アプリケーションに特定の機能の実行を要請するコマンドとなってもよい。下位階層アプリケーションは、特定の機能を行うためのコマンドを定義し、管理することができる。認識された手書きイメージがコマンドと識別されると、制御部は、下位階層アプリケーションにおいてコマンドに対応する動作を行うように制御することができる。例えば、住所録アプリケーションは、機能を行うためのコマンドとして、「Delete」、「Profile」、「Sync」、「Merge」を定義し、管理することができる。前記コマンドは、図32aの第2メニュー領域に含まれているメニューアイテム3216、3218、3220、3222、3224、3226のテキストと完全にマッチしても良く、一部がマッチしてもよい。
制御部は、ユーザがボタン3236をタッチすると、メモウィンドウ3231を除去し、下位階層アプリケーションにおいて、認識の結果に対応する動作を行うように制御することができる。
図32cは、本発明の一実施形態により、メモウィンドウにユーザの手書きイメージ入力を示す。
図32cを参照すると、住所録領域3270は、タッチパネルの上に表示されてもよい。ユーザが手書き入力領域3272に手書きメモをすると、手書きイメージ3274が表示される。制御部は、手書きイメージ3274を認識し、下位階層アプリケーションにおいて、認識の結果に対応する動作を行うように制御することができる。
図32cを参照すると、住所録領域3270は、タッチパネルの上に表示されてもよい。ユーザが手書き入力領域3272に手書きメモをすると、手書きイメージ3274が表示される。制御部は、手書きイメージ3274を認識し、下位階層アプリケーションにおいて、認識の結果に対応する動作を行うように制御することができる。
制御部は、タッチパネルの上に表示された下位階層アプリケーションが、二つのモードで動作されるように制御することができる。下位階層アプリケーションが実行されると、制御部は、下位階層アプリケーションの情報を示すグラフィックオブジェクトと、下位階層アプリケーションの機能を制御するためのボタン(メニューアイテム)とを、タッチパネルの上に表示することができる。制御部は、第1及び第2モードをサポートすることができる。制御部は、第1モードで、タッチ入力により実行されたアプリケーションの機能を制御し、一方で、制御部は、第2モードで、前記アプリケーションの実行中に、前記タッチパネルの上で発生される予め定められたジェスチャーを識別し、識別の結果に対応して手書き入力が可能なメモウィンドウを、前記アプリケーションの上に表示し、前記メモウィンドウに入力された手書きイメージを認識して、前記アプリケーションの機能を制御する。また、制御部は、前記第2モードが実行される状態では、前記第1モードが行わないように制御することができる。
図33a及び図33bは、本発明の一実施形態により、メモウィンドウにユーザが入力した手書きイメージを処理する動作を示す。
図33aを参照すると、ユーザがメモウィンドウ3310に手書きメモをすると、制御部は、手書きイメージ3311、3312、3314を表示する。ユーザがボタン3316をタッチすると、手書きイメージ3311、3312、3314が認識されてもよい。その結果、制御部は、テキスト「010−1234−1234」、「John T. W.」、「Create」を得ることができ、前記テキストを下位階層アプリケーションに提供する。前記下位階層アプリケーションは、メモウィンドウ3310から提供されたテキストを、下位階層アプリケーションの機能を制御するコマンド及び前記コマンドの実行のためのデータに区分けることができる。例えば、テキスト「Create」は、下位階層アプリケーションの住所録アプリケーションでコマンドとして管理される。制御部は、「Create」コマンドを実行するために、住所録アプリケーションで新たな連絡先が生成されるように制御することができる。新たな連絡先の生成のためには、電話番号と連絡先名とが必要であるので、制御部は、「010−1234−1234」が住所録アプリケーションに電話番号として記憶されるように制御することができる。制御部は、「John T. W.」が住所録アプリケーションに連絡先名として記憶されるように制御することができる。このような方式で、認識された手書きイメージは、下位階層アプリケーションにおいて、コマンド及びコマンドを実行するためのデータに分類されてもよい。
図33bを参照すると、住所録領域3320は、タッチパネルの上に表示されてもよい。ユーザがメモウィンドウ3321に手書きメモをすると、制御部は、手書きイメージ3322、3324を表示する。制御部は、手書きイメージ3322、3324を、これらの入力順序によって、データ及びコマンドとして識別することができる。例えば、ユーザが手書きイメージ3322を先に入力し、次に手書きイメージ3324を入力した後、ボタン3326をタッチすると、制御部は、手書きイメージ3322をデータとして処理し、手書きイメージ3324をコマンドとして処理する。制御部は、手書きイメージ3324をコマンドとして処理するために、住所録アプリケーションに管理されているコマンドと、手書きイメージ3322の認識結果とを比較して、これに対応する機能が行われるように制御することができる。制御部は、タッチパネルに表示された手書きイメージ3322、3324を手書き認識して、「Hanna」を「Favourities」に加えることができる。例えば、制御部は、住所録アプリケーションの「Favourities」コマンドを実行し、「Hanna」をコマンド処理対象として用いる。
図34は、本発明の一実施形態により、アラムアプリケーションが実行中の状態で、メモウィンドウを表示し、手書きイメージの入力を受ける動作を示す。
図34を参照すると、タッチパネル3400の上に、アルムアプリケーションが実行される画面3402が表示される。ユーザが、アラムアプリケーションの実行中に、予め定められたジェスチャーを入力すると、メモウィンドウ3410がタッチパネル3400の上に表示される。ユーザがメモウィンドウ3410に、スタイラスペンを用いて、手書きイメージ3412、3414を入力すると、制御部は、入力された手書きイメージ3412、3414を表示することができる。例えば、ユーザがメモウィンドウ3410に、「AM7:00」、「Add alarm」を手書きで入力すると、制御部は、手書きイメージ3412、3414をメモウィンドウ3410に表示する。ユーザがボタン3416をタッチすると、制御部は、手書きイメージ3412、3414が認識されるように制御することができる。制御部は、認識された結果をアラムアプリケーションに伝達し、アラムアプリケーションがAM7:00時にアラムを発生するように制御することができる。また、制御部は、手書きイメージ3412をデータとして、手書きイメージ3414をコマンドとして、別途に処理することができる。コマンドは、アラムアプリケーションで予め決められて管理されてもよい。
図35は、本発明の一実施形態により、ギャラリーアプリケーションが実行中の状態で、メモウィンドウが表示され、手書きイメージの入力によるコマンドを実行する動作を示す。
図35を参照すると、ギャラリーアプリケーションが、タッチパネルの上に表示される。前記ギャラリーアプリケーションは、イメージファイルを画面に表示するアプリケーションである。ギャラリーアプリケーションが実行中の状態で、ユーザが予め定められたジェスチャーを入力すると、制御部は、メモウィンドウ3510をギャラリーアプリケーションが表示された画面の上に表示する。ユーザが、メモウィンドウ3510に手書きメモを入力し、ボタン3516をタッチすると、制御部は、入力された手書きイメージ3512、3514を認識し、手書きイメージ3512、3514をテキストに変換する。制御部は、入力された手書きイメージ3512は、データとして処理し、手書きイメージ3514は、コマンドとして処理することができる。
例えば、ユーザがギャラリーアプリケーションを実行して、イメージ3507をタッチパネルの上に表示する。この状態で、メモウィンドウ3510が起動される。ユーザがメモウィンドウ3510に手書きをして、「Gallery 2」、「Move to Folder」を入力すると、制御部は、ギャラリーアプリケーションで表示中のイメージ3507を、「Gallery 2」フォルダへ動かす。制御部は、ユーザが手書きした順序に応じて、手書きイメージをデータとコマンドと分けて処理してもよい。また、制御部は、ユーザが入力した手書きイメージの認識から得られたテキストが、アプリケーションで管理中のコマンドと完全にマッチするか、一部がマッチする場合、前記テキストをコマンドとして処理してもよい。
図36a及び図36bは、本発明の一実施形態により、手書き入力によりコマンドを実行するアプリケーションを示す。
図36aを参照すると、タッチパネル3600の上に連絡先(連絡をもらう人)についての情報を入力及び編集するための領域3610及び前記連絡先の呼び出しに用いられるシンボルを手書き入力するための領域3620が表示される。
図36aを参照すると、タッチパネル3600の上に連絡先(連絡をもらう人)についての情報を入力及び編集するための領域3610及び前記連絡先の呼び出しに用いられるシンボルを手書き入力するための領域3620が表示される。
連絡先についての情報は、連絡先名3602、連絡先の写真3604、携帯電話番号3606及びワークフォン番号3608から構成されてもよい。ユーザが連絡先についての情報を予め入力した場合には、連絡先についての情報が、タッチパネル3600に表示されてもよい。ユーザが連絡先についての情報を予め入力しなかった場合には、連絡先についての情報が空欄となってもよい。
ユーザは、連絡先についての情報を領域3610に入力又は編集し、連絡先を呼び出すためのシンボルを領域3620に手書きイメージとして入力することができる。例えば、ユーザが、連絡先を呼び出すために、手書きイメージとして、「ハート」シンボル3622を入力することができる。
図36bを参照すると、タッチパネル3650の上にキーパッド3656が表示される。キーパッドは、住所録アプリケーションの一部であってもよい。ユーザが住所録アプリケーションの実行中に、「Samuel」に電話をかけるために、キーパッドメニュー3660を選択すると、制御部は、タッチパネル3650にキーパッド3656が表示されるように制御する。ユーザは、予め定められたジェスチャーを介してメモウィンドウ3652を呼び出すことができる。その後、ユーザが、メモウィンドウ3652に、スタイラスペンを用いて特定の模様を手書きで入力すると、制御部は、特定の模様を認識する。制御部は、特定の模様を認識した結果を、住所録アプリケーションに伝達する。住所録アプリケーションは、住所録データベースにおいて特定の模様に関するデータを含む連絡先を検索することができる。制御部は、特定の模様についてのデータを含む連絡先へ電話をかけることができる。
例えば、ユーザがメモウィンドウ3652に「ハート」3654を描くと、制御部は、「ハート」3654を認識し、「ハート」3654を含む連絡先「Samuel」の電話番号を検索することができる。また、制御部は、検索結果によって、「ハート」3654を含む連絡先「Samuel」に電話をかけることができる。
図37a及び図37bは、本発明の一実施形態により、下位階層アプリケーションと、メモ階層(メモウィンドウ)アプリケーションとに含まれるソフトウェアモジュールを示す。
タッチを感知するタッチパネルを含む電子装置において、アプリケーションを実行すると、実行中のアプリケーションに関する情報を示すグラフィックオブジェクト及び前記アプリケーションの機能を制御するためのボタンが、前記タッチパネルの上に表示される。
前記ボタンの上にタッチが感知されると、制御部は、前記ボタンに対応する前記アプリケーションの機能を制御することができる。前記タッチパネルの上に、予め定められたジェスチャーが感知されると、前記タッチパネルに表示されたグラフィックオブジェクト及び前記ボタンの上にメモウィンドウを表示することができる。前記メモウィンドウは、手書き入力領域及び手書き入力が不可能な領域に分けられる。前記アプリケーションは、ソフトウェアモジュールを含んでいるが、ソフトウェアモジュールには、前記メモ階層(メモウィンドウ)を表示するのに必要なパラメータが定義されている。
前記パラメータは、前記アプリケーション実行の際、メモリ(図示せず)の特定の領域に格納され、メモウィンドウの名称を示すテキスト及び前記メモウィンドウに表示されたボタンイメージとして用いられる。
図37aを参照すると、下位階層アプリケーションに含まれているソフトウェアモジュール3710が示されている。ソフトウェアモジュール3710は、モジュール名3712、ソフトウェアモジュール3710に用いられる各種パラメータ3714、3716、3718を定義する。下位階層アプリケーションが実行されると、メモリ(図示せず)の一部が、下位階層アプリケーションのために割り当てられてもよい。前記メモリの一部領域には、パラメータ3714、3716、3718として用いられるデータが格納されてもよい。
図37bを参照すると、メモウィンドウを表示するためのソフトウェアモジュール3720が示されている。ソフトウェアモジュール3720は、メモウィンドウを表示するのに用いられるパラメータ3722、3724、3726を定義する。パラメータ3722、3724、3726は、下位階層アプリケーションのソフトウェアモジュール3710に含まれているパラメータ3714、3716、3718と同様である。例えば、メモウィンドウの表示に、下位階層アプリケーションのソフトウェアモジュール370に定義されているパラメータ3722、3724、3726を用いてもよい。
例えば、ソフトウェアモジュール3710に、パラメータとして、STRING TITLE3714、BITMAP_BTN_PRESSED3718、BITMAP_BTN_NON3716が定義されている。
STRING_TITLE3714には、メモウィンドウのタイトルを表示するのに用いられるテキストデータが格納されている。
BITMAP_BTN_PRESSED3718、BITMAP_BTN_NON3716には、メモウィンドウにおけるボタンを表示するのに用いられるイメージデータが格納されている。
BITMAP_BTN_PRESSED3718、BITMAP_BTN_NON3716には、メモウィンドウにおけるボタンを表示するのに用いられるイメージデータが格納されている。
制御部は、タッチパネルの上に、メモウィンドウを表示するために、メモ階層のための別途のメモリ領域に格納されているデータを用いることができる。制御部は、下位階層アプリケーションのために割り当てられたメモリ領域でパラメータ3714、3716、3718を読取り、前記パラメータをメモウィンドウの表示に用いることができる。
前述の説明から明らかなように、本発明の実施形態では、多様なアプリケーションの上でメモ機能をサポートして、当該アプリケーションを直観的に制御できるようにすることで、ユーザの便宜性を向上することができる。
前述のようなシナリオは、画面の上にメモ階層を起動して、前記メモ階層の上に情報を手書き入力すると、ユーザ端末は、前記情報を認識し、この情報に対応する動作を行うことが特徴である。このために、画面の上にメモ階層を起動するための技術を付加的に明記するのが好ましい。
例えば、メモ階層を起動する方案としては、メニューボタン、特定のジェスチャー入力、ペンにあるボタンを押した状態、又は指などで画面を上下の方向にスクロールする動作により、現在の画面の上にメモが可能な階層を起動してもよい。本発明の実施形態では、メモ階層を起動する例示のうちの一つとして、画面を上方にスクロールする方案を提案しているが、多様な他の方案も利用できることは、自明である。
前述した本発明の実施形態は、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせの形態で実現可能であることが分かる。このようなソフトウェアは、例えば、削除可能又は再記録可能の可否と関係なく、ROM(Read Only Memory)などの格納装置のような揮発性又は非揮発性格納装置、又は、例えば、RAM(Random Access Memory)、メモリチップ、装置又は集積回路のようなメモリ、又は、例えば、CD(Compact Disc)、DVD(Digital Video Disc)、磁気ディスク又は磁気テープなどのような光学又は磁気的に記録可能であると同時に、機械(例えば、コンピュータ)で読み取れる格納媒体に格納することができる。
また、本発明の実施形態により、手書きイメージ認識によるアプリケーションの制御は、制御部及びメモリを含むコンピュータ又は携帯端末により実現することができ、前記メモリは、本発明の実施形態を実現する指示を含むプログラム又はプログラムを格納するのに適切な機械で読み取れる格納媒体の一例であることが分かる。したがって、本発明の実施形態は、本明細書の任意の請求項に記載の装置又は方法を実現するためのコードを含むプログラム及びこのようなプログラムを格納する機械(コンピュータなど)で読み取れる格納媒体を含む。また、このようなプログラムは、有線又は無線の連結を介して伝達される通信信号のような任意の媒体を介して電子的に移送されることができ、本発明の実施形態は、これと均等なものを適切に含む。
前記手書きイメージ認識を用いたアプリケーションの制御方法及び装置は、例えば、有線又は無線で連結されるプログラム提供装置から前記プログラムを受信及び格納することができる。本発明の実施形態によると、前記プログラム提供装置は、前記グラフィック処理装置が、既に設定されたコンテンツ保護方法を行うようにする指示を含むプログラム、コンテンツ保護方法に必要な情報などを格納するためのメモリと、前記グラフィック処理装置との有線又は無線通信を行うための通信部と、前記グラフィック処理装置の要請又は自動で当該プログラムを前記送受信装置へ伝送する制御部とを含んでもよい。
例えば、前述の本発明の実施形態では、ユーザインターフェースを構成する認知エンジンにより認識された結果に基づいて、ユーザの意図を分析して、これに異なる処理結果をユーザに提供する全ての機能が、ユーザ端末内で処理されることを仮定している。
しかし、本発明の実施形態のために必要な機能は、ユーザ端末がネットワークを介してアクセス可能なサーバとの連動により行われることができる。一例として、ユーザ端末に備えられた認知エンジンでの認識結果を、ネットワークを介して特定のサーバに提供し、前記特定のサーバにおいて、ユーザ端末から提供された認識結果に基づいて、ユーザの意図を把握して、その結果をユーザ端末に提供することができる。提供された認識結果のみでユーザの意図を把握するか、把握したユーザの意図を処理するために、追加情報が必要な場合、ユーザ端末との問答手続きを行って、必要な追加情報を提供されることも可能である。
その上、ユーザは、ユーザ端末の設定を調整して、本発明の実施形態による動作をユーザ端末内に限定するか、ネットワークを通じたサーバとの連動で拡張することを選択的に利用することもできる。
本発明は、特定の実施形態を参照して説明したが、これは、添付の特許請求の範囲及びそれに均等したものにより定められた本発明の思想及び範囲を逸脱することなく、形態及び細部に多様な変更が可能であることは、当業者により理解されるはずである。
110 アプリケーション実行部
120 コマンド処理部
130 タッチパネル部
210 認知エンジン
212 認知管理モジュール
214 遠隔認知クライアントモジュール
216 地域認知モジュール
215−1 手書き認知ブロック
215−2 光文字認識ブロック
215−3 オブジェクト認知ブロック
220 NLIエンジン
1810 下位階層アプリケーション駆動エンジン
1820 メモ階層アプリケーション駆動エンジン
120 コマンド処理部
130 タッチパネル部
210 認知エンジン
212 認知管理モジュール
214 遠隔認知クライアントモジュール
216 地域認知モジュール
215−1 手書き認知ブロック
215−2 光文字認識ブロック
215−3 オブジェクト認知ブロック
220 NLIエンジン
1810 下位階層アプリケーション駆動エンジン
1820 メモ階層アプリケーション駆動エンジン
Claims (15)
- タッチパネルを含む電子装置におけるアプリケーションの制御方法であって、
実行されたアプリケーションを前記タッチパネルの上に表示するステップと、
予め定められたユーザ入力を感知するステップと、
前記感知されたユーザ入力に応答して、前記アプリケーションの上にメモウィンドウを表示するステップと、前記メモウィンドウは、手書き入力領域と、手書き入力が不可能な領域とを含み、
前記メモウィンドウの手書き入力領域に手書きイメージを受信するステップと、
前記受信された手書きイメージを認識するステップと、
を含む、方法。 - 前記ユーザ入力は、前記タッチパネル上のジェスチャー、前記タッチパネル内の仮想ボタン上のタッチ及び物理的ボタンのユーザ選択のうちの一つである、請求項1に記載の方法。
- 前記アプリケーションから受信された少なくとも一つのテキスト及びイメージは、前記メモウィンドウの前記手書き入力が不可能な領域に表示される、請求項1に記載の方法。
- 前記手書き入力が不可能な領域の上にタッチが感知されると、前記メモウィンドウは、手書き入力領域に入力される前記手書きイメージを認識し、前記認識された手書きイメージとマッチするテキストに変換し、前記テキストを前記アプリケーションに提供する、請求項3に記載の方法。
- 前記メモウィンドウから受信されたテキストを、前記アプリケーションの機能を制御するためのコマンド及び前記コマンドと関連付いたデータに分けるステップをさらに含む、請求項4に記載の方法。
- タッチパネルを含む電子装置におけるアプリケーションの制御方法であって、
実行されたアプリケーションと関連付いた情報を示すグラフィックオブジェクト及びアプリケーションの機能を制御するためのボタンを、前記タッチパネルの上に表示するステップと、
前記ボタンの上にタッチが感知されると、前記ボタンに対応する前記アプリケーションの機能を制御するステップと、
前記タッチパネルの上に予め定められた入力が感知されると、少なくとも一つの前記グラフィックオブジェクト及び前記ボタン上のメモウィンドウを、前記タッチパネルの上に表示するステップと、前記メモウィンドウは、手書き入力領域と、手書き入力が不可能な領域とを含み、
前記メモウィンドウの手書き入力領域に手書きイメージを受信するステップと、
前記受信された手書きイメージを認識するステップと、
認識の結果に従い、前記アプリケーションの機能を制御するステップと、
を含む、方法。 - 前記ボタンの上に前記メモウィンドウが表示されると、前記ボタンは非活性化される、請求項6に記載の方法。
- タッチパネルを含む電子装置におけるアプリケーションの制御方法であって、
第1モードで、タッチ入力が感知されると、実行されたアプリケーションの機能を制御するステップと、
第2モードで、前記アプリケーションの実行中に前記タッチパネル上の予め定められた入力を識別し、識別された入力に従い、手書き入力が可能なメモウィンドウを、前記アプリケーションに表示し、前記メモウィンドウに入力された手書きイメージを認識し、前記認識された手書きイメージに従い、前記実行されたアプリケーションの機能を制御するステップと、
を含む、方法。 - 前記第2モードの状態では、前記第1モードが行われないようにする、請求項8に記載の方法。
- タッチを感知するタッチパネルと、
実行されたアプリケーションを前記タッチパネルに表示し、前記タッチパネルから感知された予め定められた入力に応答して、前記アプリケーションにメモウィンドウを表示し、前記メモウィンドウは、手書き入力領域と、手書き入力が不可能な領域とを含み、前記メモウィンドウの手書き入力領域に手書きイメージを認識し、認識の結果に従い、前記アプリケーションの機能を制御する制御部と、
を含む、電子装置。 - 前記制御部は、前記メモウィンドウの前記手書き入力が不可能な領域に、前記アプリケーションから提供されたテキスト及びイメージのうちの少なくとも一つが表示されるように制御し、前記手書き入力が不可能な領域の上にタッチが感知されると、前記制御部は、手書き入力領域に入力された手書きイメージを認識し、前記手書きイメージとマッチするテキストに変換し、前記テキストに対応する前記アプリケーションの機能を制御する、請求項10に記載の電子装置。
- 前記制御部は、前記テキストを、前記アプリケーションの機能を制御するコマンド及び前記コマンドと関連付いたデータとに分ける、請求項11に記載の電子装置。
- タッチを感知するタッチパネルと、
実行されたアプリケーションと関連付いた情報を示すグラフィックオブジェクト及び前記アプリケーションの機能を制御するためのボタンを、前記タッチパネルの上に表示し、前記ボタンの上にタッチが感知されると、前記ボタンに対応する前記アプリケーションの機能を制御し、前記タッチパネルに予め定められた入力が感知されると、少なくとも一つのグラフィックオブジェクト及びボタン上のメモウィンドウを、前記タッチパネルに表示し、前記メモウィンドウは、手書き入力領域と、手書き入力が不可能な領域とを含み、前記メモウィンドウの手書き入力領域に入力された手書きイメージを認識し、認識の結果に従い、前記アプリケーションの機能が行われるように制御する制御部と、
を含む電子装置。 - タッチを感知するタッチパネルと、
タッチ入力が感知されると、実行されたアプリケーションの機能を制御する第1モードで動作され、前記アプリケーションの実行中に、前記タッチパネル上の予め定められた入力を識別し、識別された入力に従い、手書き入力が可能なメモウィンドウを、前記アプリケーションに表示し、前記メモウィンドウに入力された手書きイメージを認識し、前記認識された手書きイメージに応じて、前記実行されたアプリケーションの機能を制御する第2モードで動作される制御部と、
を含む電子装置。 - タッチを感知するタッチパネルと、
実行されたアプリケーションと関連付いた情報を示すグラフィックオブジェクト及び前記アプリケーションの機能を制御するためのボタンを、前記タッチパネルの上に表示し、前記ボタン上にタッチが感知されると、前記ボタンに対応するアプリケーションの機能が行われるように制御し、前記タッチパネルの上に、予め定められた入力が感知されると、前記グラフィックオブジェクト及び前記ボタンが表示される画面に、手書き入力が可能なメモウィンドウを表示し、前記メモウィンドウに入力された手書きイメージを認識し、認識の結果に従い、前記アプリケーションの機能が行われるように制御する制御部と、
を含む、電子装置。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0076514 | 2012-07-13 | ||
KR20120076514 | 2012-07-13 | ||
KR20120095965 | 2012-08-30 | ||
KR10-2012-0095965 | 2012-08-30 | ||
KR20120142326A KR20140008987A (ko) | 2012-07-13 | 2012-12-07 | 필기 이미지 인식을 이용한 어플리케이션 제어 방법 및 장치 |
KR10-2012-0142326 | 2012-12-07 | ||
PCT/KR2013/006283 WO2014011000A1 (en) | 2012-07-13 | 2013-07-12 | Method and apparatus for controlling application by handwriting image recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015522883A true JP2015522883A (ja) | 2015-08-06 |
Family
ID=50142622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015521556A Pending JP2015522883A (ja) | 2012-07-13 | 2013-07-12 | 手書きイメージ認識を用いたアプリケーションの制御方法及び装置 |
Country Status (10)
Country | Link |
---|---|
US (1) | US20140019905A1 (ja) |
EP (1) | EP2872968A4 (ja) |
JP (1) | JP2015522883A (ja) |
KR (1) | KR20140008987A (ja) |
CN (1) | CN104471535B (ja) |
AU (1) | AU2013287381A1 (ja) |
BR (1) | BR112015000791A2 (ja) |
CA (1) | CA2879057A1 (ja) |
RU (1) | RU2650029C2 (ja) |
WO (1) | WO2014011000A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017107565A (ja) * | 2015-12-07 | 2017-06-15 | キヤノンマーケティングジャパン株式会社 | プログラム、情報処理方法、情報処理装置、システム |
WO2018216193A1 (ja) * | 2017-05-26 | 2018-11-29 | 富士通株式会社 | プログラム、情報処理装置、及び情報処理方法 |
US10671799B2 (en) | 2017-03-31 | 2020-06-02 | Dropbox, Inc. | Generating digital document content from a digital image |
US10732824B2 (en) | 2016-12-16 | 2020-08-04 | Hyundai Motor Company | Vehicle and control method thereof |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD754162S1 (en) * | 2013-01-04 | 2016-04-19 | Level 3 Communications, Llc | Display screen or portion thereof with graphical user interface |
USD768659S1 (en) * | 2013-01-04 | 2016-10-11 | Level 3 Communications, Llc | Display screen or portion thereof with graphical user interface |
US8943092B2 (en) * | 2013-03-04 | 2015-01-27 | Microsoft Corporation | Digital ink based contextual search |
KR20140132171A (ko) * | 2013-05-07 | 2014-11-17 | 삼성전자주식회사 | 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법 |
KR102063103B1 (ko) * | 2013-08-23 | 2020-01-07 | 엘지전자 주식회사 | 이동 단말기 |
US10684771B2 (en) * | 2013-08-26 | 2020-06-16 | Samsung Electronics Co., Ltd. | User device and method for creating handwriting content |
KR20150086032A (ko) * | 2014-01-17 | 2015-07-27 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
US10270819B2 (en) | 2014-05-14 | 2019-04-23 | Microsoft Technology Licensing, Llc | System and method providing collaborative interaction |
US20150331604A1 (en) * | 2014-05-14 | 2015-11-19 | Microsoft Corporation | Presenting stored files in whiteboard application |
US9552473B2 (en) | 2014-05-14 | 2017-01-24 | Microsoft Technology Licensing, Llc | Claiming data from a virtual whiteboard |
KR102097535B1 (ko) * | 2014-05-21 | 2020-04-07 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
WO2015178691A1 (en) * | 2014-05-21 | 2015-11-26 | Samsung Electronics Co., Ltd. | Display apparatus and controlling method thereof |
KR20150135820A (ko) * | 2014-05-26 | 2015-12-04 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
KR102309175B1 (ko) | 2014-08-29 | 2021-10-06 | 삼성전자주식회사 | 스크랩 정보를 제공하는 전자 장치 및 그 제공 방법 |
KR20160034685A (ko) * | 2014-09-22 | 2016-03-30 | 삼성전자주식회사 | 전자장치에서 객체 입력 방법 및 장치 |
CN105573611A (zh) * | 2014-10-17 | 2016-05-11 | 中兴通讯股份有限公司 | 智能终端不规则截图方法及装置 |
US10489051B2 (en) * | 2014-11-28 | 2019-11-26 | Samsung Electronics Co., Ltd. | Handwriting input apparatus and control method thereof |
US20160154555A1 (en) * | 2014-12-02 | 2016-06-02 | Lenovo (Singapore) Pte. Ltd. | Initiating application and performing function based on input |
US11797172B2 (en) * | 2015-03-06 | 2023-10-24 | Alibaba Group Holding Limited | Method and apparatus for interacting with content through overlays |
CN107636588B (zh) * | 2015-03-23 | 2021-07-23 | 纳宝株式会社 | 移动设备的应用程序执行装置及其方法 |
JP6658745B2 (ja) * | 2015-05-08 | 2020-03-04 | 富士通株式会社 | 入力受付方法、入力受付プログラムおよび端末装置 |
US9530318B1 (en) * | 2015-07-28 | 2016-12-27 | Honeywell International Inc. | Touchscreen-enabled electronic devices, methods, and program products providing pilot handwriting interface for flight deck systems |
US10210383B2 (en) | 2015-09-03 | 2019-02-19 | Microsoft Technology Licensing, Llc | Interacting with an assistant component based on captured stroke information |
US20170068436A1 (en) * | 2015-09-03 | 2017-03-09 | Microsoft Technology Licensing, Llc | Interpreting and Supplementing Captured Stroke Information |
US10387034B2 (en) * | 2015-09-03 | 2019-08-20 | Microsoft Technology Licensing, Llc | Modifying captured stroke information into an actionable form |
US10636074B1 (en) * | 2015-09-18 | 2020-04-28 | Amazon Technologies, Inc. | Determining and executing application functionality based on text analysis |
US11442618B2 (en) * | 2015-09-28 | 2022-09-13 | Lenovo (Singapore) Pte. Ltd. | Flexible mapping of a writing zone to a digital display |
CN105374198A (zh) * | 2015-11-09 | 2016-03-02 | 苏州美达瑞电子有限公司 | 一种基于触摸手写板的无线遥控装置 |
US20170285931A1 (en) * | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Operating visual user interface controls with ink commands |
US10402740B2 (en) * | 2016-07-29 | 2019-09-03 | Sap Se | Natural interactive user interface using artificial intelligence and freeform input |
US10635298B2 (en) * | 2017-04-18 | 2020-04-28 | Xerox Corporation | Systems and methods for localizing a user interface based on a pre-defined phrase |
CN108153505B (zh) * | 2017-12-26 | 2019-01-18 | 掌阅科技股份有限公司 | 手写输入内容的显示方法、电子设备及计算机存储介质 |
US11531673B2 (en) * | 2018-05-24 | 2022-12-20 | Sap Se | Ambiguity resolution in digital paper-based interaction |
KR102171327B1 (ko) * | 2018-07-18 | 2020-10-29 | 네이버 주식회사 | 번역 서비스 제공 방법 및 이를 이용하는 단말장치 |
CN112567324A (zh) * | 2018-08-22 | 2021-03-26 | 深圳市欢太科技有限公司 | 一种图像速记方法、终端及计算机存储介质 |
CN112513810A (zh) * | 2018-08-22 | 2021-03-16 | 深圳市欢太科技有限公司 | 一种速记方法、终端及计算机存储介质 |
KR20200078932A (ko) * | 2018-12-24 | 2020-07-02 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
KR20200088083A (ko) * | 2019-01-14 | 2020-07-22 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
KR102629358B1 (ko) | 2019-02-01 | 2024-01-24 | 우한 휴먼웰 이노베이티브 드러그 리서치 앤드 디벨롭먼트 센터 리미티드 컴퍼니 | 피롤로피리미딘 유도체 및 그의 용도 |
JP7259468B2 (ja) * | 2019-03-25 | 2023-04-18 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
US11551480B2 (en) * | 2019-04-11 | 2023-01-10 | Ricoh Company, Ltd. | Handwriting input apparatus, handwriting input method, program, and input system |
KR20200122651A (ko) | 2019-04-18 | 2020-10-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN110780962B (zh) * | 2019-10-15 | 2022-02-01 | 四川长虹电器股份有限公司 | X窗口管理器中应用窗口标题栏和窗口控件显示的方法 |
US11574467B2 (en) * | 2019-11-21 | 2023-02-07 | Kyndryl, Inc. | Document augmented auto complete |
KR20210110471A (ko) * | 2020-02-28 | 2021-09-08 | 삼성전자주식회사 | 필기 입력에 기초하여, 동작을 수행하는 전자 장치 및 그 동작 방법 |
JP7420016B2 (ja) * | 2020-08-27 | 2024-01-23 | 株式会社リコー | 表示装置、表示方法、プログラム、表示システム |
US11366958B1 (en) * | 2021-02-12 | 2022-06-21 | Dell Products L.P. | Intelligent automated note annotation |
CN113157187B (zh) * | 2021-05-20 | 2022-03-29 | 读书郎教育科技有限公司 | Android终端实现通用笔记的方法、计算机存储介质及Android终端 |
EP4364110A1 (en) * | 2021-06-28 | 2024-05-08 | Limited Liability Company Syntelly | Method and system for recognizing chemical information from document images |
CN114489462B (zh) * | 2021-12-31 | 2022-09-27 | 广州视声智能股份有限公司 | 一种无线按键开关面板及其控制方法 |
FR3138226A1 (fr) * | 2022-07-25 | 2024-01-26 | Orange | Procédé et dispositif d’exécution d’une commande générée par l’utilisateur d’un terminal. |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02188818A (ja) * | 1989-01-18 | 1990-07-24 | Hitachi Ltd | 手書き入出力装置並びにこの手書き入出力装置を用いた手書き入力システム |
JPH07141092A (ja) * | 1993-11-16 | 1995-06-02 | Casio Comput Co Ltd | 手書き入力装置 |
JPH08161322A (ja) * | 1994-12-08 | 1996-06-21 | Sharp Corp | 情報処理装置 |
JPH1153117A (ja) * | 1997-08-01 | 1999-02-26 | Nippon Steel Corp | 手書き文字認識装置、手書き入力インターフェース及びその記録媒体 |
JP2000222522A (ja) * | 1999-02-04 | 2000-08-11 | Matsushita Electric Ind Co Ltd | 認識処理装置 |
JP2001351065A (ja) * | 2000-06-05 | 2001-12-21 | Japan Science & Technology Corp | 文字認識方法、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体及び文字認識装置 |
JP2001350396A (ja) * | 2000-06-06 | 2001-12-21 | Hitachi Ltd | 筆順・画数の教示装置,方法、及びその方法を含む記録媒体 |
JP2004030536A (ja) * | 2002-06-28 | 2004-01-29 | Toshiba Corp | 情報処理装置および同装置で使用される文字入力支援方法 |
EP1443395A2 (en) * | 2003-01-31 | 2004-08-04 | Microsoft Corporation | Utility object for specialized data entry |
JP2005031786A (ja) * | 2003-07-08 | 2005-02-03 | Fujitsu Ten Ltd | 文字入力装置 |
JP2006302263A (ja) * | 2005-03-18 | 2006-11-02 | Microsoft Corp | 電子インクまたは手書きインターフェースを呼び出すためのシステム、方法およびコンピュータ読取り可能媒体 |
JP2008233483A (ja) * | 2007-03-20 | 2008-10-02 | Kyocera Mita Corp | 表示装置及びこれを備えた画像形成装置 |
US20110157028A1 (en) * | 2009-12-31 | 2011-06-30 | Verizon Patent And Licensing, Inc. | Text entry for a touch screen |
JP2011529598A (ja) * | 2008-07-31 | 2011-12-08 | サムスン エレクトロニクス カンパニー リミテッド | 携帯用端末機におけるパターン認識を用いたユーザインターフェース装置及び方法 |
JP2012073707A (ja) * | 2010-09-28 | 2012-04-12 | Kyocera Corp | 電子機器及びその制御方法 |
JP2012108657A (ja) * | 2010-11-16 | 2012-06-07 | Sharp Corp | 携帯情報端末 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5864635A (en) * | 1996-06-14 | 1999-01-26 | International Business Machines Corporation | Distinguishing gestures from handwriting in a pen based computer by stroke analysis |
US6456749B1 (en) * | 1998-02-27 | 2002-09-24 | Carnegie Mellon University | Handheld apparatus for recognition of writing, for remote communication, and for user defined input templates |
CA2330133C (en) * | 1998-04-24 | 2008-11-18 | Natural Input Solutions Inc. | Pen based edit correction interface method and apparatus |
US20030001899A1 (en) * | 2001-06-29 | 2003-01-02 | Nokia Corporation | Semi-transparent handwriting recognition UI |
US7120299B2 (en) * | 2001-12-28 | 2006-10-10 | Intel Corporation | Recognizing commands written onto a medium |
US6938222B2 (en) * | 2002-02-08 | 2005-08-30 | Microsoft Corporation | Ink gestures |
US7096432B2 (en) * | 2002-05-14 | 2006-08-22 | Microsoft Corporation | Write anywhere tool |
US20030233237A1 (en) * | 2002-06-17 | 2003-12-18 | Microsoft Corporation | Integration of speech and stylus input to provide an efficient natural input experience |
US20040240739A1 (en) * | 2003-05-30 | 2004-12-02 | Lu Chang | Pen gesture-based user interface |
US7567239B2 (en) * | 2003-06-26 | 2009-07-28 | Motorola, Inc. | Method and system for message and note composition on small screen devices |
EP1639441A1 (en) * | 2003-07-01 | 2006-03-29 | Nokia Corporation | Method and device for operating a user-input area on an electronic display device |
US20070106931A1 (en) * | 2005-11-08 | 2007-05-10 | Nokia Corporation | Active notes application |
US8676797B2 (en) * | 2006-05-10 | 2014-03-18 | Google Inc. | Managing and accessing data in web notebooks |
TW200839589A (en) * | 2007-03-28 | 2008-10-01 | Giga Byte Comm Inc | Mobile communication device and operation method thereof |
US9690474B2 (en) * | 2007-12-21 | 2017-06-27 | Nokia Technologies Oy | User interface, device and method for providing an improved text input |
KR101554185B1 (ko) * | 2008-12-03 | 2015-09-18 | 엘지전자 주식회사 | 이동단말기 및 그의 수기 메모 방법 |
KR101639074B1 (ko) * | 2009-07-31 | 2016-07-12 | 삼성전자주식회사 | 터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법 |
KR20110123933A (ko) * | 2010-05-10 | 2011-11-16 | 삼성전자주식회사 | 휴대단말의 기능 제공 방법 및 장치 |
CN103547983B (zh) * | 2011-05-20 | 2016-04-06 | 微软技术许可有限责任公司 | 用于手写输入的用户界面 |
CN102855079B (zh) * | 2011-05-24 | 2016-06-08 | Lg电子株式会社 | 移动终端 |
-
2012
- 2012-12-07 KR KR20120142326A patent/KR20140008987A/ko not_active Application Discontinuation
-
2013
- 2013-07-12 AU AU2013287381A patent/AU2013287381A1/en not_active Abandoned
- 2013-07-12 WO PCT/KR2013/006283 patent/WO2014011000A1/en active Application Filing
- 2013-07-12 CA CA2879057A patent/CA2879057A1/en not_active Abandoned
- 2013-07-12 JP JP2015521556A patent/JP2015522883A/ja active Pending
- 2013-07-12 BR BR112015000791A patent/BR112015000791A2/pt not_active Application Discontinuation
- 2013-07-12 US US13/940,962 patent/US20140019905A1/en not_active Abandoned
- 2013-07-12 RU RU2015104787A patent/RU2650029C2/ru not_active IP Right Cessation
- 2013-07-12 CN CN201380037463.9A patent/CN104471535B/zh not_active Expired - Fee Related
- 2013-07-12 EP EP13815961.1A patent/EP2872968A4/en not_active Ceased
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02188818A (ja) * | 1989-01-18 | 1990-07-24 | Hitachi Ltd | 手書き入出力装置並びにこの手書き入出力装置を用いた手書き入力システム |
JPH07141092A (ja) * | 1993-11-16 | 1995-06-02 | Casio Comput Co Ltd | 手書き入力装置 |
JPH08161322A (ja) * | 1994-12-08 | 1996-06-21 | Sharp Corp | 情報処理装置 |
JPH1153117A (ja) * | 1997-08-01 | 1999-02-26 | Nippon Steel Corp | 手書き文字認識装置、手書き入力インターフェース及びその記録媒体 |
JP2000222522A (ja) * | 1999-02-04 | 2000-08-11 | Matsushita Electric Ind Co Ltd | 認識処理装置 |
JP2001351065A (ja) * | 2000-06-05 | 2001-12-21 | Japan Science & Technology Corp | 文字認識方法、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体及び文字認識装置 |
JP2001350396A (ja) * | 2000-06-06 | 2001-12-21 | Hitachi Ltd | 筆順・画数の教示装置,方法、及びその方法を含む記録媒体 |
JP2004030536A (ja) * | 2002-06-28 | 2004-01-29 | Toshiba Corp | 情報処理装置および同装置で使用される文字入力支援方法 |
EP1443395A2 (en) * | 2003-01-31 | 2004-08-04 | Microsoft Corporation | Utility object for specialized data entry |
JP2005031786A (ja) * | 2003-07-08 | 2005-02-03 | Fujitsu Ten Ltd | 文字入力装置 |
JP2006302263A (ja) * | 2005-03-18 | 2006-11-02 | Microsoft Corp | 電子インクまたは手書きインターフェースを呼び出すためのシステム、方法およびコンピュータ読取り可能媒体 |
JP2008233483A (ja) * | 2007-03-20 | 2008-10-02 | Kyocera Mita Corp | 表示装置及びこれを備えた画像形成装置 |
JP2011529598A (ja) * | 2008-07-31 | 2011-12-08 | サムスン エレクトロニクス カンパニー リミテッド | 携帯用端末機におけるパターン認識を用いたユーザインターフェース装置及び方法 |
US20110157028A1 (en) * | 2009-12-31 | 2011-06-30 | Verizon Patent And Licensing, Inc. | Text entry for a touch screen |
JP2012073707A (ja) * | 2010-09-28 | 2012-04-12 | Kyocera Corp | 電子機器及びその制御方法 |
JP2012108657A (ja) * | 2010-11-16 | 2012-06-07 | Sharp Corp | 携帯情報端末 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017107565A (ja) * | 2015-12-07 | 2017-06-15 | キヤノンマーケティングジャパン株式会社 | プログラム、情報処理方法、情報処理装置、システム |
US10732824B2 (en) | 2016-12-16 | 2020-08-04 | Hyundai Motor Company | Vehicle and control method thereof |
US10671799B2 (en) | 2017-03-31 | 2020-06-02 | Dropbox, Inc. | Generating digital document content from a digital image |
JP2020123358A (ja) * | 2017-03-31 | 2020-08-13 | ドロップボックス, インコーポレイテッド | デジタル画像からデジタル文書コンテンツを生成する方法 |
WO2018216193A1 (ja) * | 2017-05-26 | 2018-11-29 | 富士通株式会社 | プログラム、情報処理装置、及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
RU2650029C2 (ru) | 2018-04-06 |
AU2013287381A1 (en) | 2014-12-11 |
CN104471535A (zh) | 2015-03-25 |
BR112015000791A2 (pt) | 2017-06-27 |
CA2879057A1 (en) | 2014-01-16 |
RU2015104787A (ru) | 2016-08-27 |
CN104471535B (zh) | 2018-11-30 |
WO2014011000A1 (en) | 2014-01-16 |
KR20140008987A (ko) | 2014-01-22 |
EP2872968A1 (en) | 2015-05-20 |
US20140019905A1 (en) | 2014-01-16 |
EP2872968A4 (en) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015522883A (ja) | 手書きイメージ認識を用いたアプリケーションの制御方法及び装置 | |
JP6263177B2 (ja) | ユーザー端末のユーザーインターフェース装置及び方法 | |
US9110587B2 (en) | Method for transmitting and receiving data between memo layer and application and electronic device using the same | |
KR102059800B1 (ko) | 사용자 단말에서 사용자 인터페이스 장치 및 이를 지원하는 방법 | |
US20180364895A1 (en) | User interface apparatus in a user terminal and method for supporting the same | |
US8374992B2 (en) | Organization of user generated content captured by a smart pen computing system | |
US20160154482A1 (en) | Content Selection in a Pen-Based Computing System | |
US20140015780A1 (en) | User interface apparatus and method for user terminal | |
CN104520843A (zh) | 在电子阅读器中提供基于笔记的内容注释 | |
KR101830787B1 (ko) | 수기로 작성된 메모 데이터 검색 방법 및 장치 | |
KR20140092459A (ko) | 메모 레이어와 어플리케이션 사이에 데이터를 주고 받는 방법 및 이를 구비한 전자장치 | |
AU2012258779A1 (en) | Content selection in a pen-based computing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160701 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170313 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171016 |