JP2018073202A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2018073202A
JP2018073202A JP2016213616A JP2016213616A JP2018073202A JP 2018073202 A JP2018073202 A JP 2018073202A JP 2016213616 A JP2016213616 A JP 2016213616A JP 2016213616 A JP2016213616 A JP 2016213616A JP 2018073202 A JP2018073202 A JP 2018073202A
Authority
JP
Japan
Prior art keywords
gesture
character string
handwriting
candidate
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016213616A
Other languages
Japanese (ja)
Inventor
秀樹 小原
Hideki Obara
秀樹 小原
響子 平田
Kiyouko Hirata
響子 平田
祥太 角田
Shota Tsunoda
祥太 角田
宏樹 中井
Hiroki Nakai
宏樹 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2016213616A priority Critical patent/JP2018073202A/en
Publication of JP2018073202A publication Critical patent/JP2018073202A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a scheme of enabling selection of a phrase (words/sentence) with various gestures on the extension of a traffic line at the time of making an input with a pen.SOLUTION: The information processing device includes a touch panel, handwriting recognition means for recognizing handwritten characters, and a predictive conversion database for storing a handwriting (gesture) not recognized as a character by the handwriting recognition means and storing a character string determined based on an input character, the information processing apparatus having an application program running thereon, associates a predicted candidate character string following a character recognized by the handwriting recognition means and extracted from the predictive conversion database with the stored handwriting (gesture). The associated handwriting and the candidate character string are displayed, and when the associated handwriting is recognized by input from the user, the associated candidate character string is output to the application program.SELECTED DRAWING: Figure 1

Description

本発明は、タッチパネルにおいて手書き入力支援手段を有する情報処理装置、情報処理方法、およびそのプログラムに関する。   The present invention relates to an information processing apparatus having a handwriting input support means on a touch panel, an information processing method, and a program thereof.

タッチパネルを有するスマートデバイスでの文章入力を円滑に行うために、手書き文字の入力予測を行う技術がある。   There is a technique for predicting input of handwritten characters in order to smoothly input text on a smart device having a touch panel.

この技術では、文字を入力すると、予測された変換候補(文節、単語)が使用頻度順にリスト表示され、ユーザは、候補内から所望の文字列をクリックして選択している。   In this technique, when characters are input, predicted conversion candidates (sentences and words) are displayed in a list in order of use frequency, and the user clicks and selects a desired character string from the candidates.

特許文献1は、予測候補から語句を選択する際の操作性を改善するための方法で、入力した文字の筆跡データを基に、次の筆跡を予測し、予測結果を表示するというものである。   Patent Document 1 is a method for improving the operability when selecting a word from a prediction candidate, and predicts the next handwriting based on the handwriting data of the input character and displays the prediction result. .

特開2014−67147号公報JP 2014-67147 A

特許文献1では、予測候補文字列から1文字単位で切り出し、ワンクリックで選択可能にすることで、操作性の向上を狙っている。   In patent document 1, it aims at the improvement of operativity by cutting out from a prediction candidate character string per character and making it selectable by one click.

しかしながら、特許文献1の選択操作では、予測変換候補選択時に、ペンを手書き入力エリアから一度離して候補選択エリアに移動させる必要があり、ペンの動線に反して無駄な動きが多くなる。手書き入力から連続した動作で選択操作ができないため、入力に手間が生じている。また、一旦ペンを離して選択する必要があり、選択ミスが発生しやすい。   However, in the selection operation of Patent Document 1, it is necessary to move the pen once away from the handwriting input area and move it to the candidate selection area when predictive conversion candidates are selected, and wasteful movement increases against the flow line of the pen. Since the selection operation cannot be performed by a continuous operation from handwritten input, the input is troublesome. Further, it is necessary to release the pen once to make a selection, and a selection mistake is likely to occur.

ずなわち、従来のスマートデバイス等での手書き入力では、予測変換候補から語句を選択する際の操作が煩雑である。   In other words, in handwritten input using a conventional smart device or the like, an operation for selecting a word from a predictive conversion candidate is complicated.

本発明の目的は、ペンで入力する際の動線の延長線上で、様々なジェスチャにより語句(単語・文章)の選択を確定できる仕組みを提供することである。   An object of the present invention is to provide a mechanism capable of confirming selection of a word (word / sentence) by various gestures on an extension of a flow line when inputting with a pen.

本願発明は、タッチパネルと、手書き文字を認識する筆跡認識手段と、入力された文字により決定される文字列を記憶する予測変換データベースを有するアプリケーションプログラムが動作する情報処理装置であって、前記筆跡認識手段により認識された文字に続く予測された候補文字列を予測変換データベースから抽出する予測変換候補抽出手段と、前記筆跡認識手段により文字とは認識されない筆跡(ジェスチャ)を記憶するジェスチャ記憶手段と、前記予測変換候補抽出手段により抽出された候補文字列と、前記ジェスチャ記憶手段に記憶された筆跡(ジェスチャ)とを紐付けるジェスチャ候補文字列紐付け手段と、前記ジェスチャ候補文字列紐付け手段で紐付けられた筆跡と候補文字列を表示するジェスチャ候補文字列表示手段と、前記筆跡認識手段により、前記ジェスチャ候補文字列紐付け手段で紐付けられた筆跡が認識されると、該ジェスチャ候補文字列紐付け手段で紐付けられた候補文字列をアプリケーションプログラムに出力する文字列出力手段と
を有することを特徴とする。
The present invention is an information processing apparatus in which an application program having a touch panel, handwriting recognition means for recognizing handwritten characters, and a predictive conversion database for storing a character string determined by input characters operates, wherein the handwriting recognition Predictive conversion candidate extraction means for extracting a predicted candidate character string following the character recognized by the means from a prediction conversion database; gesture storage means for storing a handwriting (gesture) that is not recognized as a character by the handwriting recognition means; Gesture candidate character string associating means for associating the candidate character string extracted by the predictive conversion candidate extracting means with the handwriting (gesture) stored in the gesture storage means; and the gesture candidate character string associating means A gesture candidate character string display means for displaying the attached handwriting and the candidate character string; When the handwriting associated with the gesture candidate character string associating means is recognized by the handwriting recognition means, the character string for outputting the candidate character string associated with the gesture candidate character string associating means to the application program Output means.

本願発明によれば、ペンで入力する際の動線の延長線上で、様々なジェスチャにより語句(単語・文章)の選択を確定できる仕組みを提供することが可能となる。   According to the present invention, it is possible to provide a mechanism capable of confirming selection of a word (word / sentence) by various gestures on an extension of a flow line when inputting with a pen.

本発明の実施形態に係る情報処理装置の外観の一例を示す外観図である。It is an external view which shows an example of the external appearance of the information processing apparatus which concerns on embodiment of this invention. 情報処理装置100のハードウェア構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of an information processing apparatus 100. FIG. 情報処理装置100の機能構成の一例を示す機能構成図である。3 is a functional configuration diagram illustrating an example of a functional configuration of the information processing apparatus 100. FIG. 本発明の実施形態の情報処理装置100における制御処理手段の一例を示す第1のフローチャートである。It is a 1st flowchart which shows an example of the control processing means in the information processing apparatus 100 of embodiment of this invention. 本発明の実施形態の情報処理装置100における制御処理手段の一例を示す第2のフローチャートである。It is a 2nd flowchart which shows an example of the control processing means in the information processing apparatus 100 of embodiment of this invention. 本発明の実施形態の情報処理装置100における制御処理手段の一例を示す第3のフローチャートである。It is a 3rd flowchart which shows an example of the control processing means in the information processing apparatus 100 of embodiment of this invention. 本発明の実施形態の情報処理装置100における制御処理手段の一例を示す第4のフローチャートである。It is a 4th flowchart which shows an example of the control processing means in the information processing apparatus 100 of embodiment of this invention. 本発明の実施形態に係る情報処理装置100で表示される画面イメージの一例を示す外観図である。It is an external view which shows an example of the screen image displayed with the information processing apparatus 100 which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置100で表示される画面イメージの一例を示す外観図である。It is an external view which shows an example of the screen image displayed with the information processing apparatus 100 which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置100で表示される画面イメージの一例を示す外観図である。It is an external view which shows an example of the screen image displayed with the information processing apparatus 100 which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置100で表示される画面イメージの一例を示す外観図である。It is an external view which shows an example of the screen image displayed with the information processing apparatus 100 which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置での動作を説明するためのイメージの一例を示す模式図である。It is a schematic diagram which shows an example of the image for demonstrating operation | movement with the information processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置での動作を説明するためのイメージの一例を示す模式図である。It is a schematic diagram which shows an example of the image for demonstrating operation | movement with the information processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置でのデータの一例を示す模式図である。It is a schematic diagram which shows an example of the data in the information processing apparatus which concerns on embodiment of this invention. 本発明の記憶装置に係る情報処理装置でのデータベースの一例を示す模式図である。It is a schematic diagram which shows an example of the database in the information processing apparatus which concerns on the memory | storage device of this invention. 本発明の記憶装置に係る情報処理装置でのデータベースの一例を示す模式図である。It is a schematic diagram which shows an example of the database in the information processing apparatus which concerns on the memory | storage device of this invention.

以下、添付図面を参照しながら、本発明に係る情報処理装置の実施形態について詳細に説明する。   Hereinafter, embodiments of an information processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明に係る情報処理装置の外観の一例を示す外観図である。本発明の情報処理装置100は、例えば、携帯情報端末(PDA)や、スマートフォンのように、タッチパネル機能を持つ表示部206を備えている。表示部206は、液晶パネルのような表示制御部と、タッチパッドのような位置入力制御部とを組み合わせた電子部品であり、タッチスクリーンとも呼ばれる。   FIG. 1 is an external view showing an example of the external appearance of an information processing apparatus according to the present invention. The information processing apparatus 100 of the present invention includes a display unit 206 having a touch panel function, such as a personal digital assistant (PDA) or a smartphone. The display unit 206 is an electronic component that combines a display control unit such as a liquid crystal panel and a position input control unit such as a touch pad, and is also referred to as a touch screen.

表示部206のタッチパネルは、指先やスタイラスペンと電導膜との間での静電容量の変化をとらえて位置を検出する静電容量方式の投影型のタッチスクリーンである。   The touch panel of the display unit 206 is a capacitive touch screen that detects a position by detecting a change in capacitance between a fingertip or a stylus pen and a conductive film.

情報処理装置で実行されているアプリケーションプログラム(以下、単にアプリケーションと呼ぶ)の起動は、タッチスクリーン206のタッチパネル機能を用いて、画面に表示されるアプリケーションのアイコンをダブルクリック(2度続けて触る)ことにより実行される。   An application program (hereinafter simply referred to as an application) executed on the information processing apparatus is activated by double-clicking (touching twice) an application icon displayed on the screen using the touch panel function of the touch screen 206. Is executed.

表示部(以下、タッチスクリーンと呼ぶ)206内の領域はアプリケーションにより複数に分割されることがあり、文章表示部1と文字入力部11に分割されて表示されている。図1は、スタイラスペン10により入力文字12のような文字が入力されている例である。なお、15の部分は入力指示部であり、詳細は後述する。   An area in the display unit (hereinafter referred to as a touch screen) 206 may be divided into a plurality of parts depending on the application, and is displayed divided into a text display unit 1 and a character input unit 11. FIG. 1 is an example in which a character such as the input character 12 is input by the stylus pen 10. Reference numeral 15 denotes an input instruction unit, which will be described in detail later.

情報処理装置100は、他にも通信機能等を備えていてもよいが、本発明とは直接関係がないため説明は省略する。   The information processing apparatus 100 may have other communication functions and the like, but will not be described because it is not directly related to the present invention.

図2は、情報処理装置100のハードウェア構成を示す図である。   FIG. 2 is a diagram illustrating a hardware configuration of the information processing apparatus 100.

図2に示すように、情報処理装置100では、システムバス207を介してCPU(Central Processing Unit)201、RAM(Random Access Memory)203、ROM(Read Only Memory)202、記憶装置204、入出力インタフェース205、タッチスクリーン206が接続される。   As shown in FIG. 2, in the information processing apparatus 100, a central processing unit (CPU) 201, a random access memory (RAM) 203, a read only memory (ROM) 202, a storage device 204, and an input / output interface via a system bus 207. 205 and a touch screen 206 are connected.

CPU201は、システムバス207に接続される各デバイスやコントローラを統括的に制御する。   The CPU 201 comprehensively controls each device and controller connected to the system bus 207.

ROM202あるいは記憶装置204は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。   The ROM 202 or the storage device 204 is a control program executed by the CPU 201 such as a basic input / output system (BIOS) or an operating system (OS), a computer-readable program for realizing this information processing method, and various necessary programs. Holds data (including data table).

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは記憶装置204からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。   The RAM 203 functions as a main memory, work area, and the like for the CPU 201. The CPU 201 implements various operations by loading a program or the like necessary for executing the processing from the ROM 202 or the storage device 204 to the RAM 203 and executing the loaded program.

入出力インタフェース205は、タッチスクリーン206からの入力を制御する。タッチスクリーン206は、複数の指でタッチされた位置を検出することが可能なタッチパネルであり、前述したように、既知の技術を利用可能である。ユーザがタッチスクリーンに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができる。   The input / output interface 205 controls input from the touch screen 206. The touch screen 206 is a touch panel that can detect a position touched by a plurality of fingers, and a known technique can be used as described above. Various instructions can be performed when the user presses (touches with a finger or the like) in accordance with an icon, a cursor, or a button displayed on the touch screen.

なお、記憶装置204には、後述する入力文字から予測入力される辞書情報や入力履歴情報、スタイラスペンなどで記入された筆跡から入力される文字を予測したり確定したりする情報などを格納している。   The storage device 204 stores dictionary information and input history information predicted from input characters, which will be described later, information for predicting and confirming characters input from handwriting entered with a stylus pen, and the like. ing.

なお、記憶装置204は情報を永続的に記憶するための媒体であって、その形態をハードディスク等の記憶装置に限定するものではない。例えば、SSD(Solid State Drive)などの媒体であってもよい。   The storage device 204 is a medium for permanently storing information, and the form is not limited to a storage device such as a hard disk. For example, a medium such as SSD (Solid State Drive) may be used.

図3は本発明の情報処理装置100が備える機能構成の一例を示す機能構成図である。   FIG. 3 is a functional configuration diagram illustrating an example of a functional configuration included in the information processing apparatus 100 of the present invention.

300は、タッチスクリーン制御部であり、図2のタッチスクリーン206と入出力インタフェース205により構成され、ユーザによるタッチの検出機能を備えている。   Reference numeral 300 denotes a touch screen control unit, which includes the touch screen 206 and the input / output interface 205 shown in FIG.

303は、スタイラスペンなどで入力された入力筆跡を認識する手書き文字認識部であり、筆跡用辞書301から一致する筆跡を検索し、該当する文字候補をピックアップする。   Reference numeral 303 denotes a handwritten character recognition unit that recognizes an input handwriting input with a stylus pen or the like, and searches for a handwriting that matches from the handwriting dictionary 301 and picks up a corresponding character candidate.

手書き文字認識部303により、ユーザが入力しようとしている文字が特定できると、予測変換処理部305へと処理を移行し、予測変換用辞書302から特定された文字の変換予測文字もしくは文章をピックアップする。   When the handwritten character recognizing unit 303 can identify the character that the user is trying to input, the process proceeds to the predictive conversion processing unit 305 to pick up the predicted conversion character or sentence of the character specified from the predictive conversion dictionary 302. .

また、筆跡最適化ジェスチャ抽出部304は、手書き文字認識部303により記入されている筆跡の内、文字入力部11から外し易い筆跡(たとえば、入力指示部15や文章表示部1に移動させやすい筆跡)をジェスチャ候補データベースから抽出する。   Further, the handwriting optimization gesture extraction unit 304 can easily remove the handwriting entered by the handwritten character recognition unit 303 from the character input unit 11 (for example, the handwriting easily moved to the input instruction unit 15 or the text display unit 1). ) Is extracted from the gesture candidate database.

予測変換処理部305によりピックアップされた文字もしくは文章の候補を、筆跡最適化ジェスチャ抽出部304で抽出されたジェスチャに割り当て、予測変換候補リスト作成部306においてリスト化し、ジェスチャ=予測変換候補リストを表示する。   Character or sentence candidates picked up by the predictive conversion processing unit 305 are assigned to the gestures extracted by the handwriting optimization gesture extracting unit 304, listed in the predictive conversion candidate list creating unit 306, and a gesture = predictive conversion candidate list is displayed. To do.

ジェスチャ認識部307において、表示されたジェスチャ=予測変換候補リストの内、形状が最も近いジェスチャに対応する予測変換候補を抽出し、アプリケーション310へと送信する。   The gesture recognition unit 307 extracts a prediction conversion candidate corresponding to the gesture having the closest shape from the displayed gesture = prediction conversion candidate list, and transmits the extracted prediction conversion candidate to the application 310.

以上の処理により、ペンで文字を入力する際の動線の延長線上でのジェスチャにより語句(単語・文章)の候補を選択確定できる仕組みを提供する。   With the above processing, a mechanism is provided that can select and confirm word / phrase (word / sentence) candidates by gestures on the extension of the flow line when inputting characters with a pen.

次に図4を参照して、本発明のジェスチャ入力受付の主要処理について説明する。   Next, with reference to FIG. 4, the main process of the gesture input reception of the present invention will be described.

図4は、本発明の実施形態の情報処理装置100における制御処理手段の一例を示す第1のフローチャートであり、図中のS1〜S30各ステップを示す。各ステップの処理は、それぞれのシステムの外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。   FIG. 4 is a first flowchart illustrating an example of a control processing unit in the information processing apparatus 100 according to the embodiment of the present invention, and illustrates steps S1 to S30 in the drawing. The processing of each step is realized by the CPU 201 of each system loading and executing the application program stored in the external memory 211 of each system on the RAM 203.

図4のフローチャートは、情報処理装置100において、手書き文字入力画面を有するアプリケーションプログラムを立ち上げた際に開始されるフローチャートである。   The flowchart of FIG. 4 is a flowchart started when the information processing apparatus 100 starts up an application program having a handwritten character input screen.

まず、図4のステップS1において、情報処理装置100のCPU201は、図1に記載されているようなスタイラスペン10などにより文字入力を受け付ける。受け付けている文字の例が12である。   First, in step S <b> 1 of FIG. 4, the CPU 201 of the information processing apparatus 100 accepts character input using the stylus pen 10 as shown in FIG. 1. An example of accepted characters is 12.

次に、ステップS2において、情報処理装置100のCPU201は、スタイラスペン10などにより入力された筆跡が、筆跡用辞書301内の検索対象のストロークと類似するかを判断し、類似する文字候補を抽出する。なお、筆跡による文字の特定は既知の技術であるため、詳細な説明は省略する。   Next, in step S <b> 2, the CPU 201 of the information processing apparatus 100 determines whether the handwriting input by the stylus pen 10 or the like is similar to the search target stroke in the handwriting dictionary 301, and extracts similar character candidates. To do. In addition, since the specification of the character by handwriting is a known technique, detailed description is abbreviate | omitted.

次に、ステップS3において、情報処理装置100のCPU201は、ステップS2で検出されている筆跡に該当する文字候補があるかどうかを判断する。文字候補がある場合は、ステップS4へと処理を遷移し、文字候補がない場合はステップS1へと戻り、継続して文字入力を受け付ける。   Next, in step S3, the CPU 201 of the information processing apparatus 100 determines whether there is a character candidate corresponding to the handwriting detected in step S2. If there is a character candidate, the process proceeds to step S4. If there is no character candidate, the process returns to step S1 to continuously accept character input.

ステップS4へと処理を遷移すると、情報処理装置100のCPU201は、ステップS2で抽出できた文字候補を参照して、予測変換用辞書302から変換文章候補を抽出する。予測変換用辞書には、図16のようなデータが記憶されている例を記載する。すなわち、候補分類1602が単語である予め辞書に記憶されている変換候補1601と、入力履歴などから記憶された候補分類1602が文章候補である変換候補1601とを記憶している例である。なお、予測変換用辞書302の例は、図17の形式に依らず任意の形式で良いことは言うまでもない。   When the process transitions to step S4, the CPU 201 of the information processing apparatus 100 refers to the character candidate extracted in step S2, and extracts a converted sentence candidate from the predictive conversion dictionary 302. An example in which data as shown in FIG. 16 is stored in the predictive conversion dictionary is described. That is, in this example, conversion candidates 1601 stored in a dictionary in advance, in which candidate classification 1602 is a word, and conversion candidates 1601, in which candidate classification 1602 stored from an input history or the like is a sentence candidate are stored. Needless to say, the example of the predictive conversion dictionary 302 may be in any format regardless of the format of FIG.

図16の例であれば、文字候補が「あ」の場合、単語候補は、「雨」、「朝日」、「旭川」、「足利」、「安政」などであり、文章候補としては、「明日雨が降ったら、映画見に行かない?」、「明日の天気は?」、「青い空」、「青い海」などである。   In the example of FIG. 16, when the character candidate is “A”, the word candidates are “rain”, “Asahi”, “Asahikawa”, “Ashikaga”, “Ansei”, etc. If it rains tomorrow, would you like to go to a movie? "," What is the weather tomorrow? "," Blue sky "," Blue sea ".

次にステップS5において、情報処理装置100のCPU201は、ステップS4で抽出した文字候補と、文字候補毎に表示されるジェスチャ候補をユーザが見やすい位置に表示する処理を行う。ステップS5の処理の詳細を図5を参照して説明する。   Next, in step S <b> 5, the CPU 201 of the information processing apparatus 100 performs processing for displaying the character candidates extracted in step S <b> 4 and the gesture candidates displayed for each character candidate at a position that is easy for the user to see. Details of the processing in step S5 will be described with reference to FIG.

図5は、本発明の実施形態の情報処理装置100における制御処理手段の一例を示す第2のフローチャートであり、図中のS501〜S504各ステップを示す。各ステップの処理は、それぞれのシステムの外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。   FIG. 5 is a second flowchart illustrating an example of the control processing unit in the information processing apparatus 100 according to the embodiment of the present invention, and illustrates steps S501 to S504 in the drawing. The processing of each step is realized by the CPU 201 of each system loading and executing the application program stored in the external memory 211 of each system on the RAM 203.

図5のフローチャートは、情報処理装置100において、図4のステップS5もしくは、図7のステップS14の処理に遷移した際に開始されるフローチャートである。   The flowchart in FIG. 5 is a flowchart started when the information processing apparatus 100 transitions to the process in step S5 in FIG. 4 or step S14 in FIG.

まず、図5のステップS501において、情報処理装置100のCPU201は、ユーザに入力させるジェスチャ候補のリストを作成する。ステップS501の処理の詳細を図6を参照して説明する。   First, in step S501 of FIG. 5, the CPU 201 of the information processing apparatus 100 creates a list of gesture candidates to be input by the user. Details of the processing in step S501 will be described with reference to FIG.

図6は、本発明の実施形態の情報処理装置100における制御処理手段の一例を示す第3のフローチャートであり、図中のS601〜S603各ステップを示す。各ステップの処理は、それぞれのシステムの外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。   FIG. 6 is a third flowchart showing an example of the control processing means in the information processing apparatus 100 according to the embodiment of the present invention, and shows steps S601 to S603 in the figure. The processing of each step is realized by the CPU 201 of each system loading and executing the application program stored in the external memory 211 of each system on the RAM 203.

図6のフローチャートは、情報処理装置100において、図5のステップS501の処理に遷移した際に開始されるフローチャートである。   The flowchart in FIG. 6 is a flowchart started when the information processing apparatus 100 transitions to the process in step S501 in FIG.

図6のステップS601において、情報処理装置100のCPU201は、文字入力エリアを分割した文字入力エリア分割区画の現在の筆跡位置と直前筆跡があった区画との遷移から、文字候補を認識できた時点での区画に対し、筆跡が区画内のどの「辺」から進入したかを特定する。具体的な例は後述する。   In step S601 of FIG. 6, when the CPU 201 of the information processing apparatus 100 has recognized the character candidate from the transition between the current handwriting position of the character input area divided section obtained by dividing the character input area and the section where the previous handwriting was present. For the section at, it is specified from which “side” the handwriting entered the section. A specific example will be described later.

次に、ステップS602において、情報処理装置100のCPU201は、文字入力エリアの進入した辺の位置から、ユーザに入力させるジェスチャ候補を抽出する。具体的な例は後述する。   Next, in step S602, the CPU 201 of the information processing apparatus 100 extracts gesture candidates to be input by the user from the position of the side where the character input area has entered. A specific example will be described later.

次に、スタップS603において、情報処理装置100のCPU201は、抽出したジェスチャ候補に優先度をつけ、図6のフローチャートの処理を終える。   Next, in step S603, the CPU 201 of the information processing apparatus 100 gives priority to the extracted gesture candidates, and ends the process of the flowchart of FIG.

図6のフローチャートの流れを具体的に図12及び図13の例及び図15のジェスチャ判断データベースを参照して説明する。   The flow of the flowchart of FIG. 6 will be specifically described with reference to the examples of FIGS. 12 and 13 and the gesture determination database of FIG.

図12及び図13は、本発明における文字入力時に、次のジェスチャ候補を表示する一例を示す模式図である。   12 and 13 are schematic views showing an example of displaying the next gesture candidate when inputting characters according to the present invention.

手書き入力エリア31は、図12の例では32のように9区画に分割されており、「あ」と入力しようとしている筆跡は、現在の筆跡位置35である。筆跡位置が35の場合、9区画に分けられたエリアの内、E(真ん中)の区画34にあり、Eの区画に来る前の筆跡はDの区画(左真ん中)33から、すなわちEの区画の左辺から進入している。左辺からの進入であれば、図15のジェスチャ判断データベースにより、グループKey1502が「左辺進入_E」であるジェスチャ1505がジェスチャ候補になる。なお、ジェスチャ候補の優先度は1506に昇順に指定された順番である。図15の例では、上位5つのジェスチャ1505がジェスチャ候補になる。   The handwriting input area 31 is divided into nine sections like 32 in the example of FIG. 12, and the handwriting to be input “a” is the current handwriting position 35. When the handwriting position is 35, it is in the E (middle) section 34 in the area divided into 9 sections, and the handwriting before coming to the E section is from the D section (left middle) 33, that is, the E section. Entering from the left side of. If the entry is from the left side, the gesture 1505 whose group key 1502 is “left side entry_E” is a gesture candidate based on the gesture determination database of FIG. Note that the priority of the gesture candidates is the order specified in ascending order 1506. In the example of FIG. 15, the top five gestures 1505 are gesture candidates.

同様に、図13の例では「あ」と入力しようとしている筆跡は、現在の筆跡位置40であり、筆跡位置が40の場合、9区画に分けられたエリアの内、E(真ん中)の区画39にあり、Eの区画に来る前の筆跡はBの区画(上真ん中)38から、すなわちEの区画の上辺から進入している。上辺からの進入であれば、図15のジェスチャ判断データベースにより、グループKey1502が「上辺進入_E」であるジェスチャ1505がジェスチャ候補になる。図15の例では、下位5つのジェスチャ1505がジェスチャ候補になる。   Similarly, in the example of FIG. 13, the handwriting to be input as “A” is the current handwriting position 40, and when the handwriting position is 40, E (middle) of the nine divided areas. At 39, the handwriting before coming to the E section enters from the B section (upper middle) 38, that is, from the upper side of the E section. If the entry is from the upper side, the gesture 1505 whose group key 1502 is “upper side entry_E” is a gesture candidate based on the gesture determination database of FIG. In the example of FIG. 15, the lower five gestures 1505 are gesture candidates.

以上の処理により、文字の筆跡からユーザに入力させるジェスチャ候補を優先度を付けてピックアップする。図5のフローチャートの説明に戻る。   Through the above processing, gesture candidates to be input by the user from the handwriting of the character are picked up with priority. Returning to the flowchart of FIG.

図5のステップS501において、ユーザに入力させるジェスチャ候補のリストを作成すると、次にステップS502において、情報処理装置100のCPU201は、ステップS4で予測変換用辞書302から抽出した文章の変換候補を使用履歴などから優先度を付けてリスト化する。図14の例、及び図16を参照して、予測変換用辞書から抽出した文章の変換候補を抽出する例を説明する。   When a list of gesture candidates to be input by the user is created in step S501 in FIG. 5, in step S502, the CPU 201 of the information processing apparatus 100 uses the sentence conversion candidates extracted from the predictive conversion dictionary 302 in step S4. Create a list with priorities from the history. With reference to the example of FIG. 14 and FIG. 16, an example of extracting text conversion candidates extracted from the predictive conversion dictionary will be described.

図14の61にある62から65が、抽出された文章の例あり、63から65は予測変換用辞書302の候補分類1602が文章候補の変換候補である。62は変換候補の内、候補分類1602が単語候補のものをまとめてリスト化している。まとめてリスト化した単語候補は、後から更に変換候補をユーザに選択させる処理を行う。なお、単語候補のリストも文章候補と同じようにそれぞれの変換候補としても良い。   62 to 65 in 61 of FIG. 14 are examples of extracted sentences, and 63 to 65 are candidate classifications 1602 of the predictive conversion dictionary 302 as conversion candidates of sentence candidates. Reference numeral 62 is a list of conversion candidates whose candidate classification 1602 is a word candidate. The word candidates listed together are further subjected to processing for causing the user to select conversion candidates later. Note that the word candidate list may be each conversion candidate in the same manner as the sentence candidates.

次に、ステップS503において、情報処理装置100のCPU201は、ジェスチャ候補と文章の変換候補とを優先度を考慮して対応付けて、選択ジェスチャ付予測変換候補リストとして記憶する。選択ジェスチャ付予測変換候補リストの例として、図12の下図を参照して説明する。   Next, in step S <b> 503, the CPU 201 of the information processing apparatus 100 associates the gesture candidate and the sentence conversion candidate in consideration of the priority, and stores them as a prediction conversion candidate list with selection gesture. An example of the prediction conversion candidate list with selection gesture will be described with reference to the lower diagram of FIG.

図12の下図は、選択ジェスチャ付予測変換候補リストの例である。ジェスチャ候補の順番と変換候補の優先度を考慮して対応付けられている。図5のフローチャートの説明に戻る。   The lower diagram of FIG. 12 is an example of the prediction conversion candidate list with selection gesture. The correspondence is made in consideration of the order of the gesture candidates and the priority of the conversion candidates. Returning to the flowchart of FIG.

次に、ステップS504において、情報処理装置100のCPU201は、生成したリストを図8の画面イメージのように表示する処理を行う。図8の表示欄14に表示された3行が新たに表示された画面イメージである。以上の処理で図5のフローチャートの処理を終えて、図4のフローチャートもしくは図7のフローチャートに処理を戻す。   Next, in step S504, the CPU 201 of the information processing apparatus 100 performs a process of displaying the generated list like the screen image of FIG. The three lines displayed in the display column 14 of FIG. 8 are newly displayed screen images. The processing of the flowchart of FIG. 5 is completed by the above processing, and the processing is returned to the flowchart of FIG. 4 or the flowchart of FIG.

図4のフローチャートに戻ると、次のステップS6において、情報処理装置100のCPU201は、スタイラスペンなどの筆跡が、テキストボックス枠(文字入力部)から外れたかを判断する。この判断は、ユーザがテキストボックス枠(文字入力部)内でスタイラスペンを操作している間は文字入力中と認識し、スタイラスペンがテキストボックス枠(文字入力部)から外れた場合にジェスチャ操作と判断する処理になる。図1を参照して詳細を説明する。   Returning to the flowchart of FIG. 4, in the next step S <b> 6, the CPU 201 of the information processing apparatus 100 determines whether or not the handwriting such as the stylus pen is out of the text box frame (character input unit). This determination is made when the user operates the stylus pen in the text box frame (character input part) and recognizes that the character is being input, and when the stylus pen moves out of the text box frame (character input part) It becomes processing to judge. Details will be described with reference to FIG.

図1のタッチスクリーンは、文章表示部1と文字入力部11、入力指示部15に分かれている。文字入力部11にスタイラスペン10がある間は、文字入力中と判断し、文字入力部11から外れて文章表示部1や入力指示部15にスタイラスペン10が移動した場合は、ユーザの指示がジェスチャに変わったと判断することにより、ジェスチャ入力なのか文字入力中なのかを判別することができる。図4のフローチャートの説明に戻る。   The touch screen of FIG. 1 is divided into a text display unit 1, a character input unit 11, and an input instruction unit 15. While the stylus pen 10 is present in the character input unit 11, it is determined that the character is being input, and when the stylus pen 10 moves to the text display unit 1 or the input instruction unit 15, the user's instruction is given. By determining that the gesture has been changed, it is possible to determine whether the input is a gesture or a character is being input. Returning to the flowchart of FIG.

ステップS6において、スタイラスペンなどの筆跡がテキストボックス枠(文字入力部)から外れていない場合は、手書き文字を継続させるため、ステップS1へと処理を移行する。一方、スタイラスペンなどの筆跡がテキストボックス枠(文字入力部)から外れた場合は、ジェスチャ操作(すなわち、文字候補選択操作)と判断し、ステップS7へと処理を遷移する。   In step S6, when a handwriting such as a stylus pen is not removed from the text box frame (character input unit), the process proceeds to step S1 in order to continue the handwritten character. On the other hand, when a handwriting such as a stylus pen is out of the text box frame (character input unit), it is determined as a gesture operation (that is, a character candidate selection operation), and the process proceeds to step S7.

ステップS7において、情報処理装置100のCPU201は、ジェスチャ操作を認識する。ステップS7はジェスチャ操作が終わる操作を待つ操作であっても良い。   In step S <b> 7, the CPU 201 of the information processing apparatus 100 recognizes the gesture operation. Step S7 may be an operation of waiting for an operation to end the gesture operation.

次に、ステップS8において、情報処理装置100のCPU201は、入力欄から外れた操作の筆跡の特徴量を検出する。この検出は、図16でジェスチャ候補として上がった操作と類似しているか特定できる程度で良い。   Next, in step S <b> 8, the CPU 201 of the information processing apparatus 100 detects the feature amount of the handwriting of the operation that is outside the input field. This detection may be performed to the extent that it is possible to specify whether it is similar to the operation that has been raised as a gesture candidate in FIG.

ステップS9において、情報処理装置100のCPU201は、ステップS8で検出したジェスチャ操作の特徴量が、ステップS5の処理でピックアップされたジェスチャ候補と類似している形があるかどうか判断する。ステップS8で検出したジェスチャ操作の特徴量が、ステップS5の処理でピックアップされたジェスチャ候補と類似している形がある場合は、ステップS10へと処理を遷移し、ピックアップされたジェスチャ候補と類似している形がない場合は、ジェスチャ部分の筆跡を削除(ステップS20)して、ステップS1へと処理を遷移し、文字入力処理を続ける。すなわち、文字入力部から外れた以降の筆跡を削除して、文字入力処理に戻る。なお、ステップS8で検出したジェスチャ操作の特徴量が、ステップS5の処理でピックアップされたジェスチャ候補と類似している形がない場合、ステップS7へと遷移し、引き続いてジェスチャ認識を続けても良い。図9を参照して具体的な判断例を説明する。   In step S9, the CPU 201 of the information processing apparatus 100 determines whether or not the feature amount of the gesture operation detected in step S8 is similar to the gesture candidate picked up in step S5. If the feature amount of the gesture operation detected in step S8 has a shape similar to the gesture candidate picked up in step S5, the process proceeds to step S10 and is similar to the picked-up gesture candidate. If there is no shape, the handwriting of the gesture part is deleted (step S20), the process proceeds to step S1, and the character input process is continued. That is, the handwriting after the character input part is removed is deleted, and the process returns to the character input process. If the feature amount of the gesture operation detected in step S8 is not similar to the gesture candidate picked up in step S5, the process proceeds to step S7, and the gesture recognition may continue. . A specific determination example will be described with reference to FIG.

図9は、ユーザにより、16のようなスタイラスペン10の操作を受け付けた際の画面イメージである。図9の16のジェスチャは、右下に伸ばした後、折れ線を描いている操作であり、ジェスチャ候補に挙がっているうちの22の操作に類似している。そのため、図9のようなジェスチャ操作を受け付けた場合、図4の処理フローはステップS10へと遷移する。図4のフローチャートの説明に戻る。   FIG. 9 is a screen image when an operation of the stylus pen 10 such as 16 is received by the user. The gesture 16 in FIG. 9 is an operation of drawing a polygonal line after extending to the lower right, and is similar to the operation of 22 of the gesture candidates. Therefore, when a gesture operation as shown in FIG. 9 is accepted, the processing flow in FIG. 4 transitions to step S10. Returning to the flowchart of FIG.

次に、ステップS10において、情報処理装置100のCPU201は、受け付けたジェスチャ操作が単語候補BOX(すなわち、図8の23、図12の41欄)を指定する操作かを判断する。単語候補BOXを指定するジェスチャ操作の場合、ステップ11へと処理を遷移し、単語候補BOXを指定するジェスチャ操作ではない場合は、ステップS30へと処理を遷移する。   Next, in step S10, the CPU 201 of the information processing apparatus 100 determines whether the accepted gesture operation is an operation for designating a word candidate BOX (that is, 23 in FIG. 8 or 41 in FIG. 12). In the case of a gesture operation for designating a word candidate BOX, the process proceeds to step 11, and in the case of a gesture operation for designating a word candidate BOX, the process proceeds to step S30.

ステップS30へと処理を遷移すると、情報処理装置100のCPU201は、ジェスチャ操作が類似(一致)するジェスチャ候補に対応する文章候補で文章を確定し、アプリケーションプログラム310へと出力する。アプリケーションプログラム310に出力される例を図9及び図10を参照して説明する。   When the process transitions to step S <b> 30, the CPU 201 of the information processing apparatus 100 determines a sentence with a sentence candidate corresponding to a gesture candidate whose gesture operation is similar (matches), and outputs the sentence to the application program 310. An example output to the application program 310 will be described with reference to FIGS.

図9において、ジェスチャ操作16がなされ、そのジェスチャに一致するジェスチャ候補22がある場合、ジェスチャ候補22に対応する文章13をアプリケーションプログラムに出力する。出力した結果が図10である。図10の17欄が、ジェスチャにより入力された文章である。   In FIG. 9, when the gesture operation 16 is performed and there is a gesture candidate 22 that matches the gesture, the sentence 13 corresponding to the gesture candidate 22 is output to the application program. The output result is shown in FIG. The 17th column in FIG. 10 is a sentence input by a gesture.

一方、ステップS10で受け付けたジェスチャ操作が単語候補BOXを指定する操作(図8の23)を受け付けた場合は、ステップS11へと処理を遷移する。   On the other hand, when the gesture operation received in step S10 receives an operation (23 in FIG. 8) for designating a word candidate BOX, the process proceeds to step S11.

ステップS11へと処理を遷移すると、情報処理装置100のCPU201は、次のジェスチャにより単語候補から選択させる処理を行う。ステップS11の処理の詳細を図7を参照して説明する。   When the process transitions to step S11, the CPU 201 of the information processing apparatus 100 performs a process of selecting from word candidates by the next gesture. Details of the processing in step S11 will be described with reference to FIG.

図7は、本発明の実施形態の情報処理装置100における制御処理手段の一例を示す第4のフローチャートであり、図中のS13〜S19各ステップを示す。各ステップの処理は、それぞれのシステムの外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。   FIG. 7 is a fourth flowchart illustrating an example of the control processing unit in the information processing apparatus 100 according to the embodiment of this invention, and illustrates steps S13 to S19 in the figure. The processing of each step is realized by the CPU 201 of each system loading and executing the application program stored in the external memory 211 of each system on the RAM 203.

図7のフローチャートは、情報処理装置100において、図4のステップS11の処理に遷移した際に開始されるフローチャートである。   The flowchart in FIG. 7 is a flowchart started when the information processing apparatus 100 transitions to the process in step S11 in FIG.

図7のステップS13において、情報処理装置100のCPU201は、予測変換用辞書302から単語候補となる文字1601をピックアップし、それらの文字とジェスチャ候補とを対応付ける。対応付けられたデータのイメージが図14である。図14の下図である単語候補グループBOX展開表示71は、単語候補と対応するジェスチャ候補とを紐付けているデータのイメージ図である。   In step S13 of FIG. 7, the CPU 201 of the information processing apparatus 100 picks up characters 1601 that are word candidates from the prediction conversion dictionary 302 and associates these characters with gesture candidates. FIG. 14 shows an image of the associated data. The word candidate group BOX expansion display 71 shown in the lower part of FIG. 14 is an image diagram of data in which a word candidate is associated with a corresponding gesture candidate.

次に、ステップS14において、情報処理装置100のCPU201は、ステップS13で対応付けられた単語候補とジェスチャ候補とを見やすい位置に表示する。表示したイメージ図が、図11である。図11は、図8のような画面イメージにおいて、18のようなジェスチャを受け付けた場合に、表示される画面イメージである。図11の中段部分19にステップS13で対応付けられたデータが表示されている。   Next, in step S14, the CPU 201 of the information processing apparatus 100 displays the word candidate and the gesture candidate associated in step S13 at an easily viewable position. FIG. 11 shows the displayed image. FIG. 11 is a screen image displayed when a gesture such as 18 is accepted in the screen image as shown in FIG. Data associated with step S13 is displayed in the middle portion 19 of FIG.

次に、ステップS15において、情報処理装置100のCPU201は、ユーザからのジェスチャの入力を受け付ける。その際、ジェスチャ入力は入力欄(テキストボックス11)外から入力された場合を前提とする。もし、入力欄内(テキストボックス11内)からのスタイラスペンの操作の場合は、通常の筆跡による文字入力と判断する。   Next, in step S15, the CPU 201 of the information processing apparatus 100 receives a gesture input from the user. In this case, it is assumed that the gesture input is input from outside the input field (text box 11). If the stylus pen is operated from the input field (in the text box 11), it is determined that the character input is a normal handwriting.

次に、ステップS16において、情報処理装置100のCPU201は、入力されたジェスチャの特徴量を検出し、ステップS17において、ステップS13でピックアップされたジェスチャ候補と類似している形があるかどうか判断する。ステップS16で検出したジェスチャ操作の特徴量が、ステップS13でピックアップされたジェスチャ候補と類似している形がある場合は、ステップS19へと処理を遷移し、類似するジェスチャ候補に対応する単語候補を確定して出力する。一方、ステップS16で検出したジェスチャ操作の特徴量が、ステップS13でピックアップされたジェスチャ候補と類似している形がない場合は、ジェスチャとして入力されている筆跡をクリアし、ステップS15へと処理を戻す。   Next, in step S16, the CPU 201 of the information processing apparatus 100 detects the feature amount of the input gesture, and in step S17, determines whether there is a shape similar to the gesture candidate picked up in step S13. . If the feature amount of the gesture operation detected in step S16 is similar to the gesture candidate picked up in step S13, the process proceeds to step S19, and word candidates corresponding to the similar gesture candidate are selected. Confirm and output. On the other hand, if the feature amount of the gesture operation detected in step S16 is not similar to the gesture candidate picked up in step S13, the handwriting input as the gesture is cleared, and the process proceeds to step S15. return.

以上の処理により、スタイラスペンなどで入力する際の動線の延長線上で、様々なジェスチャにより語句(単語・文章)の選択を確定して出力可能とする効果を有する。また、スタイラスペンでの入力とジェスチャによる指示とを入力欄(テキストボックス)から外して記入したかどうかで判別することが可能となる。   With the above processing, there is an effect that the selection of a phrase (word / sentence) can be confirmed and output by various gestures on the extended line of the flow line when inputting with a stylus pen or the like. Further, it is possible to determine whether or not the input with the stylus pen and the instruction by the gesture are entered after being removed from the input field (text box).

なお、上述した各種データの構成及びその内容はこれに限定されるものではなく、用途や目的に応じて、様々な構成や内容で構成されることは言うまでもない。   It should be noted that the configuration and contents of the various data described above are not limited to this, and it goes without saying that the various data and configurations are configured according to the application and purpose.

また、本発明におけるプログラムは、図4〜図7に示すフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は図4〜図7の処理方法をコンピュータが実行可能なプログラムが記憶されている。   The program according to the present invention is a program that allows a computer to execute the processing method of the flowcharts shown in FIGS. 4 to 7. Is remembered.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by executing the reading.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。   In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。   As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk, solid state drive, or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or apparatus can enjoy the effects of the present invention.

なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。   In addition, all the structures which combined each embodiment mentioned above and its modification are also included in this invention.

1 文章表示部
10 スタイラスペン
11 文字入力部
15 入力指示部
100 情報処理装置
206 タッチスクリーン
DESCRIPTION OF SYMBOLS 1 Text display part 10 Stylus pen 11 Character input part 15 Input instruction | indication part 100 Information processing apparatus 206 Touch screen

Claims (5)

タッチパネルと、手書き文字を認識する筆跡認識手段と、入力された文字により決定される文字列を記憶する予測変換記憶手段を有する、アプリケーションプログラムが動作する情報処理装置であって、
前記筆跡認識手段により認識された文字に続く予測された候補文字列を予測変換データベースから抽出する予測変換候補抽出手段と、
前記筆跡認識手段により文字とは認識されない筆跡(ジェスチャ)を記憶するジェスチャ記憶手段と、
前記予測変換候補抽出手段により抽出された候補文字列と、前記ジェスチャ記憶手段に記憶された筆跡(ジェスチャ)とを紐付けるジェスチャ候補文字列紐付け手段と、
前記ジェスチャ候補文字列紐付け手段で紐付けられた筆跡と候補文字列を表示するジェスチャ候補文字列表示手段と、
前記筆跡認識手段により、前記ジェスチャ候補文字列紐付け手段で紐付けられた筆跡が認識されると、該ジェスチャ候補文字列紐付け手段で紐付けられた候補文字列をアプリケーションプログラムに出力する文字列出力手段と
を有することを特徴とする情報処理装置。
An information processing apparatus on which an application program operates, having a touch panel, handwriting recognition means for recognizing handwritten characters, and predictive conversion storage means for storing a character string determined by input characters,
A predictive conversion candidate extraction means for extracting a predicted candidate character string following the character recognized by the handwriting recognition means from a predictive conversion database;
Gesture storage means for storing a handwriting (gesture) that is not recognized as a character by the handwriting recognition means;
A gesture candidate character string linking means for linking a candidate character string extracted by the prediction conversion candidate extraction means and a handwriting (gesture) stored in the gesture storage means;
Gesture candidate character string display means for displaying the handwriting and the candidate character string linked by the gesture candidate character string linking means;
When the handwriting recognized by the gesture candidate character string linking means is recognized by the handwriting recognition means, the character string that outputs the candidate character string linked by the gesture candidate character string linking means to the application program And an output unit.
前記ジェスチャ候補文字列紐付け手段で紐付けられる筆跡(ジェスチャ)の記憶手段に記憶される筆跡は、手書き文字を認識する入力領域を外れる筆跡であることを特徴とする請求項1に記載の情報処理装置。   The information according to claim 1, wherein the handwriting stored in the handwriting (gesture) storage means associated with the gesture candidate character string associating means is a handwriting outside an input area for recognizing handwritten characters. Processing equipment. 前記予測変換候補抽出手段は、前記入力された文字により決定される前記予測変換データベースの中から候補になる文字列の順位にを有し、
前記筆跡認識手段により手書き文字が認識された筆跡の位置から前記手書き文字を認識する入力領域を容易に外れる順に、前記予測変換候補抽出手段により抽出される順位を対応させるジェスチャ抽出手段と、
を有することを特徴とする請求項2に記載の情報処理装置。
The predictive conversion candidate extraction means has a rank of a character string as a candidate from the predictive conversion database determined by the input characters,
A gesture extraction unit that associates the ranks extracted by the predictive conversion candidate extraction unit in order of easily deviating from the input area for recognizing the handwritten character from the position of the handwritten character recognized by the handwriting recognition unit;
The information processing apparatus according to claim 2, further comprising:
タッチパネルと、手書き文字を認識する筆跡認識部と、該筆跡認識部により文字とは認識されない筆跡(ジェスチャ)を記憶するジェスチャ記憶部と、入力された文字により決定される文字列を記憶する予測変換記憶部を有する、アプリケーションプログラムが動作する情報処理装置における情報処理方法であって、
前記筆跡認識部により認識された文字に続く予測された候補文字列を予測変換データベースから抽出する予測変換候補抽出ステップと、
前記予測変換候補抽出ステップにより抽出された候補文字列と、前記ジェスチャ記憶部に記憶された筆跡(ジェスチャ)とを紐付けるジェスチャ候補文字列紐付けステップと、
前記ジェスチャ候補文字列紐付けステップで紐付けられた筆跡と候補文字列を表示するジェスチャ候補文字列表示ステップと、
前記筆跡認識部により、前記ジェスチャ候補文字列紐付けステップで紐付けられた筆跡が認識されると、該ジェスチャ候補文字列紐付けステップで紐付けられた候補文字列をアプリケーションプログラムに出力する文字列出力ステップと
を有することを特徴とする情報処理方法。
A touch panel, a handwriting recognition unit that recognizes handwritten characters, a gesture storage unit that stores a handwriting (gesture) that is not recognized by the handwriting recognition unit, and a predictive conversion that stores a character string determined by an input character An information processing method in an information processing apparatus having a storage unit on which an application program operates,
A predictive conversion candidate extraction step of extracting a predicted candidate character string following the character recognized by the handwriting recognition unit from a predictive conversion database;
A gesture candidate character string associating step for associating the candidate character string extracted in the predictive conversion candidate extraction step with a handwriting (gesture) stored in the gesture storage unit;
A gesture candidate character string display step for displaying the handwriting and the candidate character string linked in the gesture candidate character string linking step;
When the handwriting associated with the gesture candidate character string associating step is recognized by the handwriting recognition unit, the character string that outputs the candidate character string associated with the gesture candidate character string associating step to the application program And an output step.
情報処理装置を、請求項4に記載の情報処理方法で動作させるためのプログラム。   A program for causing an information processing apparatus to operate according to the information processing method according to claim 4.
JP2016213616A 2016-10-31 2016-10-31 Information processing device, information processing method, and program Pending JP2018073202A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016213616A JP2018073202A (en) 2016-10-31 2016-10-31 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016213616A JP2018073202A (en) 2016-10-31 2016-10-31 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2018073202A true JP2018073202A (en) 2018-05-10

Family

ID=62115521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016213616A Pending JP2018073202A (en) 2016-10-31 2016-10-31 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2018073202A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022154423A1 (en) * 2021-01-13 2022-07-21 삼성전자 주식회사 Electronic apparatus and method for processing input from stylus pen in electronic apparatus
CN117111826A (en) * 2023-10-23 2023-11-24 深圳市华南英才科技有限公司 Capacitive pen screen interaction control method and system based on handwriting characteristics

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022154423A1 (en) * 2021-01-13 2022-07-21 삼성전자 주식회사 Electronic apparatus and method for processing input from stylus pen in electronic apparatus
CN117111826A (en) * 2023-10-23 2023-11-24 深圳市华南英才科技有限公司 Capacitive pen screen interaction control method and system based on handwriting characteristics
CN117111826B (en) * 2023-10-23 2024-01-02 深圳市华南英才科技有限公司 Capacitive pen screen interaction control method and system based on handwriting characteristics

Similar Documents

Publication Publication Date Title
US9274704B2 (en) Electronic apparatus, method and storage medium
US9390341B2 (en) Electronic device and method for manufacturing the same
US20160062634A1 (en) Electronic device and method for processing handwriting
JP6092418B2 (en) Electronic device, method and program
US20150123988A1 (en) Electronic device, method and storage medium
US20130300675A1 (en) Electronic device and handwritten document processing method
JP5947887B2 (en) Display control device, control program, and display device control method
US9996522B2 (en) Dictionary device for determining a search method based on a type of a detected touch operation
JP6426417B2 (en) Electronic device, method and program
US20170285932A1 (en) Ink Input for Browser Navigation
JP6092462B2 (en) Electronic device, method and program
US10049114B2 (en) Electronic device, method and storage medium
EP2897055A1 (en) Information processing device, information processing method, and program
US9182908B2 (en) Method and electronic device for processing handwritten object
US20190196712A1 (en) Systems and Methods for Facilitating Data Entry into Small Screen Electronic Devices
US20160117548A1 (en) Electronic apparatus, method and storage medium
JP6430198B2 (en) Electronic device, method and program
JP2018073202A (en) Information processing device, information processing method, and program
US9298366B2 (en) Electronic device, method and computer readable medium
US20160147437A1 (en) Electronic device and method for handwriting
US20150149894A1 (en) Electronic device, method and storage medium
KR102138095B1 (en) Voice command based virtual touch input apparatus
JP6251408B2 (en) Electronic device, method and program
JP6062487B2 (en) Electronic device, method and program
JP6315996B2 (en) Electronic device, method and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170719

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190111