JPWO2017042981A1 - INPUT PROCESSING METHOD, INPUT PROCESSING DEVICE, INPUT PROCESSING PROGRAM, AND INPUT PROCESSING SYSTEM - Google Patents

INPUT PROCESSING METHOD, INPUT PROCESSING DEVICE, INPUT PROCESSING PROGRAM, AND INPUT PROCESSING SYSTEM Download PDF

Info

Publication number
JPWO2017042981A1
JPWO2017042981A1 JP2017538837A JP2017538837A JPWO2017042981A1 JP WO2017042981 A1 JPWO2017042981 A1 JP WO2017042981A1 JP 2017538837 A JP2017538837 A JP 2017538837A JP 2017538837 A JP2017538837 A JP 2017538837A JP WO2017042981 A1 JPWO2017042981 A1 JP WO2017042981A1
Authority
JP
Japan
Prior art keywords
terminal
input
information
handwriting
text information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017538837A
Other languages
Japanese (ja)
Inventor
悠吾 松田
悠吾 松田
将司 小川
将司 小川
康弘 露木
康弘 露木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2017042981A1 publication Critical patent/JPWO2017042981A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/158Segmentation of character regions using character size, text spacings or pitch estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

手書き入力された第1の手書き入力に基づいて認識された第1のテキスト情報を第2の端末に送信する処理と、前記第2の端末において表示された、前記第1のテキスト情報に対応する第2のテキスト情報に対する第2の手書き入力に関する筆跡情報、および、前記第2のテキスト情報に関する表示位置情報の前記第2の端末からの受信に応じ、前記筆跡情報、および、前記表示位置情報に基づき、前記第1のテキスト情報を修正する処理と、を実行する。The first text information recognized based on the first handwritten input input by handwriting is transmitted to the second terminal, and the first text information displayed on the second terminal corresponds to the first text information. In response to reception of handwriting information related to the second handwritten input for the second text information and display position information related to the second text information from the second terminal, the handwriting information and the display position information And a process of correcting the first text information.

Description

本発明は、入力処理方法、入力処理装置、入力処理プログラムおよび入力処理システムに関する。   The present invention relates to an input processing method, an input processing device, an input processing program, and an input processing system.

ユーザによる手書き入力を受け付け、受け付けた手書き入力について文字認識を行って得られた認識文字を、入力文字として処理するツールが知られている(例えば、特許文献1等を参照。)。   A tool is known that accepts handwritten input by a user and processes a recognized character obtained by performing character recognition on the accepted handwritten input as an input character (see, for example, Patent Document 1).

また、複数のタブレット等の端末において、画面に入力されたデータを共有することが行われている。   In addition, sharing of data input on a screen is performed in a plurality of terminals such as tablets.

特開2005−235116号公報JP-A-2005-235116

複数の端末において画面に入力されたデータを共有し、手書き入力に対応させ、手書き入力による修正にも対応させた場合、端末に表示された文字に対し、その文字について手書き入力を受け付けたのとは異なる端末から手書き入力により修正が行われる場面が考えられる。例えば、顧客に第1の端末で手書き入力を行わせ、店員が第2の端末で記載内容の修正を手書き入力で行うような場合が想定される。   When the data input on the screen is shared by multiple terminals, it is compatible with handwriting input, and it is also compatible with correction by handwriting input, it is said that handwritten input was accepted for the character displayed on the terminal There are cases where corrections are made by handwriting input from different terminals. For example, it is assumed that the customer performs handwriting input at the first terminal and the store clerk corrects the description content by handwriting input at the second terminal.

この場合、表示される文字についての入力済の手書き入力の筆跡情報(ストローク情報)を修正のために他の端末で再利用できるようにすると、複数の端末において筆跡情報についても共有しなければならない。一般に、筆跡情報は二次元座標が多数連なったものとなるため、データ量が多く(例えば、数キロバイト)、必ずしも修正に利用されるとは限らない多量のデータを複数の端末で共有することとなる。   In this case, if the handwritten input handwritten information (stroke information) about the displayed characters can be reused in another terminal for correction, the handwritten information must be shared among a plurality of terminals. . In general, handwriting information is a series of two-dimensional coordinates, so that the amount of data is large (for example, several kilobytes), and a large amount of data that is not necessarily used for correction is shared between multiple terminals. Become.

また、データの共有が行われる端末は、必ずしも処理能力(CPU、電池、認識ソフトの有無等)が全て揃っているとは限らず、仮に筆跡情報を複数の端末で共有した場合であっても、修正の処理を円滑に行えない場合がある。例えば、手書き文字認識に必要な端末のメモリ使用量は、RAM(Random Access Memory)で2.5MB、ROM(Read Only Memory)で1.5MB程度となり、リソースが乏しい端末では処理を円滑に行えない場合があり、通常の処理に与える影響も無視できない。   In addition, terminals that share data do not necessarily have all the processing capabilities (CPU, battery, presence / absence of recognition software, etc.), and even if handwriting information is shared by a plurality of terminals. The correction process may not be performed smoothly. For example, the memory usage of a terminal required for handwritten character recognition is about 2.5 MB for RAM (Random Access Memory) and about 1.5 MB for ROM (Read Only Memory), and processing cannot be performed smoothly on terminals with limited resources. In some cases, the effect on normal processing cannot be ignored.

そこで、一側面では、複数の端末で手書き入力の結果を共有する場合において、手書き入力により認識されたテキストに対する修正を、通信量及び/又は処理リソースを抑えながら行えるようにすることを目的とする。   Therefore, in one aspect, when sharing the result of handwriting input by a plurality of terminals, it is an object to be able to correct a text recognized by handwriting input while suppressing communication amount and / or processing resources. .

一つの形態では、手書き入力された第1の手書き入力に基づいて認識された第1のテキスト情報を第2の端末に送信する処理と、前記第2の端末において表示された、前記第1のテキスト情報に対応する第2のテキスト情報に対する第2の手書き入力に関する筆跡情報、および、前記第2のテキスト情報に関する表示位置情報の前記第2の端末からの受信に応じ、前記筆跡情報、および、前記表示位置情報に基づき、前記第1のテキスト情報を修正する処理と、を実行する。   In one form, the process which transmits the 1st text information recognized based on the 1st handwritten input input by handwriting to a 2nd terminal, The said 1st displayed on the said 2nd terminal In response to reception of handwriting information related to second handwritten input with respect to second text information corresponding to text information, and display position information related to the second text information from the second terminal, the handwriting information, and And a process of correcting the first text information based on the display position information.

一側面では、複数の端末で手書き入力の結果を共有する場合において、手書き入力により認識されたテキストに対する修正を、通信量及び/又は処理リソースを抑えながら行えるようにすることができる。   In one aspect, when the result of handwriting input is shared by a plurality of terminals, it is possible to perform correction on the text recognized by handwriting input while suppressing the communication amount and / or processing resources.

一実施形態にかかるシステムの構成例を示す図である。It is a figure which shows the structural example of the system concerning one Embodiment. 端末のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a terminal. 端末1の機能構成の例を示す図である。3 is a diagram illustrating an example of a functional configuration of a terminal 1. FIG. 文字・ストローク情報およびセグメント情報の構造例を示す図である。It is a figure which shows the structural example of character / stroke information and segment information. エリア情報の構造例を示す図である。It is a figure which shows the structural example of area information. 端末間でのデータの共有の例を示す図(その1)である。FIG. 5 is a diagram (part 1) illustrating an example of data sharing between terminals; 端末間でのデータの共有の例を示す図(その2)である。It is FIG. (2) which shows the example of sharing of data between terminals. 送信データの例を示す図である。It is a figure which shows the example of transmission data. 実施形態の処理例を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the process example of embodiment. 実施形態の処理例を示すフローチャート(その2)である。It is a flowchart (the 2) which shows the process example of embodiment. ストローク情報の補正の例を示す図である。It is a figure which shows the example of correction | amendment of stroke information. 画面のサイズやエリア位置情報から単純に補正した場合の問題を示す図である。It is a figure which shows the problem at the time of correct | amending simply from the size of a screen or area position information.

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<構成>
図1は一実施形態にかかるシステムの構成例を示す図である。図1において、複数の端末(端末装置)1A、1B、・・は、無線LAN(Local Area Network)等のネットワーク5を介して通信装置6に接続され、端末1A、1B、・・の相互間でデータの共有が行われるようになっている。通信装置6は、端末1A、1B、・・のいずれかから宛先を指定したデータを受信すると、該当する宛先の端末にデータを送信する。なお、端末1A、1B、・・の相互間で直接にデータの送受信を行う場合は、ネットワーク5および通信装置6を省略することもできる。
<Configuration>
FIG. 1 is a diagram illustrating a configuration example of a system according to an embodiment. In FIG. 1, a plurality of terminals (terminal devices) 1A, 1B,... Are connected to a communication device 6 via a network 5 such as a wireless local area network (LAN), and the terminals 1A, 1B,. Data sharing is now available. When the communication device 6 receives the data specifying the destination from any one of the terminals 1A, 1B,..., The communication device 6 transmits the data to the corresponding destination terminal. When data is directly transmitted / received between the terminals 1A, 1B,..., The network 5 and the communication device 6 can be omitted.

各端末1(1A、1B、・・)には、主なプログラムとして、テキスト表示アプリケーション10(10A、10B、・・)と、修正対象文字特定プログラム20(20A、20B、・・)と、認識プログラム30(30A、30B、・・)と、共有プログラム70(70A、70B、・・)とが配置されている。   Each terminal 1 (1A, 1B,...) Recognizes a text display application 10 (10A, 10B,...) And a correction target character identification program 20 (20A, 20B,...) As main programs. A program 30 (30A, 30B,...) And a shared program 70 (70A, 70B,...) Are arranged.

テキスト表示アプリケーション10は、例えば、伝票作成アプリケーションやメール作成アプリケーション等の、入力された文字群(テキスト)を表示するプログラムである。テキスト表示アプリケーション10により表示されたテキストを「表示テキスト」とも呼ぶ。   The text display application 10 is a program that displays an input character group (text) such as a slip creation application or an email creation application. The text displayed by the text display application 10 is also referred to as “display text”.

修正対象文字特定プログラム20は、表示テキストに対して手書きによる修正入力がされた場合に、入力されたストロークから、置換・挿入・削除の対象となる表示テキストの範囲や位置を特定するとともに、認識単位修正の対象となる表示テキストの結合範囲または分割位置を特定する。なお、手書き入力および手書き修正入力は、指によりストロークを入力する場合に限られず、例えばスタイラス(stylus)等を用いてストロークを入力してもよい。   The correction target character specifying program 20 specifies the range and position of the display text to be replaced / inserted / deleted from the input stroke and recognizes it when a correction input by handwriting is performed on the display text. Specify the combined range or split position of the display text that is subject to unit correction. The handwriting input and the handwriting correction input are not limited to the case where the stroke is input by a finger, and the stroke may be input using, for example, a stylus.

認識プログラム30は、手書き入力および手書き修正入力により入力されたストロークから文字を認識し、入力されたストロークに対応する文字を認識結果として取得する。   The recognition program 30 recognizes a character from a stroke input by handwriting input and handwriting correction input, and acquires a character corresponding to the input stroke as a recognition result.

共有プログラム70は、端末間のデータ共有のためのデータの送受信の処理を行う。   The sharing program 70 performs data transmission / reception processing for data sharing between terminals.

テキスト表示アプリケーション10、修正対象文字特定プログラム20および共有プログラム70は各端末1に設けられることを想定しているが、認識プログラム30はリソースの観点から設けられない端末もある。   Although it is assumed that the text display application 10, the correction target character identification program 20, and the sharing program 70 are provided in each terminal 1, there are some terminals where the recognition program 30 is not provided from the viewpoint of resources.

図2は端末1(1A、1B、・・)のハードウェア構成例を示す図である。図2において、端末1は、それぞれバスBで相互に接続されている表示操作装置101、ドライブ装置102、補助記憶装置103、メモリ装置104、演算処理装置105、インタフェース装置106を有する。   FIG. 2 is a diagram illustrating a hardware configuration example of the terminal 1 (1A, 1B,...). In FIG. 2, the terminal 1 includes a display operation device 101, a drive device 102, an auxiliary storage device 103, a memory device 104, an arithmetic processing device 105, and an interface device 106 that are mutually connected by a bus B.

表示操作装置101は、例えば、タッチパネル等であり、各種信号の入力と、各種信号の表示(出力)に用いられる。インタフェース装置106は、モデム、LANカード等を含み、ネットワークに接続するために用いられる。   The display operation device 101 is, for example, a touch panel or the like, and is used for inputting various signals and displaying (outputting) various signals. The interface device 106 includes a modem, a LAN card, and the like, and is used for connecting to a network.

テキスト表示アプリケーション10、修正対象文字特定プログラム20、認識プログラム30および共有プログラム70は、端末1を制御する各種プログラムの少なくとも一部である。これらのプログラムは、例えば、記録媒体107による配布やネットワークからのダウンロード等によって提供される。テキスト表示アプリケーション10、修正対象文字特定プログラム20、認識プログラム30および共有プログラム70を記録した記録媒体107は、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   The text display application 10, the correction target character identification program 20, the recognition program 30, and the sharing program 70 are at least a part of various programs that control the terminal 1. These programs are provided by, for example, distribution using the recording medium 107 or downloading from a network. The recording medium 107 on which the text display application 10, the correction target character identification program 20, the recognition program 30 and the shared program 70 are recorded is information such as a CD-ROM, a flexible disk, a magneto-optical disk, etc. Various types of recording media such as a recording medium for recording information, a semiconductor memory for electrically recording information, such as a ROM and a flash memory, can be used.

また、テキスト表示アプリケーション10、修正対象文字特定プログラム20、認識プログラム30および共有プログラム70を記録した記録媒体107がドライブ装置102にセットされると、各プログラムは記録媒体107からドライブ装置102を介して補助記憶装置103にインストールされる。ネットワークからダウンロードされた各プログラムは、インタフェース装置106を介して補助記憶装置103にインストールされる。   When the recording medium 107 on which the text display application 10, the correction target character identification program 20, the recognition program 30 and the shared program 70 are recorded is set in the drive device 102, each program is transferred from the recording medium 107 via the drive device 102. Installed in the auxiliary storage device 103. Each program downloaded from the network is installed in the auxiliary storage device 103 via the interface device 106.

補助記憶装置103は、インストールされたテキスト表示アプリケーション10、修正対象文字特定プログラム20、認識プログラム30および共有プログラム70を格納するとともに、基本ソフトウェアであるOS(Operating System)、必要なファイル、データ等を格納する。メモリ装置104は、各プログラムの起動時に補助記憶装置103にそれぞれのプログラムを読み出して格納する。そして、演算処理装置105は、メモリ装置104に格納された各プログラムに従って、後述するような各種処理を実現している。   The auxiliary storage device 103 stores the installed text display application 10, the correction target character specifying program 20, the recognition program 30, and the shared program 70, and also stores an OS (Operating System) that is basic software, necessary files, data, and the like. Store. The memory device 104 reads and stores each program in the auxiliary storage device 103 when each program is started. The arithmetic processing unit 105 implements various processes as described later according to each program stored in the memory device 104.

図3は端末1(1A、1B、・・)の機能構成の例を示す図である。図3において、端末1は、テキスト表示アプリケーション実行部11と修正対象文字特定部21と文字認識部31と共有制御部71とを備えており、処理に際して記憶部41の各種情報を参照・更新する。テキスト表示アプリケーション実行部11は、テキスト表示アプリケーション10(図1)に対応するものである。修正対象文字特定部21は、修正対象文字特定プログラム20(図1)に対応するものである。文字認識部31は、認識プログラム30(図1)に対応するものである。共有制御部71は、共有プログラム70(図1)に対応するものである。   FIG. 3 is a diagram illustrating an example of a functional configuration of the terminal 1 (1A, 1B,...). In FIG. 3, the terminal 1 includes a text display application execution unit 11, a correction target character identification unit 21, a character recognition unit 31, and a sharing control unit 71, and references / updates various information in the storage unit 41 during processing. . The text display application execution unit 11 corresponds to the text display application 10 (FIG. 1). The correction target character specifying unit 21 corresponds to the correction target character specifying program 20 (FIG. 1). The character recognition unit 31 corresponds to the recognition program 30 (FIG. 1). The sharing control unit 71 corresponds to the sharing program 70 (FIG. 1).

修正対象文字特定部21は、ストローク情報取得部22と領域特定部23と置換・挿入・削除位置範囲特定部24と結合範囲・分割位置特定部25とストローク情報補正部26とを備えている。   The correction target character specifying unit 21 includes a stroke information acquiring unit 22, a region specifying unit 23, a replacement / insertion / deletion position range specifying unit 24, a combined range / division position specifying unit 25, and a stroke information correcting unit 26.

ストローク情報取得部22は、ユーザによる手書きのストローク情報(入力ストローク情報)を取得する機能を有している。このストローク情報は、入力ストローク情報44に対応する。領域特定部23は、入力ストローク情報のストロークの領域(例えば、ストロークに外接する四角形の領域)を特定する機能を有している。   The stroke information acquisition unit 22 has a function of acquiring handwritten stroke information (input stroke information) by the user. This stroke information corresponds to the input stroke information 44. The area specifying unit 23 has a function of specifying a stroke area (for example, a rectangular area circumscribing the stroke) of the input stroke information.

置換・挿入・削除位置範囲特定部24は、入力ストローク情報の示す手書き入力が文字または文字列の置換、文字または文字列の挿入、文字または文字列の削除である場合に、置換・挿入・削除する位置または範囲を特定する機能を有している。結合範囲・分割位置特定部25は、入力ストローク情報の示す手書き入力が認識単位修正入力である場合に、結合を行う文字またはセグメントの範囲または分割を行う文字内のセグメントの位置を特定する機能を有している。セグメントは、文字を構成する部分である。   The replacement / insertion / deletion position range specifying unit 24 performs replacement / insertion / deletion when the handwritten input indicated by the input stroke information is character or character string replacement, character or character string insertion, or character or character string deletion. It has a function to specify the position or range to be performed. The combination range / division position specifying unit 25 has a function of specifying the range of characters or segments to be combined or the positions of segments in characters to be divided when the handwritten input indicated by the input stroke information is a recognition unit correction input. Have. A segment is a part constituting a character.

ストローク情報補正部26は、他の端末から手書き入力の筆跡情報として送られてきたストローク情報を、手書き入力の対象となった文字または文字列に関する位置情報に基づいて、自端末の座標上のストローク情報に補正(座標変換)する機能を有している。   The stroke information correction unit 26 uses the stroke information sent as handwritten input handwriting information from another terminal as the stroke on the coordinates of the terminal based on the position information regarding the character or character string that is the target of the handwriting input. It has a function of correcting (coordinate conversion) information.

図4は文字・ストローク情報42およびセグメント情報43の構造例を示す図である。文字・ストローク情報42は、入力エリアIDと認識ID(文字認識を識別)を対応付けたテーブルと、認識IDと文字IDを対応付けたテーブルと、文字ID、文字、ストローク情報ID、文字領域を対応付けたテーブルと、ストローク情報IDと座標情報を対応付けたテーブルとを含んでいる。各テーブルの情報は、破線で示すように相互に関係付けられる。なお、文字領域は、文字に外接する四角形の領域の左辺の中央の座標値(L〜)と、上辺の中央の座標値(T〜)と、右辺の中央の座標値(R〜)と、底辺の中央の座標値(B〜)とを含んでいる。   FIG. 4 is a diagram showing a structure example of the character / stroke information 42 and the segment information 43. The character / stroke information 42 includes a table in which an input area ID and a recognition ID (character recognition is identified) are associated, a table in which a recognition ID and character ID are associated, a character ID, a character, a stroke information ID, and a character area. It includes a table associated with each other, and a table associated with stroke information ID and coordinate information. The information in each table is related to each other as indicated by a broken line. Note that the character area includes the coordinate value (L˜) of the left side of the quadrangular region circumscribing the character, the coordinate value (T˜) of the center of the upper side, the coordinate value (R˜) of the center of the right side, And the coordinate value (B˜) of the center of the base.

セグメント情報43は、文字IDとセグメントIDを対応付けたテーブルと、セグメントIDとセグメント領域を対応付けたテーブルとを含んでいる。各テーブルの情報は、破線で示すように相互に関係付けられる。なお、セグメント領域は、セグメントに外接する四角形の領域の左辺の中央の座標値(l〜)と、上辺の中央の座標値(t〜)と、右辺の中央の座標値(r〜)と、底辺の中央の座標値(b〜)とを含んでいる。   The segment information 43 includes a table in which character IDs are associated with segment IDs, and a table in which segment IDs are associated with segment areas. The information in each table is related to each other as indicated by a broken line. In addition, the segment area includes the coordinate value (l˜) of the left side of the quadrangular area circumscribing the segment, the coordinate value (t˜) of the center of the upper side, the coordinate value (r˜) of the center of the right side, And the center coordinate value (b˜) of the base.

なお、文字・ストローク情報42とセグメント情報43はテキスト表示アプリケーション10を単位に管理されるものであり、所定のタイミングで消去される。例えば、全入力データ入力後、確定時、送信時、アプリ終了時、タイムアウト時等において消去することができる。また、消去するかしないかの0か1かではなく、パラメータによって消去するタイミングを調整可能である。例えば、パスワード入力エリアは入力時に保存せず消去する等、コントロール可能である。   The character / stroke information 42 and the segment information 43 are managed in units of the text display application 10, and are deleted at a predetermined timing. For example, after all input data has been input, it can be deleted at the time of confirmation, transmission, application termination, timeout, and the like. In addition, it is possible to adjust the timing of erasing according to the parameters, not 0 or 1 indicating whether or not to erase. For example, it is possible to control the password input area by deleting it without saving it at the time of input.

図5はエリア情報45の構造例を示す図である。エリア情報45は、手書き入力による修正指示が行われた場合に、自端末で修正を行うか、他端末で修正を行うか等の判断に用いられる。エリア情報45は、入力エリアIDと修正可能なデバイスID(端末ID)が対応付けられている。修正可能かどうかは、運用上の観点から権限に基づいて決定される場合と、処理能力(CPU、電池、認識ソフトの有無等)の観点から決定される場合とがある。   FIG. 5 is a diagram illustrating a structure example of the area information 45. The area information 45 is used for determining whether correction is performed on the own terminal or on another terminal when a correction instruction by handwriting input is performed. In the area information 45, an input area ID and a correctable device ID (terminal ID) are associated with each other. Whether or not correction is possible is determined based on authority from the viewpoint of operation, and may be determined from the viewpoint of processing capability (such as the presence or absence of a CPU, a battery, and recognition software).

<動作概要>
図6および図7は端末間でのデータの共有の例を示す図である。いずれも端末1Aで手書き入力されて共有されたテキストに対し端末1Bで手書きによる修正の操作が行われ、その修正を端末1Aで行う場合を示しており、図6は置換の操作の場合、図7は認識単位修正の操作の場合を示している。
<Overview of operation>
6 and 7 are diagrams illustrating examples of data sharing between terminals. In both cases, the handwritten input operation on the terminal 1A and the shared text are corrected by handwriting on the terminal 1B, and the correction is performed on the terminal 1A. FIG. Reference numeral 7 denotes the case of a recognition unit correction operation.

図6において、aに示すように、端末1Aの一番上の入力エリアに「あいう」という手書き入力が行われると、bに示すように、文字認識された結果「あいう」が手書き入力された入力エリアに表示される。また、cに示すように、端末1Aから端末1B(その他、データを共有している端末があればその端末も含む)に対して、共有の機能により入力テキストと入力エリアID(表示についての属性情報)が送信され、端末1Bでは、dに示すように、対応する入力エリアに「あいう」が表示される。図8のaは、その際の送信データの例を示しており、送信元を示す入力デバイスIDも付加されているが、合計で数バイト程度のデータ量となる。   In FIG. 6, when a handwritten input “A” is performed in the uppermost input area of the terminal 1 </ b> A as shown in a, the character recognition result “A” is input by hand as shown in b. Displayed in the input area. Further, as shown in c, for the terminal 1A to the terminal 1B (including other terminals that share data), the input text and the input area ID (display attributes) are shared by the sharing function. Information) is transmitted, and “1” is displayed in the corresponding input area at the terminal 1B, as shown at d. FIG. 8A shows an example of transmission data at that time, and an input device ID indicating a transmission source is also added, but the data amount is about several bytes in total.

図6に戻り、eに示すように、端末1Bにおいて「あいう」の「い」を「え」に置換しようとする手書き入力、すなわち、表示文字「い」の上に文字「え」を手書き入力する操作が行われ、端末1Bは自端末で修正は行わず、端末1Aに修正を行わせると判断したとする。この場合、fに示すように、端末1Bから端末1Aに対して、「え」の筆跡情報と、手書き入力の対象となる「あいう」のテキスト位置情報(表示位置情報)等が送信される。図8のbは、その際の送信データの例を示しており、筆跡情報の部分のサイズが大きく、数キロバイト程度のデータ量となるが、送信されるのは端末1Aに対してのみであるため、システム全体の通信量にはほとんど影響しない。   Returning to FIG. 6, as shown in e, handwritten input to replace “i” of “Any” with “e” on the terminal 1B, that is, the character “e” is inputted on the display character “i” by handwriting. Suppose that it is determined that the terminal 1 </ b> B does not perform correction on its own terminal, but causes the terminal 1 </ b> A to perform correction. In this case, as shown in f, the handwriting information of “e”, the text position information (display position information) of “that” to be handwritten input, and the like are transmitted from the terminal 1B to the terminal 1A. FIG. 8b shows an example of transmission data at that time, and the size of the handwriting information part is large and the data amount is about several kilobytes, but it is transmitted only to the terminal 1A. Therefore, it hardly affects the communication volume of the entire system.

図6に戻り、gに示すように、端末1Aにおいて、端末1Bから送信された筆跡情報およびテキスト情報に基づいて修正の対象となる文字または文字列の特定と文字認識が行われ、hに示すように、「あいう」の「い」が「え」に置換されて表示される。また、iに示すように、端末1Aから端末1B(その他、データを共有している端末があればその端末も含む)に対して、共有の機能により入力テキストと入力エリアIDが送信され、端末1Bでは、jに示すように、対応する入力エリアに「あえう」が表示される。図8のcは、その際の送信データの例を示しており、入力デバイスIDも付加されているが、合計で数バイト程度のデータ量となる。   Returning to FIG. 6, as shown in g, in the terminal 1A, the character or character string to be corrected is specified and recognized based on the handwriting information and text information transmitted from the terminal 1B, and is shown in h. In this way, “Yes” in “Any” is replaced with “E” and displayed. Also, as shown in i, the input text and the input area ID are transmitted from the terminal 1A to the terminal 1B (including other terminals that share data if any) by the sharing function. In 1B, as shown in j, “gae” is displayed in the corresponding input area. FIG. 8c shows an example of transmission data at that time, and an input device ID is also added, but the total data amount is about several bytes.

次に、図7において、aに示すように、端末1Aの一番上の入力エリアに「江口」という手書き入力が行われ、認識単位(1つの文字として認識されるセグメントの集合)が正確に認識されなかったとして、bに示すように、文字認識された結果「シエロ」が手書き入力された入力エリアに表示されたとする。なお、これは、「江」のさんずいの部分が「シ」、「江」の残りの部分が「エ」(カタカナ)、「口」が「ロ」(カタカナ)と認識されたとしている。なお、文字認識においては文脈補正が行われるため、カタカナに続く文字はカタカナが優先される。   Next, in FIG. 7, as shown in a, handwriting input “Eguchi” is performed in the uppermost input area of the terminal 1A, and the recognition unit (a set of segments recognized as one character) is accurately set. It is assumed that the character recognition result “cielo” is displayed in the input area where the handwriting is input, as shown in b, assuming that the character is not recognized. It is assumed that the part of “E” is recognized as “Shi”, the remaining part of “E” is recognized as “E” (Katakana), and the “mouth” is recognized as “B” (Katakana). In addition, since the context correction is performed in character recognition, katakana is given priority over the characters following katakana.

また、cに示すように、端末1Aから端末1B(その他、データを共有している端末があればその端末も含む)に対して、共有の機能により入力テキストと入力エリアIDが送信され、端末1Bでは、dに示すように、対応する入力エリアに「シエロ」が表示される。   Further, as shown in c, the input text and the input area ID are transmitted from the terminal 1A to the terminal 1B (including other terminals that share data if any) by the sharing function. In 1B, as shown in d, “cielo” is displayed in the corresponding input area.

次いで、eに示すように、端末1Bにおいて「シエロ」の「シエ」部分を1つの文字として認識するように、例えば円で囲むような認識単位修正の手書き入力の操作が行われ、端末1Bは自端末で修正は行わず、端末1Aに修正を行わせると判断したとする。この場合、fに示すように、端末1Bから端末1Aに対して、認識単位修正の筆跡情報と、修正の対象となる「シエロ」のテキスト位置情報が送信される。   Next, as shown in e, the terminal 1B performs a handwriting input operation for correcting the recognition unit, for example, by encircling a circle so as to recognize the “sie” part of “ciero” as one character, Assume that it is determined that the terminal 1 </ b> A is to make corrections without making corrections at the terminal itself. In this case, as shown in f, handwriting information for recognition unit correction and text position information of “Ciel” to be corrected are transmitted from the terminal 1B to the terminal 1A.

次いで、gに示すように、端末1Aにおいて、端末1Bから送信された筆跡情報およびテキスト情報に基づいて認識単位である結合する範囲等の特定が行われ、蓄積されているストローク情報に基づいて文字認識が行われ、hに示すように、「シエロ」が「江口」に修正されて表示される。なお、「シエ」部分が漢字の「江」に修正されたことに伴い、それに続くカタカナの「ロ」(ろ)は漢字の「口」(くち)に併せて修正される。   Next, as shown in g, in the terminal 1A, the range to be combined as a recognition unit is specified based on the handwriting information and text information transmitted from the terminal 1B, and the character is based on the accumulated stroke information. Recognition is performed, and “cielo” is corrected to “Eguchi” and displayed as shown in h. As the “sie” part is corrected to the Chinese character “E”, the subsequent katakana “Ro” (ro) is corrected to the Chinese character “mouth”.

また、iに示すように、端末1Aから端末1B(その他、データを共有している端末があればその端末も含む)に対して、共有の機能により入力テキストと入力エリアIDが送信され、端末1Bでは、jに示すように、対応する入力エリアに「江口」が表示される。   Also, as shown in i, the input text and the input area ID are transmitted from the terminal 1A to the terminal 1B (including other terminals that share data if any) by the sharing function. In 1B, as shown in j, “Eguchi” is displayed in the corresponding input area.

<詳細動作>
図9および図10は上記の実施形態の処理例を示すフローチャートであり、図9は端末1Bから修正の処理を要求された端末1Aにおいて、筆跡情報(ストローク情報)の補正を文字認識よりも先に行うようにした場合を示し、図10は補正を文字認識の後に行うようにした場合を示している。補正を先に行う場合は、筆跡をリアルタイムに表示することも可能になるとともに、その後の処理を自端末において修正の操作が行われた場合と同様に行えるメリットがあるが、補正により筆跡情報が縮小してしまう場合には、認識精度が低下するというデメリットがある。認識精度の低下としては、例えば「1」を手書き入力したつもりでも、解像度が低下して横幅が1ピクセルに圧縮された場合、アルファベットのエルと認識されてしまうことがある。補正を後に行う場合は、上記のメリットとデメリットが逆になる。
<Detailed operation>
FIG. 9 and FIG. 10 are flowcharts showing a processing example of the above-described embodiment. FIG. 9 shows that correction of handwriting information (stroke information) is performed before character recognition in the terminal 1A requested to be corrected by the terminal 1B. FIG. 10 shows a case where correction is performed after character recognition. When correction is performed first, it is possible to display handwriting in real time, and there is a merit that the subsequent processing can be performed in the same way as when correction operation is performed on the terminal itself. In the case of reduction, there is a demerit that recognition accuracy is lowered. As a decrease in recognition accuracy, for example, even if the user intends to input “1” by hand, if the resolution is reduced and the width is compressed to 1 pixel, the character may be recognized as an alphabetic el. When correction is performed later, the above advantages and disadvantages are reversed.

図9において、端末1Bで修正の手書き入力を開始すると、端末1Bは、1画分(ペンダウンからペンアップまで)のストローク情報を取得し(ステップS101)、入力終了と判断しない場合(ステップS102のNO)はストローク情報の取得(ステップS101)を繰り返す。なお、入力終了は、所定時間にわたって手書き入力が行われないか否かで判断することができる。   In FIG. 9, when the correction handwriting input is started at the terminal 1B, the terminal 1B acquires stroke information for one fraction (from pen down to pen up) (step S101), and does not determine that the input is completed (step S102). NO) repeats the acquisition of stroke information (step S101). Note that the end of input can be determined based on whether or not handwriting input is performed for a predetermined time.

入力終了と判断した場合(ステップS102のYES)、端末1Bは、ストローク情報の示すストロークの領域(入力領域)を特定する(ステップS103)。   If it is determined that the input has been completed (YES in step S102), the terminal 1B specifies a stroke area (input area) indicated by the stroke information (step S103).

次いで、端末1Bはエリア情報45を参照して処理を代行可能な他端末を確認するとともに、必要に応じ自端末と他端末のリソース状況を考慮して、自端末で処理を行うか否か判断する(ステップS104)。なお、自端末で処理を行わない場合は処理を行わせる他端末を特定する。   Next, the terminal 1B refers to the area information 45 to confirm other terminals that can perform processing, and determines whether or not processing is to be performed by the own terminal in consideration of the resource status of the own terminal and the other terminal as necessary. (Step S104). In addition, when not performing a process in the own terminal, the other terminal which performs a process is specified.

自端末で処理を行わないと判断した場合(ステップS104のNO)、ここでは、端末1Aにデータ(筆跡情報、テキスト位置情報)を送信する(ステップS105)。   If it is determined that the terminal does not perform processing (NO in step S104), data (handwriting information, text position information) is transmitted to the terminal 1A here (step S105).

端末1Aは、データを受信すると(ステップS106)、筆跡情報(ストローク情報)の補正を行う(ステップS107)。補正されたストローク情報は文字・ストローク情報42として蓄積される。   When the terminal 1A receives the data (step S106), the terminal 1A corrects the handwriting information (stroke information) (step S107). The corrected stroke information is stored as character / stroke information 42.

図11はストローク情報の補正の例を示す図である。図示のように、端末1Aの画面サイズが2560×1600、端末1Bの画面サイズが1920×1080であるとする。ここで、端末1Bにおいて手書きされたストローク情報を、単純に画面のサイズやエリア位置情報から端末1A側で補正を行うと、筆跡情報(ストローク情報)の位置や大きさは、端末1Aにおいて相対的にずれたものとなってしまう。図12のaは仮に画面のサイズから補正を行った場合の例を示し、bは仮にエリア位置情報から補正を行った場合の例を示している。いずれも、文字列「あいう」の「い」に重ねて「え」を手書きした場合を想定しているが、補正により、「い」に重ならなくなってしまう。   FIG. 11 is a diagram illustrating an example of correction of stroke information. As illustrated, it is assumed that the screen size of the terminal 1A is 2560 × 1600 and the screen size of the terminal 1B is 1920 × 1080. Here, when the stroke information handwritten in the terminal 1B is simply corrected on the terminal 1A side from the screen size and area position information, the position and size of the handwriting information (stroke information) is relative to the terminal 1A. It will be shifted to. FIG. 12A shows an example when correction is performed from the screen size, and b shows an example when correction is performed from area position information. In both cases, it is assumed that “e” is handwritten over “i” in the character string “Ayu”, but the correction does not overlap “i”.

図11に戻り、端末1Aでのaの手書き入力、bのテキスト表示、端末1Bでのcのテキスト表示を経て、端末1Bでdに示すように、文字列「あいう」の「い」に重ねて「え」を手書きしたとする。この場合、端末1Aは、文字列「あいう」のテキスト位置情報と筆跡情報に基づき補正(座標変換)を行うことで、eに示すように、端末1Aでの「い」に正確に重なる位置に「え」の手書き入力を認識することができる。   Returning to FIG. 11, after handwritten input of a on the terminal 1A, text display of b, and text display of c on the terminal 1B, as shown at d on the terminal 1B, the character string “A” is superimposed on “I”. Suppose that "e" is handwritten. In this case, the terminal 1A performs correction (coordinate conversion) based on the text position information and handwriting information of the character string “A”, so that the terminal 1A accurately overlaps “I” on the terminal 1A as shown in e. Can recognize handwritten input of “e”.

図9に戻り、データ補正(ステップS107)の後、端末1Aは、修正の対象となる文字または文字列を特定する(ステップS108)。すなわち、文字または文字列の置換、文字または文字列の挿入、文字または文字列の削除である場合は、置換・挿入・削除する位置または範囲を特定する。また、認識単位修正入力である場合は、結合を行う文字またはセグメントの範囲または分割を行う文字内のセグメントの位置を特定する。   Returning to FIG. 9, after data correction (step S107), the terminal 1A specifies a character or a character string to be corrected (step S108). That is, in the case of replacement of a character or character string, insertion of a character or character string, or deletion of a character or character string, the position or range to be replaced, inserted, or deleted is specified. In the case of a recognition unit correction input, the range of the character or segment to be combined or the position of the segment within the character to be divided is specified.

次いで、端末1Aは、文字または文字列の置換または挿入である場合には、筆跡情報から文字認識を行う(ステップS109)。認識単位修正入力である場合は、蓄積されているストローク情報から、認識単位のセグメントを固定して再度の文字認識を行う。文字認識された文字または文字列、文字または文字列の削除である場合は削除される文字または文字列は、テキスト表示アプリケーション実行部11に渡され、表示対象のテキストが修正される。そして、端末1Aは修正後のテキストによりテキスト表示を行い(ステップS110)、同内容を端末1Bに送信する(ステップS111)。   Next, in the case of replacement or insertion of characters or character strings, the terminal 1A performs character recognition from the handwriting information (step S109). In the case of the recognition unit correction input, the recognition unit segment is fixed from the accumulated stroke information and character recognition is performed again. In the case of deleting a character or character string that has been character-recognized, or the character or character string to be deleted, the character or character string to be deleted is passed to the text display application execution unit 11 to correct the text to be displayed. Then, the terminal 1A performs text display with the corrected text (step S110), and transmits the same content to the terminal 1B (step S111).

端末1Bは、データを受信すると(ステップS112)、受信したデータに従ってテキスト表示を行い(ステップS113)、処理を終了する。   When the terminal 1B receives the data (step S112), the terminal 1B performs text display according to the received data (step S113), and ends the process.

一方、端末1Bが自端末で処理を行うと判断した場合(ステップS104のYES)、端末1Bは、自ら修正の対象となる文字または文字列を特定し(ステップS114)、必要に応じて文字認識を行い(ステップS115)、テキスト表示を行い(ステップS116)、端末1Aにデータ送信する(ステップS117)。端末1Aは、データを受信すると(ステップS118)、受信したデータに従ってテキスト表示を行い(ステップS119)、処理を終了する。   On the other hand, when it is determined that the terminal 1B performs processing on its own terminal (YES in step S104), the terminal 1B identifies the character or character string to be corrected by itself (step S114), and character recognition is performed as necessary. (Step S115), text display is performed (step S116), and data is transmitted to the terminal 1A (step S117). When the terminal 1A receives the data (step S118), the terminal 1A performs text display according to the received data (step S119), and ends the process.

図10において、端末1Bで修正の手書き入力を開始すると、端末1Bは、1画分(ペンダウンからペンアップまで)のストローク情報を取得し(ステップS201)、入力終了と判断しない場合(ステップS202のNO)はストローク情報の取得(ステップS201)を繰り返す。なお、入力終了は、所定時間にわたって手書き入力が行われないか否かで判断する。   In FIG. 10, when the handwriting input for correction is started at the terminal 1B, the terminal 1B acquires stroke information of one fraction (from pen down to pen up) (step S201), and does not determine that the input is finished (in step S202). NO) repeats the acquisition of stroke information (step S201). Note that the end of input is determined by whether or not handwriting input is performed for a predetermined time.

入力終了と判断した場合(ステップS202のYES)、端末1Bは、ストローク情報のストロークの領域(入力領域)を特定する(ステップS203)。   If it is determined that the input has been completed (YES in step S202), the terminal 1B specifies a stroke area (input area) of the stroke information (step S203).

次いで、端末1Bはエリア情報45を参照して処理を代行可能な他端末を確認するとともに、必要に応じ自端末と他端末のリソース状況を考慮して、自端末で処理を行うか否か判断する(ステップS204)。なお、自端末で処理を行わない場合は処理を行わせる他端末を特定する。   Next, the terminal 1B refers to the area information 45 to confirm other terminals that can perform processing, and determines whether or not processing is to be performed by the own terminal in consideration of the resource status of the own terminal and the other terminal as necessary. (Step S204). In addition, when not performing a process in the own terminal, the other terminal which performs a process is specified.

自端末で処理を行わないと判断した場合(ステップS204のNO)、ここでは、端末1Aにデータ(筆跡情報、テキスト位置情報)を送信する(ステップS205)。   When it is determined that the terminal does not perform processing (NO in step S204), data (handwriting information, text position information) is transmitted to the terminal 1A here (step S205).

端末1Aは、データを受信すると(ステップS206)、文字または文字列の置換または挿入である場合には、筆跡情報から文字認識を行う(ステップS207)。   Upon receiving the data (step S206), the terminal 1A performs character recognition from the handwriting information when the character or character string is replaced or inserted (step S207).

次いで、端末1Aは、筆跡情報(ストローク情報)の補正を行う(ステップS208)。補正されたストローク情報は文字・ストローク情報42として蓄積される。   Next, the terminal 1A corrects handwriting information (stroke information) (step S208). The corrected stroke information is stored as character / stroke information 42.

次いで、端末1Aは、修正の対象となる文字または文字列を特定する(ステップS209)。すなわち、文字または文字列の置換、文字または文字列の挿入、文字または文字列の削除である場合は、置換・挿入・削除する位置または範囲を特定する。また、認識単位修正入力である場合は、結合を行う文字またはセグメントの範囲または分割を行う文字内のセグメントの位置を特定する。また、認識単位修正入力である場合は、蓄積されているストローク情報から、認識単位のセグメントを固定して再度の文字認識を行う。   Next, the terminal 1A specifies a character or a character string to be corrected (step S209). That is, in the case of replacement of a character or character string, insertion of a character or character string, or deletion of a character or character string, the position or range to be replaced, inserted, or deleted is specified. In the case of a recognition unit correction input, the range of the character or segment to be combined or the position of the segment within the character to be divided is specified. If the input is a recognition unit correction input, the recognition unit segment is fixed from the accumulated stroke information and character recognition is performed again.

文字認識された文字または文字列、文字または文字列の削除である場合は削除される文字または文字列、再度の文字認識により取得された文字列は、テキスト表示アプリケーション実行部11に渡され、表示対象のテキストが修正される。そして、端末1Aは修正後のテキストによりテキスト表示を行い(ステップS210)、同内容を端末1Bに送信する(ステップS211)。   The character or character string recognized, the character or character string to be deleted if the character or character string is deleted, or the character string obtained by re-character recognition is passed to the text display application execution unit 11 for display. The target text is modified. Then, the terminal 1A performs text display using the corrected text (step S210), and transmits the same content to the terminal 1B (step S211).

端末1Bは、データを受信すると(ステップS212)、受信したデータに従ってテキスト表示を行い(ステップS213)、処理を終了する。   When the terminal 1B receives the data (step S212), the terminal 1B performs text display according to the received data (step S213), and ends the process.

一方、端末1Bが自端末で処理を行うと判断した場合(ステップS204のYES)、端末1Bは、自ら修正の対象となる文字または文字列を特定し(ステップS214)、必要に応じて文字認識を行い(ステップS215)、テキスト表示を行い(ステップS216)、端末1Aにデータ送信する(ステップS217)。端末1Aは、データを受信すると(ステップS218)、受信したデータに従ってテキスト表示を行い(ステップS219)、処理を終了する。   On the other hand, when it is determined that the terminal 1B performs processing on its own terminal (YES in step S204), the terminal 1B identifies the character or character string to be corrected by itself (step S214), and character recognition is performed as necessary. (Step S215), text display is performed (step S216), and data is transmitted to the terminal 1A (step S217). When the terminal 1A receives the data (step S218), the terminal 1A performs text display according to the received data (step S219), and ends the process.

<総括>
以上説明したように、本実施形態によれば、複数の端末で手書き入力の結果を共有する場合において、手書き入力により認識されたテキストに対する修正を、通信量及び/又は処理リソースを抑えながら行えるようにすることができる。
<Summary>
As described above, according to the present embodiment, when the result of handwriting input is shared by a plurality of terminals, the text recognized by handwriting input can be corrected while reducing the communication amount and / or processing resources. Can be.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.

1、1A、1B 端末
10、10A、10B テキスト表示アプリケーション
20、20A、20B 修正対象文字特定プログラム
30、30A、30B 認識プログラム
70、70A、70B 共有プログラム
11 テキスト表示アプリケーション実行部
21 修正対象文字特定部
22 ストローク情報取得部
23 領域特定部
24 置換・挿入・削除位置範囲特定部
25 結合範囲・分割位置特定部
26 ストローク情報補正部
31 文字認識部
41 記憶部
42 文字・ストローク情報
43 セグメント情報
44 入力ストローク情報
45 エリア情報
5 ネットワーク
6 通信装置
71 共有制御部
1, 1A, 1B terminal 10, 10A, 10B Text display application 20, 20A, 20B Modification target character identification program 30, 30A, 30B Recognition program 70, 70A, 70B Shared program 11 Text display application execution unit 21 Modification target character identification unit DESCRIPTION OF SYMBOLS 22 Stroke information acquisition part 23 Area | region specific | specification part 24 Replacement / insertion / deletion position range specific | specification part 25 Combined range / division | segmentation position specific | specification part 26 Stroke information correction | amendment part 31 Character recognition part 41 Memory | storage part 42 Character / stroke information 43 Segment information 44 Input stroke Information 45 Area information 5 Network 6 Communication device 71 Shared control unit

Claims (13)

手書き入力された第1の手書き入力に基づいて認識された第1のテキスト情報を第2の端末に送信する処理と、
前記第2の端末において表示された、前記第1のテキスト情報に対応する第2のテキスト情報に対する第2の手書き入力に関する筆跡情報、および、前記第2のテキスト情報に関する表示位置情報の前記第2の端末からの受信に応じ、前記筆跡情報、および、前記表示位置情報に基づき、前記第1のテキスト情報を修正する処理と、
を実行することを特徴とする入力処理方法。
A process of transmitting the first text information recognized based on the first handwritten input input to the second terminal;
Handwriting information related to second handwriting input for the second text information corresponding to the first text information displayed on the second terminal, and the second of the display position information related to the second text information. Processing to correct the first text information based on the handwriting information and the display position information in response to reception from the terminal,
The input processing method characterized by performing.
前記送信する処理は、前記第1のテキスト情報、および、前記第1のテキスト情報に関する属性情報を前記第2の端末に送信し、
前記修正する処理は、前記属性情報を含めた情報を前記第2の端末より受信する、
ことを特徴とする請求項1に記載の入力処理方法。
The transmitting process transmits the first text information and attribute information related to the first text information to the second terminal,
The correction process receives information including the attribute information from the second terminal.
The input processing method according to claim 1.
前記第1のテキスト情報の修正は、文字列の修正である、
ことを特徴とする請求項1または2に記載の入力処理方法。
The correction of the first text information is a correction of a character string.
The input processing method according to claim 1 or 2, characterized in that
前記第1のテキスト情報の修正は、前記第1の手書き入力の認識単位を修正した認識結果による修正である、
ことを特徴とする請求項1または2に記載の入力処理方法。
The correction of the first text information is a correction based on a recognition result obtained by correcting a recognition unit of the first handwriting input.
The input processing method according to claim 1 or 2, characterized in that
前記第2の手書き入力は、前記第2のテキスト情報に含まれる文字に対する修正入力である、
ことを特徴とする請求項1または2に記載の入力処理方法。
The second handwriting input is a correction input for characters included in the second text information.
The input processing method according to claim 1 or 2, characterized in that
前記第2の手書き入力は、前記第2のテキスト情報に対する認識単位指示入力である、
ことを特徴とする請求項1または2に記載の入力処理方法。
The second handwriting input is a recognition unit instruction input for the second text information.
The input processing method according to claim 1 or 2, characterized in that
前記第1の端末は、前記第2の端末の画面に関する情報に基づき、受信した前記筆跡情報を補正する、
ことを特徴とする請求項1または2に記載の入力処理方法。
The first terminal corrects the received handwriting information based on information on the screen of the second terminal.
The input processing method according to claim 1 or 2, characterized in that
前記第1の端末は、該第1の端末における修正結果を前記第2の端末に送信する、
ことを特徴とする請求項1または2に記載の入力処理方法。
The first terminal transmits a correction result in the first terminal to the second terminal;
The input processing method according to claim 1 or 2, characterized in that
前記第2の端末は、前記第1のテキスト情報の修正が可能な端末の中から前記第1の端末を決定する、
ことを特徴とする請求項1または2に記載の入力処理方法。
The second terminal determines the first terminal from terminals capable of correcting the first text information.
The input processing method according to claim 1 or 2, characterized in that
手書き入力された第1の手書き入力に基づいて認識された第1のテキスト情報を第2の端末に送信する手段と、
前記第2の端末において表示された、前記第1のテキスト情報に対応する第2のテキスト情報に対する第2の手書き入力に関する筆跡情報、および、前記第2のテキスト情報に関する表示位置情報の前記第2の端末からの受信に応じ、前記筆跡情報、および、前記表示位置情報に基づき、前記第1のテキスト情報を修正する手段と、
を備えたことを特徴とする入力処理装置。
Means for transmitting the first text information recognized based on the first handwritten input input to the second terminal;
Handwriting information related to second handwriting input for the second text information corresponding to the first text information displayed on the second terminal, and the second of the display position information related to the second text information. Means for correcting the first text information based on the handwriting information and the display position information in response to reception from the terminal;
An input processing apparatus comprising:
コンピュータに、
手書き入力された第1の手書き入力に基づいて認識された第1のテキスト情報を第2の端末に送信する処理と、
前記第2の端末において表示された、前記第1のテキスト情報に対応する第2のテキスト情報に対する第2の手書き入力に関する筆跡情報、および、前記第2のテキスト情報に関する表示位置情報の前記第2の端末からの受信に応じ、前記筆跡情報、および、前記表示位置情報に基づき、前記第1のテキスト情報を修正する処理と、
を実行させる入力処理プログラム。
On the computer,
A process of transmitting the first text information recognized based on the first handwritten input input to the second terminal;
Handwriting information related to second handwriting input for the second text information corresponding to the first text information displayed on the second terminal, and the second of the display position information related to the second text information. Processing to correct the first text information based on the handwriting information and the display position information in response to reception from the terminal,
An input processing program that executes
第1の端末と第2の端末とを備え、
前記第1の端末は、該第1の端末で手書き入力された第1の手書き入力に基づいて認識された第1のテキスト情報を前記第2の端末に送信する手段を備え、
前記第2の端末は、該第2の端末において表示された、前記第1のテキスト情報に対応する第2のテキスト情報に対する第2の手書き入力を受けた場合に、前記第2の手書き入力に関する筆跡情報、および、前記第2のテキスト情報に関する表示位置情報を前記第1の端末に送信する手段を備え、
前記第1の端末は、前記筆跡情報、および、前記表示位置情報に基づき、前記第1のテキスト情報を修正する手段を備える、
ことを特徴とする入力処理システム。
A first terminal and a second terminal;
The first terminal includes means for transmitting, to the second terminal, first text information recognized based on a first handwritten input input by handwriting on the first terminal,
When the second terminal receives a second handwriting input for the second text information corresponding to the first text information displayed on the second terminal, the second terminal relates to the second handwriting input. Means for transmitting handwriting information and display position information relating to the second text information to the first terminal;
The first terminal includes means for correcting the first text information based on the handwriting information and the display position information.
An input processing system characterized by that.
第1の端末が、該第1の端末で手書き入力された第1の手書き入力に基づいて認識された第1のテキスト情報を第2の端末に送信する処理と、
前記第2の端末が、該第2の端末において表示された、前記第1のテキスト情報に対応する第2のテキスト情報に対する第2の手書き入力を受けた場合に、前記第2の手書き入力に関する筆跡情報、および、前記第2のテキスト情報に関する表示位置情報を前記第1の端末に送信する処理と、
前記第1の端末が、前記筆跡情報、および、前記表示位置情報に基づき、前記第1のテキスト情報を修正する処理と、
を実行することを特徴とする入力処理方法。
A process in which the first terminal transmits the first text information recognized based on the first handwritten input input by handwriting on the first terminal to the second terminal;
When the second terminal receives a second handwriting input for the second text information corresponding to the first text information displayed on the second terminal, the second terminal relates to the second handwriting input. Processing for transmitting handwriting information and display position information related to the second text information to the first terminal;
A process in which the first terminal corrects the first text information based on the handwriting information and the display position information;
The input processing method characterized by performing.
JP2017538837A 2015-09-11 2015-09-11 INPUT PROCESSING METHOD, INPUT PROCESSING DEVICE, INPUT PROCESSING PROGRAM, AND INPUT PROCESSING SYSTEM Pending JPWO2017042981A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/075922 WO2017042981A1 (en) 2015-09-11 2015-09-11 Input processing method, input processing device, input processing program, and input processing system

Publications (1)

Publication Number Publication Date
JPWO2017042981A1 true JPWO2017042981A1 (en) 2018-05-31

Family

ID=58240615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017538837A Pending JPWO2017042981A1 (en) 2015-09-11 2015-09-11 INPUT PROCESSING METHOD, INPUT PROCESSING DEVICE, INPUT PROCESSING PROGRAM, AND INPUT PROCESSING SYSTEM

Country Status (2)

Country Link
JP (1) JPWO2017042981A1 (en)
WO (1) WO2017042981A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323502A (en) * 2005-05-17 2006-11-30 Canon Inc Information processor, and its control method and program
JP2014048709A (en) * 2012-08-29 2014-03-17 Fujitsu Ltd Screen generation program, screen generation method, and screen generation device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005157458A (en) * 2003-11-20 2005-06-16 Glory Ltd Automatic contract system, automatic contract reception machine, and automatic contract method
JP4676798B2 (en) * 2005-03-29 2011-04-27 株式会社日立製作所 Handwritten information update system, handwritten information update method, and handwritten information update device
JP2007086956A (en) * 2005-09-21 2007-04-05 Fuji Xerox Co Ltd Image processor, image processing method and computer program
JP2007272432A (en) * 2006-03-30 2007-10-18 Oki Electric Ind Co Ltd Character recognition device and character recognition system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323502A (en) * 2005-05-17 2006-11-30 Canon Inc Information processor, and its control method and program
JP2014048709A (en) * 2012-08-29 2014-03-17 Fujitsu Ltd Screen generation program, screen generation method, and screen generation device

Also Published As

Publication number Publication date
WO2017042981A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
US9513772B2 (en) Information processing device, information processing method, and computer-readable medium
JP2015158900A (en) Information processing device, information processing method and information processing program
JP2019115019A (en) program
JP2017111551A (en) Information processing device, program, and information processing system
US20180032495A1 (en) Input processing program, input processing device, input processing method, character identification program, character identification device, and character identification method
US9927971B2 (en) Electronic apparatus, method and storage medium for generating chart object
CN112417826B (en) PDF online editing method and device, electronic equipment and readable storage medium
CN111738283A (en) Storage medium and character recognition method
WO2017042981A1 (en) Input processing method, input processing device, input processing program, and input processing system
US20150277729A1 (en) Electronic whiteboard device, input support method of electronic whiteboard, and computer-readable recording medium
JP2019169182A (en) Information processing device, control method, and program
US20140232667A1 (en) Electronic device and method
US11163992B2 (en) Information processing apparatus and non-transitory computer readable medium
JP7302175B2 (en) Information processing device and information processing program
WO2016170690A1 (en) Input control program, input control device, input control method, character correction program, character correction device, and character correction method
US10318482B2 (en) Information processing system and method for displaying list of files
JP6481204B2 (en) Information processing apparatus, processing method thereof, and program
US20240127615A1 (en) Image processing apparatus and non-transitory computer-readable storage medium storing image processing program
JP2019074948A (en) Information processing device
JP6586857B2 (en) Information processing apparatus and information processing program
JP6795770B2 (en) Information processing device and its processing method and program
JP6716409B2 (en) Information processing equipment
US20190114503A1 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
CN110991270A (en) Text recognition method and device, electronic equipment and storage medium
CN112506368A (en) Character input method and device based on whiteboard pen and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191008