JP6059113B2 - Communication terminal, program - Google Patents

Communication terminal, program Download PDF

Info

Publication number
JP6059113B2
JP6059113B2 JP2013175229A JP2013175229A JP6059113B2 JP 6059113 B2 JP6059113 B2 JP 6059113B2 JP 2013175229 A JP2013175229 A JP 2013175229A JP 2013175229 A JP2013175229 A JP 2013175229A JP 6059113 B2 JP6059113 B2 JP 6059113B2
Authority
JP
Japan
Prior art keywords
image information
information
communication terminal
stroke
timer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013175229A
Other languages
Japanese (ja)
Other versions
JP2015045903A (en
Inventor
渋谷 彰
彰 渋谷
小林 茂子
茂子 小林
雄太 樋口
雄太 樋口
▲高▼橋 誠
誠 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013175229A priority Critical patent/JP6059113B2/en
Publication of JP2015045903A publication Critical patent/JP2015045903A/en
Application granted granted Critical
Publication of JP6059113B2 publication Critical patent/JP6059113B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Discrimination (AREA)

Description

本発明は、タッチセンサ入力による手書き表示を他端末に伝達する通信端末、プログラムに関する。   The present invention relates to a communication terminal and a program for transmitting handwritten display by touch sensor input to another terminal.

近年、オンラインで手書き文字を認識することができるシステム(以下、オンライン手書き文字認識システム)が知られている。オンライン手書き文字認識システムは、スタイラス先端(指先)の動きやスタイラス(指)の上げ下げを筆順情報として収集する。オンライン手書き文字認識システムは、認識アルゴリズムを適用して、筆順を含む文字データベースとのパターンマッチングを行い、書かれた文字をテキスト情報に変換する。   In recent years, systems capable of recognizing handwritten characters online (hereinafter referred to as online handwritten character recognition systems) are known. The online handwritten character recognition system collects the movement of the stylus tip (fingertip) and the raising / lowering of the stylus (finger) as stroke order information. The online handwritten character recognition system applies a recognition algorithm, performs pattern matching with a character database including a stroke order, and converts written characters into text information.

認識アルゴリズム(隠れマルコフモデル)を適用した手書き文字の認識方法として例えば特許文献1がある。   As a method for recognizing handwritten characters to which a recognition algorithm (Hidden Markov Model) is applied, there is, for example, Patent Document 1.

特開2002−183662号公報JP 2002-183661 A

複数の端末間でオンライン上の手書き文字掲示板を共有し、複数の端末から入力された手書き文字を当該掲示板に反映して表示するオンラインコミュニケーションを想定する。この場合、会話記録(議事録)の作成を行う場合には、認識アルゴリズムを実装したアプリケーションをいずれかの端末にインストールしておき、当該端末に対して手書き文字をテキスト化するための筆順情報を提供することが望ましい。一方、当該掲示板に各々がコメントを書き込むだけで、会話記録(議事録)の作成が行われない場合には、前述の筆順情報、アプリケーションは不要である。このように、筆順情報、文字認識の必要性の有無は状況によって異なるのが通常である。しかしながら、前述のオンライン手書き文字認識システムでは、手書き文字の画像情報と、これに対応する筆順情報を常にセットで扱わなくてはならず、情報量が大きくなることが問題である。前述したオンライン上の手書き文字掲示板においてはリアルタイムに情報伝達できることが重視されるが、手書き文字の画像情報に筆順情報を常に対応させて送受信することとすればトラフィックが増大し、リアルタイム性が損なわれる可能性がある。   An online communication is assumed in which a handwritten character bulletin board on-line is shared among a plurality of terminals, and handwritten characters input from a plurality of terminals are reflected and displayed on the bulletin board. In this case, when creating a conversation record (minutes), an application that implements a recognition algorithm is installed on one of the terminals, and stroke order information for converting handwritten characters into text on the terminal is provided. It is desirable to provide. On the other hand, in the case where a conversation record (minutes) is not created only by writing comments on the bulletin board, the above-mentioned stroke order information and application are unnecessary. As described above, the stroke order information and the necessity of character recognition usually vary depending on the situation. However, in the above-described online handwritten character recognition system, image information of handwritten characters and corresponding stroke order information must always be handled as a set, and there is a problem that the amount of information increases. In the above-mentioned online handwritten character bulletin board, it is important to be able to transmit information in real time. However, if the stroke order information is always transmitted and received in correspondence with the image information of handwritten characters, traffic increases and the real-time property is impaired. there is a possibility.

そこで本発明では、筆順情報を加えた手書き文字のデータサイズを圧縮することができる通信端末を提供することを目的とする。   Therefore, an object of the present invention is to provide a communication terminal capable of compressing the data size of handwritten characters to which stroke order information is added.

本発明の通信端末はタッチセンサと、画像情報生成部と、データ通信部と、表示制御部を含む。   The communication terminal of the present invention includes a touch sensor, an image information generation unit, a data communication unit, and a display control unit.

タッチセンサは、ユーザのタッチセンサ入力を受け付ける。画像情報生成部は、タッチセンサ入力が検知された座標と、当該入力が検知された時間を表す時間情報とを取得し、時間情報を対応する座標の色情報に代入して画像情報を生成する。データ通信部は、複数の通信端末間で画像情報を共有するための中継装置であるサーバ装置に、所定時間ごとに画像情報を送信し、サーバ装置から所定時間ごとに更新後の画像情報を受信する。表示制御部は、送信、および受信した画像情報の各座標を二値化して表示する。   The touch sensor accepts a user touch sensor input. The image information generation unit acquires the coordinates at which the touch sensor input is detected and the time information indicating the time at which the input is detected, and generates the image information by substituting the time information into the color information of the corresponding coordinates. . The data communication unit transmits image information every predetermined time to a server device that is a relay device for sharing image information among a plurality of communication terminals, and receives updated image information every predetermined time from the server device. To do. The display control unit binarizes and displays the coordinates of the transmitted and received image information.

本発明の通信端末によれば、筆順情報を加えた手書き文字のデータサイズを圧縮することができる。   According to the communication terminal of the present invention, it is possible to compress the data size of handwritten characters to which the stroke order information is added.

本発明の実施例1の手書き表示伝達システムの概要を示す図。The figure which shows the outline | summary of the handwritten display transmission system of Example 1 of this invention. 本発明の実施例1の通信端末の構成を示すブロック図。The block diagram which shows the structure of the communication terminal of Example 1 of this invention. 本発明の実施例1の通信端末の動作を示すフローチャート。The flowchart which shows operation | movement of the communication terminal of Example 1 of this invention. 本発明の実施例1の通信端末の画像情報生成部の構成を示すブロック図。The block diagram which shows the structure of the image information generation part of the communication terminal of Example 1 of this invention. 本発明の実施例1の通信端末の画像情報生成部の動作を示すフローチャート。The flowchart which shows operation | movement of the image information generation part of the communication terminal of Example 1 of this invention. RGB値に時間情報を代入した手書き文字の例を示す図。The figure which shows the example of the handwritten character which substituted time information to RGB value. 本発明の実施例2の手書き表示伝達システムの概要を示す図。The figure which shows the outline | summary of the handwritten display transmission system of Example 2 of this invention. 本発明の実施例2の通信端末の構成を示すブロック図。The block diagram which shows the structure of the communication terminal of Example 2 of this invention. 本発明の実施例2の通信端末の動作を示すフローチャート。The flowchart which shows operation | movement of the communication terminal of Example 2 of this invention.

以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the structure part which has the same function, and duplication description is abbreviate | omitted.

<用語の定義:手書き表示>
本明細書において、スタイラス、指などで手書きされた文字、図形、記号などを総称して手書き表示という。
<Definition of terms: Handwritten display>
In this specification, characters, figures, symbols and the like handwritten with a stylus, a finger or the like are collectively referred to as handwritten display.

<用語の定義:通信端末>
通信端末とは、電話機、特に携帯電話機やPHS電話機、又は通信機能を備えた端末、機器の総称である。
<Definition of terms: Communication terminal>
The communication terminal is a general term for a telephone, particularly a mobile phone or a PHS telephone, or a terminal or device having a communication function.

以下、図1を参照して本発明の実施例1の手書き表示伝達システムの概要について説明する。図1は、本実施例の手書き表示伝達システムの概要を示す図である。図1に示すように、本実施例の手書き表示伝達システム50は、サーバ装置9と、n台の通信端末1−1、1−2、…、1−nとを含む構成である。nは2以上の整数である。サーバ装置9と、n台の通信端末1−1、1−2、…、1−nとは、相互にNW8を通じてデータ通信可能である。仮想的なデータ通信経路を図1中に破線矢印として示した。サーバ装置9は、手書き表示を含む画像情報をn台の通信端末1−1、1−2、…、1−n間で共有するための中継装置である。n台の通信端末1−1、1−2、…、1−nはいずれも同じ機能構成を含むため、n台の通信端末1−1、1−2、…、1−nと同じ機能を備える通信端末1を、これらの端末の代表として説明する。   The outline of the handwritten display transmission system according to the first embodiment of the present invention will be described below with reference to FIG. FIG. 1 is a diagram illustrating an outline of a handwritten display transmission system according to the present embodiment. As shown in FIG. 1, the handwritten display transmission system 50 of a present Example is the structure containing the server apparatus 9 and n communication terminals 1-1, 1-2, ..., 1-n. n is an integer of 2 or more. The server device 9 and the n communication terminals 1-1, 1-2,..., 1-n can communicate data with each other through the NW8. The virtual data communication path is shown as a dashed arrow in FIG. The server device 9 is a relay device for sharing image information including handwritten display among the n communication terminals 1-1, 1-2, ..., 1-n. Since the n communication terminals 1-1, 1-2,..., 1-n all include the same functional configuration, the same functions as the n communication terminals 1-1, 1-2,. The communication terminal 1 provided will be described as a representative of these terminals.

以下、図2、図3を参照して本実施例の通信端末1の構成、および動作について説明する。図2は本実施例の通信端末1の構成を示すブロック図である。図3は本実施例の通信端末1の動作を示すフローチャートである。図2に示すように、本実施例の通信端末1は、タッチセンサ11と、画像情報生成部12と、データ通信部13と、表示制御部14と、文字認識部15とを含む。図3に示すように、タッチセンサ11は、ユーザのタッチセンサ入力を受け付ける。画像情報生成部12は、タッチセンサ入力が検知された座標と、当該入力が検知された時間を表す時間情報とを取得し、時間情報を対応する座標の色情報に代入して画像情報を生成する(S12)。画像情報生成部12は、色情報としてRGB値を用いることができる。また、画像情報生成部12は、RGB値の代わりにCMYK値に時間情報を代入して画像情報を生成してもよい。画像情報生成部12は、RGB値、CMYK値に限らず、その他の色情報(色空間)、例えば(L,a,b)値を用いることもできる。以下、本明細書においては、色情報としてRGB値を用いる例について説明する。データ通信部13は、サーバ装置9に、所定時間ごとに画像情報を送信し、サーバ装置9から所定時間ごとに他端末による手書き表示を加えて更新された画像情報を受信する(S13)。表示制御部14は、送信、および受信した画像情報の各座標を二値化して表示する(S14)。文字認識部15は、送信、および受信した画像情報の各座標のRGB値に基づいて筆順情報を取得し、当該筆順情報に基づいて文字認識を実行する(S15)。文字認識部15は、サーバ装置9に含まれる構成であってもよい。この場合、サーバ装置9の文字認識部は、n台の通信端末1−1、1−2、…、1−nから受信した手書き表示を含む画像情報の各座標のRGB値に基づいて筆順情報を取得し、当該筆順情報に基づいて文字認識を実行してテキスト情報を取得する。 Hereinafter, the configuration and operation of the communication terminal 1 of this embodiment will be described with reference to FIGS. FIG. 2 is a block diagram showing the configuration of the communication terminal 1 of the present embodiment. FIG. 3 is a flowchart showing the operation of the communication terminal 1 of this embodiment. As shown in FIG. 2, the communication terminal 1 according to the present embodiment includes a touch sensor 11, an image information generation unit 12, a data communication unit 13, a display control unit 14, and a character recognition unit 15. As shown in FIG. 3, the touch sensor 11 receives a user's touch sensor input. The image information generation unit 12 acquires the coordinates at which the touch sensor input is detected and the time information indicating the time at which the input is detected, and generates the image information by substituting the time information into the color information of the corresponding coordinates. (S12). The image information generation unit 12 can use RGB values as color information. Further, the image information generation unit 12 may generate image information by substituting time information for CMYK values instead of RGB values. The image information generation unit 12 can use not only RGB values and CMYK values but also other color information (color space), for example, (L * , a * , b * ) values. Hereinafter, in this specification, an example using RGB values as color information will be described. The data communication unit 13 transmits image information to the server device 9 every predetermined time, and receives updated image information from the server device 9 by adding handwritten display by another terminal every predetermined time (S13). The display control unit 14 binarizes and displays the coordinates of the transmitted and received image information (S14). The character recognition unit 15 acquires stroke order information based on the RGB values of the coordinates of the transmitted and received image information, and performs character recognition based on the stroke order information (S15). The character recognition unit 15 may be included in the server device 9. In this case, the character recognition unit of the server device 9 performs the stroke order information based on the RGB values of the coordinates of the image information including the handwritten display received from the n communication terminals 1-1, 1-2,. And character recognition is executed based on the stroke order information to obtain text information.

以下、図4、図5を参照して、本実施例の通信端末1の画像情報生成部12の構成、及び動作について説明する。図4は本実施例の通信端末1の画像情報生成部12の構成を示すブロック図である。図5は本実施例の通信端末1の画像情報生成部12の動作を示すフローチャートである。図4に示すように、本実施例の通信端末1の画像情報生成部12は、ストロークタイマ制御部121と、ストロークタイマ122と、座標取得部123と、画像情報更新部124と、初期化部125と、リリースタイマ制御部126と、リリースタイマ127とを含む構成である。図5に示すように、タッチセンサ入力が検知された場合に(S12AY)、ストロークタイマ制御部121は、ストロークタイマ122を起動する(S121A)。タッチセンサ入力が検知されない場合に(S12AN)、引き続き、タッチセンサ入力が監視される。タッチセンサ入力が検知された場合に(S12AY)、座標取得部123は、タッチセンサ入力が検知された座標を取得する(S123)。画像情報更新部124は、タッチセンサ入力が検知された座標のRGB値に、ストロークタイマ122のタイマ値を変換してなる時間情報を代入して画像情報を更新する(S124)。ストロークタイマ122が満了した場合に(S122Y)、初期化部125は、ストロークタイマ122を初期化する(S125A)。ステップS125Aによりストロークタイマ122のタイマ値は初期値に戻る。その後ステップS12Bが実行される。一方、ストロークタイマ122が満了しない場合には(S122N)、初期化部125は動作せず、ステップS12Bが実行される。   Hereinafter, the configuration and operation of the image information generation unit 12 of the communication terminal 1 according to this embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 is a block diagram illustrating a configuration of the image information generation unit 12 of the communication terminal 1 according to the present embodiment. FIG. 5 is a flowchart showing the operation of the image information generation unit 12 of the communication terminal 1 of this embodiment. As shown in FIG. 4, the image information generation unit 12 of the communication terminal 1 of this embodiment includes a stroke timer control unit 121, a stroke timer 122, a coordinate acquisition unit 123, an image information update unit 124, and an initialization unit. 125, a release timer control unit 126, and a release timer 127. As shown in FIG. 5, when a touch sensor input is detected (S12AY), the stroke timer control unit 121 starts the stroke timer 122 (S121A). When the touch sensor input is not detected (S12AN), the touch sensor input is continuously monitored. When the touch sensor input is detected (S12AY), the coordinate acquisition unit 123 acquires the coordinates at which the touch sensor input is detected (S123). The image information update unit 124 updates the image information by substituting time information obtained by converting the timer value of the stroke timer 122 into the RGB values of the coordinates at which the touch sensor input is detected (S124). When the stroke timer 122 expires (S122Y), the initialization unit 125 initializes the stroke timer 122 (S125A). In step S125A, the timer value of the stroke timer 122 returns to the initial value. Thereafter, Step S12B is executed. On the other hand, when the stroke timer 122 does not expire (S122N), the initialization unit 125 does not operate and step S12B is executed.

タッチセンサ入力の中断を意味するリリースが検知された場合(S12BY)、ストロークタイマ制御部121は、ストロークタイマ122を停止する(S121B)。一方、リリースが検知されない場合は(S12BN)、ステップS123に戻り、再びステップS123以降の動作が実行される。   When a release indicating interruption of touch sensor input is detected (S12BY), the stroke timer control unit 121 stops the stroke timer 122 (S121B). On the other hand, if no release is detected (S12BN), the process returns to step S123, and the operations after step S123 are executed again.

リリースが検知された場合(S12BY)、リリースタイマ制御部126は、リリースタイマ127を起動する(S126A)。リリースタイマ127が満了した場合に(S127Y)、初期化部125は、ストロークタイマ122、リリースタイマ127の双方を初期化する(S125B)。ステップS125Bによりストロークタイマ122、リリースタイマ127のタイマ値は初期値に戻る。その後ステップS12Cが実行される。一方、リリースタイマ127が満了しない場合には(S127N)、初期化部125は動作せず、ステップS12Cが実行される。   When release is detected (S12BY), the release timer control unit 126 activates the release timer 127 (S126A). When the release timer 127 expires (S127Y), the initialization unit 125 initializes both the stroke timer 122 and the release timer 127 (S125B). In step S125B, the timer values of the stroke timer 122 and the release timer 127 are returned to the initial values. Thereafter, step S12C is executed. On the other hand, when the release timer 127 does not expire (S127N), the initialization unit 125 does not operate and step S12C is executed.

タッチセンサ入力が検知された場合(S12CY)、リリースタイマ制御部126は、リリースタイマ127を停止する(S126B)。この場合、処理はステップS121Aに戻り、ストロークタイマ制御部121は、ストロークタイマ122を起動する(S121A)。以下、ステップS123以降が再び実行される。一方、タッチセンサ入力が検知されない場合は(S12CN)、ステップS127に戻り、再びステップS127以降の動作が実行される。   When the touch sensor input is detected (S12CY), the release timer control unit 126 stops the release timer 127 (S126B). In this case, the process returns to step S121A, and the stroke timer control unit 121 activates the stroke timer 122 (S121A). Thereafter, step S123 and subsequent steps are executed again. On the other hand, when the touch sensor input is not detected (S12CN), the process returns to step S127, and the operations after step S127 are executed again.

以下、図6を参照して、画像情報生成部12の動作を具体例に従って説明する。図6はRGB値に時間情報を代入した手書き文字の例を示す図である。図6には、手書き文字の例として平仮名の一文「はじめまして」を示した。図6の手書き文字は平仮名の一文「はじめまして」の正しい筆順に従って手書き入力されたものとする。図6には、手書き文字「はじめまして」のそれぞれのストロークの開始点、終了点に番号を付してある。例えば手書き文字「は」の第一画の開始点、終了点にそれぞれ番号101S、101Eを付した。Sはスタート、Eはエンドを意味する。同様に、「は」の第二画の開始点、終了点にそれぞれ番号102S、102Eを、「は」の第三画の開始点、終了点にそれぞれ番号103S、103Eを付した。同様に、「じ」の第一画の開始点、終了点にそれぞれ番号104S、104Eを付し、「じ」の第二画の開始点、終了点にそれぞれ番号105S、105Eを付し、「じ」の第三画の開始点、終了点にそれぞれ番号106S、106Eを付した。107S、107E、108S、108E、109S、109E、110S、110E、111S、111E、112S、112E、113S、113Eについても同様に、平仮名「はじめまして」の筆順に従い番号を付した。   Hereinafter, the operation of the image information generation unit 12 will be described according to a specific example with reference to FIG. FIG. 6 is a diagram showing an example of handwritten characters in which time information is substituted into RGB values. FIG. 6 shows a Hiragana sentence “Nice to meet you” as an example of handwritten characters. It is assumed that the handwritten characters in FIG. 6 are input by handwriting according to the correct stroke order of the sentence “Nice to meet you” in Hiragana. In FIG. 6, the start point and the end point of each stroke of the handwritten character “Nice to meet you” are numbered. For example, numbers 101S and 101E are assigned to the start point and end point of the first drawing of the handwritten character “ha”, respectively. S means start and E means end. Similarly, the numbers 102S and 102E are assigned to the start and end points of the second stroke “ha”, and the numbers 103S and 103E are assigned to the start and end points of the third stroke “ha”, respectively. Similarly, numbers 104S and 104E are assigned to the start and end points of the first stroke of “Ji”, and numbers 105S and 105E are assigned to the start and end points of the second stroke of “Ji”, respectively. The numbers 106S and 106E are assigned to the start point and end point of the third stroke of “Ji”, respectively. Similarly, 107S, 107E, 108S, 108E, 109S, 109E, 110S, 110E, 111S, 111E, 112S, 112E, 113S, and 113E are numbered according to the stroke order of Hiragana “Nice to meet you”.

図6の例では、まずユーザが指先(スタイラス先端)をタッチパネル上の点101Sの座標に接触させる(タッチ入力検知、S12AY)。この場合、ストロークタイマ制御部121は、ストロークタイマ122を起動する(S121A)。座標取得部123は、タッチセンサ入力が検知された点101Sの座標を取得する(S123)。画像情報更新部124は、点101Sの座標のRGB値(R,G,B)に対してストロークタイマ122のタイマ値(初期値なので0)を変換してなる時間情報である(0,0,0)を代入して画像情報を更新する(S124)。次にステップS122においてストロークタイマが満了していないこと(S122N)、ステップS12Bにおいてリリースが検知されないこと(S12BN)の確認動作を経て、座標取得部123は、再びタッチセンサ入力が検知された座標を取得する(S123)。この例では、リリースが検知されないまま、座標取得部123は、点101Sから点101Eまでの座標を連続して取得する。同様に、画像情報更新部124は、点101Sから点101Eまでの各座標のRGB値に対してストロークタイマ122のタイマ値を変換してなる時間情報を代入して画像情報を更新する(S124)。例えば、ユーザの指先(スタイラス先端)がタッチパネル上の点101Eの座標に接触している場合には、座標取得部123は、タッチセンサ入力が検知された点101Eの座標を取得する(S123)。画像情報更新部124は、点101Eの座標のRGB値(R,G,B)に対してストロークタイマ122のタイマ値を変換してなる時間情報である(0,0,9)を代入して画像情報を更新する(S124)。次に、「は」の第一画の終了点101Eから、「は」の第二画の開始点102Sまでは、ユーザは指先(スタイラス先端)をタッチパネル上からリリースするため(S12BY)、ストロークタイマ制御部121は、ストロークタイマ122を停止し(S121B)、リリースタイマ制御部126は、リリースタイマ127を起動する(S126A)。ステップS127においてリリースタイマが満了していないこと(S127N)の確認動作を経て、ステップS12Cに進む。   In the example of FIG. 6, first, the user makes the fingertip (stylus tip) contact the coordinates of the point 101S on the touch panel (touch input detection, S12AY). In this case, the stroke timer control unit 121 activates the stroke timer 122 (S121A). The coordinate acquisition unit 123 acquires the coordinates of the point 101S where the touch sensor input is detected (S123). The image information update unit 124 is time information obtained by converting the timer value (0 because it is an initial value) of the stroke timer 122 with respect to the RGB values (R, G, B) of the coordinates of the point 101S (0, 0, 0) is substituted to update the image information (S124). Next, after confirming that the stroke timer has not expired in step S122 (S122N) and that release is not detected in step S12B (S12BN), the coordinate acquisition unit 123 again determines the coordinates from which the touch sensor input has been detected. Obtain (S123). In this example, the coordinate acquisition unit 123 continuously acquires the coordinates from the point 101S to the point 101E without detecting the release. Similarly, the image information update unit 124 updates the image information by substituting time information obtained by converting the timer value of the stroke timer 122 into the RGB values of the coordinates from the point 101S to the point 101E (S124). . For example, when the user's fingertip (tip of the stylus) is in contact with the coordinates of the point 101E on the touch panel, the coordinate acquisition unit 123 acquires the coordinates of the point 101E where the touch sensor input is detected (S123). The image information updating unit 124 substitutes (0, 0, 9), which is time information obtained by converting the timer value of the stroke timer 122 with respect to the RGB values (R, G, B) of the coordinates of the point 101E. The image information is updated (S124). Next, since the user releases the fingertip (tip of the stylus) from the touch panel from the end point 101E of the first screen of “ha” to the start point 102S of the second screen of “ha” (S12BY), the stroke timer The control unit 121 stops the stroke timer 122 (S121B), and the release timer control unit 126 starts the release timer 127 (S126A). After confirming that the release timer has not expired (S127N) in step S127, the process proceeds to step S12C.

再びユーザが指先(スタイラス先端)をタッチパネル上の点102Sの座標に接触させる(タッチ入力検知、S12CY)と、リリースタイマ制御部126は、リリースタイマ127を停止する(S126B)。処理はステップS121Aに戻り、ストロークタイマ制御部121は、ストロークタイマ122を起動し(S121A)、座標取得部123は、タッチセンサ入力が検知された点102Sの座標を取得する(S123)。   When the user again brings the fingertip (stylus tip) into contact with the coordinates of the point 102S on the touch panel (touch input detection, S12CY), the release timer control unit 126 stops the release timer 127 (S126B). The process returns to step S121A, the stroke timer control unit 121 starts the stroke timer 122 (S121A), and the coordinate acquisition unit 123 acquires the coordinates of the point 102S where the touch sensor input is detected (S123).

リリース検知中はストロークタイマ122が停止されていたため、時間情報も更新されていない。従って、画像情報更新部124は、「は」の第二画の開始点102Sの座標のRGB値(R,G,B)に対して、「は」の第一画の終了点101Eの座標と同じ時間情報(0,0,9)を代入して画像情報を更新する(S124)。このようにして画像情報更新部124は、手書き文字「はじめまして」を構成する各座標のRGB値(R,G,B)に対して、ストロークタイマ122のタイマ値を変換してなる時間情報を代入して画像情報を更新していく(S124)。このようにして、最終的に得られる手書き文字「はじめまして」を含む画像情報は手書き文字「はじめまして」の筆順情報(時間情報)を濃淡情報(RGB情報)として含むように生成される。   Since the stroke timer 122 is stopped during release detection, the time information is not updated. Accordingly, the image information updating unit 124 determines the coordinates of the end point 101E of the first image of “ha” with respect to the RGB values (R, G, B) of the coordinates of the start point 102S of the second image of “ha”. The image information is updated by substituting the same time information (0, 0, 9) (S124). In this way, the image information updating unit 124 substitutes time information obtained by converting the timer value of the stroke timer 122 for the RGB values (R, G, B) of the coordinates constituting the handwritten character “Nice to meet you”. Then, the image information is updated (S124). In this way, the image information including the handwritten character “Nice to meet” finally obtained is generated so as to include the stroke order information (time information) of the handwritten character “Nice to meet” as grayscale information (RGB information).

なお図6の例に登場する平仮名「は」や「ま」などのように、文字の種類によっては、ストロークの一部が交差し、交差した座標において古い時間情報が新しい時間情報に上書きされる場合がある。この場合は、古い時間情報を優先的に記憶することとし、上書きを禁止してもよい。具体的には、(R,G,B)=(255,255,255)である座標については、筆順情報(時間情報)を示す濃淡情報を書き込み可能とし、それ以外の場合には、すべて書き込み不可とすればよい。   Note that, depending on the type of characters, such as hiragana “ha” and “ma” appearing in the example of FIG. 6, some strokes intersect, and the old time information is overwritten with new time information at the intersected coordinates. There is a case. In this case, old time information may be preferentially stored and overwriting may be prohibited. Specifically, for coordinates where (R, G, B) = (255, 255, 255), it is possible to write shading information indicating stroke order information (time information), and in all other cases, writing is performed. It may be impossible.

画像のRGB値(R,G,B)は通常、(0,0,0)から(255,255,255)まで可変であるから、8+8+8=24ビットのデータ領域として用いることが可能である。もっとも、RGB値のうち白色である(255,255,255)は、空白領域と文字領域を見分けるために必要なデータ領域であるから、例外的に時間情報を代入する領域として使用することができない。従って、24ビット=16777216通りから1を差し引いた16777215通りを、時間情報を代入する領域として使用することができる。例えば、ストロークタイマ122のタイマ値がms単位で更新されるものとし、ストロークタイマ122のタイマ値(ms)を圧縮せずにそのまま時間情報とした場合、16777215(ms)≒16777秒≒280分程度の時間情報を記録することができるため、本システムのような手書き表示を伝達するシステムにおいて実用上十分に時間情報を記録することができる。   Since the RGB values (R, G, B) of an image are usually variable from (0, 0, 0) to (255, 255, 255), they can be used as a data area of 8 + 8 + 8 = 24 bits. Of course, white (255, 255, 255) of the RGB values is a data area necessary for distinguishing the blank area from the character area, and cannot be used as an area to which time information is assigned exceptionally. . Accordingly, 16777215 patterns obtained by subtracting 1 from 24 bits = 16777216 patterns can be used as an area for substituting time information. For example, when the timer value of the stroke timer 122 is updated in units of ms, and the timer value (ms) of the stroke timer 122 is used as time information without being compressed, 16777215 (ms) ≈16777 seconds≈280 minutes Therefore, the time information can be recorded practically sufficiently in a system that transmits handwritten display like the present system.

また、例えば本システムにおいてモノクロデータのみを送受信する実装がなされている場合には、通常R=G=Bと設定されて、送受信される画像情報のデータ量が圧縮される。この場合、画像の濃淡情報としてのRGB値(R,G,B)は通常、(0,0,0)、(1,1,1)、(2,2,2)、…、(255,255,255)までの255通りであるから白色(255,255,255)を除いた254通りを、時間情報を代入する領域として使用することができる。この場合前述のように、ストロークタイマ122のタイマ値(ms)を圧縮せずにそのまま時間情報とした場合、254(ms)=0.254秒程度しか時間情報を記録することができない。この場合、例えば、ストロークタイマ122のタイマ値を15fps(1秒間に15回の更新)として時間情報に変換すれば、254/15≒17秒程度の時間情報を記録することができる。また、例えば、ストロークタイマ122のタイマ値を60fps(1秒間に60回の更新)として時間情報に変換すれば、254/60≒4.2秒程度の時間情報を記録することができる。また、例えば、ストロークタイマ122のタイマ値(ms)を10msごとに1更新して時間情報に変換すれば、254×10=2540(ms)≒2.5秒程度の時間情報を記録することができる。   For example, when the system is implemented to transmit / receive only monochrome data, normally R = G = B is set, and the data amount of image information transmitted / received is compressed. In this case, the RGB values (R, G, B) as the shade information of the image are usually (0, 0, 0), (1, 1, 1), (2, 2, 2),. 255, 255) up to 255, 255), and 254, excluding white (255, 255, 255), can be used as an area for substituting time information. In this case, as described above, when the timer information (ms) of the stroke timer 122 is used as time information without being compressed, the time information can be recorded only for about 254 (ms) = 0.254 seconds. In this case, for example, if the timer value of the stroke timer 122 is 15 fps (updated 15 times per second) and converted into time information, time information of about 254 / 15≈17 seconds can be recorded. For example, if the timer value of the stroke timer 122 is converted to time information with 60 fps (60 updates per second), time information of about 254 / 60≈4.2 seconds can be recorded. Also, for example, if the timer value (ms) of the stroke timer 122 is updated once every 10 ms and converted into time information, time information of about 254 × 10 = 2540 (ms) ≈2.5 seconds can be recorded. it can.

<ストロークタイマ122の初期化>
前述したように、時間情報を記録するための各座標のRGB値のデータ領域としては、24ビットは十分であるが、8ビットではタイマ値から時間情報への変換時に適宜情報の圧縮が必要になる。ここで、適切なタイミングでストロークタイマを初期化し、ストロークタイマのタイマ値を0に戻すことにすれば、RGB値(R,G,B)が8ビットである場合にも、時間情報を十分に格納できるようになる。例えばリリースタイマ127の満了値を1000msとし、ストロークタイマの満了値を2540msとし、ストロークタイマ122のタイマ値(ms)を10msごとに1更新して時間情報に変換する場合について考える。ステップS122Y(ストロークタイマ122の満了)において、初期化部125は、ストロークタイマのタイマ値を0に初期化する(S125A)。これにより、文字の途中でRGB情報が(254,254,254)→(0,0,0)となるデータ区切りが、文字入力が2.5秒連続する毎に発生することになる。このようなデータ区切りが発生した場合であっても、時間情報から筆順情報を読み取るアプリケーション側に改変を加えればよく、ストロークタイマ122の初期化により筆順情報が失われたり、劣化したりすることはない。また、ステップS127Y(リリースタイマ126の満了)の場合にも、同様にストロークタイマのタイマ値が0にリセットされる(S125B)。リリースタイマ127の満了値を1000msとしたのは、例えば前述した「はじめまして」や、「サンキュー」、「じゃあ渋谷に19時ね」、「明日はどうする?」などのまとまった短い一つの文章(会話文など)が書かれた後に次の文章が書かれるまでのインターバル、すなわちリリース時間がおおよそ1000ms以上=10秒以上であることが多いという経験的事実に基づく。従って前述同様、RGB情報が(254,254,254)→(0,0,0)となるデータ区切りが発生するが、このデータ区切りは多くの場合、前述の短い一つの文章が書き込まれた後にリリース時間を挟んで書き込まれる次の文章の先頭において発生する場合が多い。従って、この場合にもストロークタイマ122の初期化により筆順情報が失われたり、劣化したりすることはなく、一区切りの文章ごとに筆順情報を取得することができ、利便性が高まる。
<Initialization of stroke timer 122>
As described above, 24 bits are sufficient as the data area of the RGB values of each coordinate for recording time information, but 8 bits require information compression as appropriate when converting from timer values to time information. Become. Here, if the stroke timer is initialized at an appropriate timing and the timer value of the stroke timer is returned to 0, the time information can be sufficiently obtained even when the RGB value (R, G, B) is 8 bits. It can be stored. For example, consider a case where the expiration value of the release timer 127 is 1000 ms, the expiration value of the stroke timer is 2540 ms, and the timer value (ms) of the stroke timer 122 is updated once every 10 ms and converted to time information. In step S122Y (expiration of stroke timer 122), the initialization unit 125 initializes the timer value of the stroke timer to 0 (S125A). As a result, a data break in which the RGB information becomes (254, 254, 254) → (0, 0, 0) in the middle of the character occurs every time character input continues for 2.5 seconds. Even when such a data break occurs, it is only necessary to modify the application side that reads the stroke order information from the time information. The stroke order information is lost or deteriorated due to the initialization of the stroke timer 122. Absent. Similarly, in the case of step S127Y (expiration of release timer 126), the timer value of the stroke timer is similarly reset to 0 (S125B). The reason why the expiration value of the release timer 127 is set to 1000 ms is that, for example, “Nice to meet you”, “Thank you”, “Now in Shibuya at 19:00”, “What do you do tomorrow?” This is based on an empirical fact that an interval until a next sentence is written after a sentence is written, that is, a release time is often about 1000 ms or more = 10 seconds or more. Therefore, as described above, a data delimitation in which the RGB information becomes (254, 254, 254) → (0, 0, 0) occurs. In many cases, this data delimitation is performed after the short single sentence is written. It often occurs at the beginning of the next sentence written across the release time. Therefore, even in this case, the stroke order information is not lost or deteriorated due to the initialization of the stroke timer 122, and the stroke order information can be acquired for each segment of text, which improves convenience.

このように、本実施例の通信端末1によれば、手書き文字の筆順情報を濃淡情報として含むように画像情報を生成することができるため、筆順情報を加えた手書き文字のデータサイズを圧縮することができる。   As described above, according to the communication terminal 1 of the present embodiment, the image information can be generated so as to include the stroke order information of the handwritten characters as the shade information, and thus the data size of the handwritten characters including the stroke order information is compressed. be able to.

以下、図7を参照して本発明の実施例2の手書き表示伝達システムの概要について説明する。図7は、本実施例の手書き表示伝達システムの概要を示す図である。図7に示すように、本実施例の手書き表示伝達システム250は、サーバ装置9と、n台の通信端末2−1、2−2、…、2−nとを含む構成である。サーバ装置9と、n台の通信端末2−1、2−2、…、2−nとは、相互にNW8を通じてデータ通信可能である。仮想的なデータ通信経路を図7中に破線矢印として示した。サーバ装置9は、手書き表示を含む画像情報をn台の通信端末2−1、2−2、…、2−n間で共有するための中継装置である。n台の通信端末2−1、2−2、…、2−nはいずれも同じ機能構成を含むため、n台の通信端末2−1、2−2、…、2−nと同じ機能を備える通信端末2を、これらの端末の代表として説明する。   The outline of the handwritten display transmission system according to the second embodiment of the present invention will be described below with reference to FIG. FIG. 7 is a diagram showing an outline of the handwritten display transmission system of the present embodiment. As illustrated in FIG. 7, the handwritten display transmission system 250 according to the present embodiment includes the server device 9 and n communication terminals 2-1, 2-2,. The server device 9 and the n communication terminals 2-1, 2-2,..., 2-n can communicate data with each other through the NW 8. The virtual data communication path is shown as a dashed arrow in FIG. The server device 9 is a relay device for sharing image information including handwritten display among the n communication terminals 2-1, 2-2,. Since the n communication terminals 2-1, 2-2,..., 2-n all include the same functional configuration, the same functions as the n communication terminals 2-1, 2-2,. The communication terminal 2 provided will be described as a representative of these terminals.

以下、図8、図9を参照して本実施例の通信端末2の構成、および動作について説明する。図8は本実施例の通信端末2の構成を示すブロック図である。図9は本実施例の通信端末2の動作を示すフローチャートである。図8に示すように、本実施例の通信端末2は、タッチセンサ11と、画像情報生成部12と、データ通信部13と、表示制御部24と、文字認識部15とを含む。実施例1の通信端末1と本実施例の通信端末2の違いは、実施例1における表示制御部14が、本実施例において表示制御部24に変更されている点のみである。以下、表示制御部24の動作であるステップS24のみを説明する。   Hereinafter, the configuration and operation of the communication terminal 2 according to the present embodiment will be described with reference to FIGS. 8 and 9. FIG. 8 is a block diagram showing the configuration of the communication terminal 2 of this embodiment. FIG. 9 is a flowchart showing the operation of the communication terminal 2 of this embodiment. As shown in FIG. 8, the communication terminal 2 according to the present embodiment includes a touch sensor 11, an image information generation unit 12, a data communication unit 13, a display control unit 24, and a character recognition unit 15. The only difference between the communication terminal 1 of the first embodiment and the communication terminal 2 of the present embodiment is that the display control unit 14 in the first embodiment is changed to the display control unit 24 in the present embodiment. Hereinafter, only step S24, which is the operation of the display control unit 24, will be described.

ステップS24では、表示制御部24は、送信、および受信した画像情報の各座標のRGB値に基づいて筆順情報を取得し、二値化した画像情報を、筆順情報に従って変化する動画情報に変換して表示する(S24)。ここで、筆順情報に従って変化する動画情報とは、例えば、二値化した手書き文字(画像情報)を筆順情報に従って一画ずつ順番に追加して表示していくような動画情報のことである。   In step S24, the display control unit 24 acquires the stroke order information based on the RGB values of the coordinates of the transmitted and received image information, and converts the binarized image information into moving image information that changes according to the stroke order information. Are displayed (S24). Here, the moving image information that changes in accordance with the stroke order information is, for example, moving image information in which binarized handwritten characters (image information) are sequentially added and displayed one by one in accordance with the stroke order information.

このように、本実施例の通信端末2によれば、表示制御部24が二値化した画像情報を、筆順情報に従って変化する動画情報に変換して表示するため、例えば文字が筆順ごとに一画ずつ書き込まれていく様子を動画として各ユーザの端末に表示することで、臨場感のある手書き表示の伝達サービスを提供することが可能となり、ユーザの利便性が高まる。   As described above, according to the communication terminal 2 of the present embodiment, the image information binarized by the display control unit 24 is converted into moving image information that changes according to the stroke order information and displayed. By displaying the state of writing each image as a moving image on each user's terminal, it becomes possible to provide a realistic handwritten display transmission service, and the convenience of the user is enhanced.

上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。   The various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Needless to say, other modifications are possible without departing from the spirit of the present invention.

また、上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。   Further, when the above-described configuration is realized by a computer, processing contents of functions that each device should have are described by a program. The processing functions are realized on the computer by executing the program on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good.

なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer). In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

Claims (5)

ユーザのタッチセンサ入力を受け付けるタッチセンサと、
前記タッチセンサ入力が検知された座標と、当該入力が検知された時間を表す時間情報とを取得し、前記時間情報を対応する座標の色情報に代入して画像情報を生成する画像情報生成部と、
複数の通信端末間で前記画像情報を共有するための中継装置であるサーバ装置に、所定時間ごとに前記画像情報を送信し、前記サーバ装置から所定時間ごとに更新後の画像情報を受信するデータ通信部と、
前記送信、および受信した画像情報の各座標を二値化して表示する表示制御部を含む
通信端末。
A touch sensor that accepts user touch sensor input;
An image information generation unit that obtains coordinates at which the touch sensor input is detected and time information indicating the time at which the input is detected, and generates image information by substituting the time information into color information of the corresponding coordinates. When,
Data that transmits the image information every predetermined time to a server device that is a relay device for sharing the image information among a plurality of communication terminals, and receives updated image information every predetermined time from the server device A communication department;
A communication terminal including a display control unit that binarizes and displays each coordinate of the image information transmitted and received.
請求項1に記載の通信端末であって、
前記送信、および受信した画像情報の各座標の色情報に基づいて筆順情報を取得し、当該筆順情報に基づいて文字認識を実行する文字認識部を含む
通信端末。
The communication terminal according to claim 1,
A communication terminal including a character recognition unit that acquires stroke order information based on color information of each coordinate of the transmitted and received image information and performs character recognition based on the stroke order information.
請求項1に記載の通信端末であって、
前記表示制御部が、
前記送信、および受信した画像情報の各座標の色情報に基づいて筆順情報を取得し、前記二値化した画像情報を、前記筆順情報に従って変化する動画情報に変換して表示する
通信端末。
The communication terminal according to claim 1,
The display control unit
A communication terminal that obtains stroke order information based on color information of each coordinate of the transmitted and received image information, converts the binarized image information into moving image information that changes according to the stroke order information, and displays the converted image information.
請求項1に記載の通信端末であって、
前記画像情報生成部が、
前記タッチセンサ入力が検知された場合にストロークタイマを起動し、前記タッチセンサ入力の中断を意味するリリースが検知された場合に前記ストロークタイマを停止するストロークタイマ制御部と、
前記タッチセンサ入力が検知された座標を取得する座標取得部と、
前記タッチセンサ入力が検知された座標の色情報に、前記ストロークタイマのタイマ値を変換してなる時間情報を代入して画像情報を更新する画像情報更新部を含む
通信端末。
The communication terminal according to claim 1,
The image information generation unit
A stroke timer control unit that starts a stroke timer when the touch sensor input is detected, and stops the stroke timer when a release that means interruption of the touch sensor input is detected;
A coordinate acquisition unit that acquires coordinates at which the touch sensor input is detected;
A communication terminal including an image information update unit that updates image information by substituting time information obtained by converting a timer value of the stroke timer into color information of coordinates at which the touch sensor input is detected.
コンピュータを、請求項1から4に記載の通信端末として機能させるためのプログラム。   A program for causing a computer to function as the communication terminal according to claim 1.
JP2013175229A 2013-08-27 2013-08-27 Communication terminal, program Active JP6059113B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013175229A JP6059113B2 (en) 2013-08-27 2013-08-27 Communication terminal, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013175229A JP6059113B2 (en) 2013-08-27 2013-08-27 Communication terminal, program

Publications (2)

Publication Number Publication Date
JP2015045903A JP2015045903A (en) 2015-03-12
JP6059113B2 true JP6059113B2 (en) 2017-01-11

Family

ID=52671385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013175229A Active JP6059113B2 (en) 2013-08-27 2013-08-27 Communication terminal, program

Country Status (1)

Country Link
JP (1) JP6059113B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6464055B2 (en) * 2015-08-21 2019-02-06 株式会社Nttドコモ Character processing system and character processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3423413B2 (en) * 1994-06-21 2003-07-07 キヤノン株式会社 Handwritten information recognition apparatus and method
JP2001268336A (en) * 2000-03-15 2001-09-28 Canon Inc Image processing apparatus and method, and storage medium
JP2013229672A (en) * 2012-04-24 2013-11-07 Panasonic Corp Communication terminal, communication method, communication program, and communication system

Also Published As

Publication number Publication date
JP2015045903A (en) 2015-03-12

Similar Documents

Publication Publication Date Title
CN108646938A (en) Configuration method, device, terminal and the storage medium of touch screen
KR101547194B1 (en) Method and application for managing cookie-information
US20160253664A1 (en) Attestation by proxy
CN110780789B (en) Game application starting method and device, storage medium and electronic device
CN104484114A (en) Data transfer method, mobile terminal and data transfer system
CN103189864A (en) Methods and apparatuses for determining shared friends in images or videos
CN111694660B (en) Cloud mobile phone data sending method, computer device and storage medium
CN102681870A (en) Automatically performing an action upon a login
US10168983B2 (en) Server apparatus, content display control system, and recording medium
US20150187326A1 (en) Method for Displaying a Content Through Either a Head Mounted Display Device or a Display Device, Corresponding Head Mounted Display Device and Computer Program Product
US9734652B1 (en) Simulating I/O using multicomputer data processing
CN104660555B (en) A kind of confirmation processing method, relevant apparatus and system
KR20160145441A (en) Method and system for discussing and rating of game content
US20170161473A1 (en) Secure pairing of personal device with host device
CN111131009A (en) Instant messaging method, equipment and computer readable storage medium
CN109806591A (en) Signature generating method and device in scene of game
CN110718219B (en) Voice processing method, device, equipment and computer storage medium
JP6059113B2 (en) Communication terminal, program
CN105814575B (en) Authenticating device, Verification System, program, storage medium and authentication method
CN112487973A (en) User image recognition model updating method and device
KR102641355B1 (en) System for accumulating point using virtual account that enables point accumulation without app login, method thereof and computer readable medium having computer program recorded thereon
CN112463016A (en) Display control method and device, electronic equipment and wearable display equipment
CN113168340B (en) Information processing system and information processing method
US20200082499A1 (en) Information processing method, computer-readable non-transitory storage medium having program stored thereon, and information processing device
JP5265658B2 (en) Login authentication apparatus, login authentication method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161208

R150 Certificate of patent or registration of utility model

Ref document number: 6059113

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250