JP3774509B2 - Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method - Google Patents
Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method Download PDFInfo
- Publication number
- JP3774509B2 JP3774509B2 JP14972996A JP14972996A JP3774509B2 JP 3774509 B2 JP3774509 B2 JP 3774509B2 JP 14972996 A JP14972996 A JP 14972996A JP 14972996 A JP14972996 A JP 14972996A JP 3774509 B2 JP3774509 B2 JP 3774509B2
- Authority
- JP
- Japan
- Prior art keywords
- trajectory data
- identifier
- data
- terminal
- trajectory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、軌跡を入力し相手側端末装置及び自分側端末装置に表示することで端末相互間で通信を行なう軌跡データ通信システム、軌跡データ通信端末、及び軌跡データ通信方法に関する。
【0002】
【従来の技術】
従来、軌跡データを送受信することで通信を行なう軌跡データ通信システムとしては、特表平2−502492号公報「マルチウィンドウ通信システム」などに紹介されているように、自分側端末に入力ペンで入力した入力点の軌跡のデータを通信回線を経由して相手側端末に送信し、この送信された軌跡データを相手側端末上に表示することで通信を行なうものがあった。
【0003】
【発明が解決しようとする課題】
しかしながら上記従来技術では、軌跡データを送信し始めたことを同時刻に相手側に感知させる手段を備えていないため、相手が描き始めた時期を感知するには、自分側端末画面上にある相手側軌跡データの表示領域を常に監視していなければならないという問題点があった。
【0004】
また、同時に複数の軌跡を同じ画面に描画した場合に、例えば実行中の自分側端末のアプリケーションが描いている軌跡であるのか、相手が送信している軌跡であるのか判断できない場合もあった。
【0005】
そこで、本発明は上記の点に鑑みてなされたものであり、軌跡データが送信された時期を容易に判断可能であるとともに、軌跡データの種類の識別性を高めることが可能な軌跡データ通信システム、軌跡データ通信端末、及び軌跡データ通信方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために請求項1記載の発明は、ユーザにより手書き入力された軌跡の軌跡データを複数の端末間で送受信する軌跡データ通信システムにおいて、軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定手段と、軌跡データを入力する入力手段と、前記入力手段により入力された軌跡データを相手側端末へ送信する送信手段と、相手側端末から送信された軌跡データを受信する受信手段と、前記受信手段が受信した相手側端末からの軌跡データと自分側端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画手段と、前記受信手段が受信した相手側端末からの軌跡データの識別子と前記自分側端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識手段と、前記描画手段が前記認識手段によって認識された識別子に関連する軌跡データの描画再生を行う際に、前記設定手段による設定内容を参照して、前記認識手段によって認識された識別子に対応する音声を出力する音声出力手段とを有することを特徴とする。
【0007】
また、上記課題を解決するために請求項4記載の発明は、相手側端末で入力された軌跡データを受信して描画再生する軌跡データ通信端末であって、軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定手段と、軌跡データを入力する入力手段と、相手側端末から送信されてきた軌跡データを受信する受信手段と、前記受信手段が受信した相手側端末からの軌跡データと前記軌跡データ通信端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画手段と、前記受信手段が受信した相手側端末からの軌跡データの識別子と前記軌跡データ通信端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識手段と、前記描画手段が前記認識手段によって認識された識別子に関連する軌跡データの描画再生を行う際に、前記設定手段による設定内容を参照して、前記認識手段によって認識された識別子に対応する音声を出力する音声出力手段とを有することを特徴とする。
また、上記課題を解決するために請求項7記載の発明は、相手側端末で入力された軌跡データを受信して描画再生する軌跡データ通信方法であって、軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定ステップと、前記相手側端末から送信されてきた軌跡データを受信する受信ステップと、前記受信ステップにおいて受信した相手側端末からの軌跡データと自分側端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画ステップと、前記受信ステップにおいて受信した相手側端末からの軌跡データの識別子と前記自分側端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識ステップと、前記描画ステップにおいて前記認識ステップによって認識された識別子に関連する軌跡データの描画再生が行われる際に、前記設定ステップによる設定内容を参照して、前記認識ステップによって認識された識別子に対応する音声を出力する音声出力ステップとを有することを特徴とする。
【0008】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して詳細に説明する。尚、以下の実施の形態は、本発明の一態様を示すものであり、この発明を限定するものではなく本発明の範囲内で任意に変更可能である。
【0009】
(実施の第1の形態)
まず、本発明による実施の第1の形態の説明を行う。
【0010】
図1は、本発明による軌跡データ通信システムの機能的構成を示すとともに、システム構成をも示すシステム機能構成図であり、図2は、図1の各ブロックの機能を実現する具体的なハードウェア構成を示す構成ブロック図である。
【0011】
本発明による軌跡データ通信システム100は、複数の端末装置からなり、例えば図1に示すように自分側端末101と、相手側端末102とから構成される。
【0012】
この軌跡データ通信システム100において、自分側端末101及び相手側端末102の各端末のブロック構成は、各端末ともに同様の構成となっており、軌跡を入力する入力部1と、この入力部1から入力された軌跡データを相手側端末102へ送信する送信部2と、相手側端末102から送られた軌跡データを受信する受信部3と、例えば自分側端末101におけるアプリケーションによる描画要求を行う描画要求部3aと、軌跡データから描画データを作成し入力部1等から入力された軌跡を表示部5に描画再生する描画部4と、描画部4で作成された描画データを表示する表示部5と、音声発生部6と、音声データから音声を出力する音声出力部7と、例えば相手側端末から送られた軌跡データの属性を認識する認識部8と、この認識部8における認識結果等の各種データを記憶する記憶部9とで構成される。
【0013】
ここで、上記描画部4は、軌跡の描画データを作成し、この描画データを表示部5へ送ると同時に音声発生部6へ音声を出力するためのトリガーを与えるものである。
【0014】
また上記音声発生部6は、描画部4からのトリガーを検知することで記憶部9に登録されている音声データ表及び認識部8の認識結果から適当な音声データを取得し、音声出力部7へ音声データを受け渡すようになっている。これにより、音声発生部6及び音声出力部7は、認識部8による属性の認識結果に応じて、描画部4による軌跡データの描画再生が行われることを知らせる音声を出力する音声出力手段としての機能を実現するようになっている。
【0015】
上記記憶部9は、認識部8における認識結果としての筆記者データ表、音声データ表及び音声変数表を記憶するようになっている。尚、図3は、この記憶部9に記憶される筆記者データ表の一例を示したものであり、図4は、音声データ表、図5は、音声変数表の一例を示したものである。
【0016】
以上の各機能構成ブロックは、例えば図2に示したようなハードウェアにより構成される。
【0017】
すなわち、入力部1としての入力ペン10、透明デジタイザ11及び入力インターフェイス12と、送信部2及び受信部3としての通信インターフェイス13及び通信回線14と、表示部5としての液晶ディスプレイ15、VRAM16及びディスプレイコントローラ17と、音声発生部6としてのシンセサイザ18と、音声出力部7としてのスピーカ19と、記憶部9としての記憶装置20と、描画要求部3a、描画部4及び認識部8としてのCPU21とを有して構成される。
【0018】
これにより、自分側端末101において、入力ペン10で透明デジタイザ11上に入力点の軌跡を入力し、液晶ディスプレイ15に表示すると同時に、通信回線14を通して相手側端末102の液晶ディスプレイ15に自分側端末101で入力した軌跡を表示することができる。この場合、当然相手側端末102においても同様の構成及び操作により互いに軌跡の通信が行えるようになっている。
【0019】
次に、本実施形態における軌跡データ通信システム100の動作を図6〜図8のフローチャートを参照して説明する。
【0020】
図6は、本実施形態における動作を示すフローチャートである。尚、本実施形態では図6〜図8に示すフローチャートに従って動作するソフトウェアがあらかじめ実行可能なプログラムとして記憶装置20に記憶されているものとする。
【0021】
まず、CPU21は、入力ペン10及び透明デジタイザ11及び入力インターフェイス12によって構成される入力部1において入力ペン10が透明デジタイザ11に接触した時の入力点の座標値を調べ、入力された軌跡データがあるか否かを判断し(S22)、入力された軌跡データがあれば、後述のステップS26を実行する。
【0022】
また、CPU21は、軌跡データがなければ(S22;NO)、通信回線14及び通信インターフェイス13によって構成される受信部3に受信された軌跡データまたは、自分側端末101のアプリケーションからの描画要求による軌跡データを調べ、受信または描画要求された軌跡データがあるか否かを判断する(S23)。ここで、受信または描画要求された軌跡データがあれば(S23;YES)、後述のステップ27を実行する。
【0023】
また、軌跡データがなければ(S23;NO)、直前に入力された軌跡データ及び直前に受信された軌跡データを調べ、「書き終り」の状態になったか否かを判断する(S24)。
【0024】
直前に同一の識別子を持つ軌跡データが存在すれば、すなわち一画のデータが終了である「書き終り」の状態になったことになるので(S24;YES)、後に詳述するペンアップ処理を実行し(S25)、一回の動作を終了する。また、直前に同一の識別子を持つ軌跡データが存在しなければ(S24;NO)、別の軌跡データの入力または受信を待機していることになるのでステップS22を再び実行する。
【0025】
尚、本実施形態で扱われている自分側端末101のアプリケーションは、音声の出力を選択できるアプリケーションを対象としている。また、本実施形態では、マルチウインドウシステムなどにより複数のアプリケーションを起動することを想定しているため、ステップS25終了後は、他のアプリケーションを実行し、再びステップS22からの動作を繰り返すことになる。
【0026】
一方、ステップS22で入力された軌跡データがあると判断された場合には、通信回線14及び通信インターフェイス13によって構成される送信部2によって、入力された軌跡データを送信する(S26)。
【0027】
次に、CPU21は、入力された軌跡データあるいは受信された軌跡データに含まれる通信用端末識別子を筆記者識別子として設定する(S27)。ここでは説明のため図3に示したように自分側端末101の識別子を1、相手側端末102の識別子を2、アプリケーションの描画要求は識別子0を割りあて、アプリケーションからの描画要求に対して音声は出力されないものとする。
【0028】
筆記者識別子の設定を行った後は、直前に入力された軌跡データ及び直前に受信された軌跡データを調べ、直前に同一の識別子を持つ軌跡データが存在しなければ「書き始め」の状態なので(S28;YES)、後に詳述するペンダウン処理を実行する(S29)。尚、このステップS29のペンダウン処理として図4に示したような音声データ表から現在の音声データを取得する。
【0029】
また、直前に同一の識別子を持つ軌跡データが存在すれば筆記中を意味するのでステップ30を実行する。すなわち、ステップ30では、入力または受信された軌跡データをディスプレイコントローラ17がVRAM16に書き込むことで実現されている描画部4へ送出し描画する(S30)。
【0030】
描画処理を行った後は、音声処理を実行する(S31)。すなわち、図5に示すような音声変数表にあらかじめ設定された音声番号の値を筆記者識別子から取得し、さらにその値に対応する音声データを図4に示す音声データ表から取得し、シンセサイザ16により実現されている音声発生部6へ送出する。音声番号は筆記者識別子ごとに異なる番号を設定しておく。その結果、音声出力部7であるスピーカ19からは音声データに基づく音声が出力される。尚、ステップS31終了後はステップS22を再び実行する。
【0031】
次に、ペンアップ処理の動作を説明する。
【0032】
図7は、本実施形態のペンアップ処理動作を説明するフローチャートである。尚、ここで、ペンアップ処理とは、軌跡データの入力及び描画処理を終了する場合の最終的な処理のことをいう。
【0033】
まず、このペンアップ処理ではCPU21が、上記ステップS27で設定された筆記者識別子の値を取得する(S32)。次に、この取得された筆記者識別子に相当する軌跡データに基づいて出力中の音声を停止する(S33)。
【0034】
次に、ペンダウン処理の動作を説明する。
【0035】
図8は、本実施形態のペンダウン処理動作を説明するフローチャートである。尚、ここで、ペンダウン処理とは、軌跡データの入力を行い始めるときに行われる軌跡データの初期入力処理のことをいう。
【0036】
まず、このペンダウン処理では音声発生部6が、上記ステップS27で設定された筆記者識別子を取得する(S38)。
【0037】
そして、音声発生部6は、図5の音声変数表のステップS38で取得した筆記者識別子に対応する音声番号を取得する(S39)。音声番号はあらかじめ設定されており、ここでは筆記者識別子1には音声番号4を、筆記者識別子2には音声番号1を設定してある。アプリケーションの識別子0にはここでは音声番号0を設定し、アプリケーションの描画要求によって描かれる軌跡では音声は出力されないようにしてある。当然のことながら、他の音声番号を設定することによってアプリケーションの描画要求であっても音声が出力されるようにすることも可能である。
【0038】
そして、音声発生部6は、図4の音声データ表からステップ39で取得した音声番号に対応する音声データを取得する(S40)。尚、ここでいう「音声」とは、人の声に限ったものではなく、効果音や振動音、楽器の音など広い意味で空気を振動させて人間が感じることのできるものを差しており、図4の音声データ表は説明のために簡単に示している。
【0039】
最後に、取得した音声データに基づいた音声を音声出力部7を構成するスピーカ19から出力する(S41)。
【0040】
以上の処理を行なうことで軌跡固有の音声を出力することが可能となるため、自端末画面上の相手方軌跡データ表示領域を常に監視していなくても、相手が描始めるタイミングを知ることができ、ペン入力による軌跡データの通信システムにおいての操作性が改善される。
【0041】
尚、本発明は相手側端末が複数である場合も想定しており、端末識別子により複数の相手が送信した軌跡に異なる音声を設定することが可能であることは言うまでもない。
【0042】
(第2の実施形態)
次に、本発明による第2の実施形態の説明を行う。
【0043】
本実施形態では、認識部8で軌跡の形状の認識、すなわちジェスチャ認識を記憶部9に記憶されたジェスチャ認識用辞書(図9参照)に基づいて行い、記憶部9に存在する筆記者変数及び音声変数へその認識結果を登録するようになっている。
【0044】
尚、本実施形態におけるシステム各部の構成は、上記第1の実施形態とほぼ同様であり、また、動作も図6のフローチャートに従って動作する。従って、本実施形態では、上記第1の実施形態と異なる部分、すなわち、ステップS25で呼び出されるペンアップ処理についてのみ説明する。
【0045】
図10は、本実施形態におけるペンアップ処理動作を示すフローチャートである。
【0046】
まず、このペンアップ処理ではCPU21が、筆記者識別子を取得した後(S34)、この取得された筆記者識別子に相当する軌跡データに基づいて出力中の音声を停止する(S35)。
【0047】
次に、CPU21(認識部8)は、ジェスチャ認識を行う(S36)。このジェスチャ認識としては、例えば入力された軌跡形状の特徴を図9に示すように抽出し、あらかじめ登録されたジェスチャ形状との類似性を計算することによって、形状番号を取得することにより行う。尚、軌跡の形状認識は、特公平5−67988号公報、特公平5−84540号公報などに数多く紹介されているように、既に公知の技術であり、本発明の主眼ではないため、その手法については、ここでは省略する。
【0048】
最後に、ジェスチャ認識の結果を、図5に示すような音声変数表に、前記ステップS34で取得した筆記者識別子に対応する音声番号として登録する(S37)。これにより、次に入力または受信された軌跡データを描画する場合に、図4の音声データ表の該当する音声番号に従って音声が出力することになる。尚、本実施形態も上記第1の実施形態の場合と同様に相手側端末が複数である場合も想定しており、端末識別子により複数の相手が送信した軌跡に異なる音声を設定することが可能であることは言うまでもない。
【0049】
以上の処理を行うことで、同時に複数の軌跡を同じ描画した場合であっても、実行中のアプリケーションが書いている軌跡であるのか、相手が送信している軌跡であるのかを判断できるようになるため、ペン入力による軌跡データの通信システムにおいて軌跡の識別性を高めることができ、操作性が改善される。
【0050】
【発明の効果】
以上詳述した本発明による軌跡データ通信システム、軌跡データ通信端末、及び軌跡データ通信方法によれば、相手からの軌跡データを受信して表示する際に、その軌跡データに固有の音声を描画処理と同時に出力するので、軌跡データが送信された時期を容易に判断可能であるとともに軌跡の識別性を高めることが可能となる。
【図面の簡単な説明】
【図1】本発明によるシステム機能を示すブロック図である。
【図2】本発明による具体的なハードウェア構成を示す構成ブロック図である。
【図3】本発明における筆記者データ表を示す図である。
【図4】本発明における音声データ表を示す図である。
【図5】本発明における音声変数表を示す図である。
【図6】本発明による軌跡データ通信システムの動作をフローチャートである。
【図7】第1の実施形態におけるペンアップ処理動作を示すフローチャートである。
【図8】第1の実施形態におけるペンダウン処理動作を示すフローチャートである。
【図9】本発明におけるジェスチャ認識用辞書を示す図である。
【図10】第2の実施形態におけるペンアップ処理動作を示すフローチャートである。
【符号の説明】
1 入力部
2 送信部
3 受信部
4 描画部
5 表示部
6 音声発生部
7 音声出力部
8 認識部
9 記憶部
10 入力ペン
11 透明デジタイザ
12 入力インターフェイス
13 通信インターフェイス
14 通信回線
15 液晶ディスプレイ
16 VRAM
17 ディスプレイコントローラ
18 シンセサイザ
19 スピーカ
20 記憶装置
21 CPU
100 軌跡データ通信システム
101 自分側端末
102 相手側端末[0001]
BACKGROUND OF THE INVENTION
The present invention, trajectory data communication system performs communication between terminals mutually by displaying enter a locus counterpart terminal and own terminal device, the trajectory data communication terminal, and a trajectory data communications methods.
[0002]
[Prior art]
Conventionally, as a trajectory data communication system that communicates by transmitting / receiving trajectory data, as input in Japanese translation of PCT publication No. 2-502492 “Multi-window communication system”, etc., an input pen is input to the terminal on its own side. In some cases, the input point trajectory data is transmitted to the counterpart terminal via a communication line, and the transmitted trajectory data is displayed on the counterpart terminal for communication.
[0003]
[Problems to be solved by the invention]
However, in the above prior art, since there is no means for the other party to sense that it has started transmitting the trajectory data at the same time, in order to detect when the other party has started drawing, There was a problem that the display area of the side track data had to be constantly monitored.
[0004]
Further, when a plurality of trajectories are drawn on the same screen at the same time, for example, it may not be possible to determine whether the trajectory is drawn by the application of the terminal being executed or the trajectory transmitted by the other party.
[0005]
Accordingly, the present invention has been made in view of the above points, and a trajectory data communication system that can easily determine the time when trajectory data is transmitted and can improve the discriminability of the type of trajectory data. It is an object to provide a trajectory data communication terminal and a trajectory data communication method .
[0006]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to
[0007]
According to a fourth aspect of the present invention, there is provided a trajectory data communication terminal that receives trajectory data input at a counterpart terminal and draws and reproduces the trajectory data identifier and application drawing request. against an identifier, receiving a setting unit configured to set each in association with different desired voice used during voice output, an input means for inputting locus data, the trajectory data was manner is sent either et mating terminal receiving means, based on any of the locus data according to the drawing request from the trajectory data and applications entered the locus data in the locus data communication terminal from the counterpart terminal received by the receiving unit, a predetermined and drawing means for drawing reproduced on the display unit, the identifier and the trace data communication terminal of the trajectory data from another terminal received by the receiving means Recognition means for recognizing one of the identifier of Oite input trajectory data identifier and drawing requesting applications have drawing request, locus data related to the identifier the drawing means is recognized by the recognition means And a voice output unit that outputs a voice corresponding to the identifier recognized by the recognition unit with reference to the setting content by the setting unit .
In order to solve the above problem, the invention described in
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The following embodiment shows one aspect of the present invention, and does not limit the present invention, and can be arbitrarily changed within the scope of the present invention.
[0009]
(First embodiment)
First, the first embodiment according to the present invention will be described.
[0010]
FIG. 1 is a system function configuration diagram showing a functional configuration of a trajectory data communication system according to the present invention and also showing a system configuration, and FIG. 2 is a specific hardware for realizing the function of each block of FIG. It is a block diagram showing the configuration.
[0011]
The trajectory
[0012]
In the trajectory
[0013]
Here, the
[0014]
Further, the
[0015]
The storage unit 9 stores a writer data table, a voice data table, and a voice variable table as recognition results in the
[0016]
Each functional configuration block described above is configured by, for example, hardware as shown in FIG.
[0017]
That is, the
[0018]
As a result, the own terminal 101 inputs the locus of the input point on the transparent digitizer 11 with the
[0019]
Next, the operation of the trajectory
[0020]
FIG. 6 is a flowchart showing the operation in the present embodiment. In the present embodiment, it is assumed that software that operates according to the flowcharts shown in FIGS. 6 to 8 is stored in the
[0021]
First, the
[0022]
If there is no trajectory data (S22; NO), the
[0023]
If there is no trajectory data (S23; NO), the trajectory data input immediately before and the trajectory data received immediately before are examined to determine whether or not the state is "end of writing" (S24).
[0024]
If there is trajectory data having the same identifier immediately before, that is, the data of one stroke is in an “end of writing” state (S24; YES), a pen-up process described in detail later is performed. Execute (S25), and end one operation. If there is no trajectory data having the same identifier immediately before (S24; NO), it means that input or reception of another trajectory data is waited, so step S22 is executed again.
[0025]
It should be noted that the application of the own terminal 101 handled in the present embodiment is targeted for an application that can select audio output. In this embodiment, since it is assumed that a plurality of applications are activated by a multi-window system or the like, after step S25 is completed, another application is executed and the operation from step S22 is repeated again. .
[0026]
On the other hand, when it is determined in step S22 that there is trajectory data input, the input trajectory data is transmitted by the
[0027]
Next, CPU21 sets the terminal identifier for communication contained in the input locus | trajectory data or the received locus | trajectory data as a writer identifier (S27). Here, for the sake of explanation, as shown in FIG. 3, the identifier of the own terminal 101 is 1, the identifier of the
[0028]
After setting the writer identifier, the trajectory data input immediately before and the trajectory data received immediately before are checked, and if there is no trajectory data having the same identifier immediately before, the state is “begin writing”. (S28; YES), a pen-down process described in detail later is executed (S29). Note that the current voice data is acquired from the voice data table as shown in FIG. 4 as the pen-down process in step S29.
[0029]
In addition, if there is trajectory data having the same identifier immediately before, it means that writing is in progress, so step 30 is executed. That is, in
[0030]
After performing the drawing process, an audio process is executed (S31). That is, a voice number value preset in the voice variable table as shown in FIG. 5 is acquired from the writer identifier, and voice data corresponding to the value is acquired from the voice data table shown in FIG. Is transmitted to the
[0031]
Next, the operation of the pen-up process will be described.
[0032]
FIG. 7 is a flowchart for explaining the pen-up processing operation of the present embodiment. Here, the pen-up process refers to a final process when the input of the trajectory data and the drawing process are terminated.
[0033]
First, in this pen-up process, the
[0034]
Next, the operation of the pen-down process will be described.
[0035]
FIG. 8 is a flowchart for explaining the pen-down processing operation of the present embodiment. Here, the pen-down process refers to an initial input process of trajectory data that is performed when input of trajectory data is started.
[0036]
First, in this pen-down process, the
[0037]
Then, the
[0038]
And the audio |
[0039]
Finally, sound based on the acquired sound data is output from the
[0040]
By performing the above processing, it is possible to output a voice specific to the trajectory, so even when the other party's trajectory data display area on the terminal screen is not always monitored, the timing when the other party starts drawing can be known. The operability in the communication system of trajectory data by pen input is improved.
[0041]
In the present invention, it is assumed that there are a plurality of counterpart terminals, and it is needless to say that different voices can be set in the trajectories transmitted by a plurality of counterparts by the terminal identifier.
[0042]
(Second Embodiment)
Next, a second embodiment according to the present invention will be described.
[0043]
In the present embodiment, the
[0044]
The configuration of each part of the system in this embodiment is substantially the same as that in the first embodiment, and the operation also operates according to the flowchart of FIG. Therefore, in the present embodiment, only the part different from the first embodiment, that is, the pen-up process called in step S25 will be described.
[0045]
FIG. 10 is a flowchart showing the pen-up processing operation in the present embodiment.
[0046]
First, in this pen-up process, the
[0047]
Next, the CPU 21 (recognition unit 8) performs gesture recognition (S36). This gesture recognition is performed, for example, by extracting the features of the input trajectory shape as shown in FIG. 9 and calculating the similarity with the gesture shape registered in advance to obtain the shape number. Incidentally, the shape recognition of the trajectory is a known technique and is not the main point of the present invention, as described in Japanese Patent Publication No. 5-67988 and Japanese Patent Publication No. 5-84540. Is omitted here.
[0048]
Finally, the result of gesture recognition is registered in the speech variable table as shown in FIG. 5 as a speech number corresponding to the writer identifier acquired in step S34 (S37). Thus, when the next input or received locus data is drawn, the sound is output according to the corresponding sound number in the sound data table of FIG. As in the case of the first embodiment, the present embodiment also assumes a case where there are a plurality of counterpart terminals, and it is possible to set different voices on the trajectories transmitted by a plurality of counterparts using terminal identifiers. Needless to say.
[0049]
By performing the above processing, even when multiple traces are drawn at the same time, it is possible to determine whether the trace is written by the running application or the trace sent by the other party. Therefore, in the communication system of the trajectory data by pen input, trajectory discrimination can be improved, and operability is improved.
[0050]
【The invention's effect】
The data communication system trajectory according to the invention described in detail above, the trajectory data communication terminal, and according to the trajectory data communications method, when receiving and displaying the locus data from the other party, a specific voice on the locus data Since the data is output simultaneously with the drawing process, it is possible to easily determine the time when the trajectory data is transmitted and to improve the trajectory discrimination.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating system functions according to the present invention.
FIG. 2 is a block diagram showing a specific hardware configuration according to the present invention.
FIG. 3 is a diagram showing a writer data table according to the present invention.
FIG. 4 is a diagram showing an audio data table in the present invention.
FIG. 5 is a diagram showing an audio variable table in the present invention.
FIG. 6 is a flowchart of the operation of the trajectory data communication system according to the present invention.
FIG. 7 is a flowchart showing a pen-up processing operation in the first embodiment.
FIG. 8 is a flowchart showing a pen-down processing operation in the first embodiment.
FIG. 9 is a diagram showing a gesture recognition dictionary according to the present invention.
FIG. 10 is a flowchart showing a pen-up processing operation in the second embodiment.
[Explanation of symbols]
DESCRIPTION OF
17
100 locus data communication system 101
Claims (7)
軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定手段と、
軌跡データを入力する入力手段と、
前記入力手段により入力された軌跡データを相手側端末へ送信する送信手段と、
相手側端末から送信された軌跡データを受信する受信手段と、
前記受信手段が受信した相手側端末からの軌跡データと自分側端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画手段と、
前記受信手段が受信した相手側端末からの軌跡データの識別子と前記自分側端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識手段と、
前記描画手段が前記認識手段によって認識された識別子に関連する軌跡データの描画再生を行う際に、前記設定手段による設定内容を参照して、前記認識手段によって認識された識別子に対応する音声を出力する音声出力手段と
を有することを特徴とする軌跡データ通信システム。In a trajectory data communication system for transmitting and receiving trajectory data of a trajectory handwritten by a user between a plurality of terminals,
A setting unit configured to associate and set different desired voices used at the time of voice output with respect to the identifier of the trajectory data and the identifier of the drawing request of the application;
Input means for inputting trajectory data;
Transmitting means for transmitting the trajectory data input by the input means to the counterpart terminal;
Receiving means for receiving trajectory data transmitted from the counterpart terminal;
Based on any of the locus data according to the drawing request from the trajectory data and applications entered in the trajectory data and their side terminal from the counterpart terminal received by the receiving unit, the drawing reproduced on a predetermined display means Drawing means to perform,
Recognizing means for recognizing any one of the identifier of the trajectory data received from the counterpart terminal received by the receiving means, the identifier of the trajectory data input at the own terminal, and the identifier of the drawing request of the application that requested the drawing When,
When the drawing unit draws and reproduces the trajectory data related to the identifier recognized by the recognition unit, the voice corresponding to the identifier recognized by the recognition unit is output with reference to the setting content by the setting unit And a voice data communication means.
軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定手段と、
軌跡データを入力する入力手段と、
相手側端末から送信されてきた軌跡データを受信する受信手段と、
前記受信手段が受信した相手側端末からの軌跡データと前記軌跡データ通信端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画手段と、
前記受信手段が受信した相手側端末からの軌跡データの識別子と前記軌跡データ通信端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識手段と、
前記描画手段が前記認識手段によって認識された識別子に関連する軌跡データの描画再生を行う際に、前記設定手段による設定内容を参照して、前記認識手段によって認識された識別子に対応する音声を出力する音声出力手段と
を有することを特徴とする軌跡データ通信端末。A trajectory data communication terminal that receives trajectory data input at a partner terminal and draws and reproduces the trajectory data,
A setting unit configured to associate and set different desired voices used at the time of voice output with respect to the identifier of the trajectory data and the identifier of the drawing request of the application;
Input means for inputting trajectory data;
Receiving means for receiving a signal by specifically had locus data transmission terminal on the other end or, et al.,
Based on any of the locus data according to the drawing request from the trajectory data and applications entered the locus data in the locus data communication terminal from the counterpart terminal received by the receiving unit, on a predetermined display means Drawing means for drawing and reproducing;
Recognition that recognizes one of the identifier of the trajectory data from the counterpart terminal received by the receiving means, the identifier of the trajectory data input in the trajectory data communication terminal, and the identifier of the drawing request of the application that has requested the drawing. Means,
When the drawing unit draws and reproduces the trajectory data related to the identifier recognized by the recognition unit, the voice corresponding to the identifier recognized by the recognition unit is output with reference to the setting content by the setting unit And a voice data communication terminal.
軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定ステップと、
前記相手側端末から送信されてきた軌跡データを受信する受信ステップと、
前記受信ステップにおいて受信した相手側端末からの軌跡データと自分側端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画ステップと、
前記受信ステップにおいて受信した相手側端末からの軌跡データの識別子と前記自分側端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識ステップと、
前記描画ステップにおいて前記認識ステップによって認識された識別子に関連する軌跡データの描画再生が行われる際に、前記設定ステップによる設定内容を参照して、前記認識ステップによって認識された識別子に対応する音声を出力する音声出力ステップと
を有することを特徴とする軌跡データ通信方法。A trajectory data communication method for receiving and drawing and reproducing trajectory data input at a counterpart terminal,
A setting step for associating and setting different desired voices used at the time of voice output to the identifier of the trajectory data and the identifier of the application drawing request;
A receiving step of receiving a signal by specifically had locus data transmission et or said other terminal,
Based on any of the locus data according to the drawing request from the trajectory data and trajectory data and applications entered at his terminal from the counterpart terminal received in the receiving step, the drawing reproduced on a predetermined display means A drawing step to
Recognizing step of recognizing any one of the identifier of the trajectory data received from the counterpart terminal received in the receiving step, the identifier of the trajectory data input in the own terminal, and the identifier of the drawing request of the application that requested the drawing When,
When drawing and reproduction of the trajectory data related to the identifier recognized by the recognition step is performed in the drawing step, the voice corresponding to the identifier recognized by the recognition step is referred to by referring to the setting content by the setting step. A trajectory data communication method comprising: an audio output step for outputting.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14972996A JP3774509B2 (en) | 1996-05-22 | 1996-05-22 | Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14972996A JP3774509B2 (en) | 1996-05-22 | 1996-05-22 | Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09312696A JPH09312696A (en) | 1997-12-02 |
JP3774509B2 true JP3774509B2 (en) | 2006-05-17 |
Family
ID=15481545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14972996A Expired - Fee Related JP3774509B2 (en) | 1996-05-22 | 1996-05-22 | Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3774509B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01194560A (en) * | 1988-01-29 | 1989-08-04 | Hitachi Ltd | Tele writing conference system |
EP0556999B1 (en) * | 1992-02-18 | 1998-05-27 | NCR International, Inc. | Data processing apparatus with user input feedback |
JPH06124335A (en) * | 1992-10-13 | 1994-05-06 | Fuji Xerox Co Ltd | Image forming device provided with editing function |
-
1996
- 1996-05-22 JP JP14972996A patent/JP3774509B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09312696A (en) | 1997-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9129478B2 (en) | Attributing user action based on biometric identity | |
US8842100B2 (en) | Customer authoring tools for creating user-generated content for smart pen applications | |
WO2021083168A1 (en) | Video sharing method and electronic device | |
JP2007317159A (en) | Input apparatus of electronic device and input method thereof | |
CN110830368B (en) | Instant messaging message sending method and electronic equipment | |
CN107870674B (en) | Program starting method and mobile terminal | |
CN104252226A (en) | Information processing method and electronic equipment | |
CN110568926B (en) | Sound signal processing method and terminal equipment | |
CN111359209B (en) | Video playing method and device and terminal | |
WO2023082703A1 (en) | Voice control method and apparatus, electronic device, and readable storage medium | |
KR20220154763A (en) | Image processing methods and electronic equipment | |
US20200327893A1 (en) | Information processing device and information processing method | |
CN110808019A (en) | Song generation method and electronic equipment | |
CN108763475B (en) | Recording method, recording device and terminal equipment | |
WO2022121592A1 (en) | Livestreaming interaction method and apparatus | |
JP2010026686A (en) | Interactive communication terminal with integrative interface, and communication system using the same | |
CN111857482B (en) | Interaction method, device, equipment and readable medium | |
JP3774509B2 (en) | Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method | |
JP4348831B2 (en) | Handwritten input data display system, coordinate data input device, display device, and handwritten input data display device | |
CN111445929A (en) | Voice information processing method and electronic equipment | |
US20240013166A1 (en) | Check exception processing in the metaverse | |
CN112820265B (en) | Speech synthesis model training method and related device | |
CN110213431B (en) | Message sending method and mobile terminal | |
CN111416955A (en) | Video call method and electronic equipment | |
CN112114736A (en) | Operation control method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050510 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050711 |
|
TRDD | Decision of grant or rejection written | ||
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060206 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060220 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100224 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100224 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110224 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120224 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130224 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140224 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |