JP3774509B2 - Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method - Google Patents

Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method Download PDF

Info

Publication number
JP3774509B2
JP3774509B2 JP14972996A JP14972996A JP3774509B2 JP 3774509 B2 JP3774509 B2 JP 3774509B2 JP 14972996 A JP14972996 A JP 14972996A JP 14972996 A JP14972996 A JP 14972996A JP 3774509 B2 JP3774509 B2 JP 3774509B2
Authority
JP
Japan
Prior art keywords
trajectory data
identifier
data
terminal
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14972996A
Other languages
Japanese (ja)
Other versions
JPH09312696A (en
Inventor
亮治 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP14972996A priority Critical patent/JP3774509B2/en
Publication of JPH09312696A publication Critical patent/JPH09312696A/en
Application granted granted Critical
Publication of JP3774509B2 publication Critical patent/JP3774509B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、軌跡を入力し相手側端末装置及び自分側端末装置に表示することで端末相互間で通信を行なう軌跡データ通信システム、軌跡データ通信端末、及び軌跡データ通信方法に関する。
【0002】
【従来の技術】
従来、軌跡データを送受信することで通信を行なう軌跡データ通信システムとしては、特表平2−502492号公報「マルチウィンドウ通信システム」などに紹介されているように、自分側端末に入力ペンで入力した入力点の軌跡のデータを通信回線を経由して相手側端末に送信し、この送信された軌跡データを相手側端末上に表示することで通信を行なうものがあった。
【0003】
【発明が解決しようとする課題】
しかしながら上記従来技術では、軌跡データを送信し始めたことを同時刻に相手側に感知させる手段を備えていないため、相手が描き始めた時期を感知するには、自分側端末画面上にある相手側軌跡データの表示領域を常に監視していなければならないという問題点があった。
【0004】
また、同時に複数の軌跡を同じ画面に描画した場合に、例えば実行中の自分側端末のアプリケーションが描いている軌跡であるのか、相手が送信している軌跡であるのか判断できない場合もあった。
【0005】
そこで、本発明は上記の点に鑑みてなされたものであり、軌跡データが送信された時期を容易に判断可能であるとともに、軌跡データの種類の識別性を高めることが可能な軌跡データ通信システム、軌跡データ通信端末、及び軌跡データ通信方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために請求項記載の発明は、ユーザにより手書き入力された軌跡の軌跡データを複数の端末間で送受信する軌跡データ通信システムにおいて、軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定手段と、軌跡データを入力する入力手段と、前記入力手段により入力された軌跡データを相手側端末へ送信する送信手段と、相手側端末から送信された軌跡データを受信する受信手段と、前記受信手段が受信した相手側端末からの軌跡データ自分側端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画手段と、前記受信手段が受信した相手側端末からの軌跡データの識別子と前記自分側端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識手段と、前記描画手段が前記認識手段によって認識された識別子に関連する軌跡データの描画再生を行う際に、前記設定手段による設定内容を参照して、前記認識手段によって認識された識別子に対応する音声を出力する音声出力手段とを有することを特徴とする。
【0007】
また、上記課題を解決するために請求項記載の発明は、相手側端末で入力された軌跡データを受信して描画再生する軌跡データ通信端末であって、軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定手段と、軌跡データを入力する入力手段と、相手側端末から送信されてきた軌跡データを受信する受信手段と、前記受信手段が受信した相手側端末からの軌跡データ前記軌跡データ通信端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画手段と、前記受信手段が受信した相手側端末からの軌跡データの識別子と前記軌跡データ通信端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識手段と、前記描画手段が前記認識手段によって認識された識別子に関連する軌跡データの描画再生を行う際に、前記設定手段による設定内容を参照して、前記認識手段によって認識された識別子に対応する音声を出力する音声出力手段とを有することを特徴とする。
また、上記課題を解決するために請求項記載の発明は、相手側端末で入力された軌跡データを受信して描画再生する軌跡データ通信方法であって、軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定ステップと、前記相手側端末から送信されてきた軌跡データを受信する受信ステップと、前記受信ステップにおいて受信した相手側端末からの軌跡データ自分側端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画ステップと、前記受信ステップにおいて受信した相手側端末からの軌跡データの識別子と前記自分側端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識ステップと、前記描画ステップにおいて前記認識ステップによって認識された識別子に関連する軌跡データの描画再生が行われる際に、前記設定ステップによる設定内容を参照して、前記認識ステップによって認識された識別子に対応する音声を出力する音声出力ステップとを有することを特徴とする。
【0008】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して詳細に説明する。尚、以下の実施の形態は、本発明の一態様を示すものであり、この発明を限定するものではなく本発明の範囲内で任意に変更可能である。
【0009】
(実施の第1の形態)
まず、本発明による実施の第1の形態の説明を行う。
【0010】
図1は、本発明による軌跡データ通信システムの機能的構成を示すとともに、システム構成をも示すシステム機能構成図であり、図2は、図1の各ブロックの機能を実現する具体的なハードウェア構成を示す構成ブロック図である。
【0011】
本発明による軌跡データ通信システム100は、複数の端末装置からなり、例えば図1に示すように自分側端末101と、相手側端末102とから構成される。
【0012】
この軌跡データ通信システム100において、自分側端末101及び相手側端末102の各端末のブロック構成は、各端末ともに同様の構成となっており、軌跡を入力する入力部1と、この入力部1から入力された軌跡データを相手側端末102へ送信する送信部2と、相手側端末102から送られた軌跡データを受信する受信部3と、例えば自分側端末101におけるアプリケーションによる描画要求を行う描画要求部3aと、軌跡データから描画データを作成し入力部1等から入力された軌跡を表示部5に描画再生する描画部4と、描画部4で作成された描画データを表示する表示部5と、音声発生部6と、音声データから音声を出力する音声出力部7と、例えば相手側端末から送られた軌跡データの属性を認識する認識部8と、この認識部8における認識結果等の各種データを記憶する記憶部9とで構成される。
【0013】
ここで、上記描画部4は、軌跡の描画データを作成し、この描画データを表示部5へ送ると同時に音声発生部6へ音声を出力するためのトリガーを与えるものである。
【0014】
また上記音声発生部6は、描画部4からのトリガーを検知することで記憶部9に登録されている音声データ表及び認識部8の認識結果から適当な音声データを取得し、音声出力部7へ音声データを受け渡すようになっている。これにより、音声発生部6及び音声出力部7は、認識部8による属性の認識結果に応じて、描画部4による軌跡データの描画再生が行われることを知らせる音声を出力する音声出力手段としての機能を実現するようになっている。
【0015】
上記記憶部9は、認識部8における認識結果としての筆記者データ表、音声データ表及び音声変数表を記憶するようになっている。尚、図3は、この記憶部9に記憶される筆記者データ表の一例を示したものであり、図4は、音声データ表、図5は、音声変数表の一例を示したものである。
【0016】
以上の各機能構成ブロックは、例えば図2に示したようなハードウェアにより構成される。
【0017】
すなわち、入力部1としての入力ペン10、透明デジタイザ11及び入力インターフェイス12と、送信部2及び受信部3としての通信インターフェイス13及び通信回線14と、表示部5としての液晶ディスプレイ15、VRAM16及びディスプレイコントローラ17と、音声発生部6としてのシンセサイザ18と、音声出力部7としてのスピーカ19と、記憶部9としての記憶装置20と、描画要求部3a、描画部4及び認識部8としてのCPU21とを有して構成される。
【0018】
これにより、自分側端末101において、入力ペン10で透明デジタイザ11上に入力点の軌跡を入力し、液晶ディスプレイ15に表示すると同時に、通信回線14を通して相手側端末102の液晶ディスプレイ15に自分側端末101で入力した軌跡を表示することができる。この場合、当然相手側端末102においても同様の構成及び操作により互いに軌跡の通信が行えるようになっている。
【0019】
次に、本実施形態における軌跡データ通信システム100の動作を図6〜図8のフローチャートを参照して説明する。
【0020】
図6は、本実施形態における動作を示すフローチャートである。尚、本実施形態では図6〜図8に示すフローチャートに従って動作するソフトウェアがあらかじめ実行可能なプログラムとして記憶装置20に記憶されているものとする。
【0021】
まず、CPU21は、入力ペン10及び透明デジタイザ11及び入力インターフェイス12によって構成される入力部1において入力ペン10が透明デジタイザ11に接触した時の入力点の座標値を調べ、入力された軌跡データがあるか否かを判断し(S22)、入力された軌跡データがあれば、後述のステップS26を実行する。
【0022】
また、CPU21は、軌跡データがなければ(S22;NO)、通信回線14及び通信インターフェイス13によって構成される受信部3に受信された軌跡データまたは、自分側端末101のアプリケーションからの描画要求による軌跡データを調べ、受信または描画要求された軌跡データがあるか否かを判断する(S23)。ここで、受信または描画要求された軌跡データがあれば(S23;YES)、後述のステップ27を実行する。
【0023】
また、軌跡データがなければ(S23;NO)、直前に入力された軌跡データ及び直前に受信された軌跡データを調べ、「書き終り」の状態になったか否かを判断する(S24)。
【0024】
直前に同一の識別子を持つ軌跡データが存在すれば、すなわち一画のデータが終了である「書き終り」の状態になったことになるので(S24;YES)、後に詳述するペンアップ処理を実行し(S25)、一回の動作を終了する。また、直前に同一の識別子を持つ軌跡データが存在しなければ(S24;NO)、別の軌跡データの入力または受信を待機していることになるのでステップS22を再び実行する。
【0025】
尚、本実施形態で扱われている自分側端末101のアプリケーションは、音声の出力を選択できるアプリケーションを対象としている。また、本実施形態では、マルチウインドウシステムなどにより複数のアプリケーションを起動することを想定しているため、ステップS25終了後は、他のアプリケーションを実行し、再びステップS22からの動作を繰り返すことになる。
【0026】
一方、ステップS22で入力された軌跡データがあると判断された場合には、通信回線14及び通信インターフェイス13によって構成される送信部2によって、入力された軌跡データを送信する(S26)。
【0027】
次に、CPU21は、入力された軌跡データあるいは受信された軌跡データに含まれる通信用端末識別子を筆記者識別子として設定する(S27)。ここでは説明のため図3に示したように自分側端末101の識別子を1、相手側端末102の識別子を2、アプリケーションの描画要求は識別子0を割りあて、アプリケーションからの描画要求に対して音声は出力されないものとする。
【0028】
筆記者識別子の設定を行った後は、直前に入力された軌跡データ及び直前に受信された軌跡データを調べ、直前に同一の識別子を持つ軌跡データが存在しなければ「書き始め」の状態なので(S28;YES)、後に詳述するペンダウン処理を実行する(S29)。尚、このステップS29のペンダウン処理として図4に示したような音声データ表から現在の音声データを取得する。
【0029】
また、直前に同一の識別子を持つ軌跡データが存在すれば筆記中を意味するのでステップ30を実行する。すなわち、ステップ30では、入力または受信された軌跡データをディスプレイコントローラ17がVRAM16に書き込むことで実現されている描画部4へ送出し描画する(S30)。
【0030】
描画処理を行った後は、音声処理を実行する(S31)。すなわち、図5に示すような音声変数表にあらかじめ設定された音声番号の値を筆記者識別子から取得し、さらにその値に対応する音声データを図4に示す音声データ表から取得し、シンセサイザ16により実現されている音声発生部6へ送出する。音声番号は筆記者識別子ごとに異なる番号を設定しておく。その結果、音声出力部7であるスピーカ19からは音声データに基づく音声が出力される。尚、ステップS31終了後はステップS22を再び実行する。
【0031】
次に、ペンアップ処理の動作を説明する。
【0032】
図7は、本実施形態のペンアップ処理動作を説明するフローチャートである。尚、ここで、ペンアップ処理とは、軌跡データの入力及び描画処理を終了する場合の最終的な処理のことをいう。
【0033】
まず、このペンアップ処理ではCPU21が、上記ステップS27で設定された筆記者識別子の値を取得する(S32)。次に、この取得された筆記者識別子に相当する軌跡データに基づいて出力中の音声を停止する(S33)。
【0034】
次に、ペンダウン処理の動作を説明する。
【0035】
図8は、本実施形態のペンダウン処理動作を説明するフローチャートである。尚、ここで、ペンダウン処理とは、軌跡データの入力を行い始めるときに行われる軌跡データの初期入力処理のことをいう。
【0036】
まず、このペンダウン処理では音声発生部6が、上記ステップS27で設定された筆記者識別子を取得する(S38)。
【0037】
そして、音声発生部6は、図5の音声変数表のステップS38で取得した筆記者識別子に対応する音声番号を取得する(S39)。音声番号はあらかじめ設定されており、ここでは筆記者識別子1には音声番号4を、筆記者識別子には音声番号1を設定してある。アプリケーションの識別子0にはここでは音声番号0を設定し、アプリケーションの描画要求によって描かれる軌跡では音声は出力されないようにしてある。当然のことながら、他の音声番号を設定することによってアプリケーションの描画要求であっても音声が出力されるようにすることも可能である。
【0038】
そして、音声発生部6は、図4の音声データ表からステップ39で取得した音声番号に対応する音声データを取得する(S40)。尚、ここでいう「音声」とは、人の声に限ったものではなく、効果音や振動音、楽器の音など広い意味で空気を振動させて人間が感じることのできるものを差しており、図4の音声データ表は説明のために簡単に示している。
【0039】
最後に、取得した音声データに基づいた音声を音声出力部7を構成するスピーカ19から出力する(S41)。
【0040】
以上の処理を行なうことで軌跡固有の音声を出力することが可能となるため、自端末画面上の相手方軌跡データ表示領域を常に監視していなくても、相手が描始めるタイミングを知ることができ、ペン入力による軌跡データの通信システムにおいての操作性が改善される。
【0041】
尚、本発明は相手側端末が複数である場合も想定しており、端末識別子により複数の相手が送信した軌跡に異なる音声を設定することが可能であることは言うまでもない。
【0042】
(第2の実施形態)
次に、本発明による第2の実施形態の説明を行う。
【0043】
本実施形態では、認識部8で軌跡の形状の認識、すなわちジェスチャ認識を記憶部9に記憶されたジェスチャ認識用辞書(図9参照)に基づいて行い、記憶部9に存在する筆記者変数及び音声変数へその認識結果を登録するようになっている。
【0044】
尚、本実施形態におけるシステム各部の構成は、上記第1の実施形態とほぼ同様であり、また、動作も図6のフローチャートに従って動作する。従って、本実施形態では、上記第1の実施形態と異なる部分、すなわち、ステップS25で呼び出されるペンアップ処理についてのみ説明する。
【0045】
図10は、本実施形態におけるペンアップ処理動作を示すフローチャートである。
【0046】
まず、このペンアップ処理ではCPU21が、筆記者識別子を取得した後(S34)、この取得された筆記者識別子に相当する軌跡データに基づいて出力中の音声を停止する(S35)。
【0047】
次に、CPU21(認識部8)は、ジェスチャ認識を行う(S36)。このジェスチャ認識としては、例えば入力された軌跡形状の特徴を図9に示すように抽出し、あらかじめ登録されたジェスチャ形状との類似性を計算することによって、形状番号を取得することにより行う。尚、軌跡の形状認識は、特公平5−67988号公報、特公平5−84540号公報などに数多く紹介されているように、既に公知の技術であり、本発明の主眼ではないため、その手法については、ここでは省略する。
【0048】
最後に、ジェスチャ認識の結果を、図5に示すような音声変数表に、前記ステップS34で取得した筆記者識別子に対応する音声番号として登録する(S37)。これにより、次に入力または受信された軌跡データを描画する場合に、図4の音声データ表の該当する音声番号に従って音声が出力することになる。尚、本実施形態も上記第1の実施形態の場合と同様に相手側端末が複数である場合も想定しており、端末識別子により複数の相手が送信した軌跡に異なる音声を設定することが可能であることは言うまでもない。
【0049】
以上の処理を行うことで、同時に複数の軌跡を同じ描画した場合であっても、実行中のアプリケーションが書いている軌跡であるのか、相手が送信している軌跡であるのかを判断できるようになるため、ペン入力による軌跡データの通信システムにおいて軌跡の識別性を高めることができ、操作性が改善される。
【0050】
【発明の効果】
以上詳述した本発明による軌跡データ通信システム、軌跡データ通信端末、及び軌跡データ通信方法によれば、相手からの軌跡データを受信して表示する際に、その軌跡データに固有の音声を描画処理と同時に出力するので、軌跡データが送信された時期を容易に判断可能であるとともに軌跡の識別性を高めることが可能となる。
【図面の簡単な説明】
【図1】本発明によるシステム機能を示すブロック図である。
【図2】本発明による具体的なハードウェア構成を示す構成ブロック図である。
【図3】本発明における筆記者データ表を示す図である。
【図4】本発明における音声データ表を示す図である。
【図5】本発明における音声変数表を示す図である。
【図6】本発明による軌跡データ通信システムの動作をフローチャートである。
【図7】第1の実施形態におけるペンアップ処理動作を示すフローチャートである。
【図8】第1の実施形態におけるペンダウン処理動作を示すフローチャートである。
【図9】本発明におけるジェスチャ認識用辞書を示す図である。
【図10】第2の実施形態におけるペンアップ処理動作を示すフローチャートである。
【符号の説明】
1 入力部
2 送信部
3 受信部
4 描画部
5 表示部
6 音声発生部
7 音声出力部
8 認識部
9 記憶部
10 入力ペン
11 透明デジタイザ
12 入力インターフェイス
13 通信インターフェイス
14 通信回線
15 液晶ディスプレイ
16 VRAM
17 ディスプレイコントローラ
18 シンセサイザ
19 スピーカ
20 記憶装置
21 CPU
100 軌跡データ通信システム
101 自分側端末
102 相手側端末
[0001]
BACKGROUND OF THE INVENTION
The present invention, trajectory data communication system performs communication between terminals mutually by displaying enter a locus counterpart terminal and own terminal device, the trajectory data communication terminal, and a trajectory data communications methods.
[0002]
[Prior art]
Conventionally, as a trajectory data communication system that communicates by transmitting / receiving trajectory data, as input in Japanese translation of PCT publication No. 2-502492 “Multi-window communication system”, etc., an input pen is input to the terminal on its own side. In some cases, the input point trajectory data is transmitted to the counterpart terminal via a communication line, and the transmitted trajectory data is displayed on the counterpart terminal for communication.
[0003]
[Problems to be solved by the invention]
However, in the above prior art, since there is no means for the other party to sense that it has started transmitting the trajectory data at the same time, in order to detect when the other party has started drawing, There was a problem that the display area of the side track data had to be constantly monitored.
[0004]
Further, when a plurality of trajectories are drawn on the same screen at the same time, for example, it may not be possible to determine whether the trajectory is drawn by the application of the terminal being executed or the trajectory transmitted by the other party.
[0005]
Accordingly, the present invention has been made in view of the above points, and a trajectory data communication system that can easily determine the time when trajectory data is transmitted and can improve the discriminability of the type of trajectory data. It is an object to provide a trajectory data communication terminal and a trajectory data communication method .
[0006]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to claim 1 is a trajectory data communication system for transmitting / receiving trajectory data of a trajectory handwritten by a user between a plurality of terminals, and an identifier of trajectory data and an identifier of an application drawing request. And setting means for associating and setting different desired voices used at the time of voice output , input means for inputting trajectory data, and transmission for transmitting trajectory data input by the input means to the counterpart terminal means and the trajectory by the drawing request receiving means for receiving the route data transmitted from the counterpart terminal, from the trajectory data and trajectory data and applications entered at his terminal from the counterpart terminal received by the receiving means based on any of the data, and drawing means for drawing reproduced on a predetermined display unit, the receiving hands There recognition means for recognizing one of the identifier of the received application of drawing requests the identifier of the route data from the other party terminal and the identification of the locus data input in their terminal have drawing request, the When the drawing unit draws and reproduces the trajectory data related to the identifier recognized by the recognition unit, the voice corresponding to the identifier recognized by the recognition unit is output with reference to the setting content by the setting unit And an audio output means.
[0007]
According to a fourth aspect of the present invention, there is provided a trajectory data communication terminal that receives trajectory data input at a counterpart terminal and draws and reproduces the trajectory data identifier and application drawing request. against an identifier, receiving a setting unit configured to set each in association with different desired voice used during voice output, an input means for inputting locus data, the trajectory data was manner is sent either et mating terminal receiving means, based on any of the locus data according to the drawing request from the trajectory data and applications entered the locus data in the locus data communication terminal from the counterpart terminal received by the receiving unit, a predetermined and drawing means for drawing reproduced on the display unit, the identifier and the trace data communication terminal of the trajectory data from another terminal received by the receiving means Recognition means for recognizing one of the identifier of Oite input trajectory data identifier and drawing requesting applications have drawing request, locus data related to the identifier the drawing means is recognized by the recognition means And a voice output unit that outputs a voice corresponding to the identifier recognized by the recognition unit with reference to the setting content by the setting unit .
In order to solve the above problem, the invention described in claim 7 is a trajectory data communication method for receiving trajectory data input at a counterpart terminal and drawing and reproducing the trajectory data, and an application drawing request. against an identifier, a setting step of setting each in association with different desired voice used during voice output, a receiving step of receiving a signal by specifically had locus data feed said other terminal or al, in said receiving step based on one of the locus data according to the received drawing request from the trajectory data and trajectory data and applications entered at his terminal from the counterpart terminal, and rendering step of drawing reproduced on a predetermined display means is input in the identifier and the own terminal trajectory data from another terminal received in the receiving step Both the recognition step of recognizing whether, drawing playback line trajectory data associated with the identifier recognized by the recognition steps in the drawing step of the identifier of the drawing request from the application that has the identifier drawing request locus data And a voice output step of outputting a voice corresponding to the identifier recognized in the recognition step with reference to the setting content in the setting step .
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The following embodiment shows one aspect of the present invention, and does not limit the present invention, and can be arbitrarily changed within the scope of the present invention.
[0009]
(First embodiment)
First, the first embodiment according to the present invention will be described.
[0010]
FIG. 1 is a system function configuration diagram showing a functional configuration of a trajectory data communication system according to the present invention and also showing a system configuration, and FIG. 2 is a specific hardware for realizing the function of each block of FIG. It is a block diagram showing the configuration.
[0011]
The trajectory data communication system 100 according to the present invention includes a plurality of terminal devices, and includes, for example, a local terminal 101 and a counterpart terminal 102 as shown in FIG.
[0012]
In the trajectory data communication system 100, the block configuration of each terminal of the own terminal 101 and the counterpart terminal 102 is the same for each terminal, and the input unit 1 for inputting the trajectory and the input unit 1 A transmitting unit 2 that transmits the input trajectory data to the counterpart terminal 102, a receiving unit 3 that receives the trajectory data transmitted from the counterpart terminal 102, and a rendering request that makes a rendering request by an application in the own terminal 101, for example. A drawing unit 4 that creates drawing data from the locus data and draws and reproduces the locus input from the input unit 1 and the like on the display unit 5; a display unit 5 that displays the drawing data created by the drawing unit 4; A voice generation unit 6, a voice output unit 7 for outputting voice from the voice data, a recognition unit 8 for recognizing the attribute of the trajectory data sent from the counterpart terminal, for example, Composed of a memory unit 9 for storing various data such as the recognition result in section 8.
[0013]
Here, the drawing unit 4 creates locus drawing data, sends the drawing data to the display unit 5 and simultaneously gives a trigger for outputting sound to the sound generating unit 6.
[0014]
Further, the voice generation unit 6 detects appropriate trigger data from the voice data table registered in the storage unit 9 and the recognition result of the recognition unit 8 by detecting the trigger from the drawing unit 4, and the voice output unit 7. Voice data is to be delivered to As a result, the sound generation unit 6 and the sound output unit 7 function as sound output means for outputting a sound notifying that the drawing data is being drawn and reproduced by the drawing unit 4 according to the attribute recognition result by the recognition unit 8. It comes to realize the function.
[0015]
The storage unit 9 stores a writer data table, a voice data table, and a voice variable table as recognition results in the recognition unit 8. 3 shows an example of the writer data table stored in the storage unit 9, FIG. 4 shows an audio data table, and FIG. 5 shows an example of the audio variable table. .
[0016]
Each functional configuration block described above is configured by, for example, hardware as shown in FIG.
[0017]
That is, the input pen 10, the transparent digitizer 11, and the input interface 12 as the input unit 1, the communication interface 13 and the communication line 14 as the transmission unit 2 and the reception unit 3, the liquid crystal display 15 as the display unit 5, the VRAM 16, and the display A controller 17, a synthesizer 18 as the sound generation unit 6, a speaker 19 as the sound output unit 7, a storage device 20 as the storage unit 9, a CPU 21 as the drawing request unit 3 a, the drawing unit 4, and the recognition unit 8. It is comprised.
[0018]
As a result, the own terminal 101 inputs the locus of the input point on the transparent digitizer 11 with the input pen 10 and displays it on the liquid crystal display 15, and at the same time, the own terminal on the liquid crystal display 15 of the partner terminal 102 through the communication line 14. The trajectory input at 101 can be displayed. In this case, of course, the other party terminal 102 can also communicate with each other by the same configuration and operation.
[0019]
Next, the operation of the trajectory data communication system 100 in the present embodiment will be described with reference to the flowcharts of FIGS.
[0020]
FIG. 6 is a flowchart showing the operation in the present embodiment. In the present embodiment, it is assumed that software that operates according to the flowcharts shown in FIGS. 6 to 8 is stored in the storage device 20 as an executable program.
[0021]
First, the CPU 21 checks the coordinate value of the input point when the input pen 10 comes into contact with the transparent digitizer 11 in the input unit 1 constituted by the input pen 10, the transparent digitizer 11, and the input interface 12. It is determined whether or not there is (S22), and if there is input trajectory data, step S26 described later is executed.
[0022]
If there is no trajectory data (S22; NO), the CPU 21 receives trajectory data received by the receiving unit 3 constituted by the communication line 14 and the communication interface 13 or a trajectory due to a drawing request from the application of the terminal 101 on its own. The data is examined and it is determined whether or not there is trajectory data requested to be received or drawn (S23). If there is trajectory data requested to be received or drawn (S23; YES), step 27 described later is executed.
[0023]
If there is no trajectory data (S23; NO), the trajectory data input immediately before and the trajectory data received immediately before are examined to determine whether or not the state is "end of writing" (S24).
[0024]
If there is trajectory data having the same identifier immediately before, that is, the data of one stroke is in an “end of writing” state (S24; YES), a pen-up process described in detail later is performed. Execute (S25), and end one operation. If there is no trajectory data having the same identifier immediately before (S24; NO), it means that input or reception of another trajectory data is waited, so step S22 is executed again.
[0025]
It should be noted that the application of the own terminal 101 handled in the present embodiment is targeted for an application that can select audio output. In this embodiment, since it is assumed that a plurality of applications are activated by a multi-window system or the like, after step S25 is completed, another application is executed and the operation from step S22 is repeated again. .
[0026]
On the other hand, when it is determined in step S22 that there is trajectory data input, the input trajectory data is transmitted by the transmission unit 2 configured by the communication line 14 and the communication interface 13 (S26).
[0027]
Next, CPU21 sets the terminal identifier for communication contained in the input locus | trajectory data or the received locus | trajectory data as a writer identifier (S27). Here, for the sake of explanation, as shown in FIG. 3, the identifier of the own terminal 101 is 1, the identifier of the partner terminal 102 is 2, the identifier 0 is assigned to the application drawing request, and the voice in response to the drawing request from the application Is not output.
[0028]
After setting the writer identifier, the trajectory data input immediately before and the trajectory data received immediately before are checked, and if there is no trajectory data having the same identifier immediately before, the state is “begin writing”. (S28; YES), a pen-down process described in detail later is executed (S29). Note that the current voice data is acquired from the voice data table as shown in FIG. 4 as the pen-down process in step S29.
[0029]
In addition, if there is trajectory data having the same identifier immediately before, it means that writing is in progress, so step 30 is executed. That is, in step 30, the trajectory data input or received is sent to the drawing unit 4 realized by the display controller 17 writing it into the VRAM 16 and drawn (S30).
[0030]
After performing the drawing process, an audio process is executed (S31). That is, a voice number value preset in the voice variable table as shown in FIG. 5 is acquired from the writer identifier, and voice data corresponding to the value is acquired from the voice data table shown in FIG. Is transmitted to the sound generator 6 realized by the above. A different voice number is set for each writer identifier. As a result, sound based on the sound data is output from the speaker 19 which is the sound output unit 7. After step S31, step S22 is executed again.
[0031]
Next, the operation of the pen-up process will be described.
[0032]
FIG. 7 is a flowchart for explaining the pen-up processing operation of the present embodiment. Here, the pen-up process refers to a final process when the input of the trajectory data and the drawing process are terminated.
[0033]
First, in this pen-up process, the CPU 21 acquires the value of the writer identifier set in step S27 (S32). Next, the sound being output is stopped based on the trajectory data corresponding to the acquired writer identifier (S33).
[0034]
Next, the operation of the pen-down process will be described.
[0035]
FIG. 8 is a flowchart for explaining the pen-down processing operation of the present embodiment. Here, the pen-down process refers to an initial input process of trajectory data that is performed when input of trajectory data is started.
[0036]
First, in this pen-down process, the voice generation unit 6 acquires the writer identifier set in step S27 (S38).
[0037]
Then, the voice generation unit 6 acquires a voice number corresponding to the writer identifier acquired in step S38 of the voice variable table of FIG. 5 (S39). The voice number is set in advance. Here, the voice number 4 is set for the writer identifier 1 and the voice number 1 is set for the writer identifier 2 . The application identifier 0 is set to the voice number 0 here, and the voice is not output in the locus drawn by the drawing request of the application. As a matter of course, it is also possible to output a voice even if it is an application drawing request by setting another voice number.
[0038]
And the audio | voice generation part 6 acquires the audio | voice data corresponding to the audio | voice number acquired at step 39 from the audio | voice data table | surface of FIG. 4 (S40). Note that the term “speech” here is not limited to human voices, but refers to sound that can be felt by humans by vibrating the air in a broad sense, such as sound effects, vibration sounds, and instrument sounds. The audio data table in FIG. 4 is shown simply for explanation.
[0039]
Finally, sound based on the acquired sound data is output from the speaker 19 constituting the sound output unit 7 (S41).
[0040]
By performing the above processing, it is possible to output a voice specific to the trajectory, so even when the other party's trajectory data display area on the terminal screen is not always monitored, the timing when the other party starts drawing can be known. The operability in the communication system of trajectory data by pen input is improved.
[0041]
In the present invention, it is assumed that there are a plurality of counterpart terminals, and it is needless to say that different voices can be set in the trajectories transmitted by a plurality of counterparts by the terminal identifier.
[0042]
(Second Embodiment)
Next, a second embodiment according to the present invention will be described.
[0043]
In the present embodiment, the recognition unit 8 recognizes the shape of the trajectory, that is, gesture recognition based on the gesture recognition dictionary (see FIG. 9) stored in the storage unit 9, and the writer variable existing in the storage unit 9 and The recognition result is registered in the voice variable.
[0044]
The configuration of each part of the system in this embodiment is substantially the same as that in the first embodiment, and the operation also operates according to the flowchart of FIG. Therefore, in the present embodiment, only the part different from the first embodiment, that is, the pen-up process called in step S25 will be described.
[0045]
FIG. 10 is a flowchart showing the pen-up processing operation in the present embodiment.
[0046]
First, in this pen-up process, the CPU 21 acquires the writer identifier (S34), and then stops the sound being output based on the trajectory data corresponding to the acquired writer identifier (S35).
[0047]
Next, the CPU 21 (recognition unit 8) performs gesture recognition (S36). This gesture recognition is performed, for example, by extracting the features of the input trajectory shape as shown in FIG. 9 and calculating the similarity with the gesture shape registered in advance to obtain the shape number. Incidentally, the shape recognition of the trajectory is a known technique and is not the main point of the present invention, as described in Japanese Patent Publication No. 5-67988 and Japanese Patent Publication No. 5-84540. Is omitted here.
[0048]
Finally, the result of gesture recognition is registered in the speech variable table as shown in FIG. 5 as a speech number corresponding to the writer identifier acquired in step S34 (S37). Thus, when the next input or received locus data is drawn, the sound is output according to the corresponding sound number in the sound data table of FIG. As in the case of the first embodiment, the present embodiment also assumes a case where there are a plurality of counterpart terminals, and it is possible to set different voices on the trajectories transmitted by a plurality of counterparts using terminal identifiers. Needless to say.
[0049]
By performing the above processing, even when multiple traces are drawn at the same time, it is possible to determine whether the trace is written by the running application or the trace sent by the other party. Therefore, in the communication system of the trajectory data by pen input, trajectory discrimination can be improved, and operability is improved.
[0050]
【The invention's effect】
The data communication system trajectory according to the invention described in detail above, the trajectory data communication terminal, and according to the trajectory data communications method, when receiving and displaying the locus data from the other party, a specific voice on the locus data Since the data is output simultaneously with the drawing process, it is possible to easily determine the time when the trajectory data is transmitted and to improve the trajectory discrimination.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating system functions according to the present invention.
FIG. 2 is a block diagram showing a specific hardware configuration according to the present invention.
FIG. 3 is a diagram showing a writer data table according to the present invention.
FIG. 4 is a diagram showing an audio data table in the present invention.
FIG. 5 is a diagram showing an audio variable table in the present invention.
FIG. 6 is a flowchart of the operation of the trajectory data communication system according to the present invention.
FIG. 7 is a flowchart showing a pen-up processing operation in the first embodiment.
FIG. 8 is a flowchart showing a pen-down processing operation in the first embodiment.
FIG. 9 is a diagram showing a gesture recognition dictionary according to the present invention.
FIG. 10 is a flowchart showing a pen-up processing operation in the second embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Input part 2 Transmission part 3 Reception part 4 Drawing part 5 Display part 6 Voice generation part 7 Voice output part 8 Recognition part 9 Storage part 10 Input pen 11 Transparent digitizer 12 Input interface 13 Communication interface 14 Communication line 15 Liquid crystal display 16 VRAM
17 Display Controller 18 Synthesizer 19 Speaker 20 Storage Device 21 CPU
100 locus data communication system 101 own terminal 102 partner terminal

Claims (7)

ユーザにより手書き入力された軌跡の軌跡データを複数の端末間で送受信する軌跡データ通信システムにおいて、
軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定手段と、
軌跡データを入力する入力手段と、
前記入力手段により入力された軌跡データを相手側端末へ送信する送信手段と、
相手側端末から送信された軌跡データを受信する受信手段と、
前記受信手段が受信した相手側端末からの軌跡データ自分側端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画手段と、
前記受信手段が受信した相手側端末からの軌跡データの識別子と前記自分側端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識手段と、
前記描画手段が前記認識手段によって認識された識別子に関連する軌跡データの描画再生を行う際に、前記設定手段による設定内容を参照して、前記認識手段によって認識された識別子に対応する音声を出力する音声出力手段と
を有することを特徴とする軌跡データ通信システム。
In a trajectory data communication system for transmitting and receiving trajectory data of a trajectory handwritten by a user between a plurality of terminals,
A setting unit configured to associate and set different desired voices used at the time of voice output with respect to the identifier of the trajectory data and the identifier of the drawing request of the application;
Input means for inputting trajectory data;
Transmitting means for transmitting the trajectory data input by the input means to the counterpart terminal;
Receiving means for receiving trajectory data transmitted from the counterpart terminal;
Based on any of the locus data according to the drawing request from the trajectory data and applications entered in the trajectory data and their side terminal from the counterpart terminal received by the receiving unit, the drawing reproduced on a predetermined display means Drawing means to perform,
Recognizing means for recognizing any one of the identifier of the trajectory data received from the counterpart terminal received by the receiving means, the identifier of the trajectory data input at the own terminal, and the identifier of the drawing request of the application that requested the drawing When,
When the drawing unit draws and reproduces the trajectory data related to the identifier recognized by the recognition unit, the voice corresponding to the identifier recognized by the recognition unit is output with reference to the setting content by the setting unit And a voice data communication means.
前記軌跡データの識別子は、軌跡データを入力した筆記者識別子であることを特徴とする請求項記載の軌跡データ通信システム。 Identifier of the trajectory data, locus data communication system according to claim 1, characterized in that a scribe identifier entered the locus data. 前記設定手段は、入力された軌跡データの形状を認識することにより、当該認識した形状に対応する音声を前記軌跡データの識別子に対して設定することを特徴とする請求項記載の軌跡データ通信システム。The setting means, by recognizing the shape of the input trajectory data, locus data communication according to claim 1, wherein the sound corresponding to the recognized shape and setting with respect to the identifier of the locus data system. 相手側端末で入力された軌跡データを受信して描画再生する軌跡データ通信端末であって、
軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定手段と、
軌跡データを入力する入力手段と、
相手側端末から送信されてきた軌跡データを受信する受信手段と、
前記受信手段が受信した相手側端末からの軌跡データ前記軌跡データ通信端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画手段と、
前記受信手段が受信した相手側端末からの軌跡データの識別子と前記軌跡データ通信端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識手段と、
前記描画手段が前記認識手段によって認識された識別子に関連する軌跡データの描画再生を行う際に、前記設定手段による設定内容を参照して、前記認識手段によって認識された識別子に対応する音声を出力する音声出力手段と
を有することを特徴とする軌跡データ通信端末。
A trajectory data communication terminal that receives trajectory data input at a partner terminal and draws and reproduces the trajectory data,
A setting unit configured to associate and set different desired voices used at the time of voice output with respect to the identifier of the trajectory data and the identifier of the drawing request of the application;
Input means for inputting trajectory data;
Receiving means for receiving a signal by specifically had locus data transmission terminal on the other end or, et al.,
Based on any of the locus data according to the drawing request from the trajectory data and applications entered the locus data in the locus data communication terminal from the counterpart terminal received by the receiving unit, on a predetermined display means Drawing means for drawing and reproducing;
Recognition that recognizes one of the identifier of the trajectory data from the counterpart terminal received by the receiving means, the identifier of the trajectory data input in the trajectory data communication terminal, and the identifier of the drawing request of the application that has requested the drawing. Means,
When the drawing unit draws and reproduces the trajectory data related to the identifier recognized by the recognition unit, the voice corresponding to the identifier recognized by the recognition unit is output with reference to the setting content by the setting unit And a voice data communication terminal.
前記軌跡データの識別子は、軌跡データを入力した筆記者の識別子であることを特徴とする請求項4記載の軌跡データ通信端末。5. The locus data communication terminal according to claim 4, wherein the identifier of the locus data is an identifier of a writer who inputs the locus data. 前記設定手段は、入力された軌跡データの形状を認識することにより、当該認識した形状に対応する音声を前記軌跡データの識別子に対して設定することを特徴とする請求項4記載の軌跡データ通信端末。5. The trajectory data communication according to claim 4, wherein the setting means recognizes the shape of the input trajectory data, and sets a voice corresponding to the recognized shape for the identifier of the trajectory data. Terminal. 相手側端末で入力された軌跡データを受信して描画再生する軌跡データ通信方法であって、
軌跡データの識別子とアプリケーションの描画要求の識別子とに対して、音声出力時に用いる異なる所望の音声を対応付けてそれぞれ設定する設定ステップと、
前記相手側端末から送信されてきた軌跡データを受信する受信ステップと、
前記受信ステップにおいて受信した相手側端末からの軌跡データ自分側端末において入力された軌跡データとアプリケーションからの描画要求による軌跡データとのうちのいずれかに基づいて、所定の表示手段上に描画再生する描画ステップと、
前記受信ステップにおいて受信した相手側端末からの軌跡データの識別子と前記自分側端末において入力された軌跡データの識別子と描画要求してきたアプリケーションの描画要求の識別子とのうちのいずれかを認識する認識ステップと、
前記描画ステップにおいて前記認識ステップによって認識された識別子に関連する軌跡データの描画再生が行われる際に、前記設定ステップによる設定内容を参照して、前記認識ステップによって認識された識別子に対応する音声を出力する音声出力ステップと
を有することを特徴とする軌跡データ通信方法。
A trajectory data communication method for receiving and drawing and reproducing trajectory data input at a counterpart terminal,
A setting step for associating and setting different desired voices used at the time of voice output to the identifier of the trajectory data and the identifier of the application drawing request;
A receiving step of receiving a signal by specifically had locus data transmission et or said other terminal,
Based on any of the locus data according to the drawing request from the trajectory data and trajectory data and applications entered at his terminal from the counterpart terminal received in the receiving step, the drawing reproduced on a predetermined display means A drawing step to
Recognizing step of recognizing any one of the identifier of the trajectory data received from the counterpart terminal received in the receiving step, the identifier of the trajectory data input in the own terminal, and the identifier of the drawing request of the application that requested the drawing When,
When drawing and reproduction of the trajectory data related to the identifier recognized by the recognition step is performed in the drawing step, the voice corresponding to the identifier recognized by the recognition step is referred to by referring to the setting content by the setting step. A trajectory data communication method comprising: an audio output step for outputting.
JP14972996A 1996-05-22 1996-05-22 Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method Expired - Fee Related JP3774509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14972996A JP3774509B2 (en) 1996-05-22 1996-05-22 Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14972996A JP3774509B2 (en) 1996-05-22 1996-05-22 Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method

Publications (2)

Publication Number Publication Date
JPH09312696A JPH09312696A (en) 1997-12-02
JP3774509B2 true JP3774509B2 (en) 2006-05-17

Family

ID=15481545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14972996A Expired - Fee Related JP3774509B2 (en) 1996-05-22 1996-05-22 Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method

Country Status (1)

Country Link
JP (1) JP3774509B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01194560A (en) * 1988-01-29 1989-08-04 Hitachi Ltd Tele writing conference system
EP0556999B1 (en) * 1992-02-18 1998-05-27 NCR International, Inc. Data processing apparatus with user input feedback
JPH06124335A (en) * 1992-10-13 1994-05-06 Fuji Xerox Co Ltd Image forming device provided with editing function

Also Published As

Publication number Publication date
JPH09312696A (en) 1997-12-02

Similar Documents

Publication Publication Date Title
US9129478B2 (en) Attributing user action based on biometric identity
US8842100B2 (en) Customer authoring tools for creating user-generated content for smart pen applications
WO2021083168A1 (en) Video sharing method and electronic device
JP2007317159A (en) Input apparatus of electronic device and input method thereof
CN110830368B (en) Instant messaging message sending method and electronic equipment
CN107870674B (en) Program starting method and mobile terminal
CN104252226A (en) Information processing method and electronic equipment
CN110568926B (en) Sound signal processing method and terminal equipment
CN111359209B (en) Video playing method and device and terminal
WO2023082703A1 (en) Voice control method and apparatus, electronic device, and readable storage medium
KR20220154763A (en) Image processing methods and electronic equipment
US20200327893A1 (en) Information processing device and information processing method
CN110808019A (en) Song generation method and electronic equipment
CN108763475B (en) Recording method, recording device and terminal equipment
WO2022121592A1 (en) Livestreaming interaction method and apparatus
JP2010026686A (en) Interactive communication terminal with integrative interface, and communication system using the same
CN111857482B (en) Interaction method, device, equipment and readable medium
JP3774509B2 (en) Trajectory data communication system, trajectory data communication terminal, and trajectory data communication method
JP4348831B2 (en) Handwritten input data display system, coordinate data input device, display device, and handwritten input data display device
CN111445929A (en) Voice information processing method and electronic equipment
US20240013166A1 (en) Check exception processing in the metaverse
CN112820265B (en) Speech synthesis model training method and related device
CN110213431B (en) Message sending method and mobile terminal
CN111416955A (en) Video call method and electronic equipment
CN112114736A (en) Operation control method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050711

TRDD Decision of grant or rejection written
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060220

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110224

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120224

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130224

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140224

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees