JPH08204877A - Interactive communication system and control method therefor - Google Patents

Interactive communication system and control method therefor

Info

Publication number
JPH08204877A
JPH08204877A JP7030196A JP3019695A JPH08204877A JP H08204877 A JPH08204877 A JP H08204877A JP 7030196 A JP7030196 A JP 7030196A JP 3019695 A JP3019695 A JP 3019695A JP H08204877 A JPH08204877 A JP H08204877A
Authority
JP
Japan
Prior art keywords
information
data
voice
image
page
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7030196A
Other languages
Japanese (ja)
Inventor
Kazuo Nakatani
一夫 中谷
Shinichi Hirata
晋一 平田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokusai Electric Corp
Original Assignee
Kokusai Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Electric Corp filed Critical Kokusai Electric Corp
Priority to JP7030196A priority Critical patent/JPH08204877A/en
Publication of JPH08204877A publication Critical patent/JPH08204877A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimiles In General (AREA)
  • Facsimile Transmission Control (AREA)

Abstract

PURPOSE: To transmit all of image data, handwritten data and voice data without using a high speed transmission line and to inexpensively realize the interaction by handwriting and voice based on the images displayed on both a master machine and a slave machine. CONSTITUTION: A master machine 10 preliminarily transmits the image data to be used for an interaction to a slave machine 30, the slave machine 30 stores the received image data. Every time the voice data and handwritten data related to image data is inputted in the master machine 10, the data is transmitted to the slave machine 30, subsequently displaying the same image at both the master machine 10 and the slave machine 30. As a result, because received voice data and handwritten data is outputted and handwritten data is stored in the slave machine 30, and every time the voice data related to image data is inputted in the slave machine 30, the data is transmitted to the master machine 10, the received voice data is outputted in the master machine 10.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、マルチメディアを対象
とした通信対話システム及びその制御方法に係り、特
に、高速伝送路を用いることなく画像データと手書きデ
ータと音声データとを伝送することができ、親機と子機
の双方に表示される画像に基づいて、手書きと音声によ
る対話を安価に実現することができる通信対話システム
及びその制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a communication dialogue system for multimedia and its control method, and more particularly to transmitting image data, handwriting data and voice data without using a high speed transmission path. The present invention relates to a communication dialogue system and a control method thereof that can realize a dialogue by handwriting and voice at low cost based on images displayed on both a parent device and a child device.

【0002】[0002]

【従来の技術】従来の通信対話システムとしては、図9
に示すような、テレライティングを用いたものがあっ
た。図9は、従来のテレライティングによる対話におけ
るデータの流れを示す説明図である。テレライティング
は、電話回線等の通信回線を用いて音声データと手書き
データを相互に(双方向に)やり取りすることにより対
話を行うものである。図9に示すように、テレライティ
ングでは、送信側において入力された手書きデータと音
声データとを多重化して、通信路を介して伝送し、受信
側において受信データを逆多重化して手書きデータと音
声データとに分離し、それぞれ出力するものである。
2. Description of the Related Art FIG. 9 shows a conventional communication dialogue system.
There was one using telewriting as shown in. FIG. 9 is an explanatory diagram showing a data flow in a conventional dialogue by telewriting. Telewriting is a method of performing dialogue by exchanging voice data and handwritten data with each other (bidirectionally) using a communication line such as a telephone line. As shown in FIG. 9, in telewriting, handwriting data and voice data input on the transmitting side are multiplexed and transmitted via a communication path, and received data is demultiplexed on the receiving side to produce handwriting data and voice data. It is separated into data and output respectively.

【0003】ここで、手書きデータは、入力ペン等を用
いて入力座標上に描かれた図形の軌跡(トレース)を示
すデータであり、任意の地点でのペンダウンから始ま
り、任意の地点でのペンアップで終了する一連の軌跡を
単位として伝送される。
Here, the handwritten data is data indicating a locus (trace) of a figure drawn on input coordinates using an input pen or the like, starting from pen down at an arbitrary point, and pen at an arbitrary point. It is transmitted in units of a series of trajectories that end with up.

【0004】また、手書き入力された軌跡をディジタル
データ(手書きデータ)に変換する変換方法としては、
ゾーン符号化法とディファレンシャルチェイン符号法と
が知られている。ゾーン符号化法は、象限符号と差分座
標で符号化する方法であり、リアルタイムの線画伝送に
有効な方法である。このようにして符号化された手書き
データと音声データとを多重化し、更に、伝送に適した
信号に変換して伝送を行う。
Further, as a conversion method for converting a locus input by handwriting into digital data (handwriting data),
The zone coding method and the differential chain coding method are known. The zone coding method is a method of coding with a quadrant code and a differential coordinate, and is an effective method for real-time line drawing transmission. The handwritten data and the voice data encoded in this way are multiplexed and further converted into a signal suitable for transmission and transmitted.

【0005】また、別の従来の通信対話システムとし
て、ファクスを用いたものについて図10を用いて説明
する。図10は、従来のファクスを用いた対話における
データの流れを示す説明図である。ファクスは、入力画
像の濃淡を読み取ってデータに変換して、通信回線を介
して伝送するものである。図10に示すように、ファク
スを用いた対話は、まず、送信側から予め画像データを
ファクスで送信し、受信側で画像を再生する。送信が終
わるとファクス回線は切断される。その後、電話をかけ
て電話回線を接続し、送信側・受信側の双方において先
程の画像を見ながら、電話により相互に音声データのや
り取りをして対話を行うものである。
Further, another conventional communication dialogue system using a fax will be described with reference to FIG. FIG. 10 is an explanatory diagram showing a data flow in a conventional dialog using a fax. The fax is for reading the grayscale of an input image, converting it into data, and transmitting it via a communication line. As shown in FIG. 10, in a dialogue using a fax, first, image data is transmitted in advance by fax from the transmitting side, and an image is reproduced on the receiving side. When the transmission is completed, the fax line is disconnected. After that, a telephone call is made to connect the telephone line, and while both the transmitting side and the receiving side look at the above image, voice data is exchanged between the telephones for dialogue.

【0006】また、従来は、画像と手書きと音声とを全
て伝送して、対話を行うためには、動画像と音声とを伝
送できる専用の高速伝送路を備えた通信システムが必要
であった。
Further, conventionally, in order to transmit all images, handwriting, and voice for dialogue, a communication system provided with a dedicated high-speed transmission line capable of transmitting moving images and voice was required. .

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記従
来例のテレライティングを用いた通信対話システムで
は、手書きと音声のみのやり取りであり、画像を伝送す
ることができないため、込み入った表や図形を含む書面
を用いた対話を行うことはできず、用途が著しく制限さ
れてしまうという問題点があった。
However, in the above-mentioned communication dialogue system using telewriting of the conventional example, only handwriting and voice can be exchanged, and images cannot be transmitted. Therefore, complicated tables and figures are included. There is a problem in that it is not possible to conduct a dialogue using a document and the use is significantly limited.

【0008】また、上記従来のファクスを用いた通信対
話システムでは、画像データの伝送はできるものの、画
像のみを先行して送ってしまうため、画像と連動した対
話を行うことができないという問題点があった。
Further, in the conventional communication dialogue system using the above-mentioned fax, although the image data can be transmitted, since only the image is sent in advance, there is a problem that the dialogue interlocked with the image cannot be performed. there were.

【0009】更に、従来、画像と手書きと音声とを全て
伝送しようとすると、専用の高速伝送路が必要となり、
システムのコストが高くなってしまうという問題点があ
った。
Further, conventionally, when trying to transmit all images, handwriting and voice, a dedicated high speed transmission line is required,
There was a problem that the cost of the system became high.

【0010】本発明は上記実情に鑑みて為されたもの
で、高速伝送路を用いること無く画像データと手書きデ
ータと音声データとを全て伝送することができ、更に親
機と子機の双方に表示された画像を基にして手書きと音
声による対話を安価に実現することができる通信対話シ
ステム及びその制御方法を提供することを目的とする。
The present invention has been made in view of the above circumstances, and can transmit all image data, handwriting data, and voice data without using a high-speed transmission path, and further, can transmit the data to both the parent device and the child device. It is an object of the present invention to provide a communication dialogue system and a control method thereof that can realize a dialogue by handwriting and voice at low cost based on a displayed image.

【0011】[0011]

【課題を解決するための手段】上記従来例の問題点を解
決するための請求項1記載の発明は、画像情報、音声情
報、手書き情報を送信し、音声情報を受信する送信側装
置と、画像情報、音声情報、手書き情報を受信し、音声
情報を送信する受信側装置とを備えた通信対話システム
において、前記送信側装置が、画像情報を記憶する第1
の記憶部を有して、予め前記第1の記憶部から画像情報
を読み出して送信し、その後に前記画像情報に関連する
音声情報と手書き情報が入力される毎に送信し、前記受
信側装置からの音声情報を受信する毎に出力する装置で
あり、前記受信側装置が、予め受信した画像情報を記憶
する第2の記憶部を有して、前記画像情報に関連する音
声情報と手書き情報を受信する毎に出力し、音声情報が
入力される毎に前記送信側装置に送信する装置であるこ
とを特徴としている。
The invention according to claim 1 for solving the problems of the above-mentioned conventional example is a transmitting side device for transmitting image information, voice information and handwriting information and receiving voice information, In a communication dialogue system including a reception side device that receives image information, voice information, and handwriting information and transmits voice information, the transmission side device stores image information.
The image data is read out from the first storage unit in advance and transmitted, and thereafter, the voice information and the handwriting information related to the image information are transmitted every time they are input, and the receiving side device Is a device for outputting the voice information each time it is received, and the reception side device has a second storage section for storing the image information received in advance, and the voice information and the handwritten information related to the image information Is output each time it is received, and is transmitted to the transmission side device each time voice information is input.

【0012】上記従来例の問題点を解決するための請求
項2記載の発明は、請求項1記載の通信対話システムに
おいて、送信側装置と受信側装置が、画像情報と手書き
情報とを頁単位に関連付けて記憶する第1,2の記憶部
と、画像情報と手書き情報を表示する第1,2の表示部
とを有し、前記送信側装置が、入力された頁情報に従っ
て前記頁の画像情報と関連する手書き情報を前記第1の
記憶部から読み出して前記第1の表示部に表示し、前記
頁情報を前記受信側装置に送信する装置であり、前記受
信側装置が、受信した頁情報に従って第2の記憶部に記
憶されている画像情報と関連する手書き情報とを読み出
して第2の表示部に表示する装置であることを特徴とし
ている。
According to a second aspect of the invention for solving the problems of the conventional example, in the communication dialogue system according to the first aspect, the transmitting side device and the receiving side device transmit the image information and the handwritten information in page units. And a first and a second display unit for displaying image information and handwritten information, wherein the transmission side device has an image of the page according to the input page information. This is a device for reading handwritten information related to information from the first storage unit, displaying it on the first display unit, and transmitting the page information to the receiving side device, and the receiving side device receiving the page. According to the information, the image information stored in the second storage unit and the related handwriting information are read out and displayed on the second display unit.

【0013】上記従来例の問題点を解決するための請求
項3記載の発明は、請求項2記載の通信対話システムの
制御方法において、送信側装置は、入力された画像情報
を第1の記憶部に記憶して送信し、受信側装置は、送信
された画像情報を受信して第2の記憶部に記憶し、前記
送信側装置は、頁情報が入力されると当該頁の画像情報
を第1の記憶部から読み出して第1の表示部に表示し、
前記頁情報を前記受信側装置に送信し、前記受信側装置
は、受信した頁情報に従って第2の記憶部から該当する
頁の画像情報を読み出して第2の表示部に表示し、前記
送信側装置は、音声情報と手書き情報が入力されると前
記手書き情報を前記第1の表示部に表示するとともに前
記音声情報と前記手書き情報を前記受信側装置に送信し
て前記手書き情報を前記頁に関連付けて前記第1の記憶
部に記憶し、前記受信側装置は、送信された音声情報と
手書き情報を受信して前記音声情報を出力するとともに
前記手書き情報を前記第2の表示部に表示し、前記手書
き情報を前記頁に関連付けて前記第2の記憶部に記憶
し、前記送信側装置は、前記頁情報が再度入力されると
当該頁の画像情報と関連する手書き情報を前記第1の記
憶部から読み出して前記第1の表示部に表示するととも
に前記頁情報を前記受信側装置に送信し、前記受信側装
置は、前記頁情報を受信すると当該頁の画像情報と関連
する手書き情報を前記第2の記憶部から読み出して前記
第2の表示部に表示することを特徴としている。
According to a third aspect of the invention for solving the problems of the conventional example, in the control method of the communication dialogue system according to the second aspect, the transmission side device stores the input image information in the first storage. When the page information is input, the receiving side device receives the transmitted image information and stores it in the second storage part, and the transmitting side device stores the image information of the page. Read from the first storage unit and display on the first display unit,
The page information is transmitted to the receiving side device, and the receiving side device reads out image information of the corresponding page from the second storage section according to the received page information and displays it on the second display section. The device displays the handwriting information on the first display unit when voice information and handwriting information are input, and transmits the voice information and the handwriting information to the receiving side device to display the handwriting information on the page. Stored in the first storage unit in association with each other, the receiving side device receives the transmitted voice information and handwriting information, outputs the voice information, and displays the handwriting information on the second display unit. , The handwriting information is stored in the second storage unit in association with the page, and when the page information is input again, the transmission side device outputs the handwriting information related to the image information of the page as the first information. Read from storage When the page information is displayed on the first display unit and the page information is transmitted to the receiving side apparatus, and the receiving side apparatus receives the page information, the handwritten information related to the image information of the page is stored in the second storage. And is displayed on the second display unit.

【0014】[0014]

【作用】請求項1記載の発明によれば、送信側装置は、
予め画像情報を送信しておき、音声情報と手書き情報の
入力毎に送信し、受信側装置は、予め画像情報を受信し
て記憶しておき、音声情報と手書き情報を受信する毎に
出力する通信対話システムとしているので、画像情報に
関連する音声情報と手書き情報とをリアルタイムで送受
信する場合に、予め画像情報を送信してあるためリアル
タイムでの送信データのデータ量を少なくでき、高速伝
送路を必要とせず、安価なシステム構成とすることがで
きる。
According to the invention described in claim 1, the transmitting side device is
Image information is transmitted in advance, and is transmitted each time voice information and handwriting information is input, and the receiving side device receives and stores image information in advance, and outputs each time voice information and handwriting information is received. Since it is a communication dialogue system, when transmitting and receiving voice information related to image information and handwriting information in real time, since the image information is transmitted in advance, the data amount of the transmission data in real time can be reduced, and the high speed transmission line And an inexpensive system configuration can be achieved.

【0015】請求項2記載の発明によれば、送信側装置
と受信側装置とが画像情報と手書き情報とを関連付けて
第1,2の記憶部に記憶し、送信側装置は、頁情報が入
力されると当該頁の画像情報と関連する手書き情報を第
1の記憶部から読み出して送信側の第1の表示部に表示
し、頁情報を受信した受信側装置は、当該頁の画像情報
と関連する手書き情報を第2の記憶部から読み出して受
信側の第2の表示部に表示させる請求項1記載の通信対
話システムとしているので、画像情報と関連する手書き
情報を送受信側双方で保持することになり、画像と手書
き情報を基に音声により容易に対話できる。
According to the second aspect of the present invention, the transmission side device and the reception side device store the image information and the handwriting information in the first and second storage sections in association with each other, and the transmission side device stores the page information. When input, the handwritten information related to the image information of the page is read from the first storage unit and displayed on the first display unit on the transmission side, and the receiving side device that received the page information determines that the image information of the page is received. Since the handwriting information associated with is read from the second storage unit and is displayed on the second display unit on the receiving side, the handwriting information related to the image information is held on both the transmitting and receiving sides. Therefore, it is possible to easily talk by voice based on the image and the handwritten information.

【0016】請求項3記載の発明によれば、画像情報と
関連する手書き情報を送受信側双方で保持しておき、頁
情報が送信側装置に入力されると、送信側装置は、頁情
報の頁の画像情報と既に記憶されているならば関連する
手書き情報を第1の記憶部から読み出して第1の表示部
に表示して、その頁情報を受信側装置に送信し、受信側
装置は、送信された頁情報の頁の画像情報と既に記憶さ
れているならば関連する手書き情報を第2の記憶部から
読み出して第2の表示部に表示する請求項2記載の通信
対話システムの制御方法としているので、画像情報に関
連する音声情報と手書き情報とをリアルタイムで送受信
する場合に、予め画像情報を送信してあるためリアルタ
イムでの送信データのデータ量を少なくでき、高速伝送
路を必要とせず、安価なシステム構成とすることができ
る効果があり、画像と手書き情報を基に音声により容易
に対話できる。
According to the third aspect of the invention, handwritten information related to the image information is held on both the transmitting and receiving sides, and when the page information is input to the transmitting side apparatus, the transmitting side apparatus causes the transmitting side apparatus to store the page information. If the image information of the page is already stored, the related handwritten information is read from the first storage unit, displayed on the first display unit, and the page information is transmitted to the receiving side device, and the receiving side device The control of the communication dialogue system according to claim 2, wherein the handwritten information related to the image information of the page of the transmitted page information is already stored and is displayed on the second display unit. Since the method is used, when transmitting and receiving voice information and handwriting information related to image information in real time, since the image information is transmitted in advance, the data amount of transmission data in real time can be reduced and a high-speed transmission path is required. Without There is an advantage of being able to valence system configuration can be easily interact by voice based on the image and the handwritten information.

【0017】[0017]

【実施例】本発明の一実施例について図面を参照しなが
ら説明する。本発明の一実施例に係る通信対話システム
は、親機から子機に対して、対話で使用する画像データ
をまず伝送し、その後で双方で表示する画像データの頁
を特定して同期を取って表示しながら、親機から子機に
音声データと手書きデータとをリアルタイムに伝送し、
一方、子機から親機へは音声データをリアルタイムに伝
送するシステムで、リアルタイムでの伝送データ量を少
なくすることで高速伝送路を用いずに、画像を表示しな
がら手書きデータも交えて音声による対話が実現できる
ものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described with reference to the drawings. A communication dialogue system according to an embodiment of the present invention first transmits image data used for dialogue from a master unit to a slave unit, and then specifies a page of image data to be displayed on both sides and synchronizes them. While displaying, the voice data and handwritten data are transmitted from the base unit to the handset in real time.
On the other hand, it is a system that transmits voice data in real time from the handset to the base unit. By reducing the amount of data to be transmitted in real time, it is possible to use a voice with handwritten data while displaying images without using a high-speed transmission path. Dialogue can be realized.

【0018】まず、本発明の一実施例に係る通信対話シ
ステムの構成について、図1,図2を使って説明する。
図1は、本発明の一実施例に係る通信対話システムの親
機の構成ブロック図であり、図2は、本発明の一実施例
に係る通信対話システムの子機の構成ブロック図であ
る。
First, the configuration of a communication dialogue system according to an embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a block diagram of a master unit of a communication dialogue system according to an embodiment of the present invention, and FIG. 2 is a block diagram of a slave unit of a communication dialogue system according to an embodiment of the present invention.

【0019】本実施例の通信対話システムの親機10
は、図1に示すように、CPU11と、画像入力装置1
2と、画像符号化装置13と、手書き入力装置14と、
手書きデータ符号化装置15と、音声入力装置16と、
音声符号化/復号化装置17と、補助記憶装置18と、
MPX/DMPX(Multiplexer/Demultiplexer:多重
化/分離装置)19と、通信制御装置21と、画像出力
装置22と、音声出力装置23とから構成されている。
Base unit 10 of the communication dialogue system of this embodiment
Is a CPU 11 and an image input device 1 as shown in FIG.
2, an image encoding device 13, a handwriting input device 14,
A handwritten data encoding device 15, a voice input device 16, and
A voice encoding / decoding device 17, an auxiliary storage device 18,
It comprises an MPX / DMPX (Multiplexer / Demultiplexer) 19, a communication control device 21, an image output device 22, and an audio output device 23.

【0020】また、本実施例の通信対話システムの子機
30は、図2に示すように、CPU31と、通信制御装
置32と、MPX/DMPX(Multiplexer/Demultipl
exer:多重化/分離装置)33と、補助記憶装置34
と、画像復号化装置35と、手書きデータ復号化装置3
6と、音声符号化/復号化装置37と、画像出力装置3
8と、音声出力装置39と、音声入力装置40とから構
成されている。
As shown in FIG. 2, the slave unit 30 of the communication dialogue system of this embodiment has a CPU 31, a communication control unit 32, and an MPX / DMPX (Multiplexer / Demultipl).
exer: multiplexing / demultiplexing device) 33 and auxiliary storage device 34
An image decoding device 35 and a handwriting data decoding device 3
6, an audio encoding / decoding device 37, and an image output device 3
8, voice output device 39, and voice input device 40.

【0021】次に、本実施例の通信対話システムの親機
10を構成する各部について具体的に説明する。画像入
力装置12は、伝送する画像(静止画像)を入力するビ
デオカメラやイメージスキャナー等の画像入力装置であ
る。画像符号化装置13は、画像入力装置12から入力
して補助記憶装置18に記憶されている画像の画素情報
(画像データ)を情報源符号化する装置である。ここ
で、情報源符号化方法は、例えば静止画像の圧縮符号化
の標準ともいえる「JPEG(Joint Photographic Exp
ert Group )」方式等が良く知られている(「最新MP
EG教科書」 マルチメディア通信研究会編 株式会社
アスキー発行1994年8月発行 p53〜p67参
照)が、一般的に画像を1画面単位で圧縮できるような
画像圧縮符号化(情報源符号化)方法であればいかなる
方法でもよく、本発明の本質部分ではないので、ここで
は詳細な説明は省略する。
Next, each unit constituting the master unit 10 of the communication dialogue system of the present embodiment will be concretely described. The image input device 12 is an image input device such as a video camera or an image scanner for inputting an image (still image) to be transmitted. The image encoding device 13 is a device for source-encoding pixel information (image data) of an image input from the image input device 12 and stored in the auxiliary storage device 18. Here, the information source coding method is, for example, “JPEG (Joint Photographic Exp
"ert Group)" method is well known ("The latest MP
EG textbook "edited by Multimedia Communication Research Group, published by ASCII Co., Ltd., published in August 1994 (see p53 to p67) is generally an image compression coding (information source coding) method capable of compressing an image on a screen-by-screen basis. Any method may be used as long as it is not an essential part of the present invention, and a detailed description thereof will be omitted here.

【0022】手書き入力装置14は、手書きデータを入
力(手書き入力)するマウス等の手書きデータ入力装置
である。手書きデータは、通常任意の地点(ペンダウ
ン)から始まり任意の地点(ペンアップ)で終了する任
意の形の曲線を示すデータで、例えば、マウスの場合
は、ボタンを押した時のマウスカーソルの位置がペンダ
ウンに当たり、ボタンを押したままマウスカーソルを移
動し、ボタンを離した時のマウスカーソルの位置がペン
アップに相当する。そして、ペンダウンからペンアップ
までの間にマウスカーソルが移動した軌跡が手書きデー
タとなる。また、マウスの他には、ペンとデジタイザに
よる手書き入力装置や、タッチパネルの手書き入力装置
が考えられる。尚、手書き入力装置14からは、手書き
入力の他に後述する画像出力装置22に表示された画面
上のフィールドを用いて、表示頁を切り替える頁替え入
力と、対話終了を指示する対話終了入力等も為されるよ
うになっている。
The handwriting input device 14 is a handwriting data input device such as a mouse for inputting (handwriting input) handwritten data. Handwritten data is data that shows a curve of arbitrary shape that usually starts from an arbitrary point (pen down) and ends at an arbitrary point (pen up). For example, in the case of a mouse, the position of the mouse cursor when the button is pressed. Corresponds to pen down, the position of the mouse cursor when the button is released corresponds to pen up. Then, the locus of movement of the mouse cursor from pen down to pen up becomes handwritten data. Besides the mouse, a handwriting input device using a pen and a digitizer, or a handwriting input device of a touch panel can be considered. In addition to the handwriting input, the handwriting input device 14 uses a field on the screen displayed on the image output device 22, which will be described later, to change the display page, input a page change, and input a dialogue end to instruct the dialogue end. It is also supposed to be done.

【0023】手書きデータ符号化装置15は、手書き入
力装置14が入力した手書きデータを符号化する装置
で、符号化の方法は、従来と同様のゾーン符号化やディ
ファレンシャルチェイン符号化等の一般的な手書きデー
タ符号化方法を用いるが、本発明の本質部分ではないの
で、ここでは詳細な説明は省略する。
The handwritten data encoding device 15 is a device for encoding the handwritten data input by the handwriting input device 14, and the encoding method is a general one such as zone encoding and differential chain encoding similar to the conventional one. Although a handwritten data encoding method is used, it is not an essential part of the present invention, and therefore a detailed description is omitted here.

【0024】音声入力装置16は、音声を入力するMI
C(Microphone)等の音声入力装置である。音声符号化
/復号化装置17は、音声入力装置16から入力された
音声データを符号化したり、逆に受信した音声符号化デ
ータを復号化して音声出力装置23に出力する装置であ
る。
The voice input device 16 is an MI for inputting voice.
It is a voice input device such as C (Microphone). The voice encoding / decoding device 17 is a device that encodes the voice data input from the voice input device 16 and, conversely, decodes the received voice encoded data and outputs the decoded voice data to the voice output device 23.

【0025】ここで、音声符号化/復号化の方法は、例
えば、前の信号と入力信号との差分(増減分)を取りこ
れを量子化するDPCM(Differential Pulse Code Mo
dulation:差分パルス符号変調)や、音声信号が近接し
たサンプリング値間の相関が強いことを利用して、入力
信号と予測との差分(増減分)を取りこれを量子化する
適応差分パルス符号変調(Adaptive Differential Puls
e Code Modulation :ADPCM)や、また更に音声品
質を改善するためにベクトル量子化を基本とするCEL
P(Code Excited Linear Prediction:符号励振型線形
予測)等の圧縮符号化技術が一般に知られている。
(「最新MPEG教科書」 マルチメディア通信研究会
編 株式会社アスキー発行 1994年8月発行 p1
95〜p204参照)
Here, the voice encoding / decoding method is, for example, a DPCM (Differential Pulse Code Mo) which takes a difference (increase / decrease) between a previous signal and an input signal and quantizes the difference.
(dulation: differential pulse code modulation) and adaptive differential pulse code modulation that quantizes the difference (increase / decrease) between the input signal and the prediction by utilizing the strong correlation between the sampling values of the audio signal (Adaptive Differential Puls
e Code Modulation (ADPCM) and CEL based on vector quantization to further improve voice quality
A compression encoding technique such as P (Code Excited Linear Prediction) is generally known.
("Latest MPEG textbook", Multimedia Communication Research Group, published by ASCII Corporation, published in August 1994, p1
95-p204)

【0026】本実施例の音声符号化/復号化装置17で
使用される技術は、一般的な技術で、親機10の音声符
号化/復号化装置17で用いられる技術と、子機30の
音声符号化/復号化装置37で用いられる技術とが対応
していればいかなる技術でも構わない。
The technique used in the voice encoding / decoding device 17 of this embodiment is a general technique, and the technique used in the voice encoding / decoding device 17 of the master device 10 and the technique of the slave device 30 are used. Any technique may be used as long as it corresponds to the technique used in the audio encoding / decoding device 37.

【0027】補助記憶装置18は、画像入力装置12か
ら入力された画像データと、手書き入力装置14から入
力された手書きデータを記憶する記憶装置である。尚、
画像データと手書きデータは、頁単位で対応するように
管理されている。MPX/DMPX19は、画像符号化
装置13で符号化された画像符号化データ又は手書きデ
ータ符号化装置15で符号化された手書き符号化データ
及び音声符号化/復号化装置17で符号化された音声符
号化データを多重化して送信パケットを作成し、また逆
に、受信パケットから音声符号化データを取り出す多重
化/分離装置である。
The auxiliary storage device 18 is a storage device for storing the image data input from the image input device 12 and the handwritten data input from the handwriting input device 14. still,
Image data and handwritten data are managed so as to correspond page by page. The MPX / DMPX 19 is image coded data coded by the image coding device 13 or handwritten coded data coded by the handwritten data coding device 15 and voice coded by the voice coding / decoding device 17. This is a multiplexing / separating device that multiplexes encoded data to create a transmission packet and, conversely, extracts speech encoded data from a reception packet.

【0028】通信制御装置21は、MPX/DMPX1
9で多重化して作成された画像符号化データ又は手書き
符号化データ及び音声符号化データの送信パケットを通
信路に送信したり、また逆に通信路から相手(子機3
0)が送信した音声符号化データのパケットを受信する
装置である。
The communication control device 21 uses the MPX / DMPX1.
9. The transmission packet of the image coded data or the handwritten coded data and the voice coded data created by multiplexing at 9 is transmitted to the communication path, or conversely from the communication path to the other party (slave unit 3
0) is a device for receiving the packet of the voice coded data transmitted.

【0029】画像出力装置22は、画像入力装置12か
ら入力した画像と、手書き入力装置14から入力した手
書きデータとを合成して表示するCRT等の画像表示装
置である。ここで、画像出力装置22について、図3を
使って具体的に説明する。図3は、本実施例の通信対話
システムの親機10の画像出力装置22の表示画面の表
示例を示す説明図である。
The image output device 22 is an image display device such as a CRT which displays the image input from the image input device 12 and the handwritten data input from the handwriting input device 14 by combining them. Here, the image output device 22 will be specifically described with reference to FIG. FIG. 3 is an explanatory diagram showing a display example of the display screen of the image output device 22 of the parent device 10 of the communication dialogue system of the present embodiment.

【0030】本実施例の通信対話システムの親機10の
画像出力装置22の表示画面は、図3に示すように、画
像入力装置12から入力した画像と手書き入力装置14
から入力した手書きデータとを合成して表示する表示フ
ィールド41と、画像データの総ページ数と表示中の画
像の頁番号等を表示するインフォメーションフィールド
42と、手書き入力装置14の動作モード等を選択する
メニューフィールド43と、画像出力装置22に表示す
る頁替えを行う頁替えフィールド44とから構成されて
いる。
As shown in FIG. 3, the display screen of the image output device 22 of the parent device 10 of the communication dialogue system of the present embodiment has the image input from the image input device 12 and the handwriting input device 14, as shown in FIG.
A display field 41 for combining and displaying handwritten data input from, an information field 42 for displaying the total number of pages of image data and a page number of the image being displayed, and an operation mode of the handwriting input device 14 are selected. A menu field 43 for changing the page and a page changing field 44 for changing the page displayed on the image output device 22.

【0031】そして、頁替えフィールド44を手書き入
力装置14でクリックして頁を切り替える(頁替え入
力)と、指定された頁の画像データを表示フィールド4
1に表示し、インフォメーションフィールド42に画像
データの総ページ数と表示中の画像の頁番号等を表示す
る。更に、手書き入力装置14を使って表示フィールド
41中に手書きデータの入力(ペンダウンからペンアッ
プまでのトレース)が行われると、その手書きデータを
合成して表示する。また、頁替えの際には、表示中の頁
上に手書き入力された手書きデータは記憶しておき、再
表示の際には、画像データと記憶しておいた手書きデー
タとを合成して表示するようになっている。また、メニ
ューフィールド43を用いて対話終了を指示する対話終
了入力も為されるようになっている。
When the page change field 44 is clicked with the handwriting input device 14 to switch pages (page change input), the image data of the designated page is displayed in the display field 4.
1, the total number of pages of image data and the page number of the image being displayed are displayed in the information field 42. Furthermore, when handwritten data is input (trace from pen down to pen up) in the display field 41 using the handwriting input device 14, the handwritten data is combined and displayed. In addition, when the page is changed, the handwritten data input by handwriting on the page being displayed is stored, and when the page is displayed again, the image data and the stored handwritten data are combined and displayed. It is supposed to do. Further, a dialogue end input for instructing the dialogue end using the menu field 43 is also made.

【0032】音声出力装置23は、子機30から送信さ
れた音声データを再生して出力するスピーカ等の音声出
力装置である。CPU11は、親機10を構成する各部
の動作制御を行うもので、具体的には、画像を入力して
記憶する画像入力処理と、子機30との対話に先立って
画像データを子機30に送信する画像データ送信処理
と、子機30と対話を行う対話処理とを行う。尚、各処
理の詳細は後述する。
The voice output device 23 is a voice output device such as a speaker that reproduces and outputs the voice data transmitted from the child device 30. The CPU 11 controls the operation of each unit that configures the parent device 10. Specifically, the image data is input to the child device 30 prior to the image input processing for inputting and storing an image and the interaction with the child device 30. The image data transmission process for transmitting the image data to the mobile device 30 and the interaction process for interacting with the child device 30 are performed. The details of each process will be described later.

【0033】次に、本実施例の通信対話システムの子機
30を構成する各部について具体的に説明する。通信制
御装置32は、通信路から相手(親機10)が送信した
画像符号化データ又は手書き符号化データ及び音声符号
化データのパケットを受信したり、また逆にMPX/D
MPX33で多重化して作成された音声符号化データの
送信パケットを通信路に送信する装置である。MPX/
DMPX33は、音声符号化データの送信パケットを作
成したり、また逆に、受信パケットから画像符号化デー
タ又は手書き符号化データ及び音声符号化データを分離
して取り出す多重化/分離装置である。
Next, each part of the slave unit 30 of the communication dialogue system of this embodiment will be described in detail. The communication control device 32 receives packets of image coded data or handwritten coded data and voice coded data transmitted from the other party (base device 10) from the communication path, or conversely MPX / D.
This is a device for transmitting a transmission packet of voice encoded data created by multiplexing with the MPX 33 to a communication path. MPX /
The DMPX 33 is a multiplexing / separating device that creates a transmission packet of voice encoded data and, conversely, separates and extracts image encoded data or handwritten encoded data and voice encoded data from a received packet.

【0034】補助記憶装置34は、親機10から送信さ
れた画像データと手書きデータを記憶する記憶装置であ
る。尚、親機10の補助記憶装置18と同様に画像デー
タと手書きデータとは、頁単位で対応するように管理さ
れている。画像復号化装置35は、親機10から送信さ
れ通信制御装置32を介して受信し、MPX/DMPX
33で取り出された画像符号化データを情報源復号化し
て画像の画素情報(画像データ)を作成する装置であ
る。ここで、情報源復号化方法は、親機10の画像符号
化装置13で使われている情報源符号化方法に対応する
復号化技術である。
The auxiliary storage device 34 is a storage device for storing the image data and the handwritten data transmitted from the parent device 10. As with the auxiliary storage device 18 of the parent device 10, image data and handwritten data are managed so as to correspond page by page. The image decoding device 35 receives the MPX / DMPX transmitted from the master device 10 via the communication control device 32.
It is a device for generating pixel information (image data) of an image by decoding the encoded image data taken out at 33 as an information source. Here, the information source decoding method is a decoding technique corresponding to the information source encoding method used in the image encoding device 13 of the master device 10.

【0035】手書きデータ復号化装置36は、親機10
から送信され通信制御装置32を介して受信し、MPX
/DMPX33で分離して取り出された手書き符号化デ
ータを復号化して手書きデータを作成する装置である。
ここで、手書きデータ復号化方法は、親機10の手書き
データ符号化装置15で使われている符号化方法に対応
する復号化技術である。
The handwritten data decoding device 36 is the master device 10
Sent from the communication control device 32 and received by the MPX.
/ DMPX33 is a device for decoding handwritten coded data separated and taken out to create handwritten data.
Here, the handwriting data decoding method is a decoding technique corresponding to the coding method used in the handwriting data coding device 15 of the parent device 10.

【0036】音声符号化/復号化装置37は、親機10
から送信され子機30が受信した音声符号化データを復
号化して音声出力装置39に出力したり、逆に音声入力
装置40から入力した音声データを符号化する装置であ
る。
The voice encoding / decoding device 37 is composed of the base unit 10.
Is a device that decodes the voice coded data transmitted from the mobile device 30 and is output to the voice output device 39, and conversely encodes the voice data input from the voice input device 40.

【0037】画像出力装置38は、親機10から送信さ
れ子機30が受信して補助記憶装置34に記憶しておい
た画像データと、親機10から送信され復号化された手
書きデータ及び補助記憶装置34に記憶されている手書
きデータとを合成して表示するCRT等の画像表示装置
である。画像出力装置38における具体的な表示画面
は、図3に示した親機10の画像出力装置22の表示画
面の表示フィールド41とインフォメーションフィール
ド42のみで構成されている。
The image output device 38 receives the image data transmitted from the master device 10 and received by the slave device 30 and stored in the auxiliary storage device 34, and the handwritten data and auxiliary data transmitted from the master device 10 and decoded. It is an image display device such as a CRT that combines and displays handwritten data stored in the storage device 34. The specific display screen of the image output device 38 is composed of only the display field 41 and the information field 42 of the display screen of the image output device 22 of the parent device 10 shown in FIG.

【0038】音声出力装置39は、親機10から送信さ
れた音声データを再生して出力するスピーカ等の音声出
力装置である。音声入力装置40は、音声を入力するM
IC(Microphone)等の音声入力装置である。
The voice output device 39 is a voice output device such as a speaker which reproduces and outputs the voice data transmitted from the parent device 10. The voice input device 40 is an M for inputting voice.
It is a voice input device such as an IC (Microphone).

【0039】CPU31は、子機30を構成する各部の
動作制御を行うもので、具体的には、親機10との対話
に先立って画像データを受信する画像データ受信処理
と、親機10との対話の中で受信データを処理する下り
方向処理と、音声データを送信する上り方向処理とを行
う。尚、各処理の詳細は後述する。
The CPU 31 controls the operation of each unit constituting the slave unit 30, and specifically, the image data receiving process for receiving the image data prior to the dialogue with the master unit 10, and the master unit 10. In the dialogue, the downlink processing for processing the received data and the uplink processing for transmitting the voice data are performed. The details of each process will be described later.

【0040】次に、本実施例の通信対話システムの動作
の概略について、図4を使って説明する。図4は、本実
施例の通信対話システムにおける親機10と子機30と
の間の送受信のシーケンスを示す説明図である。本実施
例の通信対話システムでは、まず親機10において対話
で使用する1又は複数頁の画像を入力して記憶する。そ
して、親機10は子機30との対話に先立って記憶した
画像情報(画像データ)を符号化して画像符号化データ
にし、更に画像パケットとして子機30に送信し(図4
の処理(a))、子機30は受け取った画像符号化デー
タを復号化して画像情報を記憶する。
Next, the outline of the operation of the communication dialogue system of this embodiment will be described with reference to FIG. FIG. 4 is an explanatory diagram showing a transmission / reception sequence between the master device 10 and the slave device 30 in the communication dialogue system of the present embodiment. In the communication dialogue system of the present embodiment, first, one or a plurality of pages of images used in dialogue in the master device 10 are input and stored. Then, the parent device 10 encodes the image information (image data) stored prior to the conversation with the child device 30 into image encoded data, and further transmits it to the child device 30 as an image packet (see FIG. 4).
Process (a)), the slave unit 30 decodes the received image coded data and stores the image information.

【0041】そして、画像情報送信完了後に親機10か
ら子機30へリアルタイムに手書き情報の送信を行い、
更に音声情報を双方向でやり取りする対話処理を行う
(図4の処理(b))。ここで、対話処理の際には、図
4に示すように、親機10から子機30へ送信される手
書き情報及び音声情報から成るパケットと、逆に子機3
0から親機10へ送信される音声情報のパケットとで通
信路を時分割多重化して使用している。そして、対話終
了の際には、親機10から子機30へ対話終了パケット
が送信されて、子機30では対話終了を認識するように
なっている。
After the image information has been transmitted, handwriting information is transmitted in real time from the parent device 10 to the child device 30,
Further, an interactive process for bidirectionally exchanging voice information is performed (process (b) in FIG. 4). Here, at the time of the dialogue processing, as shown in FIG. 4, a packet including handwritten information and voice information transmitted from the master device 10 to the slave device 30 and conversely the slave device 3 are transmitted.
The communication path is time-division multiplexed with the packet of voice information transmitted from 0 to the base unit 10 and used. At the end of the dialogue, a dialogue end packet is transmitted from the parent device 10 to the child device 30 so that the child device 30 recognizes the dialogue end.

【0042】次に、本実施例の通信対話システムの動作
の詳細について、図1,図2,図3を使って説明する。
本実施例の通信対話システムでは、まず親機10におい
て、CPU11が各部を制御して、対話で使用する1又
は複数頁の画像を入力して記憶する画像入力処理を行
う。ここで画像入力処理とは、画像入力装置12から1
又は複数頁の画像を入力し、入力した画像を構成する画
素値(画像データ)を補助記憶装置18に記憶する。
尚、補助記憶装置18では、頁番号と対応づけて各頁の
画像データが記憶される。
Next, details of the operation of the communication dialogue system of the present embodiment will be described with reference to FIGS. 1, 2 and 3.
In the communication dialogue system of the present embodiment, first, in the parent device 10, the CPU 11 controls each unit to perform an image input process of inputting and storing one or a plurality of pages of images used in the dialogue. Here, the image input processing is performed by the image input device 12 to 1
Alternatively, an image of a plurality of pages is input, and the pixel value (image data) forming the input image is stored in the auxiliary storage device 18.
The auxiliary storage device 18 stores the image data of each page in association with the page number.

【0043】次に、親機10は、子機30との対話に先
立って、画像データ送信処理を行う。ここで、画像デー
タ送信処理とは、補助記憶装置18に記憶されている1
又は複数頁の画像データを画像符号化装置13が情報源
符号化して画像符号化データを作成し、MPX/DMP
X19で画像符号化データをパケット化して画像パケッ
トを作成し、通信制御装置21を介して子機30に送信
する処理である。
Next, the base unit 10 performs the image data transmission process prior to the conversation with the handset unit 30. Here, the image data transmission process means 1 stored in the auxiliary storage device 18.
Alternatively, the image encoding device 13 encodes the image data of a plurality of pages as the information source to generate the image encoded data, and the MPX / DMP
This is a process of packetizing the image coded data in X19 to create an image packet and transmitting it to the handset 30 via the communication control device 21.

【0044】親機10から画像パケットが送信される
と、子機30では、画像データ受信処理として、通信制
御装置32を介して画像パケットを受信し、MPX/D
MPX33で画像符号化データを取り出し、画像復号化
装置35で情報源復号化して画像データを作成して補助
記憶装置34に記憶する。尚、補助記憶装置34におい
ても親機10の補助記憶装置18と同様に、頁番号と対
応づけて各頁の画像データが記憶される。
When the image packet is transmitted from the master device 10, the slave device 30 receives the image packet via the communication control device 32 as an image data receiving process, and the MPX / D
The MPX 33 extracts the encoded image data, the image decoding device 35 performs information source decoding to create image data, and stores the image data in the auxiliary storage device 34. The auxiliary storage device 34 also stores the image data of each page in association with the page number, similar to the auxiliary storage device 18 of the master device 10.

【0045】そして、画像データ送信完了後に、親機1
0と子機30との間の対話処理を行う。ここで、対話処
理は、親機10から子機30方向に手書き情報及び音声
情報を送信する下り方向処理と、逆に子機30から親機
10方向に音声情報を送信する上り方向処理とが通信路
を時分割多重することによって平行して行われるように
なっている。
After the image data transmission is completed, the main unit 1
Dialogue processing between 0 and the child device 30 is performed. Here, the interactive process includes a downlink process for transmitting handwritten information and voice information from the master device 10 toward the slave device 30 and an uplink process for transmitting voice information from the slave device 30 toward the master device 10 on the contrary. The communication paths are performed in parallel by time division multiplexing.

【0046】まず、通常親機10と子機30との対話の
スタート時には、親機10の画像出力装置22及び子機
30の画像出力装置38の表示フィールド41には第1
頁の画像が表示される。そして、親機10において手書
きデータの入力(手書き入力)があると、CPU11
は、手書きデータを画像出力装置22の表示フィールド
41に表示させ、一時的にCPU11内のワークエリア
に手書きデータを一時的に蓄積しておく。更に、入力し
た手書きデータを手書きデータ符号化装置15で符号化
して手書き符号化データを作成させ、″手書きデータ″
のヘッダを付加し、MPX/DMPX19で手書きデー
タパケットを作成する。尚、手書き入力とは、図3に示
した表示フィールド41内で手書き入力装置14によっ
てペンダウンからペンアップまでの動作で為された入力
である。
First, when the dialogue between the parent device 10 and the child device 30 is normally started, the first field is displayed in the display field 41 of the image output device 22 of the parent device 10 and the image output device 38 of the child device 30.
The page image is displayed. When handwriting data is input (handwriting input) in the master device 10, the CPU 11
Displays the handwritten data in the display field 41 of the image output device 22, and temporarily stores the handwritten data in the work area in the CPU 11. Furthermore, the input handwritten data is encoded by the handwritten data encoding device 15 to create handwritten encoded data, and "handwritten data"
Is added and a handwritten data packet is created by MPX / DMPX19. The handwriting input is an input made by the handwriting input device 14 in the display field 41 shown in FIG. 3 in an operation from pen down to pen up.

【0047】また、親機10において頁を切り替える入
力(頁替え入力)が為されると、CPU11は、CPU
11内のワークエリアに蓄積されている表示中の頁に対
する手書きデータを補助記憶装置18に保存し、新しい
頁の画像データと手書きデータを補助記憶装置18から
読み出して画像出力装置22に表示させてから、″頁替
え″のヘッダを付加し、MPX/DMPX19で頁替え
パケットを作成する。尚、頁替え入力とは、図3に示し
たメニューフィールド43内で手書き入力装置14によ
って[終了]ボタンがクリックされた入力である。
When a page switching input (page change input) is made in the master unit 10, the CPU 11
Handwritten data for the displayed page stored in the work area of 11 is saved in the auxiliary storage device 18, and the image data and handwritten data of the new page are read from the auxiliary storage device 18 and displayed on the image output device 22. From the above, a header of "page change" is added, and a page change packet is created by MPX / DMPX19. The page change input is input when the [end] button is clicked by the handwriting input device 14 in the menu field 43 shown in FIG.

【0048】また、親機10において対話終了を指示す
る入力(対話終了入力)が為されると、″終了コード″
のヘッダをCPU11で付加し、MPX/DMPX19
で対話終了パケットを作成する。また、親機10におい
て音声入力装置16から音声入力が為されると、音声符
号化/復号化装置17で符号化して音声符号化データを
作成し、″音声データ″のヘッダをCPU11で付加
し、MPX/DMPX19で音声パケットを作成する。
そして、手書き入力又は頁替え入力又は対話終了入力が
為された場合は、そのパケットと、音声パケットとをM
PX/DMPX19で多重化して送信パケットを作成
し、通信制御装置21を介して送信する。
When an input for instructing the end of the dialogue (interaction end input) is made in the master device 10, "end code"
The header of is added by the CPU 11, and MPX / DMPX19
Create a dialogue end packet with. Further, when voice input is performed from the voice input device 16 in the master device 10, the voice encoding / decoding device 17 encodes to generate voice encoded data, and the CPU 11 adds a header of "voice data". , MPX / DMPX 19 creates a voice packet.
When handwriting input, page change input, or dialogue end input is performed, the packet and the voice packet are M
The PX / DMPX 19 multiplexes to create a transmission packet and transmits it via the communication control device 21.

【0049】上記親機10から送信されたパケットを通
信制御装置32を介して受信した子機30では、受信デ
ータ処理として、MPX/DMPX33でパケットの分
離を行い、CPU31の制御の下でパケットのヘッダ解
析を行いパケットの種類に応じた処理を行う。手書きデ
ータパケットの場合は、手書きデータ復号化装置36で
復号化して手書きデータを作成し、画像出力装置38の
表示フィールド41に表示し、CPU31内のワークエ
リアに一時的に蓄積する。頁替えパケットの場合は、C
PU31内のワークエリアに蓄積されている表示中の頁
に関する手書きデータを補助記憶装置34に保存し、新
しい頁の画像データと手書きデータとを補助記憶装置3
4から読み出して画像出力装置38に表示する。対話終
了パケットの場合は、対話の処理を終了する。音声パケ
ットについては、音声符号化/復号化装置37で復号化
して音声データを作成し、音声出力装置39で音声出力
を行う。
In the child device 30, which has received the packet transmitted from the parent device 10 via the communication control device 32, the MPX / DMPX 33 separates the packet as received data processing, and the packet is controlled under the control of the CPU 31. Header analysis is performed and processing is performed according to the type of packet. In the case of a handwritten data packet, it is decoded by the handwritten data decoding device 36 to create handwritten data, displayed in the display field 41 of the image output device 38, and temporarily stored in the work area in the CPU 31. C for page change packet
Handwriting data relating to the page being displayed accumulated in the work area in the PU 31 is saved in the auxiliary storage device 34, and the image data and handwriting data of the new page are stored in the auxiliary storage device 3
4 is read out and displayed on the image output device 38. In the case of the dialogue end packet, the dialogue processing is ended. The voice packet is decoded by the voice encoding / decoding device 37 to create voice data, and the voice output device 39 outputs the voice.

【0050】一方、子機30から親機10に音声データ
を送信する場合は、子機30において音声データ送信処
理として、音声入力装置40から音声を入力し、音声符
号化/復号化装置37で符号化して音声符号化データを
作成し、MPX/DMPX33で多重化して送信パケッ
トを作成し、通信制御装置32を介して送信する。親機
10では、通信制御装置21を介して子機30から送信
された音声のパケットを受信すると、MPX/DMPX
19で音声符号化データを取り出して、音声符号化/復
号化装置17で復号化して音声データを作成し、音声出
力装置23で音声出力を行う。
On the other hand, when the voice data is transmitted from the handset 30 to the base unit 10, voice is input from the voice input device 40 and the voice encoding / decoding device 37 is used as voice data transmission processing in the handset 30. The data is encoded to create voice encoded data, multiplexed by the MPX / DMPX 33 to create a transmission packet, and transmitted via the communication control device 32. Upon receiving the voice packet transmitted from the child device 30 via the communication control device 21, the parent device 10 receives MPX / DMPX.
The audio encoded data is taken out at 19, decoded by the audio encoding / decoding device 17 to create audio data, and the audio output device 23 outputs the audio.

【0051】次に、本実施例の通信対話システムの親機
10における対話処理の中でも特に、親機10から子機
30方向にデータを送信する下り方向処理の詳細につい
て、図5〜図7を使って具体的に説明する。図5は、本
実施例の通信対話システムの親機10のCPU11にお
ける、対話処理の下り方向処理のメイン処理のフローチ
ャート図であり、図6は、下り方向処理のイベント監視
処理のフローチャート図であり、図7は、下り方向処理
の音声符号化処理のフローチャート図である。
5 to 7 for details of the downlink processing for transmitting data from the master unit 10 to the slave unit 30 among the dialogue processes in the master unit 10 of the communication dialogue system of the present embodiment. It will be explained concretely by using. FIG. 5 is a flowchart of the main processing of the downlink processing of the dialogue processing in the CPU 11 of the master device 10 of the communication dialogue system of the present embodiment, and FIG. 6 is a flowchart of the event monitoring processing of the downlink processing. FIG. 7 is a flowchart of the voice encoding process of the downlink processing.

【0052】親機10における下り方向処理は具体的
に、手書き入力又は頁替え入力又は対話終了入力の何れ
かのイベントが発生した場合に行われるイベント監視処
理と、タイマ割り込みにより定期的に行われる音声符号
化処理とによって作成されるパケットをMPX/DMP
X19で多重化して、通信制御装置21を介して送信す
るようになっている。
Specifically, the downlink processing in the master device 10 is performed periodically by an event monitoring processing which is performed when any event of handwriting input, page change input or dialogue end input occurs and a timer interrupt. MPX / DMP packet generated by voice encoding processing
It is multiplexed with X19 and transmitted via the communication control device 21.

【0053】具体的には、図5に示すように、CPU1
1は、まずイベント監視処理を行い(100)、fla
gがENDであるかを判断する(102)。ここで、f
lagとは、対話処理の終了を示すフラグで、後述する
音声符号化処理の中で、対話終了入力が為されると、E
NDに設定されるようになっているものである。そし
て、処理102においてflagがENDでない(対話
終了でない)場合は、音声符号化処理を音声符号化/復
号化装置17に行わせ(110)、MPX/DMPX1
9でパケットを作成して、そのパケットの送信を通信制
御装置21に行わせ(112)、処理100に戻る。一
方、処理102において、flagがEND(対話終
了)の場合は、MPX/DMPX19で対話終了パケッ
トを作成させ(120)、そのパケットを通信制御装置
21で送信させる(122)。
Specifically, as shown in FIG. 5, the CPU 1
1 first performs event monitoring processing (100), fla
It is determined whether g is END (102). Where f
“lag” is a flag indicating the end of the dialogue process, and when the dialogue end input is made in the voice encoding process described later, E
It is designed to be set to ND. When the flag is not END (not the end of the dialogue) in the process 102, the voice encoding / decoding device 17 is caused to perform the voice encoding process (110), and MPX / DMPX1.
In step 9, a packet is created, the communication control device 21 is caused to transmit the packet (112), and the process returns to step 100. On the other hand, in the process 102, if the flag is END (end of dialogue), the MPX / DMPX 19 creates a dialogue end packet (120), and the communication control device 21 transmits the packet (122).

【0054】そして、イベント監視処理は、図6に示す
ように、CPU11が、頁替え入力が為されたか判断す
る(200)。ここで、頁替え入力とは、表示画面の頁
替えフィールド44内が手書き入力装置14によってク
リックされたかどうかで判断する。そして、頁替え入力
が為された場合は、ワークエリアに蓄積されている現在
の頁の手書きデータを補助記憶装置18に保存し(23
0)、ワークエリアをクリアし(231)、新しい頁の
画像データと手書きデータを補助記憶装置18から読み
出し(232)、画像と手書きデータを合成して画像出
力装置22の表示フィールド41に表示させ(23
4)、MPX/DMPX19で頁替えパケットを作成さ
せて(236)、イベント監視処理を終了する。
Then, in the event monitoring process, as shown in FIG. 6, the CPU 11 determines whether a page change input has been made (200). Here, the page change input is determined by whether or not the page change field 44 on the display screen is clicked by the handwriting input device 14. When a page change input is made, the handwritten data of the current page stored in the work area is stored in the auxiliary storage device 18 (23
0), clear the work area (231), read the image data of the new page and the handwritten data from the auxiliary storage device 18 (232), synthesize the image and the handwritten data, and display them in the display field 41 of the image output device 22. (23
4) The MPX / DMPX 19 causes the page change packet to be created (236), and the event monitoring process ends.

【0055】一方、処理200において頁替え入力が為
されていない場合は、手書き入力が為されたか判断する
(202)。ここで、手書き入力が為されたかの判断
は、表示画面の表示フィールド41内で手書き入力装置
14によってペンダウンが行われたかどうかで判断す
る。そして、手書き入力が為された場合は、手書きデー
タがENDかどうか判断する(204)。ここで、手書
きデータがENDかどうかの判断は、手書き入力装置1
4によってペンアップが行われたかどうかで判断する。
そして、手書きデータがENDでない場合は、手書き入
力装置14から手書きデータを入力し(210)、入力
した手書きデータを画像出力装置22の表示フィールド
41に表示し(211)、手書きデータをワークエリア
に蓄積し(212)、手書きデータ符号化装置15に手
書きデータを符号化させ(213)、その手書き符号化
データを手書きデータ符号化装置15から受け取って、
処理204に戻る。一方、処理204において手書きデ
ータがENDの場合は、CPU11で手書きデータにヘ
ッダと手書きデータの終了符号を付加し、MPX/DM
PX19で手書きデータパケットを作成させ(21
4)、イベント監視処理を終了する。
On the other hand, when the page change input is not made in the process 200, it is judged whether or not the handwriting input is made (202). Here, the determination as to whether or not the handwriting input is made is made based on whether or not the pen-down is performed by the handwriting input device 14 in the display field 41 of the display screen. Then, when handwriting is input, it is determined whether the handwriting data is END (204). Here, the handwriting input device 1 determines whether the handwritten data is END.
Judgment is made based on whether or not the pen-up was carried out according to 4.
If the handwritten data is not END, the handwritten data is input from the handwriting input device 14 (210), the input handwritten data is displayed in the display field 41 of the image output device 22 (211), and the handwritten data is displayed in the work area. The data is accumulated (212), the handwritten data encoder 15 encodes the handwritten data (213), the handwritten encoded data is received from the handwritten data encoder 15,
The process returns to the process 204. On the other hand, when the handwritten data is END in the process 204, the CPU 11 adds a header and an end code of the handwritten data to the handwritten data, and MPX / DM
Create a handwritten data packet with PX19 (21
4) The event monitoring process ends.

【0056】一方、処理202において、手書き入力が
為されてない場合は、対話終了入力が為されたか判断す
る(220)。ここで、対話終了入力とは、表示画面の
メニューフィールド43内の[終了]ボタンが手書き入
力装置14によってクリックされたかどうかで判断す
る。そして、対話終了入力が為されていない場合は、イ
ベント監視処理を終了し、対話終了入力が為された場合
は、flagをENDにして(222)、イベント監視
処理を終了する。
On the other hand, in the process 202, if the handwriting input is not made, it is judged whether the dialogue end input is made (220). Here, the dialogue end input is determined by whether or not the [end] button in the menu field 43 on the display screen is clicked by the handwriting input device 14. When the dialogue end input is not made, the event monitoring processing is ended, and when the dialogue end input is made, the flag is set to END (222) and the event monitoring processing is ended.

【0057】音声符号化処理は、CPU11が、音声デ
ータがENDかどうか判断する(300)。ここで、音
声データがENDかどうかの判断は、例えば一定時間一
定レベル以上の音声入力が検知できなかったときにEN
Dと判断する。そして、音声データがENDでない場合
は、音声出力装置23から音声データを入力して音声符
号化/復号化装置17に符号化させて音声符号化データ
を作成させ(304)、処理300に戻る。一方、処理
300において音声データがENDの場合は、CPU1
1で音声データにヘッダを付加し、MPX/DMPX1
9で音声パケットを作成させ(310)、他のパケッ
ト、つまり、頁替えパケット又は手書きデータパケット
が有るかどうかを判断し(312)、他のパケットがあ
る場合は、音声符号化処理を終了し、他のパケットがな
い場合は、ダミーパケットを作成させて(314)、音
声符号化処理を終了する。
In the voice encoding process, the CPU 11 determines whether the voice data is END (300). Here, whether or not the voice data is END is determined by, for example, when the voice input above a certain level cannot be detected for a certain period of time.
Judge as D. If the voice data is not END, the voice data is input from the voice output device 23 and is encoded by the voice encoding / decoding device 17 to generate voice encoded data (304), and the process 300 is returned to. On the other hand, when the voice data is END in the process 300, the CPU 1
1 adds a header to audio data, MPX / DMPX1
In step S9, a voice packet is created (310), and it is determined whether there is another packet, that is, a page change packet or a handwritten data packet (312). If there is another packet, the voice encoding process is terminated. If there is no other packet, a dummy packet is created (314), and the voice encoding process is ended.

【0058】次に、本実施例の通信対話システムの子機
30における対話処理の中でも特に、親機10から子機
30方向にデータを送信する下り方向処理の詳細につい
て、図8を使って具体的に説明する。図8は、本実施例
の通信対話システムの子機30のCPU31における、
対話処理の下り方向処理のフローチャート図である。
尚、図8では、子機30のCPU31が通信制御装置3
2を介して受信したパケットをMPX/DMPX33で
分離した各データを受け取った時点からの処理を示して
いる。
Next, of the dialogue processing in the handset 30 of the communication dialogue system of this embodiment, the details of the downlink processing for transmitting data from the handset 10 to the handset 30 will be described in detail with reference to FIG. To explain. FIG. 8 shows the CPU 31 of the child device 30 of the communication dialogue system of the present embodiment.
It is a flowchart figure of the downstream process of a dialogue process.
Note that in FIG. 8, the CPU 31 of the child device 30 has the communication control device 3
2 shows the processing from the point of time when the respective data obtained by separating the packet received via 2 via the MPX / DMPX 33 is received.

【0059】子機30のCPU31がMPX/DMPX
33で分離されたデータを受け取ると、ヘッダを解析す
る(400)。ヘッダはデータの種類を示しており、″
頁替え″と″手書きデータ″と″音声データ″と″終了
コード″とがあり、それ以外の場合はエラーとして処理
される。次にデータの種類を判断し(402)、データ
が″頁替え″の場合は、ワークエリアに蓄積されている
現在の頁の手書きデータを補助記憶装置34に保存し
(410)、そのワークエリアをクリアし(411)、
新しい頁の画像データと手書きデータを補助記憶装置3
4から読み出し(412)、画像と手書きデータを合成
して画像出力装置38の表示フィールド41に表示させ
(414)、処理400に戻る。
The CPU 31 of the child device 30 uses MPX / DMPX.
When the data separated in 33 is received, the header is analyzed (400). The header indicates the type of data, ″
There are "Page change", "Handwritten data", "Voice data", and "End code", and otherwise processed as an error. Next, the type of data is judged (402), and the data is "Page changed". In the case of ", the handwritten data of the current page accumulated in the work area is saved in the auxiliary storage device 34 (410), and the work area is cleared (411).
Auxiliary storage device 3 for image data and handwriting data of new page
4 (412), the image and the handwritten data are combined and displayed on the display field 41 of the image output device 38 (414), and the process 400 is returned to.

【0060】一方、処理402においてデータが″手書
きデータ″の場合は、手書きデータがENDかどうか判
断する(420)。ここで、手書きデータがENDかど
うかの判断は、手書きデータ中に含まれる終了符号で判
断する。そして、手書きデータがENDでない場合は、
手書きデータを受信データから読み出し(422)、処
理420に戻る。手書きデータがENDの場合は、手書
きデータ復号化装置36で復号化して手書きデータを作
成させ(424)、画像出力装置38の表示フィールド
41に手書きデータを表示させ(426)、手書きデー
タをワークエリアに蓄積し(428)、処理400に戻
る。
On the other hand, if the data is "handwritten data" in the process 402, it is judged whether the handwritten data is END (420). Here, the judgment as to whether the handwritten data is END is made by the end code included in the handwritten data. If the handwritten data is not END,
The handwritten data is read from the received data (422) and the process 420 is returned to. If the handwritten data is END, it is decoded by the handwritten data decoding device 36 to create handwritten data (424), the handwritten data is displayed in the display field 41 of the image output device 38 (426), and the handwritten data is displayed. (428) and returns to process 400.

【0061】一方、処理402においてデータが″音声
データ″の場合は、音声データがENDであるか判断し
(430)、ENDでない場合は、音声データを受信デ
ータから読み出し(432)、音声符号化/復号化装置
37で音声符号化データを復号化して音声データを作成
させ(434)、処理430に戻る。処理430におい
て、音声データがENDの場合は、これまで復号化され
た音声データについて音声出力装置23で音声を再生さ
せて出力し(436)、処理400に戻る。
On the other hand, if the data is "voice data" in the process 402, it is judged whether the voice data is END (430). If it is not END, the voice data is read from the received data (432) and voice encoded. / The decoding device 37 decodes the voice coded data to generate voice data (434), and returns to the process 430. In the process 430, when the audio data is END, the audio output device 23 reproduces and outputs the audio of the audio data decoded so far (436), and the process returns to the process 400.

【0062】一方、処理402においてデータが″終了
コード″の場合は、下り方向処理を終了し、また処理4
02においてデータが″頁替え″及び″手書きデータ″
及び″音声データ″及び″終了コード″以外の場合は、
エラーメッセージを表示させて(440)、下り方向処
理を終了する。
On the other hand, when the data is the "end code" in the process 402, the downstream process is terminated, and the process 4 is executed.
In 02, the data is "page change" and "handwritten data"
And other than "voice data" and "end code",
An error message is displayed (440), and the downlink processing ends.

【0063】本実施例の通信対話システム及びその制御
方法によれば、親機10と子機30との間の対話に先立
って、親機10から子機30に画像データを送信して子
機30に記憶しておき、その後で親機10から子機30
への手書きデータの送信と双方向での音声データのやり
取りを行うので、画像を基にした対話を容易に行うこと
ができる効果がある。
According to the communication dialogue system and the control method therefor of the present embodiment, image data is transmitted from the parent device 10 to the child device 30 prior to the dialogue between the parent device 10 and the child device 30, and the child device is transmitted. 30 and then the master unit 10 to the slave unit 30
Since handwritten data is transmitted to and received from and voice data is exchanged bidirectionally, there is an effect that a dialogue based on an image can be easily performed.

【0064】また、データ量の多い画像データを対話に
先立って伝送しておき、データ量の少ない音声データと
手書きデータのみをリアルタイムに伝送するので、大容
量の高速通信路を用いなくても画像を基にした対話が実
現でき、安価なシステム構成にできる効果がある。
Further, since image data having a large amount of data is transmitted prior to the dialogue and only voice data and handwriting data having a small amount of data are transmitted in real time, the image can be transmitted without using a large capacity high speed communication path. Based on this, there is an effect that it is possible to realize an inexpensive system configuration.

【0065】本実施例の通信対話システム及びその制御
方法によれば、親機10において頁替え入力が為される
と、親機10において表示する頁を切り替え、頁替えデ
ータを子機30に送信し、子機30において表示する頁
を切り替えるので、複数頁であっても頁替えを同期しな
がら行うことができ、画像(原稿)を基にした説明等に
も使用できる効果がある。
According to the communication dialogue system and the control method thereof of the present embodiment, when the page change input is made in the master unit 10, the page displayed in the master unit 10 is switched and the page change data is transmitted to the slave unit 30. However, since the pages to be displayed on the child device 30 are switched, page switching can be performed synchronously even for a plurality of pages, and there is an effect that it can also be used for a description based on an image (original).

【0066】本実施例の通信対話システム及びその制御
方法によれば、親機10において手書きデータ入力が為
されると親機10の画像出力装置22に画像データと手
書きデータとを合成して表示し、子機30に伝送し、子
機30においても画像出力装置38に表示中の画像と合
成する形で手書きデータを表示するので、リアルタイム
に画像上に手書きデータを書き込みながら対話すること
ができる効果がある。
According to the communication interactive system and the control method thereof of the present embodiment, when handwritten data is input in the master device 10, the image data and the handwritten data are combined and displayed on the image output device 22 of the master device 10. However, since the handwritten data is transmitted to the child device 30 and is also displayed on the image output device 38 in the child device 30 in a form of being combined with the image being displayed, it is possible to interact while writing the handwritten data on the image in real time. effective.

【0067】[0067]

【発明の効果】請求項1記載の発明によれば、送信側装
置は、予め画像情報を送信しておき、音声情報と手書き
情報の入力毎に送信し、受信側装置は、予め画像情報を
受信して記憶しておき、音声情報と手書き情報を受信す
る毎に出力する通信対話システムとしているので、画像
情報に関連する音声情報と手書き情報とをリアルタイム
で送受信する場合に、予め画像情報を送信してあるため
リアルタイムでの送信データのデータ量を少なくでき、
高速伝送路を必要とせず、安価なシステム構成とするこ
とができる効果がある。
According to the first aspect of the present invention, the transmission side device transmits the image information in advance and transmits it every time the voice information and the handwriting information are input, and the reception side device transmits the image information in advance. Since it is a communication dialogue system that receives and stores it, and outputs it each time the voice information and the handwriting information are received, when the voice information and the handwriting information related to the image information are transmitted and received in real time, the image information is previously stored. Since it is transmitted, the amount of data transmitted in real time can be reduced,
There is an effect that an inexpensive system configuration can be obtained without requiring a high-speed transmission line.

【0068】請求項2記載の発明によれば、送信側装置
と受信側装置とが画像情報と手書き情報とを関連付けて
第1,2の記憶部に記憶し、送信側装置は、頁情報が入
力されると当該頁の画像情報と関連する手書き情報を第
1の記憶部から読み出して送信側の第1の表示部に表示
し、頁情報を受信した受信側装置は、当該頁の画像情報
と関連する手書き情報を第2の記憶部から読み出して受
信側の第2の表示部に表示させる請求項1記載の通信対
話システムとしているので、画像情報と関連する手書き
情報を送受信側双方で保持することになり、画像と手書
き情報を基に音声により容易に対話できる効果がある。
According to the second aspect of the invention, the transmission side device and the reception side device store the image information and the handwritten information in the first and second storage sections in association with each other, and the transmission side device stores the page information. When input, the handwritten information related to the image information of the page is read from the first storage unit and displayed on the first display unit on the transmission side, and the receiving side device that received the page information determines that the image information of the page is received. Since the handwriting information associated with is read from the second storage unit and is displayed on the second display unit on the receiving side, the handwriting information related to the image information is held on both the transmitting and receiving sides. Therefore, there is an effect that the user can easily interact with the voice based on the image and the handwritten information.

【0069】請求項3記載の発明によれば、画像情報と
関連する手書き情報を送受信側双方で保持しておき、頁
情報が送信側装置に入力されると、送信側装置は、頁情
報の頁の画像情報と既に記憶されているならば関連する
手書き情報を第1の記憶部から読み出して第1の表示部
に表示して、その頁情報を受信側装置に送信し、受信側
装置は、送信された頁情報の頁の画像情報と既に記憶さ
れているならば関連する手書き情報を第2の記憶部から
読み出して第2の表示部に表示する請求項2記載の通信
対話システムの制御方法としているので、画像情報に関
連する音声情報と手書き情報とをリアルタイムで送受信
する場合に、予め画像情報を送信してあるためリアルタ
イムでの送信データのデータ量を少なくでき、高速伝送
路を必要とせず、安価なシステム構成とすることができ
る効果があり、画像と手書き情報を基に音声により容易
に対話できる効果がある。
According to the third aspect of the invention, the handwriting information associated with the image information is held on both the transmitting and receiving sides, and when the page information is input to the transmitting side apparatus, the transmitting side apparatus displays the page information. If the image information of the page is already stored, the related handwritten information is read from the first storage unit, displayed on the first display unit, and the page information is transmitted to the receiving side device, and the receiving side device The control of the communication dialogue system according to claim 2, wherein the handwritten information related to the image information of the page of the transmitted page information is already stored and is displayed on the second display unit. Since the method is used, when transmitting and receiving voice information and handwriting information related to image information in real time, since the image information is transmitted in advance, the data amount of transmission data in real time can be reduced and a high-speed transmission path is required. Without There is an advantage of being able to valence system configuration, it is easily interact can effectively by voice based on the image and the handwritten information.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る通信対話システムの親
機の構成ブロック図である。
FIG. 1 is a configuration block diagram of a master unit of a communication dialogue system according to an embodiment of the present invention.

【図2】本発明の一実施例に係る通信対話システムの子
機の構成ブロック図である。
FIG. 2 is a configuration block diagram of a child device of the communication dialogue system according to the embodiment of the present invention.

【図3】本実施例の通信対話システムの親機10の画像
出力装置22の表示画面の表示例を示す説明図である。
FIG. 3 is an explanatory diagram showing a display example of a display screen of the image output device 22 of the master device 10 of the communication dialogue system according to the present embodiment.

【図4】本実施例の通信対話システムにおける親機10
と子機30との間の送受信のシーケンスを示す説明図で
ある。
FIG. 4 is a master device 10 in the communication dialogue system of the present embodiment.
It is explanatory drawing which shows the sequence of transmission / reception between the child device 30, and the handset 30.

【図5】本実施例の通信対話システムの親機10のCP
U11における、対話処理の下り方向処理のメイン処理
のフローチャート図である。
FIG. 5 is a CP of the master device 10 of the communication dialogue system of the present embodiment.
It is a flowchart figure of the main process of the downlink process of a dialogue process in U11.

【図6】下り方向処理のイベント監視処理のフローチャ
ート図である。
FIG. 6 is a flow chart of an event monitoring process of the downstream processing.

【図7】下り方向処理の音声符号化処理のフローチャー
ト図である。
[Fig. 7] Fig. 7 is a flowchart of a voice encoding process of a downlink process.

【図8】本実施例の通信対話システムの子機30のCP
U31における、対話処理の下り方向処理のフローチャ
ート図である。
FIG. 8 is a CP of the child device 30 of the communication dialogue system according to the present embodiment.
It is a flowchart figure of the downlink process of a dialogue process in U31.

【図9】従来のテレライティングによる対話におけるデ
ータの流れを示す説明図である。
FIG. 9 is an explanatory diagram showing a data flow in a conventional telewriting dialogue.

【図10】従来のファクスを用いた対話におけるデータ
の流れを示す説明図である。
FIG. 10 is an explanatory diagram showing a data flow in a conventional dialog using a fax.

【符号の説明】[Explanation of symbols]

10…親機、 11…CPU、 12…画像入力装置、
13…画像符号化装置、 14…手書き入力装置、
15…手書きデータ符号化装置、 16…音声入力装
置、 17…音声符号化/復号化装置、 18…補助記
憶装置、 19…MPX/DMPX、 21…通信制御
装置、 22…画像出力装置、 23…音声出力装置、
30…子機、 31…CPU、 32…通信制御装
置、 33…MPX/DMPX、 34…補助記憶装
置、 35…画像復号化装置、 36…手書きデータ復
号化装置、 37…音声符号化/復号化装置、 38…
画像出力装置、 39…音声出力装置、 40…音声入
力装置
10 ... Parent machine, 11 ... CPU, 12 ... Image input device,
13 ... Image coding device, 14 ... Handwriting input device,
15 ... Handwritten data encoding device, 16 ... Voice input device, 17 ... Voice encoding / decoding device, 18 ... Auxiliary storage device, 19 ... MPX / DMPX, 21 ... Communication control device, 22 ... Image output device, 23 ... Audio output device,
30 ... Slave device, 31 ... CPU, 32 ... Communication control device, 33 ... MPX / DMPX, 34 ... Auxiliary storage device, 35 ... Image decoding device, 36 ... Handwriting data decoding device, 37 ... Voice coding / decoding Device, 38 ...
Image output device, 39 ... Audio output device, 40 ... Audio input device

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 画像情報、音声情報、手書き情報を送信
し、音声情報を受信する送信側装置と、画像情報、音声
情報、手書き情報を受信し、音声情報を送信する受信側
装置とを備えた通信対話システムにおいて、前記送信側
装置が、画像情報を記憶する第1の記憶部を有して、予
め前記第1の記憶部から画像情報を読み出して送信し、
その後に前記画像情報に関連する音声情報と手書き情報
が入力される毎に送信し、前記受信側装置からの音声情
報を受信する毎に出力する装置であり、前記受信側装置
が、予め受信した画像情報を記憶する第2の記憶部を有
して、前記画像情報に関連する音声情報と手書き情報を
受信する毎に出力し、音声情報が入力される毎に前記送
信側装置に送信する装置であることを特徴とする通信対
話システム。
1. A transmission side device that transmits image information, voice information, and handwriting information and receives voice information, and a reception side device that receives image information, voice information, and handwriting information, and transmits voice information. In the communication dialogue system described above, the transmission side device has a first storage unit for storing image information, reads image information from the first storage unit in advance, and transmits the image information.
After that, it is a device that transmits every time the voice information and handwriting information related to the image information are input, and outputs each time the voice information from the receiving side device is received. A device having a second storage unit for storing image information, outputting voice information and handwriting information related to the image information each time the voice information is received, and transmitting the voice information to the transmission side device each time the voice information is input. A communication dialogue system characterized by:
【請求項2】 送信側装置と受信側装置が、画像情報と
手書き情報とを頁単位に関連付けて記憶する第1,2の
記憶部と、画像情報と手書き情報を表示する第1,2の
表示部とを有し、前記送信側装置が、入力された頁情報
に従って前記頁の画像情報と関連する手書き情報を前記
第1の記憶部から読み出して前記第1の表示部に表示
し、前記頁情報を前記受信側装置に送信する装置であ
り、前記受信側装置が、受信した頁情報に従って第2の
記憶部に記憶されている画像情報と関連する手書き情報
とを読み出して第2の表示部に表示する装置であること
を特徴とする請求項1記載の通信対話システム。
2. The transmission side device and the reception side device store the first and second storage units that store image information and handwriting information in association with each other on a page basis, and the first and second storage units that display image information and handwriting information. A display unit, the transmission side device, according to the input page information, reads the handwritten information associated with the image information of the page from the first storage unit, and displays it on the first display unit, A device for transmitting page information to the reception side device, wherein the reception side device reads out the image information stored in the second storage unit and the related handwriting information according to the received page information and displays the second display. The communication dialogue system according to claim 1, wherein the communication dialogue system is a device displayed on a section.
【請求項3】 送信側装置は、入力された画像情報を第
1の記憶部に記憶して送信し、受信側装置は、送信され
た画像情報を受信して第2の記憶部に記憶し、前記送信
側装置は、頁情報が入力されると当該頁の画像情報を第
1の記憶部から読み出して第1の表示部に表示し、前記
頁情報を前記受信側装置に送信し、前記受信側装置は、
受信した頁情報に従って第2の記憶部から該当する頁の
画像情報を読み出して第2の表示部に表示し、前記送信
側装置は、音声情報と手書き情報が入力されると前記手
書き情報を前記第1の表示部に表示するとともに前記音
声情報と前記手書き情報を前記受信側装置に送信して前
記手書き情報を前記頁に関連付けて前記第1の記憶部に
記憶し、前記受信側装置は、送信された音声情報と手書
き情報を受信して前記音声情報を出力するとともに前記
手書き情報を前記第2の表示部に表示し、前記手書き情
報を前記頁に関連付けて前記第2の記憶部に記憶し、前
記送信側装置は、前記頁情報が再度入力されると当該頁
の画像情報と関連する手書き情報を前記第1の記憶部か
ら読み出して前記第1の表示部に表示するとともに前記
頁情報を前記受信側装置に送信し、前記受信側装置は、
前記頁情報を受信すると当該頁の画像情報と関連する手
書き情報を前記第2の記憶部から読み出して前記第2の
表示部に表示することを特徴とする請求項2記載の通信
対話システムの制御方法。
3. The transmission side device stores the input image information in a first storage unit and transmits it, and the reception side device receives the transmitted image information and stores it in the second storage unit. When the page information is input, the transmission side device reads the image information of the page from the first storage unit and displays it on the first display unit, and transmits the page information to the reception side device, The receiving device is
According to the received page information, the image information of the corresponding page is read from the second storage unit and displayed on the second display unit, and when the voice information and the handwriting information are input, the transmission side device outputs the handwriting information. While displaying on the first display unit, the voice information and the handwriting information are transmitted to the reception side device, the handwriting information is stored in the first storage unit in association with the page, and the reception side device, The transmitted voice information and handwritten information are received, the voice information is output, the handwritten information is displayed on the second display unit, and the handwritten information is stored in the second storage unit in association with the page. Then, when the page information is input again, the transmission side device reads out handwritten information related to the image information of the page from the first storage unit, displays the handwritten information on the first display unit, and displays the page information. The said Send apparatus, the receiving-side apparatus,
3. The control of the communication dialogue system according to claim 2, wherein when the page information is received, the handwritten information related to the image information of the page is read from the second storage unit and displayed on the second display unit. Method.
JP7030196A 1995-01-27 1995-01-27 Interactive communication system and control method therefor Pending JPH08204877A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7030196A JPH08204877A (en) 1995-01-27 1995-01-27 Interactive communication system and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7030196A JPH08204877A (en) 1995-01-27 1995-01-27 Interactive communication system and control method therefor

Publications (1)

Publication Number Publication Date
JPH08204877A true JPH08204877A (en) 1996-08-09

Family

ID=12297004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7030196A Pending JPH08204877A (en) 1995-01-27 1995-01-27 Interactive communication system and control method therefor

Country Status (1)

Country Link
JP (1) JPH08204877A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7683925B2 (en) 2004-10-04 2010-03-23 Lg Electronics Inc. Mobile communication terminal for transmitting/receiving image data over group communication network and method for transmitting/receiving image data using the mobile communication terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7683925B2 (en) 2004-10-04 2010-03-23 Lg Electronics Inc. Mobile communication terminal for transmitting/receiving image data over group communication network and method for transmitting/receiving image data using the mobile communication terminal

Similar Documents

Publication Publication Date Title
JP4842033B2 (en) Image display apparatus and method for portable terminal
CA2160343C (en) System for computer supported collaboration
JP4443181B2 (en) Communication system and method
US7130618B2 (en) Method, apparatus, and system for transmitting moving image data
JPH07203404A (en) Image transmission device
CN101127874A (en) Apparatus and method for sharing video telephony screen in mobile communication terminal
EP1465423A1 (en) Videophone device and data transmitting/receiving method applied thereto
CA2205023C (en) Method and system for transmitting facsimile-coded data between communications terminals with multimedia capability
JPH09130767A (en) Image transmitter
CN101998104B (en) Generating method for video telephone and substitute video thereof
JPH08204877A (en) Interactive communication system and control method therefor
JPH07298235A (en) Video conference equipment and pointing cursor display control method
KR101328926B1 (en) Method of video telephony in Mobile Terminal
JPH099220A (en) Communication equipment and communication system
KR101077029B1 (en) Apparatus and Method for Transferring Video Data
JPH0775075A (en) Video telephone system
JPH06209470A (en) Video transmission processing unit
JP3286442B2 (en) Teleconference equipment
JPH06189301A (en) Video transmission processing device
KR100617564B1 (en) A method of multimedia data transmission using video telephony in mobile station
KR100426127B1 (en) Transmission system for moving pictures
KR100713388B1 (en) Device and method for declaring of intention in video telephone call of wireless terminal
JP2885227B2 (en) Image and audio synchronization processing device
JPH0823528A (en) Video telephone set
JP3030019B2 (en) Teleconference system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Effective date: 20031209

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Effective date: 20031211

Free format text: JAPANESE INTERMEDIATE CODE: A61

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101219

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees