JPH09101925A - Voice input and output control equipment - Google Patents

Voice input and output control equipment

Info

Publication number
JPH09101925A
JPH09101925A JP7258879A JP25887995A JPH09101925A JP H09101925 A JPH09101925 A JP H09101925A JP 7258879 A JP7258879 A JP 7258879A JP 25887995 A JP25887995 A JP 25887995A JP H09101925 A JPH09101925 A JP H09101925A
Authority
JP
Japan
Prior art keywords
voice
language
input
output
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7258879A
Other languages
Japanese (ja)
Inventor
Hiroshi Wakabayashi
浩 若林
Yasushi Suda
泰史 須田
Tomoyuki Kiyosue
悌之 清末
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP7258879A priority Critical patent/JPH09101925A/en
Publication of JPH09101925A publication Critical patent/JPH09101925A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide voice input/output control equipment with which a hearer can precisely control the words (language) of a speaker in voice communication using computers between networks. SOLUTION: The voice (language) in English inputted from a terminal 1 and the voice (language) in Japanese inputted from a terminal 2 are transmitted while being put on voice information packets. Concerning the voice information packet, the voice (language) to be inputted is registered in registered languages 59 before transmission. The user of a terminal 3 previously registers the language, that can be outputted from his own terminal, in a language identifier and only when this language is transmitted, that user outputs voices.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、パーソナルコンピ
ュータやワークステーションなどの計算機上で、計算機
ネットワークを介して、複数の参加者間での音声通信環
境を構築する技術分野に係り、入力された言葉(言語)
を利用者の意図する内容で出力するための音声入出力制
御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the technical field of constructing a voice communication environment between a plurality of participants via a computer network on a computer such as a personal computer or a workstation, and inputs the words. (language)
The present invention relates to a voice input / output control device for outputting a message with the content intended by the user.

【0002】[0002]

【従来の技術】本発明に関する従来技術として、公衆回
線やLAN(ローカルエリアネットワーク)を用いて音
声通信を行うシステムがあった。また多地点間で複数の
相手と音声通信が行える通信会議システムなどが実現さ
れていた。これらの音声通信を実現するシステムは、各
対地から入力された言葉(言語)を音声入出力制御装置
で切り替えながらそのまま出力するものであった。
2. Description of the Related Art As a conventional technique related to the present invention, there is a system for performing voice communication using a public line or a LAN (local area network). In addition, a communication conference system capable of performing voice communication with a plurality of parties between multiple points has been realized. The system that realizes these voice communications outputs a word (language) input from each ground while switching it by a voice input / output control device.

【0003】[0003]

【発明が解決しようとする課題】しかしこれらのシステ
ムは、入力された言葉(言語)に手を加えることなくそ
のまま出力しており、聞き手は、話し手の言葉(言語)
を理解するための細かい制御をすることが不可能であっ
た。
However, these systems output the input words (language) as they are without any modification, and the listener hears the words (language) of the speaker.
It was impossible to have fine control to understand.

【0004】本発明は上記の事情に鑑みてなされたもの
で、計算機を用いたネットワーク間での音声通信におい
て、聞き手が話し手の言葉(言語)の細かな制御を行な
える音声入出力制御装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and in a voice communication between networks using a computer, a voice input / output control device by which a listener can finely control the words (language) of the speaker. The purpose is to provide.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に本発明の音声入出力制御装置は、従来の音声入出力制
御装置に付加機能として、入力された言葉(言語)を識
別して聞き手の許可する言葉(言語)のみを出力させる
ことを可能とし、更に聞き手の許可する複数の異なった
言葉(言語)が同時に入力された時、一方の言葉(言
語)を最初に出力し、その言葉(言語)が出力終了後、
もう一方の言葉(言語)を出力することを可能とし、更
に入力される言葉(言語)毎に音声出力装置を割り振る
ことを可能とした制御が行なえるため従来の技術とは異
なる。
In order to achieve the above object, a voice input / output control device of the present invention identifies an input word (language) as an additional function to a conventional voice input / output control device and listens to the listener. It is possible to output only the words (languages) permitted by the user, and when a plurality of different words (languages) permitted by the listener are input at the same time, one of the words (language) is output first, and that word After (language) is output,
This is different from the conventional technique because it is possible to output the other word (language) and to control the voice output device to be allocated to each input word (language).

【0006】本発明によれば、計算機を用いたネットワ
ーク相互間で複数の相手との音声通信を行なう際、聞き
手が理解できない話し手の言葉(言語)を聞く必要はな
い。また複数の相手から異なった言葉(言語)が入力さ
れたとしても、時間差をつけて出力するため複数の相手
の言葉(言語)を容易に把握することが可能であり、ミ
キシングされた複数の言葉を同時に把握しなければなら
ないことはない。更に相手の入力した言葉(言語)を自
分の意図する音声出力装置に振り分けることが可能なた
め汎用性に優れている。
According to the present invention, when performing voice communication with a plurality of parties between networks using a computer, it is not necessary to hear the speaker's words (language) that the listener cannot understand. Also, even if different words (languages) are input from multiple people, it is possible to easily understand the words (languages) of multiple people because the words are output with a time difference, and it is possible to mix multiple words. There is no need to grasp Furthermore, the word (language) input by the other party can be distributed to the voice output device intended by the user, which is excellent in versatility.

【0007】[0007]

【発明の実施の形態】以下図面を参照して本発明の実施
の形態例を詳細に説明する。図1に実施形態例の適用効
果を示した一つ目の概念説明図を示す。図1は、3台の
計算機がネットワーク相互間で接続され、複数の端末か
ら異なった言語が入力された時の出力イメージを示して
いる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 shows a first conceptual explanatory diagram showing the application effects of the embodiment. FIG. 1 shows an output image when three computers are connected between networks and different languages are input from a plurality of terminals.

【0008】この場合、端末1から英語(A:Engl
ish)、端末2から日本語(B:Japanese)
を入力した際、端末3の設定で端末2からの日本語のみ
を出力している。即ち、端末1から入力された音声(言
語)英語と端末2から入力された音声(言語)日本語を
音声情報パケットに乗せて送信する。音声情報パケット
には図10に示すように入力する音声(言語)を送信前
に登録言語59に登録しておく。端末3の利用者は予め
自分の端末から出力可能とるする言語を言語識別器に登
録しておき、当該の言語が送信されてきた時のみ出力を
行う。図1では日本語のみが登録されており英語はキャ
ンセルされる。
In this case, from the terminal 1 English (A: Engl)
ish), Japanese from terminal 2 (B: Japanese)
When inputting, the terminal 3 is set to output only Japanese from the terminal 2. That is, the voice (language) English input from the terminal 1 and the voice (language) Japanese input from the terminal 2 are transmitted on the voice information packet. In the voice information packet, the voice (language) to be input as shown in FIG. 10 is registered in the registration language 59 before transmission. The user of the terminal 3 registers in advance a language that can be output from his / her terminal in the language discriminator, and outputs only when the relevant language is transmitted. In Figure 1, only Japanese is registered and English is canceled.

【0009】図2に実施形態例の適用効果を示した二つ
目の概念説明図を示す。図2は3台の計算機がネットワ
ーク相互間で接続され、同時に複数の端末から異なった
言語が入力された時の出力イメージを示している。
FIG. 2 shows a second conceptual explanatory view showing the application effect of the embodiment. FIG. 2 shows an output image when three computers are connected between networks and different languages are simultaneously input from a plurality of terminals.

【0010】この場合、端末1から英語(A:Engl
ish)、端末2から日本語(B:Japanese)
を入力した際、端末4の設定で端末2からの日本語を出
力した後、端末1からの英語を出力している。即ち、端
末1から入力された音声(言語)である英語と端末2か
ら入力された音声(言語)である日本語をネットワーク
を介して送信する。図1との相違点は、端末4の利用者
は予め自分の端末から出力可能とする複数の言語と出力
優先順位を登録しておき、当該の言語が同時に送信され
てきた時、言語識別器に登録された内容を参照しながら
出力を行う。
In this case, from the terminal 1 English (A: Engl)
ish), Japanese from terminal 2 (B: Japanese)
When inputting, the Japanese is output from the terminal 2 by the setting of the terminal 4, and then the English is output from the terminal 1. That is, English, which is the voice (language) input from the terminal 1, and Japanese, which is the voice (language) input from the terminal 2, are transmitted via the network. The difference from FIG. 1 is that the user of the terminal 4 registers in advance a plurality of languages that can be output from his / her terminal and the output priority, and when the languages are simultaneously transmitted, the language discriminator Output while referring to the contents registered in.

【0011】図3に実施形態例の適用効果を示した三つ
目の概念説明図を示す。図3は、3台の計算機がネット
ワーク相互間で接続され、複数の端末から異なった言語
が入力された時の出力イメージを示している。
FIG. 3 is a third conceptual explanatory view showing the application effect of the embodiment. FIG. 3 shows an output image when three computers are connected between networks and different languages are input from a plurality of terminals.

【0012】この場合、端末1から英語(A:Engl
ish)、端末2から日本語(B:Japanese)
を入力した際、端末5の設定で端末1の英語をAスピー
カから、端末2の日本語をBスピーカから出力してい
る。即ち、端末1から入力された音声(言語)英語と端
末2から入力された音声(言語)日本語を音声情報パケ
ットに乗せて送信する。図10に示す音声情報パケット
には、入力する音声(言語)を登録しておく。端末5の
利用者は予め自分の端末から出力可能とする言語と言語
毎の音声出力装置先を言語識別器に登録しておき、言語
識別器に登録された内容を参照しながら出力を行う。
In this case, from the terminal 1 English (A: Engl)
ish), Japanese from terminal 2 (B: Japanese)
When the user inputs, the terminal 5 outputs the English of the terminal 1 from the A speaker and the Japanese of the terminal 2 from the B speaker. That is, the voice (language) English input from the terminal 1 and the voice (language) Japanese input from the terminal 2 are transmitted on the voice information packet. The input voice (language) is registered in the voice information packet shown in FIG. The user of the terminal 5 registers in advance a language that can be output from his / her terminal and a voice output device destination for each language in the language discriminator, and outputs while referring to the content registered in the language discriminator.

【0013】図4は図1のシステム構成図、図5は図2
のシステム構成図、図6は図3のシステム構成図、図7
は図4のシステム構成の処理の流れ図、図8は図5のシ
ステム構成の処理の流れ図、図9は図6のシステム構成
の処理の流れ図である。
FIG. 4 is a system configuration diagram of FIG. 1, and FIG. 5 is FIG.
System configuration diagram of FIG. 6, FIG. 6 is a system configuration diagram of FIG.
4 is a flow chart of processing of the system configuration of FIG. 4, FIG. 8 is a flow chart of processing of the system configuration of FIG. 5, and FIG. 9 is a flow chart of processing of the system configuration of FIG.

【0014】図中、6は音声入力装置、7は音声情報入
力装置、8は音声出力装置、9はA/D変換器、10は
A/D変換器、11は音声入出力制御部、12は言語識
別器、13はネットワーク送信装置、14はネットワー
ク受信装置、15は計算機ネットワークケーブル、16
は音声入力装置、17は音声情報入力装置、18は音声
出力装置、19はA/D変換器、20はA/D変換器、
21は音声入出力制御部、22は言語識別器、23は遅
延発生器、24はネットワーク送信装置、25はネット
ワーク受信装置、26は計算機ネットワークケーブル、
27は音声入力装置、28は音声情報入力装置、29は
音声出力装置(左)、30は音声出力装置(右)、31
はA/D変換器、32はA/D変換器、33はA/D変
換器、34は音声入出力制御部、35は音声情報入力装
置28により入力された言語種別に基づき、音声入力装
置27から入力された言語の種類を判別する言語識別
器、36は音声出力分配器、37はネットワーク送信装
置、38はネットワーク受信装置、39は計算機ネット
ワークケーブルである。
In the figure, 6 is a voice input device, 7 is a voice information input device, 8 is a voice output device, 9 is an A / D converter, 10 is an A / D converter, 11 is a voice input / output control unit, 12 Is a language discriminator, 13 is a network transmitter, 14 is a network receiver, 15 is a computer network cable, 16
Is a voice input device, 17 is a voice information input device, 18 is a voice output device, 19 is an A / D converter, 20 is an A / D converter,
21 is a voice input / output control unit, 22 is a language discriminator, 23 is a delay generator, 24 is a network transmitter, 25 is a network receiver, 26 is a computer network cable,
27 is a voice input device, 28 is a voice information input device, 29 is a voice output device (left), 30 is a voice output device (right), 31
Is an A / D converter, 32 is an A / D converter, 33 is an A / D converter, 34 is a voice input / output control unit, and 35 is a voice input device based on the language type input by the voice information input device 28. A language discriminator for discriminating the type of language input from 27, a voice output distributor 36, a network transmitter 37, a network receiver 38, and a computer network cable 39.

【0015】図7の処理の流れと図4のシステム構成と
を関連付けながら説明する。話し手は、図4の音声情報
入力装置(PC)7から自分の話す言語を登録後、音声
入力装置(マイク)6により音声を入力する。入力され
た音声はA/D変換器9によりアナログディジタル変換
される。ネットワーク送信装置13は、図10の音声情
報パケット内に前記、登録言語59と音声データ61等
を乗せて計算機ネットワークケーブル15を介してマル
チキャストパケットにして送信する。ここまでが図7の
40の処理である。
The process flow of FIG. 7 and the system configuration of FIG. 4 will be described in association with each other. The speaker inputs his / her voice through the voice input device (microphone) 6 after registering his / her language to be spoken from the voice information input device (PC) 7 in FIG. The input voice is analog-digital converted by the A / D converter 9. The network transmission device 13 puts the registered language 59, the voice data 61, etc. in the voice information packet of FIG. 10 and transmits it as a multicast packet via the computer network cable 15. The processing up to this point is the processing of 40 in FIG. 7.

【0016】受け手は、音声情報パケットが送られてく
る前に予め、音声情報入力装置7を用いて言語識別器1
2に出力を許可する言語を登録しておく。話し手がマル
チキャストにしたパケットを送信するとネットワーク受
信装置14は、マルシチキャストパケットが到着してい
るか確認をする。ここまでが図7の41の処理である。
更にネットワーク受信装置14は、マルチキャストパケ
ットの中から音声情報パケットを抽出する。ここまでが
図7の42の処理である。次に言語識別器12は、図1
0の音声情報パケット内の登録言語59と受け手の許可
する言語とを照らし合わせる。この時、許可した言語と
送られてきた言語が一致すれば音声データを取り込み、
許可されていない言語であれば、音声データは破棄され
る。ここまでが図7の43の処理である。取り込まれた
音声データはA/D変換器10によりアナログに変換さ
れ音声出力装置8を介して出力される。ここまでが図7
の44の処理である。
Before the voice information packet is sent, the receiver uses the voice information input device 7 in advance to identify the language discriminator 1.
Register the language that allows output in 2. When the speaker transmits the multicast packet, the network receiver 14 confirms whether the multicast packet has arrived. The processing up to this point is the processing of 41 in FIG. 7.
Further, the network receiving device 14 extracts the voice information packet from the multicast packet. The processing up to this point is the processing of 42 in FIG. 7. Next, the language discriminator 12 is shown in FIG.
The registered language 59 in the voice information packet of 0 is compared with the language permitted by the receiver. At this time, if the permitted language and the sent language match, import the voice data,
If the language is not allowed, the voice data will be discarded. The processing up to this point is the processing of 43 in FIG. 7. The captured voice data is converted into analog by the A / D converter 10 and output via the voice output device 8. Fig. 7
44 processing.

【0017】図8の処理の流れと図5のシステム構成と
を関連付けながら説明する。話し手は、図5の音声情報
入力装置(PC)17から自分の話す言語を登録後、音
声入力装置(マイク)16により音声を入力する。入力
された音声はA/D変換器19によりアナログディジタ
ル変換される。ネットワーク送信装置24は、図10の
音声情報パケット内に前記、登録言語59と音声データ
61等を乗せて計算機ネットワークケーブル26を介し
てマルチキャストパケットに送信する。ここまでが図8
の45の処理である。
The process flow of FIG. 8 and the system configuration of FIG. 5 will be described in association with each other. The speaker inputs his / her voice through the voice input device (microphone) 16 after registering his / her language to be spoken from the voice information input device (PC) 17 of FIG. The input voice is analog-digital converted by the A / D converter 19. The network transmission device 24 puts the registration language 59, the voice data 61 and the like in the voice information packet of FIG. 10 and transmits the voice information packet to the multicast packet via the computer network cable 26. Figure 8 up to here
Process 45.

【0018】受け手は、音声情報パケットが送られてく
る前に予め、音声情報入力装置17を用いて言語識別器
22に出力を許可する言語と許可された複数の言語が同
時入力された場合に言語の混在出力がないように遅延さ
せて出力するための出力優先順位情報を登録しておく。
Before the voice information packet is sent, the receiver uses the voice information input device 17 to previously input a language to be output to the language discriminator 22 and a plurality of permitted languages at the same time. Register output priority information for delayed output so that there is no mixed language output.

【0019】話し手がマルチキャストにしたパケットを
送信するとネットワーク受信装置25は、マルチキャス
トパケットが到着しているか確認をする。ここまでが図
8の46の処理である。更にネットワーク受信装置25
は、マルチキャストパケットの中から音声情報パケット
を抽出する。ここまでが図8の47の処理である。次に
言語識別器22は、図10の音声情報パケット内の登録
言語59と受け手の許可する言語とを照らし合わせる。
この時、許可した言語と送られてきた言語が一致すれば
音声データを取り込み、許可されていない言語であれ
ば、音声データは破棄される。ここまでが図8の48の
処理である。次に遅延発生器23は、許可された異なる
複数の言語が同時間に入力されたかどうか確認する。こ
こまでが図8の49の処理である。
When the speaker transmits the multicast packet, the network receiver 25 confirms whether the multicast packet has arrived. The processing up to this point is the processing of 46 in FIG. Further, the network receiver 25
Extracts voice information packets from the multicast packets. The processing up to this point is the processing of 47 in FIG. Next, the language discriminator 22 compares the registered language 59 in the voice information packet of FIG. 10 with the language permitted by the receiver.
At this time, if the permitted language and the sent language match, the voice data is taken in, and if the language is not permitted, the voice data is discarded. The processing up to this point is the processing of 48 in FIG. Next, the delay generator 23 checks whether or not different permitted languages are input at the same time. The processing up to this point is the processing of 49 in FIG.

【0020】同時間帯に入力された場合は、予め登録し
ておいた優先順位情報を基に遅延を発生させる。ここま
でが図8の50の処理である。取り込まれた音声データ
はA/D変換器20によりディジタルアナログ変換され
音声出力装置18を介して遅延しながら出力される。こ
こまでが図8の51の処理である。
When the input is made in the same time period, a delay is generated based on the priority information registered in advance. The processing up to this point is the processing of 50 in FIG. The captured voice data is digital-analog converted by the A / D converter 20 and output via the voice output device 18 with a delay. The processing up to this point is the processing of 51 in FIG.

【0021】図9の処理の流れと図6のシステム構成と
を関連付けながら説明する。話し手は、図6の音声情報
入力装置(PC)28から自分の話す言語を登録後、音
声入力装置(マイク)27により音声を入力する。入力
された音声はA/D変換器33によりアナログディタル
変換される。ネットワーク送信装置37は、図10の音
声情報パケット内に前記、登録言語59と音声データ6
1等を乗せて計算機ネットワークケーブル39を介して
マルチキャストパケットにして送信する。ここまでが図
9の52の処理である。
The process flow of FIG. 9 and the system configuration of FIG. 6 will be described in association with each other. The speaker inputs his / her voice with the voice input device (microphone) 27 after registering his / her language to be spoken from the voice information input device (PC) 28 of FIG. 6. The input voice is analog-digital converted by the A / D converter 33. The network transmission device 37 uses the registration language 59 and the voice data 6 in the voice information packet of FIG.
1 and so on are transmitted as a multicast packet via the computer network cable 39. The processing up to this point is the processing of 52 in FIG.

【0022】受け手は、音声情報パケットが送られてく
る前に予め、音声情報入力装置28を用いて言語識別器
35に出力を許可する言語と許可された複数の言語毎の
音声出力装置名の情報を登録しておく。
Before the voice information packet is sent, the receiver uses the voice information input device 28 in advance to specify the language for which the language discriminator 35 is permitted to output and the name of the voice output device for each of the permitted languages. Register the information.

【0023】話し手がマルチキャストにしたパケットを
送信するとネットワーク受信装置38は、マルチキャス
トパケットが到着しているか確認をする。ここまでが図
9の53の処理である。更にネットワーク受信装置38
は、マルチキャストパケットの中から音声情報パケット
を抽出する。ここまでが図9の54の処理である。次に
言語識別器35は、図10の音声情報パケット内の登録
言語59と受け手の許可する言語とを照らし合わせる。
When the speaker transmits the multicast packet, the network receiver 38 confirms whether the multicast packet has arrived. The processing up to this point is the processing of 53 in FIG. Further, the network receiver 38
Extracts voice information packets from the multicast packets. The processing up to this point is the processing of 54 in FIG. Next, the language discriminator 35 compares the registered language 59 in the voice information packet of FIG. 10 with the language permitted by the receiver.

【0024】この時、許可した言語と送られてきた言語
が一致すれば音声データを取り込み、許可されていない
言語であれば、音声データは破棄される。ここまでが図
9の55の処理である。次に音声出力分配器(ミキサ
ー)36は、言語識別器35に登録しておいた言語毎の
音声出力装置名の情報を基に音声データを分配する。分
配された音声データはA/D変換器31,32でディジ
タルアナログ変換し当該の音声出力装置(左スピーカ)
29、音声出力装置(右スピーカ)30からそれぞれの
言語で出力する。ここまでが図9の56の処理である。
At this time, if the permitted language and the sent language match, the voice data is taken in, and if the language is not permitted, the voice data is discarded. The processing up to this point is the processing of 55 in FIG. Next, the audio output distributor (mixer) 36 distributes the audio data based on the information of the audio output device name for each language registered in the language identifier 35. The distributed audio data is digital-analog converted by A / D converters 31 and 32, and the corresponding audio output device (left speaker)
29, the audio output device (right speaker) 30 outputs in each language. The processing up to this point is the processing of 56 in FIG.

【0025】図10に音声情報パケットのフォーマット
図を示す。音声情報転送パケットは、話し手の送る実際
の音声データ(データ部)にヘッダ(制御情報)(ヘッ
ダ部)を付加して相手に送る。
FIG. 10 shows a format diagram of the voice information packet. The voice information transfer packet adds a header (control information) (header portion) to the actual voice data (data portion) sent by the speaker and sends it to the other party.

【0026】図10のヘッダ部内の57はUDP/IP
ヘッダであり、57のUDPは、相互接続されたパケッ
ト交換ネットワークにおいて、ホストのプロセス同士が
通信オーバーヘッドを少なくして高速通信を行う為のコ
ネクションレスの簡易なプロトコルである。また57の
IPは、データグラム(データのかたまり)を目的地か
ら宛先に相互接続されたパケット交換ネットワークを経
由し、上位層に網のプロトコルを意識することなく利用
できるプロトコルである。
Reference numeral 57 in the header portion of FIG. 10 is UDP / IP.
The UDP, which is a header, is a simple connectionless protocol for performing high-speed communication between host processes in a mutually connected packet switching network with a small communication overhead. Further, the IP 57 is a protocol that allows a datagram (a block of data) to be used via a packet switching network interconnected from a destination to a destination without being aware of the protocol of the network in an upper layer.

【0027】図10のデータ部内にある 58のシーケ
ンス番号は、音声パケットの送信番号を示す。59の登
録言語は、話し手が音声入力する際に用いいる言語名を
示す。60の音声データ長は実際に送る音声データのデ
ータ長を示す。61の音声データは文字通り音声の実体
データである。
The sequence number 58 in the data section of FIG. 10 indicates the transmission number of the voice packet. The registered language of 59 indicates a language name used when the speaker inputs a voice. The voice data length of 60 indicates the data length of voice data actually sent. The voice data 61 is literally the actual voice data.

【0028】[0028]

【発明の効果】以上述べたように本発明に係わる音声入
出力制御装置は、計算機を用いたネットワーク相互間で
複数の相手との音声通信を行う際、聞き手が理解できな
い話し手の言葉(言語)の出力を予め防止することが可
能である。
As described above, in the voice input / output control device according to the present invention, when performing voice communication with a plurality of parties between networks using a computer, the speaker's words (language) that the listener cannot understand. Can be prevented in advance.

【0029】また複数の相手から異なった言葉(言語)
が入力されたとしても、時間差をつけて出力することに
より複数の相手の言葉(言語)を容易に把握することが
可能である。
Different words (languages) from multiple parties
Even if is input, it is possible to easily understand the words (languages) of a plurality of opponents by outputting with a time difference.

【0030】更に相手の入力した言葉(言語)を自分の
意図する音声出力装置に振り分けることが可能なため聞
き手にとって汎用性に優れた音声出力を実現することが
可能である。
Furthermore, since the words (language) input by the other party can be distributed to the voice output device intended by the other party, it is possible to realize a voice output excellent in versatility for the listener.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態例に係る3台の計算機がネッ
トワーク相互間で接続され、複数の端末から異なった言
語が入力された時の出力イメージ図であり実施形態例の
適用効果を示した一つ目の概念説明図である。
FIG. 1 is an output image diagram when three computers according to an exemplary embodiment of the present invention are connected to each other between networks and different languages are input from a plurality of terminals, and the application effect of the exemplary embodiment is shown. It is the 1st conceptual explanatory drawing.

【図2】本発明の実施形態例に係る3台の計算機がネッ
トワーク相互間で接続され、同時に複数の端末から異な
った言語が入力された時の出力イメージであり実施形態
例の適用効果を示した二つ目の概念説明図である。
FIG. 2 is an output image when three computers according to the exemplary embodiment of the present invention are connected to each other between networks and different languages are simultaneously input from a plurality of terminals, and show application effects of the exemplary embodiment. It is a second conceptual explanatory diagram.

【図3】本発明の実施形態例に係る3台の計算機がネッ
トワーク相互間で接続され、複数の端末から異なった言
語が入力された時の出力イメージであり実施形態例の適
用効果を示した三つ目の概念説明図である。
FIG. 3 is an output image when three computers according to the exemplary embodiment of the present invention are connected to each other between networks and different languages are input from a plurality of terminals, and show application effects of the exemplary embodiment. It is a 3rd conceptual explanatory drawing.

【図4】図1のシステム構成図である。FIG. 4 is a system configuration diagram of FIG. 1.

【図5】図2のシステム構成図である。FIG. 5 is a system configuration diagram of FIG.

【図6】図3のシステム構成図である。6 is a system configuration diagram of FIG.

【図7】図4のシステム構成の処理の流れ図である。7 is a flow chart of processing of the system configuration of FIG.

【図8】図5のシステム構成の処理の流れ図である。8 is a flow chart of processing of the system configuration of FIG.

【図9】図6のシステム構成の処理の流れ図である。9 is a flowchart of the processing of the system configuration of FIG.

【図10】本発明の実施形態例に係る音声情報パケット
内の構成(フォーマット)図である。
FIG. 10 is a configuration (format) diagram in a voice information packet according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…端末、2…端末、3…端末、4…端末、5…端末、
6…音声入力装置、7…音声情報入力装置、8…音声出
力装置、9…A/D変換器、10…A/D変換器、11
…音声入出力制御部、12…言語識別器、13…ネット
ワーク送信装置、14…ネットワーク受信装置、15…
計算機ネットワークケーブル、16…音声入力装置、1
7…音声情報入力装置、18…音声出力装置、19…A
/D変換器、20…A/D変換器、21…音声入出力制
御部、22…言語識別器、23…遅延発生器、24…ネ
ットワーク送信装置、25…ネットワーク受信装置、2
6…計算機ネットワークケーブル、27…音声入力装
置、28…音声情報入力装置、29…音声出力装置
(左)、30…音声出力装置(右)、31…A/D変換
器、32…A/D変換器、33…A/D変換器、34…
音声入出力制御部、35…言語識別器、36…音声出力
分配器、37…ネットワーク送信装置、38…ネットワ
ーク受信装置、39…計算機ネットワークケーブル、5
7…UDP/IPヘッダ、58…シーケンス番号、59
…登録言語、60…音声データ長、61…音声データ。
1 ... terminal, 2 ... terminal, 3 ... terminal, 4 ... terminal, 5 ... terminal,
6 ... Voice input device, 7 ... Voice information input device, 8 ... Voice output device, 9 ... A / D converter, 10 ... A / D converter, 11
... voice input / output control unit, 12 ... language discriminator, 13 ... network transmitting device, 14 ... network receiving device, 15 ...
Computer network cable, 16 ... Voice input device, 1
7 ... Voice information input device, 18 ... Voice output device, 19 ... A
A / D converter, 20 ... A / D converter, 21 ... Voice input / output control unit, 22 ... Language discriminator, 23 ... Delay generator, 24 ... Network transmitting device, 25 ... Network receiving device, 2
6 ... Computer network cable, 27 ... Voice input device, 28 ... Voice information input device, 29 ... Voice output device (left), 30 ... Voice output device (right), 31 ... A / D converter, 32 ... A / D Converter, 33 ... A / D converter, 34 ...
Voice input / output control unit, 35 ... Language discriminator, 36 ... Voice output distributor, 37 ... Network transmitting device, 38 ... Network receiving device, 39 ... Computer network cable, 5
7 ... UDP / IP header, 58 ... Sequence number, 59
... Registered language, 60 ... Voice data length, 61 ... Voice data.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 計算機を用いたネットワーク相互間で音
声情報パケットを送受信しながら音声通信を実現する音
声入出力制御装置において、該装置の送信部では、入力
する音声の言語種別を登録する手段と、該登録された言
語種別を音声パケット内に挿入する手段を有し、該装置
の受信部では、出力を許可する言語種別を登録する手段
と、言語種別を識別する手段とを有し、所望の言語で音
声が入力された時のみ、自装置から音声出力を行うこと
を特徴とする音声入出力制御装置。
1. A voice input / output control device for realizing voice communication while transmitting and receiving voice information packets between networks using a computer, wherein a transmitter of the device includes means for registering a language type of an input voice. , A means for inserting the registered language type into a voice packet, and a receiving unit of the apparatus having means for registering a language type for which output is permitted and means for identifying the language type, A voice input / output control device that outputs voice from its own device only when voice is input in the language.
【請求項2】 計算機を用いたネットワーク相互間で音
声情報パケットを送受信しながら音声通信を実現する音
声入出力制御装置において、該装置の送信部では、入力
する音声の言語種別を登録する手段と、該登録された言
語種別を音声パケット内に挿入する手段を有し、該装置
の受信部では、出力の優先順位を登録する手段と、送ら
れてきた音声パケットを記憶する手段と、言語種別を識
別する手段とを有し、複数の異なった言語で音声が同時
に入力した時、出力優先順位に基づいて音声を出力する
ことを特徴とする音声入出力制御装置。
2. A voice input / output control device for realizing voice communication while transmitting and receiving voice information packets between networks using a computer, wherein a transmitter of the device includes means for registering a language type of an input voice. , A means for inserting the registered language type into a voice packet, and a receiving unit of the apparatus, a means for registering an output priority order, a means for storing the transmitted voice packet, and a language type A voice input / output control device which outputs a voice based on an output priority when voices are simultaneously input in a plurality of different languages.
【請求項3】 計算機を用いたネットワーク相互間で音
声情報パケットを送受信しながら音声通信を実現する音
声入出力制御装置において、該装置の送信部では、入力
する音声の言語種別を登録する手段と、該登録された言
語種別を音声パケット内に挿入する手段を有し、該装置
の受信部では、言語種別を識別する手段と、複数の音声
出力装置を有し、入力された音声を言語毎に所望の音声
出力装置に振り分けて出力することを特徴とする音声入
出力制御装置。
3. A voice input / output control device for realizing voice communication while transmitting and receiving voice information packets between networks using a computer, wherein a transmitter of the device includes means for registering a language type of input voice. , A unit for inserting the registered language type into a voice packet, and a receiving unit of the apparatus having a unit for identifying the language type and a plurality of voice output devices, for input speech for each language. A voice input / output control device, wherein the voice input / output control device distributes and outputs to a desired voice output device.
JP7258879A 1995-10-05 1995-10-05 Voice input and output control equipment Pending JPH09101925A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7258879A JPH09101925A (en) 1995-10-05 1995-10-05 Voice input and output control equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7258879A JPH09101925A (en) 1995-10-05 1995-10-05 Voice input and output control equipment

Publications (1)

Publication Number Publication Date
JPH09101925A true JPH09101925A (en) 1997-04-15

Family

ID=17326306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7258879A Pending JPH09101925A (en) 1995-10-05 1995-10-05 Voice input and output control equipment

Country Status (1)

Country Link
JP (1) JPH09101925A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091756A (en) * 2000-06-15 2002-03-29 Internatl Business Mach Corp <Ibm> System and method for simultaneously providing a large number of acoustic information sources
US7120573B2 (en) 2000-11-13 2006-10-10 Kabushiki Kaisha Square Enix Message processing for handling unsupported character codes

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091756A (en) * 2000-06-15 2002-03-29 Internatl Business Mach Corp <Ibm> System and method for simultaneously providing a large number of acoustic information sources
US7120573B2 (en) 2000-11-13 2006-10-10 Kabushiki Kaisha Square Enix Message processing for handling unsupported character codes

Similar Documents

Publication Publication Date Title
US6157401A (en) End-point-initiated multipoint videoconferencing
US6526445B1 (en) Method and apparatus to provide a backchannel for receiver terminals in a loosely-coupled conference
US6163531A (en) Method and apparatus to throttle connections to a H.323 multipoint controller by receiver terminals in a loosely-coupled conference
US7221660B1 (en) System and method for multicast communications using real time transport protocol (RTP)
US6167033A (en) Multiple-party network communication system and method of troubleshooting thereof
JP4486902B2 (en) Network system and gateway device
US7006616B1 (en) Teleconferencing bridge with EdgePoint mixing
KR100278574B1 (en) Distributed architecture for services in a telephony system
EP1393588B1 (en) Packet mode speech communication
KR100247721B1 (en) Gateway having connection to voice and data networks
CA2143591C (en) Teleconferencing audio bridge
EP1246395B1 (en) Token passing arrangement for a conference call bridge arrangement
US20060067499A1 (en) Method and apparatus for querying a list of participants in a conference
JP2003506906A (en) Speaker identification for conference calls
US20060067500A1 (en) Teleconferencing bridge with edgepoint mixing
US20020141383A1 (en) Conference call bridge arrangement
US5610920A (en) Coupling of voice and computer resources over networks
WO2000060809A8 (en) Apparatus and method for establishing an audio conference in a networked environment
TW200828867A (en) Communication system
GB9900059D0 (en) Concurrent IP based voice and data services via wireless networks
US20050122389A1 (en) Multi-conference stream mixing
JPH09101925A (en) Voice input and output control equipment
JP2002009846A (en) Communication system employing multimedia proxy server
KR20050001455A (en) A method and apparatus for processing calls in a core packet network using a half-call model
JP2003069720A (en) Communication method and communication control device