JPH0983655A - 音声対話システム - Google Patents

音声対話システム

Info

Publication number
JPH0983655A
JPH0983655A JP7237079A JP23707995A JPH0983655A JP H0983655 A JPH0983655 A JP H0983655A JP 7237079 A JP7237079 A JP 7237079A JP 23707995 A JP23707995 A JP 23707995A JP H0983655 A JPH0983655 A JP H0983655A
Authority
JP
Japan
Prior art keywords
terminal
voice
server
voice signal
terminals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7237079A
Other languages
English (en)
Inventor
Naohisa Kawaguchi
尚久 川口
Kazuki Matsui
一樹 松井
Takashi Ono
敬史 大野
Akinori Iwakawa
明則 岩川
Hiroaki Harada
裕明 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP7237079A priority Critical patent/JPH0983655A/ja
Priority to US08/712,317 priority patent/US5930752A/en
Publication of JPH0983655A publication Critical patent/JPH0983655A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6481Speech, voice
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6489Buffer Management, Threshold setting, Scheduling, Shaping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6494Silence suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols

Abstract

(57)【要約】 【課題】 本発明は、コンピュータおよびコンピュータ
ネットワークを利用したオンラインチャットシステムに
おける、音声によって複数のユーザが対話する音声対話
システムに関し、ユーザ間の通信量を適切に制御する。 【解決手段】 音声を音声信号に変換する音声入力手段
および音声信号を音声に変換する音声出力手段を備え
た、通信回線に接続される複数の端末と、通信回線を介
してこれら複数の端末と接続され、該端末との間で音声
信号の収集、配信を行なうサーバとを備え、前記サーバ
が、前記端末から送信されてきた音声信号をバッファリ
ングするメモリと、該メモリにバッファリングされた音
声信号の配信を制御するスケジューラとを備えた。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、コンピュータおよ
びコンピュータネットワークを利用したオンラインチャ
ットシステムにおける、音声によって複数のユーザが対
話する音声対話システムに関する。
【0002】
【従来の技術】コンピュータネットワークの普及によ
り、ネットワーク上で複数のユーザが会話することで、
作業を進めたり、ゲームを行なったり、生活情報を交換
するということが容易になってきた。このため、一般ユ
ーザでもこのような、ネットワーク会話システム(チャ
ットシステム)に参加できるように、キーボードに換わ
る、もっと簡単な入力手段が求められている。
【0003】従来のチャットシステムにおいては、キー
ボードを操作することで、文章を入力し、これを送信す
ることで会話を行なっていた。ところが、一般ユーザに
とっては、かな漢字変換などのキーボード操作は非常に
難しいことであり、このため入力速度が遅くなり、会話
の流れについていけないという問題点があった。この問
題を解決するために、音声により会話するシステムも開
発されている。
【0004】図61は、従来の音声対話システムの構成
図である。ここでは簡単のため、端末は端末Aと端末B
との2台のみ示されており、これらの端末A,B間で対
話が行なわれるものとする。各端末A,Bには、音声を
音声信号に変換する、マイクロホン等の音声入力手段1
1A,11B、および音声信号を音声に変換する、スピ
ーカ等の音声出力手段12A,12Bが備えられてお
り、通信回線1を介して、ルータ2の制御に基づいて端
末Aと端末Bが接続され、音声信号を送受信することに
より端末A,B間での対話が行なわれる。
【0005】しかしながら、従来のこのような音声対話
システムでは、通信路のバンド幅が不足することから、
2者〜4者間で対話を行なうことのできるシステムしか
存在しない。
【0006】
【発明が解決しようとする課題】従って、複数のユーザ
がネットワークを通して会話するためには、ユーザの増
加に従って増える音声データをどのようにして削減する
かが課題である。本発明は、上記事情に鑑み、ユーザ間
の通信量を適切に制御するのに好適な音声対話システム
を提供することを目的とする。
【0007】
【課題を解決するための手段】上記目的を達成する本発
明の音声対話システムは、音声を音声信号に変換する音
声入力手段および音声信号を音声に変換する音声出力手
段を備えた、通信回線に接続される複数の端末と、通信
回線を介してこれら複数の端末と接続され、これらの端
末との間で音声信号の収集および配信を行なうサーバと
を備え、これら複数の端末間で音声を用いて対話を行な
う音声対話システムにおいて、上記サーバが、端末から
送信されてきた音声信号をバッファリングするメモリ
と、そのメモリにバッファリングされた音声信号の配信
を制御するスケジューラとを備えたことを特徴とする。
【0008】ここで、上記スケジューラは、音声信号の
配信順序を制御するものであってもよい。図1は、この
態様の原理図である。この図、および、一部の図を除き
以下の各図においても、端末は代表的に2台のみ図示す
る。
【0009】ここでは、図1に示すように、それぞれの
端末A,Bより送信されて来た発言を、制御部23を用
いて、サーバ20内のバッファメモリ21A,21Bに
記憶し、それぞれの発言をスケジューラ22により適当
に順序付けし、順に、各端末A,Bに配信する。ここで
は、解りやすさのため、バッファメモリは、各端末A,
Bに対応させて端末数と同数図示してある。
【0010】これにより、複数の端末A,Bより同時に
発言が行われた場合に、各端末A,Bにそれらの発言が
並行して着信することで回線1のバンド幅を越えてしま
い、発言が不自然に途切れたりするという問題点を回避
することができる。また、各端末A,Bにおいて複数の
発言が平行して着信する、あるいは各端末A,Bにおい
て複数の発言をミキシングするという処理の手間も省く
ことができる。尚、この図1には、各端末A,Bを制御
する制御部13A,13Bも図示されている。
【0011】本発明の音声対話システムにおいて、上記
サーバが、音声を同時に送信する同時発言者数管理手段
を備え、上記端末からの、所定の数を越える音声信号の
同時送信を禁止するものであることが好ましい。図2
は、この態様を示す原理図である。ここには、図2に示
すように、それぞれの端末A,Bより発言を行う場合、
まず、発言要求手段14A,14Bにより、サーバ20
に対して発言したいという要求を伝える。サーバ20で
は、同時発言者数管理手段24に、予め、同時に発言で
きる人数を回線1のバンド幅などを考慮して設定してお
く。例えば、3人までなら、同時発言者数管理手段24
に3を設定しておく。端末より発言要求が来たならば、
この同時発言者数管理手段24に保持されている数値を
確認し、1以上なら、その端末A,Bに許可通知を与え
るとともに、数値を−1する。もし、数値が既に0とな
っていたならば、どれかの端末から発言終了通知が来る
まで待つ。
【0012】端末側では、許可通知を受信したら、発言
許可表示手段15A,15Bにより、ユーザに発言を行
っても良いことを知らせる。ユーザはこの表示を確認の
後、発言を開始し、発言完了後に、発言終了通知手段1
6A,16Bにより、サーバ20に対し発音終了を通知
する。サーバ側では、発言終了通知を受信したならば、
同時発言者管理手段24に保持されている数値を+1す
る。
【0013】本発明の音声対話システムでは、サーバも
しくは端末が、端末から送信されてきた音声信号の無音
部分を検出する無音部分検出手段を備え、スケジューラ
が、音声信号が無音部分により分離されてなる各発言単
位毎に配信順序を制御するものであることが好ましい。
図3は、この態様を示す原理図である。
【0014】図3に示すように、それぞれの端末より送
信されてきた発言を、制御部23を用いて、サーバ20
内のバッファメモリ21A,21Bに記憶し、無音部検
出手段に25により、バッファメモリ21A,21B内
のPCMデータを調べることにより、音量の大きさを計
測し、音量が予め設定された値より小さい期間が、予め
設定された時間より長ければ、この部分で発言を分割
し、それぞれの発言をスケジューラにより適当に順序付
けし、順に、すべての端末に配信する。
【0015】これにより、本発明の基本的な利点に加
え、発言の切れ目を見付けて、その切れ目で他の発言に
切り替えることができるので、無音部分で無駄に占有さ
れることを防ぐことが可能となる。本発明の音声対話シ
ステムでは、上記スケジューラが、音声信号がサーバに
到着した時刻順に音声信号がサーバから配信されるよう
に、音声信号の配信順序を制御するものであることも好
ましい態様である。
【0016】図4は、この態様を示す原理図である。図
4に示すように、それぞれの端末より送信されてきた発
言を、制御部23を用いてサーバ20内のバッファメモ
リ21A,21Bに記憶し、さらに、発言の受信開始時
の時刻を、各バッファメモリ21A,21Bに記憶して
おく。スケジューラ22においては、もし、現在、送信
中の発言があれば、それを続行する。もし、送信完了し
ていれば、全てのバッファメモリ21A,21Bの中
で、受信開始時刻の早いものを、発言の区切りまで、す
べての端末に送信する。
【0017】これにより、本発明の基本的な利点に加
え、さらに、時間軸に沿った会話が可能になるという利
点がある。本発明の音声対話システムでは、上記サーバ
が、端末の内部時刻の送信を指示するコマンドを端末に
送信する手段を備え、端末が、そのコマンドに応答して
自分の内部時刻をサーバに送信する手段と、音声信号を
サーバに送信するに際して、その音声信号に送信時の自
分の内部時刻を付して送信する手段とを備え、上記スケ
ジューラが、音声信号が端末から発信された時刻順に音
声信号がサーバから配信されるように、音声信号の配信
順序を制御するものであることも好ましい態様である。
【0018】図5は、この態様を示す原理図である。図
5に示すように、端末A,Bがサーバ20に接続された
時点で、サーバ20内の内部時間補正値計算部27が起
動され、まず、サーバ20より、端末A,Bに向かっ
て、端末A,Bのローカルな時刻を内部時計17A,1
7Bより読み取り、その時刻をサーバ20に対して送信
するよう指示する。この指示を出した時刻をTsとす
る。サーバ20では、この指示に応答して、端末A,B
のローカルな時刻が端末A,Bより報告されるのを待
つ。端末A,Bから報告が得られたら、この時刻をTe
とし、報告された端末A,Bのローカルな時刻をT1と
すると、サーバ20の内部時計26とある端末A,Bの
内部時計17A,17Bの差分は、内部時間補正値Td
=Ts+(Te−Ts)/2−T1となる。この値をす
べての端末A,Bについて計算して、各バッファ21
A,21Bの内部時間補正値メモリに記録する。
【0019】各端末A,Bにおいて、発言が行なわれた
時刻Txを内部時計17A,17Bにより計測し、その
時刻を付加してサーバ20に送信する。これにより、サ
ーバ20において、各端末A,Bから送信されてきた発
言の実際に行われた時刻を、Tx−Tdにより、サーバ
内部時計の時刻に補正することができる。各端末A,B
からの発言をバッファ21A,21Bに格納するときに
は、端末A,Bより送信された内部時刻を、内部時間補
正値を用いて、サーバ内部時刻に補正し、補正済受信開
始時刻メモリに記憶する。スケジューラ22は、発言が
実際に行われた順に従って、各発言を順次、すべての端
末A,Bに送信することができる。
【0020】これにより、本発明の基本的な利点に加
え、より厳密に誰が最初に発言を行なったかを決定する
ことができるので、早いもの順で行なうサービス、例え
ば、クイズのようなサービスも公正に行なうことが可能
になる。本発明の音声対話システムでは、上記サーバが
音声信号をミキシングするミキサを備えることが好まし
い。
【0021】図6は、この態様を示す原理図である。図
6に示すように、それぞれの端末A,Bより送信されて
きた発言を、サーバ20内のバッファメモリ21A,2
1Bに記憶し、それぞれの発言をミキサ29により、1
つの音声にミキシングして一旦出力バッファエリア28
に格納した後、すべての端末A,Bに配信する。
【0022】これにより、複数の端末A,Bより同時に
発言が行なわれた場合に、各端末A,Bに、それらの発
言が並行して着信することで、回線1のバンド幅を越え
てしまい、発言が不自然に途切れたりするという問題を
回避することができる。また、各端末A,Bにおいて、
並行して着信する、あるいは、複数の発言をミキシング
するという処理の手間も省くことができる。
【0023】本発明の音声対話システムでは、上記スケ
ジューラが、音声信号がサーバに到達した時刻に基づい
て、音声信号の配信時刻を制御するものであることも好
ましい態様である。図7は、この態様を示す原理図であ
る。図7に示すように、それぞれの端末A,Bより送信
されてきた発言を、サーバ20内のバッファメモリ21
A,21Bに記憶し、さらに発言の受信開始時の時刻
を、各バッファ21A,21Bに記憶しておく。ミキサ
29は、受信開始時刻を参照して各発言を時系列に揃
え、同時刻の音をミキシングして出力バッファエリア2
8に一旦格納する。スケジューラ22は、同時刻の発言
はミキシングされて、各発言を時刻順に配信する。
【0024】これにより、本発明の基本的な利点に加
え、各発言を時刻順に揃えてミキシングすることが可能
になる。本発明の音声対話システムでは、上記サーバ
が、端末の内部時刻の送信を指示するコマンドを端末に
送信する手段を備え、端末が、そのコマンドに応答して
自分の内部時刻をサーバに送信する手段と、音声信号を
サーバに送信するに際して、音声信号に送信時の自分の
内部時刻を付して送信する手段とを備え、上記スケジュ
ーラが、音声信号が端末から発信された時刻に基づい
て、音声信号の配信時刻を制御するものであることも好
ましい態様である。
【0025】図8は、この態様を示す原理図である。図
8に示すように、端末A,Bがサーバ20に接続された
時点で、まず、サーバ20より、端末A,Bに向かっ
て、端末A,Bのローカルな時刻を内部時計17A,1
7Bより読み取り、その時刻をサーバ20に対して送信
するように指示する。この指示を出した時刻をTsとす
る。サーバ20では、この指示に応答して、端末A,B
のローカルな時刻が端末A,Bより報告されるのを待
つ。端末A,Bから報告が得られたら、この時刻をTe
とし、報告された端末A,Bのローカルな時刻をT1と
すると、サーバ20の内部時計26とある端末A,Bの
内部時計の差分は、Td=Ts+(Te−Ts)/2−
T1となる。この初期設定処理を各端末A,Bについて
まず行なう。
【0026】各端末A,Bにおいて、発言が行なわれた
時刻Txを内部時計17A,17Bにより計測し、その
時刻を付加してサーバ20に送信する。これにより、サ
ーバ20において、各端末A,Bから送信されてきた発
言の実際に行なわれた時刻を、Tx−Tdにより、サー
バ内部時計の時刻に補正することができる。このように
することで、各端末A,Bからの発言をバッファ21
A,21Bに格納するときに、サーバ内部時計に補正し
た発言開始時刻を付加して記憶する。これにより、ミキ
サ29は、発言が実際に行なわれた時刻に従って、各発
言をミキシングすることができる。スケジューラ22は
発言が実際に行われた時刻に基づいて配信時刻を制御す
る。
【0027】これにより、図6を参照して説明した実施
形態の利点に加え、より厳密に誰が最初に発言を行なっ
たかを決定することができるので、早いもの順で行なう
サービス、例えばクイズのようなサービスも公正に行う
ことが可能になる。本発明の音声対話システムは、上記
端末それぞれが、論理上の人物像(いわゆるアバタ)を
有し、上記スケジューラが、論理上の人物像空間内にお
ける該人物像の論理上の位置関係、距離、周囲環境、視
線方向、視界、姿勢のうちの少なくとも1つに基づいて
音声信号の配信を制御するものであってもよい。
【0028】図9は、この態様を示す原理図である。図
9に示すように、それぞれの端末A,Bには、それら各
端末A,Bのユーザ(すなわち各発言者)を表わす論理
上の人物像(いわゆるアバタ)の位置、視線方向、視界
等を管理するアバタ管理情報が格納されるアバタ管理情
報メモリ17A,17B、端末A,Bのアバタが共有す
る論理上の世界を管理する世界管理情報メモリ18A,
18Bが備えられている。各端末A,Bのユーザは、自
分自身を表わすアバタの位置、視線方向等を制御するこ
とができる。
【0029】各端末A,Bは、発言を送信するととも
に、自分自身のアバタの移動方向、視線の移動方向等を
送信し、サーバ20は、発言はサーバ20内のバッファ
メモリ21A,21Bに記憶し、さらに、そのアバタの
論理的な位置、視線方向、視界等を管理するアバタ管理
情報メモリの内容を逐次更新する。サーバ20には、各
端末A,Bと同様の世界管理情報メモリ30と、アバタ
どうしがどこまで離れていても話ができるかを示す最大
到達距離を格納する最大到達距離メモリ31が備えられ
ている。スケジューラ22において、各端末A,Bに発
言を順次送信する際に、ある発言者(=アバタ)から見
えない(視界外にいる)アバタからの発言は送信しな
い、もしくは、優先順位を落としてい送信するなどのス
ケジューリングを行なう。
【0030】これにより、本発明の基本的な利点に加
え、さらに、見えてない発言者から話し掛けられるとい
う不都合や、あまりに距離の離れている発言者からの発
言は聞こえなくするなどの制御を行なうことが可能とな
る。さらに、このように、聞く必要のない発言の配信を
制限することで、不必要な通信量を削減することも可能
となる。
【0031】本発明の音声対話システムは、上記端末そ
れぞれが論理上の人物像(アバタ)を有し前記論理上の
人物像空間内における、該人物像の位置関係、距離、周
囲環境、視線方向、視界、姿勢のうちの少なくとも1つ
に基づいて音声信号に変更を加えるエフェクタ手段を備
えたものであることが好ましい。図10は、この態様を
示す原理図である。
【0032】図10に示すように、それぞれの端末A,
Bより発言を送信するとともに、各発言者(各アバタ)
の移動方向、視線の移動方向等を送信し、発言はサーバ
20内のバッファメモリ21A,21Bに記憶し、さら
に、各アバタの論理的な位置、視線方向、視線等を管理
するアバタ管理情報メモリの内容を逐次更新する。バッ
ファリングされた発言を、それぞれの端末に配信する際
に、論理的に非常に離れた発言者からの発言は配信しな
いようにし、それ以外の場合は、エフェクタ32によ
り、発言者と聴取者との論理的な位置関係、それぞれの
視線方向を考慮し、距離が離れるに従い音量を小さくし
て加工する。また、方位に従って、左右の音量比、位
相、音質(フィルタの特性)を変化させる。さらに、発
言者と聴取者の間に障害物がある場合には、間接的に音
が伝わっていることを表現するために、反響音を付加し
たり、音質(フィルタの特性)を変更する。このように
して変更した音声信号は、ステレオ音声信号として各出
力バッファエリアL,Rに一旦格納する。
【0033】このように加工した、各端末からの発言を
適当にスケジューリングを行い、順次各端末に配信し、
あるいは同時刻の各発言をミキシングして、各端末に配
信する。これにより、発言者に距離に対応した音量、発
言者のいる方位に対応した方向から音がしているように
聞こえるなど、より現実感を増すことができる。
【0034】本発明の音声対話システムにおいて、上記
サーバが、前記複数の端末のうち対話を行なう対話グル
ープに属する端末を登録する1以上のグループ管理テー
ブルを備え、上記スケジューラが、受信した音声信号が
該音声信号を発信した端末と同一の対話グループに属す
る端末に配信されるように、音声信号の配信を制御する
ものであることも好ましい態様である。
【0035】図11は、この態様を示す原理図である。
図11に示すように、各受信グループ毎の受信グループ
テーブルと各発信グループ毎の発信グループテーブルと
からなるグループ管理テーブル33を設けて、各グルー
プごとの受信グループテーブルに、そのグループに所属
しているすべてのユーザのユーザIDを記述しておく。
さらに、各グループごとの発信グループテーブルに、そ
のグループに所属しているユーザのグループIDを記述
しておく。各端末A,Bから送信されてきた発言は、サ
ーバ20内のバッファメモリ21A,21Bに記憶さ
れ、スケジューラ22によって適当に順序付けがなされ
て、同一グループに所属するすべての端末に順次配信さ
れる。あるいは、前述したように、ミキサによって同一
グループに所属するそれぞれの端末用に時刻を揃えてミ
キシングして、それぞれの端末に配信してもよい。
【0036】本発明の音声対話システムにおいて、上記
端末が、自分が送信する音声信号を受信する受信先の端
末を指定する複数の発信モードのうちのいずれか1つの
発信モードを選択する発信モード選択手段を備えたもの
であることが好ましい。図12は、この態様を示す原理
図である。図12に示すように、あらかじめ、発信モー
ド選択手段19A,19Bによって、発言する対象を、
同一グループ、または、複数のグループに対する同報、
または、特定のユーザ(ないしユーザ群)の中から選択
しておく。
【0037】もし、同一グループのみならば、通常の会
話モードであり、図11を参照して説明した処理を行な
う。もし、複数グループに対する同報が、サーバ20に
指示されたなら、グループ管理テーブル33のそのユー
ザの発信グループテーブル35に同報したい受信グルー
プIDを追加しておく。各端末A,Bから送信されてき
た発言は、そのユーザの発信グループテーブル35を参
照することで受信グループIDが決定できるので、これ
に従って、各受信グループの全ての所属ユーザに、発言
を配信する。
【0038】もし、特定のユーザ(ないしユーザ群)に
対しての発言がサーバ20に指示されたなら、指定され
たユーザID(ないしユーザ群のID)を、グループ管
理テーブル33の、そのユーザの発信グループテーブル
に追加する。各端末A,Bから送信されてきた発言は、
そのユーザの発信グループテーブル35を参照すること
で受信グループIDとユーザIDが決定できるので、こ
れに従って、各受信グループの全ての所属ユーザと、す
べてのユーザ(ないしユーザ群)に発言を配信する。
【0039】本発明の音声対話システムにおいて、上記
端末が、自分が受信する音声信号の送信元の端末を指定
する複数の聴取モードのうちのいずれか1つの聴取モー
ドを選択する聴取モード選択手段を備えることも好まし
い態様である。図13は、この態様の原理図である。図
13に示すように、あらかじめ、聴取モード選択手段1
01Bによって、聴取する対象を同一グループ、また
は、複数のグループを同時に聴取するか、または、特定
のユーザの発言も聴取するのかを選択しておく。
【0040】もし、同一グループのみならば、通常の会
話モードであり、図11を参照して説明した処理を行な
う。もし、複数グループ同時の聴取がサーバ20に指示
されたなら、グループ管理テーブル33の、聴取したい
グループの受信グループテーブル34のエントリに自分
のユーザIDを追加しておく。各端末A,Bから送信さ
れてきた発言は、そのユーザの発信グループテーブル3
5を参照することで受信グループIDを決定する。これ
に従って、受信グループテーブル34に登録されている
全ての所属ユーザに発言を配信する。この結果、受信グ
ループテーブル34に追加されたユーザIDにも発言が
配信される。
【0041】もし、特定のユーザ(ないしユーザ群)に
対しての聴取がサーバ20に指示されたなら、指定され
たユーザ(ないしユーザ群)の発信グループテーブル3
0に自分のユーザIDを追加する。各端末A,Bから送
信されてきた発言は、そのユーザの発信グループテーブ
ル35を参照することで受信グループIDおよびユーザ
IDを決定する。これに従って、受信グループテーブル
34に登録されている全ての所属ユーザおよび指定され
たユーザに、発言を配信する。この結果、発信グループ
テーブル35に追加されたユーザIDにも発言が発信さ
れる。
【0042】本発明の音声対話システムにおいて、上記
端末が、サーバに向けて、音声信号の発信元である端末
のうちの、自分あてに送信される音声信号の受信を拒否
する端末を指定する割込禁止通知を行なう割込禁止通知
手段を備え、上記サーバが、割込禁止通知により指定さ
れた送信元の端末から受信した音声信号の送信先が割込
禁止通知を行なった端末であった場合に、その送信先の
端末へのその音声信号の転送を取り止めるものであるこ
とも好ましい態様である。
【0043】図14は、この態様の原理図である。図1
4に示すように、それぞれの端末において、割込禁止を
サーバ20に通知することで、ユーザの指定したグルー
プ、ユーザから以外の発言をサーバより発信しないよう
にする。サーバ20では、端末より割込禁止が通知され
たなら、受信グループに対する割込禁止ならば、受信ル
ープテーブル34の該当グループの割込禁止フラグをO
Nにし、自端末に対する割込禁止ならば、発信グループ
テーブル35の該当端末IDの割込禁止フラグをONに
する。あるユーザから発言モードの指定があった場合、
受信グループテーブル34の割込禁止フラグ、発信グル
ープテーブル35の該当する端末IDの割込禁止フラグ
を確認し、フラグがONならば、発信グループテーブル
35への登録を拒否する。
【0044】本発明の音声対話システムにおいて、上記
対話グループに対応してパスワードが付されており、上
記端末が、パスワードを入力して前記サーバに送るパス
ワード入力手段を備え、上記サーバが、端末から送られ
てきたパスワードを検査して正しいパスワードを送信し
てきた端末を、該パスワードに対応する対話グループに
加入させるものであることも好ましい態様である。
【0045】図15は、この態様を示す原理図である。
図15に示すように各端末には、パスワード入力手段1
02A,102Bが備えられており、サーバ20には、
セキュリティ検査手段37、ユーザごとの特権レベルテ
ーブル36、受信グループテーブル34、発信グループ
テーブル35の各エントリに、特権レベルメモリ、パス
ワードメモリが付加されている。特権レベルは、各ユー
ザがどのレベルのグループの対話に参加が許されるかを
示す指標であり、パスワードは、そのパスワードを知っ
ているユーザのみ対話に参加できるようにするためのも
のである。
【0046】ここでは、ユーザからの要求に従って、ユ
ーザの所属しない他のグループの発言を聴取するために
他のユーザの発信グループテーブル34や、他のグルー
プの受信グループテーブル35を書き換えようとする際
に、そのユーザの特権レベル、および、パスワードをセ
キュリティ検査手段39によって検査し、それが正当な
要求である場合のみに、書き換えが行なわれる。
【0047】本発明の音声対話システムにおいて、上記
端末が、話者と聴取者を表示する表示手段を備えること
も好ましい態様である。図16は、この態様を示す原理
図である。各端末A,Bには、表示手段105A,10
5B、表示手段105A,105Bに表示されている複
数のユーザ(アバタ)の中の話しかけようとするユーザ
を指定する座標入力手段104A,104B、表示手段
105A,105Bに描画するための描画手段103
A,103Bが備えられている。表示手段105A,1
05Bには、誰が誰に話しかけているかが明示される。
【0048】このように、話し掛ける相手を指示する手
段と、誰が誰に話し掛けているかを明示する手段を付加
することで、話し掛けるときに、話し掛けたい相手を指
示しながら発言することで、発言に相手のユーザIDも
付加してサーバ20に送信し、サーバ20はそのデータ
に、話者のユーザIDも付加して、各端末に配信する。
【0049】これにより、各端末A,Bでは、サーバ2
0から配信された発言に付加されている、話者のユーザ
ID、相手のユーザIDを読み取り、話者のイラスト
(アバタ)、および、相手のイラストを変化させる。本
発明の音声対話システムにおいて、上記サーバが、音声
信号の音質を変化させるエフェクタを備えることも好ま
しい態様である。
【0050】図17は、この態様を示す原理図である。
図17に示すように、ユーザが希望がする場合は、音質
を変化させるか否かのモードを設定するモード設定手段
106A,106Bにより発言に匿名フラグを付加して
サーバ20に送信する。サーバ20では、匿名フラグの
付加された発言を受信した場合は、発言をエフェクタ3
8に通すことで、音響を変化させて、話者を特定できな
いようにした後、各端末に配信する。
【0051】本発明の音声対話システムにおいて、上記
サーバが、所定の効果音を表わす効果音信号を格納する
効果音バッファを備え、上記スケジューラが、送信され
てきた音声信号の配信を制御するとともに、前記効果音
バッファに格納された効果音信号の配信を制御するもの
であることも好ましい態様である。図18は、この態様
を示す原理図である。
【0052】サーバ20には、効果音を格納する効果音
バッファ39、その効果音を管理する効果音管理情報メ
モリ、その効果音の反復間隔を格納する反復間隔メモリ
41が備えられている。ここでは、ユーザの発言以外
の、例えば、商店の店内放送や、駅のアナウンスなどの
効果音のPCMデータと、その論理的位置、反復間隔を
サーバ20に登録すると、サーバ20では、これらの効
果音を、指定された間隔をおいて反復して配信するよう
に、スケジューリング、または、ミキシングを行なう。
これにより、効果音も、発言と同様に、発言の合間に、
各端末に配信される。
【0053】本発明の音声対話システムにおいて、上記
サーバもしくは端末が、音声信号をテキストデータに変
換する音声認識手段を備えることも好ましい態様であ
る。図19は、この態様を示す原理図である。図19に
示すように、端末から送られてきた発言を各端末に配信
する際に、音声出力手段を持たない端末に対して発言を
配信する場合は、サーバ20に付加した音声認識手段4
2を用いることで、バッファリングされている音声のP
CMデータを、テキストに変換する。これにより、音声
出力手段を持たない端末においては、テキストにて発言
を表示することができる。端末側に音声認識手段107
Bをもってもよい。
【0054】図20は、もう1つの態様を示す原理図で
ある。図20に示すように、音声入力手段を持たない端
末から、テキストにより受信した発言を、サーバ20に
付加した音声合成手段43を用いてPCMデータに変換
し、音声出力手段を持つ端末に対しては、音声によって
データを配信する。音声出力手段を持たない端末に対し
ては、テキストにより端末より受信した発言はそのまま
配信し、音声により端末より受信した発言は、音声認識
手段42によってテキストに変換されて配信される。
【0055】図21は、さらにもう1つの態様を示す原
理図である。図21に示すように、ユーザの使用言語を
あらかじめサーバ20に通知し使用言語テーブル45に
格納しておき、端末より受信した発言の使用言語と、配
信する端末の使用言語が不一致の場合、発言を音声認識
手段42によりテキストに変換したのち、翻訳手段44
により、言語の翻訳を行い、さらに、翻訳結果のテキス
トを音声合成手段43によって音声に変換する。これに
より、使用言語の違いを気にすることなく会話すること
ができる。
【0056】図22は、もう1つの態様を示す原理図で
ある。図22に示すように、受信した発言を音声認識手
段43によりテキストに変換し、変換されたテキストと
語句テーブル47にあらかじめ登録されている指定語句
とを、サーバ20に付加された検索手段46により検索
し、もし、指定語句が存在したら、これを削除する。
【0057】これにより不適切な表現が聴取者に送信さ
れるのを避けることができる。本発明の音声対話システ
ムにおいて、上記サーバと端末がアナログ回線で接続さ
れ、アナログ信号としての音声信号の始端および終端に
音声信号の始端、終端を識別するためのトーン音を発生
させるとともに、受信したトーン音を検出する、それぞ
れ、トーン音発生手段およびトーン音検出手段を備えた
ことも好ましい態様である。この態様では、図23に示
す様に、端末、サーバに図示の各手段が備えられてお
り、この図23に示すように、回線1から送られて来た
データがアナログの音声データならば、そのままスピー
カに出力し、デジタルデータならばスピーカへの出力を
禁止する、データスイッチ手段を端末に付加する。サー
バ20よりアナログデータ開始コードが送られてきたな
らば、データスイッチを切り替えてスピーカ出力をON
にし、データ通信モードをアナログにする。この状態
で、あらかじめ定められた時間以上の無音期間に続いて
識別音が入力されたら、データスイッチを切り替えてス
ピーカスイッチをoffにし、データ通信モードをデジ
タルに設定する。
【0058】これにより、音声情報はアナログにより伝
送するので、電話回線のような低速な回線でも利用でき
る。本発明の音声対話システムにおいて、上記サーバ
が、前記端末どうしの対話を記憶する記憶手段を備える
ことも好ましい態様である。その場合に、上記サーバ
が、端末どうしの対話を記憶手段に記憶するにあたりそ
の対話に付属する付属情報を付加して記憶するものであ
るものであることがさらに好ましい。
【0059】図24は、この態様を示す原理図である。
図24に示すように、各端末からの発言を、各端末に配
信するとともに、大容量記憶装置50に、発言時刻、発
言者、発言相手の情報を付加して記憶する。そして、端
末からの要求により、会話中、および、会話終了後に、
その会話を再生できる。
【0060】図24に示す態様において、上記サーバ
が、上記付属情報に基づいて、記憶手段に記憶された対
話中の、所望の対話部分を検索する検索手段を備えるこ
とがさらに好ましい。図25は、この態様を示す原理図
である。図25に示すように、サーバに検索手段51を
付加することにより、発言時刻、発言者、発言相手をキ
ーワードとして、会話の記録された大容量記憶装置より
検索することにより、該当する発言のみを再生すること
ができる。
【0061】さらに、対話の話速を変換する話速変換手
段を備えることが好ましい。図26は、この態様を示す
原理図である。図26に示すように、大容量記憶装置5
0に記録された会話を再生する際に、実際に発言が行な
われた時間タイミングで再生しても良いが、好ましく
は、話速変換手段52によって、空白部分を省略して発
言を時間順に連続して再生しても良いし、発言を実際の
時間より短縮して再生しても良い。
【0062】
【発明の実施の形態】以下、本発明の実施形態について
説明する。図27は、本発明の第1実施形態を示すブロ
ック図である。本実施形態においては、マウスを用い
て、発言の開始と終了を指示する。つまり、マウスボタ
ンを押している期間中、マイクロホン(以下、マイクと
略称する)からの入力をサンプリングして、A/D変換
を行い、このデジタルデータを、例えば256バイトづ
つパケットにし、ユーザIDと端末IDを付加して、サ
ーバに送信する。マウスボタンを放したなら、データ終
了フラグを付加したパケットをサーバに送信する。サー
バより配信される他の端末からの発言は、受信しだい、
D/A変換器に通して、これを音声に変換し、スピーカ
より鳴らす。
【0063】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの端末IDを参照し
て、発言をそれぞれの端末用のバッファメモリ(メモリ
A,メモリB)に保持する。バッファメモリは、接続さ
れている端末数と同数用意される。また、制御部は、ス
ケジューラにより指示されたバッファメモリ上の発言を
各端末に配信する。
【0064】スケジューラはCPUにより実現され、適
当な方針により、バッファメモリに保持されている発言
データを、各端末に配信する順序を決定する。例えば、
各端末からの発言の先頭パケットを受信した時刻をバッ
ファメモリに記録しておく。端末から送信されてきて、
まだ配信されていない発言があれば、それを各端末に配
信するよう制御部に指示する。ここで、もし、まだ配信
されていない発言が複数ある場合は、それらの内、受信
時刻のもっとも古いものを選択し、それを送信するよう
制御部に指示する。
【0065】図28は、本発明の第2実施形態を示すブ
ロック図である。本実施形態は、図27に示す第1実施
形態と同様に構成されるが、サーバに同時発言者数メモ
リが付加される。本実施形態においては、マウスを用い
て、発言要求と発言終了を通知する。また、発言許可通
知手段はディスプレイにより実現される。つまり、マウ
スにより発言要求ボタンをクリックすることで、サーバ
に対して発言要求を行う。サーバから許可が与えられた
ら、発言要求ボタンの表示を、「発言許可」に切り替え
る。これ以降は、第1実施形態と同様に、マウスボタン
を押している期間中、マイクからの入力をサンプリング
して、A/D変換を行ない、このデジタルデータを、例
えば256バイトづつパケットにし、ユーザIDと端末
IDを付加して、サーバに送信する。マウスボタンを放
したなら、データ終了フラグを付加したパケットをサー
バに送信するとともに、発言終了通知をサーバに送信す
る。サーバより配信される他の端末からの発言は、受信
しだい、D/A変換器に通して、これを音声に変換し、
スピーカより鳴らす。
【0066】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの端末IDを参照し
て、発言をそれぞれの端末用のバッファメモリに保持す
る。バッファメモリは、接続されている端末数と同数用
意される。また、制御部は、スケジューラにより指示さ
れたバッファメモリ上の発言を各端末に配信する。スケ
ジューラはCPUにより実現され、適当な方針により、
バッファメモリに保持されている発言データを、各端末
に配信する順序を決定する。例えば、各端末からの発言
の先頭バケットを受信した時刻をバッファメモリに記録
しておく。端末から送信されてきて、まだ配信されてい
ない発言があれば、それを各端末に配信するよう制御部
に指示する。ここで、もし、まだ配信されていない発言
が複数ある場合は、それらの内、受信時刻のもっとも古
いものを選択し、それを送信するよう制御部に指示す
る。
【0067】同時発言者数管理手段はCPUと同時発言
者数メモリによって実現され、端末より、発言要求がき
たならば、この同時発言者数メモリに保持されている数
値を確認し、1以上なら、その端末に許可通知を与える
とともに、数値を−1とする。もし、数値が既に0とな
っていたならば、どれかの端末から発言終了通知が来る
まで待つ。
【0068】端末側では、許可通知を受信したなら、デ
ィスプレイに発言が許可されたことを表示し、ユーザに
発言を行っても良いことを知らせる。ユーザはこの表示
を確認の後、マウスボタンを押しながら発言を開始し、
発言完了後にマウスボタンを放すことで、発言終了通知
をサーバに対して行う。サーバ側では、発言終了通知を
受信したならば、同時発言者数メモリに保持されている
数値を+1する。
【0069】図29は、本発明の第3実施形態を示すブ
ロック図である。本実施形態は、図27に示す第1実施
形態と同様に構成されるが、無音部検出手段、最大無音
量メモリ、最短無音時間メモリが付加される。無音部検
出手段は、CPUによって実現され、バッファメモリ内
のPCMデータの絶対値を調べることにより、音量の大
きさを計測し、音量が予め設定された値”最大無音量”
より小さい期間が、予め設定された時間”最短無音時
間”より長ければ、最初に最大無音量を下回った部分
で、発言を分割する。
【0070】サーバ制御部は、スケジューラにより指示
されたバッファメモリ上の発言を、各端末に配信する
が、このとき、無音部検出手段を呼び出し、無音部と判
定されたら、発言の配信をそこでいったん打ち切り、次
に最大無音量を越える部分(無音区間をスキップする)
を発言の先頭とし、その対応する時刻をバッファメモリ
に記録する。
【0071】その他の処理は、第1実施形態と同様であ
る。端末側のもう一つの実施形態を、図29のPC−B
の端末に示す。この実施形態では、マウスボタンによ
り、発言の開始と終了を指示するのではなく、上記無音
部の検出法と同様に、マイクからの入力に対して常時A
/D変換を行ない、そのPCM出力データによって、発
言の開始点、終了点を検出する。
【0072】CPUによって無音検出手段を実現し、A
/D変換結果のPCM出力データの絶対値を調べること
により、音量の大きさを計測し、音量が予め設定された
値”最大無音量”より大きくなったなら、そこから発言
がはじまったものとして、サーバに順次データを送信す
る。そして、PCM出力データの音量が、”最大無音
量”より小さい期間が、予め設定された時間”最短無音
時間”より長ければ、最初に最大無音量を下回った部分
が発言の終了点とみなし、サーバへデータ終了フラグを
付加したパケットを送信する。そして、引き続き、A/
D変換結果のPCM出力結果を監視して、次の発言の開
始点を待つ。
【0073】図30は、本発明の第4実施形態を示すブ
ロック図である。本実施形態は、図27に示す第1実施
形態と同様に構成されるが、各バッファメモリに受信開
始時刻メモリが付加される。サーバ制御部はCPUによ
って実現され、各端末から送信されてきたデータの端末
IDを参照して、発言をそれぞれの端末用のバッファメ
モリに保持する。このとき、各端末からの発言の先頭パ
ケットを受信した時刻を受信開始時刻メモリに記録して
おく。バッファメモリは、接続されている端末数と同数
用意される。また、制御部は、スケジューラにより指示
されたバッファメモリ上の発言を各端末に配信する。
【0074】スケジューラはCPUにより実現され、端
末から送信されてきて、まだ配信されていない発言があ
れば、それを各端末に配信するよう制御部に指示する。
ここで、もし、まだ配信されていない発言が複数ある場
合は、それらの内、受信開始時刻のもっとも古いものを
選択し、それを送信するよう制御部に指示する。もちろ
ん、図29に示す実施形態と同様に、サーバ側に、無音
部検出手段を付加しても良いし、端末側もマウスを使わ
ず、無音部検出手段によって、発言の開始点、終了点を
検出しても良い。
【0075】図31は、本発明の第5実施形態を示すブ
ロック図である。本実施形態は、図30に示す第4実施
形態と同様に構成されるが、端末が接続されたとき最初
に実行される内部時間補正値計算部と、内部時間補正値
メモリが付加されることと、受信開始時刻メモリに代わ
って、補正済受信開始時刻メモリを持つことが異なる。
【0076】内部時間補正値計算部は、CPUにより実
現される。端末が新たに接続されると、まず、端末に対
して、端末のローカルな時刻を内部時計より読み取り、
その時刻Tlをサーバに対して送信するよう指示する。
この指示を出した時刻をTsとする。サーバでは、この
指示に応答して、端末のローカルな時刻が端末より報告
されるのを待つ。端末から報告が得られたら、この時刻
をTeとする。報告された端末の内部時計とサーバの内
部時計との差分は、内部時間補正値Td=Ts+(Te
−Ts)/2−Tlとなる。この値をすべての端末につ
いて計算して、各端末用バッファの内部時間補正値メモ
リに記録する。
【0077】各端末の制御部はCPUにより実現され、
発言が開始された内部時刻Txを内部時計により計測
し、その時刻を発言データパケットに付加してサーバに
送信する。サーバ制御部はCPUによって実現され、各
端末から送信されてきたデータの端末IDを参照して、
発言をそれぞれの端末用のバッファメモリに保持する。
このとき、各端末からの発言に付加されている内部時刻
Txを読み取り、補正済受信開始時刻=内部時刻Tx−
内部時間補正値Tdを計算し、この時刻を補正済受信開
始時刻メモリに記録する。
【0078】スケジューラはCPUにより実現され、端
末から送信されてきて、まだ配信されていない発言があ
れば、それを各端末に配信するよう制御部に指示する。
ここで、もし、まだ配信されていない発言が複数ある場
合は、それらの内、補正済受信開始時刻のもっとも古い
ものを選択し、それを送信するよう制御部に指示する。
これにより、スケジューラは、発言が実際に行なわれた
順に従って、各発言を順次、すべての端末に送信するこ
とができる。
【0079】もちろん、図29に示す実施形態と同様
に、サーバ側に、無音部検出手段を付加しても良いし、
端末側もマウスを使わず、無音部検出手段によって、発
言の開始点、終了点を検出しても良い。図32は、本発
明の第6実施形態を示すブロック図である。本実施形態
においては、マウスを用いて、発言の開始と終了を指示
する。つまり、マウスボタンを押している期間中、マイ
クからの入力をサンプリングして、A/D変換を行い、
このデジタルデータを、例えば256バイトづつパケッ
トにし、ユーザIDと端末IDを付加して、サーバに送
信する。サーバより配信される他の端末からの発言は、
受信しだい、D/A変換器に通して、これを音声に変換
し、スピーカより鳴らす。
【0080】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの端末IDを参照し
て、発言をそれぞれの端末用のバッファメモリに一時保
持する。バッファメモリは、接続されている端末数と同
数用意される。また、制御部は、出力バッファメモリ上
のミキシングされた発言を各端末に配信する。ミキサー
はサーバのCPUにより実現され、各バッファメモリに
保持されている発言データの時刻の同じ部分を加算する
ことでミキシングし、ゲイン調整をしたのち出力バッフ
ァメモリに保持する。もちろん、DSPなどにより実現
しても良い。
【0081】同時刻の決定方法としては、例えば、各端
末からの発言の先頭パケットを受信した時刻をバッファ
メモリに記録しておき、処理しようとする時刻のデータ
を、バッファの先頭位置からのオフセットより求めるこ
とで、各バッファ内の同時刻のデータを取り出すことが
できる。ゲイン調整の方法としては、例えば、加算結果
がPCMの最大値を越えたならば、PCMの最大値にク
リッピングする。または、加算結果がPCMの最大値を
越えたなら、PCMの最大値になるよう正規化し、その
時の係数をゲイン係数として保持し、以降の加算結果に
対しても適用する。ゲイン係数は、時定数により1に減
衰するように制御する。
【0082】また、端末は、図29に示す実施形態で示
したように、無音部検出手段を設けることで、マウスを
用いずに、マイク入力のシグナルレベルにより、自動的
に発言の開始、終了を検出するよう構成しても良い。図
33は、本発明の第7実施形態を示すブロック図であ
る。本実施形態は、図32に示す第6実施形態と同様に
構成されるが、各バッファメモリに受信開始時刻メモリ
が付加される。この例においては、マウスを用いて、発
言の開始と終了を指示する。つまり、マウスボタンを押
している期間中、マイクからの入力をサンプリングし
て、A/D変換を行い、このデジタルデータを、例えば
256バイトづつパケットにし、ユーザIDと端末ID
を付加して、サーバに送信する。サーバより配信される
他の端末からの発言は、受信しだい、D/A変換器に通
して、これを音声に変換し、スピーカより鳴らす。
【0083】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの端末IDを参照し
て、発言をそれぞれの端末用のバッファメモリに一時保
持する。このとき、各端末からの発言の先頭パケットを
受信した時刻をバッファメモリに記録する。バッファメ
モリは、接続されている端末数と同数用意される。ま
た、制御部は、出力バッファメモリ上のミキシングされ
た発言を各端末に配信する。
【0084】ミキサーはCPUにより実現され、各バッ
ファメモリに保持されている発言データのバッファの先
頭からのオフセットと発言の受信時刻より、処理したい
時刻のデータを取り出すことができる。各バッファの同
時刻のデータを加算することでミキシングし、ゲイン調
整をしたのち出力バッファメモリに保持する。ゲイン調
整の方法としては、例えば、加算結果がPCMの最大値
を越えたならば、PCMの最大値にクリッピングする。
または、加算結果がPCMの最大値を越えたなら、PC
Mの最大値になるよう正規化し、その時の係数をゲイン
係数として保持し、以降の加算結果に対しても適用す
る。ゲイン係数は、時定数により1に減衰するように制
御する。
【0085】これらの、加算処理、ゲイン調整処理は、
DSPなどにより実現しても良い。また、端末は、図2
9に示す第3実施形態で示したように、無音部検出手段
を設けることで、マウスを用いずに、マイク入力のシグ
ナルレベルにより、自動的に発言の開始、終了を検出す
るよう構成しても良い。図34は、本発明の第8実施形
態を示すブロック図である。
【0086】本実施形態は、第7実施形態と同様に構成
されるが、端末が接続されたとき最初に実行される内部
時間補正値計算部と、内部時間補正値メモリが付加され
ることと、受信開始時刻メモリに代わって、補正済受信
開始時刻メモリを持つことが異なる。内部時間補正値計
算部は、CPUにより実現される。端末が新たに接続さ
れると、まず、端末に対して、端末のローカルな時刻を
内部時計より読み取り、その時刻Tlをサーバに対して
送信するよう指示する。この指示を出した時刻をTsと
する。サーバでは、この指示に応答して、端末のローカ
ルな時刻が端末より報告されるのを待つ。端末から報告
が得られたら、この時刻をTeとする。報告された端末
の内部時計とサーバの内部時計との差分は、内部時間補
正値Td=Ts+(Te−Ts)/2−Tlとなる。こ
の値をすべての端末について計算して、各端末用バッフ
ァの内部時間補正値メモリに記録する。
【0087】各端末の制御部はCPUにより実現され、
発言が開始された内部時刻Txを内部時計により計測
し、その時刻を発言データパケットに付加してサーバに
送信する。サーバ制御部はCPUによって実現され、各
端末から送信されてきたデータの端末IDを参照して、
発言をそれぞれの端末用のバッファメモリに保持する。
このとき、各端末からの発言に付加されている内部時刻
Txを読み取り、補正済受信開始時刻=内部時刻Tx−
内部時間補正値Tdを計算し、この時刻を補正済受信開
始時刻メモリに記録する。
【0088】ミキサーはCPUにより実現され、各バッ
ファメモリに保持されている発言データのバッファの先
頭からのオフセットと発言の補正済受信時刻より、処理
したい時刻のデータを取り出すことができる。各バッフ
ァの同時刻のデータを加算することでミキシングし、ゲ
イン調整をしたのち出力バッファメモリに保持する。ゲ
イン調整の方法としては、例えば、加算結果がPCMの
最大値を越えたならば、PCMの最大値にクリッピング
する。または、加算結果がPCMの最大値を越えたな
ら、PCMの最大値になるよう正規化し、その時の係数
をゲイン係数として保持し、以降の加算結果に対しても
適用する。ゲイン係数は、時定数により1に減衰するよ
うに制御する。
【0089】これらの、加算処理、ゲイン調整処理は、
DSPなどにより実現しても良い。また、端末は、図2
9の実施形態で示したように、無音部検出手段を設ける
ことで、マウスを用いずに、マイク入力のシグナルレベ
ルにより、自動的に発言の開始、終了を検出するよう構
成しても良い。図35は、本発明の第9実施形態を示す
ブロック図である。
【0090】本実施形態は、図30を参照して説明した
実施形態と同様に構成されるが、サーバと端末にアバタ
管理情報メモリと世界管理情報メモリが、サーバに最大
到達距離メモリが付加されることが異なる。本実施形態
では、各端末のユーザは、仮想的に3次元座標と、視線
方向、視界を持ち、これらの情報が、アバタ管理情報と
して、各端末と、サーバの両方で保持される。ユーザが
マウス、キーボードなどにより、移動や視線の移動を指
示すると、端末のアバタ管理情報の該当する情報が更新
される。また、これらのアバタ管理情報が変更される
と、端末より変更通知がサーバに送信され、サーバ側の
該当する情報も同様に更新される。世界管理情報は、仮
想的な3次元世界の中に、どのような建物がどこにある
かを示す情報であり、ポリゴンデータである。
【0091】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの端末IDを参照し
て、発言をそれぞれの端末用のバッファメモリに保持す
る。このとき、各端末からの発言の先頭パケットを受信
した時刻を受信開始時刻メモリに記録しておく。バッフ
ァメモリは、接続されている端末数と同数用意される。
また、制御部は、スケジューラにより指示されたバッフ
ァメモリ上の発言を各端末に配信する。さらに、制御部
は、端末よりアバタ情報更新通知があったなら、該当す
るアバタ情報を通知に従って更新する。
【0092】スケジューラはCPUにより実現され、各
端末ごとに配信すべき発言とその順序を検討する。他の
端末から送信されてきて、まだ配信されていない発言が
あれば、その端末のアバタ管理情報とある発言者のアバ
タ管理情報と、世界管理情報から、位置関係と視界を計
算し、2者間の距離が、あらかじめ設定された最大到達
距離以上ならば、その発言は聞こえないものとして送信
しない。また、視界内に入っていないユーザからの発言
も、その発言は聞こえないものとして送信しない。それ
以外の発言については、図30を参照して説明した実施
形態と同様に、古いものから順に配信するよう制御部に
指示する。
【0093】もちろん、図29を参照して説明した実施
形態と同様に、サーバ側に、無音部検出手段を付加して
も良いし、端末側もマウスを使わず、無音部検出手段に
よって、発言の開始点、終了点を検出しても良い。図3
6は、本発明の第10実施形態を示すブロック図であ
る。本実施形態は、図32を参照して説明した実施形態
と同様に構成されるが、出力バッファエリアがLRの2
チャンネルとなり、サーバと端末にアバタ管理情報メモ
リと世界管理情報メモリが、サーバにエフェクタと最大
到達距離メモリが付加されることが異なる。
【0094】本実施形態では、各端末のユーザは、仮想
的に3次元座標と、視線方向、視界を持ち、これらの情
報が、アバタ管理情報として、各端末と、サーバの両方
で保持される。ユーザがマウス、キーボードなどによ
り、移動や視線の移動を指示すると、端末のアバタ管理
情報の該当する情報が更新される。また、これらのアバ
タ管理情報が変更されると、端末より変更通知がサーバ
に送信され、サーバ側の該当する情報も同様に更新され
る。世界管理情報は、仮想的な3次元世界の中に、どの
ような建物がどこにあるかを示す情報であり、ポリゴン
データである。
【0095】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの端末IDを参照し
て、発言をそれぞれの端末用のバッファメモリに保持す
る。このとき、各端末からの発言の先頭パケットを受信
した時刻を受信開始時刻メモリに記録しておく。バッフ
ァメモリは、接続されている端末数と同数用意される。
また、制御部は、端末よりアバタ情報更新通知があった
なら、該当するアバタ情報を通知に従って更新する。さ
らに、制御部は他の端末から送信されてきて、まだ配信
されていない発言があれば、その端末のアバタ管理情報
とある発言者のアバタ管理情報と、世界管理情報から、
位置関係と視界を計算し、2者間の距離が、あらかじめ
設定された最大到達距離以上ならば、その発言は聞こえ
ないものとして配信しない。また、視界内に入っていな
いユーザからの発言も、その発言は聞こえないものとし
て送信しない。
【0096】エフェクタはCPUにより実現され、上記
以外の発言について、発言者と聴取者との論理的な位置
関係、それぞれの視線方向を考慮し、距離が離れるに従
い音量を小さくしく加工する。また、方位に従って、左
右の音量比、位相、音質(フィルタの特性)を変化させ
る。さらに、発言者と聴取者の間に障害物がある場合に
は、間接的に音が伝わっていることを表現するために、
反響音を付加したり、音質(フィルタの特性)を変更す
る。
【0097】このようにして加工した、各端末からの発
言を、適当にスケジューリングを行って、順次各端末に
配信し、あるいは同時刻の各発言をミキシングして、各
端末に配信する。もちろん、図29を参照して説明した
実施形態と同様に、サーバ側に、無音部検出手段を付加
しても良いし、端末側もマウスを使わず、無音部検出手
段によって、発言の開始点、終了点を検出しても良い。
【0098】図37は、本発明の第11実施形態を示す
ブロック図、図38は、グループ管理テーブルの一例を
示す図である。本実施形態は、例えば、図27に示す実
施形態と同様に構成されるが、サーバにグループ管理テ
ーブルが付加されることが異なる。この例においては、
マウスを用いて、発言の開始と終了を指示する。つま
り、マウスボタンを押している期間中、マイクからの入
力をサンプリングして、A/D変換を行い、このデジタ
ルデータを、例えば256バイトづつパケットにし、ユ
ーザIDと端末IDを付加して、サーバに送信する。マ
ウスボタンを放したなら、データ終了フラグを付加した
パケットをサーバに送信する。サーバより配信される他
の端末からの発言は、受信しだい、D/A変換器に通し
て、これを音声に変換し、スピーカより鳴らす。
【0099】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの端末IDを参照し
て、発言をそれぞれの端末用のバッファメモリに保持す
る。バッファメモリは、接続されている端末数と同数用
意される。また、制御部は、スケジューラにより指示さ
れたバッファメモリ上の発言を、グループ管理テーブル
に登録されている端末IDが示す各端末に配信する。
【0100】スケジューラはCPUにより実現され、適
当な方針により、バッファメモリに保持されている発言
データを、各端末に配信する順序を決定する。例えば、
各端末からの発言の先頭パケットを受信した時刻をバッ
ファメモリに記録しておく。端末から送信されてきて、
まだ配信されていない発言があれば、それを各端末に配
信するよう制御部に指示する。ここで、もし、まだ配信
されていない発言が複数ある場合は、それらの内、受信
時刻のもっとも古いものを選択し、それを送信するよう
制御部に指示する。
【0101】ここでは、図27と同様のスケジューラを
用いた実施形態を示したが、図32と同様のミキサを用
いた実施形態も同様に構成できる。図39は、本発明の
第12実施形態を示すブロック図、図40は、発信グル
ープテーブル及び受信グループテーブルの一例を示す図
である。本実施形態は、例えば、図37に示す実施形態
と同様に構成されるが、端末に発言モード選択手段が、
サーバに発信グループテーブルと受信グループデーブル
が付加されることが異なる。
【0102】この例においては、マウスを用いて、発言
の開始と終了を指示する。つまり、マウスボタンを押し
ている期間中、マイクからの入力をサンプリングして、
A/D変換を行い、このデジタルデータを、例えば25
6バイトづつパケットにし、ユーザIDと発信端末ID
を付加して、サーバに送信する。マウスボタンを放した
なら、データ終了フラグを付加したパケットをサーバに
送信する。サーバより配信される他の端末からの発言
は、受信しだい、D/A変換器に通して、これを音声に
変換し、スピーカより鳴らす。
【0103】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの発信端末IDを参照
して、発言をそれぞれの端末用のバッファメモリに保持
する。バッファメモリは、接続されている端末数と同数
用意される。また、制御部は、スケジューラにより指示
されたバッファメモリ上の発言を、その発信端末IDを
参照して、発信グループに登録されている端末IDおよ
び受信グループIDが示す受信グループに登録されてい
る端末IDが示す各端末に配信する。
【0104】スケジューラはCPUにより実現され、適
当な方針により、バッファメモリに保持されている発言
データを、各端末に配信する順序を決定する。例えば、
各端末からの発言の先頭パケットを受信した時刻をバッ
ファメモリに記録しておく。端末から送信されてきて、
まだ配信されていない発言があれば、それを各端末に配
信するよう制御部に指示する。ここで、もし、まだ配信
されていない発言が複数ある場合は、それらの内、受信
時刻のもっとも古いものを選択し、それを送信するよう
制御部に指示する。
【0105】発言モード選択手段は、CPUとマウスに
よって構成され、ユーザの希望するモードを示すアイコ
ンをクリックすることで、モードを指示することができ
る。ここでは、図27と同様のスケジューラを用いた実
施形態を示したが、図32と同様のミキサーを用いた実
施形態も同様に構成できる。図41は、本発明の第13
実施形態を示すブロック図、図42は、発信グループテ
ーブル及び受信グループテーブルの一例を示す図であ
る。
【0106】本実施形態は、例えば、図37に示す実施
形態と同様に構成されるが、端末に聴取モード選択手段
が、サーバに発信グループテーブルと受信グループテー
ブルが付加されることが異なる。この例においては、マ
ウスを用いて、発言の開始と終了を指示する。つまり、
マウスボタンを押している期間中、マイクからの入力を
サンプリングして、A/D変換を行い、このデジタルデ
ータを、例えば256バイトづつパケットにし、ユーザ
IDと発信端末IDを付加して、サーバに送信する。マ
ウスボタンを放したなら、データ終了フラグを付加した
パケットをサーバに送信する。サーバより配信される他
の端末からの発言は、受信しだい、D/A変換器に通し
て、これを音声に変換し、スピーカより鳴らす。
【0107】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの発信端末IDを参照
して、発言をそれぞれの端末用のバッファメモリに保持
する。バッファメモリは、接続されている端末数と同数
用意される。また、制御部は、スケジューラにより指示
されたバッファメモリ上の発言を、その発信端末IDを
参照して、発信グループに登録されている端末IDおよ
び受信グループIDが示す受信グループに登録されてい
る端末IDが示す各端末に配信する。
【0108】スケジューラはCPUにより実現され、適
当な方針により、バッファメモリに保持されている発言
データを、各端末に配信する順序を決定する。例えば、
各端末からの発言の先頭パケットを受信した時刻をバッ
ファメモリに記録しておく。端末から送信されてきて、
まだ配信されていない発言があれば、それを各端末に配
信するよう制御部に指示する。ここで、もし、まだ配信
されていない発言が複数ある場合は、それらの内、受信
時刻のもっとも古いものを選択し、それを送信するよう
制御部に指示する。
【0109】聴取モード選択手段は、CPUとマウスに
よって構成され、ユーザの希望するモードを示すアイコ
ンをクリックすることで、モードを指示することができ
る。ここでは、図27と同様のスケジューラを用いた実
施形態を示したが、図32と同様のミキサーを用いた実
施形態も同様に構成できる。図43は、本発明の第14
実施形態を示すブロック図、図44は、発信グループテ
ーブル及び受信グループテーブルの一例を示す図であ
る。
【0110】本実施形態は、図41に示す実施形態と同
様に構成されるが、サーバの受信グループテーブルと発
信グループテーブルに割込禁止フラグが付加される。サ
ーバでは、端末より割込み禁止が通知されたなら、受信
グループに対する割込禁止ならば、受信グループテーブ
ルの該当グループの割込禁止フラグをONにし、自端末
に対する割込禁止ならば、受信グループテーブルの自端
末IDの割込禁止フラグをONにする。あるユーザか
ら、発言モードの指定があった場合、受信グループテー
ブルの割込禁止フラグ、受信グループテーブルの該当す
る端末IDの割込禁止フラグを確認し、フラグがONな
らば、発信グループテーブルへの登録を拒否する。
【0111】また、これと、後述する、図47に示す実
施形態を組合せて、発信モードの指定を行う場合に、特
権レベル値が、受信グループの値、または、端末IDの
値より高ければ、割込禁止フラグの如何に拘らず、その
受信グループ、または、その端末に対して、発言を行え
るようにしても良い。このように構成された、本発明の
第15実施形態を、図45,図46に示す。詳細説明は
省略する。
【0112】図47は、本発明の第16実施形態を示す
ブロック図、図48は、発信グループテーブル及び受信
グループテーブルの一例を示す図である。本実施形態
は、例えば、図41に示す実施形態と同様に構成される
が、端末にパスワード入力手段が、サーバにセキュリテ
ィ検査手段、ユーザごとの特権レベルテーブル、受信グ
ループテーブル、発信グループテーブルの各エントリに
特権レベルメモリ、パスワードメモリが付加されること
が異なる。
【0113】この例においては、マウスを用いて、発言
の開始と終了を指示する。つまり、マウスボタンを押し
ている期間中、マイクからの入力をサンプリングして、
A/D変換を行い、このデジタルデータを、例えば25
6バイトづつパケットにし、ユーザIDと発信端末ID
を付加して、サーバに送信する。マウスボタンを放した
なら、データ終了フラグを付加したパケットをサーバに
送信する。サーバより配信される他の端末からの発言
は、受信しだい、D/A変換器に通して、これを音声に
変換し、スピーカより鳴らす。
【0114】サーバ制御部はCPUによって実現され、
各端末から送信されてきたデータの発信端末IDを参照
して、発言をそれぞれの端末用のバッファメモリに保持
する。バッファメモリは、接続されている端末数と同数
用意される。また、制御部は、スケジューラにより指示
されたバッファメモリ上の発言を、その発信端末IDを
参照して、発信グループに登録されている端末IDおよ
び受信グループIDが示す受信グループに登録されてい
る端末IDが示す各端末に配信する。
【0115】スケジューラはCPUにより実現され、適
当な方針により、バッファメモリに保持されている発言
データを、各端末に配信する順序を決定する。例えば、
各端末からの発言の先頭パケットを受信した時刻をバッ
ファメモリに記録しておく。端末から送信されてきて、
まだ配信されていない発言があれば、それを各端末に配
信するよう制御部に指示する。ここで、もし、まだ配信
されていない発言が複数ある場合は、それらの内、受信
時刻のもっとも古いものを選択し、それを送信するよう
制御部に指示する。
【0116】聴取モード選択手段は、CPUとマウスに
よって構成され、ユーザの希望するモードを示すアイコ
ンをクリックすることで、モードを指示することができ
る。セキュリティ検査手段は、CPUによって実現さ
れ、ユーザからの受信テーブル及び発信テーブルの書き
換え要求を受けたときに、そのユーザの特権レベル値
が、各テーブルのエントリの特権レベル値より小さけれ
ば、書き換えを無条件に許す。しかし、特権レベル値が
大きい場合は、端末よりパスワードを入力させ、これ
が、テーブルのエントリと一致した場合のみ、書き換え
を許す。
【0117】ここでは、図27と同様のスケジューラを
用いた実施形態を示したが、図32と同様のミキサーを
用いた実施形態も同様に構成できる。図49は、本発明
の第17実施形態を示すブロック図、図50は、ディス
プレイ上に表示されたイラストの例を示す図である。本
実施形態は、図27に示す第1実施形態と同様に構成さ
れるが、端末に制御部と表示手段と座標入力手段と描画
手段が付加される。
【0118】本実施形態では、対話を行なっている相手
のユーザは、ディスプレイ上に人間のイラストとして表
示され、このイラストをマウス等でクリックしながら話
すことで、話す相手を指定する。端末の制御部はCPU
によって実現され、マウスの動きを監視して、マウスに
よってディスプレイ上のどの人間のイラストがクリック
されたかを検査し、話す相手特定する。
【0119】描画手段もCPUによって実現され、発言
しているユーザに対応するディスプレイ上のイラスト
に、吹き出しのイラストを付加することで、誰が発言し
ているかを明示することができる。また、話し掛けられ
ている人のイラストには、呼出音のイラストを付加する
ことで、誰に話しているかを明示できる。自分に対して
話し掛けられた場合は、ピッという音とともに、画面左
上に呼出音のイラストが表示される。
【0120】その他の処理は、図27に示す第1実施形
態と同様である。図51は、本発明の第18実施形態を
示すブロック図である。本実施形態は、図27に示す第
1実施形態と同様に構成されるが、サーバにエフェクタ
が、端末に制御部とモード設定手段が付加される。モー
ド設定手段および制御部はCPUにより実現され、ユー
ザがアイコンをクリックすることで発言を匿名モードに
設定した場合、制御部は発言に匿名フラグを付加して、
サーバに送信する。
【0121】サーバの制御部は、CPUにより実現さ
れ、端末からの発言に匿名フラグが設定されていたなら
ば、エフェクタを用いて、音声波形にフィルタリングを
行い、音質を変化させる。エフェクタもCPUにより実
現され、FFT,IFFTなどにより音声のスペクトラ
ムを変化させる。
【0122】その他の処理は、第1実施形態と同様であ
る。図52は、本発明の第19実施形態を示すブロック
図である。本実施形態は、図30に示す第4実施形態と
同様に構成されるが、サーバに効果音メモリと効果音管
理情報メモリと反復間隔メモリと受信開始時刻メモリが
付加される。
【0123】スケジューラはCPUにより実現され、各
端末ごとに配信すべき発言とその順序を検討する。他の
端末から送信されてきて、まだ配信されていない発言が
あれば、古いものから順に配信するよう制御部に指示す
る。このとき、効果音メモリの内容も、反復間隔ごと
に、各端末に配信するように、スケジューリングを行な
う。つまり、反復間隔ごとに、端末より届いた発言と同
様に受信開始時刻を設定し、スケジューラにより他の発
言と同様に配信する。
【0124】その他の処理は、図30の実施形態と同様
である。図53は、本発明の第20実施形態を示すブロ
ック図である。本実施形態は、図27に示す第1実施形
態と同様に構成されるが、サーバに音声認識手段が、端
末に文字表示手段が付加される。サーバ制御部はCPU
によって実現され、スケジューラにより指示されたバッ
ファメモリ上の発言を各端末に配信する。このとき、配
信しようとする端末が音声出力手段を持たないならば、
音声認識手段を用いて、これをテキストに変換した後、
配信する。
【0125】音声認識手段はCPUによって実現され、
例えば、Windows Sound Systemに付属する音声認識プロ
グラムである。文字表示手段はフレームバッファとディ
スプレイによって実現され、受信したテキストをディス
プレイに表示する。その他の処理は、図27の実施形態
と同様である。また、音声認識手段を、端末に付加し
て、端末側でテキストに変換しても良い。
【0126】図54は、本発明の第21実施形態を示す
ブロック図である。本実施形態は、図53に示す第20
実施形態と同様に構成されるが、サーバに音声合成手段
が付加される。サーバ制御部はCPUによって実現さ
れ、スケジューラにより指示されたバッファメモリ上の
発言を各端末に配信する。このとき、配信しようとする
発言がテキストで、かつ、配信しようとする端末は音声
出力手段を持つならば、音声合成手段を用いて、これを
PCM音声に変換した後、配信する。
【0127】音声合成手段はCPUによって実現され、
例えば、Windows Sound Systemに付属する音声合成プロ
グラムである。その他の処理は、図53に示す実施形態
と同様である。図55は、本発明の第22実施形態を示
すブロック図である。本実施形態は、図54に示す実施
形態と同様に構成されるが、サーバに翻訳手段、使用言
語テーブルが付加される。
【0128】端末は、発言をサーバに送信するさいに、
その使用言語コードを付加して送信する。サーバ制御部
はCPUにより実現され、スケジューラにより指示され
たバッファメモリ上の発言を各端末に配信する。このと
き、発言の使用言語コードと、使用言語コードに記述さ
れている各端末の使用言語コードが一致しなければ、発
言を音声認識手段によりテキストに変換したのち、翻訳
手段により翻訳し、さらに、音声合成手段によりPCM
音声に変換してのち、端末に配信する。
【0129】翻訳手段はCPUにより実現され、例え
ば、ATLAS翻訳システムである。その他の処理は、
図54に示す実施形態と同様である。図56は、本発明
の第23実施形態を示すブロック図である。本実施形態
は、図54に示す実施形態と同様に構成されるが、サー
バに検索手段と、語句テーブルが付加される。
【0130】サーバ制御部はCPUにより実現され、各
端末から送信されてきたデータの端末IDを参照して、
発言をそれぞれの端末用のバッファメモリに保持する。
このPCM音声データを音声認識手段を用いてテキスト
データに変換する。さらに、検索手段を用いて、このテ
キスト中に語句テーブルに登録されている語句があるか
どうかを検索する。もし、あれば、これを削除または編
集する。そして、このテキストデータを音声合成手段を
用いてPCM音声データに変換する。そして、スケジュ
ーラの指示に従って、この発言を各端末に配信する。
【0131】その他の処理は、図54の実施形態と同様
である。図57は、本発明の第24実施形態を示すブロ
ック図である。本実施形態においては、端末からの発言
はアナログ音声のまま、サーバに送信され、サーバから
各端末に発言を配信する際も、アナログ音声のまま配信
される。
【0132】端末とサーバをアナログの電話回線によっ
て接続し、モデムを用いてデジタルデータを送受信する
ような構成において、発言のようなアナログデータは、
デジタル化しないで、アナログのまま通す。アナログデ
ータの終了を通知、検知するために、トーン音検出手
段、トーン音発生手段、無音区間検出手段と電話回線と
スピーカを接続するかどうかを切り替えるための、スピ
ーカスイッチ手段とマイクと電話回線を接続するかどう
かを切り替えるマイクスイッチ手段を端末に備える。
【0133】端末制御部において、マウスが押されたこ
とを検知すると、これ以降のデータがアナログとなるこ
とを通知するアナログデータ開始コードを、サーバに送
信する。そして、マイク入力を電話回線に流すようにマ
イクスイッチをONにする。そして、マウスが放され
て、発言が終了したなら、マイクスイッチをOFFに
し、規定時間の無音期間をおいた後、予め定められたト
ーン音を、トーン音発生手段によって発生させる。これ
以降は、モデムを通してのデジタルデータのやりとりに
復帰する。また、サーバからアナログデータ開始コード
が送信されてきたら、スピーカスイッチをONにして、
アナログ音声をスピーカに出力する。このとき、無音区
間検出手段によりアナログ音声を監視し、無音区間が発
見されてかつ、その直後の音が、予め定められたトーン
音であることがトーン音検出手段によって確認されたな
ら、スピーカスイッチをOFFにして、それ以降のデー
タをデジタルデータとして、モデムを通して受信する。
【0134】サーバ制御部において、端末よりアナログ
データ開始コードが送信されてきたなら、それ以降のデ
ータをA/D変換してPCMデータに変換した後、それ
ぞれの端末用のバッファエリアに保持する。このとき、
無音区間検出手段によりアナログ音声を監視し、無音区
間が発見されて、かつ、その直後の音が、予め定められ
たトーン音であることが確認されたなら、A/D変換に
よるデータ入力を終了する。また、スケジューラの指示
に従って、発言を端末に配信する場合は、まず、アナロ
グデータ開始コードを送信したのち、バッファエリアの
内容をD/A変換しながら、電話回線にアナログとして
出力する。出力終了後、規定の無音区間をおいたあと、
予め定められたトーン音をトーン音発生手段により発生
させる。これ以降は、モデムを通してのデジタルデータ
のやりとりに復帰する。
【0135】信号変換手段は、デジタル情報を変調され
たアナログ信号に変換し、またその逆に、変調されたア
ナログ信号をデジタル信号に変換するものである。スケ
ジューラ、その他の処理は、図27に示す第1実施形態
と同様である。図58は、本発明の第25実施形態を示
すブロック図である。本実施形態は、図27に示す第1
実施形態と同様に構成されるが、サーバにハードディス
クが付加される。
【0136】サーバ制御部は、各端末から送信されてき
た発言を、バッファエリアに保持するとともに、ハード
ディスクに、発言データ、発言時刻、発言者、発言相手
の情報を記録する。また、端末からの要求により、ハー
ドディスクより、記録されている発言を読みだし、端末
に配信する。その他の処理は、図27の実施形態と同様
である。
【0137】また、ここでは、発言をPCMデータのま
ま記録しているが、音声認識手段、音声合成手段を用い
ることで、テキストに変換してから記録し、再生時に音
声に戻すこともできるし、テキストのまま見ることも容
易に実現できる。図59は、本発明の第26実施形態を
示すブロック図である。本実施形態は、図58に示す実
施形態と同様に構成されるが、サーバに検索手段が付加
される。
【0138】サーバ制御部は、端末からの要求に応じ
て、ハードディスクに記録されている発言を検索手段に
よって検索することで、特定の発言時刻、発言者、発言
相手をキーワードにして、該当する発言のみを端末に配
信することができる。検索手段は、CPUによって実現
される。その他の処理は、図58の実施形態と同様であ
る。
【0139】また、音声認識手段をサーバに付加するこ
とで、ハードディスクに記録されている発言を、テキス
トに変換し、これを検索手段で検索することで、発言内
容を特定のキーワードで検索することができ、特定の話
題についての発言のみを、端末に配信することもでき
る。図60は、本発明の第27実施形態を示すブロック
図である。
【0140】本実施形態は、図58に示す実施形態と同
様に構成されるが、サーバに話速変換手段が付加され
る。サーバ制御部は、端末からの要求に応じて会話を再
現する際に、実際に発言が行なわれた時間タイミングで
発言を配信するか、もしくは、時間タイミングは無視し
て、発生順に空白時間は無視して、次々と発言を配信し
ていくか、もしくは、話速変換手段により、1つの発言
内の空白時間(息継ぎの時間)などを削除してのち端末
に配信することにより、発言を実際の時間より短縮して
聞けるようにする。
【0141】話速変換手段は、無音区間検出器とCPU
により実現され、発言中の無音部を検出し、これを削除
することで、発言時間を短縮することができる。その他
の処理は、図58に示す実施形態と同様である。
【0142】
【発明の効果】以上説明したように、本発明の音声対話
システムによれば、通信量を適正なレベルに制御するこ
とができる。
【図面の簡単な説明】
【図1】本発明の一態様を示す原理図である。
【図2】本発明の一態様を示す原理図である。
【図3】本発明の一態様を示す原理図である。
【図4】本発明の一態様を示す原理図である。
【図5】本発明の一態様を示す原理図である。
【図6】本発明の一態様を示す原理図である。
【図7】本発明の一態様を示す原理図である。
【図8】本発明の一態様を示す原理図である。
【図9】本発明の一態様を示す原理図である。
【図10】本発明の一態様を示す原理図である。
【図11】本発明の一態様を示す原理図である。
【図12】本発明の一態様を示す原理図である。
【図13】本発明の一態様を示す原理図である。
【図14】本発明の一態様を示す原理図である。
【図15】本発明の一態様を示す原理図である。
【図16】本発明の一態様を示す原理図である。
【図17】本発明の一態様を示す原理図である。
【図18】本発明の一態様を示す原理図である。
【図19】本発明の一態様を示す原理図である。
【図20】本発明の一態様を示す原理図である。
【図21】本発明の一態様を示す原理図である。
【図22】本発明の一態様を示す原理図である。
【図23】本発明の一態様を示す原理図である。
【図24】本発明の一態様を示す原理図である。
【図25】本発明の一態様を示す原理図である。
【図26】本発明の一態様を示す原理図である。
【図27】本発明の第1実施形態を示すブロック図であ
る。
【図28】本発明の第2実施形態を示すブロック図であ
る。
【図29】本発明の第3実施形態を示すブロック図であ
る。
【図30】本発明の第4実施形態を示すブロック図であ
る。
【図31】本発明の第5実施形態を示すブロック図であ
る。
【図32】本発明の第6実施形態を示すブロック図であ
る。
【図33】本発明の第7実施形態を示すブロック図であ
る。
【図34】本発明の第8実施形態を示すブロック図であ
る。
【図35】本発明の第9実施形態を示すブロック図であ
る。
【図36】本発明の第10実施形態を示すブロック図で
ある。
【図37】本発明の第11実施形態を示すブロック図で
ある。
【図38】グループ管理テーブルの一例を示す図であ
る。
【図39】本発明の第12実施形態を示すブロック図で
ある。
【図40】発信グループテーブル及び受信グループテー
ブルの一例を示す図である。
【図41】本発明の第13実施形態を示すブロック図で
ある。
【図42】発信グループテーブル及び受信グループテー
ブルの一例を示す図である。
【図43】本発明の第14実施形態を示すブロック図で
ある。
【図44】発信グループテーブル及び受信グループテー
ブルの一例を示す図である。
【図45】本発明の第15実施形態を示すブロック図で
ある。
【図46】本発明の第15実施形態を示すブロック図で
ある。
【図47】本発明の第16実施形態を示すブロック図で
ある。
【図48】発信グループテーブル及び受信グループテー
ブルの一例を示す図である。
【図49】本発明の第17実施形態を示すブロック図で
ある。
【図50】ディスプレイ上に表示されたイラストの例を
示す図である。
【図51】本発明の第18実施形態を示すブロック図で
ある。
【図52】本発明の第19実施形態を示すブロック図で
ある。
【図53】本発明の第20実施形態を示すブロック図で
ある。
【図54】本発明の第21実施形態を示すブロック図で
ある。
【図55】本発明の第22実施形態を示すブロック図で
ある。
【図56】本発明の第23実施形態を示すブロック図で
ある。
【図57】本発明の第24実施形態を示すブロック図で
ある。
【図58】本発明の第25実施形態を示すブロック図で
ある。
【図59】本発明の第26実施形態を示すブロック図で
ある。
【図60】図60は、本発明の第27実施形態を示すブ
ロック図である。
【図61】図61は、従来の音声対話システムの構成図
である。
【符号の説明】
1 回線 11A,11B 音声入力手段 12A,12B 音声出力手段 13A,13B 制御部 14A,14B 発言要求手段 15A,15B 発言許可表示手段 16A,16B 発言終了通知手段 17A,17B アバタ管理情報メモリ 18A,18B 世界管理情報メモリ 19A,19B 発信モード選択手段 20 サーバ 21A,21B バッファメモリ 22 スケジューラ 23 制御部 24 同時発言者数管理手段 25 無音部検出手段 26 内部時計 27 内部時間補正値計算部 28 出力バッファエリア 29 ミキサ 30 世界管理情報メモリ 31 最大到達距離メモリ 32 エフェクタ 33 グループ管理テーブル 34 受信グループテーブル 35 発信グループテーブル 36 特権レベルテーブル 37 セキュリティ検査手段 38 エフェクタ 39 効果バッファ 40 効果音管理情報メモリ 41 反復間隔メモリ 42 音声認識手段 43 音声合成手段 44 翻訳手段 45 使用言語テーブル 46 検索手段 47 語句テーブル 50 ハードディスク 51 検索手段 52 話速変換手段 101B 聴取モード選択手段 102A,102B パスワード入力手段 103A,103B 描画手段 104A,104B 座標入力手段 105A,105B 表示手段 106A,106B モード設定手段 107B 音声認識手段
───────────────────────────────────────────────────── フロントページの続き (72)発明者 大野 敬史 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 岩川 明則 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 原田 裕明 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内

Claims (25)

    【特許請求の範囲】
  1. 【請求項1】 音声を音声信号に変換する音声入力手段
    および音声信号を音声に変換する音声出力手段を備え
    た、通信回線に接続される複数の端末と、通信回線を介
    してこれら複数の端末と接続され、該端末との間で音声
    信号の収集および配信を行なうサーバとを備え、これら
    複数の端末間で音声を用いて対話を行なう音声対話シス
    テムにおいて、 前記サーバが、前記端末から送信されてきた音声信号を
    バッファリングするメモリと、該メモリにバッファリン
    グされた音声信号の配信を制御するスケジューラとを備
    えたことを特徴とする音声対話システム。
  2. 【請求項2】 前記スケジューラが前記メモリにバッフ
    ァリングされた各音声信号の配信順序を制御するもので
    あることを特徴とする請求項1記載の音声対話システ
    ム。
  3. 【請求項3】 前記サーバが、音声を同時に送信する同
    時発言者数管理手段を備え、 前記端末からの、所定の数を越える音声信号の同時送信
    を禁止するものであることを特徴とする請求項1記載の
    音声対話システム。
  4. 【請求項4】 前記サーバもしくは前記端末が、音声信
    号の無音部分を検出する無音部分検出手段を備え、 前記スケジューラが、音声信号が無音部分により分離さ
    れてなる各発言単位毎に配信順序を制御するものである
    ことを特徴とする請求項1記載の音声対話システム。
  5. 【請求項5】 前記スケジューラが、音声信号が前記サ
    ーバに到着した時刻順に該音声信号が該サーバから配信
    されるように、音声信号の配信順序を制御するものであ
    ることを特徴とする請求項1記載の音声対話システム。
  6. 【請求項6】 前記サーバが、前記端末の内部時刻の送
    信を指示するコマンドを該端末に送信する手段を備え、 前記端末が、前記コマンドに応答して自分の内部時刻を
    前記サーバに送信する手段と、前記音声信号を前記サー
    バに送信するに際して、該音声信号に送信時の自分の内
    部時刻を付して送信する手段とを備え、 前記スケジューラが、音声信号が前記端末から発信され
    た時刻順に該音声信号が前記サーバから配信されるよう
    に、音声信号の配信順序を制御するものであることを特
    徴とする請求項1記載の音声対話システム。
  7. 【請求項7】 前記サーバが音声信号をミキシングする
    ミキサを備えたことを特徴とする請求項1記載の音声対
    話システム。
  8. 【請求項8】 前記スケジューラが、音声信号が前記サ
    ーバに到達した時刻に基づいて、音声信号の配信時刻を
    制御するものであることを特徴とする請求項7記載の音
    声対話システム。
  9. 【請求項9】 前記サーバが、前記端末の内部時刻の送
    信を指示するコマンドを該端末に送信する手段を備え、 前記端末が、前記コマンドに応答して自分の内部時刻を
    前記サーバに送信する手段と、前記音声信号を前記サー
    バに送信するに際して、該音声信号に送信時の自分の内
    部時刻を付して送信する手段とを備え、 前記スケジューラが、音声信号が前記端末から発信され
    た時刻に基づいて、音声信号の配信時刻を制御するもの
    であることを特徴とする請求項7記載の音声対話システ
    ム。
  10. 【請求項10】 前記端末それぞれが論理上の人物像を
    有し、前記スケジューラが、前記論理上の人物像空間内
    における該人物像の論理上の位置関係、距離、周囲環
    境、視線方向、視界、姿勢のうちの少なくとも1つに基
    づいて音声信号の配信を制御するものであることを特徴
    とする請求項1記載の音声対話システム。
  11. 【請求項11】 前記端末それぞれが論理上の人物像を
    有し、前記論理上の人物像空間内における、該人物像の
    位置関係、距離、周囲環境、視線方向、視界、姿勢のう
    ちの少なくとも1つに基づいて音声信号に変更を加える
    エフェクタを備えたことを特徴とする請求項1記載の音
    声対話システム。
  12. 【請求項12】 前記サーバが、前記複数の端末のうち
    対話を行なう対話グループに属する端末を登録する1以
    上のグループ管理テーブルを備え、 前記スケジューラが、受信した音声信号が、該音声信号
    を発信した端末と同一の対話グループに属する端末に配
    信されるように、音声信号の配信を制御するものである
    ことを特徴とする請求項1記載の音声対話システム。
  13. 【請求項13】 前記端末が、自分が送信する音声信号
    を受信する受信先の端末を指定する複数の発信モードの
    うちのいずれか1つの発信モードを選択する発信モード
    選択手段を備えたことを特徴とする請求項1記載の音声
    対話システム。
  14. 【請求項14】 前記端末が、自分が受信する音声信号
    の送信元の端末を指定する複数の聴取モードのうちのい
    ずれか1つの聴取モードを選択する聴取モード選択手段
    を備えたことを特徴とする請求項1記載の音声対話シス
    テム。
  15. 【請求項15】 前記端末が、前記サーバに向けて、音
    声信号の発信元である端末のうちの、自分あてに送信さ
    れる音声信号の受信を拒否する端末を指定する割込禁止
    通知を行なう割込禁止通知手段を備え、 前記サーバが、割込禁止通知により指定された送信元の
    端末から受信した音声信号の送信先が該割込禁止通知を
    行なった端末であった場合に、該送信先の端末への該音
    声信号の転送を取り止めるものであることを特徴とする
    請求項1記載の音声対話システム。
  16. 【請求項16】 前記対話グループに対応してパスワー
    ドが付されており、前記端末が、パスワードを入力して
    前記サーバに送るパスワード入力手段を備え、 前記サーバが、端末から送られてきたパスワードを検査
    して正しいパスワードを送信してきた端末を、該パスワ
    ードに対応する対話グループに加入させるものであるこ
    とを特徴とする請求項1記載の音声対話システム。
  17. 【請求項17】 前記端末が、話者と、聴取者を表示す
    る表示手段を備えたことを特徴とする請求項1記載の音
    声対話システム。
  18. 【請求項18】 前記サーバが、音声信号の音質を変化
    させるエフェクタを備えたことを特徴とする請求項1記
    載の音声対話システム。
  19. 【請求項19】 前記サーバが、所定の効果音を表わす
    効果音信号を格納する効果音バッファを備え、 前記スケジューラが、送信されてきた音声信号の配信を
    制御するとともに、前記効果音バッファに格納された効
    果音信号の配信を制御するものであることを特徴とする
    請求項1記載の音声対話システム。
  20. 【請求項20】 前記サーバもしくは前記端末が、音声
    信号をテキストデータに変換する音声認識手段を備えた
    ことを特徴とする請求項1記載の音声対話システム。
  21. 【請求項21】 前記サーバと前記端末がアナログ回線
    で接続され、アナログ信号としての音声信号の始端およ
    び終端に音声信号の始端、終端を識別するためのトーン
    音を発生させるとともに受信したトーン音を検出する、
    それぞれトーン音発生手段およびトーン音検出手段を備
    えたことを特徴とする請求項1記載の音声対話システ
    ム。
  22. 【請求項22】 前記サーバが、前記端末どうしの対話
    を記憶する記憶手段を備えたことを特徴とする請求項1
    記載の音声対話システム。
  23. 【請求項23】 前記サーバが、前記端末どうしの対話
    を前記記憶手段に記憶するにあたり、該対話に付属する
    付属情報を付加して記憶するものであることを特徴とす
    る請求項22記載の音声対話システム。
  24. 【請求項24】 前記サーバが、前記付属情報に基づい
    て前記記憶手段に記憶された対話中の、所望の対話部分
    を検索する検索手段を備えたことを特徴とする請求項2
    3記載の音声対話システム。
  25. 【請求項25】 対話の話速を変換する話速変換手段を
    備えたことを特徴とする請求項22記載の音声対話シス
    テム。
JP7237079A 1995-09-14 1995-09-14 音声対話システム Pending JPH0983655A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP7237079A JPH0983655A (ja) 1995-09-14 1995-09-14 音声対話システム
US08/712,317 US5930752A (en) 1995-09-14 1996-09-11 Audio interactive system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7237079A JPH0983655A (ja) 1995-09-14 1995-09-14 音声対話システム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2005001733A Division JP2005149529A (ja) 2005-01-06 2005-01-06 音声対話システム
JP2005001734A Division JP2005184852A (ja) 2005-01-06 2005-01-06 音声対話システム

Publications (1)

Publication Number Publication Date
JPH0983655A true JPH0983655A (ja) 1997-03-28

Family

ID=17010109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7237079A Pending JPH0983655A (ja) 1995-09-14 1995-09-14 音声対話システム

Country Status (2)

Country Link
US (1) US5930752A (ja)
JP (1) JPH0983655A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297498A (ja) * 2000-08-01 2002-10-11 Sony Computer Entertainment Inc 通信システム、コンピュータプログラム実行装置、記録媒体、コンピュータプログラム、番組情報供給方法及び番組情報編集方法
JP2002373075A (ja) * 2001-06-14 2002-12-26 Sony Corp 音声メッセージ掲示板システム、情報処理端末、サーバ、および音声メッセージ発信方法
JP2003304350A (ja) * 2002-02-05 2003-10-24 Sega Corp 音声チャットシステム
JP2005237017A (ja) * 2005-03-07 2005-09-02 Toshiba Corp コミュニケーション記録システム
JP2006164212A (ja) * 2004-11-10 2006-06-22 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
WO2007010844A1 (ja) * 2005-07-19 2007-01-25 Matsushita Electric Industrial Co., Ltd. 中継装置、通信端末装置、信号復号化装置、信号処理方法、および信号処理プログラム
JP2009240360A (ja) * 2008-03-28 2009-10-22 Konami Digital Entertainment Co Ltd ゲーム音出力装置、ゲーム音制御方法、および、プログラム
JP2010193495A (ja) * 2010-04-05 2010-09-02 Sony Corp 通訳通話システム
JP2010212928A (ja) * 2009-03-10 2010-09-24 Brother Ind Ltd 通信制御装置、通信制御システム、通信制御方法、及び通信制御装置のプログラム
JP2012086089A (ja) * 2012-02-08 2012-05-10 Konami Digital Entertainment Co Ltd ゲーム音出力装置、ゲーム音制御方法、および、プログラム
WO2020022167A1 (ja) * 2018-07-27 2020-01-30 ソニー株式会社 音声通信端末、音声通信端末の情報処理方法、プログラム、配信サーバおよび配信サーバの情報処理方法
JP2021082169A (ja) * 2019-11-22 2021-05-27 トヨタ自動車株式会社 コミュニケーションシステム及び制御方法

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411931B1 (en) * 1997-08-08 2002-06-25 Sony Corporation Character data transformer and transforming method
JP2000036881A (ja) * 1998-07-16 2000-02-02 Matsushita Electric Ind Co Ltd 画像配信システムおよび画像配信方法
US6865604B2 (en) * 1998-08-26 2005-03-08 Sts Software Systems Ltd. Method for extracting a computer network-based telephone session performed through a computer network
US6408272B1 (en) 1999-04-12 2002-06-18 General Magic, Inc. Distributed voice user interface
US20050261907A1 (en) * 1999-04-12 2005-11-24 Ben Franklin Patent Holding Llc Voice integration platform
US20050091057A1 (en) * 1999-04-12 2005-04-28 General Magic, Inc. Voice application development methodology
US6363349B1 (en) * 1999-05-28 2002-03-26 Motorola, Inc. Method and apparatus for performing distributed speech processing in a communication system
EP1172975A4 (en) * 2000-02-21 2005-01-05 Ntt Docomo Inc METHOD, SYSTEM AND SERVER FOR DISTRIBUTING INFORMATION; MOBILE COMMUNICATION NETWORK SYSTEM AND METHOD FOR PROVIDING A COMMUNICATION SERVICE
US6453294B1 (en) 2000-05-31 2002-09-17 International Business Machines Corporation Dynamic destination-determined multimedia avatars for interactive on-line communications
US7047192B2 (en) * 2000-06-28 2006-05-16 Poirier Darrell A Simultaneous multi-user real-time speech recognition system
US6901270B1 (en) * 2000-11-17 2005-05-31 Symbol Technologies, Inc. Apparatus and method for wireless communication
US8374879B2 (en) * 2002-02-04 2013-02-12 Microsoft Corporation Systems and methods for managing interactions from multiple speech-enabled applications
US7167831B2 (en) * 2002-02-04 2007-01-23 Microsoft Corporation Systems and methods for managing multiple grammars in a speech recognition system
US7188066B2 (en) * 2002-02-04 2007-03-06 Microsoft Corporation Speech controls for use with a speech system
US7587317B2 (en) * 2002-02-15 2009-09-08 Microsoft Corporation Word training interface
US7966184B2 (en) * 2006-03-06 2011-06-21 Audioeye, Inc. System and method for audible web site navigation
JP3825416B2 (ja) * 2003-04-14 2006-09-27 国立大学法人北陸先端科学技術大学院大学 データ同期方法、データ同期システム及びデータ同期プログラム
US7925769B2 (en) * 2005-11-23 2011-04-12 International Business Machines Corporation Media flow converter for use in real-time delivery transactions
JP4471128B2 (ja) * 2006-11-22 2010-06-02 セイコーエプソン株式会社 半導体集積回路装置、電子機器
US20090070688A1 (en) * 2007-09-07 2009-03-12 Motorola, Inc. Method and apparatus for managing interactions
EP2241077A2 (en) * 2007-12-17 2010-10-20 Koninklijke Philips Electronics N.V. Method of controlling communications between at least two users of a communication system
JP4538494B2 (ja) * 2007-12-27 2010-09-08 Okiセミコンダクタ株式会社 音響効果回路及び処理方法
US8103511B2 (en) * 2008-05-28 2012-01-24 International Business Machines Corporation Multiple audio file processing method and system
US20100299150A1 (en) * 2009-05-22 2010-11-25 Fein Gene S Language Translation System
US9313100B1 (en) 2011-11-14 2016-04-12 Amazon Technologies, Inc. Remote browsing session management
US9330188B1 (en) 2011-12-22 2016-05-03 Amazon Technologies, Inc. Shared browsing sessions
US9087024B1 (en) * 2012-01-26 2015-07-21 Amazon Technologies, Inc. Narration of network content
US20140278403A1 (en) * 2013-03-14 2014-09-18 Toytalk, Inc. Systems and methods for interactive synthetic character dialogue
US9205333B2 (en) * 2013-06-07 2015-12-08 Ubisoft Entertainment Massively multiplayer gaming
US9782670B2 (en) 2014-04-25 2017-10-10 Ubisoft Entertainment Computer program, method, and system for enabling an interactive event among a plurality of persons
JP6532666B2 (ja) * 2014-11-07 2019-06-19 Dynabook株式会社 方法、電子機器、およびプログラム
US10896286B2 (en) 2016-03-18 2021-01-19 Audioeye, Inc. Modular systems and methods for selectively enabling cloud-based assistive technologies
US10867120B1 (en) 2016-03-18 2020-12-15 Audioeye, Inc. Modular systems and methods for selectively enabling cloud-based assistive technologies
US10444934B2 (en) 2016-03-18 2019-10-15 Audioeye, Inc. Modular systems and methods for selectively enabling cloud-based assistive technologies
US10423709B1 (en) 2018-08-16 2019-09-24 Audioeye, Inc. Systems, devices, and methods for automated and programmatic creation and deployment of remediations to non-compliant web pages or user interfaces
US11727195B2 (en) 2016-03-18 2023-08-15 Audioeye, Inc. Modular systems and methods for selectively enabling cloud-based assistive technologies
CN111524516A (zh) * 2020-04-30 2020-08-11 青岛海信网络科技股份有限公司 一种基于语音交互的控制方法、服务器及显示设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4569026A (en) * 1979-02-05 1986-02-04 Best Robert M TV Movies that talk back
US4716585A (en) * 1985-04-05 1987-12-29 Datapoint Corporation Gain switched audio conferencing network
US4710917A (en) * 1985-04-08 1987-12-01 Datapoint Corporation Video conferencing network
US4847829A (en) * 1985-04-08 1989-07-11 Datapoint Corporation Video conferencing network
US5014267A (en) * 1989-04-06 1991-05-07 Datapoint Corporation Video conferencing network
US5335276A (en) * 1992-12-16 1994-08-02 Texas Instruments Incorporated Communication system and methods for enhanced information transfer
US5594789A (en) * 1994-10-13 1997-01-14 Bell Atlantic Network Services, Inc. Transaction implementation in video dial tone network

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297498A (ja) * 2000-08-01 2002-10-11 Sony Computer Entertainment Inc 通信システム、コンピュータプログラム実行装置、記録媒体、コンピュータプログラム、番組情報供給方法及び番組情報編集方法
US8296365B2 (en) 2000-08-01 2012-10-23 Sony Computer Entertainment Inc. Communication system, computer program execution device, recording medium, computer program, program information supply method, and program information editing method
JP2002373075A (ja) * 2001-06-14 2002-12-26 Sony Corp 音声メッセージ掲示板システム、情報処理端末、サーバ、および音声メッセージ発信方法
JP2003304350A (ja) * 2002-02-05 2003-10-24 Sega Corp 音声チャットシステム
US7512656B2 (en) 2002-02-05 2009-03-31 Kabushiki Kaisha Sega Voice chat system
US8031631B2 (en) 2004-11-10 2011-10-04 Sony Corporation Information processing apparatus, method, and recording medium for communication through a network in a predetermined area
JP2006164212A (ja) * 2004-11-10 2006-06-22 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2005237017A (ja) * 2005-03-07 2005-09-02 Toshiba Corp コミュニケーション記録システム
WO2007010844A1 (ja) * 2005-07-19 2007-01-25 Matsushita Electric Industrial Co., Ltd. 中継装置、通信端末装置、信号復号化装置、信号処理方法、および信号処理プログラム
JP2007025375A (ja) * 2005-07-19 2007-02-01 Matsushita Electric Ind Co Ltd 中継装置、通信端末装置、信号復号化装置、信号処理方法、および信号処理プログラム
JP2009240360A (ja) * 2008-03-28 2009-10-22 Konami Digital Entertainment Co Ltd ゲーム音出力装置、ゲーム音制御方法、および、プログラム
JP2010212928A (ja) * 2009-03-10 2010-09-24 Brother Ind Ltd 通信制御装置、通信制御システム、通信制御方法、及び通信制御装置のプログラム
JP2010193495A (ja) * 2010-04-05 2010-09-02 Sony Corp 通訳通話システム
JP2012086089A (ja) * 2012-02-08 2012-05-10 Konami Digital Entertainment Co Ltd ゲーム音出力装置、ゲーム音制御方法、および、プログラム
WO2020022167A1 (ja) * 2018-07-27 2020-01-30 ソニー株式会社 音声通信端末、音声通信端末の情報処理方法、プログラム、配信サーバおよび配信サーバの情報処理方法
US11563856B2 (en) 2018-07-27 2023-01-24 Sony Corporation Voice communication terminal, information processing method for voice communication terminal, distribution server, and information processing method for distribution server
JP2021082169A (ja) * 2019-11-22 2021-05-27 トヨタ自動車株式会社 コミュニケーションシステム及び制御方法

Also Published As

Publication number Publication date
US5930752A (en) 1999-07-27

Similar Documents

Publication Publication Date Title
JPH0983655A (ja) 音声対話システム
US6839417B2 (en) Method and apparatus for improved conference call management
US5889764A (en) Low-latency multi-party audio chat
JP4973894B2 (ja) オーバラップするメディアメッセージを調整するシステム及び方法
JP2008159034A (ja) サーバおよび音声信号収集配信方法
EP1854271B1 (en) Method and system for associating a conference participant with a telephone call
JP2009112000A6 (ja) 実時間対話型コンテンツを無線交信ネットワーク及びインターネット上に形成及び分配する方法及び装置
JP3583284B2 (ja) チャットシステムにおける発言履歴管理システム
JP2007189671A (ja) 話し手を示す(who−is−speaking)(wis)信号アプリケーションを可能にするためのシステムおよび方法
JP2009112000A (ja) 実時間対話型コンテンツを無線交信ネットワーク及びインターネット上に形成及び分配する方法及び装置
US20040116130A1 (en) Wireless teleconferencing system
US20050254468A1 (en) Apparatus for using a modified queue to facilitate group communications
JP2006203548A (ja) 複数話者の音声信号を処理する音声信号処理装置およびプログラム
US6665722B1 (en) Store-and-forward packet radio system and method
US20060023900A1 (en) Method and apparatus for priority based audio mixing
JP2005184852A (ja) 音声対話システム
Schmandt et al. Mediated voice communication via mobile IP
KR100450319B1 (ko) 가상 환경에서 참여자간의 의사전달 장치 및 방법
JP2005149529A (ja) 音声対話システム
JP4422734B2 (ja) サーバ
JPH10215331A (ja) 音声会議システムとその情報端末装置
JP2008099314A (ja) サーバおよび音声信号収集配信方法
JP2006252458A (ja) 複数話者の音声信号を処理する音声信号処理装置およびプログラム
JPH09135298A (ja) 電話伝言通知方式
JP3732722B2 (ja) 電話用情報重畳装置および電話機

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050127

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070717