JP6972576B2 - Communication equipment, communication systems, communication methods and programs - Google Patents
Communication equipment, communication systems, communication methods and programs Download PDFInfo
- Publication number
- JP6972576B2 JP6972576B2 JP2017030890A JP2017030890A JP6972576B2 JP 6972576 B2 JP6972576 B2 JP 6972576B2 JP 2017030890 A JP2017030890 A JP 2017030890A JP 2017030890 A JP2017030890 A JP 2017030890A JP 6972576 B2 JP6972576 B2 JP 6972576B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- packet data
- data
- communication device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、通信装置、通信システム、通信方法及びプログラムに関する。 The present invention relates to communication devices, communication systems, communication methods and programs.
ネットワークを介して音声データを送受信する技術として、以下の技術が知られている。例えば、特許文献1には、ネットワークに接続された複数の会議端末を含む会議システム(以下、従来の会議システムと記載)が記載されている。会議端末は、 画像を撮影する撮影手段と、音声を入力する音声入力手段と、画像データ又は音声データの少なくとも一方を圧縮パラメータに従い圧縮する圧縮手段と、圧縮手段が圧縮した画像データ及び音声データを通信相手に送信し、通信相手から画像データ及び音声データを受信する通信手段と、通信手段が受信した画像データ及び音声データを非圧縮化する復号化手段と、復号化された画像データ及び音声データを出力する出力手段と、を有する。
The following technologies are known as technologies for transmitting and receiving voice data via a network. For example,
従来の会議システムにおいては、送信側の端末装置は、発話者から発せられた音声による音声アナログ信号をデジタル化し、さらに符号化し、音声符号化データをネットワークへ送信する。受信側の端末装置は、ネットワークから受信した音声符号化データを復号化し、アナログ信号として再生する。 In the conventional conference system, the terminal device on the transmitting side digitizes, further encodes, and transmits the voice-encoded data to the network by digitizing the voice analog signal by the voice emitted from the speaker. The terminal device on the receiving side decodes the voice-coded data received from the network and reproduces it as an analog signal.
従来の会議システムによれば、処理遅延、ネットワーク遅延、バッファリング遅延により、受信側の端末装置において、発話者が音声を発した時点から遅れて当該音声が再生される。例えば、従来の会議システムにおいて、処理遅延が発生する構成として、送信側の会議端末における音声エンコーダ、受信側の会議端末における配信制御部、音声デコーダ、音声出力制御部が挙げられる。また、バッファリング遅延が発生する構成として、音声入力制御部が挙げられる。 According to the conventional conference system, due to the processing delay, the network delay, and the buffering delay, the voice is reproduced in the terminal device on the receiving side after the time when the speaker emits the voice. For example, in a conventional conference system, examples of a configuration in which a processing delay occurs include a voice encoder in a conference terminal on the transmitting side, a distribution control unit, a voice decoder, and a voice output control unit in a conference terminal on the receiving side. Further, as a configuration in which a buffering delay occurs, a voice input control unit can be mentioned.
従来の会議システムは、システムのユーザにおいて、再生された音声のみで自身の発話タイミングを判断する必要があり、スムーズな会話が困難であった。すなわち、従来の会議システムは、システムのユーザが、上記した各種の遅延が発生する状況において会話を成立させるために、相手からの音声だけに頼り、発話タイミングを意識しなければならないといった問題がある。また、従来の会議システムは、システムのユーザが、相手からの音声が聞こえない状況で発話しようとし、既に相手ユーザも発話を開始している場合、お互いのユーザが同時に話し始めることにより、お互いのユーザの会話が混信するといった問題がある。あるいは、従来の会議システムは、システムのユーザが、相手の会話に割り込むタイミングが掴みづらいといった問題がある。従来の会議システムは、処理遅延及びバッファリング遅延等の端末装置内において生じる遅延時間を短縮させたとしても、ネットワーク遅延を解消することはできず、上記の問題を解決することはできない。従って、従来の会議システムは、端末装置内において生じる遅延時間の短縮だけでは、発話タイミングの適切な認識は困難である。 In the conventional conference system, it is necessary for the user of the system to judge his / her own utterance timing only by the reproduced voice, and it is difficult to have a smooth conversation. That is, the conventional conference system has a problem that the user of the system has to rely only on the voice from the other party and be aware of the utterance timing in order to establish a conversation in the situation where the above-mentioned various delays occur. .. Further, in the conventional conference system, when the user of the system tries to speak in a situation where the voice from the other party cannot be heard and the other user has already started speaking, each other user starts talking at the same time. There is a problem that the user's conversation interferes. Alternatively, the conventional conference system has a problem that it is difficult for the user of the system to grasp the timing of interrupting the conversation of the other party. Even if the conventional conference system shortens the delay time generated in the terminal device such as the processing delay and the buffering delay, the network delay cannot be eliminated and the above problem cannot be solved. Therefore, in the conventional conference system, it is difficult to properly recognize the utterance timing only by shortening the delay time that occurs in the terminal device.
本発明は、上記した点に鑑みてなされたものであり、送信側のユーザが発した音声が、受信側において出力される前に、送信側の発話者が音声を発したことを、受信側において把握できるようにすることを目的とする。 The present invention has been made in view of the above points, and the receiving side indicates that the speaker on the transmitting side utters the voice before the voice uttered by the user on the transmitting side is output on the receiving side. The purpose is to be able to grasp in.
発明に係る通信装置は、入力される音声を示す音声データを生成する音声データ生成部と、前記音声のレベルを検出して検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出部と、第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の期間である第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成部と、前記パケットデータを送信する送信部と、を有する。 The communication device according to the present invention includes a voice data generation unit that generates voice data indicating input voice, and a voice level detection unit that detects voice level and generates voice level information indicating the detected voice level. , The voice level information generated for the voice input in the second period, which is a period after the first period, is added to the voice data generated for the voice input in the first period. It has a packet data generation unit that generates the generated packet data, and a transmission unit that transmits the packet data.
本発明に係る通信装置は、ネットワークを介して通信可能に接続された第1の通信装置及び第2の通信装置を含む通信システムである。前記第1の通信装置は、入力される音声を示す音声データを生成する音声データ生成部と、前記音声のレベルを検出して検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出部と、第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の期間である第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成部と、前記パケットデータを、前記ネットワークを介して前記第2の通信装置に送信する送信部と、を有する。前記第2の通信装置は、前記第1の通信装置から送信された前記パケットデータを受信する受信部と、前記受信部によって受信された前記パケットデータに含まれる前記音声データを再生するための再生処理を行い、前記再生処理の結果を出力する再生処理部と、前記受信部によって受信された前記パケットデータに含まれる前記音声レベル情報によって示される音声のレベルを表示するための表示処理を行い、前記再生処理部による前記再生処理の結果の出力に先行して、前記表示処理の結果を出力する表示処理部と、を有する。 The communication device according to the present invention is a communication system including a first communication device and a second communication device that are communicably connected via a network. The first communication device has a voice data generation unit that generates voice data indicating input voice, and a voice level detection unit that detects voice level and generates voice level information indicating the detected voice level. And, in the voice data generated for the voice input in the first period, the voice level information generated for the voice input in the second period, which is a period after the first period, is added. It has a packet data generation unit that generates added packet data, and a transmission unit that transmits the packet data to the second communication device via the network. The second communication device is a receiving unit that receives the packet data transmitted from the first communication device, and a reproduction for reproducing the voice data included in the packet data received by the receiving unit. A reproduction processing unit that performs processing and outputs the result of the reproduction processing, and a display processing for displaying the level of the voice indicated by the voice level information included in the packet data received by the reception unit are performed. It has a display processing unit that outputs the result of the display processing prior to the output of the result of the reproduction processing by the reproduction processing unit.
本発明に係る通信方法は、通信装置における通信方法であって、前記通信装置は、入力される音声を示す音声データを生成する音声データ生成ステップと、前記音声のレベルを検出して検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出ステップと、第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の期間である第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成ステップと、前記パケットデータを送信する送信ステップとを有する。 The communication method according to the present invention is a communication method in a communication device, wherein the communication device has a voice data generation step of generating voice data indicating input voice and a voice detected by detecting the level of the voice. A second period, which is a period after the first period, is added to the voice data generated for the voice input in the first period and the voice level detection step for generating voice level information indicating the level of. It has a packet data generation step of generating packet data to which the voice level information generated for the voice input to is added, and a transmission step of transmitting the packet data.
本発明に係る通信方法は、 ネットワークを介して通信可能に接続された第1の通信装置及び第2の通信装置を含む通信システムにおける通信方法であって、前記第1の通信装置は、入力される音声を示す音声データを生成する音声データ生成ステップと、前記音声のレベルを検出して検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出ステップと、第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成ステップと、前記パケットデータを、ネットワークを介して第2の通信装置に送信する送信ステップとを有し、前記第2の通信装置は、前記パケットデータを受信する受信ステップと、受信した前記パケットデータに含まれる前記音声データを再生する再生処理を行い、前記再生処理の結果を出力する再生処理ステップと、受信した前記パケットデータに含まれる前記音声レベル情報によって示される音声のレベルを表示するための表示処理を行い、前記再生処理の結果の出力に先行して、前記表示処理の結果を出力する表示処理ステップと、を有する。 The communication method according to the present invention is a communication method in a communication system including a first communication device and a second communication device that are communicably connected via a network, and the first communication device is input. A voice data generation step for generating voice data indicating the voice, a voice level detection step for detecting the voice level and generating voice level information indicating the detected voice level, and input in the first period. A packet data generation step of generating packet data in which the voice level information generated for the voice input in the second period after the first period is added to the voice data generated for the voice. It has a transmission step of transmitting the packet data to a second communication device via a network, and the second communication device includes a reception step of receiving the packet data and the received packet data. A reproduction processing step of performing a reproduction process for reproducing the voice data and outputting the result of the reproduction processing, and a display process for displaying the level of the voice indicated by the voice level information included in the received packet data. It has a display processing step of performing and outputting the result of the display processing prior to the output of the result of the reproduction processing.
本発明に係るプログラムは、コンピュータを、入力される音声を示す音声データを生成する音声データ生成部、前記音声のレベルを検出し、検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出部、第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成部、前記パケットデータを送信する送信部、として機能させることを特徴とするプログラムである。 The program according to the present invention is a computer, a voice data generation unit that generates voice data indicating input voice, and voice level detection that detects the level of the voice and generates voice level information indicating the detected voice level. A packet in which the voice level information generated for the voice input in the second period after the first period is added to the voice data generated for the voice input in the first period. It is a program characterized by functioning as a packet data generation unit for generating data and a transmission unit for transmitting the packet data.
本発明によれば、送信側のユーザが発した音声が、受信側において出力される前に、送信側のユーザが音声を発したことを、受信側において把握することが可能となる。 According to the present invention, it is possible for the receiving side to know that the transmitting user has emitted the voice before the voice emitted by the transmitting user is output by the receiving side.
以下、本発明の実施形態について図面を参照しつつ説明する。尚、各図面において、実質的に同一又は等価な構成要素又は部分には同一の参照符号を付している。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In each drawing, substantially the same or equivalent components or parts are designated by the same reference numerals.
[第1の実施形態]
図1は、本発明の第1の実施形態に係る通信システム1の構成の一例を示すブロック図である。通信システム1は、ネットワーク30を介して通信可能に接続された通信装置10及び20を含んで構成されている。通信装置10及び20は、ネットワーク30を介して音声データを相互に送受信することが可能である。従って、通信システム1は、互いに離れた場所に所在する会議参加者の発する音声を相互に送受信する会議システムとして利用することが可能である。
[First Embodiment]
FIG. 1 is a block diagram showing an example of the configuration of the
なお、以下の説明では、説明の煩雑さを回避する観点から、通信装置10が、通信装置10側のユーザから発せられた音声について生成した音声データを、ネットワーク30を介して通信装置20に送信する機能を備え、通信装置20が、通信装置10から送信された音声データを受信し、受信した音声データを処理する機能を備える場合を例示している。しかしながら、通信装置10は、通信装置20が備える機能も備え、通信装置20は、通信装置10が備える機能も備えている。すなわち、通信装置10及び20は、それぞれ相互に音声データを送受信する機能を備えている。
In the following description, from the viewpoint of avoiding the complexity of the explanation, the
通信装置10は、音声データ生成部11、分配部12、音声レベル検出部13、音声エンコーダ14、音声パケットデータ生成部15及び送信部16を含んで構成されている。通信システム1は、音声データ生成部11に接続されたマイク17を有する。
The
マイク17は、通信装置10側のユーザの音声を入力し、入力される音声の大きさ(音圧レベル)に応じた振幅を有するアナログ音声信号を生成する。マイク17は、生成したアナログ音声信号を音声データ生成部11に供給する。なお、マイク17は、通信装置10の構成要素の一部として通信装置10に含まれていてもよい。
The
音声データ生成部11は、マイク17から供給されるアナログ音声信号をデジタル化する処理を行い、デジタル形式の音声データを生成する。音声データ生成部11は、生成した音声データを分配部12に供給する。
The audio
分配部12は、音声データ生成部11から供給される音声データを、音声エンコーダ14及び音声レベル検出部13に分配する。すなわち、音声エンコーダ14及び音声レベル検出部13には、互いに同じ内容の音声データが供給される。
The
音声エンコーダ14は、分配部12から供給される音声データを符号化することにより圧縮する。符号化方式の一例として、G.711、G.729、及びAACなどが挙げられる。音声エンコーダ14は、所定の時間間隔(例えば20msec間隔)で、音声データを符号化する。ここで、分配部12から供給される音声データのサンプリング周波数が、音声エンコーダ14で音声データを処理する際に用いられる取り扱うサンプリング周波数と異なる場合、音声エンコーダ14は、符号化処理前の音声データに対して、所定のサンプリング周波数でサンプリングする前処理を実施してもよい。音声エンコーダ14は、符号化した音声データ(以下、符号化音声データという)を音声パケットデータ生成部15に供給する。
The
音声レベル検出部13は、分配部12から供給される音声データにおける音声のレベルを検出して、検出した音声のレベルを示す音声レベル情報を生成する。音声レベル検出部13は、所定の時間間隔(例えば5msec間隔)で、音声レベルを検出する。なお、音声レベルを検出する時間間隔を可変としてもよい。音声レベル検出部13は、例えば、検出した音声レベルの、所定期間内における最大値を、音声レベル情報として生成する。なお、音声レベル検出部13は、検出した音声レベルの、所定期間内における平均値を、音声レベル情報として生成してもよい。音声レベル検出部13は、生成した音声レベル情報を音声パケットデータ生成部15に供給する。
The voice
音声パケットデータ生成部15は、音声エンコーダ14から供給される符号化音声データに、音声レベル検出部13から供給される音声レベル情報を付加したRTP(Real-time Transport Protocol)形式の音声パケットデータを生成する。より具体的には、音声パケットデータ生成部15は、ある期間T1に入力された音声について生成された符号化音声データに、当該期間T1よりも後の期間T2に入力された音声について生成された音声レベル情報を付加した音声パケットデータを生成する。
The voice packet
音声エンコーダ14による符号化処理には、所定の処理時間を要する。一方、音声レベル検出部による音声レベル情報の生成に要する処理時間は、符号化処理に要する処理時間よりも短い。従って、期間T1に入力された音声についての符号化音声データの生成時点と、期間T2に入力された音声についての音声レベル情報の生成時点との間の時間差は、小さい。音声パケットデータ生成部15は、生成した音声パケットデータを送信部16に供給する。
The coding process by the
図2は、音声パケットデータ生成部15によって生成される音声パケットデータ40の構造を示す図である。音声パケットデータ40は、IETF(Internet Engineering Task Force)におけるRFC1889の仕様に準拠するRTPヘッダ41及びRTP拡張ヘッダ42及びペイロード43を含んで構成されている。
FIG. 2 is a diagram showing the structure of the
RTPヘッダ41は、バージョン番号、パディング、拡張ビット、寄与送信元識別子の数、マーカビット、ペイロードタイプ、シーケンス番号、タイムスタンプ、同期送信元識別子及び寄与送信元識別子を有している。RTP拡張ヘッダ42は、プロファイル番号421、拡張ヘッダ長422及び拡張ヘッダ423を有している。本実施形態において、拡張ヘッダ423は、音声レベル情報を格納する領域として利用される。ペイロード43は、符号化音声データが格納される領域である。ペイロード43には、例えば、単位時間幅20msecの長さの音声に対応する符号化音声データが格納される。
The
以下に、RTP拡張ヘッダ42について詳述する。プロファイル番号421は、予め定義された、音声レベル情報に関わる16ビットのビット列で構成される。拡張ヘッダ長422は、拡張ヘッダ423に格納されるデータ長を示す16ビットのビット列で構成される。
The
ここで、図3A、図3B、図3Cは、それぞれ、拡張ヘッダ423に格納される音声レベル情報と、拡張ヘッダ長との関係を示す図である。ここでは、1つの音声レベル情報のデータ長は16ビットであるものとし、拡張ヘッダ長422には、32ビットを1単位とするデータ長を示す数値が格納される。
Here, FIGS. 3A, 3B, and 3C are diagrams showing the relationship between the voice level information stored in the
図3Aには、ペイロード43に単位時間幅20msecの長さの音声に対応する符号化音声データが格納され、且つ音声レベル検出部13における音声レベルの検出間隔が5msecである場合のRTP拡張ヘッダ42の構成が例示されている。この場合、音声レベル検出部13は、20msecの期間内に音声レベルを4回検出し、4つの音声レベル情報[1]〜[4]を生成する。拡張ヘッダ423には、20msecの期間内に生成された音声レベル情報[1]〜[4]が格納される。従って、この場合、拡張ヘッダ長は2となる。
In FIG. 3A, the
図3Bには、ペイロード43に単位時間幅20msecの長さの音声に対応する符号化音声データが格納され、且つ音声レベル検出部13における音声レベルの検出間隔が10msecである場合のRTP拡張ヘッダ42の構成が例示されている。この場合、音声レベル検出部13は、20msecの期間内に音声レベルを2回検出し、2つの音声レベル情報[1]、[2]を生成する。拡張ヘッダ423には、20msecの期間内に生成された音声レベル情報[1]、[2]が格納される。従って、この場合、拡張ヘッダ長は1となる。
In FIG. 3B, the
図3Cには、ペイロード43に単位時間幅20msecの長さの音声に対応する符号化音声データが格納され、且つ音声レベル検出部13における音声レベルの検出間隔が20msecである場合のRTP拡張ヘッダ42の構成が例示されている。この場合、音声レベル検出部13は、20msecの期間内に音声レベルを1回検出し、1つの音声レベル情報[1]を生成する。拡張ヘッダ423には、20msecの期間内に生成された音声レベル情報[1]および16個の「0」からなるゼロパディングが格納される。従って、この場合、拡張ヘッダ長は1となる。
In FIG. 3C, the
送信部16は、音声パケットデータ生成部15において生成された音声パケットデータを、ネットワーク30を介して相手側の通信装置20に向けて送信する。
The
図1に示すように、通信装置20は、受信部21、表示処理部22、再生処理部25を含んで構成されている。再生処理部25は、音声デコーダ23及び音声信号生成部24を有している。通信システム1は、音声信号生成部24に接続されたスピーカ26及び表示処理部22に接続された表示部27を有する。
As shown in FIG. 1, the
受信部21は、通信装置10から送信された音声パケットデータを受信する。受信部21は、受信した音声パケットデータに含まれる符号化音声データを音声デコーダ23に供給する。また、受信部21は、受信した音声パケットデータに含まれる音声レベル情報を表示処理部22に供給する。
The receiving
音声デコーダ23は、受信部21から供給される符号化音声データを復号する。すなわち、音声デコーダ23は、圧縮された音声データを伸長する処理を行う。音声デコーダ23は、復号した音声データを音声信号生成部24に供給する。
The
音声信号生成部24は、音声デコーダ23から供給される復号されたデジタル形式の音声データを、アナログ形式に変換したアナログ音声信号を生成する。音声信号生成部24は、生成したアナログ音声信号をスピーカ26に出力する。音声デコーダ23及び音声信号生成部24によって再生処理部25が構成され、再生処理部25において符号化音声データに対する再生処理が行われ、再生処理の結果がスピーカ26に出力される。
The audio
スピーカ26は、音声信号生成部24から供給されるアナログ音声信号に応じた音声を出力する。すなわち、通信装置10側のマイク17に入力されたユーザの音声がスピーカ26から出力される。なお、スピーカ26は、通信装置20の構成要素の一部として通信装置20に含まれていてもよい。
The
表示処理部22は、受信部21から供給される音声レベル情報によって示される音声レベルを表示するための表示処理を行い、その処理結果を表示部27に出力する。表示部27は、表示処理部22から出力される表示処理の結果に基づいて音声レベルを表示する。
The
表示処理部22は、再生処理部25による再生処理の結果の出力に先行して、表示処理の結果を出力する。すなわち、ネットワーク30を介して通信装置20に供給される音声パケットデータに含まれる符号化音声データに応じた音声がスピーカ26から出力されるタイミングよりも前に、当該音声パケットデータに含まれる音声レベル情報に応じた音声レベルが表示部27において表示される。音声デコーダ23による復号処理および音声信号生成部24による信号変換処理を含む再生処理には、所定の処理時間を要する。一方、表示処理部22による表示処理に要する処理時間は、再生処理に要する処理時間よりも短い。従って、表示処理部22における表示処理結果の出力を、再生処理部25における再生処理結果の出力に対して先行させることが可能である。
The
図4は、表示部27において表示される音声レベルの表示態様の一例を示す図である。図4に示すように、音声レベルを、例えば、レベルバーによって表示してもよい。図4には、音声レベルを4段階で表示する場合が例示されている。 FIG. 4 is a diagram showing an example of a display mode of the sound level displayed on the display unit 27. As shown in FIG. 4, the audio level may be displayed, for example, by a level bar. FIG. 4 illustrates a case where the voice level is displayed in four stages.
表示部27は、例えば、通信装置20に接続された液晶ディスプレイ等の表示装置によって構成されていてもよい。また、表示部27は、通信装置20を収容する筐体の表面に設けられたインジケータによって構成されていてもよい。また、表示部27は、通信装置20の構成要素の一部として通信装置20に含まれていてもよい。
The display unit 27 may be configured by, for example, a display device such as a liquid crystal display connected to the
通信装置10は、例えば、図5に示すコンピュータ100によって構成することができる。コンピュータ100は、バス110を介して相互に接続されたCPU(Central Processing Unit)101、主記憶装置102、補助記憶装置103、ハードウェアインターフェース104及び通信インターフェース105を含んで構成されている。マイク17は、ハードウェアインターフェース104に接続され、ネットワーク30は、通信インターフェース105に接続される。
The
補助記憶装置103は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等の不揮発性の記憶装置によって構成されている。補助記憶装置103には、コンピュータ100を通信装置10として機能させるためのデータ送信プログラム120が記憶されている。データ送信プログラム120は、音声データ生成処理121、音声データ分配処理122、音声データ符号化処理123、音声レベル情報生成処理124、パケットデータ生成処理125及びパケットデータ送信処理126を含んで構成されている。
The
CPU101は、データ送信プログラム120を補助記憶装置103から読み出して主記憶装置102に展開し、データ送信プログラム120が有する各処理を順次実行する。CPU101は、音声データ生成処理121を実行することで、音声データ生成部11として動作する。また、CPU101は、音声データ分配処理122を実行することで、分配部12として動作する。また、CPU101は、音声データ符号化処理123を実行することで、音声エンコーダ14として動作する。また、CPU101は、音声レベル情報生成処理124を実行することで、音声レベル検出部13として動作する。また、CPU101は、パケットデータ生成処理125を実行することで、音声パケットデータ生成部15として動作する。また、CPU101は、パケットデータ送信処理126を実行することで、送信部16として機能する。データ送信プログラム120を実行したコンピュータ100が、通信装置10として機能する。なお、データ送信プログラム120により実現される機能は、例えば、ASIC(Application Specific Integrated Circuit)等の半導体集積回路によって実現することも可能である。
The
一方、通信装置20は、例えば、図6に示すコンピュータ200によって構成することができる。コンピュータ200は、コンピュータ100の構成と同様であり、バス210を介して相互に接続されたCPU201、主記憶装置202、補助記憶装置203、ハードウェアインターフェース204及び通信インターフェース205を含んで構成されている。スピーカ26及び表示部27は、ハードウェアインターフェース204に接続され、ネットワーク30は、通信インターフェース205に接続される。
On the other hand, the
補助記憶装置203には、コンピュータ200を通信装置20として機能させるためのデータ受信プログラム220が記憶されている。データ受信プログラム220は、パケットデータ受信処理221、音声レベル表示処理222、音声データ復号処理223及び音声信号生成処理224を含んで構成されている。
The
CPU201は、データ受信プログラム220を補助記憶装置203から読み出して主記憶装置202に展開し、データ受信プログラム220が有する各処理を順次実行する。CPU201は、パケットデータ受信処理221を実行することで、受信部21として動作する。また、CPU201は、音声レベル表示処理222を実行することで、表示処理部22として動作する。また、CPU201は、音声データ復号処理223を実行することで、音声デコーダ23として動作する。また、CPU201は、音声信号生成処理224を実行することで、音声信号生成部24として動作する。データ受信プログラム220を実行したコンピュータ200が、通信装置20として機能する。なお、データ受信プログラム220により実現される機能は、ASIC等の半導体集積回路によって実現することも可能である。
The
以下に、通信装置10の動作について説明する。図7は、通信装置10において実施される処理の流れを示すフローチャートである。ステップS11において、音声データ生成部11が、マイク17から供給されるアナログ音声信号をデジタル化する処理を行い、デジタル形式の音声データを生成する。
The operation of the
ステップS12において、分配部12が、音声データ生成部11から供給された音声データを音声エンコーダ14及び音声レベル検出部13に分配する。
In step S12, the
ステップS13において、音声レベル検出部13は、分配部12から供給された音声データによって示される音声レベルを検出して、検出した音声レベルを示す音声レベル情報を生成する。ここで、音声レベル検出部13は、所定の時間間隔(例えば5msec間隔)で、音声レベルを検出するものとする。
In step S13, the voice
ステップS14において、音声エンコーダ14は、分配部12から供給された音声データを符号化することにより圧縮し、符号化音声データを生成する。ステップS13における音声レベル情報生成処理と、ステップS14における音声データ符号化処理は、並行して実施される。ここで、音声エンコーダ14は、所定の時間間隔(例えば20msec間隔)で、音声データを符号化する。
In step S14, the
ここで、図8Aは、期間T1〜T4にマイク17に入力された音声と、通信装置10において生成される符号化音声データ及び音声レベル情報との関係を示す図である。音声エンコーダ14は、時刻t1からt2までの期間T1に、マイク17に入力された音声[1]について符号化音声データ[1]を生成し、時刻t2からt3までの期間T2にマイク17に入力された音声[2]について符号化音声データ[2]を生成し、時刻t3からt4までの期間T3にマイク17に入力された音声[3]について符号化音声データ[3]を生成し、時刻t4からt5までの期間T4にマイク17に入力された音声[4]について符号化音声データ[4]を生成する。
なお、期間T1〜T4は、20msecからなる期間であり、期間T2は、期間T1より後の期間であり、期間T3は、期間T2より後の期間であり、期間T4は、期間T3より後の期間である。
Here, FIG. 8A is a diagram showing the relationship between the voice input to the
The periods T1 to T4 are periods consisting of 20 msec, the period T2 is a period after the period T1, the period T3 is a period after the period T2, and the period T4 is a period after the period T3. It is a period.
音声レベル検出部13は、マイク17に入力された音声[1]〜[4]について、それぞれ、音声レベル情報[1]〜[4]を生成する。
The voice
ステップS15において、音声パケットデータ生成部15は、音声エンコーダ14によって生成された符号化音声データに、音声レベル検出部13によって生成された音声レベル情報を付加したRTP形式の音声パケットデータを生成する。
In step S15, the voice packet
図8Bは、音声パケットデータ生成部15において生成される音声パケットデータの構成の一例を示す図である。音声パケットデータ生成部15は、期間T1にマイク17に入力された音声[1]について生成された符号化音声データ[1]をペイロード43に格納し、期間T1よりも後の期間T2にマイク17に入力された音声[2]について生成された音声レベル情報[2]を拡張ヘッダ42に格納し、さらにRTPヘッダ41を付加した音声パケットデータ40[1]を生成する。
FIG. 8B is a diagram showing an example of the configuration of voice packet data generated by the voice packet
続いて、音声パケットデータ生成部15は、期間T2にマイク17に入力された音声[2]について生成された符号化音声データ[2]をペイロード43に格納し、期間T2よりも後の期間T3にマイク17に入力された音声[3]について生成された音声レベル情報[3]を拡張ヘッダ42に格納し、さらにRTPヘッダ41を付加した音声パケットデータ40[2]を生成する。
Subsequently, the voice packet
続いて、音声パケットデータ生成部15は、期間T3にマイク17に入力された音声[3]について生成された符号化音声データ[3]をペイロード43に格納し、期間T3よりも後の期間T4にマイク17に入力された音声[4]について生成された音声レベル情報[4]を拡張ヘッダ42に格納し、さらにRTPヘッダ41を付加した音声パケットデータ40[3]を生成する。
Subsequently, the voice packet
ステップS16において、送信部16は、音声パケットデータ生成部15において生成された音声パケットデータを、ネットワーク30を介して相手側の通信装置20に向けて送信する。
In step S16, the
このように、通信装置10によれば、同一の音声について生成された音声レベル情報及び符号化音声データのうち、音声レベル情報を符号化音声データに対して先行させて送信することが可能である。
As described above, according to the
以下に、通信装置20の動作について説明する。図9は、通信装置20において実施される処理の流れを示すフローチャートである。
The operation of the
ステップS21において、受信部21は、通信装置10から送信された音声パケットデータを受信する。受信部21は、受信した音声パケットデータに含まれる符号化音声データを音声デコーダ23に供給する。また、受信部21は、受信した音声パケットデータに含まれる音声レベル情報を表示処理部22に供給する。
In step S21, the receiving
ステップS22において、表示処理部22は、受信部21から供給された音声レベル情報によって示される音声レベルを表示部27において表示するための表示処理を行い、その処理結果を表示部27に出力する。表示部27は、表示処理部22から供給された表示処理結果に基づいて音声レベルを表示する。
In step S22, the
ステップS23において、音声デコーダ23は、受信部21から供給された符号化音声データを復号する。
In step S23, the
ステップS24において、音声信号生成部24は、復号されたデジタル形式の音声データを、アナログ形式に変換したアナログ音声信号を生成する。音声信号生成部24は、生成したアナログ音声信号をスピーカ26に出力する。スピーカ26は、音声信号生成部24から供給されるアナログ音声信号に応じた音声を出力する。ステップS23における復号処理及びステップS24における音声信号生成処理を含む再生処理と、ステップS22における表示処理は、並行して実施される。
一般的に、ネットワークを経由した音声データの再生では、データ到達タイミングがネットワーク遅延時間の変動があるため、再生データを少し蓄積し、安定した再生を行うように作られている。この再生時のバッファリングの時間差に対して、表示処理部22が先行して音声レベルを通知する役割を果たす。
ここで、ステップS23における音声デコーダ23の処理遅延時間と、ステップS24における音声信号生成部24の処理遅延時間からなる、再生処理部25の処理遅延時間は、例えば、20msecとする。以下の本発明の説明は、再生処理部25の処理遅延時間を20msecとして、記載される。
In step S24, the audio
Generally, in the reproduction of audio data via a network, since the data arrival timing fluctuates in the network delay time, the reproduction data is accumulated a little and is made to perform stable reproduction. The
Here, the processing delay time of the
図10は、表示部27において表示される音声レベルの表示タイミングと、スピーカ26から出力される音声の出力タイミングとの関係の一例を示す図である。ここでは、通信装置20が、図8Bに示す構成の音声パケットデータ40[1]、40[2]及び40[3]を受信するものとする。
FIG. 10 is a diagram showing an example of the relationship between the display timing of the sound level displayed on the display unit 27 and the output timing of the sound output from the
期間T1に入力された音声に対応する符号化音声データ[1]及び期間T2に入力された音声に対応する音声レベル情報[2]を含む音声パケットデータ40[1]が、受信部21によって受信されると、表示処理部22は、音声レベル情報[2]についての表示処理結果を、再生処理部25(音声デコーダ23及び音声信号生成部24)による符号化音声データ[1]についての再生処理結果の出力に先行して出力する。
The voice packet data 40 [1] including the coded voice data [1] corresponding to the voice input in the period T1 and the voice level information [2] corresponding to the voice input in the period T2 is received by the receiving
また、期間T2に入力された音声に対応する符号化音声データ[2]及び期間T3に入力された音声に対応する音声レベル情報[3]を含む音声パケットデータ40[2]が、受信部21によって受信されると、表示処理部22は、音声レベル情報[3]についての表示処理結果を、再生処理部25(音声デコーダ23及び音声信号生成部24)による符号化音声データ[2]についての再生処理結果の出力に先行して出力する。
さらに、期間T3に入力された音声に対応する符号化音声データ[3]及び期間T4に入力された音声に対応する音声レベル情報[4]を含む音声パケットデータ40[3]が、受信部21によって受信されると、表示処理部22は、音声レベル情報[4]についての表示処理結果を、再生処理部25(音声デコーダ23及び音声信号生成部24)による符号化音声データ[3]についての再生処理結果の出力に先行して出力する。
ここで、再生処理部25の処理遅延時間は、上述のように、例えば20msecとする。
Further, the voice packet data 40 [2] including the coded voice data [2] corresponding to the voice input in the period T2 and the voice level information [3] corresponding to the voice input in the period T3 is received by the receiving
Further, the voice packet data 40 [3] including the coded voice data [3] corresponding to the voice input in the period T3 and the voice level information [4] corresponding to the voice input in the period T4 is received by the receiving
Here, the processing delay time of the
その結果、表示部27において表示される音声レベルの表示タイミングと、スピーカ26から出力される音声の出力タイミングとの関係は、図10に示されるように、符号化音声データ[1]において20msecの遅延が発生するので、スピーカ26において符号化音声データ[1]に基づく音声出力がなされるタイミングで、表示部27において音声レベル情報[3]に基づく音声レベル表示がなされる。
また、表示部27において表示される音声レベルの表示タイミングと、スピーカ26から出力される音声の出力タイミングとの関係は、図10に示されるように、符号化音声データ[2]において20msecの遅延が発生するので、スピーカ26において符号化音声データ[2]に基づく音声出力がなされるタイミングで、表示部27において音声レベル情報[4]に基づく音声レベル表示がなされる。
As a result, the relationship between the display timing of the voice level displayed on the display unit 27 and the output timing of the voice output from the
Further, as shown in FIG. 10, the relationship between the display timing of the voice level displayed on the display unit 27 and the output timing of the voice output from the
このように、通信装置20によれば、音声レベル情報に基づく音声レベル表示を、符号化音声データに基づく音声出力に先行させることできる。
As described above, according to the
以上の説明から明らかなように、本実施形態に係る通信システム1によれば、通信装置10において、同一の音声について生成された音声レベル情報及び符号化音声データのうち、音声レベル情報を符号化音声データに対して先行させて送信することが可能である。また、通信装置20において、音声レベル情報に基づく音声レベル表示を、符号化音声データに基づく音声出力に先行させることできる。これにより、送信側(通信装置10側)のユーザが発した音声が、受信側(通信装置20側)のスピーカ26から出力される前に、当該ユーザが発した音声の音声レベルが表示部27に表示される。これにより、受信側において、送信側から音声が発せられたことを、当該音声がスピーカ26から出力される前に把握することができる。従って、お互いが、同時に話し始めて、会話が混信するといった問題や、相手の会話に割り込むタイミングが掴みづらいといった問題を解消することができる。
As is clear from the above description, according to the
なお、上記した実施形態では、通信システム1を構成する通信装置10及び20が、音声通信機能を備える場合について例示したが、通信装置10及び20は、音声通信機能のみならず映像通信機能を備えていてもよい。この場合、通信システム1をテレビ会議システムとして利用することができる。なお、映像通信機能については、公知技術を利用することが可能であり、その詳細については説明を省略する。
In the above-described embodiment, the case where the
また、本実施形態に係る通信装置10及び20は、それぞれ、パーソナルコンピュータ、スマートフォン、携帯電話端末などによって実現することが可能である。パーソナルコンピュータは、デスクトップ型、ノート型及びタブレット型を含むいずれのタイプであってもよい。通信装置20を、パーソナルコンピュータで実現する場合、パーソナルコンピュータのディスプレイを表示部27として用いることが可能である。
Further, the
[第2の実施形態]
図11は、本発明の第2の実施形態に係る通信システム1Aの構成の一例を示すブロック図である。通信システム1Aは、音声通信機能に加え、映像通信機能を有する。通信システム1Aは、ネットワーク30を介して通信可能に接続された通信装置10A及び20Aを含んで構成されている。通信装置10A及び20Aは、ネットワーク30を介して音声データおよび映像データを相互に送受信することが可能である。従って、通信システム1Aは、互いに離れた場所に所在する会議参加者の発する音声を映像と共に相互に送受信するテレビ会議システムとして利用することが可能である。
[Second Embodiment]
FIG. 11 is a block diagram showing an example of the configuration of the communication system 1A according to the second embodiment of the present invention. The communication system 1A has a video communication function in addition to the voice communication function. The communication system 1A includes
通信装置10Aは、通信装置20Aが備える機能も備えており、同様に、通信装置20Aは、通信装置10Aが備える機能も備えている。すなわち、通信装置10A及び20Aは、それぞれ、音声データ及び映像データを相互に送受信する機能を備えており、互いに同じ構成を有している。
The
通信装置10Aは、上記した第1の実施形態に係る通信装置10における音声データ生成部11、分配部12、音声レベル検出部13、音声エンコーダ14、音声パケットデータ生成部15及び送信部16と、マイク17とを有し、更に映像データ生成部51、映像エンコーダ52、映像パケットデータ生成部53及び遅延部55を有する。通信システム1Aは、更に映像データ生成部51に接続されたビデオカメラ18を有する。
The
ビデオカメラ18は、通信装置10A側のユーザの映像を撮影し、アナログ映像信号を生成する。
The
映像データ生成部51は、ビデオカメラ18から供給されるアナログ映像信号をデジタル化する処理を行い、デジタル形式の映像データを生成する。映像データ生成部51は、生成した映像データを映像エンコーダ52に供給する。なお、映像データ生成部51の機能を、ビデオカメラ18が備えていてもよい。この場合、通信装置10Aから映像データ生成部51の機能を削減することができる。
The video
映像エンコーダ52は、映像データ生成部51から供給される映像データを符号化することにより圧縮する。符号化方式の一例として、MPEG−4、H.264などが挙げられる。映像エンコーダ52は、符号化した映像データ(以下、符号化映像データという)を映像パケットデータ生成部53に供給する。
The
映像パケットデータ生成部53は、映像エンコーダ52から供給される符号化映像データをパケット化する処理を行い、映像パケットデータを生成する。映像パケットデータ生成部53は、生成した映像パケットデータを送信部16に供給する。
The video packet
遅延部55は、音声エンコーダ14と、音声パケットデータ生成部15との間に設けられている。遅延部55は、音声エンコーダ14から供給される符号化音声データの、音声パケットデータ生成部15への供給を遅延させる。本実施形態に係る通信装置10Aにおいては、映像エンコーダ52による映像データの符号化処理に要する時間は、音声エンコーダ14による音声データの符号化処理に要する時間と比較して長いものとする。遅延部55によって符号化音声データの、音声パケットデータ生成部15への供給を遅延させることにより、符号化音声データと符号化映像データとの遅延差を小さくするリップシンク機能を実現することができる。
The
送信部16は、音声パケットデータ生成部15から供給される音声パケットデータ及び映像パケットデータ生成部53から供給される映像パケットデータを、ネットワーク30を介して相手側の通信装置20Aに向けて送信する。
The
通信装置20Aは、上記した第1の実施形態に係る通信装置20における受信部21、表示処理部22、再生処理部25(音声デコーダ23及び音声信号生成部24)と、スピーカ26、表示部27とを有し、更に映像デコーダ63及び映像信号生成部64を有する。通信システム1Aは、更に表示処理部22及び映像信号生成部64に接続されたモニタ28を有する。
The
映像デコーダ63は、受信部21から供給される符号化映像データを復号する。すなわち、映像デコーダ63は、圧縮された映像データを伸長する処理を行う。映像デコーダ63は、復号した映像データを映像信号生成部64に供給する。
The
映像信号生成部64は、映像デコーダ63から供給される復号されたデジタル形式の映像データを、アナログ形式に変換したアナログ映像信号を生成する。映像信号生成部64は、生成したアナログ映像信号をモニタ28に出力する。なお、映像信号生成部64の機能を、モニタ28が備えていてもよい。この場合、通信装置20Aから映像信号生成部64の機能を削減することができる。
The video
本実施形態に係る通信システム1Aによれば、上記した第1の実施形態に係る通信システム1と同様、送信側(通信装置10A側)のユーザが発した音声が、受信側(通信装置20A側)のスピーカ26から出力される前に、当該ユーザが発した音声の音声レベルがモニタ28に表示される。これにより、受信側において、送信側から音声が発せられたことを、当該音声がスピーカ26から出力される前に把握することができる。従って、お互いが、同時に話し始めて、会話が混信するといった問題や、相手の会話に割り込むタイミングが掴みづらいといった問題を解消することができる。
According to the communication system 1A according to the present embodiment, as in the
また、本実施形態に係る通信システム1Aによれば、音声通信機能に加え、映像通信機能を有する。これにより、通信装置10A側及び20B側のユーザ同士が、お互いの表情を見ながら会話を行うことができる。また、本実施形態に係る通信システム1Aによれば、遅延部55によりリップシンク機能が実現される。人は元来、会話している人の表情を見ながら、会話のキャッチボールのタイミングを認識する。そのため、相手側の音声の音声レベルをモニタ28に表示させたとしても、相手側の表情からタイミングをとろうとする。従って、本実施形態に係る通信システム1Aにおいて、音声レベル表示とリップシンク機能とを併用することで、通信システム1Aのユーザ間においてよりスムーズな会話を行うことが可能となる。
Further, according to the communication system 1A according to the present embodiment, it has a video communication function in addition to the voice communication function. As a result, the users on the
1、1A 通信システム
10、10A 通信装置
11 音声データ生成部
12 分配部
13 音声レベル検出部
14 音声エンコーダ
15 音声パケットデータ生成部
16 送信部
17 マイク
18 ビデオカメラ
20、20A 通信装置
21 受信部
22 表示処理部
23 音声デコーダ
24 音声信号生成部
25 再生処理部
26 スピーカ
27 表示部
28 モニタ
30 ネットワーク
40 音声パケットデータ
41 ヘッダ
42 拡張ヘッダ
43 ペイロード
55 遅延部
63 映像デコーダ
64 映像信号生成部
100 コンピュータ
120 データ送信プログラム
200 コンピュータ
220 データ受信プログラム
1,
Claims (10)
前記音声のレベルを検出して検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出部と、
第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の期間である第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成部と、
前記パケットデータを送信する送信部と、
を有することを特徴とする通信装置。 A voice data generator that generates voice data indicating the input voice,
A voice level detection unit that detects the voice level and generates voice level information indicating the detected voice level, and a voice level detection unit.
The voice level information generated for the voice input in the second period, which is a period after the first period, is added to the voice data generated for the voice input in the first period. A packet data generator that generates packet data, and a packet data generator
A transmitter that transmits the packet data and
A communication device characterized by having.
前記パケットデータ生成部は、前記符号化処理部によって符号化された前記音声データに、前記音声レベル情報を付加する
ことを特徴とする請求項1に記載の通信装置。 Further includes a coding processing unit that encodes the voice data, and includes a coding processing unit.
The communication device according to claim 1, wherein the packet data generation unit adds the voice level information to the voice data encoded by the coding processing unit.
ことを特徴とする請求項1または請求項2に記載の通信装置。 The communication device according to claim 1 or 2, wherein the packet data generation unit generates packet data in which the voice level information is stored in an extension header.
ことを特徴とする請求項3に記載の通信装置。 The packet data generation unit is characterized in that it generates packet data in which a plurality of voice level information generated for voices input at a plurality of different time points within a predetermined period is stored in the extension header. 3. The communication device according to 3.
前記音声レベル検出部は、前記分配部によって分配された前記音声データにおける音声について前記音声レベル情報を生成する
ことを特徴とする請求項2に記載の通信装置。 Further having a distribution unit for distributing the voice data generated by the voice data generation unit to the voice level detection unit and the coding processing unit.
The communication device according to claim 2, wherein the voice level detection unit generates the voice level information for the voice in the voice data distributed by the distribution unit.
ことを特徴とする請求項2に記載の通信装置。 The communication device according to claim 2, further comprising a delay unit that delays the supply of the voice data encoded by the coding processing unit to the packet data generation unit.
前記第1の通信装置は、
入力される音声を示す音声データを生成する音声データ生成部と、
前記音声のレベルを検出して検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出部と、
第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の期間である第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成部と、
前記パケットデータを、前記ネットワークを介して前記第2の通信装置に送信する送信部と、
を有し、
前記第2の通信装置は、
前記第1の通信装置から送信された前記パケットデータを受信する受信部と、
前記受信部によって受信された前記パケットデータに含まれる前記音声データを再生するための再生処理を行い、前記再生処理の結果を出力する再生処理部と、
前記受信部によって受信された前記パケットデータに含まれる前記音声レベル情報によって示される音声のレベルを表示するための表示処理を行い、前記再生処理部による前記再生処理の結果の出力に先行して、前記表示処理の結果を出力する表示処理部と、
を有することを特徴とする通信システム。 A communication system including a first communication device and a second communication device that are communicably connected via a network.
The first communication device is
A voice data generator that generates voice data indicating the input voice,
A voice level detection unit that detects the voice level and generates voice level information indicating the detected voice level, and a voice level detection unit.
The voice level information generated for the voice input in the second period, which is a period after the first period, is added to the voice data generated for the voice input in the first period. A packet data generator that generates packet data, and a packet data generator
A transmission unit that transmits the packet data to the second communication device via the network, and a transmission unit.
Have,
The second communication device is
A receiving unit that receives the packet data transmitted from the first communication device, and
A reproduction processing unit that performs reproduction processing for reproducing the audio data included in the packet data received by the reception unit and outputs the result of the reproduction processing, and a reproduction processing unit.
A display process for displaying the level of the voice indicated by the voice level information included in the packet data received by the receiving unit is performed, and prior to the output of the result of the reproduction processing by the reproduction processing unit, A display processing unit that outputs the result of the display processing, and
A communication system characterized by having.
前記通信装置は、
入力される音声を示す音声データを生成する音声データ生成ステップと、
前記音声のレベルを検出して検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出ステップと、
第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の期間である第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成ステップと、
前記パケットデータを送信する送信ステップと
を有することを特徴とする通信方法。 It is a communication method in a communication device.
The communication device is
A voice data generation step that generates voice data indicating the input voice, and
A voice level detection step that detects the voice level and generates voice level information indicating the detected voice level, and
The voice level information generated for the voice input in the second period, which is a period after the first period, is added to the voice data generated for the voice input in the first period. Packet data generation step to generate packet data and
A communication method comprising a transmission step for transmitting the packet data.
前記第1の通信装置は、
入力される音声を示す音声データを生成する音声データ生成ステップと、
前記音声のレベルを検出して検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出ステップと、
第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成ステップと、
前記パケットデータを、ネットワークを介して第2の通信装置に送信する送信ステップとを有し、
前記第2の通信装置は、
前記パケットデータを受信する受信ステップと、
受信した前記パケットデータに含まれる前記音声データを再生する再生処理を行い、前記再生処理の結果を出力する再生処理ステップと、
受信した前記パケットデータに含まれる前記音声レベル情報によって示される音声のレベルを表示するための表示処理を行い、前記再生処理の結果の出力に先行して、前記表示処理の結果を出力する表示処理ステップとを有する
ことを特徴とする通信方法。 A communication method in a communication system including a first communication device and a second communication device that are communicably connected via a network.
The first communication device is
A voice data generation step that generates voice data indicating the input voice, and
A voice level detection step that detects the voice level and generates voice level information indicating the detected voice level, and
Packet data obtained by adding the voice level information generated for the voice input in the second period after the first period to the voice data generated for the voice input in the first period. Packet data generation step to generate and
It has a transmission step of transmitting the packet data to a second communication device via a network.
The second communication device is
The reception step for receiving the packet data and
A reproduction processing step of performing a reproduction process of reproducing the voice data included in the received packet data and outputting the result of the reproduction process.
Display processing for displaying the level of voice indicated by the voice level information included in the received packet data, and outputting the result of the display processing prior to the output of the result of the reproduction processing. A communication method characterized by having a step.
入力される音声を示す音声データを生成する音声データ生成部、
前記音声のレベルを検出し、検出した音声のレベルを示す音声レベル情報を生成する音声レベル検出部、
第1の期間に入力された音声について生成された前記音声データに、前記第1の期間よりも後の第2の期間に入力された音声について生成された前記音声レベル情報を付加したパケットデータを生成するパケットデータ生成部、
前記パケットデータを送信する送信部、
として機能させることを特徴とするプログラム。
Computer,
A voice data generator that generates voice data indicating the input voice,
A voice level detector that detects the voice level and generates voice level information indicating the detected voice level.
Packet data obtained by adding the voice level information generated for the voice input in the second period after the first period to the voice data generated for the voice input in the first period. Packet data generator to generate,
A transmitter that transmits the packet data,
A program characterized by functioning as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017030890A JP6972576B2 (en) | 2017-02-22 | 2017-02-22 | Communication equipment, communication systems, communication methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017030890A JP6972576B2 (en) | 2017-02-22 | 2017-02-22 | Communication equipment, communication systems, communication methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018137614A JP2018137614A (en) | 2018-08-30 |
JP6972576B2 true JP6972576B2 (en) | 2021-11-24 |
Family
ID=63365804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017030890A Active JP6972576B2 (en) | 2017-02-22 | 2017-02-22 | Communication equipment, communication systems, communication methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6972576B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021100152A (en) * | 2019-12-20 | 2021-07-01 | 沖電気工業株式会社 | Communication device, communication system, program, and communication method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02262742A (en) * | 1989-04-03 | 1990-10-25 | Oki Electric Ind Co Ltd | System and device for voice packet communication |
JP2000224312A (en) * | 1999-02-01 | 2000-08-11 | Nippon Telegr & Teleph Corp <Ntt> | Method for displaying talker in voice conversation communication system, voice communication conversation system and storage medium storing program realizing talker display |
US7535995B1 (en) * | 2002-01-29 | 2009-05-19 | Cisco Technology, Inc. | System and method for volume indication during a communication session |
US7688344B2 (en) * | 2004-12-17 | 2010-03-30 | Fuji Xerox Co., Ltd. | Systems and methods for mediating teleconferences |
US7864209B2 (en) * | 2005-04-28 | 2011-01-04 | Apple Inc. | Audio processing in a multi-participant conference |
JP2016225869A (en) * | 2015-06-01 | 2016-12-28 | 株式会社リコー | Information processor, information processing system and program |
-
2017
- 2017-02-22 JP JP2017030890A patent/JP6972576B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018137614A (en) | 2018-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10930262B2 (en) | Artificially generated speech for a communication session | |
RU2408158C2 (en) | Synchronisation of sound and video | |
AU2007349607C1 (en) | Method of transmitting data in a communication system | |
JP2005033664A (en) | Communication device and its operation control method | |
JP2001331199A (en) | Method and device for voice processing | |
TW200917764A (en) | System and method for providing AMR-WB DTX synchronization | |
CN110557226A (en) | Audio transmission method and device | |
JP6972576B2 (en) | Communication equipment, communication systems, communication methods and programs | |
WO2011123234A1 (en) | Transcoder bypass in mobile handset for voip call with bluetooth headsets | |
JPH0759030A (en) | Video conference system | |
JP2017041743A (en) | Content distribution device | |
JP2020036225A (en) | Information processing apparatus, information processing method, and information processing program | |
JP2008271415A (en) | Received voice output apparatus | |
JP5434390B2 (en) | Electronic conference system, multipoint connection device, data communication method, program, recording medium, and communication device | |
JP4531013B2 (en) | Audiovisual conference system and terminal device | |
US7619994B2 (en) | Adapter for use with a tandem-free conference bridge | |
JP2006222663A (en) | Communication terminal and method for controlling communication data volume | |
JP2006279809A (en) | Apparatus and method for voice reproducing | |
JP5210788B2 (en) | Speech signal communication system, speech synthesizer, speech synthesis processing method, speech synthesis processing program, and recording medium storing the program | |
JP2005043423A (en) | Real-time packet processor and its method | |
JP4056447B2 (en) | Digital communication device | |
KR100575801B1 (en) | System for carrying out real-time lip sync by using rtp | |
JP2022108957A (en) | Data processing device, data processing system, and voice processing method | |
JP2005073057A (en) | Digital speech apparatus | |
JP4679502B2 (en) | Voice packet reproducing apparatus, communication terminal and program having clock correction function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210413 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6972576 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |