JP2008061060A - Conference system - Google Patents
Conference system Download PDFInfo
- Publication number
- JP2008061060A JP2008061060A JP2006237320A JP2006237320A JP2008061060A JP 2008061060 A JP2008061060 A JP 2008061060A JP 2006237320 A JP2006237320 A JP 2006237320A JP 2006237320 A JP2006237320 A JP 2006237320A JP 2008061060 A JP2008061060 A JP 2008061060A
- Authority
- JP
- Japan
- Prior art keywords
- conference
- data
- communication
- delay time
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明はIPネットワークに接続され、会議装置相互間で音声会議やテレビ会議を行なう会議システムに係り、特に会議に参加している会議装置の設定状態や動作状態などの付加情報が確認でき、会議参加者の会議内容に対する意思表示を可能にして、臨場感のある会議システムを提供することにある。 The present invention relates to a conference system that is connected to an IP network and performs audio conferences and video conferences between conference devices. In particular, additional information such as the setting status and operation status of conference devices participating in the conference can be confirmed. It is an object of the present invention to provide a conference system with a sense of presence by enabling participants to express their intentions regarding the content of the conference.
従来の会議システムは、受信側の会議装置で送信側の会議装置からの音声信号を受信すると、音声信号の音声レベルを示す音声レベル情報を生成し、音声レベル情報をネットワークを介して送信側の会議装置に送信し、送信側の会議装置で音声レベル情報を受信して音声レベルを視覚的に表示するように構成されたものが「特許文献1」に開示されている。 In the conventional conference system, when the receiving conference apparatus receives the audio signal from the transmitting conference apparatus, the conference system generates audio level information indicating the audio level of the audio signal, and the audio level information is transmitted to the transmitting side via the network. Japanese Patent Application Laid-Open No. 2004-133867 discloses a configuration in which audio level information is received by the conference apparatus on the transmission side and the audio level is visually displayed by the conference apparatus on the transmission side.
これにより、送信側の会議装置の話者は、自分の音声が相手(受信側会議装置)に伝わっていることを視覚化された音声レベルから直接確認することができ、安心感のある音声会議ができるというものである。 As a result, the speaker of the conference device on the sending side can directly confirm that his / her voice is transmitted to the other party (the conference device on the receiving side) from the visualized voice level. It can be done.
また、従来の会議システムは、送信側の会議装置から送信した音声・画像データが受信側の会議装置にどのような状態で届いているかを送信側の会議装置でリアルタイムに確認するため、受信側の会議装置が音声・画像データを受信すると、音声・画像データの受信状態を表す品質情報(音声データはスピーカからの出力レベル、画像データはパケット数)を生成して、品質情報と自装置の画像とを合成した合成画像を生成してネットワークを介して送信側の会議装置に送信するものが「特許文献2」に開示されている。
In addition, the conventional conferencing system confirms in real time with the conferencing device on the transmitting side how the audio / image data transmitted from the conferencing device on the transmitting side has reached the conference device on the receiving side. When the conference device receives the voice / image data, it generates quality information indicating the reception state of the voice / image data (the voice data is the output level from the speaker, and the image data is the number of packets). “
「特許文献2」には、さらに、品質情報に限らず、会議参加者の意思表示をアイコンや定型メッセージなどで映像と合成した合成画を送信できることが記載されている。
“
これにより、送信側の会議装置の話者は、自分の音声や画像が相手(受信側会議装置)に伝わっていることを品質情報の画面表示から認識でき、アイコンや定型メッセージなど画面表示から相手の意思表示も確認できるものである。
会議装置を使った通信では、常に、話者の音声(テレビ会議の場合には画像も含む)が相手に伝わっているかどうかの不安が付きまとうことになり、会議参加者が多くなる(複数地点)と、この傾向が一層顕著になる。 In communication using a conference device, there is always anxiety about whether the voice of the speaker (including images in the case of a video conference) is transmitted to the other party, and the number of participants in the conference increases (multiple locations). This tendency becomes even more pronounced.
したがって、このような不安を解消するために、会議の主催者は、会議に入る前に、予め会議参加者の全員に対して音声が聞き取れているか、画像が見えているかの確認をしなければならない。 Therefore, in order to eliminate such anxiety, the meeting organizer must confirm in advance whether all the participants can hear the sound or see the image before entering the meeting. Don't be.
「特許文献1」または「特許文献2」に開示された従来の会議システムは、受信側で受信した送信側の音声データから音声レベルを生成し、または音声データおよび画像データから品質情報を生成し、音声レベルや品質情報を送信側に送信して、送信側の会議装置に表示することにより、送信者は、自分の音声や画像が受信側(会議装置)に確実に届いていることを確認することができるが、必ずしも受信側(会議装置)の受信者が音声や画像を適切に認識できているとは限らないケースがある。
The conventional conference system disclosed in "
例えば、受信側会議装置には、音声データや画像データが届いているが、音声の場合、スピーカがオフになっていたり、音量調節ボリューム位置が不適切で、音声が聞き取れない、または聞き取り難いケースがある。 For example, audio data or image data has arrived at the receiving conference device, but in the case of audio, the speaker is turned off, the volume control volume position is inappropriate, and the audio cannot be heard or is difficult to hear There is.
また、受信側会議装置には、画像データが届いているが、表示装置の輝度、色調などが不適切で画像が見にくいケースもある。 In addition, although the image data has arrived at the receiving conference device, there are cases where it is difficult to see the image due to inappropriate brightness and color tone of the display device.
このような場合、従来の会議システムでは、音声レベルや品質情報が正常であっても、システム全体で会議を実行するためには、不適切な事態を招く課題がある。 In such a case, in the conventional conference system, there is a problem that causes an inappropriate situation in order to execute the conference in the entire system even if the audio level and quality information are normal.
また、会議の議題の表決を取るような場合には、会議参加者が多い場合(多数の地点)、各地点の参加者に賛否を確認しなければならず、一人づつ賛否を確認していくには、多くの時間が必要となって、会議の進行が効率的でない課題がある。 Also, when taking a vote on the agenda of a meeting, if there are many meeting participants (multiple locations), you must confirm the pros and cons with the participants at each point, and confirm the pros and cons of each one Has a problem that it takes a lot of time and the progress of the conference is not efficient.
さらに、会議参加者のリアクションが得られないこともあり、顔と顔を突き合わせた会議に比べて臨場感がなく、実りの少ない会議になってしまう虞がある。 Furthermore, the reaction of the conference participants may not be obtained, and there is a possibility that the conference is less fruitful and less fruitful than a conference where faces are face to face.
また、会議装置間の通信路のデータ量が多い場合など、通信遅延が長いにも拘わらず、通信遅延状況が把握できないことから、音声の送信側が音声を停止しているにも拘わらず、音声可視化データが表示され、違和感を与えるというような課題がある。 In addition, when there is a large amount of data on the communication path between the conference devices, the communication delay status cannot be grasped even though the communication delay is long. There is a problem that the visualization data is displayed and gives a sense of incongruity.
この発明はこのような課題を解決するためになされたもので、その目的は顔と顔を突き合わせた会議環境に近い擬似環境を形成して、臨場感があり、効率的な会議通信が実現可能な会議システムを提供することにある。 The present invention has been made to solve such a problem, and its purpose is to create a simulated environment close to a meeting environment in which faces are face to face, and to realize realistic and efficient conference communication. Is to provide a reliable conference system.
前記課題を解決するためこの発明に係る会議システムは、少なくとも2つ以上の会議端末をIPネットワークを介して接続し、会議端末相互間で音声会議通信の音声データまたはテレビ会議通信の音声データならびに映像データを送受信するように構成された会議システムであって、会議端末は、自側の会議端末における動作状態を付加データとして音声データまたは映像データに多重化し、多重化データをIPネットワークを介して相手側会議端末に送信する送信手段を備えるとともに、相手側会議端末の送信手段によりIPネットワークを介して送信された多重化データを受信した際、受信した多重化データから付加データを分解する分解手段と、分解手段により分解した付加データに基づいて相手側会議端末の動作状態を表示する表示手段とを備えたことを特徴とする。 In order to solve the above problems, a conference system according to the present invention connects at least two or more conference terminals via an IP network, and audio data for audio conference communication or audio data and video for video conference communication between the conference terminals. A conference system configured to transmit and receive data, wherein the conference terminal multiplexes the operation state of the conference terminal on its own side as additional data into audio data or video data, and the multiplexed data is transmitted to the other party via the IP network. A decomposing unit for decomposing the additional data from the received multiplexed data when receiving the multiplexed data transmitted via the IP network by the transmitting unit of the other conference terminal , Display that displays the operation status of the other party conference terminal based on the additional data decomposed by the disassembling means Characterized by comprising a stage.
また、この発明に係る会議システムは、少なくとも2つ以上の会議端末をIPネットワークを介して接続し、会議端末相互間で音声会議通信の音声データまたはテレビ会議通信の音声データならびに映像データを送受信するように構成された会議システムであって、各会議端末は、自側の会議端末の会議開始信号を送信する会議信号送信手段と、相手側の会議端末から送信された会議開始信号を受信すると、受信した会議開始信号に対応した受信信号を直ちに相手側の会議端末に返信する返信手段と、相手側の会議端末から受信すると、受信した受信信号に基づいて相手側の会議端末までの通信遅延時間を演算する遅延時間演算手段と、遅延時間演算手段で演算した通信遅延時間を相手側の会議端末に通知する遅延時間通知手段と、遅延時間通知手段から通知された通信遅延時間に基づいて統一されたタイムスタンプを管理するタイムスタンプ管理手段とを備えたことを特徴とする。 The conference system according to the present invention connects at least two or more conference terminals via an IP network, and transmits / receives audio data of audio conference communication or audio data and video data of video conference communication between the conference terminals. Each of the conference terminals receives a conference signal transmission means for transmitting a conference start signal of the conference terminal on the own side, and a conference start signal transmitted from the conference terminal on the other side. A reply means that immediately returns a received signal corresponding to the received conference start signal to the other party's conference terminal, and a communication delay time to the other party's conference terminal when received from the other party's conference terminal based on the received signal received A delay time calculating means for calculating the delay time, a delay time notifying means for notifying a communication delay time calculated by the delay time calculating means to the conference terminal on the other side, and a delay time Characterized by comprising a time-stamp management means for managing the unified time stamp based on the notified communication delay time knowledge means.
この発明に係る会議システムの各会議端末は、自側の会議端末における動作状態を付加データとして音声データまたは映像データに多重化し、多重化データをIPネットワークを介して相手側会議端末に送信する送信手段を備えるとともに、相手側会議端末の送信手段によりIPネットワークを介して送信された多重化データを受信した際、受信した多重化データから付加データを分解する分解手段と、分解手段により分解した付加データに基づいて相手側会議端末の動作状態を表示する表示手段とを備えたので、会議参加者は、相手側の会議端末の動作状態、例えばマイクのオン/オフやスピーカボリュームの位置などの状態を画面で確認しながら会議を実行することができ、実際の会議に近い擬似環境で、臨場感のある音声会議やテレビ会議を実現することができる。 Each conference terminal of the conference system according to the present invention multiplexes the operation state of the conference terminal on its own side as audio data or video data as additional data, and transmits the multiplexed data to the other conference terminal via the IP network. And means for decomposing the additional data from the received multiplexed data when the multiplexed data transmitted via the IP network is received by the transmitting means of the other party's conference terminal, and the addition that is decomposed by the decomposing means Display means for displaying the operation state of the other party's conference terminal based on the data, so that the conference participant can operate the other party's conference terminal, such as the microphone on / off state and the speaker volume position. The conference can be executed while checking on the screen, and in a simulated environment close to the actual conference, a realistic audio conference or TV It is possible to realize the discussions.
また、この発明に係る各会議端末は、自側の会議端末の会議開始信号を送信する会議信号送信手段と、相手側の会議端末から送信された会議開始信号を受信すると、受信した会議開始信号に対応した受信信号を直ちに相手側の会議端末に返信する返信手段と、相手側の会議端末から受信すると、受信した受信信号に基づいて相手側の会議端末までの通信遅延時間を演算する遅延時間演算手段と、遅延時間演算手段で演算した通信遅延時間を相手側の会議端末に通知する遅延時間通知手段と、遅延時間通知手段から通知された通信遅延時間に基づいて統一されたタイムスタンプを管理するタイムスタンプ管理手段とを備えたので、会議の主催会議端末は、全参加会議端末の通信遅延時間を演算して統一したタイムスタンプを管理することができ、会議状況を把握して臨場感を持たせることができる。 In addition, each conference terminal according to the present invention receives the conference start signal transmitted from the conference signal transmitting means for transmitting the conference start signal of the own conference terminal and the conference start signal transmitted from the other conference terminal. A response means for immediately returning a received signal corresponding to the other party's conference terminal, and a delay time for calculating a communication delay time to the other party's conference terminal based on the received signal when receiving from the other party's conference terminal Management unit, delay time notifying unit for notifying the other party's conference terminal of the communication delay time calculated by the delay time calculating unit, and managing a unified time stamp based on the communication delay time notified from the delay time notifying unit The meeting organizer terminal can manage the unified time stamp by calculating the communication delay time of all participating conference terminals. It is possible to have a sense of reality to grasp the conference status.
本願請求項1記載の会議システムは、少なくとも2つ以上の会議端末をIPネットワークを介して接続し、会議端末相互間で音声会議通信の音声データまたはテレビ会議通信の音声データならびに映像データを送受信するように構成された会議システムであって、会議端末は、自側の会議端末における動作状態を付加データとして音声データまたは映像データに多重化し、多重化データをIPネットワークを介して相手側会議端末に送信する送信手段を備えるとともに、相手側会議端末の送信手段によりIPネットワークを介して送信された多重化データを受信した際、受信した多重化データから付加データを分解する分解手段と、分解手段により分解した付加データに基づいて相手側会議端末の動作状態を表示する表示手段とを有するようにした。
The conference system according to
従って、本願請求項1記載の会議システムの各会議端末によれば、自側の会議端末における動作状態を付加データとして音声データまたは映像データに多重化し、多重化データをIPネットワークを介して相手側会議端末に送信する送信手段を備えるとともに、相手側会議端末の送信手段によりIPネットワークを介して送信された多重化データを受信した際、受信した多重化データから付加データを分解する分解手段と、分解手段により分解した付加データに基づいて相手側会議端末の動作状態を表示する表示手段とを有するようにしたので、会議参加者は、相手側の会議端末の動作状態、例えばマイクのオン/オフやスピーカボリュームの位置などの状態を画面で確認しながら会議を実行することができ、実際の会議に近い擬似環境で、臨場感のある音声会議やテレビ会議を実現することができる。
Therefore, according to each conference terminal of the conference system according to
また、本願請求項2記載の各会議端末は、IPネットワークに接続されている相手側の全ての会議端末の動作状態を状態管理テーブルに記憶する記憶手段を備え、分解手段で分解した付加データに基づいて、状態管理テーブルを逐次更新するようにした。
In addition, each conference terminal according to
従って、本願請求項2記載の各会議端末によれば、IPネットワークに接続されている相手側全ての会議端末の動作状態を状態管理テーブルに記憶する記憶手段を備え、分解手段で分解した付加データに基づいて、状態管理テーブルを逐次更新するようにしたので、刻々と変化する各会議端末の会議中の動作状態を画面で確認することができ、動作状態の変化により臨場感のある会議環境を形成することができる。
Therefore, according to each conference terminal according to
さらに、本願請求項3記載の状態管理テーブルが記憶する付加データとしての動作状態が、相手会議端末より受信した音声データのレベルまたは映像データのレベルまたは通信遅延時間情報であるようにした。
Furthermore, the operation state as additional data stored in the state management table according to
また、本願請求項4記載の状態管理テーブルが記憶する付加データとして、各会議端末の設定情報を含めるようにした。
In addition, setting information of each conference terminal is included as additional data stored in the state management table according to
従って、本願請求項3記載および請求項4の状態管理テーブルが記憶する付加データによれば、動作状態が、相手会議端末より受信した音声データのレベルまたは映像データのレベルまたは通信遅延時間情報であるようにし、また各会議端末の設定情報を含めるようにしたので、音声会議やテレビ会議の様々や設定情報や動作状態を記憶して、表示することができ、より臨場感のある会議にすることができる。
Therefore, according to the additional data stored in the state management table according to
さらに、本願請求項5記載の会議システムは、少なくとも2つ以上の会議端末をIPネットワークを介して接続し、会議端末相互間で音声会議通信の音声データまたはテレビ会議通信の音声データならびに映像データを送受信するように構成された会議システムであって、各会議端末は、自側の会議端末の会議開始信号を送信する会議信号送信手段と、相手側の会議端末から送信された会議開始信号を受信すると、受信した会議開始信号に対応した受信信号を直ちに相手側の会議端末に返信する返信手段と、相手側の会議端末から受信すると、受信した受信信号に基づいて相手側の会議端末までの通信遅延時間を演算する遅延時間演算手段と、遅延時間演算手段で演算した通信遅延時間を相手側の会議端末に通知する遅延時間通知手段と、遅延時間通知手段から通知された通信遅延時間に基づいて統一されたタイムスタンプを管理するタイムスタンプ管理手段とを有するようにした。
Furthermore, in the conference system according to
従って、本願請求項5記載の各会議端末によれば、各会議端末は、自側の会議端末の会議開始信号を送信する会議信号送信手段と、相手側の会議端末から送信された会議開始信号を受信すると、受信した会議開始信号に対応した受信信号を直ちに相手側の会議端末に返信する返信手段と、相手側の会議端末から受信すると、受信した受信信号に基づいて相手側の会議端末までの通信遅延時間を演算する遅延時間演算手段と、遅延時間演算手段で演算した通信遅延時間を相手側の会議端末に通知する遅延時間通知手段と、遅延時間通知手段から通知された通信遅延時間に基づいて統一されたタイムスタンプを管理するタイムスタンプ管理手段とを有するようにしたので、会議の主催会議端末は、全参加会議端末の通信遅延時間を演算して統一したタイムスタンプを管理することができ、会議状況を把握して臨場感を持たせることができる。
Therefore, according to each conference terminal according to
また、本願請求項6記載の各会議端末は、相手側の会議端末から受信した音声データを可視化する可視化手段と、可視化手段で可視化された相手側の会議端末からの音声可視化データに、相手側の会議端末までの通信遅延時間情報を付加して送信する音声可視化データ送信手段と、相手側の会議端末から自側の会議端末の音声可視化データを受信すると、付加された相手側の会議端末までの通信遅延時間情報に基づいて遅延状況を判定し、判定結果を音声可視化データとともに表示する可視化音声表示手段とを有するようにした。
Further, each conference terminal according to
従って、本願請求項6記載の各会議端末によれば、相手側の会議端末から受信した音声データを可視化する可視化手段と、可視化手段で可視化された相手側の会議端末からの音声可視化データに、相手側の会議端末までの通信遅延時間情報を付加して送信する音声可視化データ送信手段と、相手側の会議端末から自側の会議端末の音声可視化データを受信すると、付加された相手側の会議端末までの通信遅延時間情報に基づいて遅延状況を判定し、判定結果を音声可視化データとともに表示する可視化音声表示手段とを有するようにしたので、音声の送信者は、相手側に音声が伝わっていることおよびデータの通信遅延時間がどうなっているかを音声可視化データの表示画面を確認しながら会議を行なうことができ、一層臨場感のある会議を実現することができる。
Therefore, according to each conference terminal described in
さらに、本願請求項7記載の可視化音声表示手段は、通信遅延時間が所定時間を越えた場合には、判定結果を警報表示で表示するようにした。 Further, the visualized voice display means according to claim 7 of the present application displays the determination result as an alarm display when the communication delay time exceeds a predetermined time.
従って、本願請求項7記載の可視化音声表示手段によれば、通信遅延時間が所定時間を越えた場合には、判定結果を警報表示で表示するようにしたので、音声の送信側が音声を停止しているにも拘わらず、音声可視化データが表示されるような場合には、通信遅延時間が長くてタイムラグを発生していることを警告することができ、音声停止時に音声可視化データが表示される違和感を和らげることができる。 Therefore, according to the visualized voice display means according to claim 7 of the present application, when the communication delay time exceeds the predetermined time, the determination result is displayed as an alarm display, so that the voice transmitting side stops the voice. However, when voice visualization data is displayed, it can be warned that the communication delay time is long and a time lag occurs, and the voice visualization data is displayed when the voice is stopped. The feeling of strangeness can be relieved.
また、本願請求項8記載の各会議端末は、それぞれ自側の会議端末の映像を撮像し、撮像した映像データを出力する撮像手段と、相手側の会議端末より受信した映像データを再生する映像再生手段と、映像再生手段で再生された映像データから一定周期で静止画データを抽出する静止画抽出手段と、静止画抽出手段で抽出された静止画データに通信遅延時間情報を付加し、撮像手段で撮像した映像データに多重化して多重化データを送信する多重化送信手段と、相手側の会議装置から多重化データを受信すると、静止画データとともに付加された通信遅延時間を表示する静止画表示手段とを有するようにした。
Further, each conference terminal according to
従って、本願請求項8記載の各会議端末によれば、それぞれ自側の会議端末の映像を撮像し、撮像した映像データを出力する撮像手段と、相手側の会議端末より受信した映像データを再生する映像再生手段と、映像再生手段で再生された映像データから一定周期で静止画データを抽出する静止画抽出手段と、静止画抽出手段で抽出された静止画データに通信遅延時間情報を付加し、撮像手段で撮像した映像データに多重化して多重化データを送信する多重化送信手段と、相手側の会議装置から多重化データを受信すると、静止画データとともに付加された通信遅延時間を表示する静止画表示手段とを有するようにしたので、映像の送信側は、相手側に伝わっている映像がどのよう状態で表示されているかを静止画で確認しながらテレビ会議を行なうことができ、さらなる臨場感をアピールすることができる。
Therefore, according to each conference terminal according to
さらに、本願請求項9記載の静止画表示手段は、静止画データを連続スライドで表示するようにした。
Further, the still image display means according to
従って、本願請求項9記載の静止画表示手段によれば、静止画データを連続スライドで表示するようにしたので、動画データよりも遥かに少ない静止画データで、動きのある映像を表示することができ、臨場感を高めることができる。
Therefore, according to the still image display means according to
また、本願請求項10記載の各会議端末は、会議参加者の意思表示を音声メッセージ、文字メッセージまたは絵文字などで表示させるため、入力装置から入力情報を入力する入力手段と、入力手段から入力された入力情報を変換テーブルに基づいて通信コマンドに変換して送信するコマンド送信手段と、通信コマンドを受信すると、通信コマンドに対応した出力情報を出力する出力手段とを有するようにした。 In addition, each conference terminal according to claim 10 of the present application is input from an input unit for inputting input information from an input device and an input unit for displaying an intention display of a conference participant by a voice message, a text message, or a pictograph. A command transmission unit that converts the input information into a communication command based on the conversion table and transmits the communication command; and an output unit that outputs the output information corresponding to the communication command when the communication command is received.
従って、本願請求項10記載の各会議端末によれば、会議参加者の意思表示を音声メッセージ、文字メッセージまたは絵文字などで表示させるため、入力装置から入力情報を入力する入力手段と、入力手段から入力された入力情報を変換テーブルに基づいて通信コマンドに変換して送信するコマンド送信手段と、通信コマンドを受信すると、通信コマンドに対応した出力情報を出力装置に出力する出力手段とを有するようにしたので、会議の参加者は、会議内容についての賛成、反対などを速やかに表すことができ、実際の会議に近い臨場感で、効率的な会議を進行することができる。
Therefore, according to each conference terminal of
さらに、本願請求項11記載の入力手段は、入力装置を構成するパーソナルコンピュータとのインタフェースを備え、パーソナルコンピュータから入力情報が入力されるようにした。 Furthermore, the input means according to claim 11 of the present application is provided with an interface with a personal computer constituting the input device, and input information is input from the personal computer.
従って、本願請求項11記載の入力手段によれば、入力装置を構成するパーソナルコンピュータとのインタフェースを備え、パーソナルコンピュータから入力情報が入力されるようにしたので、音声会議やテレビ会議をしながら単純な操作で、かなり複雑で高度な入力情報を入力することができ、実際の会議に近い会議環境を形成することができる。
Therefore, according to the input means described in
また、本願請求項12記載の出力手段は、通信コマンドに対応して音声メッセージを記憶する音声メッセージ記憶手段を備え、通信コマンドを受信すると、対応した音声メッセージを音声メッセージ記憶手段から読み出して、可聴表示器としての音声出力装置へ出力し、音声出力装置を介して音声出力するようにした。
The output means according to
さらに、本願請求項13記載の出力手段は、通信コマンドに対応して文字メッセージを記憶する文字メッセージ記憶手段を備え、通信コマンドを受信すると、対応した文字メッセージを文字メッセージ記憶手段から読み出して、可視表示器としての表示装置へ出力し、表示装置を介して文字出力するようにした。
Further, the output means according to
従って、本願請求項12および本願請求項13記載の出力手段によれば、通信コマンドに対応して音声メッセージを記憶する音声メッセージ記憶手段を備え、通信コマンドを受信すると、対応した音声メッセージを音声メッセージ記憶手段から読み出して、可聴表示器としての音声出力装置へ出力し、出力装置を介して音声出力するようにし、または対応した文字メッセージを文字メッセージ記憶手段から読み出して、可視表示器としての表示装置へ出力し、表示装置を介して文字出力するようにしたので、単純な操作で予め設定した定型の音声メッセージまたは文字メッセージで会議参加者の意思を伝えることができ、利便性の向上をアピールすることができる。
Therefore, according to the output means of
また、本願請求項14記載の出力手段は、通信コマンドに対応して駆動力を発生する動力発生手段を備え、通信コマンドを受信すると、動力発生手段が駆動力に変換して接続された動力装置を駆動して、様々な表示板を移動(例えば、表示板を立てるまたは倒す)させて表示するようにした。
The output means according to
従って、本願請求項14記載の出力手段によれば、通信コマンドに対応して駆動力を発生する動力発生手段を備え、通信コマンドを受信すると、動力発生手段が駆動力に変換して接続された動力装置を駆動して、様々な表示板を移動(例えば、表示板を立てるまたは倒す)させて表示するようにしたので、動力装置(例えば、表示板を立てるまたは倒す)の動きで会議参加者の意思を伝え、動力装置(例えば、絵文字の表示板)の動きに遊び心を持たせることができ、楽しく和やかな音声会議やテレビ会議を提供することができる。
Therefore, according to the output means of
(実施の形態)
以下、この発明の実施の形態を添付図面に基づいて説明する。なお、本発明は、IPネットワークに接続された複数の会議端末相互間で、音声データによる音声会議または、音声データおよび映像データによるテレビ会議のための通信を行なう会議システムであり、会議の臨場感を高めるため、自分の音声または映像が相手に伝わっているか否かを確認するため、相手から送信されてくる自分の音声の可視化音声データまたは自分の映像の静止画データを画面に表示するとともに、相手の設定データや状態データ、自分と相手までの通信路の通信遅延時間を画面に表示するものである。
(Embodiment)
Embodiments of the present invention will be described below with reference to the accompanying drawings. The present invention is a conference system that performs communication for audio conferences using audio data or video conferences using audio data and video data between a plurality of conference terminals connected to an IP network. In order to check whether or not your voice or video is transmitted to the other party, to display the voice data of your voice or the still image data of your video sent from the other party on the screen, The other party's setting data and status data, and the communication delay time of the communication path to the other party are displayed on the screen.
また、本発明は、単純な操作で、会議参加者の意思表示を音声メッセージ、文字メッセージまたは動力表示で迅速に行なうものである。 In addition, the present invention quickly displays the intention of a conference participant by voice message, text message, or power display with a simple operation.
図1はこの発明に係る会議システムの一実施の形態システム構成図である。図1において、会議システム1は、IPネットワークNTと、IPネットワークNTに接続された複数の会議端末を構成する会議装置S,A,B〜Mとから構成されており、会議装置S,A,B〜Mの相互間で、音声データ通信の音声会議、または音声データ通信ならびに映像データ通信のテレビ会議が行われる。
FIG. 1 is a system configuration diagram of an embodiment of a conference system according to the present invention. In FIG. 1, the
なお、会議装置Sを会議の主催端末、会議装置A,B〜Mを会議への参加端末としているが、会議の主催端末は、会議装置S,A,B〜Mの任意の会議装置が担当することができる。また、会議装置S,A,B〜Mが2台以上であれば、任意台数で会議を開催することができる。 The conference device S is used as a conference host terminal and the conference devices A and B to M are participating in the conference. The conference host terminal is in charge of any conference device S, A, or B to M. can do. Further, if there are two or more conference devices S, A, B to M, a conference can be held with an arbitrary number.
図2はこの発明に係る会議装置の一実施の形態要部ブロック構成図である。なお、会議装置S,A,B〜Mは、同じ構成で、同じ機能を有するので、会議装置Sについて説明する。図2において、会議装置Sは、IPネットワークNTに接続され、装置全体の動作を制御するメイン処理部2と、映像・音声入力装置7および音声出力装置8に接続され、音声データならびに映像データを処理する音声・画像データ処理部3と、表示装置6に接続され、表示データの表示を制御する表示データ制御部4、意思表示の入出力を実行する応答補助装置5とから構成されている。
FIG. 2 is a block diagram showing the main part of an embodiment of the conference apparatus according to the present invention. The conference apparatuses S, A, and B to M have the same configuration and the same function, and therefore the conference apparatus S will be described. In FIG. 2, a conference device S is connected to an IP network NT and is connected to a
メイン処理部2は、会議装置Sの会議開始やスピーカのボリューム設定の操作を実施するための装置操作入力装置9、装置全体の動作を制御するシステム制御部10、音声データや映像データなどの送信データを多重化するとともに、受信した多重化データを分解する処理を施す送受信データ多重/分解部11、会議に参加している会議装置のスピーカ状態、マイク状態や参加者情報などを記憶し、更新する設定・動作状況管理テーブル12(状態管理テーブル)、会議装置相互間の通信路の通信遅延時間を格納する会議時間管理テーブル13、IPネットワークNTとのインタフェースを取り、各種データをIPネットワークNTに送信し、IPネットワークNTから受信するIP網通信I/F制御部14、応答補助装置5から供給される会議参加者の意思入力情報を変換した通信コマンドをIPネットワークNTに送信する通信の制御を行い、IPネットワークNTからの通信コマンドを受信し、応答補助装置5に送信する通信の制御を行なう応答補助装置通信制御部15を備える。
The
音声・画像データ処理部3は、マイクやカメラの映像・音声入力装置7、スピーカの音声出力装置8に接続され、映像・音声入力装置7(カメラ)で撮像した映像データを符号化し、メイン処理部2に供給するとともに、メイン処理部2から供給される映像データの符号化データを復号化して表示データ制御部4に供給する映像データ処理部(符号化/復号化)16、映像・音声入力装置7(マイク)でピックアップした音声データを符号化し、メイン処理部2に供給するとともに、メイン処理部2から供給される音声データの符号化データを復号化して音声出力装置8(スピーカ)から出力させる音声データ処理部(符号化/復号化)17、音声データ処理部(符号化/復号化)17で復号化した音声データから音声可視化データを生成し、メイン処理部2に供給する音声可視化データ生成部18および映像データ処理部(符号化/復号化)16で復号化した映像データを所定周期で抽出した静止画データをメイン処理部2に供給する静止画データ抽出部19を備える。
The audio / image
表示データ制御部4は、表示装置6に接続され、メイン処理部2から供給される音声可視化データを制御する音声可視化データ制御部20、メイン処理部2から供給される映像データや静止画データを制御する映像・静止画データ制御部21および音声可視化データ制御部20から供給される音声可視化データ、映像・静止画データ制御部21から供給される映像データおよび静止画データから表示データを生成し、表示装置6に表示させる表示データ制御部22を備える。
The display
応答補助装置5は、会議参加者の意思表示を音声メッセージ、文字メッセージあるいはメカ的な動力の表示で出力するもので、相手への意思表示の意思入力情報を入力する意思表示入力部23および相手からの意思表示の意思出力情報を出力する意思表示出力部24を備え、会議参加者の意思表示を操作卓やパーソナルコンピュータから意思入力情報として意思表示入力部23に入力すると、意思入力情報が通信コマンドに変換され、メイン処理部2(応答補助装置通信制御部15)を介してIPネットワークNTに送信され、IPネットワークNTからの意思表示の通信コマンドがメイン処理部2(応答補助装置通信制御部15)を介して、意思表示出力部24で音声メッセージ、文字メッセージあるいはメカ的な動力の意思出力情報に変換され、スピーカ、表示器、メカ装置から音声、文字あるいはメカ的な動きで意思表示がなされる。
The
図3はこの発明に係るメイン処理部の一実施の形態入出力データ(情報)関連図である。図3において、メイン処理部2は、IPネットワークNTから受信し、システム制御部10を介して相手側からの設定・動作状態情報、受信した音声可視化データ+通信遅延時間情報、受信した静止画データ+通信遅延時間情報、および音声・映像出力データを表示再生用データとして音声・画像データ処理部3または表示データ制御部4に供給する。
FIG. 3 is a diagram showing input / output data (information) related to an embodiment of the main processing unit according to the present invention. In FIG. 3, the
また、メイン処理部2は、システム制御部10を介して自装置から相手側に、出力音声の可視化データ、出力映像から抽出した静止画データおよび音声・映像入力データを送信用データとしてIPネットワークNTに送信する。
Further, the
図4はこの発明に係る音声・画像データ処理部の一実施の形態入出力データ(情報)関連図である。図4において、音声データ処理部(符号化/復号化)17は、マイクMCから入力された音声(データ)を符号化し、符号化した入力音声データをメイン処理部2に供給するとともに、メイン処理部2から供給される符号化された出力音声データを復号化して出力音声をスピーカSPから発生する。
FIG. 4 is an input / output data (information) related diagram of an embodiment of a sound / image data processing unit according to the present invention. In FIG. 4, an audio data processing unit (encoding / decoding) 17 encodes audio (data) input from the microphone MC, supplies the encoded input audio data to the
音声可視化データ生成部18は、音声データ処理部(符号化/復号化)17からの出力音声から、例えば周波数帯域(音声周波数)と対応する振幅レベルを有するイコライザー特性または振幅レベルのレベル特性の音声可視化データを生成し、出力音声の可視化データをメイン処理部2に供給する。
The voice visualization
映像データ処理部(符号化/復号化)16は、カメラCCDが撮像した入力映像(データ)を符号化し、符号化した入力映像データをメイン処理部2に供給するとともに、メイン処理部2から供給される符号化された出力映像データを復号化し、出力映像データを表示データ制御部4に供給する。
The video data processing unit (encoding / decoding) 16 encodes the input video (data) captured by the camera CCD, and supplies the encoded input video data to the
静止画データ抽出部19は、映像データ処理部(符号化/復号化)16からの出力映像データを周期的に抽出し、出力映像データから抽出した静止画データをメイン処理部2に供給する。
The still image
図5はこの発明に係る表示データ制御部の一実施の形態入力データ(情報)関連図である。図5において、音声可視化データ制御部20は、メイン処理部2から供給される設定・動作状態情報、受信した音声可視化データ+通信遅延時間情報、および音声・画像データ処理部3から供給される出力音声の可視化データを取り込み、処理・制御を施して表示データ制御部22に供給する。
FIG. 5 is an input data (information) related diagram of an embodiment of the display data control unit according to the present invention. In FIG. 5, the voice visualization
映像・静止画データ制御部21は、メイン処理部2から供給される設定・動作状態情報、受信した静止画データ+通信遅延時間情報、および音声・画像データ処理部3から供給される出力映像データを取り込み、処理・制御を施して表示データ制御部22に供給する。
The video / still image
表示データ制御部22は、音声可視化データ制御部20および映像・静止画データ制御部21から供給されるデータに基づいて表示データを生成し、表示データを表示装置6に供給して、音声可視化データや静止画データとともに通信遅延時間情報や設定・動作状況データを表示させ、また映像データを表示させる。
The display
図6はこの発明に係る応答補助ブロックの一実施の形態要部ブロック構成図である。図6において、応答補助ブロック25は、意思表示入力部23および意思表示出力部24を備えた応答補助装置5と、メイン処理部2の応答補助装置通信制御部15、システム制御部10、送受信データ多重/分解部11およびIP網通信I/F制御部14とから構成される。
FIG. 6 is a block diagram of a main part of one embodiment of the response auxiliary block according to the present invention. In FIG. 6, the response auxiliary block 25 includes a response
意思表示入力部23に入力された会議参加者の意思表示を表す意思入力情報は、通信コメントに変換され、応答補助装置通信制御部15、システム制御部10、送受信データ多重/分解部11を介して音声・映像入力データ、出力音声の可視化データ+通信遅延時間情報や出力映像から抽出した静止画データ+通信遅延時間情報に多重化されて、多重化データが送受信データ多重/分解部11からIPネットワークNTに送信される。
The intention input information representing the intention display of the conference participant input to the intention
一方、IPネットワークNTからIP網通信I/F制御部14によって受信された会議参加者の意思表示を表す通信コメントを含む多重化データは、送受信データ多重/分解部11、システム制御部10を介して音声・映像出力データ、受信した音声可視化データ+通信遅延時間情報、受信した静止画データ+通信遅延時間情報、通信コメントに分解され、応答補助装置通信制御部15を介して通信コメントが意思表示出力部24で意思出力情報に変換されて出力される。
On the other hand, the multiplexed data including the communication comment indicating the intention of the conference participant received from the IP network NT by the IP network communication I /
意思表示入力部23は、操作卓やパーソナルコンピュータに接続され、会議参加者が操作することにより、意思入力情報を受信し、意思入力情報に対応した通信コメントに変換して、通信コメントをメイン処理部2に供給する。
The intention
意思表示出力部24は、応答補助装置通信制御部15から供給される通信コメントを予め設定された意思出力情報である音声メッセージ、文字メッセージまたはメカ的な動力に変換してスピーカ、表示器、メカ装置から意思表示が具現化される。
The intention
次に、上記に説明した会議装置Sの構成要件に基づいて付加データと状態管理テーブル、会議装置間の統一時計(タイムスタンプ)管理と会議装置間の通信遅延時間、音声データの可視化、映像データの静止画化ならびに応答補助装置について説明する。 Next, based on the configuration requirements of the conference device S described above, additional data and state management table, unified clock (time stamp) management between conference devices and communication delay time between conference devices, visualization of audio data, video data A still image and response assisting device will be described.
始めに、会議装置の付加データは、会議に参加する全ての会議装置のスピーカボリュウム位置や、マイクのミュートON/OFF、会議参加者情報(人数等)、通信遅延時間情報、音声可視化データ、静止画データなどであり、音声データや映像データに多重化して送受信される。 First, the additional data of the conference device includes the speaker volume position of all conference devices participating in the conference, microphone mute ON / OFF, conference participant information (number of people, etc.), communication delay time information, voice visualization data, stationary Image data, etc., which are multiplexed with audio data and video data and transmitted / received.
図7はこの発明に係る付加データを送受信する会議装置の一実施の形態要部ブロック構成図である。図7において、会議端末Sは、自側の会議端末における動作状態を付加データとして音声データまたは映像データ(音声・映像データ)に多重化手段43で多重化し、多重化データをIPネットワークNTを介して相手側会議端末に送信する送信手段41を備えるとともに、相手側会議端末の送信手段41によりIPネットワークNTを介して送信された多重化データを受信手段42で受信した際、受信した多重化データから付加データを分解する分解手段44と、分解手段44により分解した付加データに基づいて相手側会議端末の動作状態を表示する表示手段45を備える。また、分解した付加データは、記憶手段46の状態管理テーブルTB1に格納される。 FIG. 7 is a block diagram of the main part of an embodiment of the conference apparatus for transmitting / receiving additional data according to the present invention. In FIG. 7, the conference terminal S multiplexes the operation state in the conference terminal on its own side as additional data with audio data or video data (audio / video data) by the multiplexing means 43, and the multiplexed data is transmitted via the IP network NT. Transmission means 41 for transmitting to the other party conference terminal, and when the multiplexed data transmitted via the IP network NT by the transmission means 41 of the other party conference terminal is received by the reception means 42, the received multiplexed data Decomposition means 44 for disassembling the additional data, and display means 45 for displaying the operating state of the other party conference terminal based on the additional data decomposed by the decomposition means 44. The decomposed additional data is stored in the state management table TB1 of the storage means 46.
なお、付加データを音声データまたは映像データに多重化する多重化手段43は、メイン処理部2の送受信データ多重/分解部11で構成し、多重化データをIPネットワークNTに送信する送信手段41は、IP網通信I/F制御部14で構成する。
The multiplexing means 43 that multiplexes the additional data into the audio data or the video data is constituted by the transmission / reception data multiplexing /
また、IPネットワークNTから多重化データを受信する受信手段42は、IP網通信I/F制御部14で構成し、多重化データから付加データを分解する分解手段44は、送受信データ多重/分解部11で構成する。
The receiving means 42 for receiving multiplexed data from the IP network NT is constituted by the IP network communication I /
さらに、付加データに基づいて動作状態を表示する表示手段45は、表示データ制御部4および表示装置6で構成する。
Further, the display means 45 for displaying the operation state based on the additional data is constituted by the display
これにより、会議参加者は、相手側の装置の動作状態、例えばマイクのオン/オフやスピーカボリュームの位置などの状態を画面で確認しながら会議を実行することができ、実際の会議に近い擬似環境で、臨場感のある音声会議やテレビ会議を実現することができる。 As a result, the conference participant can execute the conference while confirming the operation state of the other device, for example, the on / off state of the microphone and the position of the speaker volume, on the screen, and it can simulate the actual conference. Realistic audio and video conferences can be realized in the environment.
また、会議装置Sは、各会議装置の動作状態を記憶する状態管理テーブルTB1を有する記憶手段46を備え、分解手段44(送受信データ多重/分解部11)で分解した付加データに基づいて、状態管理テーブルTB1を逐次更新するとともに、表示手段45(表示データ制御部4および表示装置6)は、状態管理テーブルTB1に基づいて動作状態を表示するようにしたので、刻々と変化する各会議装置の会議中の動作状態を画面で確認することができ、動作状態の変化により臨場感のある会議環境を形成することができる。
In addition, the conference device S includes storage means 46 having a state management table TB1 for storing the operation state of each conference device, and based on the additional data decomposed by the decomposition means 44 (transmission / reception data multiplexing / decomposition unit 11) The management table TB1 is sequentially updated, and the display means 45 (the display
状態管理テーブルTB1が記憶する付加データは、動作状態が、相手会議端末より受信した音声データのレベルまたは映像データのレベルまたは通信遅延時間情報であり、また各会議端末の設定情報を含めるようにしたので、音声会議やテレビ会議の様々や設定情報や動作状態を記憶して、表示することができ、より臨場感のある会議にすることができる。 The additional data stored in the state management table TB1 is such that the operation state is the level of audio data or the level of video data received from the partner conference terminal or communication delay time information, and includes setting information of each conference terminal. Therefore, it is possible to store and display various kinds of voice conferences and video conferences, setting information, and operation states, and to make the conference more realistic.
図8はこの発明に係る会議装置の状態管理テーブル作成方法の一実施の形態要部動作フロー図である。図8において、会議を開始(ステップS1)し、自端末(会議装置S)の設定・動作状況情報を各端末(会議装置A,B〜M)に送信する(ステップS2)。 FIG. 8 is an operation flowchart of the main part of an embodiment of the conference apparatus state management table creation method according to the present invention. In FIG. 8, the conference is started (step S1), and the setting / operation status information of the own terminal (conference device S) is transmitted to each terminal (conference devices A, B to M) (step S2).
次に、各端末(会議装置A,B〜M)の設定・動作状況情報を受信し(ステップS3)、設定・動作状況管理(状態管理)テーブルを作成する(ステップS4)。 Next, the setting / operation status information of each terminal (conference devices A, B to M) is received (step S3), and a setting / operation status management (status management) table is created (step S4).
続いて、随時設定・動作状況情報を更新するか否かを判定し(ステップS5)、更新する場合(YES)には、ステップS2〜ステップS4を繰り返す。一方、更新しない場合(NO)には、会議を終了する(ステップS6)。 Subsequently, it is determined whether or not the setting / operation status information is updated at any time (step S5), and when it is updated (YES), steps S2 to S4 are repeated. On the other hand, if not updated (NO), the conference is terminated (step S6).
図9はこの発明に係る設定・動作状況管理テーブルの一実施の形態イメージ図である。図9において、会議装置Sの設定・動作状況管理テーブル(状態管理テーブル)は、会議装置S,A,B〜Mの設定・動作状況および状態を格納する。 FIG. 9 is a conceptual diagram of an embodiment of the setting / operation status management table according to the present invention. In FIG. 9, the setting / operation status management table (status management table) of the conference device S stores the settings / operation status and status of the conference devices S, A, B to M.
なお、会議装置A,B〜Mの設定・動作状況管理テーブルも同様に、それぞれ会議装置S,A,B〜Mの設定・動作状況および状態を格納する。 Similarly, the setting / operation status management tables of the conference apparatuses A, B to M store the setting / operation status and status of the conference apparatuses S, A, B to M, respectively.
次に、会議装置間の統一時計管理と会議装置間の通信遅延時間について説明する。なお、会議装置間の統一時計管理とは、会議を開催する会議装置の会議時間(時計)に、全ての会議装置の時計を一致させるものであり、会議装置間の通信遅延時間とは、会議装置相互間の通信路のデータ伝送遅延時間を表す。 Next, unified clock management between conference devices and communication delay time between conference devices will be described. The unified clock management between the conference devices is to match the clocks of all the conference devices with the conference time (clock) of the conference device that holds the conference. The communication delay time between the conference devices is the conference time. Indicates the data transmission delay time of the communication path between devices.
図10はこの発明に係る通信遅延時間情報を送受信する会議装置の一実施の形態要部ブロック構成図である。図10において、会議装置S(主催端末)は、会議開始ボタンが操作されると、信号発生手段47から会議開始信号発生し、会議開始信号発生を会議信号送信手段49からIPネットワークNTに送信する。なお、会議開始ボタンが操作されると、統一時計WHがスタートする。
FIG. 10 is a block diagram of a main part of an embodiment of a conference apparatus for transmitting and receiving communication delay time information according to the present invention. In FIG. 10, when the conference start button is operated, the conference device S (sponsoring terminal) generates a conference start signal from the
また、会議装置Sは、参加会議装置の場合、他の会議装置A,B〜Mのいずれかが主催端末で、IPネットワークNTを介して受信手段51で会議開始信号を受信すると、直ちに受信信号を信号発生手段47から発生し、受信信号を返信手段50からIPネットワークNTに送信する。なお、参加会議装置の場合、会議開始信号を受信すると同時に、統一時計WHをスタートする。 When the conference apparatus S is a participating conference apparatus, when any of the other conference apparatuses A and B to M is the host terminal and receives the conference start signal by the receiving means 51 via the IP network NT, the conference apparatus S immediately receives the received signal. Is generated from the signal generating means 47, and the received signal is transmitted from the reply means 50 to the IP network NT. In the case of a participating conference device, the unified clock WH is started simultaneously with receiving the conference start signal.
さらに、会議装置S(主催端末)は、他の会議装置A,B〜M(参加端末)から会議開始信号に応答した受信信号をIPネットワークNTを介して受信手段51で受信すると、受信信号に基づいて会議装置A,B〜M(参加端末)まで通信遅延時間を遅延時間演算手段52で演算し、演算した通信遅延時間を遅延時間通知手段53から送信手段48、IPネットワークNTを介して会議装置A,B〜M(参加端末)各会議端末に通知する。
Further, when the conference device S (host terminal) receives a reception signal in response to the conference start signal from the other conference devices A and B to M (participating terminals) by the reception means 51 via the IP network NT, The communication delay time is calculated by the delay time calculation means 52 from the delay
また、演算した通信遅延時間に基づいて統一されたタイムスタンプを管理手段54の時間管理テーブルTB2に格納して管理する。 Further, a time stamp unified based on the calculated communication delay time is stored and managed in the time management table TB2 of the management means 54.
なお、信号発生手段47、統一時計WH、遅延時間演算手段52、遅延時間通知手段53および管理手段54は、メイン処理部2のシステム制御部10で構成する。また、会議信号送信手段49および返信手段50からなる送信手段48ならびに受信手段51は、メイン処理部2のIP網通信I/F制御部14で構成する。
The
また、会議時間を計時する統一時計WHは、システム制御部10に内蔵し、各会議装置相互間の通信遅延時間を管理して書き換える時間管理テーブルTB2(会議時間管理テーブル13)を備える。
The unified clock WH that measures the conference time is built in the
ここで、図1および図2を用いて会議装置S,A,B〜Mの統一時計の形成(時刻合わせ)と、会議装置S,A,B〜Mの相互間の通信遅延時間の取得について説明する。最初に会議を主催する会議装置Sから会議開始信号(firstトリガ)を全ての参加会議装置A,B〜Mに送信すると同時に、会議装置Sの時計をスタートする。 Here, with reference to FIG. 1 and FIG. 2, formation of a unified clock (time adjustment) of the conference apparatuses S, A, B to M and acquisition of a communication delay time between the conference apparatuses S, A, B to M explain. First, a conference start signal (first trigger) is transmitted from all the conference devices A and B to M from the conference device S that hosts the conference, and simultaneously, the clock of the conference device S is started.
会議装置A,B〜Mは、会議装置Sからの会議開始信号(firstトリガ)を受信すると、直ちに受信信号を会議装置Sに返送すると同時に、それぞれ会議装置A,B〜Mの時計をスタートする。この時点で、会議装置A,B〜Mの時計は、会議装置Sの時計よりも、会議装置Sと会議装置A,B〜Mとの間でそれぞれ異なる通信遅延時間だけ遅れることになる。 Upon receiving the conference start signal (first trigger) from the conference device S, the conference devices A and B to M immediately return the received signal to the conference device S and simultaneously start the clocks of the conference devices A and B to M, respectively. . At this time, the clocks of the conference apparatuses A and B to M are delayed from the clock of the conference apparatus S by different communication delay times between the conference apparatus S and the conference apparatuses A and B to M, respectively.
会議装置Sは、会議装置A,B〜Mから返送されてくる受信信号を受信すると、それぞれ会議装置A,B〜Mについて、会議開始信号(firstトリガ)の送信から受信信号の受信までの時間間隔を測定し、測定した時間間隔に基づいて会議装置Sから会議装置A,B〜Mまでの通信遅延時間TDS-A、TDS-B、…、TDS-Mを演算し、演算した通信遅延時間を会議時間管理テーブル13に格納する。なお、通信遅延時間TDS-A、TDS-B、…、TDS-Mは、会議開始信号(firstトリガ)の送信から受信信号の受信までの時間間隔の1/2なので、それぞれの時間間隔を1/2にして算出する。 When the conference apparatus S receives the reception signals returned from the conference apparatuses A and B to M, the time from transmission of the conference start signal (first trigger) to reception of the reception signal is received for each of the conference apparatuses A and B to M. Measure the communication delay time TDS-A, TDS-B,..., TDS-M from the conference device S to the conference devices A, B to M based on the measured time interval, and calculate the calculated communication delay time. Is stored in the meeting time management table 13. The communication delay times TDS-A, TDS-B,..., TDS-M are ½ of the time interval from the transmission of the conference start signal (first trigger) to the reception of the received signal. Calculated as / 2.
続いて、会議装置Sは、通信遅延時間TDS-A、TDS-B、…、TDS-Mを通信遅延時間情報として会議装置A,B〜Mに送信し、通信遅延時間情報を受信した会議装置A,B〜Mは、それぞれ受信した通信遅延時間TDS-A、TDS-B、…、TDS-Mに基づいて自装置の時計を修正する。例えば、会議装置Aは、自装置の時計の時間に通信遅延時間TDS-Aを加算補正することにより、会議装置Sの時計の時間と一致させることができる。 Subsequently, the conference device S transmits the communication delay times TDS-A, TDS-B,..., TDS-M as communication delay time information to the conference devices A, B to M, and receives the communication delay time information. A and B to M correct their own clocks based on the received communication delay times TDS-A, TDS-B,..., TDS-M, respectively. For example, the conference apparatus A can match the clock time of the conference apparatus S by adding and correcting the communication delay time TDS-A to the clock time of its own apparatus.
この処理により、会議装置S,A,B〜Mの全ての時計の統一時間を形成するととともに、会議装置Sを基点とした会議装置A,B〜Mまでの通信遅延時間を会議時間管理テーブル13に格納することができる。 This process forms a unified time for all the clocks of the conference apparatuses S, A, and B to M, and communication delay times from the conference apparatus S to the conference apparatuses A and B to M as a conference time management table 13. Can be stored.
次に、会議装置Aと会議装置B〜Mの相互間の通信遅延時間は、会議装置Aからsecondトリガを会議装置B〜Mに送信し、会議装置B〜Mからの受信信号を受信して、secondトリガ送信から受信信号の受信までの時間間隔を測定し、時間間隔に基づいてそれぞれ会議装置AとB〜Mの通信遅延時間TDA-B、TDA-C、…、TDA-Mを演算し、通信遅延時間情報として会議装置Sに通知し、会議装置Sは、会議装置Aから通知された通信遅延時間情報を会議時間管理テーブル13に格納する。 Next, the communication delay time between the conference apparatus A and the conference apparatuses B to M is determined by transmitting the second trigger from the conference apparatus A to the conference apparatuses B to M and receiving the reception signals from the conference apparatuses B to M. , Measure the time interval from the second trigger transmission to reception of the received signal, and calculate the communication delay times TDA-B, TDA-C,..., TDA-M of the conference apparatuses A and B to M based on the time interval, respectively. The conference device S is notified as communication delay time information, and the conference device S stores the communication delay time information notified from the conference device A in the conference time management table 13.
以降、上記と同様にして、会議装置Bと会議装置C〜M、…、会議装置M−1と会議装置Mの通信遅延時を算出して、通信遅延時間情報を会議装置Sに通知し、会議装置Sは、通信遅延時間情報を会議時間管理テーブル13に格納する。なお、会議装置S,A,B〜Mの相互間で定期的に信号の送受信を行い、会議装置S,A,B〜M相互間の通信遅延時間を演算し、通信路間のデータ伝送量などによって通信遅延時間が変化した場合には、会議時間管理テーブル13の通信遅延時間情報を更新する。 Thereafter, in the same manner as described above, the conference device B and the conference devices C to M,..., Calculate the communication delay time between the conference device M-1 and the conference device M, and notify the conference device S of the communication delay time information. The conference device S stores the communication delay time information in the conference time management table 13. In addition, the signal transmission / reception is periodically performed between the conference apparatuses S, A, and B to M, the communication delay time between the conference apparatuses S, A, and B to M is calculated, and the data transmission amount between the communication paths is calculated. If the communication delay time changes due to the above, the communication delay time information in the conference time management table 13 is updated.
図11はこの発明に係る会議システムの通信遅延時間取得方法の一実施の形態動作フロー図である。図11において、会議が開始されると(ステップS11)と、主催端末(例えば、会議装置S)からfirstトリガ信号(会議開始信号)を参加端末(会議装置A,B〜M)へ送信する(ステップS12)。会議参加端末(会議装置A,B〜M)は、firstトリガ信号受信後、直ちに主催端末に返信する(ステップS13)。 FIG. 11 is an operation flowchart of one embodiment of a communication delay time acquisition method for a conference system according to the present invention. In FIG. 11, when the conference is started (step S11), a first trigger signal (conference start signal) is transmitted from the sponsor terminal (for example, conference device S) to the participating terminals (conference devices A, B to M) ( Step S12). The conference participation terminals (conference devices A, B to M) immediately return to the sponsor terminal after receiving the first trigger signal (step S13).
続いて、主催端末は、主催−参加端末間の通信遅延時間情報を取得する(ステップS14)。一方、参加端末が2台以上の場合には、会議参加端末は、secondトリガ信号を自端末+1以降の端末へ送信する(ステップS15)。secondトリガ信号受信端末は、secondトリガ信号受信後、直ちに送信元端末へ(受信信号を)送信する(ステップS16)。 Subsequently, the sponsor terminal acquires communication delay time information between the sponsor and the participating terminals (step S14). On the other hand, when the number of participating terminals is two or more, the conference participating terminal transmits a second trigger signal to the terminal after its own terminal + 1 (step S15). After receiving the second trigger signal, the second trigger signal receiving terminal immediately transmits (received signal) to the transmission source terminal (step S16).
会議参加端末は、各端末の通信遅延時間情報を取得し(ステップS17)、各端末の通信遅延時間情報を主催端末(会議装置S)へ送信する(ステップS18)。 The conference participation terminal acquires the communication delay time information of each terminal (step S17), and transmits the communication delay time information of each terminal to the host terminal (conference device S) (step S18).
ステップS14およびステップS18に続いて、主催端末(会議装置S)は、会議時間管理テーブル情報を作成し(ステップS19)、会議時間管理テーブル情報を全参加端末(会議装置A,B〜M)と共有化する(ステップS20)。また、情報更新実施の有無を判断し(ステップS21)、通信遅延時間取得処理を終了する。 Subsequent to step S14 and step S18, the host terminal (conference device S) creates conference time management table information (step S19), and the conference time management table information is transmitted to all participating terminals (conference devices A, B to M). Sharing (step S20). In addition, it is determined whether or not the information is updated (step S21), and the communication delay time acquisition process is terminated.
図12はこの発明に係る会議システムの統一した時計情報取得方法の一実施の形態動作フロー図である。図12において、会議が開始されると(ステップS31)、主催端末(例えば、会議装置S)からfirstトリガ信号(会議開始信号)を参加端末(会議装置A,B〜M)へ送信と同時に、統一時計をスタートする(ステップS32)。 FIG. 12 is an operation flow chart of one embodiment of a unified clock information acquisition method of the conference system according to the present invention. In FIG. 12, when the conference is started (step S31), a first trigger signal (conference start signal) is transmitted from the sponsor terminal (for example, the conference device S) to the participating terminals (conference devices A, B to M). The unified clock is started (step S32).
会議参加端末(会議装置A,B〜M)は、firstトリガ信号受信により、統一時計をスタートする(ステップS33)。全端末(会議装置S,A,B〜M)は、会議時間管理テーブル情報を共有化する(ステップS34)。 The conference participation terminals (conference devices A and B to M) start a unified clock upon receiving the first trigger signal (step S33). All terminals (conference devices S, A, B to M) share the conference time management table information (step S34).
会議参加端末(会議装置A,B〜M)は、会議時間管理テーブル情報から、主催−参加端末間の通信遅延時間を自端末の統一時計に反映する(ステップS35)。 The conference participation terminals (conference devices A, B to M) reflect the communication delay time between the sponsor and the participation terminals in the unified clock of the own terminal from the conference time management table information (step S35).
全端末(会議装置S,A,B〜M)は、統一時計情報を作成する(ステップS36)。情報更新実施の有無を判断し(ステップS36)、統一した時計情報取得処理を終了する。 All terminals (conference devices S, A, B to M) create unified clock information (step S36). It is determined whether or not information is updated (step S36), and the unified clock information acquisition process is terminated.
図13はこの発明に係る会議時間管理テーブルの一実施の形態イメージ図である。会議装置S,A,B〜M相互間の全ての通信路について、通信遅延時間を全て網羅している。また、会議開始信号やfirstトリガ信号(secondトリガ信号も含む)と受信信号の遣り取りから受信レベル状況(例えば、レベル減衰等)も記憶することができる。 FIG. 13 is an image diagram of an embodiment of the conference time management table according to the present invention. All communication delay times are covered for all communication paths between the conference apparatuses S, A, B to M. Further, the reception level situation (for example, level attenuation, etc.) can be stored from the exchange of the conference start signal, the first trigger signal (including the second trigger signal) and the received signal.
これにより、会議の主催会議装置(例えば、会議装置S)は、全参加会議装置(会議装置S,A,B〜M)の通信遅延時間を演算して統一したタイムスタンプを管理することができ、会議状況を把握して臨場感を持たせることができる。 As a result, the conference hosting conference device (for example, conference device S) can manage the unified time stamp by calculating the communication delay time of all participating conference devices (conference devices S, A, B to M). , Can grasp the meeting situation and give a sense of reality.
続いて、会議装置の音声データの可視化について説明する。図14はこの発明に係る音声可視化データを送受信する会議装置の一実施の形態要部ブロック構成図である。図14において、会議装置Sは、相手側の会議装置から受信した音声データ(出力音声)を抜き出して可視化する可視化手段55と、相手側の会議装置から自側の会議装置の音声可視化データを受信すると、可視化手段55で可視化された相手側の会議装置からの音声可視化データに、時間管理テーブルTB2に格納されている相手側の会議装置までの通信遅延時間情報を付加してIPネットワークNTに送信する音声可視データ送信手段56と、IPネットワークNTから通信遅延時間情報が付加された音声可視化データを音声可視データ受信手段57で受信すると、付加された通信遅延時間情報に基づいて遅延状況を判定し、判定結果を音声可視化データとともに表示する可視化音声手段58とを備える。 Subsequently, visualization of audio data of the conference apparatus will be described. FIG. 14 is a block diagram of a main part of an embodiment of a conference apparatus for transmitting and receiving voice visualization data according to the present invention. In FIG. 14, the conference apparatus S receives the visualization means 55 for extracting and visualizing the voice data (output voice) received from the other party's conference apparatus, and the voice visualization data of the own party's conference apparatus from the other party's conference apparatus. Then, communication delay time information to the other party conference device stored in the time management table TB2 is added to the voice visualization data from the other party conference device visualized by the visualization means 55 and transmitted to the IP network NT. When the voice visible data receiving means 57 receives the voice visible data to which the communication delay time information is added from the IP network NT, the voice visible data receiving means 57 determines the delay state based on the added communication delay time information. Visualization voice means 58 for displaying the determination result together with the voice visualization data.
なお、音声データを可視化する可視化手段55は、音声・画像データ処理部3の音声可視化データ生成部18で構成する。音声可視化データに、通信遅延時間情報を付加する時間管理テーブルTB2は、メイン処理部2のシステム制御部10が会議時間管理テーブル13から通信遅延時間情報を検索して付加する。
The visualizing means 55 for visualizing the audio data is configured by the audio visualization
また、音声可視データ送信手段56および音声可視データ受信手段57は、メイン処理部2のIP網通信I/F制御部14で構成し、可視化音声手段58は、メイン処理部2のシステム制御部10および表示データ制御部4の表示データ制御部22および表示装置6で構成する。
The voice visible data transmission means 56 and the voice visible data reception means 57 are configured by the IP network communication I /
これにより、音声の送信者は、相手側に音声が伝わっていることおよびデータの通信遅延時間がどうなっているかを音声可視化データの表示画面を確認しながら会議を行なうことができ、一層臨場感のある会議を実現することができる。 As a result, the voice sender can hold the conference while checking the voice visualization data display screen to confirm that the voice is transmitted to the other party and the communication delay time of the data. A meeting can be realized.
また、可視化音声手段58は、通信遅延時間が所定時間を越えた場合には、判定結果を警報表示で表示する。なお、通信遅延時間が所定時間を越えたか否かを判定するのは、メイン処理部2のシステム制御部10が担当する。
Further, when the communication delay time exceeds a predetermined time, the visualizing
これにより、音声の送信側が音声を停止しているにも拘わらず、音声可視化データが表示されるような場合には、通信遅延時間が長くてタイムラグを発生していることを警告することができ、音声停止時に音声可視化データが表示される違和感を和らげることができる。 As a result, when the voice visualization data is displayed even though the voice transmission side has stopped the voice, it is possible to warn that the communication delay time is long and a time lag has occurred. It is possible to relieve the uncomfortable feeling that the voice visualization data is displayed when the voice is stopped.
次に、映像データの静止画化について説明する。図15はこの発明に係る静止画データを送受信する会議装置の一実施の形態要部ブロック構成図である。図15において、会議装置Sは、それぞれ自装置の映像を撮像し、映像データを出力する撮像手段59と、相手側の会議装置より受信した映像データを再生する映像再生手段62と、映像再生手段62で再生された映像データ(出力映像)から一定周期で静止画データを抽出する静止画抽出手段61と、静止画抽出手段61で抽出された静止画データに時間管理テーブルTB2に格納された通信遅延時間情報を付加し、撮像手段59で撮像した映像データと多重化して多重化データを送信する多重化送信手段60と、相手側の会議装置から多重化データを分解化受信手段63で受信すると、静止画データとともに付加された通信遅延時間を表示する静止画表示手段64とを備える。 Next, a description will be given of the conversion of video data into a still image. FIG. 15 is a block diagram of the main part of an embodiment of a conference apparatus for transmitting and receiving still image data according to the present invention. In FIG. 15, the conference apparatus S captures an image of its own apparatus and outputs image data, an image reproduction means 62 that reproduces image data received from the other party's conference apparatus, and an image reproduction means. Still image extraction means 61 for extracting still image data from the video data (output video) reproduced in 62 at a fixed period, and communication stored in the time management table TB2 in the still image data extracted by the still image extraction means 61 When delay time information is added, multiplexed transmission means 60 that multiplexes the video data imaged by the imaging means 59 and transmits multiplexed data, and when the multiplexed data is received by the decomposing reception means 63 from the conference apparatus on the other side. And still image display means 64 for displaying the communication delay time added together with the still image data.
なお、自装置の映像を撮像し、映像データを出力する撮像手段59は、カメラCCD、映像データを再生する映像再生手段62は、音声・画像データ処理部3の映像データ処理部(符号化/復号化)16、静止画データを抽出する静止画抽出手段61は、静止画データ抽出部19、静止画データに通信遅延時間情報を付加し、撮像手段で撮像した映像データと多重化して多重化データを送信する多重化送信手段60および分解化受信手段63は、メイン処理部2のシステム制御部10、送受信データ多重/分解部11、会議時間管理テーブル13およびIP網通信I/F制御部14で構成し、静止画表示手段64は、表示データ制御部4および表示装置6で構成する。
The image pickup means 59 for picking up an image of the device itself and outputting the image data is a camera CCD, and the image reproduction means 62 for reproducing the image data is a video data processing section (encoding / coding) of the audio / image
また、静止画表示手段64は、静止画データを連続スライドで表示する。 Still image display means 64 displays still image data in a continuous slide.
図16はこの発明に係る会議システムの映像音声の伝送方法の一実施の形態動作フロー図である。図16において、映像・音声を入力すると(ステップP1)、入力映像・音声の符号化を実行し(ステップP2)、符号化映像・音声に送信時の統一時計情報を多重化して(ステップP3)、符号化映像・音声+統一時計情報を送信する(ステップP4)。なお、ステップP1〜ステップP4のステップは、送信端末側(例えば、会議装置S)が実行する。 FIG. 16 is an operation flowchart of one embodiment of the video / audio transmission method of the conference system according to the present invention. In FIG. 16, when video / audio is input (step P1), encoding of the input video / audio is executed (step P2), and unified clock information at the time of transmission is multiplexed on the encoded video / audio (step P3). The encoded video / audio + unified clock information is transmitted (step P4). In addition, the transmission terminal side (for example, conference apparatus S) performs the step of step P1-step P4.
符号化映像・音声+統一時計情報を受信して(ステップP5)、符号化映像・音声と統一時計情報へ分解した後(ステップP6)、符号化映像・音声を復号化し、通信遅延時間情報を生成する(ステップP7)。なお、通信遅延時間情報の生成は、後述する図13を参照にする。 After receiving the encoded video / audio + unified clock information (step P5) and decomposing the encoded video / audio and the unified clock information (step P6), the encoded video / audio is decoded and communication delay time information is obtained. Generate (step P7). Note that generation of communication delay time information is referred to FIG.
再生動画の静止画データを抽出し、再生音声可視化データを生成し(ステップP8)、動画データ/音声データを再生し、音声可視化データを表示する(ステップP9)。続いて、静止画データ/音声可視化データに通信遅延時間情報を付加し(ステップP10)、静止画データ/音声可視化データ+通信遅延時間情報を送信する(ステップP11)。なお、ステップP5〜ステップP11のステップは、受信側端末(例えば、会議装置A)が実行する。 Still image data of the reproduced moving image is extracted, reproduced audio visualization data is generated (step P8), the moving image data / audio data is reproduced, and the audio visualization data is displayed (step P9). Subsequently, the communication delay time information is added to the still image data / audio visualization data (step P10), and the still image data / audio visualization data + communication delay time information is transmitted (step P11). In addition, the receiving side terminal (for example, conference apparatus A) performs the step of step P5-step P11.
静止画データ/音声可視化データ+通信遅延時間情報を受信し(ステップP12)、静止画データ/音声可視化データ、設定・動作状態情報および通信遅延時間情報から表示データを生成して(ステップP13)、生成された表示データを表示する(ステップP14)。なお、ステップP12〜ステップP14のステップは、送信端末側(例えば、会議装置S)が実行する。 Still image data / sound visualization data + communication delay time information is received (step P12), display data is generated from still image data / sound visualization data, setting / operation state information, and communication delay time information (step P13). The generated display data is displayed (step P14). Note that the steps of Step P12 to Step P14 are executed by the transmission terminal side (for example, the conference device S).
図17はこの発明に係る通信遅延時間情報生成フロー図である。図17において、受信した多重化データから統一時計情報を取得し(ステップP21)、受信した統一時計情報と現在の自端末統一時計情報を比較して(ステップP22)、通信遅延時間を算出する(ステップP23)。 FIG. 17 is a communication delay time information generation flowchart according to the present invention. In FIG. 17, the unified clock information is acquired from the received multiplexed data (step P21), the received unified clock information is compared with the current terminal unified clock information (step P22), and the communication delay time is calculated (step P22). Step P23).
会議時間管理テーブルと算出した通信遅延時間を比較し(ステップP24)、通信遅延時間情報を生成する(ステップP25)。 The conference time management table is compared with the calculated communication delay time (step P24), and communication delay time information is generated (step P25).
これにより、映像の送信側は、相手側に伝わっている映像がどのよう状態で表示されているかを静止画で確認しながらテレビ会議を行なうことができ、さらなる臨場感をアピールすることができる。 Accordingly, the video transmission side can perform a video conference while confirming in a still image how the video transmitted to the other party is displayed, and can further enhance the sense of reality.
また、動画データよりも遥かに少ない静止画データの連続スライドで、動きのある映像を表示することができ、臨場感を高めることができる。 In addition, moving images can be displayed with a continuous slide of still image data far less than moving image data, and the sense of reality can be enhanced.
図18および図19はこの発明に係る表示装置の一実施の形態表示画面である。図において、表示画面は、会議装置Sの画面を示し、例えば画面の上段には、会議装置Aと会議装置Bの動画および会議装置Sの音声可視化データ、画面の下段には、例えば、左側には、会議装置Aで再生されている会議装置Sと会議装置Bの静止画および会議装置Aの音声可視化データが表示されており、右側には、会議装置Bで再生されている会議装置Sと会議装置Aの静止画および会議装置Bの音声可視化データが表示されている。また、静止画および音声可視化データには、通信遅延時間と、その正常または異常やボリューム設定などの情報も表示されている。 18 and 19 are display screens of an embodiment of the display device according to the present invention. In the figure, the display screen shows the screen of the conference apparatus S. For example, the upper part of the screen shows the video of the conference apparatuses A and B and the audio visualization data of the conference apparatus S, and the lower part of the screen shows, for example, the left side. Shows the still images of the conference device S and the conference device B being played back by the conference device A and the audio visualization data of the conference device A, and the conference device S being played back by the conference device B on the right side. The still image of the conference apparatus A and the voice visualization data of the conference apparatus B are displayed. In addition, in the still image and the audio visualization data, information such as a communication delay time, normality or abnormality thereof, and volume setting is also displayed.
従って、会議装置Sの話者は、会議装置Aと会議装置Bが撮像した動画と会話を聞きながら、会議装置Aおよび会議装置Bに届いている自分の映像および音声を静止画と音声可視化データで目視確認できるとともに、通信遅延時間情報や設定・動作状況も目視確認することができ、実際の会議環境に近い擬似会議環境の雰囲気を体験することができる。 Therefore, the speaker of the conference apparatus S can view his / her video and audio received at the conference apparatus A and the conference apparatus B as still images and voice visualization data while listening to the video and conversation captured by the conference apparatus A and the conference apparatus B. In addition to the visual confirmation, the communication delay time information and the setting / operation status can also be visually confirmed, and the atmosphere of the pseudo conference environment close to the actual conference environment can be experienced.
続いて、意思表示のための応答補助装置について説明する。図20はこの発明に係る意思表示のための情報を送受信する会議装置の一実施の形態要部ブロック構成図である。図20において、会議装置Sは、会議参加者の意思表示を音声メッセージ、文字メッセージまたは絵文字などで表示させるため、入力装置(例えば、パーソナルコンピュータ)から入力情報を入力する入力手段65と、入力手段65から入力された入力情報を変換テーブル66に基づいて通信コマンドに変換して送信するコマンド送信手段67と、通信コマンドを受信すると、通信コマンドに対応した出力情報を出力する出力手段69とを備える。 Next, a response assisting device for intention display will be described. FIG. 20 is a block diagram of a main part of an embodiment of a conference apparatus for transmitting and receiving information for intention display according to the present invention. In FIG. 20, the conference apparatus S has an input means 65 for inputting input information from an input device (for example, a personal computer) in order to display the intention display of the conference participant by a voice message, a text message, or a pictograph. Command transmission means 67 that converts the input information input from 65 into a communication command based on the conversion table 66 and transmits it, and output means 69 that outputs the output information corresponding to the communication command when the communication command is received. .
入力手段65は、パーソナルコンピュータとのインタフェースを備え、パーソナルコンピュータから入力情報が入力されるようにした。 The input means 65 has an interface with a personal computer, and input information is input from the personal computer.
出力手段69は、通信コマンドに対応して音声メッセージを記憶する音声メッセージ記憶手段(メモリ)を備え、通信コマンドを受信すると、対応した音声メッセージを音声メッセージ記憶手段から読み出して、可聴表示器としての音声出力装置(例えば、スピーカ)へ出力し、音声出力装置(スピーカ)を介して音声出力する。
The
また、出力手段69は、通信コマンドに対応して文字メッセージを記憶する文字メッセージ記憶手段(メモリ)を備え、通信コマンドを受信すると、対応した文字メッセージを文字メッセージ記憶手段から読み出して、可視表示器としての表示装置(例えば、表示器)へ出力し、表示装置(表示器)を介して文字出力する。 The output means 69 includes character message storage means (memory) for storing a character message corresponding to the communication command. When the communication command is received, the output means 69 reads the corresponding character message from the character message storage means, and displays the visual message. Are output to a display device (for example, a display device), and characters are output via the display device (display device).
さらに、出力手段69は、通信コマンドに対応して駆動力を発生する動力発生手段を備え、通信コマンドを受信すると、動力発生手段が駆動力に変換して接続された動力装置を駆動して、様々な表示板を移動(例えば、表示板を立てるまたは倒す)させて表示する。
Furthermore, the
入力手段65は、応答補助装置5の意思表示入力部23、出力手段69は、応答補助装置5の意思表示出力部24で構成し、変換テーブル66は、意思表示入力部23および意思表示出力部24に内蔵された共通なメモリで構成する。また、音声メッセージを記憶する音声メッセージ記憶手段、文字メッセージを記憶する文字メッセージ記憶手段(メモリ)および駆動力に変換する動力発生手段(動力変換部)は、意思表示出力部24に内蔵するメモリで構成する。また、通信コマンドを送信するコマンド送信手段67は、メイン処理部2の応答補助装置通信制御部15、IP網通信I/F制御部14で構成する。
The input means 65 is configured by the intention
図21はこの発明に係る応答補助装置の一実施の形態応用図である。図21において、会議装置Sの応答補助装置5は、意思表示入力部23、意思表示出力部24および変換テーブル26を備え、入力情報を入力する操作卓27やパーソナルコンピュータ28が意思表示入力部23に接続され、出力情報を音声メッセージで出力する出力装置としての音声出力装置29(スピーカ等可聴表示器)、出力情報を文字メッセージで表示する出力装置としての表示装置30(表示器)または出力情報を表示板の移動動作とする出力装置としてのメカ装置31が意思表示出力部24に接続される。
FIG. 21 is an application diagram of one embodiment of the response assisting apparatus according to the present invention. In FIG. 21, the
操作卓27のボタン操作またはパーソナルコンピュータ28のキー入力操作により、入力情報を意思表示入力部23に入力すると、入力情報は、変換テーブル26で通信コマンドに変換され、メイン処理部2からIPネットワークNTに送信される。
When input information is input to the intention
一方、IPネットワークNTからメイン処理部2を介して通信コマンドが受信されると、通信コマンドは、変換テーブル26で対応する情報に変換され、変換された情報が意思表示出力部24に内蔵された音声メッセージ格納部(音声メッセージ記憶手段)、文字データ格納部(文字メッセージ記憶手段)または動力変換部(動力発生手段)から予め情報に対応して格納された音声メッセージ、文字メッセージ、または駆動力に変換されて、出力情報として出力され、音声出力装置29、表示装置30またはメカ装置31(動力装置)を駆動する。
On the other hand, when a communication command is received from the IP network NT via the
会議参加者は、例えば、会議の議題へ賛成する場合、音声出力装置29から「賛成します」の音声メッセージ、表示装置30から「賛成します」の文字メッセージ、またはメカ装置31から「賛成」の表示板などで行なうことができる。
For example, when a conference participant approves the agenda of the conference, a voice message “I Agree” from the
図22はこの発明に係る会議装置の意思表示方法の一実施の形態要部動作フロー図である。図22において、会議参加者が入力情報を入力する(ステップP31)と、入力情報を定型コマンドへ変換し(ステップP32)して、コマンドを送信する(ステップP33)。 FIG. 22 is an operation flowchart of the main part of one embodiment of the intention display method of the conference apparatus according to the present invention. In FIG. 22, when a conference participant inputs input information (step P31), the input information is converted into a standard command (step P32), and the command is transmitted (step P33).
続いて、コマンドを受信すると(ステップP34)と、受信コマンドを出力情報へ変換して(ステップP35)、出力情報を出力する(ステップP36)。 Subsequently, when a command is received (step P34), the received command is converted into output information (step P35), and output information is output (step P36).
これにより、会議の参加者は、会議内容についての賛成、反対などの意思表示を速やかに表すことができ、実際の会議に近い臨場感で、効率的な会議を進行することができる。 Thereby, participants of the conference can promptly express their intentions such as approval and disagreement about the content of the conference, and can proceed with an efficient conference with a sense of reality close to that of the actual conference.
また、音声会議やテレビ会議をしながら単純な操作で、かなり複雑で高度な入力情報を入力することができ、実際の会議に近い会議環境を形成することができる。 In addition, it is possible to input fairly complicated and advanced input information with a simple operation while performing an audio conference or a video conference, and a conference environment close to an actual conference can be formed.
さらに、単純な操作で予め設定した定型の音声メッセージまたは文字メッセージで会議参加者の意思を伝えることができ、利便性の向上をアピールすることができる。 Furthermore, the intention of the conference participant can be communicated by a standard voice message or text message set in advance by a simple operation, and an improvement in convenience can be appealed.
また、動力装置(例えば、表示板を立てるまたは倒す)の動きで会議参加者の意思を伝え、動力装置(例えば、絵文字の表示板)の動きに遊び心を持たせることができ、楽しく和やかな音声会議やテレビ会議を提供することができる。 In addition, the intention of the conference participants can be communicated by the movement of the power unit (for example, raising or lowering the display board), and the movement of the power unit (for example, the display board of pictograms) can be made playful. Meetings and video conferencing can be provided.
以上説明したように、本発明に係る会議システムは、付加データと状態管理テーブル、会議装置間の統一時計(タイムスタンプ)管理と会議装置間の通信遅延時間、音声データの可視化、映像データの静止画化ならびに応答補助装置のトータルの構成で、実際の会議環境に近い擬似環境を形成し、臨場感のある会議通信を実行することができる。 As described above, the conference system according to the present invention has the additional data and state management table, the unified clock (time stamp) management between conference devices and the communication delay time between conference devices, the visualization of audio data, and the stillness of video data. With the total configuration of the imaging and response assisting device, it is possible to form a simulated environment that is close to the actual conference environment and perform conference communication with a sense of reality.
本会議システムは、実際の会議環境に近づけ、顔と顔を突き合わせたのに近い擬似環境を形成して、臨場感があり、効率的な会議が実現可能なもので、音声会議ならびにテレビ会議を行なうあらゆる会議システムに適用することができる。 This conference system is close to the actual conference environment and forms a simulated environment that is close to the face-to-face. It can be applied to any conference system.
1 会議システム
2 メイン処理部
3 音声・画像データ処理部
4 表示データ制御部
5 応答処理装置
6 表示装置
7 映像・音声入力装置
8 音声出力装置
9 装置操作入力装置
10 システム制御部
11 送受信多重/分解部
12 設定・動作状況管理テーブル
13 会議時間管理テーブル
14 IP網通信I/F制御部
15 応答補助装置通信制御部
16 映像データ処理部(符号化/復号化)
17 音声データ処理部(符号化/復号化)
18 音声可視化データ生成部
19 静止画データ抽出部
20 音声可視化データ制御部
21 映像・静止画データ制御部
22 表示データ制御部
23 意思表示入力部
24 意思表示出力部
25 応答補助ブロック
26 変換テーブル
27 操作卓
28 パーソナルコンピュータ
29 音声出力装置
30 表示装置
31 メカ装置
41 送信手段
42 受信手段
43 多重化手段
44 分解手段
45 表示手段
46 記憶手段
47 信号発生手段
48 送信手段
49 会議信号送信手段
50 返信手段
51 受信手段
52 遅延時間演算手段
53 遅延時間通知手段
54 管理手段
55 可視手段
56 音声可視データ送信手段
57 音声可視データ受信手段
58 音声表示手段
59 撮像手段
60 多重化送信手段
61 静止画抽出手段
62 映像再生手段
63 分解化受信手段
64 静止画表示手段
65 入力手段
66 変換テーブル
67 コマンド送信手段
68 コマンド受信手段
69 出力手段
S,A,B〜M 会議装置
KSU 会議支援手段
NT IPネットワーク
MC マイク
SP スピーカ
CCD カメラ
WH 統一時計
BT 会議開始ボタン
TB1 状態管理テーブル
TB2 時間管理テーブル
DESCRIPTION OF
17 Audio data processing unit (encoding / decoding)
18 Voice Visualization
Claims (14)
前記各会議端末は、自側の会議端末における動作状態を付加データとして前記音声データまたは前記映像データに多重化し、多重化データを前記IPネットワークを介して相手側会議端末に送信する送信手段を備えるとともに、前記相手側会議端末の前記送信手段により前記IPネットワークを介して送信された前記多重化データを受信した際、受信した前記多重化データから前記付加データを分解する分解手段と、前記分解手段により分解した前記付加データに基づいて前記相手側会議端末の動作状態を表示する表示手段と、を備えたことを特徴とする会議システム。 A conference system configured to connect at least two or more conference terminals via an IP network and transmit / receive audio data of audio conference communication or audio data and video data of video conference communication between the conference terminals. And
Each conference terminal includes a transmission unit that multiplexes the operation state of the conference terminal on its own side as additional data with the audio data or the video data, and transmits the multiplexed data to the other conference terminal via the IP network. And a decomposing means for decomposing the additional data from the received multiplexed data when the multiplexed data transmitted via the IP network is received by the transmitting means of the counterpart conference terminal, and the decomposing means And a display means for displaying the operating state of the counterpart conference terminal based on the additional data decomposed by the above.
前記各会議端末は、自側の会議端末の会議開始信号を送信する会議信号送信手段と、相手側の会議端末から送信された会議開始信号を受信すると、受信した前記会議開始信号に対応した受信信号を直ちに前記相手側の会議端末に返信する返信手段と、前記相手側の会議端末から受信すると、受信した前記受信信号に基づいて前記相手側の会議端末までの通信遅延時間を演算する遅延時間演算手段と、前記遅延時間演算手段で演算した前記通信遅延時間を前記相手側の会議端末に通知する遅延時間通知手段と、前記遅延時間通知手段から通知された前記通信遅延時間に基づいて統一されたタイムスタンプを管理するタイムスタンプ管理手段と、を備えたことを特徴とする会議システム。 A conference system configured to connect at least two or more conference terminals via an IP network and transmit / receive audio data of audio conference communication or audio data and video data of video conference communication between the conference terminals. And
When each of the conference terminals receives a conference signal transmitting means for transmitting a conference start signal of the conference terminal on the own side and a conference start signal transmitted from the conference terminal on the other side, the reception corresponding to the received conference start signal A reply means for immediately returning a signal to the other party's conference terminal, and a delay time for calculating a communication delay time to the other party's conference terminal based on the received signal received when receiving from the other party's conference terminal Calculation means, delay time notifying means for notifying the communication delay time calculated by the delay time calculating means to the conference terminal on the other side, and unified based on the communication delay time notified from the delay time notifying means And a time stamp management means for managing the time stamp.
The output means includes power generation means for generating a driving force in response to the communication command. When the communication command is received, the power generation means converts the driving power device into a driving force and drives the connected power device. 11. The conference system according to claim 10, wherein various display boards are moved (for example, the display boards are set up or down) and displayed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006237320A JP2008061060A (en) | 2006-09-01 | 2006-09-01 | Conference system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006237320A JP2008061060A (en) | 2006-09-01 | 2006-09-01 | Conference system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008061060A true JP2008061060A (en) | 2008-03-13 |
Family
ID=39243287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006237320A Pending JP2008061060A (en) | 2006-09-01 | 2006-09-01 | Conference system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008061060A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2421000A1 (en) | 2010-07-29 | 2012-02-22 | Ricoh Company, Ltd. | Communication terminal, communication system, communication method, and communication control program |
CN102377978A (en) * | 2010-08-27 | 2012-03-14 | 康佳集团股份有限公司 | Control method and system of video call based on network TV (television) |
JP2012511855A (en) * | 2008-12-10 | 2012-05-24 | アルカテル−ルーセント | Method and apparatus for communication by video conference |
US8553855B2 (en) | 2010-12-17 | 2013-10-08 | Kabushiki Kaisha Toshiba | Conference support apparatus and conference support method |
WO2014042317A1 (en) * | 2012-09-11 | 2014-03-20 | (주)리얼허브 | Matrix type screen display method for video conference system |
JP2014186421A (en) * | 2013-03-22 | 2014-10-02 | Toyota Motor Corp | Communication system and robot |
JP2015133612A (en) * | 2014-01-14 | 2015-07-23 | 株式会社リコー | Communication system and communication management device |
JP2017212610A (en) * | 2016-05-25 | 2017-11-30 | 株式会社リコー | Terminal, communication system, and program |
JP2019118114A (en) * | 2019-02-21 | 2019-07-18 | 株式会社リコー | Tv conference system, terminal, and display method |
CN110166920A (en) * | 2019-04-15 | 2019-08-23 | 广州视源电子科技股份有限公司 | Desktop conferencing audio amplifying method, system, device, equipment and storage medium |
JP2019164232A (en) * | 2018-03-19 | 2019-09-26 | 株式会社リコー | Sharing terminal, method and program, and sharing system and method |
WO2022259485A1 (en) * | 2021-06-10 | 2022-12-15 | マクセル株式会社 | Information processing device and display method using same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62110383A (en) * | 1985-11-08 | 1987-05-21 | Fujitsu Ltd | Tv transmission image monitoring system |
JP2002051041A (en) * | 2000-08-07 | 2002-02-15 | Nippon Telegr & Teleph Corp <Ntt> | Method for investigating and notifying cause to network fault and terminal used to realize the method |
JP2004186870A (en) * | 2002-12-02 | 2004-07-02 | Nippon Telegr & Teleph Corp <Ntt> | Video conference method, processing method of user terminal, user terminal, program, and recording medium |
JP2005269498A (en) * | 2004-03-22 | 2005-09-29 | Hitachi Information Systems Ltd | Video conference system, video conference terminal device, and its control method and video conference terminal device controlling program for it |
-
2006
- 2006-09-01 JP JP2006237320A patent/JP2008061060A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62110383A (en) * | 1985-11-08 | 1987-05-21 | Fujitsu Ltd | Tv transmission image monitoring system |
JP2002051041A (en) * | 2000-08-07 | 2002-02-15 | Nippon Telegr & Teleph Corp <Ntt> | Method for investigating and notifying cause to network fault and terminal used to realize the method |
JP2004186870A (en) * | 2002-12-02 | 2004-07-02 | Nippon Telegr & Teleph Corp <Ntt> | Video conference method, processing method of user terminal, user terminal, program, and recording medium |
JP2005269498A (en) * | 2004-03-22 | 2005-09-29 | Hitachi Information Systems Ltd | Video conference system, video conference terminal device, and its control method and video conference terminal device controlling program for it |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012511855A (en) * | 2008-12-10 | 2012-05-24 | アルカテル−ルーセント | Method and apparatus for communication by video conference |
EP2421000A1 (en) | 2010-07-29 | 2012-02-22 | Ricoh Company, Ltd. | Communication terminal, communication system, communication method, and communication control program |
US8665306B2 (en) | 2010-07-29 | 2014-03-04 | Ricoh Company, Ltd. | Communication terminal, communication system, communication method, and medium storing communication control program |
CN102377978A (en) * | 2010-08-27 | 2012-03-14 | 康佳集团股份有限公司 | Control method and system of video call based on network TV (television) |
US8553855B2 (en) | 2010-12-17 | 2013-10-08 | Kabushiki Kaisha Toshiba | Conference support apparatus and conference support method |
WO2014042317A1 (en) * | 2012-09-11 | 2014-03-20 | (주)리얼허브 | Matrix type screen display method for video conference system |
JP2014186421A (en) * | 2013-03-22 | 2014-10-02 | Toyota Motor Corp | Communication system and robot |
JP2015133612A (en) * | 2014-01-14 | 2015-07-23 | 株式会社リコー | Communication system and communication management device |
JP2017212610A (en) * | 2016-05-25 | 2017-11-30 | 株式会社リコー | Terminal, communication system, and program |
JP2019164232A (en) * | 2018-03-19 | 2019-09-26 | 株式会社リコー | Sharing terminal, method and program, and sharing system and method |
JP7091745B2 (en) | 2018-03-19 | 2022-06-28 | 株式会社リコー | Display terminals, programs, information processing systems and methods |
JP2019118114A (en) * | 2019-02-21 | 2019-07-18 | 株式会社リコー | Tv conference system, terminal, and display method |
CN110166920A (en) * | 2019-04-15 | 2019-08-23 | 广州视源电子科技股份有限公司 | Desktop conferencing audio amplifying method, system, device, equipment and storage medium |
WO2022259485A1 (en) * | 2021-06-10 | 2022-12-15 | マクセル株式会社 | Information processing device and display method using same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008061060A (en) | Conference system | |
TWI554317B (en) | System and method for managing audio and video channels for video game players and spectators | |
JP6179834B1 (en) | Video conferencing equipment | |
US9148625B2 (en) | Transition control in a videoconference | |
US20070250568A1 (en) | System and method for displaying users in a visual conference between locations | |
US20070206091A1 (en) | System and method for displaying participants in a videoconference between locations | |
JP2006238328A (en) | Conference system, conference terminal and portable terminal | |
JP6152961B1 (en) | Video conferencing equipment | |
WO2014094461A1 (en) | Method, device and system for processing video/audio information in video conference | |
WO2020238840A1 (en) | Standalone program run method, apparatus, device, and storage medium | |
JP2008288974A (en) | Video conference system and video conference device | |
JP2005348360A (en) | Graphical user interface device in two-way communications and connecting method thereof | |
JP4776363B2 (en) | Communication terminal device and communication system | |
JP2009065336A (en) | Video conference system | |
JP2008227693A (en) | Speaker video display control system, speaker video display control method, speaker video display control program, communication terminal, and multipoint video conference system | |
JP6410346B2 (en) | Remote communication device and program | |
JP2017163251A (en) | Communication system using tele-existence | |
KR20080017607A (en) | Method for joint screen in communication terminal | |
JP2003339034A (en) | Network conference system, network conference method, and network conference program | |
JPH11308591A (en) | Information communication system | |
JP2016167676A (en) | Communication terminal device, communication management system, communication method, and program | |
JP5777233B1 (en) | Movie generation apparatus and movie generation method | |
US11764984B2 (en) | Teleconference method and teleconference system | |
JP2011142523A (en) | Device, system and program for support of presentation, and recording medium | |
US20240031758A1 (en) | Information processing apparatus, information processing terminal, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090821 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20090911 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120619 |