JP2011071822A - Terminal, communication method and communication program - Google Patents

Terminal, communication method and communication program Download PDF

Info

Publication number
JP2011071822A
JP2011071822A JP2009222148A JP2009222148A JP2011071822A JP 2011071822 A JP2011071822 A JP 2011071822A JP 2009222148 A JP2009222148 A JP 2009222148A JP 2009222148 A JP2009222148 A JP 2009222148A JP 2011071822 A JP2011071822 A JP 2011071822A
Authority
JP
Japan
Prior art keywords
video
site
local
site video
base
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009222148A
Other languages
Japanese (ja)
Other versions
JP5397126B2 (en
Inventor
Tomohiro Inagaki
友大 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009222148A priority Critical patent/JP5397126B2/en
Publication of JP2011071822A publication Critical patent/JP2011071822A/en
Application granted granted Critical
Publication of JP5397126B2 publication Critical patent/JP5397126B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately obtain a situation of a video image at a self-base displayed at other bases. <P>SOLUTION: In video conference terminals 110 which perform a conference using information to be transmitted/received among the self-base and a plurality of other bases connected via a network 150, each video conference terminal 110 picks up a self-base video image of a participant 116 at the self-base, and receives other base video information including other base video images. Each video conference terminal 110 determines whether or not the self-base video image is synthesized with the other base video images based on predetermined conditions. Each video conference terminal 110 generates self-base video information to be transmitted from the self-base video image to other bases when it is determined that the self-base video image is not synthesized with other base video images, and generates the self-base video information from the self-base video image and other base video images when it is determined that the self-base video image is synthesized with other base images. Then, each video conference terminal 110 transmits the generated self-base video information to other bases. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、端末装置間で情報の送受信をおこなう端末装置、通信方法および通信プログラムに関し、特に、自拠点と、ネットワークを介して接続された複数の他拠点との間で送受信される情報を利用して会議をおこなう端末装置、通信方法および通信プログラムに関する。   The present invention relates to a terminal device, a communication method, and a communication program for transmitting / receiving information between terminal devices, and in particular, uses information transmitted / received between its own base and a plurality of other bases connected via a network. The present invention relates to a terminal device, a communication method, and a communication program that conduct a conference.

テレビ会議システムは、複数の端末装置間で各拠点の参加者の状況などを示す映像情報を送受信する。テレビ会議システムは、端末装置によって送受信された各拠点の映像情報をデコードして各拠点の映像を表示する。各拠点における会議の参加者は、端末装置によって表示された映像を確認して会議をおこなう。   The video conference system transmits and receives video information indicating the status of participants at each base between a plurality of terminal devices. The video conference system decodes the video information of each base transmitted / received by the terminal device and displays the video of each base. Participants of the conference at each site confirm the video displayed by the terminal device and hold the conference.

近年では、自拠点の端末装置が送信した映像情報が相手拠点の端末装置によって、どのような映像として表示されているかを把握するため、自拠点の端末装置は、相手拠点の端末装置から、相手拠点における再生画質情報を受信する。自拠点の端末装置は、相手拠点へ送信した映像情報を、受信した再生画質にして確認用の映像として出力するコミュニケーションシステムが提案されている(特許文献1)。   In recent years, in order to grasp what kind of video the video information transmitted from the terminal device at the local site is displayed by the terminal device at the partner site, the terminal device at the local site has received Receives playback image quality information at the site. A communication system has been proposed in which the terminal device at its own site outputs the video information transmitted to the other site as a confirmation video with the received playback image quality (Patent Document 1).

特開2007−150916号公報JP 2007-150916 A

しかしながら、上述した特許文献1に記載の従来技術では、自拠点の端末装置は、相手拠点の映像情報のデコードに加え、相手拠点へ送信した映像情報を相手拠点から受信した再生画質情報に基づいてデコードをおこなう必要があり、処理負荷がかかるという問題が一例として挙げられる。   However, in the prior art described in Patent Document 1 described above, the terminal device at the local site, in addition to decoding the video information at the partner site, based on the reproduction image quality information received from the partner site, the video information transmitted to the partner site. An example is the problem that it is necessary to perform decoding and a processing load is applied.

この発明は、上述した問題を解決するため、相手拠点からの映像情報のデコードだけおこなう簡易な構成で処理負荷の低減を図りつつ、相手拠点で表示されている自拠点の映像の状況を正確に把握することができる端末装置、通信方法および通信プログラムを提供することを目的とする。   In order to solve the above-described problem, the present invention accurately reduces the processing load with a simple configuration that only decodes video information from the partner site, and accurately displays the video status of the site at the partner site. It is an object to provide a terminal device, a communication method, and a communication program that can be grasped.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかる端末装置は、自拠点と、ネットワークを介して接続された複数の他拠点との間で送受信される情報を利用して会議をおこなう端末装置であって、前記自拠点の参加者を含む自拠点映像を撮像する撮像手段と、前記他拠点から、他拠点映像を含む他拠点映像情報を受信する受信手段と、所定の条件に基づいて、前記撮像手段によって撮像された前記自拠点映像と、前記他拠点映像とを合成するか否かを判断する判断手段と、前記判断手段によって前記自拠点映像と、前記他拠点映像とを合成しないと判断された場合、前記自拠点映像から前記他拠点に対して送信する自拠点映像情報を生成し、合成すると判断された場合、前記自拠点映像と、前記他拠点映像とから前記自拠点映像情報を生成する生成手段と、前記生成手段によって生成された前記自拠点映像情報を、前記他拠点に対して送信する送信手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the terminal device according to the first aspect of the present invention uses information transmitted and received between the base and a plurality of other bases connected via the network. A terminal device that performs a conference, an imaging unit that captures an image of a local site including a participant at the local site, a receiving unit that receives video information of another site including a video of another site from the other site, and a predetermined unit Based on the condition, the determination unit for determining whether or not to synthesize the own site video imaged by the imaging unit and the other site video, the own site image and the other site video by the determination unit If it is determined not to synthesize the video, the local site video information to be transmitted to the other site is generated from the local site video, and if it is determined to be combined, the local site video and the other site video From the above Generating means for generating video information, the self-location video information generated by the generating means, characterized by comprising a transmitting means for transmitting to said remote point.

請求項2の発明にかかる端末装置は、請求項1に記載の発明において、前記判断手段は、所定周期で前記自拠点映像と、前記他拠点映像とを合成すると判断することを特徴とする。   According to a second aspect of the present invention, the terminal device according to the first aspect of the present invention is characterized in that the determination means determines that the local site video and the other site video are to be combined in a predetermined cycle.

請求項3の発明にかかる端末装置は、請求項1または2に記載の発明において、前記判断手段は、所定タイミングで前記自拠点映像と、前記他拠点映像とを合成すると判断することを特徴とする。   The terminal device according to a third aspect of the invention is characterized in that, in the invention according to the first or second aspect, the determination means determines that the local base image and the other base video are combined at a predetermined timing. To do.

請求項4の発明にかかる端末装置は、請求項1〜3のいずれか一つに記載の発明において、前記判断手段は、前記他拠点映像情報に含まれる前記他拠点映像に、前記自拠点映像が含まれているか否かを判断し、前記自拠点映像が含まれていた場合、前記自拠点映像と、前記他拠点映像とを合成しないと判断することを特徴とする。   The terminal device according to a fourth aspect of the present invention is the terminal device according to any one of the first to third aspects, wherein the determining means adds the own base video to the other base video included in the other base video information. Is determined, and if the local video is included, it is determined not to synthesize the local video and the other video.

請求項5の発明にかかる端末装置は、請求項1〜4のいずれか一つに記載の発明において、前記受信手段は、複数の前記他拠点からそれぞれ前記他拠点映像情報を受信し、複数の前記他拠点映像情報に前記自拠点映像が含まれていた場合、前記他拠点映像情報に含まれていた前記自拠点映像同士の差分を演算し、演算結果に基づいて前記参加者に警告を報知する報知手段をさらに備えることを特徴とする。   According to a fifth aspect of the present invention, in the terminal device according to any one of the first to fourth aspects, the receiving means receives the other base video information from each of the plurality of other bases, and When the other-site video information includes the own-site video, the difference between the own-site videos included in the other-site video information is calculated, and a warning is notified to the participant based on the calculation result. It is characterized by further comprising an informing means for performing.

請求項6の発明にかかる通信方法は、自拠点と、ネットワークを介して接続された複数の他拠点との間で送受信される情報を利用して会議をおこなう通信方法であって、前記自拠点の参加者を含む自拠点映像を撮像する撮像工程と、前記他拠点から、他拠点映像を含む他拠点映像情報を受信する受信工程と、所定の条件に基づいて、前記撮像工程によって撮像された前記自拠点映像と、前記受信工程によって受信された前記他拠点映像情報に含まれる前記他拠点映像とを合成するか否かを判断する判断工程と、前記判断工程によって前記自拠点映像と、前記他拠点映像とを合成しないと判断された場合、前記自拠点映像から前記他拠点に対して送信する自拠点映像情報を生成し、合成すると判断された場合、前記自拠点映像と、前記他拠点映像とから前記自拠点映像情報を生成する生成工程と、前記生成工程によって生成された前記自拠点映像情報を、前記他拠点に対して送信する送信工程と、を含むことを特徴とする。   The communication method according to the invention of claim 6 is a communication method for conducting a conference using information transmitted and received between the local site and a plurality of other sites connected via a network, the local site An imaging process for capturing a video of the local site including the participants, a receiving process for receiving video information of the other base including the video of the other base from the other base, and an image captured by the imaging process based on a predetermined condition. A determination step of determining whether or not to synthesize the own-site video and the other-site video included in the other-site video information received by the reception step; the own-site video by the determination step; If it is determined not to synthesize another base video, the local base video information to be transmitted to the other base is generated from the local base video, and if it is determined to be combined, the local base video and the other base video are determined. Projection Generating step and said self-location video information generated by the generating process of generating the self-location video information from and to, characterized in that it comprises a transmission step of transmitting to said other hub.

請求項7の発明にかかる通信プログラムは、自拠点と、ネットワークを介して接続された複数の他拠点との間で送受信される情報を利用して会議をおこなう端末装置のための通信プログラムであって、前記自拠点の参加者を含む自拠点映像を撮像させる撮像工程と、前記他拠点から、他拠点映像を含む他拠点映像情報を受信させる受信工程と、所定の条件に基づいて、前記撮像工程によって撮像させた前記自拠点映像と、前記他拠点映像とを合成させるか否かを判断させる判断工程と、前記判断工程によって前記自拠点映像と、前記他拠点映像とを合成しないと判断された場合、前記自拠点映像から前記他拠点に対して送信する自拠点映像情報を生成させ、合成すると判断された場合、前記自拠点映像と、前記他拠点映像とから前記自拠点映像情報を生成させる生成工程と、前記生成工程によって生成させた前記自拠点映像情報を、前記他拠点に対して送信させる送信工程と、をコンピュータに実行させることを特徴とする。   A communication program according to a seventh aspect of the invention is a communication program for a terminal device that conducts a conference using information transmitted and received between its own base and a plurality of other bases connected via a network. Based on a predetermined condition, an imaging step of capturing a video of the local site including a participant at the local site, a receiving step of receiving video information of another site including the video of another site from the other site, and the imaging A determination step for determining whether or not to synthesize the own-site video captured in the process and the other-site video; and the determination step determines that the own-site video and the other-site video are not combined. If it is determined to generate and synthesize own-site video information to be transmitted from the own-site video to the other site, the own-site video is generated from the own-site video and the other-site video. A generation step of generating information, the self-location video information is generated by the generating step, characterized in that to execute a transmission step of transmitting, to the computer to the remotely located site.

請求項1にかかる発明によれば、自拠点で撮像された自拠点映像に他拠点から受信された他拠点映像を合成した自拠点映像情報を送信することができる。したがって、他拠点では、自拠点から送信された自拠点映像を確認することで、自拠点の映像とともに自拠点で表示されている他拠点の映像を確認することができる。同様に、自拠点では、他拠点から送信された他拠点映像を確認することで、他拠点の映像とともに他拠点で表示されている自拠点の映像を確認することができるため、簡易な構成で処理負荷の低減を図りつつ、相互で相手拠点に表示される映像の状態を把握することができる。   According to the first aspect of the present invention, it is possible to transmit own-site video information obtained by combining the other-site video received from the other site with the own-site video captured at the own site. Therefore, at the other site, by confirming the own site image transmitted from the own site, the image of the other site displayed at the own site can be confirmed together with the image of the own site. Similarly, the local site can check the video of the other site together with the video of the other site by checking the video of the other site transmitted from the other site. While reducing the processing load, it is possible to grasp the state of the video displayed at the partner site with each other.

請求項2にかかる発明によれば、所定周期で自拠点映像と他拠点映像とを合成することができる。すなわち、すべての映像を合成することなく他拠点で表示される自拠点の映像を確認するのに十分な程度の合成でよいため、自拠点映像と他拠点映像との合成処理の負荷を軽減することができる。   According to the second aspect of the present invention, it is possible to synthesize the local site video and the other site video in a predetermined cycle. In other words, it is sufficient to synthesize the video of the local site displayed at the other site without synthesizing all the videos, so the load of the composition process between the local video and the other site is reduced. be able to.

請求項3にかかる発明によれば、所定タイミングで自拠点映像と他拠点映像とを合成することができるため、他拠点で表示される自拠点の映像を確認できる適切なタイミングで合成映像の生成処理の最適化を図ることができる。   According to the invention of claim 3, since the local video and the video of the other base can be synthesized at a predetermined timing, the composite video is generated at an appropriate timing at which the video of the local base displayed at the other base can be confirmed. Processing can be optimized.

請求項4にかかる発明によれば、他拠点映像に自拠点映像が含まれている場合は、自拠点映像と他拠点映像との合成をおこなわないため、表示する映像に複数の自拠点映像や他拠点映像が入り込んでしまうという無限の連鎖を防ぐことができる。   According to the fourth aspect of the present invention, when the local video is included in the video of the other site, the video of the local site and the video of the other site are not combined. It is possible to prevent an infinite chain of video from other sites.

請求項5にかかる発明によれば、複数拠点からの他拠点映像に含まれる自拠点映像を比較して、差分の大きい場合に警告を報知できるため、自拠点の映像が適切に送信できなかった他拠点を的確に把握することができる。   According to the fifth aspect of the present invention, the video of the local site cannot be properly transmitted because the video of the local site included in the video of other sites from a plurality of sites can be compared and a warning can be notified when the difference is large. It is possible to accurately grasp other bases.

請求項6にかかる発明によれば、自拠点で撮像された自拠点映像に他拠点から受信された他拠点映像を合成した自拠点映像情報を送信することができる。したがって、他拠点では、自拠点から送信された自拠点映像を確認することで、自拠点の映像とともに自拠点で表示されている他拠点の映像を確認することができる。同様に、自拠点では、他拠点から送信された他拠点映像を確認することで、他拠点の映像とともに他拠点で表示されている自拠点の映像を確認することができるため、簡易な構成で処理負荷の低減を図りつつ、相互で相手拠点に表示される映像の状態を把握することができる。   According to the sixth aspect of the present invention, it is possible to transmit own-site video information obtained by combining the other-site video received from the other site with the own-site video captured at the own site. Therefore, at the other site, by confirming the own site image transmitted from the own site, the image of the other site displayed at the own site can be confirmed together with the image of the own site. Similarly, the local site can check the video of the other site together with the video of the other site by checking the video of the other site transmitted from the other site. While reducing the processing load, it is possible to grasp the state of the video displayed at the partner site with each other.

請求項7にかかる発明によれば、自拠点で撮像された自拠点映像に他拠点から受信された他拠点映像を合成した自拠点映像情報を送信することができる。したがって、他拠点では、自拠点から送信された自拠点映像を確認することで、自拠点の映像とともに自拠点で表示されている他拠点の映像を確認することができる。同様に、自拠点では、他拠点から送信された他拠点映像を確認することで、他拠点の映像とともに他拠点で表示されている自拠点の映像を確認することができるため、簡易な構成で処理負荷の低減を図りつつ、相互で相手拠点に表示される映像の状態を把握することができる。   According to the seventh aspect of the present invention, it is possible to transmit own-site video information obtained by combining the other-site video received from the other site with the own-site video captured at the own site. Therefore, at the other site, by confirming the own site image transmitted from the own site, the image of the other site displayed at the own site can be confirmed together with the image of the own site. Similarly, the local site can check the video of the other site together with the video of the other site by checking the video of the other site transmitted from the other site. While reducing the processing load, it is possible to grasp the state of the video displayed at the partner site with each other.

以上説明したように、本発明にかかる端末装置、通信方法および通信プログラムよれば、簡易な構成で処理負荷の低減を図りつつ、相手拠点で表示されている自拠点の映像の状況を正確に把握することができる。   As described above, according to the terminal device, the communication method, and the communication program according to the present invention, the processing load is reduced with a simple configuration, and the situation of the image of the local site displayed at the partner site is accurately grasped. can do.

本発明の実施形態1にかかるテレビ会議システムの一例を示す説明図である。It is explanatory drawing which shows an example of the video conference system concerning Embodiment 1 of this invention. 本発明の実施形態1にかかるテレビ会議端末の機能的構成の一例を示す説明図である。It is explanatory drawing which shows an example of a functional structure of the video conference terminal concerning Embodiment 1 of this invention. 本発明の実施形態1にかかる会議映像として表示される合成映像の一例を示す説明図である。It is explanatory drawing which shows an example of the synthetic | combination image | video displayed as a meeting image | video concerning Embodiment 1 of this invention. 本発明の実施形態1にかかるテレビ会議端末の処理の内容を示すフローチャートである。It is a flowchart which shows the content of the process of the video conference terminal concerning Embodiment 1 of this invention. 本発明の実施形態1にかかる映像パケットの生成処理の内容を示すフローチャートである。It is a flowchart which shows the content of the production | generation process of the video packet concerning Embodiment 1 of this invention. 本発明の実施形態1にかかる映像パケットの送受信の一例を示す説明図である。It is explanatory drawing which shows an example of transmission / reception of the video packet concerning Embodiment 1 of this invention. 本発明の変形例にかかる自拠点の映像パケットの生成処理の内容を示すフローチャートである。It is a flowchart which shows the content of the production | generation process of the video packet of the own base concerning the modification of this invention. 本発明の実施形態2にかかる映像比較・報知処理の内容を示すフローチャートである。It is a flowchart which shows the content of the image | video comparison and alerting | reporting process concerning Embodiment 2 of this invention. 本発明の実施形態2にかかる映像比較の概要について説明する説明図である。It is explanatory drawing explaining the outline | summary of the video comparison concerning Embodiment 2 of this invention.

以下に添付図面を参照して、この発明にかかる端末装置、通信方法および通信プログラムの好適な実施の形態を詳細に説明する。   Exemplary embodiments of a terminal device, a communication method, and a communication program according to the present invention will be explained below in detail with reference to the accompanying drawings.

(実施形態1)
(全体構成)
図1を用いて、本発明の実施形態1にかかる端末装置を、テレビ会議をおこなうテレビ会議システムのために複数拠点に設置されたテレビ会議端末に適用した場合について説明する。図1は、本発明の実施形態1にかかるテレビ会議システムの一例を示す説明図である。なお、本実施形態1では、各拠点(A,B,C,D)に設置されたテレビ会議端末110(110a,110b,110c,110d)によって、本発明にかかる端末装置を実現し、ネットワーク150を介してテレビ会議端末110が接続されたテレビ会議システム100またはテレビ会議端末110によって、本発明にかかる通信方法の処理が実行され、本発明にかかる通信プログラムによって、テレビ会議端末110に処理を実行させる場合について説明する。
(Embodiment 1)
(overall structure)
A case where the terminal device according to the first embodiment of the present invention is applied to video conference terminals installed at a plurality of bases for a video conference system that performs a video conference will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating an example of a video conference system according to the first embodiment of the present invention. In the first embodiment, the terminal device according to the present invention is realized by the video conference terminal 110 (110a, 110b, 110c, 110d) installed at each base (A, B, C, D), and the network 150 Processing of the communication method according to the present invention is executed by the video conference system 100 or the video conference terminal 110 to which the video conference terminal 110 is connected via the network, and processing is executed on the video conference terminal 110 by the communication program according to the present invention. The case where it is made to explain is demonstrated.

図1において、テレビ会議システム100は、各拠点(A,B,C,D)に設置されたテレビ会議端末110a,110b,110c,110dがネットワーク150を介して接続されて構成されている。具体的には、地理的に離れた各拠点(A,B,C,D)に設置されたテレビ会議端末110a,110b,110c,110dがインターネットなどのネットワークを介して接続されたり、建物内の離れた各拠点(A,B,C,D)に設置されたテレビ会議端末110a,110b,110c,110dがLAN(ローカルエリアネットワーク)などのネットワーク150を介して接続されたりしている。また、ネットワーク150は、公衆電話回線網により構成されていてもよい。なお、図1では、テレビ会議端末110a,110b,110c,110dがネットワークを介して相互に接続されることとして説明するが、ネットワーク上の任意の位置に設置された管理サーバなどを介して相互に接続される構成でもよい。以降の説明では、各拠点の区別をしない場合、符号の末尾の記号である「a」,「b」,「c」,「d」を省略して説明する。   In FIG. 1, the video conference system 100 is configured by connecting video conference terminals 110 a, 110 b, 110 c, and 110 d installed at each base (A, B, C, D) via a network 150. Specifically, video conference terminals 110a, 110b, 110c, and 110d installed at geographically separated locations (A, B, C, and D) are connected via a network such as the Internet, Video conference terminals 110a, 110b, 110c, and 110d installed at remote locations (A, B, C, and D) are connected via a network 150 such as a LAN (local area network). The network 150 may be configured by a public telephone line network. In FIG. 1, the video conference terminals 110a, 110b, 110c, and 110d are described as being connected to each other via a network. However, the video conference terminals 110a, 110b, 110c, and 110d are mutually connected via a management server installed at an arbitrary position on the network. It may be configured to be connected. In the following description, when the locations are not distinguished, the symbols “a”, “b”, “c”, and “d” that are symbols at the end of the symbols are omitted.

テレビ会議システム100は、各拠点でテレビ会議に参加する参加者116の映像および音声を各テレビ会議端末110によって相互に送受信させる。テレビ会議端末110は、CPU(セントラルプロセッシングユニット)などの機能部の筐体である本体部111に接続された、各種映像を表示する表示部112と、参加者116の映像を撮像するカメラ113と、参加者116の音声を集音するマイク114と、各種音声を出力するスピーカ115とを備えている。   The video conference system 100 allows each video conference terminal 110 to mutually transmit and receive video and audio of the participants 116 participating in the video conference at each site. The video conference terminal 110 is connected to a main body 111 which is a housing of a functional unit such as a CPU (Central Processing Unit). A microphone 114 that collects the voice of the participant 116 and a speaker 115 that outputs various voices are provided.

テレビ会議端末110は、カメラ113によって自拠点の参加者116の映像を撮像する。テレビ会議端末110は、撮像された映像を含む映像パケットをネットワーク150を介して他拠点のテレビ会議端末110に送信する。   The video conference terminal 110 captures an image of the participant 116 at the local site using the camera 113. The video conference terminal 110 transmits a video packet including the captured video to the video conference terminal 110 at another site via the network 150.

テレビ会議端末110は、マイク114によって自拠点における参加者116の音声を集音する。テレビ会議端末110は、集音した参加者116の音声を含む音声パケットをネットワーク150を介して他拠点のテレビ会議端末110に送信する。   The video conference terminal 110 collects the voice of the participant 116 at the local site using the microphone 114. The video conference terminal 110 transmits a voice packet including the voice of the collected participant 116 to the video conference terminal 110 at another site via the network 150.

テレビ会議端末110は、他拠点のテレビ会議端末110から送信される参加者116の映像を含む映像パケットを受信する。テレビ会議端末110は、受信した映像パケットをデコードして表示部112によって会議映像を表示する。   The video conference terminal 110 receives a video packet including the video of the participant 116 transmitted from the video conference terminal 110 at another base. The video conference terminal 110 decodes the received video packet and displays the conference video on the display unit 112.

テレビ会議端末110は、他拠点のテレビ会議端末110から送信される参加者116の音声を含む音声パケットを受信する。テレビ会議端末110は、受信した音声パケットをデコードしてスピーカ115によって会議音声を出力する。   The video conference terminal 110 receives a voice packet including the voice of the participant 116 transmitted from the video conference terminal 110 at another base. The video conference terminal 110 decodes the received voice packet and outputs the conference voice through the speaker 115.

テレビ会議端末110は、映像パケットを生成する際、自拠点のカメラ113で撮像された映像に、他拠点から受信した映像パケットに含まれる他拠点の映像を合成するか否かを判断する。映像の合成に関する判断は、たとえば、前回、他拠点へ送信した映像パケットについて合成をおこなったか否かによって、前回に合成をおこなっている場合は、今回は合成しないこととする。すなわち、所定周期として合成と非合成を交互に繰り返すこととなる。以降の説明では、自拠点をテレビ会議端末110aが設置されたA拠点、他拠点をテレビ会議端末110bが設置されたB拠点として説明するが、自拠点および他拠点がいずれの拠点(A,B,C,D)に相当することとしてもよい。   When the video conference terminal 110 generates a video packet, the video conference terminal 110 determines whether to synthesize the video of the other site included in the video packet received from the other site with the video captured by the camera 113 of the local site. The judgment regarding the composition of the video is not performed this time when the composition was performed last time, for example, depending on whether the composition was performed on the video packet transmitted to the other site last time. That is, synthesis and non-synthesis are alternately repeated as a predetermined cycle. In the following description, the local site will be described as the A site where the video conference terminal 110a is installed, and the other site will be described as the B site where the video conference terminal 110b is installed. , C, D).

テレビ会議端末110aは、A拠点の映像に、受信した映像パケットに基づくB拠点の映像を合成しないと判断された場合、カメラ113aによって撮像された映像をB拠点へ送信する映像パケットとして生成する。すなわち、A拠点の映像のみをB拠点へ送信する。   When the video conference terminal 110a determines that the video of the B site based on the received video packet is not combined with the video of the A site, the video conference terminal 110a generates the video captured by the camera 113a as a video packet to be transmitted to the B site. That is, only the video of the A base is transmitted to the B base.

テレビ会議端末110aは、A拠点の映像に、受信した映像パケットに基づくB拠点の映像を合成すると判断された場合、A拠点の映像とB拠点の映像とを合成した合成映像をB拠点へ送信する映像パケットとして生成する。具体的には、テレビ会議端末110aは、B拠点から受信した映像パケットに基づく会議映像中のB拠点の映像を、カメラ113aによって撮像されたA拠点の映像に合成する。テレビ会議端末110aは、A拠点の映像にB拠点の映像が合成された映像をパケット化して、ネットワーク150を介してB拠点へ送信する。   If the video conference terminal 110a determines to synthesize the video of the B site based on the received video packet with the video of the A site, the video conference terminal 110a transmits the synthesized video obtained by synthesizing the video of the A site and the video of the B site to the B site. Generated as a video packet. Specifically, the video conference terminal 110a combines the video of the B site in the conference video based on the video packet received from the B site with the video of the A site captured by the camera 113a. The video conference terminal 110 a packetizes an image obtained by combining the image of the B site with the image of the A site, and transmits the packet to the B site via the network 150.

B拠点のテレビ会議端末110bが表示する会議映像には、A拠点において表示されているB拠点の映像が所定の割合で含まれていることとなる。したがって、参加者116bは、表示された会議映像に含まれるB拠点の映像を確認することによって、A拠点においてB拠点の映像がどのように表示されていたのかを容易に把握することができる。同様にして、テレビ会議端末110aが表示する会議映像には、B拠点で表示されたはずのA拠点の映像が所定の割合で含まれていることとなる。したがって、参加者116aは、表示された会議映像に含まれるA拠点の映像を確認することによって、B拠点においてA拠点の映像がどのように表示されていたのかを容易に把握することができる。   The conference video displayed by the video conference terminal 110b at site B includes the video at site B displayed at site A at a predetermined rate. Therefore, the participant 116b can easily grasp how the video of the B site is displayed at the A site by confirming the video of the B site included in the displayed conference video. Similarly, the conference video displayed by the video conference terminal 110a includes the video of the A site that should have been displayed at the B site at a predetermined rate. Therefore, the participant 116a can easily grasp how the video of the A base is displayed at the B base by confirming the video of the A base included in the displayed conference video.

(機能的構成)
図2を用いて、テレビ会議端末110の機能的構成について説明する。図2は、本発明の実施形態1にかかるテレビ会議端末の機能的構成の一例を示す説明図である。
(Functional configuration)
The functional configuration of the video conference terminal 110 will be described with reference to FIG. FIG. 2 is an explanatory diagram illustrating an example of a functional configuration of the video conference terminal according to the first embodiment of the present invention.

図2において、テレビ会議端末110は、CPU(セントラルプロセッシングユニット)201と、RAM(ランダムアクセスメモリ)202と、ROM(リードオンリーメモリ)203と、表示部112やカメラ113に対して映像の入出力を制御する映像I/F204と、スピーカ115やマイク114に対して音声の入出力を制御する音声I/F205と、各種情報の入力を受け付ける操作部206と、外部機器との通信を制御する通信I/F207と、各種情報を記憶する記憶媒体208と、を備えている。また、テレビ会議端末110の各構成部は、バス200によってそれぞれ接続されている。   In FIG. 2, a video conference terminal 110 inputs and outputs video to / from a CPU (Central Processing Unit) 201, a RAM (Random Access Memory) 202, a ROM (Read Only Memory) 203, a display unit 112 and a camera 113. Communication I / F 204, audio I / F 205 that controls input / output of audio to / from the speaker 115 and microphone 114, an operation unit 206 that receives input of various information, and communication that controls communication with external devices An I / F 207 and a storage medium 208 that stores various types of information are provided. Each component of the video conference terminal 110 is connected by a bus 200.

CPU201は、テレビ会議端末110全体の制御をおこなう。CPU201は、RAM202をワークエリアとして、ROM203から読み込まれる各種プログラムを実行する。   The CPU 201 controls the entire video conference terminal 110. The CPU 201 executes various programs read from the ROM 203 using the RAM 202 as a work area.

映像I/F204は、CPU201の制御にしたがって、表示部112に各種情報を表示させる。映像I/F204は、他拠点のテレビ会議端末110から受信された映像パケットを、CPU201の制御にしたがって、記憶媒体208から読み出してデコードし、会議映像として表示部112に表示させる。映像I/F204は、カメラ113によって撮像された自拠点の映像や、他拠点とのテレビ会議に関する処理の入力を受け付けるための入力画面などを表示させる構成でもよい。   The video I / F 204 displays various types of information on the display unit 112 under the control of the CPU 201. The video I / F 204 reads a video packet received from the video conference terminal 110 at another site from the storage medium 208 according to the control of the CPU 201, decodes it, and displays it on the display unit 112 as a conference video. The video I / F 204 may be configured to display a video of the local site imaged by the camera 113, an input screen for accepting an input of processing related to a video conference with another site, and the like.

映像I/F204は、CPU201の制御にしたがって、カメラ113によって自拠点の参加者116の映像を撮像する。映像I/F204は、CPU201の制御にしたがって、カメラ113によって撮像された映像を記憶媒体208に出力する。   The video I / F 204 captures a video of the participant 116 at the local site by the camera 113 under the control of the CPU 201. The video I / F 204 outputs the video captured by the camera 113 to the storage medium 208 according to the control of the CPU 201.

音声I/F205は、CPU201の制御にしたがって、スピーカ115に各種音声を出力させる。音声I/F205は、他拠点のテレビ会議端末110から受信された音声パケットを、CPU201の制御にしたがって、記憶媒体208から読み出してデコードし、会議音声としてスピーカ115に出力させる。音声I/F205は、他拠点とのテレビ会議に関する指示コマンドの案内音声などを出力させる構成でもよい。   The sound I / F 205 causes the speaker 115 to output various sounds according to the control of the CPU 201. The audio I / F 205 reads out and decodes an audio packet received from the video conference terminal 110 at another site from the storage medium 208 according to the control of the CPU 201 and outputs the audio packet to the speaker 115 as conference audio. The voice I / F 205 may be configured to output a guidance voice of an instruction command related to a video conference with another base.

音声I/F205は、CPU201の制御にしたがって、マイク114によって自拠点の参加者116の音声を集音する。音声I/F205は、CPU201の制御にしたがって、マイク114によって集音された音声を記憶媒体208に出力する。   The voice I / F 205 collects the voice of the participant 116 at the local site using the microphone 114 according to the control of the CPU 201. The sound I / F 205 outputs the sound collected by the microphone 114 to the storage medium 208 according to the control of the CPU 201.

操作部206は、参加者116などから各種情報の入力を受け付ける。操作部206は、タッチパネルや操作ボタンなどによって構成され、テレビ会議に関する情報の入力を受け付けて、入力された信号をCPU201へ出力する。   The operation unit 206 receives input of various information from the participant 116 and the like. The operation unit 206 includes a touch panel, operation buttons, and the like. The operation unit 206 accepts input of information regarding a video conference and outputs an input signal to the CPU 201.

通信I/F207は、通信回線を通じてインターネットなどのネットワーク150に接続され、このネットワーク150を介して他のテレビ会議端末110やその他外部機器に接続される。通信I/F207は、ネットワーク150とテレビ会議端末110内部のインターフェースをつかさどり、外部機器に対するデータの入出力を制御する。通信I/F207には、たとえば、モデムやLANアダプタなどを採用することができる。   The communication I / F 207 is connected to a network 150 such as the Internet through a communication line, and is connected to other video conference terminals 110 and other external devices via the network 150. A communication I / F 207 controls an interface between the network 150 and the video conference terminal 110 and controls data input / output with respect to an external device. As the communication I / F 207, for example, a modem or a LAN adapter can be employed.

通信I/F207は、他拠点のテレビ会議端末110から送信される映像パケットおよび音声パケットを受信する。通信I/F207は、CPU201の制御にしたがって、受信した映像パケットおよび音声パケットを記録媒体208へ出力する。   The communication I / F 207 receives video packets and audio packets transmitted from the video conference terminal 110 at another base. The communication I / F 207 outputs the received video packet and audio packet to the recording medium 208 according to the control of the CPU 201.

通信I/F207は、CPU201の制御にしたがって、記憶媒体208に記憶された自拠点の映像および音声を、他拠点のテレビ会議端末110へ送信する。通信I/F207は、CPU201の制御にしたがって、映像および音声を含む映像パケットおよび音声パケットとして所定のタイミングで送信する。   The communication I / F 207 transmits the video and audio of the local site stored in the storage medium 208 to the video conference terminal 110 at another site according to the control of the CPU 201. The communication I / F 207 transmits video packets and audio packets including video and audio at a predetermined timing under the control of the CPU 201.

具体的には、CPU201は、記録媒体208に記憶された自拠点の映像および音声から、他拠点のテレビ会議端末110へ送信するために映像パケットおよび音声パケットを生成する。CPU201は、生成した映像パケットおよび音声パケットを、通信I/F207を介して他拠点のテレビ会議端末110に送信する。   Specifically, the CPU 201 generates a video packet and an audio packet for transmission to the video conference terminal 110 at another site from the video and audio at the local site stored in the recording medium 208. The CPU 201 transmits the generated video packet and audio packet to the video conference terminal 110 at another base via the communication I / F 207.

CPU201は、映像パケットを生成する際、自拠点の映像に、他拠点の映像を合成するか否かを判断し、判断結果に応じて映像パケットを生成する。CPU201は、前回、他拠点へ送信した映像パケットについて合成をおこなっていなければ合成すると判断する。   When generating the video packet, the CPU 201 determines whether or not to synthesize the video of the other site with the video of the local site, and generates the video packet according to the determination result. The CPU 201 determines that the video packet transmitted to the other site is combined before it is combined.

CPU201は、自拠点の映像に他拠点の映像を合成すると判断された場合、記憶媒体208から読み出した自拠点の映像に、表示部112に表示させる会議映像中の他拠点の映像を合成した合成映像を他拠点へ送信する映像パケットとして生成する。   When it is determined that the video of the local site is to be combined with the video of the local site, the CPU 201 combines the video of the local site read from the storage medium 208 with the video of the other site in the conference video displayed on the display unit 112. The video is generated as a video packet to be transmitted to another site.

ここで、図3を用いて、本発明の実施形態1にかかる会議映像として表示される合成映像について説明する。図3は、本発明の実施形態1にかかる会議映像として表示される合成映像の一例を示す説明図である。図3では、A拠点のテレビ会議端末110aからA拠点の映像と、B拠点の映像とが合成された合成映像が映像パケットとしてB拠点のテレビ会議端末110bに送信され、B拠点のテレビ会議端末110bにおいてデコードされた会議映像について説明する。   Here, the synthesized video displayed as the conference video according to the first embodiment of the present invention will be described with reference to FIG. FIG. 3 is an explanatory diagram illustrating an example of a composite video displayed as a conference video according to the first embodiment of the present invention. In FIG. 3, a composite video obtained by synthesizing the video of the A base and the video of the B base from the video conference terminal 110a of the A base is transmitted as a video packet to the video conference terminal 110b of the B base. The conference video decoded at 110b will be described.

図3において、B拠点のテレビ会議端末110bは、A拠点のテレビ会議端末110aから受信した映像パケットをデコードする。テレビ会議端末110bは、表示部112bに映像パケットをデコードした会議映像300を表示させる。   In FIG. 3, the video conference terminal 110b at site B decodes the video packet received from the video conference terminal 110a at site A. The video conference terminal 110b displays the conference video 300 obtained by decoding the video packet on the display unit 112b.

表示部112bには、会議映像300として、送信元のA拠点の参加者116aのA拠点映像301と、B拠点の参加者116bのB拠点映像302とが合成されて表示されている。すなわち、A拠点のテレビ会議端末110aによって、B拠点から送信されていたB拠点の映像と、カメラ113aで撮像されたA拠点の映像とが合成された合成映像の映像パケットを生成し、生成した映像パケットをA拠点のテレビ会議端末110aからB拠点のテレビ会議端末110bへ送信している。   On the display unit 112b, as the conference video 300, the A base image 301 of the participant 116a at the transmission source A base and the B base video 302 of the participant 116b at the B base are combined and displayed. That is, the video conference terminal 110a of the A site generates a video packet of a composite video in which the video of the B site transmitted from the B site and the video of the A site captured by the camera 113a are synthesized. The video packet is transmitted from the video conference terminal 110a at the A site to the video conference terminal 110b at the B site.

具体的には、A拠点のテレビ会議端末110aは、会議映像300の映像パケットを生成する際、B拠点から送信されていた映像パケットをデコードする。テレビ会議端末110aは、映像パケットをデコードした会議映像を表示部112aに表示させるとともに、前回B拠点へ送信したA拠点の映像パケットは、B拠点の映像と合成処理をおこなったか否かを判断する。   Specifically, when generating the video packet of the conference video 300, the video conference terminal 110a at the A site decodes the video packet transmitted from the B site. The video conference terminal 110a displays the conference video obtained by decoding the video packet on the display unit 112a, and determines whether or not the video packet of the A site previously transmitted to the B site has been combined with the video of the B site. .

テレビ会議端末110aは、前回、合成処理をおこなっていない場合、カメラ113aで撮像したA拠点の映像に、B拠点の映像を合成した合成映像を、B拠点へ送信する映像パケットとして生成する。そして、テレビ会議端末110aは、生成した映像パケットを通信I/F207aを介してB拠点のテレビ会議端末110bへ送信する構成である。   When the video conferencing terminal 110a has not performed the synthesis process last time, the video conference terminal 110a generates a synthesized video obtained by synthesizing the video of the A site with the video of the A site captured by the camera 113a as a video packet to be transmitted to the B site. The video conference terminal 110a is configured to transmit the generated video packet to the video conference terminal 110b at the base B via the communication I / F 207a.

B拠点の参加者116bは、表示部112bに表示された会議映像300に含まれるB拠点映像302を確認することで、B拠点のテレビ会議端末110bが送信していた映像が、A拠点でどのように表示されていたのかについて、A拠点に問合せることなく容易に把握することができる。   The participant 116b at the B base confirms the B base video 302 included in the conference video 300 displayed on the display unit 112b, so that the video transmitted from the video conference terminal 110b at the B base Thus, it is possible to easily grasp whether the information is displayed without inquiring of the base A.

図2に戻って、記憶媒体208は、HD(ハードディスク)や着脱可能な記録媒体の一例としてのFD(フレキシブルディスク)などである。記憶媒体208は、それぞれのドライブデバイスを有し、CPU201の制御にしたがって各種データが記録される。また、記憶媒体208からは、それぞれのドライブデバイスの制御にしたがってデータが読み取られる。   Returning to FIG. 2, the storage medium 208 is an HD (hard disk), an FD (flexible disk) as an example of a removable recording medium, or the like. The storage medium 208 has respective drive devices, and various data are recorded under the control of the CPU 201. Further, data is read from the storage medium 208 according to the control of each drive device.

なお、各構成要素と、各機能を対応付けて説明すると、図2に示したCPU201、映像I/F204およびカメラ113によって、本発明にかかる撮像手段の機能を実現する。CPU201および通信I/F207によって、本発明にかかる受信手段および送信手段の機能を実現する。CPU201によって、本発明にかかる判断手段および生成手段の機能を実現する。   If each component is described in association with each function, the function of the imaging means according to the present invention is realized by the CPU 201, the video I / F 204, and the camera 113 shown in FIG. The CPU 201 and the communication I / F 207 realize the functions of the reception unit and the transmission unit according to the present invention. The CPU 201 implements the functions of the determination unit and the generation unit according to the present invention.

(テレビ会議端末110の処理の内容)
図4〜図6を用いて、本発明の実施形態1にかかるテレビ会議システム100の処理の内容について説明する。図4〜図6では、A拠点のテレビ会議端末110aと、B拠点のテレビ会議端末110bとによってテレビ会議をおこなう場合について説明する。図4は、本発明の実施形態1にかかるテレビ会議端末の処理の内容を示すフローチャートである。図4(a)は、A拠点のテレビ会議端末の処理の内容を示すフローチャートである。図4(b)は、B拠点のテレビ会議端末の処理の内容を示すフローチャートである。なお、図4(b)におけるステップS451〜ステップS457の処理は、図4(a)におけるステップS401〜ステップS407の処理とほぼ同様の処理であるため説明を省略する。
(Contents of processing of the video conference terminal 110)
The contents of processing of the video conference system 100 according to the first embodiment of the present invention will be described with reference to FIGS. 4 to 6, a case where a video conference is performed by the video conference terminal 110a at the A site and the video conference terminal 110b at the B site will be described. FIG. 4 is a flowchart showing the processing contents of the video conference terminal according to the first embodiment of the present invention. FIG. 4A is a flowchart showing the contents of processing of the video conference terminal at the A site. FIG. 4B is a flowchart showing the contents of processing of the video conference terminal at site B. Note that the processing from step S451 to step S457 in FIG. 4B is substantially the same as the processing from step S401 to step S407 in FIG.

図4(a)のフローチャートにおいて、まず、CPU201aは、テレビ会議が開始されたか否かを判断する(ステップS401)。テレビ会議の開始は、たとえば、参加者116aによる操作部206aの操作に基づいて、通信I/F207aを介して他のテレビ会議端末110aに対して接続要求をおこなう。通信I/F207aを介して他のテレビ会議端末110bから応答を受信することによって判断される。   In the flowchart of FIG. 4A, first, the CPU 201a determines whether or not a video conference is started (step S401). To start the video conference, for example, based on the operation of the operation unit 206a by the participant 116a, a connection request is made to the other video conference terminal 110a via the communication I / F 207a. This is determined by receiving a response from the other video conference terminal 110b via the communication I / F 207a.

ステップS401において、テレビ会議が開始されるのを待って、開始された場合(ステップS401:Yes)は、CPU201は、映像I/F204aを介してカメラ113aによってA拠点の映像を撮像する(ステップS402)。   In step S401, the CPU 201 waits for the start of the video conference and starts the video conference (step S401: Yes), and the CPU 201 captures the image of the site A by the camera 113a via the video I / F 204a (step S402). ).

CPU201aは、通信I/F207aによって、B拠点から映像パケットを受信したか否かを判断する(ステップS403)。   CPU201a judges whether the video packet was received from B base by communication I / F207a (step S403).

ステップS403において、B拠点から映像パケットを受信しない場合(ステップS403:No)は、CPU201は、所定の時間が経過してタイムアウトしたか否かを判断する(ステップS404)。所定の時間の経過は、たとえば、図示しないタイマなどによって、会議開始や、直前のデコードなどを起点にして計時される。   In step S403, when the video packet is not received from the site B (step S403: No), the CPU 201 determines whether a predetermined time has elapsed and timed out (step S404). The elapse of the predetermined time is measured, for example, with a timer (not shown) as a starting point from the start of the conference or the immediately preceding decoding.

ステップS404において、タイムアウトしていない場合(ステップS404:No)は、ステップS403へ戻って処理を繰り返し、タイムアウトした場合(ステップS404:Yes)は、そのままステップS405へ移行する。   In step S404, if the timeout has not occurred (step S404: No), the process returns to step S403 to repeat the process. If the timeout has occurred (step S404: Yes), the process proceeds to step S405 as it is.

ステップS403において、B拠点から映像パケットを受信した場合(ステップS403:Yes)は、CPU201aは、受信された映像パケットを記憶媒体208aに記憶して、ステップS405へ移行する。   In step S403, when the video packet is received from the site B (step S403: Yes), the CPU 201a stores the received video packet in the storage medium 208a, and proceeds to step S405.

CPU201aは、映像I/F204aを制御して、記憶媒体208aに記憶された他拠点の映像パケットを読み出してデコードし、表示部112aに会議映像を表示する(ステップS405)。このステップS405では、未受信の状態で記憶媒体208aにB拠点の映像パケットが記憶されていない場合や、B拠点の映像パケットが欠損していた場合でも、そのままデコードして黒一色映像や一部が欠損した映像などを表示することとなる。   The CPU 201a controls the video I / F 204a, reads and decodes the video packet of the other site stored in the storage medium 208a, and displays the conference video on the display unit 112a (step S405). In this step S405, even if the video packet of the B site is not stored in the storage medium 208a in the unreceived state or the video packet of the B site is missing, it is decoded as it is and a black color image or a part of it is decoded. An image with missing is displayed.

CPU201aは、A拠点の映像パケットの生成・送信処理をおこなう(ステップS406)。ここで、図5を用いて、本発明の実施形態1にかかるテレビ会議端末の映像パケットの生成・送信処理について説明する。図5(a)を用いて、本発明の実施形態1にかかるテレビ会議端末110aにおけるA拠点の映像パケットの生成・送信処理(図4(a)に示したステップS406)について説明する。図5(a)は、本発明の実施形態1にかかるA拠点の映像パケットの生成・送信処理(図4(a)に示したステップS406)の内容を示すフローチャートである。なお、図5(b)は、本発明の実施形態1にかかるB拠点の映像パケットの生成・送信処理(図4(b)に示したステップS456)の内容を示すフローチャートである。図5(b)におけるステップS551〜ステップS554の処理は、図5(b)におけるステップS501〜ステップS504の処理とほぼ同様であるため説明を省略する。   The CPU 201a performs a generation / transmission process of the video packet at the site A (step S406). Here, the generation / transmission processing of the video packet of the video conference terminal according to the first embodiment of the present invention will be described with reference to FIG. With reference to FIG. 5 (a), the video packet generation / transmission process (step S406 shown in FIG. 4 (a)) at the A site in the video conference terminal 110a according to the first embodiment of the present invention will be described. FIG. 5A is a flowchart showing the contents of the video packet generation / transmission process (step S406 shown in FIG. 4A) at the site A according to the first embodiment of the present invention. FIG. 5B is a flowchart showing the contents of the video packet generation / transmission process (step S456 shown in FIG. 4B) at the base B according to the first embodiment of the present invention. Since the processing from step S551 to step S554 in FIG. 5B is substantially the same as the processing from step S501 to step S504 in FIG.

図5(a)のフローチャートにおいて、まず、CPU201aは、ステップS405において会議映像を表示する前にB拠点のテレビ会議端末110bに送信した映像パケットは合成した映像パケットだったか否かを判断する(ステップS501)。   In the flowchart of FIG. 5A, first, the CPU 201a determines whether or not the video packet transmitted to the video conference terminal 110b at the base B before combining video is displayed in step S405 (step S405). S501).

ステップS501において、前回合成していない場合(ステップS501:No)は、CPU201aは、記憶媒体208aから読み出したA拠点の映像に、表示対象の会議映像中のB拠点の映像を合成する(ステップS502)。CPU201aは、ステップS502において合成した合成映像に基づいて、B拠点へ送信する映像パケットを生成する(ステップS503)。   In step S501, if not previously synthesized (step S501: No), the CPU 201a synthesizes the video of the B base in the conference video to be displayed with the video of the A base read from the storage medium 208a (step S502). ). The CPU 201a generates a video packet to be transmitted to the site B based on the synthesized video synthesized in step S502 (step S503).

CPU201aは、通信I/F207aを介して、ステップS503において生成された映像パケットをB拠点に送信して(ステップS504)、そのままA拠点の映像パケットの生成・送信処理を終了して、図4(a)に示したステップS407へ戻る。   The CPU 201a transmits the video packet generated in step S503 to the B site via the communication I / F 207a (step S504), ends the generation / transmission processing of the video packet in the A site as it is, The process returns to step S407 shown in a).

ステップS501において、前回合成した場合(ステップS501:Yes)は、CPU201は、ステップS503へ移行して、ステップS402において撮像された自拠点(A拠点)の映像に基づいて、他拠点(B拠点)へ送信する映像パケットを生成する(ステップS503)。   In step S501, when combined last time (step S501: Yes), the CPU 201 proceeds to step S503, and based on the video of the local site (A site) captured in step S402, another site (B site). A video packet to be transmitted is generated (step S503).

CPU201aは、通信I/F207aを介して、ステップS503において生成された映像パケットを他拠点に送信して(ステップS504)、そのままA拠点の映像パケットの生成・送信処理を終了して、図4に示したステップS407へ戻る。   The CPU 201a transmits the video packet generated in step S503 to the other site via the communication I / F 207a (step S504), ends the generation / transmission processing of the video packet of the A site as it is, and the process shown in FIG. The process returns to the step S407 shown.

図4(a)に戻って、CPU201aは、ステップS401で開始されたテレビ会議が終了するか否かを判断する(ステップS407)。テレビ会議の終了は、たとえば、参加者116aによる操作部206aの操作に基づいて、通信I/F207aを介して他のテレビ会議端末110bに対して切断要求をおこなう。通信I/F207aを介して他のテレビ会議端末110bから応答を受信することによって判断される。   Returning to FIG. 4A, the CPU 201a determines whether or not the video conference started in step S401 is ended (step S407). To end the video conference, for example, based on the operation of the operation unit 206a by the participant 116a, a disconnection request is made to the other video conference terminal 110b via the communication I / F 207a. This is determined by receiving a response from the other video conference terminal 110b via the communication I / F 207a.

ステップS407において、テレビ会議が継続される場合(ステップS407:No)は、ステップS402へ戻って処理を繰り返す。ステップS407において、テレビ会議が終了される場合(ステップS407:Yes)は、そのまま一連の処理を終了する。   If the video conference is continued in step S407 (step S407: No), the process returns to step S402 and the process is repeated. In step S407, when the video conference is ended (step S407: Yes), the series of processes is ended as it is.

ここで、図6を用いて、図4および図5におけるテレビ会議システム100の処理の内容について具体的に説明する。図6は、本発明の実施形態1にかかる映像パケットの送受信の一例を示す説明図である。図6では、A拠点のテレビ会議端末110aの処理の内容を示す図4(a)および図5(a)と、B拠点のテレビ会議端末110bの処理の内容を示す図4(b)および図5(b)とのフローチャートの順序にしたがって説明する。   Here, the content of the processing of the video conference system 100 in FIGS. 4 and 5 will be specifically described with reference to FIG. FIG. 6 is an explanatory diagram showing an example of transmission / reception of video packets according to the first embodiment of the present invention. 6 (a) and 5 (a) showing the processing contents of the video conference terminal 110a at the A site, and FIG. 4 (b) and FIG. 6 showing the processing contents of the video conference terminal 110b at the B site. Description will be made according to the order of the flowchart of FIG.

図6において、ステップS401でテレビ会議が開始されると、A拠点のテレビ会議端末110aは、ステップS402において、自拠点であるA拠点の映像を撮像する(T1)。B拠点のテレビ会議端末110bもステップS451およびステップS452において同様の処理をおこなう。   In FIG. 6, when the video conference is started in step S401, the video conference terminal 110a at the site A captures an image of the site A as its own site in step S402 (T1). The video conference terminal 110b at site B performs the same processing in steps S451 and S452.

テレビ会議端末110aは、相手拠点から映像パケットを受信する前であるため、ステップS404においてタイムアウトすることとなる(T2)。換言すれば、テレビ会議端末110aは、ステップS504における相手拠点であるB拠点へ映像パケットの送信をおこなう前であるためタイムアウトとなる。B拠点のテレビ会議端末110bもステップS454において同様の処理をおこなう。   Since the video conference terminal 110a is before receiving the video packet from the partner site, the video conference terminal 110a times out in step S404 (T2). In other words, the video conference terminal 110a times out because it is before transmitting the video packet to the B site that is the partner site in step S504. The video conference terminal 110b at site B performs the same process in step S454.

テレビ会議端末110aは、相手拠点であるB拠点から映像パケットを受信していないため、ステップS405において、B拠点の映像がないことを示す黒映像を表示する(T3)。テレビ会議端末110bもステップS455において同様の処理をおこなう。   Since the video conference terminal 110a has not received the video packet from the B site that is the partner site, in step S405, the video conference terminal 110a displays a black image indicating that there is no video at the B site (T3). The video conference terminal 110b performs the same processing in step S455.

テレビ会議端末110aは、ステップS406における映像パケットの生成・送信処理へ移行すると、前回は映像パケットの合成をおこなっていないため(ステップS501:No)、ステップS502において、相手拠点の映像である黒映像と、自拠点で撮像された映像とを合成し、ステップS503において相手拠点へ送信する映像パケットを生成する(T4)。テレビ会議端末110bも、ステップS456、ステップS551、ステップS552およびステップS553において同様の処理をおこなう。   When the video conference terminal 110a shifts to the video packet generation / transmission processing in step S406, since the video packet was not synthesized last time (step S501: No), in step S502, the black video that is the video of the partner site is displayed. And the video captured at the local site are combined to generate a video packet to be transmitted to the partner site in step S503 (T4). The video conference terminal 110b performs the same processing in step S456, step S551, step S552, and step S553.

テレビ会議端末110aは、ステップS503において生成された映像パケットを相手拠点であるB拠点へ送信すると(T5)、B拠点から送信された映像パケットを受信し、会議映像として表示する(T6)。テレビ会議端末110bもステップS553において同様の処理をおこなう。   When the video conference terminal 110a transmits the video packet generated in step S503 to the partner B site (T5), the video conference terminal 110a receives the video packet transmitted from the B site and displays it as a conference video (T6). The video conference terminal 110b performs the same process in step S553.

テレビ会議端末110aは、ステップS407において会議が継続されている場合は、ステップS402において、新たに自拠点の映像を撮像している(T7)。テレビ会議端末110bも、ステップS457およびステップS452において同様の処理をおこなう。   When the conference is continued in step S407, the video conference terminal 110a newly captures an image of the local site in step S402 (T7). The video conference terminal 110b performs the same processing in step S457 and step S452.

テレビ会議端末110aは、ステップS406における映像パケットの生成・送信処理へ移行すると、前回はT4において映像パケットの合成をおこなっているため、合成はおこなわずに、自拠点であるA拠点の映像からステップS503において相手拠点であるB拠点へ送信する映像パケットを生成する(T8)。テレビ会議端末110bもステップS456およびステップS553において同様の処理をおこなう。   When the video conference terminal 110a shifts to the generation / transmission processing of the video packet in step S406, since the video packet was previously combined in T4, the video conference terminal 110a does not perform the combining and performs the step from the video of the base A as its own base. In S503, a video packet to be transmitted to the B site which is the partner site is generated (T8). The video conference terminal 110b performs the same processing in steps S456 and S553.

テレビ会議端末110aは、ステップS503において生成された映像パケットを相手拠点であるB拠点へ送信すると(T9)、B拠点から送信された映像パケットを受信し、会議映像として表示する(T10)。テレビ会議端末110bもステップS553において同様の処理をおこなう。   When the video conference terminal 110a transmits the video packet generated in step S503 to the partner B site (T9), the video conference terminal 110a receives the video packet transmitted from the B site and displays it as a conference video (T10). The video conference terminal 110b performs the same process in step S553.

テレビ会議端末110aは、ステップS407において会議が継続されている場合は、ステップS402において、新たにA拠点の映像を撮像している(T11)。テレビ会議端末110bもステップS457およびステップS452において同様の処理をおこなう。   When the conference is continued in step S407, the video conference terminal 110a newly captures an image of the site A in step S402 (T11). The video conference terminal 110b performs the same processing in steps S457 and S452.

テレビ会議端末110aは、ステップS406における映像パケットの生成・送信処理へ移行すると、前回はT8において映像パケットの合成をおこなっていないため、ステップS502において、T10において受信・表示をおこなった相手拠点であるB拠点の映像と、自拠点であるA拠点で撮像された映像とを合成し、ステップS503においてB拠点へ送信する映像パケットを生成する(T12)。テレビ会議端末110bもステップS456、ステップS552およびステップS553において同様の処理をおこなう。   When the video conference terminal 110a shifts to the video packet generation / transmission process in step S406, the video conference terminal 110a is the partner site that received and displayed in T10 in step S502 because the video packet was not synthesized in T8 last time. The video of the B site and the video captured at the A site, which is its own site, are combined, and a video packet to be transmitted to the B site is generated in step S503 (T12). The video conference terminal 110b performs the same processing in step S456, step S552, and step S553.

テレビ会議端末110aは、ステップS503において生成された映像パケットをB拠点へ送信すると(T13)、B拠点から送信された映像パケットを受信し、会議映像として表示する(T14)。テレビ会議端末110bもステップS553において同様の処理をおこなう。   When the video conference terminal 110a transmits the video packet generated in step S503 to the site B (T13), the video conference terminal 110a receives the video packet transmitted from the site B and displays it as a conference video (T14). The video conference terminal 110b performs the same process in step S553.

テレビ会議端末110aは、ステップS407において会議が継続されている期間は、A拠点の映像に対してB拠点の映像の合成と、非合成とを繰り返して映像パケットを生成して、B拠点へ送信することとなる。テレビ会議端末110bも同様に、ステップS457において会議が継続している間は映像の合成と、非合成を繰り返して映像パケットを生成して、A拠点へ送信する構成である。   The video conference terminal 110a generates a video packet by repeating the synthesis of the video at the B site and the non-synthesis for the video at the A site for the duration of the conference in step S407, and transmits the video packet to the B site. Will be. Similarly, the video conference terminal 110b has a configuration in which video packets are generated by repeating the synthesis and non-synthesis of video while the conference is continued in step S457, and is transmitted to the site A.

なお、本発明の各構成要素における通信方法と、本発明の実施形態1の各処理または各機能とを関連付けて説明すると、ステップS402(S452)におけるCPU201、映像I/F204およびカメラ113の処理によって、本発明にかかる撮像工程の処理が実行される。ステップS403(S453)およびステップS404(S454)におけるCPU201および通信I/F207の処理によって、本発明にかかる受信工程の処理が実行される。ステップS406(ステップS501〜ステップS503)(S456(S551〜S553))におけるCPU201および記憶媒体208の処理によって、本発明にかかる判断工程および生成工程の処理が実行される。ステップS504(S554)におけるCPU201および通信I/F207の処理によって、本発明にかかる送信工程の処理が実行される。   The communication method in each component of the present invention and each process or each function of the first embodiment of the present invention will be described in association with each other by the processes of the CPU 201, video I / F 204, and camera 113 in step S402 (S452). The process of the imaging process according to the present invention is executed. The processing of the reception process according to the present invention is executed by the processing of the CPU 201 and the communication I / F 207 in step S403 (S453) and step S404 (S454). By the processing of the CPU 201 and the storage medium 208 in step S406 (steps S501 to S503) (S456 (S551 to S553)), the determination process and the generation process according to the present invention are executed. By the processing of the CPU 201 and the communication I / F 207 in step S504 (S554), the transmission process according to the present invention is executed.

以上説明したように、本発明の実施形態1によれば、自拠点で撮像された自拠点映像に他拠点から受信された他拠点映像を合成した自拠点映像情報を送信することができる。したがって、他拠点では、自拠点から送信された自拠点映像を確認することで、自拠点の映像とともに自拠点で表示されている他拠点の映像を確認することができる。   As described above, according to the first embodiment of the present invention, it is possible to transmit own-site video information obtained by combining the other-site video received from the other site with the own-site video captured at the own site. Therefore, at the other site, by confirming the own site image transmitted from the own site, the image of the other site displayed at the own site can be confirmed together with the image of the own site.

同様に、自拠点では、他拠点から送信された他拠点映像を確認することで、他拠点の映像とともに他拠点で表示されている自拠点の映像を確認することができるため、自拠点の映像をデコードすることなく、簡易な構成で処理負荷の低減を図りつつ、相互で相手拠点に表示される映像の状態を把握することができる。   Similarly, by checking the video of other sites transmitted from other sites, you can check the video of your site displayed at other sites along with the video of other sites. Without decoding the image, the processing load can be reduced with a simple configuration, and the state of the video displayed at the partner site can be grasped mutually.

また、交互に合成と非合成を繰り返す構成としているため、合成された映像を繰り返し合成して、合成映像の連鎖を防止することができるとともに、無駄な合成処理をおこなうことがない。   Further, since the composition and the non-synthesis are alternately repeated, the synthesized video can be repeatedly synthesized to prevent the synthesized video from being chained, and a wasteful synthesis process is not performed.

(その他の一部の変形例)
本発明の実施形態1では特に、相互に表示対象となる映像について映像パケットとして送受信する構成としたがこれに限ることはない。すなわち、映像を送受信するデータ形式は、テレビ会議をおこなうテレビ会議端末110同士が送受信するのに適したデータ形式であればなんでもよい。このようにすることで、送受信するデータ形式について汎用性の向上を図ることができる。
(Other variations)
In Embodiment 1 of the present invention, in particular, the configuration is such that the video to be displayed mutually is transmitted and received as a video packet. That is, the data format for transmitting and receiving video may be any data format that is suitable for transmission and reception between the video conference terminals 110 that conduct a video conference. By doing in this way, the versatility can be improved about the data format transmitted / received.

また、本発明の実施形態1では特に、図6で示したようにA拠点と、B拠点の映像について、合成映像および合成をおこなっていない映像の送受信について同タイミングで説明したが、これに限ることはない。具体的には、A拠点から合成映像に基づくA拠点映像パケットが送信されるタイミングで、B拠点からは合成をおこなっていない映像に基づくB拠点映像パケットが送信される構成でもよい。   In the first embodiment of the present invention, as shown in FIG. 6, the transmission and reception of the synthesized video and the video that has not been synthesized are described at the same timing for the video at the A site and the B site. There is nothing. Specifically, the B base video packet based on the video that is not combined may be transmitted from the B base at the timing when the A base video packet based on the composite video is transmitted from the A base.

また、本発明の実施形態1では特に、ステップS501およびステップS551において、所定周期として、合成と、非合成を交互に繰り返すこととして説明したがこれに限ることはない。具体的には、たとえば、交互に繰り返す代わりに、合成と、非合成とを複数回ごとに繰り返す構成でもよい。すなわち、1回の合成の後に複数回非合成を繰り返したりしてもよく、合成処理負荷の最適化を図ることができる。また、所定周期の代わりに所定タイミングを検知して合成を判断してもよい。   Further, in the first embodiment of the present invention, in particular, in step S501 and step S551, it has been described that synthesis and non-synthesis are alternately repeated as a predetermined cycle, but the present invention is not limited to this. Specifically, for example, instead of repeating alternately, a configuration in which synthesis and non-synthesis are repeated a plurality of times may be employed. That is, non-synthesis may be repeated a plurality of times after one synthesis, and the synthesis processing load can be optimized. Further, the synthesis may be determined by detecting a predetermined timing instead of the predetermined cycle.

ここで、図7を用いて、本変形例にかかる自拠点の映像パケットの生成・送信処理について説明する。図7は、本発明の変形例にかかる自拠点の映像パケットの生成処理(図4(a)に示したステップS406または図4(b)に示したステップS456)の内容を示すフローチャートである。図7のフローチャートにおいて、まず、CPU201は、所定タイミングとなったか否かを判断する(ステップS701)。所定タイミングは、テレビ会議端末110の起動時、ネットワーク150環境の変動時、テレビ会議端末110のテレビ会議への新たな接続時や切断時などのタイミングである。   Here, the generation / transmission process of the video packet of the local site according to the present modification will be described with reference to FIG. FIG. 7 is a flowchart showing the contents of the video packet generation process (step S406 shown in FIG. 4A or step S456 shown in FIG. 4B) according to the modification of the present invention. In the flowchart of FIG. 7, first, the CPU 201 determines whether or not a predetermined timing has come (step S701). The predetermined timing is a timing such as when the video conference terminal 110 is activated, when the network 150 environment changes, when the video conference terminal 110 is newly connected to or disconnected from the video conference.

ステップS701において、所定タイミングとなった場合(ステップS701:Yes)は、CPU201は、記憶媒体208から読み出した自拠点の映像に、表示対象の会議映像中の他拠点の映像を合成する(ステップS702)。   In step S701, when the predetermined timing is reached (step S701: Yes), the CPU 201 synthesizes the video of the other site in the conference video to be displayed with the video of the local site read from the storage medium 208 (step S702). ).

CPU201は、ステップS702において自拠点の映像に会議映像中の他拠点の映像を合成した合成映像に基づいて、他拠点へ送信する映像パケットを生成する(ステップS703)。   The CPU 201 generates a video packet to be transmitted to another site based on the synthesized video obtained by synthesizing the video of the other site in the conference video with the video of its own site in step S702 (step S703).

CPU201は、通信I/F207を介して、ステップS703において生成された映像パケットを他拠点に送信して(ステップS704)、そのまま自拠点の映像パケットの生成・送信処理を終了して、図4(a)に示したステップS407(または、図4(b)に示したステップS457)へ戻る。   The CPU 201 transmits the video packet generated in step S703 to the other site via the communication I / F 207 (step S704), ends the generation / transmission processing of the video packet of its own site as it is, and FIG. The process returns to step S407 shown in a) (or step S457 shown in FIG. 4B).

ステップS701において、所定タイミングとなっていない場合(ステップS701:No)は、CPU201は、ステップS703へ移行して、ステップS402において撮像された自拠点の映像に基づいて、他拠点へ送信する映像パケットを生成する(ステップS703)。   In step S701, when the predetermined timing is not reached (step S701: No), the CPU 201 proceeds to step S703, and transmits a video packet to another site based on the video of the local site imaged in step S402. Is generated (step S703).

CPU201は、通信I/F207を介して、ステップS703において生成された映像パケットを他拠点に送信して(ステップS704)、そのまま自拠点の映像パケットの生成・送信処理を終了して、図4(a)に示したステップS407(または、図4(b)に示したステップS457)へ戻る。   The CPU 201 transmits the video packet generated in step S703 to the other site via the communication I / F 207 (step S704), ends the generation / transmission processing of the video packet of its own site as it is, and FIG. The process returns to step S407 shown in a) (or step S457 shown in FIG. 4B).

このように、会議映像を用いずに所定タイミングによって合成の要否を判断することで、簡易な構成によって、表示する映像に複数の自拠点映像や他拠点映像が入り込んでしまうという無限の連鎖を防ぐことができる。また、所定のタイミングで、映像の合成の要否を判断することで、合成映像の生成処理の最適化を図ることができる。   In this way, by determining whether or not it is necessary to synthesize at a predetermined timing without using the conference video, an infinite chain of multiple local video and other site video enters the video to be displayed with a simple configuration. Can be prevented. Further, it is possible to optimize the composite video generation process by determining whether video synthesis is necessary at a predetermined timing.

また、本発明の実施形態1では特に、所定周期の経過によって、映像の合成と非合成を豪語に繰り返すこととして説明したが、これに限ることはない。具体的には、会議映像に自拠点の映像が含まれているか否かに基づいて、自拠点の映像に他拠点の映像を合成すると判断してもよい。すなわち、他拠点から送信された映像パケットをデコードした会議映像に、自拠点の映像が含まれていなければ合成すると判断する。   Further, in the first embodiment of the present invention, it has been particularly described that the composition and non-synthesis of the video are repeated in the Australian language as the predetermined period elapses. However, the present invention is not limited to this. Specifically, based on whether or not the video of the local site is included in the conference video, it may be determined that the video of the local site is combined with the video of the local site. That is, if the conference video obtained by decoding the video packet transmitted from another site does not include the video of the local site, it is determined that the video is synthesized.

他拠点から送信された映像パケットに基づく会議映像に自拠点映像が含まれている場合は、自拠点映像と他拠点映像との合成をおこなわないため、表示する映像に複数の自拠点映像が入り込んでしまうことを防ぐことができ、最適な会議映像によって円滑なテレビ会議をおこなうことができる。   If the conference video based on the video packet sent from another site contains the own site video, the local site video and the other site video will not be combined, so multiple local site videos will be included in the video to be displayed. Can be prevented, and a smooth video conference can be performed with an optimal conference video.

(実施形態2)
つぎに、本発明の実施形態2について説明する。本発明の実施形態2では、実施形態1で説明した会議映像について、複数の他拠点から受信した場合に、表示に不具合がある他拠点を報知する場合について説明する。なお、本発明の実施形態2にかかるテレビ会議システム100の概要、テレビ会議端末110の機能的構成、テレビ会議端末110の処理の内容については、実施形態1に示したそれぞれ図1、図2、図4および図5とほぼ同様であるため説明を省略する。
(Embodiment 2)
Next, Embodiment 2 of the present invention will be described. In the second embodiment of the present invention, a case will be described in which when the conference video described in the first embodiment is received from a plurality of other bases, the other base having a display defect is notified. In addition, about the outline | summary of the video conference system 100 concerning Embodiment 2 of this invention, the functional structure of the video conference terminal 110, and the content of the process of the video conference terminal 110, FIG. 1, FIG. Since it is substantially the same as FIG. 4 and FIG. 5, description is abbreviate | omitted.

本発明の実施形態2においては、図4(a)に示したステップS404〜S407または図4(b)に示したステップS454〜S457の間に、複数の他拠点から受信した映像パケットについて、映像比較および報知処理をおこなう構成である。すなわち、通信I/F207は、複数の他拠点のテレビ会議端末110から送信される映像パケットを受信し、記録媒体208へ出力する。   In Embodiment 2 of the present invention, video packets received from a plurality of other sites during steps S404 to S407 shown in FIG. 4A or steps S454 to S457 shown in FIG. It is the structure which performs a comparison and alerting | reporting process. That is, the communication I / F 207 receives video packets transmitted from the video conference terminals 110 at a plurality of other bases and outputs them to the recording medium 208.

CPU201は、複数の他拠点から送信された映像パケットをデコードした会議映像に、自拠点の映像が含まれているか否かを判断し、含まれている場合は、自拠点の映像の差分を算出する。CPU201は、差分が一定値以上である場合に、表示部112やスピーカ115によってその旨を参加者116へ報知する構成である。   The CPU 201 determines whether or not the video of the local site is included in the conference video obtained by decoding the video packets transmitted from a plurality of other bases. If the video is included, the CPU 201 calculates the difference between the videos of the local site. To do. When the difference is equal to or greater than a certain value, the CPU 201 is configured to notify the participant 116 of that fact by the display unit 112 or the speaker 115.

(映像比較・報知処理の内容)
ここで、図8を用いて、本発明の実施形態2にかかるテレビ会議端末110による会議映像の映像比較・報知処理について説明する。図8は、本発明の実施形態2にかかる映像比較・報知処理の内容を示すフローチャートである。図8のフローチャートにおいて、まず、CPU201は、複数の他拠点から受信した映像パケットに基づく会議映像に自拠点の映像があるか否かを判断する(ステップS801)。
(Contents of video comparison / notification process)
Here, the video comparison / informing process of the conference video by the video conference terminal 110 according to the second embodiment of the present invention will be described with reference to FIG. FIG. 8 is a flowchart showing the contents of the video comparison / notification process according to the second embodiment of the present invention. In the flowchart of FIG. 8, first, the CPU 201 determines whether or not there is a video of the local site in the conference video based on video packets received from a plurality of other bases (step S801).

ステップS801において、自拠点の映像がない場合(ステップS801:No)は、そのまま一連の映像比較・報知処理を終了し、図4のフローチャートへ戻る。ステップS1301において、自拠点の映像がある場合(ステップS801:Yes)は、CPU201は、会議映像に含まれる各自拠点の映像の画素間の差分を算出する(ステップS802)。   In step S801, when there is no video of the local site (step S801: No), the series of video comparison / notification processing is terminated as it is, and the process returns to the flowchart of FIG. In step S1301, when there is a video of the local site (step S801: Yes), the CPU 201 calculates a difference between pixels of the video of the local site included in the conference video (step S802).

CPU201は、ステップS802において算出された差分が一定以上か否かを判断する(ステップS803)。差分が一定以上か否かの判断は、たとえば、自拠点の映像が適切に表示されていないことを判断するものである。   The CPU 201 determines whether or not the difference calculated in step S802 is greater than or equal to a certain value (step S803). The determination of whether or not the difference is greater than or equal to a certain value is, for example, determining that the video of the local site is not being displayed appropriately.

ここで、図9を用いて、本発明の実施形態2にかかるテレビ会議端末110による映像比較の概要についてB拠点のテレビ会議端末110bが、A,C,D拠点のテレビ会議端末110a,110c,110dからA拠点の映像を含む会議映像の映像パケットを受信する例を説明する。図9は、本発明の実施形態2にかかる映像比較の概要について説明する説明図である。   Here, with reference to FIG. 9, the video conference terminal 110b at the B base is the video conference terminals 110a, 110c at the A, C, and D bases for an overview of the video comparison by the video conference terminal 110 according to the second embodiment of the present invention. An example in which a video packet of a conference video including a video of the site A is received from 110d will be described. FIG. 9 is an explanatory diagram for explaining an overview of video comparison according to the second embodiment of the present invention.

図9において、B拠点のテレビ会議端末110bは、テレビ会議端末110a,110c,110dから映像パケットを受信する。テレビ会議端末110bは、A,C,D拠点から受信した映像パケットをA拠点の会議映像900、C拠点の会議映像910、D拠点の会議映像920としてそれぞれデコードする。   In FIG. 9, the B conference video conference terminal 110b receives video packets from the video conference terminals 110a, 110c, and 110d. The video conference terminal 110b decodes the video packets received from the A, C, and D sites as a conference video 900 at the A site, a conference video 910 at the C site, and a conference video 920 at the D site, respectively.

会議映像900には、参加者116aのA拠点映像901と、A拠点で表示された参加者116bのB拠点映像902とが合成されている。会議映像910には、参加者116cのC拠点映像911と、C拠点で表示された参加者116bのB拠点映像912とが合成されている。会議映像920には、参加者116dのD拠点映像911と、C拠点で表示された参加者116bのB拠点映像922とが合成されている。   In the conference video 900, the A base image 901 of the participant 116a and the B base video 902 of the participant 116b displayed at the A base are combined. The conference video 910 is composed of the C base video 911 of the participant 116c and the B base video 912 of the participant 116b displayed at the C base. In the conference video 920, the D base video 911 of the participant 116d and the B base video 922 of the participant 116b displayed at the C base are combined.

会議映像920におけるB拠点映像922には、欠損個所950が存在しており、B拠点の自拠点とする各B拠点映像902,912,922の画素間の差分を算出すると、B拠点映像922について一定以上の差分が算出されることとなる。   In the B base image 922 in the conference video 920, a missing part 950 exists, and when the difference between the pixels of the B base images 902, 912, and 922 as the own base of the B base is calculated, A certain difference or more is calculated.

テレビ会議端末110bは、一定以上の差分があったB拠点映像922を含む会議映像920の送信元のD拠点に対して、自拠点であるB拠点の映像パケットが適切に送信されなかったこととして、その旨を報知する。報知は、たとえば、B拠点の参加者116bに対して「D拠点でうまく再生できていません」などのメッセージ960を表示する。   The video conference terminal 110b determines that the video packet of the base B, which is its own base, has not been properly transmitted to the base D of the transmission source of the conference video 920 including the base B video 922 that has a certain difference or more. , To that effect. The notification displays, for example, a message 960 such as “Not successfully reproduced at D site” for the participants 116b at B site.

図8に戻って、ステップS803において、一定以上の差分がない場合(ステップS803:No)は、そのまま一連の映像比較・報知処理を終了し、図4のフローチャートへ戻る。   Returning to FIG. 8, if there is no difference greater than or equal to a certain value in step S803 (step S803: No), the series of video comparison / notification processing is terminated as it is, and the flow returns to the flowchart of FIG.

ステップS803において、一定以上の差分があった場合(ステップS803:Yes)は、CPU201は、映像I/F204を制御して、表示部112に一定以上の差分があった旨を表示して(ステップS804)、一連の映像比較・報知処理を終了し、図4のフローチャートへ戻る。   In step S803, when there is a certain difference or more (step S803: Yes), the CPU 201 controls the video I / F 204 to display that there is a certain difference or more on the display unit 112 (step S803). S804), the series of video comparison / notification processing is terminated, and the process returns to the flowchart of FIG.

以上説明したように、本発明の実施形態2によれば、他拠点の映像に含まれる自拠点の映像を比較して、差分の大きい場合に警告を報知できるため、自拠点の映像が適切に送信できなかった他拠点を的確に把握することができる。   As described above, according to the second embodiment of the present invention, it is possible to compare the video of the local site included in the video of the other site and notify the warning when the difference is large. It is possible to accurately grasp other sites that could not be transmitted.

(その他の一部の変形例)
本発明の実施形態2では特に、自拠点の参加者116に対して、自拠点の映像が適切に送信されなかった他拠点を報知することとしたが、これに限ることはない。具体的には、図9の例で、たとえば、テレビ会議端末110bは、他拠点A,C,Dに対しても、適切に映像が送信されていない拠点間を報知することとしてもよい。相互に、通信が適切に確立されていないことを報知することで、参加者116は、通信が確立できない拠点間を特定することができる。
(Other variations)
In Embodiment 2 of the present invention, in particular, the other site where the video of the local site has not been properly transmitted is notified to the participant 116 of the local site, but the present invention is not limited to this. Specifically, in the example of FIG. 9, for example, the video conference terminal 110 b may notify other sites A, C, and D between sites where video is not properly transmitted. By notifying each other that communication has not been properly established, the participant 116 can identify between bases where communication cannot be established.

また、本発明の実施形態2では特に、各会議映像900,910,920における各B拠点映像902,912,922の画素間の差分を算出することとして説明したが、テレビ会議端末110bは、タイムスタンプを付与してB拠点映像902,912,922を送信した場合、同時刻のタイムスタンプが付与されている場合に差分を算出する構成でもよい。タイムスタンプを利用することで、通信の不具合を正確に把握することができる。   In the second embodiment of the present invention, the difference between the pixels of the B base images 902, 912, and 922 in the conference images 900, 910, and 920 has been described. When the B base images 902, 912, and 922 are transmitted with the stamp attached, the difference may be calculated when the time stamp of the same time is attached. By using the time stamp, it is possible to accurately grasp a communication failure.

また、本発明の実施形態2では特に、各会議映像900,910,920における各B拠点映像902,912,922の画素間の差分を算出することとして説明したが、これに限ることはない。具体手には、たとえば、テレビ会議端末110bは、自装置が送信したB拠点映像902,912,922を一時保持可能とする。各会議映像900,910,920における各B拠点映像902,912,922と、一時保持されている(かつて自装置が送信した)B拠点映像902,912,922との差分をそれぞれ算出する構成でもよい。このようにすれば、通信の不具合を正確に把握することができる。   In the second embodiment of the present invention, the difference between the pixels of the B base images 902, 912, and 922 in the conference images 900, 910, and 920 has been described. However, the present invention is not limited to this. Specifically, for example, the video conference terminal 110b can temporarily hold the B base images 902, 912, and 922 transmitted by the own device. In the configuration in which the difference between each B base image 902, 912, 922 in each conference video 900, 910, 920 and the B base image 902, 912, 922 that is temporarily held (and transmitted by the device itself) is calculated. Good. In this way, it is possible to accurately grasp a communication failure.

また、本発明の実施形態2では特に、一定以上の差分があった旨をメッセージ960として表示する構成としたが、これに限ることはない。具体的には、一定以上の差分があるD拠点からの会議映像920を強調表示したり、音声による報知をおこなったりしてもよい。このように、様々な報知形態を適用することで、テレビ会議端末110の利便性の向上を図ることができる。   In the second embodiment of the present invention, the message 960 is displayed to indicate that there is a certain difference or more. However, the present invention is not limited to this. Specifically, the conference video 920 from the D site having a certain difference or more may be highlighted or a voice notification may be performed. Thus, the convenience of the video conference terminal 110 can be improved by applying various notification forms.

また、本発明の実施形態2では特に、D拠点に映像パケットが適切に送信されなかったこととしてメッセージ960を表示することとしたが、これに限ることはない。具体的には、D拠点から送信される映像パケットに不具合について「D拠点からの送信に不具合があります」や「D拠点との通信に不具合が発生しています」というメッセージでもよい。   In the second embodiment of the present invention, the message 960 is displayed in particular as a video packet is not properly transmitted to the site D. However, the present invention is not limited to this. Specifically, a message such as “There is a problem in transmission from the D site” or “There is a problem in communication with the D site” regarding a problem in the video packet transmitted from the D site may be used.

また、上述した説明では、実施形態1、実施形態2および一部の変形例について別々の例として説明したが、これに限ることはない。すなわち、それぞれ実施形態1、実施形態2および一部の変形例による手法を適宜組み合わせて利用してもよい。   In the above description, the first embodiment, the second embodiment, and some modified examples have been described as separate examples, but the present invention is not limited thereto. That is, the methods according to the first embodiment, the second embodiment, and some modifications may be used in appropriate combination.

なお、本発明の実施形態1、2および変形例で説明した通信方法は、あらかじめ用意された通信プログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。この通信プログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。   Note that the communication methods described in the first and second embodiments and the modifications of the present invention can be realized by executing a communication program prepared in advance on a computer such as a personal computer or a workstation. The communication program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The program may be a transmission medium that can be distributed via a network such as the Internet.

100 テレビ会議システム
110(110a,110b,110c,110d) テレビ会議端末
111(111a,111b,111c,111d) 筐体
112(112a,112b,112c,112d) 表示部
113(113a,113b,113c,113d) カメラ
114(114a,114b,114c,114d) マイク
115(115a,115b,115c,115d) スピーカ
116(116a,116b,116c,116d) 参加者
150 ネットワーク
200 バス
201 CPU
202 RAM
203 ROM
204 映像I/F
205 音声I/F
206 操作部
207 通信I/F
208 記憶媒体
100 Video conference system 110 (110a, 110b, 110c, 110d) Video conference terminal 111 (111a, 111b, 111c, 111d) Housing 112 (112a, 112b, 112c, 112d) Display unit 113 (113a, 113b, 113c, 113d) ) Camera 114 (114a, 114b, 114c, 114d) Microphone 115 (115a, 115b, 115c, 115d) Speaker 116 (116a, 116b, 116c, 116d) Participant 150 Network 200 Bus 201 CPU
202 RAM
203 ROM
204 Video I / F
205 Voice I / F
206 Operation unit 207 Communication I / F
208 storage media

Claims (7)

自拠点と、ネットワークを介して接続された複数の他拠点との間で送受信される情報を利用して会議をおこなう端末装置であって、
前記自拠点の参加者を含む自拠点映像を撮像する撮像手段と、
前記他拠点から、他拠点映像を含む他拠点映像情報を受信する受信手段と、
所定の条件に基づいて、前記撮像手段によって撮像された前記自拠点映像と、前記他拠点映像とを合成するか否かを判断する判断手段と、
前記判断手段によって前記自拠点映像と、前記他拠点映像とを合成しないと判断された場合、前記自拠点映像から前記他拠点に対して送信する自拠点映像情報を生成し、合成すると判断された場合、前記自拠点映像と、前記他拠点映像とから前記自拠点映像情報を生成する生成手段と、
前記生成手段によって生成された前記自拠点映像情報を、前記他拠点に対して送信する送信手段と、
を備えたことを特徴とする端末装置。
A terminal device that conducts a conference using information transmitted and received between its own base and a plurality of other bases connected via a network,
Imaging means for imaging a video of the local site including participants at the local site;
Receiving means for receiving other site video information including other site video from the other site;
A determination means for determining whether to synthesize the own-site video imaged by the imaging means and the other-site video based on a predetermined condition;
When it is determined by the determining means that the local site video and the other site video are not to be combined, it is determined that the local site video information to be transmitted from the local site video to the other site is generated and combined. A generating means for generating the own-site video information from the own-site video and the other-site video;
Transmitting means for transmitting the local video information generated by the generating means to the other base;
A terminal device comprising:
前記判断手段は、所定周期で前記自拠点映像と、前記他拠点映像とを合成すると判断することを特徴とする請求項1に記載の端末装置。   The terminal device according to claim 1, wherein the determination unit determines to synthesize the local site video and the other site video in a predetermined cycle. 前記判断手段は、所定タイミングで前記自拠点映像と、前記他拠点映像とを合成すると判断することを特徴とする請求項1または2に記載の端末装置。   The terminal device according to claim 1, wherein the determination unit determines to synthesize the local site video and the other site video at a predetermined timing. 前記判断手段は、前記他拠点映像情報に含まれる前記他拠点映像に、前記自拠点映像が含まれているか否かを判断し、前記自拠点映像が含まれていた場合、前記自拠点映像と、前記他拠点映像とを合成しないと判断することを特徴とする請求項1〜3のいずれか一つに記載の端末装置。   The determination means determines whether or not the own-site video is included in the other-site video included in the other-site video information, and when the own-site video is included, The terminal device according to claim 1, wherein the terminal device is determined not to be combined with the other-site video. 前記受信手段は、複数の前記他拠点からそれぞれ前記他拠点映像情報を受信し、
複数の前記他拠点映像情報に前記自拠点映像が含まれていた場合、前記他拠点映像情報に含まれていた前記自拠点映像同士の差分を演算し、演算結果に基づいて前記参加者に警告を報知する報知手段をさらに備えることを特徴とする請求項1〜4のいずれか一つに記載の端末装置。
The receiving means receives the other-site video information from each of a plurality of other sites,
When the local site video information is included in a plurality of the other site video information, the difference between the local site videos included in the other site video information is calculated, and the participant is warned based on the calculation result The terminal device according to any one of claims 1 to 4, further comprising notification means for notifying the user.
自拠点と、ネットワークを介して接続された複数の他拠点との間で送受信される情報を利用して会議をおこなう通信方法であって、
前記自拠点の参加者を含む自拠点映像を撮像する撮像工程と、
前記他拠点から、他拠点映像を含む他拠点映像情報を受信する受信工程と、
所定の条件に基づいて、前記撮像工程によって撮像された前記自拠点映像と、前記受信工程によって受信された前記他拠点映像情報に含まれる前記他拠点映像とを合成するか否かを判断する判断工程と、
前記判断工程によって前記自拠点映像と、前記他拠点映像とを合成しないと判断された場合、前記自拠点映像から前記他拠点に対して送信する自拠点映像情報を生成し、合成すると判断された場合、前記自拠点映像と、前記他拠点映像とから前記自拠点映像情報を生成する生成工程と、
前記生成工程によって生成された前記自拠点映像情報を、前記他拠点に対して送信する送信工程と、
を含むことを特徴とする通信方法。
A communication method in which a conference is performed using information transmitted and received between the own base and a plurality of other bases connected via a network,
An imaging step of capturing an image of the local site including the participants of the local site;
A receiving step of receiving other site video information including other site video from the other site;
Judgment whether or not to synthesize the own-site video imaged in the imaging step and the other-site video included in the other-site video information received in the receiving step based on a predetermined condition Process,
If it is determined in the determination step that the local site video and the other site video are not combined, it is determined that the local site video information to be transmitted from the local site video to the other site is generated and combined. A generating step of generating the local video information from the local video and the other video;
A transmitting step of transmitting the local site video information generated by the generating step to the other site;
A communication method comprising:
自拠点と、ネットワークを介して接続された複数の他拠点との間で送受信される情報を利用して会議をおこなう端末装置のための通信プログラムであって、
前記自拠点の参加者を含む自拠点映像を撮像させる撮像工程と、
前記他拠点から、他拠点映像を含む他拠点映像情報を受信させる受信工程と、
所定の条件に基づいて、前記撮像工程によって撮像させた前記自拠点映像と、前記他拠点映像とを合成させるか否かを判断させる判断工程と、
前記判断工程によって前記自拠点映像と、前記他拠点映像とを合成しないと判断された場合、前記自拠点映像から前記他拠点に対して送信する自拠点映像情報を生成させ、合成すると判断された場合、前記自拠点映像と、前記他拠点映像とから前記自拠点映像情報を生成させる生成工程と、
前記生成工程によって生成させた前記自拠点映像情報を、前記他拠点に対して送信させる送信工程と、
をコンピュータに実行させることを特徴とする端末装置のための通信プログラム。
A communication program for a terminal device that conducts a conference using information transmitted and received between its own base and a plurality of other bases connected via a network,
An imaging step of capturing an image of the local site including the participants of the local site;
A receiving step of receiving other site video information including other site video from the other site,
A determination step of determining whether to synthesize the own site video imaged in the imaging step and the other site video based on a predetermined condition;
If it is determined by the determination step that the local site video and the other site video are not to be combined, it is determined that the local site video information to be transmitted from the local site video to the other site is generated and combined. A generating step of generating the local site video information from the local site video and the other site video;
A transmitting step of transmitting the local site video information generated by the generating step to the other site;
A communication program for a terminal device, characterized in that a computer is executed.
JP2009222148A 2009-09-28 2009-09-28 Terminal device, communication method, and communication program Expired - Fee Related JP5397126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009222148A JP5397126B2 (en) 2009-09-28 2009-09-28 Terminal device, communication method, and communication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009222148A JP5397126B2 (en) 2009-09-28 2009-09-28 Terminal device, communication method, and communication program

Publications (2)

Publication Number Publication Date
JP2011071822A true JP2011071822A (en) 2011-04-07
JP5397126B2 JP5397126B2 (en) 2014-01-22

Family

ID=44016641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009222148A Expired - Fee Related JP5397126B2 (en) 2009-09-28 2009-09-28 Terminal device, communication method, and communication program

Country Status (1)

Country Link
JP (1) JP5397126B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190614A1 (en) * 2014-06-10 2015-12-17 Ricoh Company, Limited Communication apparatus, communication system, communication management system, communication control method, and computer program product
JP2019118114A (en) * 2019-02-21 2019-07-18 株式会社リコー Tv conference system, terminal, and display method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07115629A (en) * 1993-10-20 1995-05-02 Nippon Telegr & Teleph Corp <Ntt> Pictorial communication terminal
JPH0846939A (en) * 1994-07-27 1996-02-16 Hitachi Ltd Video conference system
JP2004120460A (en) * 2002-09-27 2004-04-15 Hitachi Information Systems Ltd Video conference system, video conference terminal device and program
JP2005269498A (en) * 2004-03-22 2005-09-29 Hitachi Information Systems Ltd Video conference system, video conference terminal device, and its control method and video conference terminal device controlling program for it
JP2006229456A (en) * 2005-02-16 2006-08-31 Toshiba Corp Video conference apparatus, program, and method
JP2007036400A (en) * 2005-07-22 2007-02-08 Pioneer Electronic Corp Electronic conference system and conference terminal thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07115629A (en) * 1993-10-20 1995-05-02 Nippon Telegr & Teleph Corp <Ntt> Pictorial communication terminal
JPH0846939A (en) * 1994-07-27 1996-02-16 Hitachi Ltd Video conference system
JP2004120460A (en) * 2002-09-27 2004-04-15 Hitachi Information Systems Ltd Video conference system, video conference terminal device and program
JP2005269498A (en) * 2004-03-22 2005-09-29 Hitachi Information Systems Ltd Video conference system, video conference terminal device, and its control method and video conference terminal device controlling program for it
JP2006229456A (en) * 2005-02-16 2006-08-31 Toshiba Corp Video conference apparatus, program, and method
JP2007036400A (en) * 2005-07-22 2007-02-08 Pioneer Electronic Corp Electronic conference system and conference terminal thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190614A1 (en) * 2014-06-10 2015-12-17 Ricoh Company, Limited Communication apparatus, communication system, communication management system, communication control method, and computer program product
JP2015233227A (en) * 2014-06-10 2015-12-24 株式会社リコー Communication apparatus, communication system, communication management system, communication control method, and program
US9706170B2 (en) 2014-06-10 2017-07-11 Ricoh Company, Ltd. Communication apparatus, communication system, and communication management system
JP2019118114A (en) * 2019-02-21 2019-07-18 株式会社リコー Tv conference system, terminal, and display method

Also Published As

Publication number Publication date
JP5397126B2 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
JP6172610B2 (en) Video conferencing system
JP6179179B2 (en) Information processing apparatus, information processing method, and program
JP2008288974A (en) Video conference system and video conference device
JP5397126B2 (en) Terminal device, communication method, and communication program
CN113242173B (en) Screen sharing method, device and system and instant messaging server
WO2016147538A1 (en) Videoconference communication device
JP4567543B2 (en) Electronic conference system and its conference terminal
JP2011216984A (en) Communication system and communication method
CN117176999A (en) Multi-person wheat connecting method, device, computer equipment and storage medium
WO2014026625A1 (en) Method for processing audio input state, sending-end device and receiving-end device
JP5340880B2 (en) Output control device for remote conversation system, method thereof, and computer-executable program
JP2005269498A (en) Video conference system, video conference terminal device, and its control method and video conference terminal device controlling program for it
JP2008131591A (en) Lip-sync control device and lip-sync control method
JP2016019165A (en) Conference system and information processing apparatus
JP5205900B2 (en) Video conference system, server terminal, and client terminal
JP2016167676A (en) Communication terminal device, communication management system, communication method, and program
JP5506362B2 (en) Transmission device and transmission method
JP6481937B2 (en) Communication device for video conference
TWI419563B (en) Multimedia transferring system and method thereof
JP2005328466A (en) Multi-point video conference system
JP2009165107A (en) Method and system for establishment of complex network telepresence conference
JP2010171663A (en) Communication method, communication system, communication device, and computer program
WO2013146510A1 (en) Conference system, program and conference method
JP2015177476A (en) Information processing apparatus, information processing system and program
JP2010288032A (en) Monitoring base device, and monitoring system including the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131007

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees