JP5089459B2 - Video system with past video reference function, video information processing method, program, and recording medium - Google Patents

Video system with past video reference function, video information processing method, program, and recording medium Download PDF

Info

Publication number
JP5089459B2
JP5089459B2 JP2008085498A JP2008085498A JP5089459B2 JP 5089459 B2 JP5089459 B2 JP 5089459B2 JP 2008085498 A JP2008085498 A JP 2008085498A JP 2008085498 A JP2008085498 A JP 2008085498A JP 5089459 B2 JP5089459 B2 JP 5089459B2
Authority
JP
Japan
Prior art keywords
information
video information
video
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008085498A
Other languages
Japanese (ja)
Other versions
JP2009239793A (en
Inventor
滋己 青柳
康徳 原田
敏弘 高田
淳司 大和
圭二 平田
良成 白井
直美 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008085498A priority Critical patent/JP5089459B2/en
Publication of JP2009239793A publication Critical patent/JP2009239793A/en
Application granted granted Critical
Publication of JP5089459B2 publication Critical patent/JP5089459B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像システム、映像情報処理方法、プログラム、及び記録媒体に関する。   The present invention relates to a video system, a video information processing method, a program, and a recording medium.

従来、テレビ会議システムが開発されており、そのテレビ会議システムを用いることにより、遠隔の2以上の会議室の間で映像・音声の送受信を行うことができ、その2以上の会議室にいる人たちで会議を行うことができていた(例えば、特許文献1参照)。
特開平10−285567号公報
Conventionally, a video conference system has been developed. By using the video conference system, video / audio can be transmitted and received between two or more remote conference rooms. (See, for example, Patent Document 1).
Japanese Patent Laid-Open No. 10-285567

一方、テレビ会議システムを用いて行われた過去の会議(以下、「過去会議」とする)を録画しておき、その録画していた会議の映像を再生しながらレビュー等を行うこともある。また、そのようなレビュー等を行っている会議(以下、「レビュー会議」とする)を、過去会議の表示されている表示部の表示領域を含めて撮影することもある。また、撮影したレビュー会議の内容を後から視聴することもある。
しかしながら、一般に、表示部に表示されている映像をさらに撮影すると、その画質が悪くなる。したがって、撮影された映像を後から視聴したとしても、当該撮影された映像に含まれる表示部の表示領域に、表示されている過去の映像の内容がよく分からないこととなり、撮影された映像の内容を適切に理解できないという問題がある。
つまり、レビュー会議の内容を撮影し、後から視聴したとしても、レビュー会議で議論している過去会議の内容がよくわからないこととなり、レビュー会議の内容を適切に理解できないという問題がある。
On the other hand, a past conference (hereinafter referred to as “past conference”) that has been performed using the video conference system may be recorded, and a review or the like may be performed while playing back the recorded video of the conference. In addition, a meeting in which such a review or the like is performed (hereinafter referred to as a “review meeting”) may be photographed including the display area of the display unit where the past meeting is displayed. In addition, the contents of the review meeting taken may be viewed later.
However, generally, when the video displayed on the display unit is further photographed, the image quality is deteriorated. Therefore, even if the captured video is viewed later, the contents of the past video displayed in the display area of the display unit included in the captured video are not well understood. There is a problem that the contents cannot be properly understood.
That is, even if the contents of the review meeting are photographed and viewed later, the contents of the past meeting discussed in the review meeting are not well understood, and there is a problem that the contents of the review meeting cannot be properly understood.

本発明は、上記問題点を解決するためになされたものであり、撮影された映像に含まれる表示部の表示領域に表示されている過去の映像の内容のより適切な理解を可能とする映像システム、映像情報処理方法、及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problem, and an image that enables a better understanding of the contents of past images displayed in the display area of the display unit included in the captured image. It is an object to provide a system, a video information processing method, and a program.

本発明は上記の課題を解決するためになされたものであり、撮影した映像を示す情報である第1の映像情報を記憶する第1の映像情報記憶部と、前記第1の映像情報を表示する第1の表示部と、前記第1の映像情報が表示された前記第1の表示部の表示領域を含む場面を撮影した第2の映像情報を記憶する第2の映像情報記憶部と映像間の同期情報を用いて前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成した第2の合成映像情報を出力する第2の情報合成部と、前記第2の合成映像情報を表示する第2の表示部と前記第2の合成映像情報が表示された前記第2の表示部の表示領域を含む場面を撮影した第3の映像情報を記憶する第3の映像情報記憶部と映像間の同期情報を用いて、前記第3の映像情報における前記第2の表示部の表示領域に、前記第2の合成映像情報を合成した第3の合成映像情報を出力する第3の情報合成部と、を備え、前記第2の表示部の表示領域に前記第2の合成映像情報を合成する処理においては、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成する。 The present invention has been made to solve the above-described problems, and includes a first video information storage unit that stores first video information that is information indicating a captured video, and displays the first video information. the first display section and the second image information storing unit for the first image information storing second image information obtained by photographing a scene including a display area of the first display portion that appears to be When, by using the synchronization information between images, the display area of the first display unit in the second image information, a second outputting a second synthesized image information obtained by combining the first image information A third image obtained by photographing a scene including an information combining unit, a second display unit that displays the second combined video information, and a display area of the second display unit on which the second combined video information is displayed. a third video information storage unit for storing video information, using the synchronization information among the video, the third The display area of the second display unit in the image information, and a third information synthesizing unit for outputting a third combined video information obtained by combining the second synthetic image information, said second display unit In the process of synthesizing the second synthesized video information with the display area, the first video information is synthesized with the display area of the first display unit in the second video information.

また、本発明の一態様は、前記第2の映像情報記憶部は、第2の映像情報のうち、前記第1の表示部の表示領域を除く映像情報を記憶し、前記第3の映像情報記憶部は、第3の映像情報のうち、前記第2の表示部の表示領域を除く映像情報を記憶する。 According to another aspect of the present invention, the second video information storage unit stores video information excluding a display area of the first display unit among the second video information, and the third video information. A memory | storage part memorize | stores the video information except the display area of a said 2nd display part among 3rd video information.

また、本発明の一態様は、前記同期情報は、映像のタイムコードを利用した情報である。 According to another aspect of the present invention, the synchronization information is information using a video time code.

また、本発明の一態様は、撮影した映像を示す情報である第1の映像情報を、第1の表示部に表示する表示ステップと、前記第1の映像情報が表示された前記第1の表示部の表示領域を含む場面を撮影した第2の映像情報を記憶する第2の映像情報記憶ステップと、映像間の同期情報を用いて、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成した第2の合成映像情報を出力する第2の情報合成ステップと、前記第2の合成映像情報を表示する第2の表示ステップと、前記第2の合成映像情報が表示された前記第2の表示部の表示領域を含む場面を撮影した第3の映像情報を記憶する第3の映像情報記憶ステップと、映像間の同期情報を用いて、前記第3の映像情報における前記第2の表示部の表示領域に、前記第2の合成映像情報を合成した第3の合成映像情報を出力する第3の情報合成ステップと、を有し、前記第2の表示部の表示領域に前記第2の合成映像情報を合成する処理においては、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成する。 According to another aspect of the present invention, a display step of displaying first video information that is information indicating a captured video on a first display unit, and the first video information on which the first video information is displayed. A second video information storing step for storing second video information for capturing a scene including a display area of the display unit, and synchronization information between videos, and the first display unit in the second video information. A second information synthesis step of outputting second synthesized video information obtained by synthesizing the first video information, a second display step of displaying the second synthesized video information, and the second display step. Using a third video information storage step for storing third video information for capturing a scene including a display area of the second display unit on which the composite video information of 2 is displayed, and synchronization information between the videos, Display area of the second display section in the third video information A third information synthesis step of outputting third synthesized video information obtained by synthesizing the second synthesized video information, and the second synthesized video information in a display area of the second display unit. In the process of combining the first video information, the first video information is combined with the display area of the first display unit in the second video information.

本発明によれば、過去の映像の表示時点と、映像の撮影時点とを同期させることができ、撮影された映像に対して、同期された過去の映像を合成することによって、クリヤな過去の映像を含む撮影された映像である合成映像を出力することができるため、撮影された映像の内容をより適切に理解することができるようになる。   According to the present invention, it is possible to synchronize the display time of the past video and the shooting time of the video, and by synthesizing the synchronized past video with the shot video, Since it is possible to output a composite video that is a captured video including the video, it is possible to more appropriately understand the content of the captured video.

以下、本発明による映像システムについて、実施形態を用いて説明する。
なお、以下の実施形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。
Hereinafter, an image system according to the present invention will be described using embodiments.
In the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and repetitive description may be omitted.

(第1の実施形態)
本発明の第1の実施形態による映像会議システム(映像システム)について、図面を参照しながら説明する。
図1は、本実施形態による映像会議システムの構成を示す図である。図1において、本実施形態による映像会議システムは、映像情報記憶部11と、表示部12と、撮影部13と、映像情報受付部14と、映像情報蓄積部15と、同期情報管理部16と、情報合成部17と、ディスプレイ18と、ディスプレイ19とを備える。
(First embodiment)
A video conference system (video system) according to a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing the configuration of the video conference system according to the present embodiment. 1, the video conference system according to the present embodiment includes a video information storage unit 11, a display unit 12, a photographing unit 13, a video information reception unit 14, a video information storage unit 15, and a synchronization information management unit 16. , An information synthesis unit 17, a display 18, and a display 19.

映像情報記憶部11では、映像を示す情報である第1の映像情報が記憶される。
この第1の映像情報は、会議の場面を撮影した映像である。この会議は、例えば、第1の映像情報について議論している会議である。
この映像は、通信機能を有するテレビ会議システム等において撮影された映像であってもよく、あるいは、通信機能を用いることなく会議の場面を単に撮影した映像であってもよい。前者の場合には、第1の映像情報の示す映像は、通信回線を介して接続されている2以上の会議の場面の映像を含んでもよく、あるいは、そのいずれかの会議の場面の映像のみであってもよい。
会議とは、2以上の人が双方向で話をする状況を含むものとする。したがって、いわゆるビジネス上の会議のみでなく、主婦や友人が話をしている状況も会議に含まれるものとする。また、会議には、セミナーや講演等のように、説明者が情報受領者に対して情報を提供する形式も含まれるものとする。
The video information storage unit 11 stores first video information that is information indicating a video.
The first video information is a video obtained by photographing a meeting scene. This meeting is, for example, a meeting for discussing the first video information.
This video may be a video taken in a video conference system or the like having a communication function, or may be a video simply taken of a meeting scene without using the communication function. In the former case, the video indicated by the first video information may include video of two or more conference scenes connected via a communication line, or only video of one of the conference scenes. It may be.
A meeting includes a situation where two or more people talk in two directions. Accordingly, not only so-called business meetings, but also situations where housewives and friends are talking are included in the meeting. In addition, it is assumed that the conference includes a format in which the presenter provides information to the information recipient, such as a seminar or lecture.

第1の映像情報は、映像の任意の時間的位置(例えば、任意のフレーム)を指定することができるように構成されていることが好ましい。例えば、第1の映像情報において、タイムコードを用いて映像の任意の時間的位置を指定することができてもよく、その映像の先頭からの経過時間を用いて映像の任意の時間的位置を指定することができてもよく、その他のフレームID等を用いて、映像の任意の時間的位置を指定することができてもよい。
ここで、タイムコードとは、時間、時刻情報を符号化した電気信号であり、例えば、1フレームの映像情報ごとに与えられる電気信号である。
また、第1の映像情報は、映像の時間的位置を示す情報を含んでいてもよく、そうでなくてもよい。映像の時間的位置を示す情報は、映像の時間的位置を指定することができるのであれば、例えば、映像の相対的な時間的位置を示すものであってもよく、あるいは、映像の絶対的な時間的位置を示すものであってもよい。
It is preferable that the first video information is configured so that an arbitrary temporal position (for example, an arbitrary frame) of the video can be designated. For example, in the first video information, it may be possible to specify an arbitrary temporal position of the video using a time code, and an arbitrary temporal position of the video may be specified using an elapsed time from the top of the video. It may be possible to designate, or other temporal ID of the video may be designated using other frame IDs or the like.
Here, the time code is an electric signal obtained by encoding time and time information, for example, an electric signal given for each frame of video information.
Further, the first video information may or may not include information indicating the temporal position of the video. The information indicating the temporal position of the video may indicate, for example, the relative temporal position of the video as long as the temporal position of the video can be specified, or the absolute position of the video. It may indicate a time position.

本実施形態では、第1の映像情報が、時間的位置を示す情報としてタイムコードを含んでいるものとする。この第1の映像情報は、音声情報を含んでいてもよく、あるいは、含んでいなくてもよい。また、第1の映像情報は、デジタルデータであってもよく、アナログデータであってもよい。   In the present embodiment, it is assumed that the first video information includes a time code as information indicating a temporal position. The first video information may or may not include audio information. Further, the first video information may be digital data or analog data.

映像情報記憶部11は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現される。映像情報記憶部11に第1の映像情報が記憶される過程は問わない。例えば、記録媒体を介して第1の映像情報が映像情報記憶部11で記憶されるようになってもよく、通信回線等を介して送信された第1の映像情報が映像情報記憶部11で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された第1の映像情報が映像情報記憶部11で記憶されるようになってもよい。映像情報記憶部11での記憶は、外部のストレージデバイス等から読み出した映像情報のRAM(Random Access Memory)等における一時的な記憶でもよく、あるいは、長期的な記憶でもよい。   The video information storage unit 11 is realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.). The process in which the first video information is stored in the video information storage unit 11 does not matter. For example, the first video information may be stored in the video information storage unit 11 via a recording medium, and the first video information transmitted via a communication line or the like is stored in the video information storage unit 11. Alternatively, the first video information input via the input device may be stored in the video information storage unit 11. Storage in the video information storage unit 11 may be temporary storage in a RAM (Random Access Memory) or the like of video information read from an external storage device or the like, or may be long-term storage.

表示部12は、映像情報記憶部11で記憶されている第1の映像情報を表示する。なお、第1の映像情報に音声情報が含まれる場合には、表示部12は、第1の映像情報を表示すると共に、その音声情報を音声出力してもよい。また、表示部12は、表示を行う表示デバイス(例えば、CRT(Cathode Ray Tube:ブラウン管)や液晶ディスプレイなど)やスピーカを含んでもよく、あるいは含まなくてもよい。   The display unit 12 displays the first video information stored in the video information storage unit 11. In addition, when audio information is included in the first video information, the display unit 12 may display the first video information and output the audio information as audio. The display unit 12 may or may not include a display device (for example, a CRT (Cathode Ray Tube) or a liquid crystal display) or a speaker that performs display.

本実施形態では、表示部12は、ディスプレイ18に第1の映像情報を表示するものとする。また、表示部12は、ハードウェアによって実現されてもよく、あるいは表示デバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   In the present embodiment, the display unit 12 displays the first video information on the display 18. The display unit 12 may be realized by hardware, or may be realized by software such as a driver that drives a display device.

撮影部13は、表示部12が第1の映像情報を表示している会議の場面であり、第1の映像情報が表示された表示部12の表示領域を含む場面を撮影する。撮影部13は、例えば、映像を撮影するカメラであり、例えば、CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementry Metal Oxide Semiconductor:相補型金属酸化膜半導体)等のイメージセンサを用いて映像を撮影する。撮影部13が音声情報も取得する場合には、撮影部13は、例えば、マイクを含んでいてもよい。   The image capturing unit 13 captures a scene including a display area of the display unit 12 on which the first video information is displayed, which is a meeting scene in which the display unit 12 displays the first video information. The imaging unit 13 is a camera that captures an image, for example, and uses an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor: Complementary Metal Oxide Semiconductor), for example. Shoot. When the imaging unit 13 also acquires audio information, the imaging unit 13 may include a microphone, for example.

映像情報受付部14は、撮影部13から第2の映像情報を受け付ける。ここで、第2の映像情報とは、表示部12が第1の映像情報を表示している会議の場面であり、第1の映像情報が表示された表示部12の表示領域を含む場面を撮影部13が撮影した映像を示す情報である。
第2の映像情報は、映像の任意の時間的位置(例えば、任意のフレーム)を指定することができるように構成されていることが好ましい。例えば、第2の映像情報において、タイムコードを用いて映像の任意の時間的位置を指定することができてもよく、その映像の先頭からの経過時間を用いて映像の任意の時間的位置を指定することができてもよく、その他のフレームID等を用いて、映像の任意の時間的位置を指定することができてもよい。
また、第2の映像情報は、映像の時間的位置を示す情報を含んでいてもよく、そうでなくてもよい。
The video information receiving unit 14 receives second video information from the imaging unit 13. Here, the second video information is a meeting scene in which the display unit 12 displays the first video information, and includes a scene including a display area of the display unit 12 on which the first video information is displayed. This is information indicating the video imaged by the imaging unit 13.
It is preferable that the second video information is configured so that an arbitrary temporal position (for example, an arbitrary frame) of the video can be designated. For example, in the second video information, it may be possible to specify an arbitrary temporal position of the video using a time code, and an arbitrary temporal position of the video may be specified using an elapsed time from the top of the video. It may be possible to designate, or other temporal ID of the video may be designated using other frame IDs or the like.
Further, the second video information may or may not include information indicating the temporal position of the video.

本実施形態では、第2の映像情報が、時間的位置を示す情報としてタイムコードを含んでいるものとする。この第2の映像情報は、音声情報を含んでいてもよく、あるいは、含んでいなくてもよい。その音声情報は、撮影部13のマイクで受音されたものであってもよく、あるいは、その他の図示しないマイクによって受音されたものであってもよい。また、第2の映像情報は、デジタルデータであってもよく、アナログデータであってもよい。   In the present embodiment, it is assumed that the second video information includes a time code as information indicating a temporal position. This second video information may or may not include audio information. The sound information may be received by a microphone of the photographing unit 13 or may be received by another microphone (not shown). The second video information may be digital data or analog data.

ここで、この受け付けは、例えば、有線もしくは無線の通信回線(例えば、インターネットやイントラネット、LANなどであってもよく、あるいは、IEEE1394のケーブルや、映像情報を伝送する専用のケーブル等であってもよい)を介して送信された情報の受信でもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)から読み出された情報の受け付けでもよい。   Here, this acceptance may be, for example, a wired or wireless communication line (for example, the Internet, an intranet, a LAN, or the like, or an IEEE 1394 cable, a dedicated cable for transmitting video information, or the like). Information received via a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be received.

本実施形態では、映像情報受付部14は、撮影部13が撮影した第2の映像情報を、通信回線を介して受け付けるものとする。なお、映像情報受付部14は、受け付けを行うためのデバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、映像情報受付部14は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   In the present embodiment, the video information receiving unit 14 receives second video information captured by the imaging unit 13 via a communication line. Note that the video information receiving unit 14 may or may not include a device for receiving (for example, a modem or a network card). Further, the video information receiving unit 14 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

映像情報蓄積部15は、映像情報受付部14が受け付けた第2の映像情報の少なくとも一部を所定の記録媒体に蓄積する。この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、映像情報蓄積部15が有していてもよく、あるいは映像情報蓄積部15の外部に存在してもよい。また、この記録媒体は、第2の映像情報を一時的に記憶するものであってもよく、そうでなくてもよい。
本実施形態では、映像情報蓄積部15は、映像情報受付部14が受け付けた第2の映像情報のすべてを蓄積する。
The video information storage unit 15 stores at least a part of the second video information received by the video information reception unit 14 in a predetermined recording medium. The recording medium is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like, and may be included in the video information storage unit 15 or may exist outside the video information storage unit 15. Further, this recording medium may or may not temporarily store the second video information.
In the present embodiment, the video information storage unit 15 stores all of the second video information received by the video information reception unit 14.

同期情報管理部16は、表示部12による第1の映像情報の表示時点と、その第1の映像情報が表示されている会議の場面の映像である第2の映像情報の撮影時点との同期を示す情報である同期情報を作成して蓄積する。この同期情報によって、第2の映像情報の所望の時間的位置の映像が撮影された時点において、その会議で表示されていた第1の映像情報の時間的位置を知ることができる。
ここで、同期情報は、厳密な意味において第1の映像情報の表示時点と、第2の映像情報の撮影時点との同期を示す情報でなくてもよい。例えば、第1の映像情報の表示時点と、第2の映像情報の蓄積時点との同期を示す情報であってもよい。第2の映像情報の撮影時点と、第2の映像情報の蓄積時点とはほぼ同時点であると考えられるからである。同期情報を作成することは、新たな情報を作成することであってもよく、あるいは、同期情報に含まれる情報を所定のメモリやレジスタ等から読み出したり、取得したりすることによって構成することであってもよい。
The synchronization information management unit 16 synchronizes the display time point of the first video information on the display unit 12 and the shooting time point of the second video information that is the video of the meeting scene in which the first video information is displayed. Create and store synchronization information, which is information indicating. With this synchronization information, it is possible to know the temporal position of the first video information displayed at the conference when the video at the desired temporal position of the second video information is captured.
Here, the synchronization information may not be information indicating the synchronization between the display time of the first video information and the shooting time of the second video information in a strict sense. For example, it may be information indicating the synchronization between the display time of the first video information and the storage time of the second video information. This is because it is considered that the shooting time of the second video information and the storage time of the second video information are almost the same time. Creating the synchronization information may be creating new information, or by reading or acquiring information included in the synchronization information from a predetermined memory or register. There may be.

同期情報管理部16は、表示部12が表示する第1の映像情報の時間的位置を示す情報と、映像情報蓄積部15が蓄積する第2の映像情報の時間的位置を示す情報とを受け取り、その第1の映像情報の時間的位置を示す情報と、その第2の映像情報の時間的位置を示す情報とを用いて、同期情報を作成してもよい。   The synchronization information management unit 16 receives information indicating the temporal position of the first video information displayed by the display unit 12 and information indicating the temporal position of the second video information stored by the video information storage unit 15. The synchronization information may be created using information indicating the temporal position of the first video information and information indicating the temporal position of the second video information.

以下、この同期情報の具体例について説明する。この同期情報は、(1)第1の映像情報、及び第2の映像情報とは別個に構成される情報であってもよく、(2)第1の映像情報に含まれる情報であってもよく、(3)第2の映像情報に含まれる情報であってもよく、(4)第1の映像情報、及び第2の映像情報に含まれる情報であってもよい。   Hereinafter, a specific example of this synchronization information will be described. This synchronization information may be (1) information configured separately from the first video information and the second video information, or (2) may be information included in the first video information. It may be (3) information included in the second video information, or (4) information included in the first video information and the second video information.

(1)同期情報が第1の映像情報、及び第2の映像情報と別である場合
この場合には、同期情報は、例えば、第1の映像情報における映像の時間的位置を示す情報と、第2の映像情報における映像の時間的位置を示す情報とを対応付ける情報であってもよい。
具体的には、同期情報は、第1の映像情報のタイムコードと、第2の映像情報のタイムコードを対応付ける情報であってもよく、第1の映像情報の先頭からの時間と、第2の映像情報の先頭からの時間とを対応付ける情報であってもよく、その他の情報であってもよい。
(1) When the synchronization information is different from the first video information and the second video information In this case, the synchronization information includes, for example, information indicating the temporal position of the video in the first video information, It may be information that associates information indicating the temporal position of the video in the second video information.
Specifically, the synchronization information may be information associating the time code of the first video information with the time code of the second video information, the time from the head of the first video information, the second It may be information associating with the time from the beginning of the video information, or other information.

また、この同期情報は例えば、第1の映像情報と、第2の映像情報とのすべてのフレームをそれぞれ対応付ける情報であってもよく、第1の映像情報と、第2の映像情報との特定の1以上のフレーム(例えば、同期されている先頭の各フレーム)を対応付ける情報であってもよい。前者の場合には、第2の映像情報の撮影中に第1の映像情報が高速再生して表示された場合や、低速再生して表示された場合にも、第1の映像情報と第2の映像情報とを適切に同期させることができる。一方、後者の場合には、特定のフレーム以外は、第1の映像情報と第2の映像情報とが同じスピードで再生・録画されていることを前提としているが、同期情報のデータ量を削減することができる。   In addition, the synchronization information may be, for example, information that associates all the frames of the first video information and the second video information, and specifies the first video information and the second video information. May be information that associates one or more frames (for example, each synchronized first frame). In the former case, the first video information and the second video information are also displayed when the first video information is displayed while being played back at a high speed during the shooting of the second video information. It is possible to properly synchronize the video information. On the other hand, in the latter case, it is assumed that the first video information and the second video information are played and recorded at the same speed except for a specific frame, but the data amount of the synchronization information is reduced. can do.

本実施形態では、この場合のように、同期情報管理部16が、第1の映像情報のタイムコードと、第2の映像情報のタイムコードとを対応付ける同期情報を作成するものとする。
(1)の場合には、同期情報は、同期情報管理部16、あるいは、その他の構成要素が有する所定の記録媒体に蓄積される。この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等である。また、この記録媒体は、同期情報を一時的に記憶するものであってもよく、そうでなくてもよい。
In this embodiment, as in this case, the synchronization information management unit 16 creates synchronization information that associates the time code of the first video information with the time code of the second video information.
In the case of (1), the synchronization information is stored in a predetermined recording medium included in the synchronization information management unit 16 or other components. This recording medium is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like. Further, this recording medium may or may not store the synchronization information temporarily.

(2)同期情報が第1の映像情報に含まれる場合
この場合には、同期情報は、例えば、第2の映像情報における映像の時間的位置を示す情報であり、その情報が、第1の映像情報における対応するフレームに含まれてもよい。このような場合には、第1の映像情報が再生されている際に、その同期情報が第1の映像情報に追記されることになる。
この同期情報も、第1の映像情報と、第2の映像情報とのすべてのフレームをそれぞれ対応付ける情報であってもよく、第1の映像情報と、第2の映像情報との特定の1以上のフレーム(例えば、同期されている先頭の各フレーム)を対応付ける情報であってもよい。
(2) When the synchronization information is included in the first video information In this case, the synchronization information is, for example, information indicating the temporal position of the video in the second video information, and the information is the first video information. It may be included in the corresponding frame in the video information. In such a case, when the first video information is being reproduced, the synchronization information is added to the first video information.
This synchronization information may also be information for associating all the frames of the first video information and the second video information, and one or more specific ones of the first video information and the second video information. (For example, each synchronized first frame) may be information.

(3)同期情報が第2の映像情報に含まれる場合
上記(2)の場合とは逆に、同期情報は、例えば、第1の映像情報における映像の時間的位置を示す情報であり、その情報が、第2の映像情報における対応するフレームに含まれてもよい。このような場合には、第2の映像情報が蓄積される際に、その同期情報を含む第2の映像情報が蓄積されることになる。
この同期情報も、第1の映像情報と、第2の映像情報とのすべてのフレームをそれぞれ対応付ける情報であってもよく、第1の映像情報と、第2の映像情報との特定の1以上のフレーム(例えば、同期されている先頭の各フレーム)を対応付ける情報であってもよい。
(3) When the synchronization information is included in the second video information Contrary to the case of (2) above, the synchronization information is information indicating the temporal position of the video in the first video information, for example. Information may be included in a corresponding frame in the second video information. In such a case, when the second video information is stored, the second video information including the synchronization information is stored.
This synchronization information may also be information for associating all the frames of the first video information and the second video information, and one or more specific ones of the first video information and the second video information. (For example, each synchronized first frame) may be information.

(4)同期情報が第1の映像情報、及び第2の映像情報に含まれる場合
この場合には、同期情報は、例えば、第1の映像情報と、第2の映像情報とを対応付けるための情報であり、その同期情報が、それぞれ対応する、第1の映像情報のフレームと、第2の映像情報のフレームとに含まれてもよい。したがって、第1の映像情報、及び第2の映像情報において、同じ同期情報を含むフレームが、同期するフレームとなる。
この同期情報も、第1の映像情報と、第2の映像情報とのすべてのフレームをそれぞれ対応付ける情報であってもよく、第1の映像情報と、第2の映像情報との特定の1以上のフレーム(例えば、同期されている先頭の各フレーム)を対応付ける情報であってもよい。
(4) When the synchronization information is included in the first video information and the second video information In this case, the synchronization information is, for example, for associating the first video information with the second video information. Information, and the synchronization information may be included in the corresponding first video information frame and second video information frame, respectively. Therefore, in the first video information and the second video information, a frame including the same synchronization information is a synchronized frame.
This synchronization information may also be information for associating all the frames of the first video information and the second video information, and one or more specific ones of the first video information and the second video information. (For example, each synchronized first frame) may be information.

同期情報が、第2の映像情報に含まれる場合には、同期情報管理部16の有する同期情報を蓄積する機能と、映像情報蓄積部15の有する第2の映像情報を蓄積する機能とは、一体として構成されてもよく、あるいは、別々に構成されていてもよい。また、同期情報が第1の映像情報に含まれる場合には、同期情報管理部16は、映像情報記憶部11で記憶されている第1の映像情報に同期情報を追記するものとする。   When the synchronization information is included in the second video information, the function of storing the synchronization information of the synchronization information management unit 16 and the function of storing the second video information of the video information storage unit 15 are: It may be configured as a single unit or may be configured separately. When the synchronization information is included in the first video information, the synchronization information management unit 16 adds the synchronization information to the first video information stored in the video information storage unit 11.

情報合成部17は、映像情報記憶部11で記憶されている第1の映像情報と、映像情報蓄積部15が蓄積した第2の映像情報とを、同期情報管理部16が蓄積した同期情報を用いて同期させ、第2の映像情報における表示部12の表示領域に第1の映像情報を合成した映像を示す情報である合成映像情報を出力する。   The information combining unit 17 uses the first video information stored in the video information storage unit 11 and the second video information stored in the video information storage unit 15 as synchronization information stored in the synchronization information management unit 16. And synthesizing video information that is information indicating a video obtained by synthesizing the first video information in the display area of the display unit 12 in the second video information.

ここで、合成映像情報の作成について説明する。まず、情報合成部17は、第2の映像情報における第1の映像情報の表示領域を検出する。そして、情報合成部17は、その検出した表示領域に、その第2の映像情報に同期する第1の映像情報を合成する。
第2の映像情報における第1の映像情報の表示領域の検出は、例えば、次のようにして行うことができる。
情報合成部17は、図2に示すように、第2の映像情報のフレームと同期する第1の映像情報のフレームを用いて、第2の映像情報のフレームにおいて、その第1の映像情報のフレームと一致する領域をパターンマッチング等の技術を用いて検出することにより、表示領域を検出してもよい。
Here, creation of composite video information will be described. First, the information synthesizing unit 17 detects the display area of the first video information in the second video information. Then, the information synthesizing unit 17 synthesizes the first video information synchronized with the second video information in the detected display area.
The display area of the first video information in the second video information can be detected as follows, for example.
As shown in FIG. 2, the information synthesizing unit 17 uses the first video information frame that is synchronized with the second video information frame, and uses the first video information frame in the second video information frame. The display area may be detected by detecting an area that matches the frame using a technique such as pattern matching.

また、情報合成部17は、図3に示すようにユーザ等が入力デバイスで入力した表示領域の指定を受け付け、その指定された表示領域を検出してもよい。会議では一般に人があまり移勤しないため、その会議を撮影する場合には、表示領域の位置があまり変化しないと考えられ、このような方法も有効である。
また、第1の映像情報が表示されるディスプレイ18等の枠やその枠のコーナーの4点を、情報合成部17が検出することによって、その枠の内部の領域である表示領域を検出してもよい。ディスプレイ18等の枠やその枠のコーナーの4点を検出することができるように、ディスプレイ18等の枠や、その枠のコーナーの4点には、所定の色や、模様、マーカ等が配置されていてもよい。その所定の色は、会議の場面で一般に使われないような色であることが好ましい。マーカは、例えば、モーションキャプチャ等で用いられる光学式のマーカ等であってもよい。また、この表示領域の検出の方法は、これらの方法に限定されるものではなく、その他の方法であってもよい。
Further, as shown in FIG. 3, the information synthesizing unit 17 may accept designation of a display area input by a user or the like with an input device and detect the designated display area. In general, since people do not move much in a meeting, it is considered that the position of the display area does not change much when shooting the meeting, and such a method is also effective.
In addition, the information compositing unit 17 detects the display area, which is the area inside the frame, by detecting four points of the frame of the display 18 and the like on which the first video information is displayed and the corners of the frame. Also good. Predetermined colors, patterns, markers, etc. are arranged on the frame of the display 18 and the four corners of the frame so that the frame of the display 18 and the corners of the frame can be detected. May be. The predetermined color is preferably a color that is not generally used in a meeting scene. The marker may be, for example, an optical marker used in motion capture or the like. Further, the method of detecting the display area is not limited to these methods, and other methods may be used.

第2の映像情報において検出された第1の映像情報の表示領域への第1の映像情報の合成は、例えば、次のようにして行うことができる。
情報合成部17は、第1の映像情報を、第2の映像情報における検出された表示領域の大きさとなるように変形する。例えば、その表示領域の方が小さい場合には、第1の映像情報を縮小すると共に、第2の映像情報と同じ解像度になるようにする。
また、第2の映像情報において、第1の映像情報が正面から撮られているのではなく、斜めに撮られている場合には、表示領域が厳密な矩形ではなく、菱形や台形等になる。その場合には、情報合成部17は、第1の映像情報が、その検出された表示領域の形状に合うように、第1の映像情報を変形するものとする。
The synthesis of the first video information to the display area of the first video information detected in the second video information can be performed as follows, for example.
The information synthesizing unit 17 transforms the first video information so as to be the size of the detected display area in the second video information. For example, when the display area is smaller, the first video information is reduced and the resolution is the same as the second video information.
In addition, in the second video information, when the first video information is not taken from the front but is taken obliquely, the display area is not a strict rectangle but a rhombus, a trapezoid, or the like. . In that case, the information composition unit 17 transforms the first video information so that the first video information matches the shape of the detected display area.

第2の映像情報に第1の映像情報を合成する場合に、その合成は、レイヤの合成として行われてもよい。その場合には、合成映像情報に第2の映像情報のレイヤも含まれるため、合成映像情報を用いて合成後の映像情報のみでなく、第2の映像情報のみも見ることができる。   When the first video information is synthesized with the second video information, the synthesis may be performed as layer synthesis. In that case, since the layer of the second video information is included in the synthesized video information, not only the synthesized video information but also the second video information can be viewed using the synthesized video information.

なお、第1の映像情報と第2の映像情報との少なくとも一方に音声情報が含まれる場合には、情報合成部17は、音声情報を含む合成映像情報を出力してもよい。その場合に、合成映像情報に含まれる音声情報は、第1の映像情報の音声情報であってもよく、第2の映像情報に含まれる音声情報であってもよく、両方の音声情報であってもよい。
ここで、この出力は、例えば、表示デバイス(例えば、CRTや液晶ディスプレイなど)への表示やスピーカヘの音声出力でもよく、所定の機器への通信回線を介した送信でもよく、記録媒体への蓄積でもよい。なお、情報合成部17は、出力を行うデバイス(例えば、表示デバイスや通信デバイスなど)やスピーカを含んでもよく、あるいは含まなくてもよい。
When audio information is included in at least one of the first video information and the second video information, the information synthesis unit 17 may output synthesized video information including audio information. In this case, the audio information included in the synthesized video information may be the audio information of the first video information, the audio information included in the second video information, or both audio information. May be.
Here, this output may be, for example, display on a display device (for example, a CRT or a liquid crystal display), audio output to a speaker, transmission via a communication line to a predetermined device, or accumulation in a recording medium. But you can. The information synthesizing unit 17 may or may not include an output device (for example, a display device or a communication device) and a speaker.

本実施形態では、情報合成部17は、ディスプレイ19に合成映像情報を表示するものとする。また、情報合成部17は、ハードウェアによって実現されてもよく、あるいは、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
また、映像情報記憶部11と、映像情報蓄積部15が第2の映像情報を蓄積する記録媒体とは、同じ記録媒体であってもよく、別々の記録媒体であってもよい。前者の場合には、例えば、第1の映像情報が記憶されている領域が映像情報記憶部11となる。
In the present embodiment, the information composition unit 17 displays the composite video information on the display 19. The information synthesizing unit 17 may be realized by hardware, or may be realized by software such as a driver that drives these devices.
Further, the video information storage unit 11 and the recording medium on which the video information storage unit 15 stores the second video information may be the same recording medium or may be separate recording media. In the former case, for example, the area where the first video information is stored is the video information storage unit 11.

次に、本実施形態による映像会議システムの動作について、図4のフローチャートを用いて説明する。なお、本実施形態による映像会議システムの動作は、図4のフローチャートで示されるものに限定されず、本発明の要旨を変更しない範囲において変更可能であることはいうまでもない。   Next, the operation of the video conference system according to the present embodiment will be described with reference to the flowchart of FIG. Note that the operation of the video conference system according to the present embodiment is not limited to that shown in the flowchart of FIG.

(ステップS101)表示部12は、第1の映像情報を表示する会議が開始されるかどうか判断する。例えば、第1の映像情報を表示する旨の指示が入力された場合に、表示部12は、第1の映像情報を表示する会議が開始されると判断してもよい。そして、会議が開始される場合には、ステップS102に進み、そうでない場合には、ステップS103に進む。   (Step S101) The display unit 12 determines whether or not a meeting for displaying the first video information is started. For example, when an instruction to display the first video information is input, the display unit 12 may determine that a meeting for displaying the first video information is started. If the conference is started, the process proceeds to step S102. If not, the process proceeds to step S103.

(ステップS102)表示部12等は、第1の映像情報の表示や、第2の映像情報の蓄積、同期情報の作成、蓄積等を行う。そして、ステップS101に戻る。
このステップS102の処理の詳細については、図5のフローチャートを用いて後述する。
(Step S102) The display unit 12 and the like display the first video information, store the second video information, create and store synchronization information, and the like. Then, the process returns to step S101.
Details of the processing in step S102 will be described later with reference to the flowchart of FIG.

(ステップS103)情報合成部17は、第2の映像情報を表示するかどうか判断する。例えば、第2の映像情報を表示する旨の指示が入力された場合に、第2の映像情報を表示すると判断してもよい。そして、第2の映像情報を表示する場合には、ステップS104に進み、そうでない場合には、ステップS101に戻る。   (Step S103) The information composition unit 17 determines whether to display the second video information. For example, when an instruction to display the second video information is input, it may be determined to display the second video information. If the second video information is displayed, the process proceeds to step S104. If not, the process returns to step S101.

(ステップS104)情報合成部17は、同期情報を用いて、第2の映像情報に第1の映像情報を合成し、その合成後の合成映像情報をディスプレイ19に表示する。そして、ステップS101に戻る。このステップS104の処理の詳細については、図6のフローチャートを用いて後述する。
なお、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。また、ステップS101の判断を表示部12が行う場合について説明したが、ステップS101の判断は、他の構成要素によって行われてもよい。
(Step S104) The information synthesizing unit 17 synthesizes the first video information with the second video information using the synchronization information, and displays the synthesized video information after the synthesis on the display 19. Then, the process returns to step S101. Details of the processing in step S104 will be described later with reference to the flowchart of FIG.
In the flowchart of FIG. 4, the process ends when the power is turned off or the process ends. Moreover, although the case where the display unit 12 performs the determination in step S101 has been described, the determination in step S101 may be performed by other components.

図5は、図4のフローチャートにおけるステップS102の処理の詳細を示すフローチャートである。
(ステップS201)表示部12は、カウンタiを1に設定する。
(ステップS202)表示部12は、映像情報記憶部11で記憶されている第1の映像情報においてi番目のフレームが存在するかどうか判断する。そして、存在する場合には、ステップS203に進み、そうでない場合には、図4のフローチャートに戻る。
FIG. 5 is a flowchart showing details of the process in step S102 in the flowchart of FIG.
(Step S201) The display unit 12 sets a counter i to 1.
(Step S202) The display unit 12 determines whether or not the i-th frame is present in the first video information stored in the video information storage unit 11. If it exists, the process proceeds to step S203, and if not, the process returns to the flowchart of FIG.

(ステップS203)表示部12は、第1の映像情報のi番目のフレームを映像情報記憶部11から読み出す。
(ステップS204)表示部12は、その第1の映像情報のi番目のフレームを、ディスプレイ18に表示する。なお、第1の映像情報に音声情報が含まれる場合には、表示部12は、その音声情報を音声出力するものとする。
(Step S <b> 203) The display unit 12 reads the i-th frame of the first video information from the video information storage unit 11.
(Step S204) The display unit 12 displays the i-th frame of the first video information on the display 18. In addition, when audio information is included in the first video information, the display unit 12 outputs the audio information as audio.

(ステップS205)同期情報管理部16は、表示部12が表示したi番目のフレームに対応するタイムコードを取得する。そして、同期情報管理部16は、その取得したタイムコードを図示しない記録媒体において一時的に保持しておく。
(ステップS206)映像情報受付部14は、撮影部13が撮影した第2の映像情報のフレームを受け付ける。この第2の映像情報には、音声情報が含まれていてもよい。
(ステップS207)映像情報蓄積部15は、映像情報受付部14が受け付けた第2の映像情報のフレームを所定の記録媒体に蓄積する。
(Step S205) The synchronization information management unit 16 acquires a time code corresponding to the i-th frame displayed by the display unit 12. The synchronization information management unit 16 temporarily holds the acquired time code in a recording medium (not shown).
(Step S206) The video information receiving unit 14 receives a frame of the second video information captured by the imaging unit 13. The second video information may include audio information.
(Step S207) The video information storage unit 15 stores the frames of the second video information received by the video information reception unit 14 in a predetermined recording medium.

(ステップS208)同期情報管理部16は、映像情報蓄積部15が蓄積した第2の映像情報のフレームに対応するタイムコードを取得する。そして、同期情報管理部16は、その取得したタイムコードを図示しない記録媒体において一時的に保持しておく。
(ステップS209)同期情報管理部16は、ステップS205と、ステップS208とにおいて、一時的に保持した第1の映像情報のタイムコードと、第2の映像情報のタイムコードとを対応付ける情報である同期情報を作成する。
(ステップS210)同期情報管理部16は、その作成した同期情報を、所定の記録媒体に蓄積する。
(ステップS211)表示部12は、カウンクiを1だけインクリメントする。
そして、ステップS202に戻る。
(Step S208) The synchronization information management unit 16 acquires a time code corresponding to the frame of the second video information stored in the video information storage unit 15. The synchronization information management unit 16 temporarily holds the acquired time code in a recording medium (not shown).
(Step S209) The synchronization information management unit 16 is synchronization that is information that associates the time code of the first video information temporarily stored with the time code of the second video information in Step S205 and Step S208. Create information.
(Step S210) The synchronization information management unit 16 stores the created synchronization information in a predetermined recording medium.
(Step S211) The display unit 12 increments the count i by one.
Then, the process returns to step S202.

図6は、図4のフローチャートにおけるステップS104の処理の詳細を示すフローチャートである。
(ステップS301)情報合成部17は、カウンタjを1に設定する。
(ステップS302)情報合成部17は、映像情報蓄積部15が蓄積した第2の映像情報において、j番目のフレームが存在するかどうか判断する。そして、存在する場合には、ステップS303に進み、そうでない場合には、図4のフローチャートに戻る。
FIG. 6 is a flowchart showing details of the process of step S104 in the flowchart of FIG.
(Step S301) The information synthesizer 17 sets the counter j to 1.
(Step S <b> 302) The information composition unit 17 determines whether or not the j-th frame exists in the second video information accumulated by the video information accumulation unit 15. If it exists, the process proceeds to step S303, and if not, the process returns to the flowchart of FIG.

(ステップS303)情報合成部17は、映像情報蓄積部15が蓄積した第2の映像情報におけるj番目のフレームを読み出す。
(ステッブS304)情報合成部17は、その読み出したj番目のフレームに対応するタイムコードを取得する。
(ステップS305)情報合成部17は、同期情報管理部16が蓄積した同期情報を用いて、第2の映像情報におけるj番目のフレームのタイムコードに対応する第1の映像情報におけるタイムコードを取得する。
(Step S303) The information composition unit 17 reads the j-th frame in the second video information stored in the video information storage unit 15.
(Step S304) The information synthesizer 17 acquires a time code corresponding to the read j-th frame.
(Step S305) The information composition unit 17 uses the synchronization information accumulated by the synchronization information management unit 16 to acquire the time code in the first video information corresponding to the time code of the j-th frame in the second video information. To do.

(ステップS306)情報合成部17は、その取得した第1の映像情報におけるタイムコードを用いて、映像情報記憶部11から、そのタイムコードに対応する第1の映像情報のフレームを読み出す。
(ステップS307)情報合成部17は、第2の映像情報のj番目のフレームにおいて、第1の映像情報を表示している表示部12の表示領域を検出する。
(ステップS308)情報合成部17は、検出した表示領域に、読み出した第1の映像情報のフレームを合成する。このようにして、合成映像情報のフレームが作られることになる。
(Step S306) The information composition unit 17 reads the frame of the first video information corresponding to the time code from the video information storage unit 11, using the time code in the acquired first video information.
(Step S307) The information composition unit 17 detects the display area of the display unit 12 displaying the first video information in the j-th frame of the second video information.
(Step S308) The information synthesizer 17 synthesizes the read frame of the first video information with the detected display area. In this way, a frame of composite video information is created.

(ステップS309)情報合成部17は、合成映像情報を出力する。
(ステップS310)情報合成部17は、カウンタjを1だけインクリメントする。そして、ステップS302に戻る。
(Step S309) The information synthesizer 17 outputs synthesized video information.
(Step S310) The information synthesizer 17 increments the counter j by 1. Then, the process returns to step S302.

次に、本実施形態による映像会議システムの動作について、具体例を用いて説明する。
この具体例において、映像情報記憶部11では、図7で示される第1の映像情報が記憶されているものとする。この第1の映像情報では、タイムコード「1:00:00:00」等が、先頭のフレームから順に割り当てられているものとする。
Next, the operation of the video conference system according to the present embodiment will be described using a specific example.
In this specific example, it is assumed that the video information storage unit 11 stores the first video information shown in FIG. In the first video information, it is assumed that the time code “10: 00: 00: 00” or the like is assigned in order from the first frame.

まず、第2の映像情報と、同期情報とが蓄積される処理について説明する。
ユーザが、映像会議システムに接続されている所定の入力デバイスを操作して、会議を始める旨の指示を入力したとする。すると、表示部12は、会議が開始されると判断する(ステップS101)。
そして、まず、同期情報管理部16は、同期情報において、第1の映像情報を識別する映像IDと、第2の映像情報を識別する映像IDとを対応付けて蓄積する。第1の映像情報の映像IDは、「V001」であり、第2の映像情報の映像IDは、「V002」であったとする。
First, the process in which the second video information and the synchronization information are accumulated will be described.
Assume that the user operates a predetermined input device connected to the video conference system and inputs an instruction to start a conference. Then, the display part 12 judges that a meeting is started (step S101).
First, the synchronization information management unit 16 stores the video ID for identifying the first video information and the video ID for identifying the second video information in association with each other in the synchronization information. Assume that the video ID of the first video information is “V001” and the video ID of the second video information is “V002”.

その後、映像情報記憶部11で記憶されている、映像ID「V001」で識別される第1の映像情報の1番目のフレームを読み出して、ディスプレイ18に表示する(ステップS201〜S204)。
また、表示部12は、タイムコード「1:00:00:00」を含む第1の映像情報の1番目のフレームを同期情報管理部に渡す。このようにして、同期情報管理部16は、第1の映像情報の1番目のフレームから、そのフレームに対応するタイムコードを取得する(ステップS205)。
撮影部13は、会議の場面を撮影し、その撮影した第2の映像情報を映像情報受付部14に渡す。映像情報受付部14は、その第2の映像情報のフレームを受け付け、映像情報蓄積部15に渡す(ステップS206)。
Thereafter, the first frame of the first video information identified by the video ID “V001” stored in the video information storage unit 11 is read and displayed on the display 18 (steps S201 to S204).
In addition, the display unit 12 passes the first frame of the first video information including the time code “10: 00: 00: 00” to the synchronization information management unit. In this way, the synchronization information management unit 16 acquires the time code corresponding to the frame from the first frame of the first video information (step S205).
The photographing unit 13 photographs a meeting scene and passes the photographed second video information to the video information receiving unit 14. The video information receiving unit 14 receives the second video information frame and passes it to the video information storage unit 15 (step S206).

映像情報蓄積部15は、その第2の映像情報のフレ−ムを、映像ID「V002」で識別される第2の映像情報として、所定の記録媒体に蓄積する(ステップS207)。
また、映像情報蓄積部15は、タイムコードを含む、その蓄積した第2の映像情報のフレームを同期情報管理部16に渡す。
このようにして、同期情報管理部16は、その第2の映像情報のフレームから、そのフレームに対応するタイムコードを取得する(ステップS208)。ここで、そのタイムコードは、「0:15:00:00」であったとする。
同期情報管理部16は、表示された第1の映像情報のタイムコードと、撮影された第2の映像情報のタイムコードとを対応付ける同期情報を作成し(ステップS209)、所定の記録媒体に蓄積する(ステップS210)。
The video information storage unit 15 stores the frame of the second video information as second video information identified by the video ID “V002” in a predetermined recording medium (step S207).
In addition, the video information storage unit 15 passes the frame of the stored second video information including the time code to the synchronization information management unit 16.
In this way, the synchronization information management unit 16 acquires the time code corresponding to the frame from the frame of the second video information (step S208). Here, it is assumed that the time code is “0: 15: 00: 00”.
The synchronization information management unit 16 creates synchronization information that associates the time code of the displayed first video information with the time code of the captured second video information (step S209), and stores it in a predetermined recording medium. (Step S210).

このようにして蓄積された同期情報は、図8で示される同期情報におけるタイムコードの1番目のレコードである。なお、図8において、第1の映像情報の映像ID「V001」と、第2の映像情報の映像ID「V002」とが対応付けられている。
このようにして、第1の映像情報のフレームがなくなるまで、第2の映像情報の蓄積と、同期情報の蓄積とが繰り返して行われることになる(ステップS202〜S211)。
The synchronization information accumulated in this way is the first record of the time code in the synchronization information shown in FIG. In FIG. 8, the video ID “V001” of the first video information and the video ID “V002” of the second video information are associated with each other.
In this manner, the second video information and the synchronization information are repeatedly stored until there is no first video information frame (steps S202 to S211).

その結果、映像情報蓄積部15が蓄積した第2の映像情報は、図9で示されるようになる。この第2の映像情報では、タイムコード「00:15:00:00」等が、先頭のフレームから順に割り当てられている。また、同期情報管理部16が蓄積した同期情報は、図8で示されるようになる。
なお、図5のフローチャートでは、第1の映像情報のフレームがなくなるまで、第2の映像情報の蓄積と、同期情報の蓄積とが繰り返される場合について示しているが、第2の映像情報の蓄積を終了する指示が受け付けられたことに応じて、第1の映像情報のフレームがなくなったかどうかに関わらず、第2の映像情報の蓄積と、同期情報の蓄積とが終了されるようにしてもよい。
As a result, the second video information stored in the video information storage unit 15 is as shown in FIG. In the second video information, a time code “00:15:00: 00” or the like is assigned in order from the first frame. The synchronization information accumulated by the synchronization information management unit 16 is as shown in FIG.
Note that the flowchart of FIG. 5 shows a case where the accumulation of the second video information and the accumulation of the synchronization information are repeated until there is no frame of the first video information, but the second video information is accumulated. In response to the reception of the instruction to end the second video information, the second video information storage and the synchronization information storage are ended regardless of whether or not the first video information frame is lost. Good.

次に、第2の映像情報に第1の映像情報が同期情報を用いて合成された映像情報である合成映像情報が表示される処理について説明する。ユーザが、映像会議システムに接続されている所定の入力デバイスを操作して、映像ID「V002」に対応する第2の映像情報の表示を開始する旨の指示を入力したとする。すると、情報合成部17は、合成映像情報の表示を開始すると判断する(ステップS103)。
そして、まず、情報合成部17は、映像ID「V002」に対応する、図9で示される第2の映像情報の1番目のフレームを読み出し(ステップS301〜S303)、その1番目のフレームに対応するタイムコード「00:15:00:00」を取得する(ステップS304)。
Next, a process for displaying composite video information, which is video information obtained by combining the first video information with the second video information using the synchronization information, will be described. It is assumed that the user operates a predetermined input device connected to the video conference system and inputs an instruction to start displaying the second video information corresponding to the video ID “V002”. Then, the information synthesizing unit 17 determines to start displaying the synthesized video information (step S103).
First, the information compositing unit 17 reads the first frame of the second video information shown in FIG. 9 corresponding to the video ID “V002” (steps S301 to S303), and corresponds to the first frame. The time code “00: 15: 00: 00” to be acquired is acquired (step S304).

情報合成部17は、図8で示される同期情報を参照し、その取得した第2の映像情報(映像ID:V002)のタイムコード「00:15:00:00」をキーとして検索を行い、その第2の映像情報のタイムコード「00:15:00:00」に対応する第1の映像情報(映像ID:V001)のタイムコード「1:00:00:00」を取得する(ステップS305)。
そして、情報合成部17は、映像情報記憶部11で記憶されている、図7で示される第1の映像情報から、そのタイムコード「1:00:00:00」に対応するフレームを読み出す(ステップS306)。
The information composition unit 17 refers to the synchronization information shown in FIG. 8 and performs a search using the time code “00: 15: 00: 00” of the acquired second video information (video ID: V002) as a key. The time code “1: 00: 00: 00” of the first video information (video ID: V001) corresponding to the time code “00: 15: 00: 00: 00” of the second video information is acquired (step S305). ).
Then, the information synthesizing unit 17 reads out a frame corresponding to the time code “1: 00: 00: 00” from the first video information shown in FIG. 7 stored in the video information storage unit 11 ( Step S306).

その後、情報合成部17は、第2の映像情報の1番目のフレームにおいて、第1の映像情報が表示されている表示領域を検出する(ステップS307)。
そして、情報合成部17は、その検出した表示領域に、読み出した第1の映像情報のプレ−ムを合成する(ステップS308)。
この合成において、第2の映像情報の解像度に合うように、合成する第1の映像情報の解像度を変更してもよい。また、第2の映像情報の1番目のフレームにおいて表示されている第1の映像情報が、真正面の向きでなく、斜めの向きである場合には、その向きに合うように第1の映像情報を変形してもよい。
Thereafter, the information synthesizing unit 17 detects a display area in which the first video information is displayed in the first frame of the second video information (step S307).
Then, the information synthesizing unit 17 synthesizes the read first video information frame with the detected display area (step S308).
In this synthesis, the resolution of the first video information to be synthesized may be changed so as to match the resolution of the second video information. In addition, when the first video information displayed in the first frame of the second video information is not in the frontal direction but in an oblique direction, the first video information is matched to the direction. May be modified.

情報合成部17は、第1の映像情報のフレームを第2の映像情報のフレームに合成した合成映像情報のフレームを出力する(ステップS309)。
このようにして、策2の映像情報のフレームがなくなるまで、互いに同期している第1の映像情報のフレームと第2の映像情報のフレームとの合成と、合成映像情報の出力とが繰り返して行われることになる(ステップS302〜310)。
The information synthesizing unit 17 outputs a frame of synthesized video information obtained by synthesizing the frame of the first video information with the frame of the second video information (step S309).
In this way, until the frame of the video information of the measure 2 disappears, the synthesis of the first video information frame and the second video information frame synchronized with each other and the output of the synthesized video information are repeated. This is to be performed (steps S302 to S310).

図10、図11は、第2の映像情報のフレームと、情報合成部17が出力した合成映像情報のフレームとの比較するための図である。図10は、第2の映像情報のフレームを示す図であり、図11は、合成映像情報のフレームを示す図である。
図10で示されるように、ディスプレイ18に表示された第1の映像情報を撮影した第2の映像情報のフレームでは、第1の映像情報の表示は、ぼんやりとしたものになってしまい、はっきりとはしていない。
一方、図11で示されるように、情報合成部17が出力した合成映像情報では、第2の映像情報のフレームにおける第1の映像情報の表示領域が、第1の映像情報に置き換えられているため、第1の映像情報の表示もクリヤになっている。
FIGS. 10 and 11 are diagrams for comparing the second video information frame and the synthesized video information frame output by the information synthesis unit 17. FIG. 10 is a diagram showing a frame of the second video information, and FIG. 11 is a diagram showing a frame of the composite video information.
As shown in FIG. 10, in the frame of the second video information obtained by photographing the first video information displayed on the display 18, the display of the first video information becomes blurry and clearly. It is not.
On the other hand, as shown in FIG. 11, in the synthesized video information output from the information synthesizing unit 17, the display area of the first video information in the frame of the second video information is replaced with the first video information. Therefore, the display of the first video information is also clear.

なお、図6のフローチャートでは、第2の映像情報のフレームがなくなるまで、合成映像情報のフレームの出力が繰り返される場合について示しているが、その表示を終了する指示が受け付けられたことに応じて、第2の映像情報のフレームがなくなったかどうかに関わらず、第1の映像情報のフレームと、第2の映像情報のフレームの表示が終了されるようにしてもよい。
また、この具体例では、音声の出力については説明しなかったが、前述のように、映像情報に音声情報が含まれる場合には、表示部12、及び情報合成部17は、音声情報の出力を行ってもよい。その場合に、情報合成部17は、第1の映像情報の音声情報を出力してもよく、第2の映像情報の音声情報を出力してもよく、両方を出力してもよい。
Note that the flowchart of FIG. 6 shows the case where the output of the composite video information frame is repeated until there is no second video information frame, but in response to the reception of an instruction to end the display. The display of the first video information frame and the second video information frame may be terminated regardless of whether or not the second video information frame disappears.
Further, in this specific example, the output of audio has not been described. However, as described above, when the audio information is included in the video information, the display unit 12 and the information synthesis unit 17 output the audio information. May be performed. In that case, the information synthesizer 17 may output the audio information of the first video information, may output the audio information of the second video information, or may output both.

また、前述のように、同期情報は、第1の映像情報に含まれていてもよい。例えば、図12で示されるように、第1の映像情報の各フレームに同期情報が含まれてもよい。
図12では、第1の映像情報のタイムコード「1:00:00:00」のフレームに、映像ID「V002」のタイムコード「0:15:00:00」と、映像ID「V003」のタイムコード「0:30:00:00」とが同期情報として含まれている。この同期情報により、第1の映像情報のタイムコード「1:00:00:00」のフレームに、映像ID「V002」で識別される第2の映像情報のタイムコード「0:15:00:00」のフレームと、映像ID「V003」で識別される第2の映像情報のタイムコード「0:30:00:00」のフレームとが同期していることが示される。この同期情報は、この第1の映像情報が会議において表示される際に、第1の映像情報に追記されてもよい。
Further, as described above, the synchronization information may be included in the first video information. For example, as shown in FIG. 12, the synchronization information may be included in each frame of the first video information.
In FIG. 12, the time code “0:15:00” of the video ID “V002” and the video ID “V003” are included in the frame of the time code “10: 00: 00: 00” of the first video information. The time code “0: 30: 00: 00” is included as synchronization information. With this synchronization information, the time code “0:15:00: of the second video information identified by the video ID“ V002 ”is added to the frame of the time code“ 10: 00: 00: 00 ”of the first video information. It is indicated that the frame of “00” and the frame of the time code “0: 30: 00: 00” of the second video information identified by the video ID “V003” are synchronized. This synchronization information may be added to the first video information when the first video information is displayed in the conference.

また、図12で示されるように、同期情報は、1個の第1の映像情報と、2個以上の第2の映像情報(図12では、映像ID「V002」で識別される映像情報と、映像ID「V003」で識別される映像情報との2個の映像情報)とを対応付ける情報であってもよい。そのような場合であっても、同期情報を用いることにより、第2の映像情報の任意のフレームに対応する第1の映像情報のフレームを特定することができるからである。なお、1個の第1の映像情報に、2個以上の第2の映像情報が同期する状況としては、例えば、第1の映像情報が2回以上表示され、その第1の映像情報が表示された2回以上の会議の場面が、2個以上の第2の映像情報として撮影された状況かありうる。   Also, as shown in FIG. 12, the synchronization information includes one first video information and two or more second video information (video information identified by video ID “V002” in FIG. 12). , Two pieces of video information with the video information identified by the video ID “V003”) may be associated with each other. This is because even in such a case, the frame of the first video information corresponding to an arbitrary frame of the second video information can be specified by using the synchronization information. As a situation in which two or more pieces of second video information are synchronized with one piece of first video information, for example, the first video information is displayed twice or more, and the first video information is displayed. It is possible that the scenes of two or more meetings that have been taken are photographed as two or more pieces of second video information.

また、前述のように、同期情報は、第2の映像情報に含まれていてもよい。例えば、図13で示されるように、第2の映像情報の各フレームに同期情報が含まれてもよい。図13では、第2の映像情報のタイムコード「0:15:00:00」のフレームに、映像ID「V001」のタイムコード「1:00:00:00」が同期情報として含まれている。この同期情報により、第2の映像情報のタイムコード「0:15:00:00」のフレームと、映像ID「V001」で識別される第1の映像情報のタイムコード「1:00:00:00」のフレームとが同期していることが示される。この同期情報は、この第2の映像情報が蓄積される際に、第2の映像情報に記録されてもよい。   Further, as described above, the synchronization information may be included in the second video information. For example, as shown in FIG. 13, the synchronization information may be included in each frame of the second video information. In FIG. 13, the time code “00:00:00” of the video ID “V001” is included as synchronization information in the frame of the time code “0: 15: 00: 00” of the second video information. . With this synchronization information, the frame of the second video information time code “0: 15: 00: 00” and the first video information time code “1: 00: 00: 00” identified by the video ID “V001”. It is shown that the frame of “00” is synchronized. This synchronization information may be recorded in the second video information when the second video information is accumulated.

また、前述のように、同期情報は、第1の映像情報と第2の映像情報とに含まれていてもよい。例えば、図14、図15で示されるように、第1の映像情報の各フレームと、第2の映像情報の各フレームとに同期情報が含まれていてもよい。
図14、図15では、第1の映像情報のタイムコード「1:00:00:00」のフレームに同期情報「syn001−001」が含まれており、第2の映像情報のタイムコード「0:15:00:00」のフレームに同期情報「syn001−001」が含まれていることによって、その両者のフレームが同期していることが示されている。この同期情報は、第1の映像情報が会議において表示される際に第1の映像情報に追記され、第2の映像情報が蓄積される際に第2の映像情報に記録されてもよい。
Further, as described above, the synchronization information may be included in the first video information and the second video information. For example, as shown in FIGS. 14 and 15, the synchronization information may be included in each frame of the first video information and each frame of the second video information.
In FIG. 14 and FIG. 15, the synchronization information “syn001-001” is included in the frame of the time code “10: 00: 00: 00” of the first video information, and the time code “0” of the second video information. : 15:00: 00 includes synchronization information “syn001-001”, which indicates that both frames are synchronized. This synchronization information may be added to the first video information when the first video information is displayed in the conference, and may be recorded in the second video information when the second video information is accumulated.

以上のように、本実施形態による映像会議システムによれば、過去の会議の映像の表示時点と、その過去の会議を見ながら行われた会議の映像の撮影時点とを同期させることができ、両映像を合成させた合成映像情報を出力することができる。その結果、過去の会議を見ながら行われた会議の内容を、より適切に理解することができるようになる。   As described above, according to the video conference system according to the present embodiment, it is possible to synchronize the display time of the video of the past conference and the shooting time of the video of the conference held while watching the past conference, It is possible to output composite video information obtained by combining both videos. As a result, it becomes possible to more appropriately understand the contents of the meetings held while looking at past meetings.

(第2の実施形態)
以下、本発明の第2の実施形態による映像会議システム(映像システム)について、図面を参照しながら説明する。
本実施形態では、第1の実施形態による情報合成部17で行っていた表示領域の検出を映像情報蓄積部25で行う。一方、情報合成部27は、この検出を行わず、映像情報蓄積部25の検出結果を用いて映像情報を合成する。
(Second Embodiment)
Hereinafter, a video conference system (video system) according to a second embodiment of the present invention will be described with reference to the drawings.
In the present embodiment, the video information storage unit 25 detects the display area, which has been performed by the information synthesis unit 17 according to the first embodiment. On the other hand, the information synthesizing unit 27 synthesizes video information using the detection result of the video information storage unit 25 without performing this detection.

図16は、本実施形態による映像会議システムの構成を示す図である。本実施形態(図16)と第1の実施形態(図1)とを比較すると、映像情報蓄積部25と情報合成部27とが異なる。しかし、他の構成要素(映像情報記憶部11、表示部12、撮影部13、映像情報受付部14、同期情報管理部16、ディスプレイ18、及びディスプレイ19)が持つ機能は第1の実施形態と同じであるので、第1の実施形態と同じ機能の説明は省略する。   FIG. 16 is a diagram showing the configuration of the video conference system according to the present embodiment. When this embodiment (FIG. 16) is compared with the first embodiment (FIG. 1), the video information storage unit 25 and the information composition unit 27 are different. However, the functions of other components (video information storage unit 11, display unit 12, imaging unit 13, video information reception unit 14, synchronization information management unit 16, display 18, and display 19) are the same as those in the first embodiment. Since it is the same, description of the same function as 1st Embodiment is abbreviate | omitted.

映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報における第1の映像情報の表示領域を検出する。
映像情報蓄積部25は、第2の映像情報における第1の映像情報の表示領域の検出を、第1の実施形態による情報合成部17と同様にして行う。例えば、映像情報蓄積部25は、パターンマッチング等の技術を用いた検出、又は、ユーザ等が入力デバイスで入力した表示領域の指定を受け付け、その指定された表示領域を検出により、第1の映像情報の表示領域を検出する。また、この表示領域の検出の方法は、これらの方法に限定されるものではなく、その他の方法であってもよい。
The video information storage unit 25 detects the display area of the first video information in the second video information received by the video information reception unit 14.
The video information storage unit 25 detects the display area of the first video information in the second video information in the same manner as the information synthesis unit 17 according to the first embodiment. For example, the video information storage unit 25 receives detection using a technique such as pattern matching or designation of a display area input by a user or the like using an input device, and detects the designated display area to detect the first video. Detect information display area. Further, the method of detecting the display area is not limited to these methods, and other methods may be used.

映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報と、検出した第1の映像情報の表示領域の情報とを所定の記憶媒体に記憶してもよく、あるいは、映像情報受付部14が受け付けた第2の映像情報のうち、検出した第1の映像情報の表示領域を除いた第2の映像情報を蓄積してもよい。ここで、表示領域を除くとは、例えば、この表示領域の映像情報を予め決められた特定の値とすることである。
なお、この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、映像情報蓄積部25が有していてもよく、あるいは映像情報蓄積部25の外部に存在してもよい。また、この記録媒体は、第2の映像情報を一時的に記憶するものであってもよく、そうでなくてもよい。
The video information storage unit 25 may store the second video information received by the video information reception unit 14 and the information of the display area of the detected first video information in a predetermined storage medium, or Of the second video information received by the information receiving unit 14, second video information excluding the display area of the detected first video information may be accumulated. Here, excluding the display area means, for example, that the video information in the display area is set to a predetermined specific value.
Note that this recording medium is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like, and may be included in the video information storage unit 25 or may exist outside the video information storage unit 25. Further, this recording medium may or may not temporarily store the second video information.

図17は、本実施形態における映像情報の一例について説明するための図である。
図17(a)は、映像情報蓄積部25が、映像情報受付部14が受け付けた第2の映像情報のうち、検出した第1の映像情報の表示領域を除いた第2の映像情報である。また、図17(b)、(c)は、それぞれ、映像情報受付部14が受け付けた第2の映像情報、検出した第1の映像情報の表示領域の情報である。
映像情報蓄積部25は、図17(a)に示した映像情報のみを記憶してもよいし、図17(b)と(c)とを記憶してもよい。
FIG. 17 is a diagram for describing an example of video information in the present embodiment.
FIG. 17A shows second video information excluding the display area of the detected first video information from the second video information received by the video information receiving unit 14 by the video information storage unit 25. . FIGS. 17B and 17C show information about the display area of the second video information received by the video information receiving unit 14 and the detected first video information, respectively.
The video information storage unit 25 may store only the video information shown in FIG. 17A, or may store FIGS. 17B and 17C.

本実施形態では、映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報から、検出した第1の映像情報の表示領域を除いた第2の映像情報を蓄積する(図17(a))。つまり、映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報のうち、第1の映像情報の表示領域を除く映像情報を蓄積する。
この第1の映像情報の表示領域を除いた第2の映像情報は、音声情報を含んでいてもよく、あるいは、含んでいなくてもよい。また、映像情報は、デジタルデータであってもよく、アナログデータであってもよい。
In the present embodiment, the video information storage unit 25 stores the second video information obtained by removing the detected display area of the first video information from the second video information received by the video information reception unit 14 (FIG. 17 (a)). That is, the video information storage unit 25 stores video information excluding the display area of the first video information from the second video information received by the video information reception unit 14.
The second video information excluding the first video information display area may or may not include audio information. The video information may be digital data or analog data.

情報合成部27は、映像情報記憶部11で記憶されている第1の映像情報と、第2の映像情報の少なくとも一部とを、同期情報管理部16が蓄積した同期情報を用いて同期させ、第2の映像情報における表示部12の表示領域に第1の映像情報を合成した映像を示す情報である合成映像情報を出力する。
ここで、情報合成部27は、第2の映像情報における第1の映像情報が除かれている領域を検出して第1の映像情報を合成する。例えば、情報合成部27は、映像情報蓄積部25が映像情報を予め決められた特定の値とした表示領域を検出する。
The information synthesizing unit 27 synchronizes the first video information stored in the video information storage unit 11 and at least a part of the second video information using the synchronization information accumulated by the synchronization information management unit 16. Then, composite video information that is information indicating a video obtained by synthesizing the first video information is output to the display area of the display unit 12 in the second video information.
Here, the information synthesizing unit 27 synthesizes the first video information by detecting an area where the first video information is removed from the second video information. For example, the information synthesizing unit 27 detects a display area in which the video information storage unit 25 uses video information as a predetermined value.

なお、映像情報蓄積部25が、映像情報受付部14が受け付けた第2の映像情報と、検出した第1の映像情報の表示領域の情報とを蓄積した場合、情報合成部27は、この第1の映像情報の表示領域の情報を取得して、この表示領域に第1の映像情報を合成する。   When the video information storage unit 25 stores the second video information received by the video information reception unit 14 and the information of the display area of the detected first video information, the information composition unit 27 Information on the display area of one video information is acquired, and the first video information is combined with this display area.

情報合成部27は、第2の映像情報における第1の映像情報の合成を、第1の実施形態による情報合成部17と同様にして行う。例えば、情報合成部27は、第1の映像情報を、第2の映像情報における検出された表示領域の大きさとなるように変形する。
なお、第1の映像情報と第2の映像情報との少なくとも一方に音声情報が含まれる場合には、情報合成部27は、音声情報を含む合成映像情報を出力してもよい。その場合に、合成映像情報に含まれる音声情報は、第1の映像情報の音声情報であってもよく、第2の映像情報に含まれる音声情報であってもよく、両方の音声情報であってもよい。
The information synthesizing unit 27 synthesizes the first video information in the second video information in the same manner as the information synthesizing unit 17 according to the first embodiment. For example, the information synthesizing unit 27 transforms the first video information so as to be the size of the display area detected in the second video information.
In addition, when audio information is included in at least one of the first video information and the second video information, the information synthesis unit 27 may output synthesized video information including audio information. In this case, the audio information included in the synthesized video information may be the audio information of the first video information, the audio information included in the second video information, or both audio information. May be.

本実施形態では、情報合成部27は、ディスプレイ19に合成映像情報を表示するものとする。また、情報合成部17は、ハードウェアによって実現されてもよく、あるいは、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   In the present embodiment, the information composition unit 27 displays the composite video information on the display 19. The information synthesizing unit 17 may be realized by hardware, or may be realized by software such as a driver that drives these devices.

次に、本実施形態による映像会議システムの動作について、図18のフローチャートを用いて説明する。なお、本実施形態による映像会議システムの動作は、図18のフローチャートで示されるものに限定されず、本発明の要旨を変更しない範囲において変更可能であることはいうまでもない。
本実施形態(図18)と第1の実施形態(図4)とを比較すると、ステップS402とステップS404が異なる。しかし、他の動作(S101、S103)は第1の実施形態と同じであるので、第1の実施形態と同じ動作の説明は省略する。
Next, the operation of the video conference system according to the present embodiment will be described with reference to the flowchart of FIG. Note that the operation of the video conference system according to the present embodiment is not limited to that shown in the flowchart of FIG. 18 and can be changed without departing from the scope of the present invention.
When this embodiment (FIG. 18) is compared with the first embodiment (FIG. 4), step S402 and step S404 are different. However, since other operations (S101, S103) are the same as those in the first embodiment, description of the same operations as those in the first embodiment is omitted.

(ステップS402)表示部12等は、第1の映像情報の表示や、第2の映像情報の蓄積、同期情報の作成、蓄積等を行う。このとき、映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報から、検出した第1の映像情報の表示領域を除いた第2の映像情報を蓄積する。そして、ステップS101に戻る。
このステップS402の処理の詳細については、図19のフローチャートを用いて後述する。
(Step S402) The display unit 12 and the like display the first video information, store the second video information, create and store synchronization information, and the like. At this time, the video information storage unit 25 stores the second video information obtained by removing the detected display area of the first video information from the second video information received by the video information reception unit 14. Then, the process returns to step S101.
Details of the process of step S402 will be described later with reference to the flowchart of FIG.

(ステップS404)情報合成部27は、同期情報を用いて、第1の映像情報の表示領域を除いた第2の映像情報と第1の映像情報とを合成し、その合成後の合成映像情報をディスプレイ19に表示する。そして、ステップS101に戻る。このステップS404の処理の詳細については、図20のフローチャートを用いて後述する。   (Step S404) The information composition unit 27 synthesizes the second video information excluding the display area of the first video information and the first video information using the synchronization information, and the synthesized video information after the synthesis. Is displayed on the display 19. Then, the process returns to step S101. Details of the processing in step S404 will be described later with reference to the flowchart of FIG.

図19は、図18のフローチャートにおけるステップS402の処理の詳細を示すフローチャートである。
本実施形態(図19)と第1の実施形態(図5)とを比較すると、ステップS5071とステップS5072が異なる。しかし、他の処理(S201〜S206、S208〜S211)は第1の実施形態と同じであるので、第1の実施形態と同じ処理の説明は省略する。
FIG. 19 is a flowchart showing details of the process of step S402 in the flowchart of FIG.
When this embodiment (FIG. 19) is compared with the first embodiment (FIG. 5), step S5071 and step S5072 are different. However, since the other processes (S201 to S206, S208 to S211) are the same as those in the first embodiment, description of the same processes as those in the first embodiment is omitted.

(ステップS5071)映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報のフレームにおける第1の映像情報の表示領域を検出する。
(ステップS5072)映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報のフレームのうち、検出した第1の映像情報の表示領域を除いた第2の映像情報のフレームを所定の記録媒体に蓄積する。
(Step S5071) The video information storage unit 25 detects the display area of the first video information in the frame of the second video information received by the video information receiving unit 14.
(Step S5072) The video information storage unit 25 extracts the second video information frame excluding the detected first video information display area from the second video information frame received by the video information reception unit 14. Accumulate on a predetermined recording medium.

図20は、図18のフローチャートにおけるステップS404の処理の詳細を示すフローチャートである。
本実施形態(図20)と第1の実施形態(図6)とを比較すると、ステップS607が異なる。しかし、他の処理(S301〜S306、S308〜S210)は第1の実施形態と同じであるので、第1の実施形態と同じ処理の説明は省略する。
FIG. 20 is a flowchart showing details of the process of step S404 in the flowchart of FIG.
When this embodiment (FIG. 20) is compared with the first embodiment (FIG. 6), step S607 is different. However, since the other processes (S301 to S306, S308 to S210) are the same as those in the first embodiment, description of the same processes as those in the first embodiment is omitted.

(ステップS607)情報合成部27は、第2の映像情報のj番目のフレームにおいて、第1の映像情報が除かれている表示部12の表示領域を検出する。 (Step S607) The information composition unit 27 detects the display area of the display unit 12 from which the first video information is removed in the j-th frame of the second video information.

以上のように、本実施形態による映像会議システムによれば、第2の映像情報を蓄積する際に、第1の映像情報の表示領域を検出しているので、合成映像情報を出力する際の検出処理による負荷を軽減できる。また、映像会議システムの利用者は、合成映像情報の出力前に蓄積された第2の映像情報を確認すれば、第2の映像情報が検出した第1の表示領域に誤りがないかを確認することができる。
これにより、負荷による合成映像情報出力の遅延や停止、及び表示領域の誤りによる映像情報の欠落を防止でき、その結果、過去の会議を見ながら行われた会議の内容を、より適切に理解することができるようになる。
また、本実施形態による映像会議システムによれば、第2の映像情報を蓄積する際に、第1の映像情報の表示領域を除いているので、蓄積される第2の映像情報の容量を削減することができる。例えば、除かれた表示領域の映像情報を特定の値とした場合、該表示領域を除いた第2の映像情報を圧縮すると、該表示領域を除かない第2の映像情報と比較して情報の容量が小さくなる。なお、第2の映像情報において、第1の映像情報が表示されている表示領域の映像は必要ないため、その表示領域を除く映像情報を蓄積したとしても、問題はないことになる。
As described above, according to the video conference system according to the present embodiment, when the second video information is stored, the display area of the first video information is detected. The load caused by the detection process can be reduced. In addition, if the user of the video conference system confirms the second video information stored before the output of the composite video information, it confirms whether there is an error in the first display area detected by the second video information. can do.
As a result, delay and stop of composite video information output due to load, and loss of video information due to display area errors can be prevented, and as a result, the contents of conferences held while viewing past conferences can be understood more appropriately Will be able to.
In addition, according to the video conference system according to the present embodiment, when the second video information is stored, the display area of the first video information is excluded, so that the capacity of the stored second video information is reduced. can do. For example, when the video information of the removed display area is set to a specific value, when the second video information excluding the display area is compressed, the information of the information is compared with the second video information not excluding the display area. Capacity is reduced. In the second video information, since the video in the display area where the first video information is displayed is not required, there is no problem even if the video information excluding the display area is accumulated.

(第3の実施形態)
以下、本発明の第3の実施形態による映像会議システム(映像システム)について、図面を参照しながら説明する。
本実施形態では、第1の映像情報は、2以上の映像情報を合成した合成映像情報である。そして、第2の映像情報に第1の映像情報を合成する際、第2の映像情報と、第1の映像情報として合成する前の2以上の映像情報とを合成する。
(Third embodiment)
Hereinafter, a video conference system (video system) according to a third embodiment of the present invention will be described with reference to the drawings.
In the present embodiment, the first video information is synthesized video information obtained by synthesizing two or more pieces of video information. Then, when the first video information is synthesized with the second video information, the second video information is synthesized with two or more pieces of video information before being synthesized as the first video information.

図21は、本実施形態による映像情報の合成の一例を示す図である。
図21(b)は、第1の映像情報の一例であって、映像ID「V001」の映像情報(図21(a))と、映像ID「V002」の映像情報とを合成した合成映像情報であることを示す。
そして、図21(c)は、第2の映像情報の一例であって、映像ID「V003」の映像情報に、映像ID「V002」の映像情報を合成し、さらに、映像ID「V002」の映像情報を介して、映像ID「V001」の映像情報も合成した合成映像情報であることを示す。
例えば、各映像情報は、会議の場面を撮影した映像情報(映像ID「V001」)を表示した会議の場面を撮影した映像情報(映像ID「V002」)を表示して会議を行い、該会議の場面を撮影した映像情報(映像ID「V003」)として関係付けられる。
FIG. 21 is a diagram illustrating an example of the synthesis of video information according to the present embodiment.
FIG. 21B is an example of the first video information, and is composite video information obtained by synthesizing video information with the video ID “V001” (FIG. 21A) and video information with the video ID “V002”. Indicates that
FIG. 21C is an example of the second video information. The video information of the video ID “V002” is synthesized with the video information of the video ID “V003”, and further, the video ID “V002”. It indicates that the video information of the video ID “V001” is also synthesized video information through the video information.
For example, each piece of video information is displayed as video information (video ID “V002”) shooting a conference scene displaying video information (video ID “V001”) shooting the conference scene. As video information (video ID “V003”).

図22は、本実施形態による映像会議システムの構成を示す図である。本実施形態(図22)と第1の実施形態(図1)とを比較すると、情報合成部32と同期情報管理部36と情報合成部37とが異なる。しかし、他の構成要素(映像情報記憶部11、撮影部13、映像情報受付部14、映像情報蓄積部15、ディスプレイ18、及びディスプレイ19)が持つ機能は第1の実施形態と同じであるので、第1の実施形態と同じ機能の説明は省略する。また、本実施形態による動作は、第1の実施形態による動作(図4〜図6)と同じである。   FIG. 22 is a diagram showing the configuration of the video conference system according to the present embodiment. When this embodiment (FIG. 22) is compared with the first embodiment (FIG. 1), the information synthesis unit 32, the synchronization information management unit 36, and the information synthesis unit 37 are different. However, the functions of other components (video information storage unit 11, imaging unit 13, video information receiving unit 14, video information storage unit 15, display 18, and display 19) are the same as those in the first embodiment. The description of the same function as in the first embodiment is omitted. The operation according to the present embodiment is the same as the operation according to the first embodiment (FIGS. 4 to 6).

情報合成部32は、映像情報記憶部11で記憶されている2以上の映像情報を、同期情報管理部36に予め蓄積された同期情報を用いて同期して合成し、該合成した合成映像情報を第1の映像情報として出力する。
なお、第1の映像情報に音声情報が含まれる場合には、情報合成部32は、第1の映像情報を表示すると共に、その音声情報を音声出力してもよい。また、情報合成部32は、表示を行う表示デバイス(例えば、CRTや液晶ディスプレイなど)やスピーカを含んでもよく、あるいは含まなくてもよい。
The information synthesizing unit 32 synthesizes two or more pieces of video information stored in the video information storage unit 11 synchronously using the synchronization information stored in advance in the synchronization information management unit 36, and the synthesized synthesized video information Is output as the first video information.
In addition, when audio information is included in the first video information, the information synthesis unit 32 may display the first video information and output the audio information as audio. In addition, the information synthesis unit 32 may or may not include a display device (for example, a CRT or a liquid crystal display) that performs display and a speaker.

本実施形態では、映像情報記憶部11で記憶されている2以上の映像情報を、映像ID「V001」の映像情報(図7)と、映像ID「V002」の映像情報(図9)とする。
また、本実施形態では、映像ID「V001」の映像情報と、映像ID「V002」の映像情報とが、それぞれ、時間的位置を示す情報としてタイムコードを含んでいるものとする(図7、図9)。
この映像ID「V001」の映像情報と、映像ID「V002」の映像情報とは、音声情報を含んでいてもよく、あるいは、含んでいなくてもよい。また、映像ID「V001」の映像情報と、映像ID「V002」の映像情報とは、デジタルデータであってもよく、アナログデータであってもよい。
In the present embodiment, the two or more pieces of video information stored in the video information storage unit 11 are set as video information with the video ID “V001” (FIG. 7) and video information with the video ID “V002” (FIG. 9). .
In the present embodiment, it is assumed that the video information of the video ID “V001” and the video information of the video ID “V002” each include a time code as information indicating a temporal position (FIG. 7). FIG. 9).
The video information of the video ID “V001” and the video information of the video ID “V002” may or may not include audio information. Also, the video information of the video ID “V001” and the video information of the video ID “V002” may be digital data or analog data.

また、本実施形態では、情報合成部32は、ディスプレイ18に第1の映像情報を表示するものとする。また、情報合成部32は、ハードウェアによって実現されてもよく、あるいは表示デバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   In the present embodiment, the information composition unit 32 displays the first video information on the display 18. The information synthesis unit 32 may be realized by hardware, or may be realized by software such as a driver that drives a display device.

同期情報管理部36は、映像情報記憶部11で記憶されている2以上の映像情報の表示時点の同期を示す同期情報を予め蓄積する。
また、同期情報管理部36は、情報合成部32による第1の映像情報の表示時点と、その第1の映像情報が表示されている会議の場面の映像である第2の映像情報の撮影時点との同期を示す同期情報を作成して蓄積する。
同期情報管理部36は、第1の映像情報の表示時点と第2の映像情報の表示時点との同期を示す同期情報の作成を、第1の実施形態による同期情報管理部16と同様にして行う。
なお、この同期情報は、第1の実施形態と同様に、(1)第1の映像情報、及び第2の映像情報とは別個に構成される情報であってもよく、(2)第1の映像情報に含まれる情報であってもよく、(3)第2の映像情報に含まれる情報であってもよく、(4)第1の映像情報、及び第2の映像情報に含まれる情報であってもよい。
The synchronization information management unit 36 stores in advance synchronization information indicating synchronization at the time of display of two or more pieces of video information stored in the video information storage unit 11.
In addition, the synchronization information management unit 36 displays the first video information display time by the information combining unit 32 and the shooting time of the second video information that is the video of the meeting scene in which the first video information is displayed. Create and store synchronization information indicating synchronization with
The synchronization information management unit 36 creates synchronization information indicating the synchronization between the display time of the first video information and the display time of the second video information in the same manner as the synchronization information management unit 16 according to the first embodiment. Do.
The synchronization information may be information configured separately from (1) the first video information and the second video information, as in the first embodiment. (2) First (3) Information included in the second video information, and (4) Information included in the first video information and the second video information. It may be.

本実施形態では、同期情報管理部36は、映像ID「V001」の映像情報のタイムコードと、映像ID「V002」の映像情報のタイムコードとの同期を示す情報である同期情報を予め蓄積する。
また、本実施形態では、第2の映像情報の映像IDを「V003」とする。
In the present embodiment, the synchronization information management unit 36 stores in advance synchronization information that is information indicating the synchronization between the time code of the video information with the video ID “V001” and the time code of the video information with the video ID “V002”. .
In the present embodiment, the video ID of the second video information is “V003”.

図23は、本実施形態による同期情報の一例を示す図である。
図23(b)は、同期情報管理部36が予め蓄積する映像ID「V001」の映像情報のタイムコードと映像ID「V002」の映像情報のタイムコードとの同期を示す同期情報である。
ここで、図23の同期情報は、合成する表示領域がある映像情報を第2の映像情報とし、該第2の表示領域に合成する映像情報を第1の映像情報として、映像IDを蓄積しているとする。
図23(b)では、例えば、映像ID「V001」のタイムコード「1:00:00:00」に関係付けられた映像ID「V002」のタイムコードは、「0:15:00:00」であることを表わす。また、映像ID「V001」の映像情報は、映像ID「V002」の映像情報の表示領域に合成されることを表わす。
FIG. 23 is a diagram illustrating an example of synchronization information according to the present embodiment.
FIG. 23B shows synchronization information indicating synchronization between the time code of the video information of the video ID “V001” and the time code of the video information of the video ID “V002” stored in advance by the synchronization information management unit 36.
Here, the synchronization information in FIG. 23 stores the video ID with the video information having the display area to be combined as the second video information, and the video information to be combined with the second display area as the first video information. Suppose that
In FIG. 23B, for example, the time code of the video ID “V002” associated with the time code “10:00:00” of the video ID “V001” is “0: 15: 00: 00”. It represents that. The video information of the video ID “V001” is combined with the display area of the video information of the video ID “V002”.

また、図23(a)は、同期情報管理部36が作成する第1の映像情報のタイムコードと第2の映像情報のタイムコードとの同期を示す同期情報である。
ここで、第2の映像情報である映像ID「003」の映像情報のタイムコードは、第1の映像情報として合成される映像情報(図23(b)中の第2の映像情報)である映像ID「V002」の映像情報のタイムコードと関係付けられている。
図23(a)では、例えば、映像ID「V002」のタイムコード「0:15:00:00」に関係付けられた映像ID「V003」のタイムコードは、「0:20:00:00」であり、映像ID「V002」の映像情報は、映像ID「V003」の映像情報の表示領域に合成することを表わす。
FIG. 23A shows synchronization information indicating the synchronization between the time code of the first video information and the time code of the second video information created by the synchronization information management unit 36.
Here, the time code of the video information of the video ID “003” as the second video information is video information (second video information in FIG. 23B) synthesized as the first video information. It is associated with the time code of the video information of the video ID “V002”.
In FIG. 23A, for example, the time code of the video ID “V003” associated with the time code “0: 15: 00: 00: 00” of the video ID “V002” is “0: 20: 00: 00: 00”. And the video information of the video ID “V002” is combined with the display area of the video information of the video ID “V003”.

情報合成部37は、映像情報記憶部11で記憶されている2以上の映像情報と、映像情報蓄積部15が蓄積した第2の映像情報とを、同期情報管理部36が蓄積した同期情報を用いて同期させ、第2の映像情報における第1の映像の表示領域に、映像情報記憶部11で記憶されている2以上の映像情報を合成した映像を示す情報である合成映像情報を出力する。   The information synthesizing unit 37 uses the synchronization information stored by the synchronization information managing unit 36 as the two or more pieces of video information stored in the video information storage unit 11 and the second video information stored by the video information storage unit 15. Synthesizing video information, which is information indicating a video obtained by synthesizing two or more pieces of video information stored in the video information storage unit 11, is output to the display area of the first video in the second video information. .

情報合成部37は、同期情報管理部36が蓄積する同期情報を検索することにより、合成すべき映像情報を特定する。
具体的に、情報合成部37は、情報合成部37は、同期情報管理部36が蓄積する同期情報のうち、第2の映像情報の映像IDが「V003」である同期情報を検索する。情報合成部37は、検索の結果、図23(a)の同期情報を特定し、第1の映像情報が映像ID「V002」であることを特定する。そして、情報合成部37は、同期情報管理部36が蓄積する同期情報のうち、第2の映像情報の映像IDが「V002」である同期情報を検索する。検索の結果、図23(b)の同期情報を特定し、第1の映像情報が映像ID「V001」であることを特定する。
さらに、情報合成部37は、同期情報管理部36が蓄積する同期情報のうち、第2の映像情報の映像IDが「V001」である同期情報を検索する。本実施形態では、第2の映像情報に映像ID「V001」が関係付けられている同期情報はないとする。
The information synthesis unit 37 specifies video information to be synthesized by searching for synchronization information stored in the synchronization information management unit 36.
Specifically, the information synthesis unit 37 searches the synchronization information stored in the synchronization information management unit 36 for the synchronization information whose video ID of the second video information is “V003”. As a result of the search, the information composition unit 37 identifies the synchronization information shown in FIG. 23A and identifies that the first video information is the video ID “V002”. Then, the information synthesizing unit 37 searches the synchronization information stored in the synchronization information managing unit 36 for the synchronization information whose video ID of the second video information is “V002”. As a result of the search, the synchronization information in FIG. 23B is specified, and it is specified that the first video information is the video ID “V001”.
Further, the information synthesizing unit 37 searches the synchronization information stored in the synchronization information managing unit 36 for the synchronization information in which the video ID of the second video information is “V001”. In this embodiment, it is assumed that there is no synchronization information in which the video ID “V001” is associated with the second video information.

情報合成部37は、上記検索の結果、特定した映像情報を合成する。
具体的に、情報合成部37は、映像ID「V003」の映像情報に、映像ID「V002」の映像情報を合成し、さらに、この映像情報ID「V002」の映像情報に、映像ID「V001」の映像情報を合成する。
なお、映像情報蓄積部37は、映像ID「V003」の映像情報における映像ID「V002」の映像情報の表示領域の検出、また、映像ID「V002」の映像情報における映像ID「V001」の映像情報の表示領域の検出を、第1の実施形態による情報合成部17と同様にして行う。
The information combining unit 37 combines the specified video information as a result of the search.
Specifically, the information combining unit 37 combines the video information of the video ID “V002” with the video information of the video ID “V003”, and further, the video information of the video information ID “V002” to the video ID “V001”. "Is synthesized.
The video information storage unit 37 detects the display area of the video information of the video ID “V002” in the video information of the video ID “V003” and the video of the video ID “V001” in the video information of the video ID “V002”. The information display area is detected in the same manner as the information synthesizing unit 17 according to the first embodiment.

図24は、本実施形態による映像情報の合成の一例について説明するための図である。
情報合成部37は、図24の右から左に向かう順序で映像情報を合成する。
まず、情報合成部37は、映像IDが「V001」である映像情報を、映像IDが「V002」である映像情報の表示領域の形状にする変形1を行う。
次に、情報合成部37は、映像IDが「V002」である映像情報を、映像IDが「V003」である映像情報の表示領域の形状にする変形2を行う。このとき、情報合成部37は、変形1を行った映像IDが「V001」の映像情報についても、変形2を行う。
そして、情報合成部37は、以上の変形を行った映像IDが「V001」及び「V002」の映像情報と、映像IDが「V003」の映像情報とを合成する。
FIG. 24 is a diagram for explaining an example of the synthesis of video information according to the present embodiment.
The information combining unit 37 combines the video information in the order from right to left in FIG.
First, the information composition unit 37 performs modification 1 to convert the video information with the video ID “V001” into the shape of the display area of the video information with the video ID “V002”.
Next, the information composition unit 37 performs modification 2 to convert the video information with the video ID “V002” into the shape of the display area of the video information with the video ID “V003”. At this time, the information composition unit 37 also performs modification 2 on the video information whose video ID is “V001” that has undergone modification 1.
Then, the information composition unit 37 synthesizes the video information with the video IDs “V001” and “V002” and the video information with the video ID “V003”, which have undergone the above modification.

また、情報合成部37は、例えば、予め映像情報の合成の回数を設定しておき、所定の回数前まで映像情報を合成するようにしてもよいし、また、映像情報を合成する表示領域サイズの最小サイズを予め設定しておき、表示領域のサイズが設定値よりも大きい間は、映像情報を合成するようにしてもよい。   Further, for example, the information combining unit 37 may set the number of times of combining video information in advance and combine the video information up to a predetermined number of times, or display area size for combining the video information May be set in advance, and the video information may be synthesized while the size of the display area is larger than the set value.

以上のように、本実施形態による映像会議システムによれば、同期情報により関係付けられた映像情報を合成するので、何度も繰り返して、会議を行った場合でも、映像が劣化しない表示をすることができる。その結果、過去の会議を見ながら行われた会議の内容を、より適切に理解することができるようになる。   As described above, according to the video conference system according to the present embodiment, since the video information related by the synchronization information is synthesized, even when the conference is repeated many times, the video is displayed without deterioration. be able to. As a result, it becomes possible to more appropriately understand the contents of the meetings held while looking at past meetings.

なお、図24の説明図において、合成される表示領域が合成する画像より小さくなる場合を説明しているが、本発明は、これに限られず、合成される表示領域が合成する画像より大きくてもよい。一般に、映像を解像度が小さくなるような状況で撮影し、その撮影した映像を表示すると、元の映像に比べ映像が劣化してしまう。しかし、本実施形態による映像会議システムによれば、同期情報により関係付けられた映像情報を合成するので、合成する映像情報を、元の解像度を保ったまま合成映像情報として表示することができる。
例えば、第1の映像情報に含まれて表示された画像ID「001」の映像情報が、画像ID「001」の映像情報より小さく、つまり、解像度が小さく、第2の映像情報に含まれて表示された画像ID「001」の映像情報が、第1の映像情報に含まれて表示された画像ID「001」の映像情報より大きい場合であっても、本実施形態による映像会議システムによれば、画像ID「001」の映像情報を、元の解像度を保ったまま合成映像情報として表示することができる。
In the explanatory diagram of FIG. 24, the case where the display area to be combined is smaller than the image to be combined is described. However, the present invention is not limited to this, and the display area to be combined is larger than the image to be combined. Also good. In general, when a video is shot in a situation where the resolution is low and the shot video is displayed, the video is degraded compared to the original video. However, according to the video conference system according to the present embodiment, the video information related by the synchronization information is synthesized, so that the video information to be synthesized can be displayed as synthesized video information while maintaining the original resolution.
For example, the video information of the image ID “001” displayed in the first video information is smaller than the video information of the image ID “001”, that is, the resolution is small and is included in the second video information. Even if the video information of the displayed image ID “001” is larger than the video information of the image ID “001” displayed in the first video information, the video conference system according to the present embodiment For example, the video information of the image ID “001” can be displayed as composite video information while maintaining the original resolution.

なお、上記各実施形態による映像会議システムには、撮影部13、及びディスプレイ18、19が含まれなくてもよい。そのような場合には、映像会議システムは、システム外の撮影部13によって撮影された第2の映像情報を受け付けることとなり、また、システム外のディスプレイ18、19に第1の映像情報等を表示することになってもよい。   Note that the video conference system according to each of the above embodiments may not include the photographing unit 13 and the displays 18 and 19. In such a case, the video conference system receives the second video information captured by the imaging unit 13 outside the system, and displays the first video information and the like on the displays 18 and 19 outside the system. You may end up doing it.

また、上記各実施形態による映像会議システムは、通信機能を有しており、他の会議の場面も見ることが可能なものであってもよく、あるいは、通信機能を用いることなく図1で示される会議の場面のみを撮影するものであってもよい。前者の場合には、映像情報受付部14が受け付ける映像は、通信回線を介して接続されている2以上の会議の場面の映像を含んでもよく、あるいは、そのいずれかの会議の場面の映像のみであってもよい。   In addition, the video conference system according to each of the above embodiments has a communication function and may be able to see other conference scenes, or shown in FIG. 1 without using the communication function. It is also possible to shoot only the scenes of the conferences to be performed. In the former case, the video received by the video information receiving unit 14 may include video of two or more conference scenes connected via a communication line, or only video of one of the conference scenes. It may be.

また、上記各実施形態において、情報合成部17、27、37が第2の映像情報に第1の映像情報を合成して合成映像情報を作成する処理を、第2の映像情報の蓄積後に、バッチ処理として行う場合について説明したが、情報合成部17、27、37は、合成映像情報を作成する処理を、第2の映像情報を蓄積している途中に、リアルタイム処理(すなわち、逐次的な処理)として行ってもよい。この場合には、第2の映像情報が撮影されている際に、第2の映像情報に第1の映像情報を合成した合成映像情報が順次、出力されることになる。   Further, in each of the above embodiments, the information synthesizing units 17, 27, and 37 combine the first video information with the second video information to create the synthesized video information. After the second video information is accumulated, Although the case where the processing is performed as a batch process has been described, the information synthesis units 17, 27, and 37 perform the process of creating the composite video information while performing the real-time processing (that is, the sequential video information) while the second video information is being accumulated. Processing). In this case, when the second video information is captured, composite video information obtained by synthesizing the first video information with the second video information is sequentially output.

また、上記各実施形態において、情報合成部17、27、37が合成映像情報を蓄積する場合に、第2の映像情報を残す必要がない場合には、第2の映像情報に合成映像情報を上書きして蓄積してもよい。
また、上記実施形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、あるいは、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。
In each of the above embodiments, when the information compositing units 17, 27, and 37 store the composite video information, if there is no need to leave the second video information, the composite video information is added to the second video information. It may be overwritten and accumulated.
In the above embodiment, each process or each function may be realized by centralized processing by a single device or a single system, or may be distributedly processed by a plurality of devices or a plurality of systems. May be realized.

また、上記各実施形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。
なお、上記各実施形態における映像会議システムを実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、映像情報記憶部で記憶されている撮影した映像を示す情報である第1の映像情報を表示する表示部、前記第1の映像情報が表示された前記表示部での表示領域を含む場面を撮影した映像を示す情報である第2の映像情報を受け付ける映像情報受付部、前記映像情報受付部で受け付けた第2の映像情報の少なくとも一部を蓄積する映像情報蓄積部、前記第1の表示部による第1の映像情報の表示時点と、当該第1の映像情報が表示されている場面の映像である第2の映像情報の撮影時点との同期を示す情報である同期情報を作成して蓄積する同期情報管理部、前記映像情報記憶部で記憶されている第1の映像情報と、前記映像情報蓄積部で蓄積した第2の映像情報とを、前記同期情報管理部で蓄積した同期情報を用いて同期させ、前記第2の映像情報における前記表示領域に、前記同期に応じて前記映像情報記憶部から読み出した第1の映像情報を合成した映像を示す情報である合成映像情報を出力する出力部、として機能させる。
In each of the above embodiments, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
The software that realizes the video conference system in each of the above embodiments is the following program. That is, the program includes a display unit that displays first video information that is information indicating a captured video stored in the video information storage unit, and the display unit that displays the first video information. A video information receiving unit that receives second video information that is information indicating a video including a scene including the display area in the video, and video information that accumulates at least a part of the second video information received by the video information receiving unit Information indicating synchronization between the display time point of the first video information by the storage unit and the first display unit and the shooting time point of the second video information which is a video of the scene where the first video information is displayed A synchronization information management unit that creates and stores the synchronization information, the first video information stored in the video information storage unit, and the second video information stored in the video information storage unit Accumulated in the information management department Synthetic video that is information indicating a video obtained by synthesizing the first video information read from the video information storage unit according to the synchronization in the display area in the second video information. It functions as an output unit that outputs information.

なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を受け付ける受付部や、情報を出力する情報合成部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。
また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
また、本発明は、以上の実施形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
In the program, the functions realized by the program do not include functions that can be realized only by hardware. For example, a function that can be realized only by hardware such as a modem or an interface card in a reception unit that receives information, an information synthesis unit that outputs information, and the like is not included in at least the functions realized by the program.
Further, this program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, or the like) is read out. May be executed by
Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
Further, the present invention is not limited to the above-described embodiment, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上より、本発明による映像システム等によれば、過去の映像を見ながら行われた会議の内容を、より適切に理解することができるようにすることができ、会議を撮影した映像情報に関する処理を行う映像システム等としで有用である。   As described above, according to the video system and the like according to the present invention, it is possible to more appropriately understand the content of the conference held while viewing the past video, and the processing related to the video information obtained by capturing the conference It is useful as a video system for performing

本発明の第1の実施形態による映像会議システムの構成を示す図The figure which shows the structure of the video conference system by the 1st Embodiment of this invention. 同実施形態による映像情報の合成の一例について説明するための図The figure for demonstrating an example of the synthetic | combination of the video information by the embodiment 同実施形態による映像情報の合成の別の一例について説明するための図The figure for demonstrating another example of the synthesis | combination of the video information by the embodiment 同実施形態による映像会議システムの動作を示すフローチャートA flowchart showing the operation of the video conference system according to the embodiment 同実施形態による映像会議システムの別の動作を示すフローチャートThe flowchart which shows another operation | movement of the video conference system by the embodiment 同実施形態による映像会議システムの別の動作を示すフローチャートThe flowchart which shows another operation | movement of the video conference system by the embodiment 同実施形態における第1の映像情報の一例を示す図The figure which shows an example of the 1st video information in the embodiment 同実施形態における同期情報の一例を示す図The figure which shows an example of the synchronous information in the embodiment 同実施形態における第2の映像情報の一例を示す図The figure which shows an example of the 2nd video information in the embodiment 同実施形態における第2の映像情報のフレームの一例を示す図The figure which shows an example of the flame | frame of the 2nd video information in the embodiment 同実施形態における合成映像情報のフレームの一例を示す図The figure which shows an example of the flame | frame of synthetic | combination video information in the embodiment 同実施形態における同期情報の別の一例について説明するための図The figure for demonstrating another example of the synchronous information in the embodiment 同実施形態における同期情報の別の一例について説明するための図The figure for demonstrating another example of the synchronous information in the embodiment 同実施形態における同期情報の別の一例について説明するための図The figure for demonstrating another example of the synchronous information in the embodiment 同実施形態における同期情報の別の一例について説明するための図The figure for demonstrating another example of the synchronous information in the embodiment 本発明の第2の実施形態による映像会議システムの構成を示す図The figure which shows the structure of the video conference system by the 2nd Embodiment of this invention. 同実施形態における第2の映像情報の一例について説明するための図The figure for demonstrating an example of the 2nd video information in the embodiment 同実施形態による映像会議システムの動作を示すフローチャートA flowchart showing the operation of the video conference system according to the embodiment 同実施形態による映像会議システムの別の動作を示すフローチャートThe flowchart which shows another operation | movement of the video conference system by the embodiment 同実施形態による映像会議システムの別の動作を示すフローチャートThe flowchart which shows another operation | movement of the video conference system by the embodiment 本発明の第3の実施形態による映像会議システムについて説明するための図The figure for demonstrating the video conference system by the 3rd Embodiment of this invention. 同実施形態による映像会議システムの構成を示す図The figure which shows the structure of the video conference system by the embodiment 同実施形態による同期情報の一例を示す図The figure which shows an example of the synchronous information by the embodiment 同実施形態による映像情報の合成の一例について説明するための図The figure for demonstrating an example of the synthetic | combination of the video information by the embodiment

符号の説明Explanation of symbols

11 映像情報記憶部
12 表示部
13 撮影部
14 映像情報受付部
15 映像情報蓄積部
16 同期情報管理部
17 情報合成部
18、19 ディスプレイ
25 映像情報蓄積部
27 情報合成部
32 情報合成部
36 同期情報管理部
37 情報合成部
DESCRIPTION OF SYMBOLS 11 Image | video information storage part 12 Display part 13 Image | photographing part 14 Image | video information reception part 15 Image | video information storage part 16 Synchronization information management part 17 Information composition part 18, 19 Display 25 Image | video information storage part 27 Information composition part 32 Information composition part 36 Synchronization information Management unit 37 Information composition unit

Claims (6)

第1の映像情報を記憶する第1の映像情報記憶部と、
前記第1の映像情報を表示する第1の表示部と、
前記第1の映像情報が表示された前記第1の表示部の表示領域を含む場面を撮影した第2の映像情報を記憶する第2の映像情報記憶部と
映像間の同期情報を用いて前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成した第2の合成映像情報を出力する第2の情報合成部と、
前記第2の合成映像情報を表示する第2の表示部と
前記第2の合成映像情報が表示された前記第2の表示部の表示領域を含む場面を撮影した第3の映像情報を記憶する第3の映像情報記憶部と
映像間の同期情報を用いて、前記第3の映像情報における前記第2の表示部の表示領域に、前記第2の合成映像情報を合成した第3の合成映像情報を出力する第3の情報合成部と
を備え、
前記第2の表示部の表示領域に前記第2の合成映像情報を合成する処理においては、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成する
ことを特徴とする映像システム。
A first video information storage unit for storing first video information;
A first display unit for displaying the first image information,
A second image information storing unit for storing the second image information obtained by photographing a scene including a display area of the first said image information is displayed in the first display portion,
Using the synchronization information among the video, the display area of the first display portion in the second image information, the second information combining for outputting the second synthesized image information obtained by combining the first image information And
A second display unit for displaying the second composite video information ;
A third video information storage unit for storing third video information obtained by photographing a scene including a display area of the second display unit on which the second composite video information is displayed ;
Third information for outputting third synthesized video information obtained by synthesizing the second synthesized video information to the display area of the second display unit in the third video information using synchronization information between videos. A synthesis unit ;
With
In the process of combining the second combined video information with the display area of the second display unit, the first video information is combined with the display area of the first display unit in the second video information. A video system characterized by
前記第2の映像情報記憶部は、第2の映像情報のうち、前記第1の表示部の表示領域を除く映像情報を記憶し、
前記第3の映像情報記憶部は、第3の映像情報のうち、前記第2の表示部の表示領域を除く映像情報を記憶する
ことを特徴とする請求項1記載の映像システム。
The second video information storage unit stores video information excluding the display area of the first display unit among the second video information,
The third image information storage unit, a third of the video information, the video system of claim 1, wherein the storing the video information except for the display region of the second display unit.
前記同期情報は、映像のタイムコードを利用した情報である
ことを特徴とする請求項1または2に記載の映像システム。
The video system according to claim 1 , wherein the synchronization information is information using a video time code .
撮影した映像を示す情報である第1の映像情報を、第1の表示部に表示する表示ステップと、
前記第1の映像情報が表示された前記第1の表示部の表示領域を含む場面を撮影し第2の映像情報を記憶する第2の映像情報記憶ステップと、
映像間の同期情報を用いて前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成した第2の合成映像情報を出力する第2の情報合成ステップと、
前記第2の合成映像情報を表示する第2の表示ステップと
前記第2の合成映像情報が表示された前記第2の表示部の表示領域を含む場面を撮影した第3の映像情報を記憶する第3の映像情報記憶ステップと
映像間の同期情報を用いて、前記第3の映像情報における前記第2の表示部の表示領域に、前記第2の合成映像情報を合成した第3の合成映像情報を出力する第3の情報合成ステップと
を有し、
前記第2の表示部の表示領域に前記第2の合成映像情報を合成する処理においては、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成する
ことを特徴とする映像情報処理方法。
A display step of displaying first video information, which is information indicating a captured video, on the first display unit ;
A second image information storing step of storing the second image information obtained by photographing a scene including a display area of the first said image information is displayed in the first display portion,
Using the synchronization information among the video, the display area of the first display portion in the second image information, the second information combining for outputting the second synthesized image information obtained by combining the first image information Steps ,
A second display step of displaying the second composite video information ;
A third video information storage step for storing third video information obtained by photographing a scene including a display area of the second display unit on which the second composite video information is displayed ;
Third information for outputting third synthesized video information obtained by synthesizing the second synthesized video information to the display area of the second display unit in the third video information using synchronization information between videos. A synthesis step ;
I have a,
In the process of combining the second combined video information with the display area of the second display unit, the first video information is combined with the display area of the first display unit in the second video information. A video information processing method characterized by:
請求項1ないし3のいずれか1項に記載の映像システムを構成する各手段としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as each means which comprises the video system of any one of Claim 1 thru | or 3. 請求項5に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 5 is recorded.
JP2008085498A 2008-03-28 2008-03-28 Video system with past video reference function, video information processing method, program, and recording medium Expired - Fee Related JP5089459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008085498A JP5089459B2 (en) 2008-03-28 2008-03-28 Video system with past video reference function, video information processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008085498A JP5089459B2 (en) 2008-03-28 2008-03-28 Video system with past video reference function, video information processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2009239793A JP2009239793A (en) 2009-10-15
JP5089459B2 true JP5089459B2 (en) 2012-12-05

Family

ID=41253173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008085498A Expired - Fee Related JP5089459B2 (en) 2008-03-28 2008-03-28 Video system with past video reference function, video information processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP5089459B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4164985B2 (en) * 2000-03-28 2008-10-15 カシオ計算機株式会社 Image processing apparatus and storage medium storing image processing program
JP4253446B2 (en) * 2001-06-13 2009-04-15 株式会社リコー Recording and playback device for presentation
JP2008072388A (en) * 2006-09-13 2008-03-27 Ricoh Co Ltd Image processing apparatus and method, and program

Also Published As

Publication number Publication date
JP2009239793A (en) 2009-10-15

Similar Documents

Publication Publication Date Title
KR102077967B1 (en) Electronic device
TWI433057B (en) Improved pre-alarm video buffer
JPH114398A (en) Digital wide camera
EP1347455A2 (en) Contents recording/playback apparatus and contents edit method
JP4938615B2 (en) Video recording / playback device
JP6351212B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM
CN110913118B (en) Video processing method, device and storage medium
JP5600405B2 (en) Image processing apparatus, image processing method, and program
JP2008306355A (en) Image reproduction processing device, image reproduction processing method, program, and recording medium
JP2006203334A (en) Image recording apparatus, control method thereof and program
JP4946935B2 (en) Imaging device
JP5089459B2 (en) Video system with past video reference function, video information processing method, program, and recording medium
JP2007060026A (en) Video processing apparatus and object particularizing method
JP2012034128A (en) Image processing apparatus and imaging apparatus using the same
JP2012178814A (en) Moving image recording apparatus
JP2008228014A (en) Video conference system, conference video processing method, program and recording medium
JP4979623B2 (en) Image processing device
JP6594485B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM
JP2004312218A (en) Digital camera and image reproducing apparatus
JP6602425B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM
WO2016117480A1 (en) Telecommunication system
JP2007166539A (en) Imaging apparatus, imaging method, program and storage medium
JP2013055590A (en) Imaging device and imaging method
JP2014229930A (en) Imaging device, and method and system of controlling the same
JP2007324663A (en) Video camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120911

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees