JP5089459B2 - Video system with past video reference function, video information processing method, program, and recording medium - Google Patents
Video system with past video reference function, video information processing method, program, and recording medium Download PDFInfo
- Publication number
- JP5089459B2 JP5089459B2 JP2008085498A JP2008085498A JP5089459B2 JP 5089459 B2 JP5089459 B2 JP 5089459B2 JP 2008085498 A JP2008085498 A JP 2008085498A JP 2008085498 A JP2008085498 A JP 2008085498A JP 5089459 B2 JP5089459 B2 JP 5089459B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- video information
- video
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、映像システム、映像情報処理方法、プログラム、及び記録媒体に関する。 The present invention relates to a video system, a video information processing method, a program, and a recording medium.
従来、テレビ会議システムが開発されており、そのテレビ会議システムを用いることにより、遠隔の2以上の会議室の間で映像・音声の送受信を行うことができ、その2以上の会議室にいる人たちで会議を行うことができていた(例えば、特許文献1参照)。
一方、テレビ会議システムを用いて行われた過去の会議(以下、「過去会議」とする)を録画しておき、その録画していた会議の映像を再生しながらレビュー等を行うこともある。また、そのようなレビュー等を行っている会議(以下、「レビュー会議」とする)を、過去会議の表示されている表示部の表示領域を含めて撮影することもある。また、撮影したレビュー会議の内容を後から視聴することもある。
しかしながら、一般に、表示部に表示されている映像をさらに撮影すると、その画質が悪くなる。したがって、撮影された映像を後から視聴したとしても、当該撮影された映像に含まれる表示部の表示領域に、表示されている過去の映像の内容がよく分からないこととなり、撮影された映像の内容を適切に理解できないという問題がある。
つまり、レビュー会議の内容を撮影し、後から視聴したとしても、レビュー会議で議論している過去会議の内容がよくわからないこととなり、レビュー会議の内容を適切に理解できないという問題がある。
On the other hand, a past conference (hereinafter referred to as “past conference”) that has been performed using the video conference system may be recorded, and a review or the like may be performed while playing back the recorded video of the conference. In addition, a meeting in which such a review or the like is performed (hereinafter referred to as a “review meeting”) may be photographed including the display area of the display unit where the past meeting is displayed. In addition, the contents of the review meeting taken may be viewed later.
However, generally, when the video displayed on the display unit is further photographed, the image quality is deteriorated. Therefore, even if the captured video is viewed later, the contents of the past video displayed in the display area of the display unit included in the captured video are not well understood. There is a problem that the contents cannot be properly understood.
That is, even if the contents of the review meeting are photographed and viewed later, the contents of the past meeting discussed in the review meeting are not well understood, and there is a problem that the contents of the review meeting cannot be properly understood.
本発明は、上記問題点を解決するためになされたものであり、撮影された映像に含まれる表示部の表示領域に表示されている過去の映像の内容のより適切な理解を可能とする映像システム、映像情報処理方法、及びプログラムを提供することを目的とする。 The present invention has been made to solve the above-described problem, and an image that enables a better understanding of the contents of past images displayed in the display area of the display unit included in the captured image. It is an object to provide a system, a video information processing method, and a program.
本発明は上記の課題を解決するためになされたものであり、撮影した映像を示す情報である第1の映像情報を記憶する第1の映像情報記憶部と、前記第1の映像情報を表示する第1の表示部と、前記第1の映像情報が表示された前記第1の表示部の表示領域を含む場面を撮影した第2の映像情報を記憶する第2の映像情報記憶部と、映像間の同期情報を用いて、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成した第2の合成映像情報を出力する第2の情報合成部と、前記第2の合成映像情報を表示する第2の表示部と、前記第2の合成映像情報が表示された前記第2の表示部の表示領域を含む場面を撮影した第3の映像情報を記憶する第3の映像情報記憶部と、映像間の同期情報を用いて、前記第3の映像情報における前記第2の表示部の表示領域に、前記第2の合成映像情報を合成した第3の合成映像情報を出力する第3の情報合成部と、を備え、前記第2の表示部の表示領域に前記第2の合成映像情報を合成する処理においては、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成する。 The present invention has been made to solve the above-described problems, and includes a first video information storage unit that stores first video information that is information indicating a captured video, and displays the first video information. the first display section and the second image information storing unit for the first image information storing second image information obtained by photographing a scene including a display area of the first display portion that appears to be When, by using the synchronization information between images, the display area of the first display unit in the second image information, a second outputting a second synthesized image information obtained by combining the first image information A third image obtained by photographing a scene including an information combining unit, a second display unit that displays the second combined video information, and a display area of the second display unit on which the second combined video information is displayed. a third video information storage unit for storing video information, using the synchronization information among the video, the third The display area of the second display unit in the image information, and a third information synthesizing unit for outputting a third combined video information obtained by combining the second synthetic image information, said second display unit In the process of synthesizing the second synthesized video information with the display area, the first video information is synthesized with the display area of the first display unit in the second video information.
また、本発明の一態様は、前記第2の映像情報記憶部は、第2の映像情報のうち、前記第1の表示部の表示領域を除く映像情報を記憶し、前記第3の映像情報記憶部は、第3の映像情報のうち、前記第2の表示部の表示領域を除く映像情報を記憶する。 According to another aspect of the present invention, the second video information storage unit stores video information excluding a display area of the first display unit among the second video information, and the third video information. A memory | storage part memorize | stores the video information except the display area of a said 2nd display part among 3rd video information.
また、本発明の一態様は、前記同期情報は、映像のタイムコードを利用した情報である。 According to another aspect of the present invention, the synchronization information is information using a video time code.
また、本発明の一態様は、撮影した映像を示す情報である第1の映像情報を、第1の表示部に表示する表示ステップと、前記第1の映像情報が表示された前記第1の表示部の表示領域を含む場面を撮影した第2の映像情報を記憶する第2の映像情報記憶ステップと、映像間の同期情報を用いて、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成した第2の合成映像情報を出力する第2の情報合成ステップと、前記第2の合成映像情報を表示する第2の表示ステップと、前記第2の合成映像情報が表示された前記第2の表示部の表示領域を含む場面を撮影した第3の映像情報を記憶する第3の映像情報記憶ステップと、映像間の同期情報を用いて、前記第3の映像情報における前記第2の表示部の表示領域に、前記第2の合成映像情報を合成した第3の合成映像情報を出力する第3の情報合成ステップと、を有し、前記第2の表示部の表示領域に前記第2の合成映像情報を合成する処理においては、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成する。 According to another aspect of the present invention, a display step of displaying first video information that is information indicating a captured video on a first display unit, and the first video information on which the first video information is displayed. A second video information storing step for storing second video information for capturing a scene including a display area of the display unit, and synchronization information between videos, and the first display unit in the second video information. A second information synthesis step of outputting second synthesized video information obtained by synthesizing the first video information, a second display step of displaying the second synthesized video information, and the second display step. Using a third video information storage step for storing third video information for capturing a scene including a display area of the second display unit on which the composite video information of 2 is displayed, and synchronization information between the videos, Display area of the second display section in the third video information A third information synthesis step of outputting third synthesized video information obtained by synthesizing the second synthesized video information, and the second synthesized video information in a display area of the second display unit. In the process of combining the first video information, the first video information is combined with the display area of the first display unit in the second video information.
本発明によれば、過去の映像の表示時点と、映像の撮影時点とを同期させることができ、撮影された映像に対して、同期された過去の映像を合成することによって、クリヤな過去の映像を含む撮影された映像である合成映像を出力することができるため、撮影された映像の内容をより適切に理解することができるようになる。 According to the present invention, it is possible to synchronize the display time of the past video and the shooting time of the video, and by synthesizing the synchronized past video with the shot video, Since it is possible to output a composite video that is a captured video including the video, it is possible to more appropriately understand the content of the captured video.
以下、本発明による映像システムについて、実施形態を用いて説明する。
なお、以下の実施形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。
Hereinafter, an image system according to the present invention will be described using embodiments.
In the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and repetitive description may be omitted.
(第1の実施形態)
本発明の第1の実施形態による映像会議システム(映像システム)について、図面を参照しながら説明する。
図1は、本実施形態による映像会議システムの構成を示す図である。図1において、本実施形態による映像会議システムは、映像情報記憶部11と、表示部12と、撮影部13と、映像情報受付部14と、映像情報蓄積部15と、同期情報管理部16と、情報合成部17と、ディスプレイ18と、ディスプレイ19とを備える。
(First embodiment)
A video conference system (video system) according to a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing the configuration of the video conference system according to the present embodiment. 1, the video conference system according to the present embodiment includes a video
映像情報記憶部11では、映像を示す情報である第1の映像情報が記憶される。
この第1の映像情報は、会議の場面を撮影した映像である。この会議は、例えば、第1の映像情報について議論している会議である。
この映像は、通信機能を有するテレビ会議システム等において撮影された映像であってもよく、あるいは、通信機能を用いることなく会議の場面を単に撮影した映像であってもよい。前者の場合には、第1の映像情報の示す映像は、通信回線を介して接続されている2以上の会議の場面の映像を含んでもよく、あるいは、そのいずれかの会議の場面の映像のみであってもよい。
会議とは、2以上の人が双方向で話をする状況を含むものとする。したがって、いわゆるビジネス上の会議のみでなく、主婦や友人が話をしている状況も会議に含まれるものとする。また、会議には、セミナーや講演等のように、説明者が情報受領者に対して情報を提供する形式も含まれるものとする。
The video
The first video information is a video obtained by photographing a meeting scene. This meeting is, for example, a meeting for discussing the first video information.
This video may be a video taken in a video conference system or the like having a communication function, or may be a video simply taken of a meeting scene without using the communication function. In the former case, the video indicated by the first video information may include video of two or more conference scenes connected via a communication line, or only video of one of the conference scenes. It may be.
A meeting includes a situation where two or more people talk in two directions. Accordingly, not only so-called business meetings, but also situations where housewives and friends are talking are included in the meeting. In addition, it is assumed that the conference includes a format in which the presenter provides information to the information recipient, such as a seminar or lecture.
第1の映像情報は、映像の任意の時間的位置(例えば、任意のフレーム)を指定することができるように構成されていることが好ましい。例えば、第1の映像情報において、タイムコードを用いて映像の任意の時間的位置を指定することができてもよく、その映像の先頭からの経過時間を用いて映像の任意の時間的位置を指定することができてもよく、その他のフレームID等を用いて、映像の任意の時間的位置を指定することができてもよい。
ここで、タイムコードとは、時間、時刻情報を符号化した電気信号であり、例えば、1フレームの映像情報ごとに与えられる電気信号である。
また、第1の映像情報は、映像の時間的位置を示す情報を含んでいてもよく、そうでなくてもよい。映像の時間的位置を示す情報は、映像の時間的位置を指定することができるのであれば、例えば、映像の相対的な時間的位置を示すものであってもよく、あるいは、映像の絶対的な時間的位置を示すものであってもよい。
It is preferable that the first video information is configured so that an arbitrary temporal position (for example, an arbitrary frame) of the video can be designated. For example, in the first video information, it may be possible to specify an arbitrary temporal position of the video using a time code, and an arbitrary temporal position of the video may be specified using an elapsed time from the top of the video. It may be possible to designate, or other temporal ID of the video may be designated using other frame IDs or the like.
Here, the time code is an electric signal obtained by encoding time and time information, for example, an electric signal given for each frame of video information.
Further, the first video information may or may not include information indicating the temporal position of the video. The information indicating the temporal position of the video may indicate, for example, the relative temporal position of the video as long as the temporal position of the video can be specified, or the absolute position of the video. It may indicate a time position.
本実施形態では、第1の映像情報が、時間的位置を示す情報としてタイムコードを含んでいるものとする。この第1の映像情報は、音声情報を含んでいてもよく、あるいは、含んでいなくてもよい。また、第1の映像情報は、デジタルデータであってもよく、アナログデータであってもよい。 In the present embodiment, it is assumed that the first video information includes a time code as information indicating a temporal position. The first video information may or may not include audio information. Further, the first video information may be digital data or analog data.
映像情報記憶部11は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現される。映像情報記憶部11に第1の映像情報が記憶される過程は問わない。例えば、記録媒体を介して第1の映像情報が映像情報記憶部11で記憶されるようになってもよく、通信回線等を介して送信された第1の映像情報が映像情報記憶部11で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された第1の映像情報が映像情報記憶部11で記憶されるようになってもよい。映像情報記憶部11での記憶は、外部のストレージデバイス等から読み出した映像情報のRAM(Random Access Memory)等における一時的な記憶でもよく、あるいは、長期的な記憶でもよい。
The video
表示部12は、映像情報記憶部11で記憶されている第1の映像情報を表示する。なお、第1の映像情報に音声情報が含まれる場合には、表示部12は、第1の映像情報を表示すると共に、その音声情報を音声出力してもよい。また、表示部12は、表示を行う表示デバイス(例えば、CRT(Cathode Ray Tube:ブラウン管)や液晶ディスプレイなど)やスピーカを含んでもよく、あるいは含まなくてもよい。
The
本実施形態では、表示部12は、ディスプレイ18に第1の映像情報を表示するものとする。また、表示部12は、ハードウェアによって実現されてもよく、あるいは表示デバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
In the present embodiment, the
撮影部13は、表示部12が第1の映像情報を表示している会議の場面であり、第1の映像情報が表示された表示部12の表示領域を含む場面を撮影する。撮影部13は、例えば、映像を撮影するカメラであり、例えば、CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementry Metal Oxide Semiconductor:相補型金属酸化膜半導体)等のイメージセンサを用いて映像を撮影する。撮影部13が音声情報も取得する場合には、撮影部13は、例えば、マイクを含んでいてもよい。
The image capturing unit 13 captures a scene including a display area of the
映像情報受付部14は、撮影部13から第2の映像情報を受け付ける。ここで、第2の映像情報とは、表示部12が第1の映像情報を表示している会議の場面であり、第1の映像情報が表示された表示部12の表示領域を含む場面を撮影部13が撮影した映像を示す情報である。
第2の映像情報は、映像の任意の時間的位置(例えば、任意のフレーム)を指定することができるように構成されていることが好ましい。例えば、第2の映像情報において、タイムコードを用いて映像の任意の時間的位置を指定することができてもよく、その映像の先頭からの経過時間を用いて映像の任意の時間的位置を指定することができてもよく、その他のフレームID等を用いて、映像の任意の時間的位置を指定することができてもよい。
また、第2の映像情報は、映像の時間的位置を示す情報を含んでいてもよく、そうでなくてもよい。
The video
It is preferable that the second video information is configured so that an arbitrary temporal position (for example, an arbitrary frame) of the video can be designated. For example, in the second video information, it may be possible to specify an arbitrary temporal position of the video using a time code, and an arbitrary temporal position of the video may be specified using an elapsed time from the top of the video. It may be possible to designate, or other temporal ID of the video may be designated using other frame IDs or the like.
Further, the second video information may or may not include information indicating the temporal position of the video.
本実施形態では、第2の映像情報が、時間的位置を示す情報としてタイムコードを含んでいるものとする。この第2の映像情報は、音声情報を含んでいてもよく、あるいは、含んでいなくてもよい。その音声情報は、撮影部13のマイクで受音されたものであってもよく、あるいは、その他の図示しないマイクによって受音されたものであってもよい。また、第2の映像情報は、デジタルデータであってもよく、アナログデータであってもよい。 In the present embodiment, it is assumed that the second video information includes a time code as information indicating a temporal position. This second video information may or may not include audio information. The sound information may be received by a microphone of the photographing unit 13 or may be received by another microphone (not shown). The second video information may be digital data or analog data.
ここで、この受け付けは、例えば、有線もしくは無線の通信回線(例えば、インターネットやイントラネット、LANなどであってもよく、あるいは、IEEE1394のケーブルや、映像情報を伝送する専用のケーブル等であってもよい)を介して送信された情報の受信でもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)から読み出された情報の受け付けでもよい。 Here, this acceptance may be, for example, a wired or wireless communication line (for example, the Internet, an intranet, a LAN, or the like, or an IEEE 1394 cable, a dedicated cable for transmitting video information, or the like). Information received via a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be received.
本実施形態では、映像情報受付部14は、撮影部13が撮影した第2の映像情報を、通信回線を介して受け付けるものとする。なお、映像情報受付部14は、受け付けを行うためのデバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、映像情報受付部14は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
In the present embodiment, the video
映像情報蓄積部15は、映像情報受付部14が受け付けた第2の映像情報の少なくとも一部を所定の記録媒体に蓄積する。この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、映像情報蓄積部15が有していてもよく、あるいは映像情報蓄積部15の外部に存在してもよい。また、この記録媒体は、第2の映像情報を一時的に記憶するものであってもよく、そうでなくてもよい。
本実施形態では、映像情報蓄積部15は、映像情報受付部14が受け付けた第2の映像情報のすべてを蓄積する。
The video
In the present embodiment, the video
同期情報管理部16は、表示部12による第1の映像情報の表示時点と、その第1の映像情報が表示されている会議の場面の映像である第2の映像情報の撮影時点との同期を示す情報である同期情報を作成して蓄積する。この同期情報によって、第2の映像情報の所望の時間的位置の映像が撮影された時点において、その会議で表示されていた第1の映像情報の時間的位置を知ることができる。
ここで、同期情報は、厳密な意味において第1の映像情報の表示時点と、第2の映像情報の撮影時点との同期を示す情報でなくてもよい。例えば、第1の映像情報の表示時点と、第2の映像情報の蓄積時点との同期を示す情報であってもよい。第2の映像情報の撮影時点と、第2の映像情報の蓄積時点とはほぼ同時点であると考えられるからである。同期情報を作成することは、新たな情報を作成することであってもよく、あるいは、同期情報に含まれる情報を所定のメモリやレジスタ等から読み出したり、取得したりすることによって構成することであってもよい。
The synchronization
Here, the synchronization information may not be information indicating the synchronization between the display time of the first video information and the shooting time of the second video information in a strict sense. For example, it may be information indicating the synchronization between the display time of the first video information and the storage time of the second video information. This is because it is considered that the shooting time of the second video information and the storage time of the second video information are almost the same time. Creating the synchronization information may be creating new information, or by reading or acquiring information included in the synchronization information from a predetermined memory or register. There may be.
同期情報管理部16は、表示部12が表示する第1の映像情報の時間的位置を示す情報と、映像情報蓄積部15が蓄積する第2の映像情報の時間的位置を示す情報とを受け取り、その第1の映像情報の時間的位置を示す情報と、その第2の映像情報の時間的位置を示す情報とを用いて、同期情報を作成してもよい。
The synchronization
以下、この同期情報の具体例について説明する。この同期情報は、(1)第1の映像情報、及び第2の映像情報とは別個に構成される情報であってもよく、(2)第1の映像情報に含まれる情報であってもよく、(3)第2の映像情報に含まれる情報であってもよく、(4)第1の映像情報、及び第2の映像情報に含まれる情報であってもよい。 Hereinafter, a specific example of this synchronization information will be described. This synchronization information may be (1) information configured separately from the first video information and the second video information, or (2) may be information included in the first video information. It may be (3) information included in the second video information, or (4) information included in the first video information and the second video information.
(1)同期情報が第1の映像情報、及び第2の映像情報と別である場合
この場合には、同期情報は、例えば、第1の映像情報における映像の時間的位置を示す情報と、第2の映像情報における映像の時間的位置を示す情報とを対応付ける情報であってもよい。
具体的には、同期情報は、第1の映像情報のタイムコードと、第2の映像情報のタイムコードを対応付ける情報であってもよく、第1の映像情報の先頭からの時間と、第2の映像情報の先頭からの時間とを対応付ける情報であってもよく、その他の情報であってもよい。
(1) When the synchronization information is different from the first video information and the second video information In this case, the synchronization information includes, for example, information indicating the temporal position of the video in the first video information, It may be information that associates information indicating the temporal position of the video in the second video information.
Specifically, the synchronization information may be information associating the time code of the first video information with the time code of the second video information, the time from the head of the first video information, the second It may be information associating with the time from the beginning of the video information, or other information.
また、この同期情報は例えば、第1の映像情報と、第2の映像情報とのすべてのフレームをそれぞれ対応付ける情報であってもよく、第1の映像情報と、第2の映像情報との特定の1以上のフレーム(例えば、同期されている先頭の各フレーム)を対応付ける情報であってもよい。前者の場合には、第2の映像情報の撮影中に第1の映像情報が高速再生して表示された場合や、低速再生して表示された場合にも、第1の映像情報と第2の映像情報とを適切に同期させることができる。一方、後者の場合には、特定のフレーム以外は、第1の映像情報と第2の映像情報とが同じスピードで再生・録画されていることを前提としているが、同期情報のデータ量を削減することができる。 In addition, the synchronization information may be, for example, information that associates all the frames of the first video information and the second video information, and specifies the first video information and the second video information. May be information that associates one or more frames (for example, each synchronized first frame). In the former case, the first video information and the second video information are also displayed when the first video information is displayed while being played back at a high speed during the shooting of the second video information. It is possible to properly synchronize the video information. On the other hand, in the latter case, it is assumed that the first video information and the second video information are played and recorded at the same speed except for a specific frame, but the data amount of the synchronization information is reduced. can do.
本実施形態では、この場合のように、同期情報管理部16が、第1の映像情報のタイムコードと、第2の映像情報のタイムコードとを対応付ける同期情報を作成するものとする。
(1)の場合には、同期情報は、同期情報管理部16、あるいは、その他の構成要素が有する所定の記録媒体に蓄積される。この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等である。また、この記録媒体は、同期情報を一時的に記憶するものであってもよく、そうでなくてもよい。
In this embodiment, as in this case, the synchronization
In the case of (1), the synchronization information is stored in a predetermined recording medium included in the synchronization
(2)同期情報が第1の映像情報に含まれる場合
この場合には、同期情報は、例えば、第2の映像情報における映像の時間的位置を示す情報であり、その情報が、第1の映像情報における対応するフレームに含まれてもよい。このような場合には、第1の映像情報が再生されている際に、その同期情報が第1の映像情報に追記されることになる。
この同期情報も、第1の映像情報と、第2の映像情報とのすべてのフレームをそれぞれ対応付ける情報であってもよく、第1の映像情報と、第2の映像情報との特定の1以上のフレーム(例えば、同期されている先頭の各フレーム)を対応付ける情報であってもよい。
(2) When the synchronization information is included in the first video information In this case, the synchronization information is, for example, information indicating the temporal position of the video in the second video information, and the information is the first video information. It may be included in the corresponding frame in the video information. In such a case, when the first video information is being reproduced, the synchronization information is added to the first video information.
This synchronization information may also be information for associating all the frames of the first video information and the second video information, and one or more specific ones of the first video information and the second video information. (For example, each synchronized first frame) may be information.
(3)同期情報が第2の映像情報に含まれる場合
上記(2)の場合とは逆に、同期情報は、例えば、第1の映像情報における映像の時間的位置を示す情報であり、その情報が、第2の映像情報における対応するフレームに含まれてもよい。このような場合には、第2の映像情報が蓄積される際に、その同期情報を含む第2の映像情報が蓄積されることになる。
この同期情報も、第1の映像情報と、第2の映像情報とのすべてのフレームをそれぞれ対応付ける情報であってもよく、第1の映像情報と、第2の映像情報との特定の1以上のフレーム(例えば、同期されている先頭の各フレーム)を対応付ける情報であってもよい。
(3) When the synchronization information is included in the second video information Contrary to the case of (2) above, the synchronization information is information indicating the temporal position of the video in the first video information, for example. Information may be included in a corresponding frame in the second video information. In such a case, when the second video information is stored, the second video information including the synchronization information is stored.
This synchronization information may also be information for associating all the frames of the first video information and the second video information, and one or more specific ones of the first video information and the second video information. (For example, each synchronized first frame) may be information.
(4)同期情報が第1の映像情報、及び第2の映像情報に含まれる場合
この場合には、同期情報は、例えば、第1の映像情報と、第2の映像情報とを対応付けるための情報であり、その同期情報が、それぞれ対応する、第1の映像情報のフレームと、第2の映像情報のフレームとに含まれてもよい。したがって、第1の映像情報、及び第2の映像情報において、同じ同期情報を含むフレームが、同期するフレームとなる。
この同期情報も、第1の映像情報と、第2の映像情報とのすべてのフレームをそれぞれ対応付ける情報であってもよく、第1の映像情報と、第2の映像情報との特定の1以上のフレーム(例えば、同期されている先頭の各フレーム)を対応付ける情報であってもよい。
(4) When the synchronization information is included in the first video information and the second video information In this case, the synchronization information is, for example, for associating the first video information with the second video information. Information, and the synchronization information may be included in the corresponding first video information frame and second video information frame, respectively. Therefore, in the first video information and the second video information, a frame including the same synchronization information is a synchronized frame.
This synchronization information may also be information for associating all the frames of the first video information and the second video information, and one or more specific ones of the first video information and the second video information. (For example, each synchronized first frame) may be information.
同期情報が、第2の映像情報に含まれる場合には、同期情報管理部16の有する同期情報を蓄積する機能と、映像情報蓄積部15の有する第2の映像情報を蓄積する機能とは、一体として構成されてもよく、あるいは、別々に構成されていてもよい。また、同期情報が第1の映像情報に含まれる場合には、同期情報管理部16は、映像情報記憶部11で記憶されている第1の映像情報に同期情報を追記するものとする。
When the synchronization information is included in the second video information, the function of storing the synchronization information of the synchronization
情報合成部17は、映像情報記憶部11で記憶されている第1の映像情報と、映像情報蓄積部15が蓄積した第2の映像情報とを、同期情報管理部16が蓄積した同期情報を用いて同期させ、第2の映像情報における表示部12の表示領域に第1の映像情報を合成した映像を示す情報である合成映像情報を出力する。
The
ここで、合成映像情報の作成について説明する。まず、情報合成部17は、第2の映像情報における第1の映像情報の表示領域を検出する。そして、情報合成部17は、その検出した表示領域に、その第2の映像情報に同期する第1の映像情報を合成する。
第2の映像情報における第1の映像情報の表示領域の検出は、例えば、次のようにして行うことができる。
情報合成部17は、図2に示すように、第2の映像情報のフレームと同期する第1の映像情報のフレームを用いて、第2の映像情報のフレームにおいて、その第1の映像情報のフレームと一致する領域をパターンマッチング等の技術を用いて検出することにより、表示領域を検出してもよい。
Here, creation of composite video information will be described. First, the
The display area of the first video information in the second video information can be detected as follows, for example.
As shown in FIG. 2, the
また、情報合成部17は、図3に示すようにユーザ等が入力デバイスで入力した表示領域の指定を受け付け、その指定された表示領域を検出してもよい。会議では一般に人があまり移勤しないため、その会議を撮影する場合には、表示領域の位置があまり変化しないと考えられ、このような方法も有効である。
また、第1の映像情報が表示されるディスプレイ18等の枠やその枠のコーナーの4点を、情報合成部17が検出することによって、その枠の内部の領域である表示領域を検出してもよい。ディスプレイ18等の枠やその枠のコーナーの4点を検出することができるように、ディスプレイ18等の枠や、その枠のコーナーの4点には、所定の色や、模様、マーカ等が配置されていてもよい。その所定の色は、会議の場面で一般に使われないような色であることが好ましい。マーカは、例えば、モーションキャプチャ等で用いられる光学式のマーカ等であってもよい。また、この表示領域の検出の方法は、これらの方法に限定されるものではなく、その他の方法であってもよい。
Further, as shown in FIG. 3, the
In addition, the
第2の映像情報において検出された第1の映像情報の表示領域への第1の映像情報の合成は、例えば、次のようにして行うことができる。
情報合成部17は、第1の映像情報を、第2の映像情報における検出された表示領域の大きさとなるように変形する。例えば、その表示領域の方が小さい場合には、第1の映像情報を縮小すると共に、第2の映像情報と同じ解像度になるようにする。
また、第2の映像情報において、第1の映像情報が正面から撮られているのではなく、斜めに撮られている場合には、表示領域が厳密な矩形ではなく、菱形や台形等になる。その場合には、情報合成部17は、第1の映像情報が、その検出された表示領域の形状に合うように、第1の映像情報を変形するものとする。
The synthesis of the first video information to the display area of the first video information detected in the second video information can be performed as follows, for example.
The
In addition, in the second video information, when the first video information is not taken from the front but is taken obliquely, the display area is not a strict rectangle but a rhombus, a trapezoid, or the like. . In that case, the
第2の映像情報に第1の映像情報を合成する場合に、その合成は、レイヤの合成として行われてもよい。その場合には、合成映像情報に第2の映像情報のレイヤも含まれるため、合成映像情報を用いて合成後の映像情報のみでなく、第2の映像情報のみも見ることができる。 When the first video information is synthesized with the second video information, the synthesis may be performed as layer synthesis. In that case, since the layer of the second video information is included in the synthesized video information, not only the synthesized video information but also the second video information can be viewed using the synthesized video information.
なお、第1の映像情報と第2の映像情報との少なくとも一方に音声情報が含まれる場合には、情報合成部17は、音声情報を含む合成映像情報を出力してもよい。その場合に、合成映像情報に含まれる音声情報は、第1の映像情報の音声情報であってもよく、第2の映像情報に含まれる音声情報であってもよく、両方の音声情報であってもよい。
ここで、この出力は、例えば、表示デバイス(例えば、CRTや液晶ディスプレイなど)への表示やスピーカヘの音声出力でもよく、所定の機器への通信回線を介した送信でもよく、記録媒体への蓄積でもよい。なお、情報合成部17は、出力を行うデバイス(例えば、表示デバイスや通信デバイスなど)やスピーカを含んでもよく、あるいは含まなくてもよい。
When audio information is included in at least one of the first video information and the second video information, the
Here, this output may be, for example, display on a display device (for example, a CRT or a liquid crystal display), audio output to a speaker, transmission via a communication line to a predetermined device, or accumulation in a recording medium. But you can. The
本実施形態では、情報合成部17は、ディスプレイ19に合成映像情報を表示するものとする。また、情報合成部17は、ハードウェアによって実現されてもよく、あるいは、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
また、映像情報記憶部11と、映像情報蓄積部15が第2の映像情報を蓄積する記録媒体とは、同じ記録媒体であってもよく、別々の記録媒体であってもよい。前者の場合には、例えば、第1の映像情報が記憶されている領域が映像情報記憶部11となる。
In the present embodiment, the
Further, the video
次に、本実施形態による映像会議システムの動作について、図4のフローチャートを用いて説明する。なお、本実施形態による映像会議システムの動作は、図4のフローチャートで示されるものに限定されず、本発明の要旨を変更しない範囲において変更可能であることはいうまでもない。 Next, the operation of the video conference system according to the present embodiment will be described with reference to the flowchart of FIG. Note that the operation of the video conference system according to the present embodiment is not limited to that shown in the flowchart of FIG.
(ステップS101)表示部12は、第1の映像情報を表示する会議が開始されるかどうか判断する。例えば、第1の映像情報を表示する旨の指示が入力された場合に、表示部12は、第1の映像情報を表示する会議が開始されると判断してもよい。そして、会議が開始される場合には、ステップS102に進み、そうでない場合には、ステップS103に進む。
(Step S101) The
(ステップS102)表示部12等は、第1の映像情報の表示や、第2の映像情報の蓄積、同期情報の作成、蓄積等を行う。そして、ステップS101に戻る。
このステップS102の処理の詳細については、図5のフローチャートを用いて後述する。
(Step S102) The
Details of the processing in step S102 will be described later with reference to the flowchart of FIG.
(ステップS103)情報合成部17は、第2の映像情報を表示するかどうか判断する。例えば、第2の映像情報を表示する旨の指示が入力された場合に、第2の映像情報を表示すると判断してもよい。そして、第2の映像情報を表示する場合には、ステップS104に進み、そうでない場合には、ステップS101に戻る。
(Step S103) The
(ステップS104)情報合成部17は、同期情報を用いて、第2の映像情報に第1の映像情報を合成し、その合成後の合成映像情報をディスプレイ19に表示する。そして、ステップS101に戻る。このステップS104の処理の詳細については、図6のフローチャートを用いて後述する。
なお、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。また、ステップS101の判断を表示部12が行う場合について説明したが、ステップS101の判断は、他の構成要素によって行われてもよい。
(Step S104) The
In the flowchart of FIG. 4, the process ends when the power is turned off or the process ends. Moreover, although the case where the
図5は、図4のフローチャートにおけるステップS102の処理の詳細を示すフローチャートである。
(ステップS201)表示部12は、カウンタiを1に設定する。
(ステップS202)表示部12は、映像情報記憶部11で記憶されている第1の映像情報においてi番目のフレームが存在するかどうか判断する。そして、存在する場合には、ステップS203に進み、そうでない場合には、図4のフローチャートに戻る。
FIG. 5 is a flowchart showing details of the process in step S102 in the flowchart of FIG.
(Step S201) The
(Step S202) The
(ステップS203)表示部12は、第1の映像情報のi番目のフレームを映像情報記憶部11から読み出す。
(ステップS204)表示部12は、その第1の映像情報のi番目のフレームを、ディスプレイ18に表示する。なお、第1の映像情報に音声情報が含まれる場合には、表示部12は、その音声情報を音声出力するものとする。
(Step S <b> 203) The
(Step S204) The
(ステップS205)同期情報管理部16は、表示部12が表示したi番目のフレームに対応するタイムコードを取得する。そして、同期情報管理部16は、その取得したタイムコードを図示しない記録媒体において一時的に保持しておく。
(ステップS206)映像情報受付部14は、撮影部13が撮影した第2の映像情報のフレームを受け付ける。この第2の映像情報には、音声情報が含まれていてもよい。
(ステップS207)映像情報蓄積部15は、映像情報受付部14が受け付けた第2の映像情報のフレームを所定の記録媒体に蓄積する。
(Step S205) The synchronization
(Step S206) The video
(Step S207) The video
(ステップS208)同期情報管理部16は、映像情報蓄積部15が蓄積した第2の映像情報のフレームに対応するタイムコードを取得する。そして、同期情報管理部16は、その取得したタイムコードを図示しない記録媒体において一時的に保持しておく。
(ステップS209)同期情報管理部16は、ステップS205と、ステップS208とにおいて、一時的に保持した第1の映像情報のタイムコードと、第2の映像情報のタイムコードとを対応付ける情報である同期情報を作成する。
(ステップS210)同期情報管理部16は、その作成した同期情報を、所定の記録媒体に蓄積する。
(ステップS211)表示部12は、カウンクiを1だけインクリメントする。
そして、ステップS202に戻る。
(Step S208) The synchronization
(Step S209) The synchronization
(Step S210) The synchronization
(Step S211) The
Then, the process returns to step S202.
図6は、図4のフローチャートにおけるステップS104の処理の詳細を示すフローチャートである。
(ステップS301)情報合成部17は、カウンタjを1に設定する。
(ステップS302)情報合成部17は、映像情報蓄積部15が蓄積した第2の映像情報において、j番目のフレームが存在するかどうか判断する。そして、存在する場合には、ステップS303に進み、そうでない場合には、図4のフローチャートに戻る。
FIG. 6 is a flowchart showing details of the process of step S104 in the flowchart of FIG.
(Step S301) The
(Step S <b> 302) The
(ステップS303)情報合成部17は、映像情報蓄積部15が蓄積した第2の映像情報におけるj番目のフレームを読み出す。
(ステッブS304)情報合成部17は、その読み出したj番目のフレームに対応するタイムコードを取得する。
(ステップS305)情報合成部17は、同期情報管理部16が蓄積した同期情報を用いて、第2の映像情報におけるj番目のフレームのタイムコードに対応する第1の映像情報におけるタイムコードを取得する。
(Step S303) The
(Step S304) The
(Step S305) The
(ステップS306)情報合成部17は、その取得した第1の映像情報におけるタイムコードを用いて、映像情報記憶部11から、そのタイムコードに対応する第1の映像情報のフレームを読み出す。
(ステップS307)情報合成部17は、第2の映像情報のj番目のフレームにおいて、第1の映像情報を表示している表示部12の表示領域を検出する。
(ステップS308)情報合成部17は、検出した表示領域に、読み出した第1の映像情報のフレームを合成する。このようにして、合成映像情報のフレームが作られることになる。
(Step S306) The
(Step S307) The
(Step S308) The
(ステップS309)情報合成部17は、合成映像情報を出力する。
(ステップS310)情報合成部17は、カウンタjを1だけインクリメントする。そして、ステップS302に戻る。
(Step S309) The
(Step S310) The
次に、本実施形態による映像会議システムの動作について、具体例を用いて説明する。
この具体例において、映像情報記憶部11では、図7で示される第1の映像情報が記憶されているものとする。この第1の映像情報では、タイムコード「1:00:00:00」等が、先頭のフレームから順に割り当てられているものとする。
Next, the operation of the video conference system according to the present embodiment will be described using a specific example.
In this specific example, it is assumed that the video
まず、第2の映像情報と、同期情報とが蓄積される処理について説明する。
ユーザが、映像会議システムに接続されている所定の入力デバイスを操作して、会議を始める旨の指示を入力したとする。すると、表示部12は、会議が開始されると判断する(ステップS101)。
そして、まず、同期情報管理部16は、同期情報において、第1の映像情報を識別する映像IDと、第2の映像情報を識別する映像IDとを対応付けて蓄積する。第1の映像情報の映像IDは、「V001」であり、第2の映像情報の映像IDは、「V002」であったとする。
First, the process in which the second video information and the synchronization information are accumulated will be described.
Assume that the user operates a predetermined input device connected to the video conference system and inputs an instruction to start a conference. Then, the
First, the synchronization
その後、映像情報記憶部11で記憶されている、映像ID「V001」で識別される第1の映像情報の1番目のフレームを読み出して、ディスプレイ18に表示する(ステップS201〜S204)。
また、表示部12は、タイムコード「1:00:00:00」を含む第1の映像情報の1番目のフレームを同期情報管理部に渡す。このようにして、同期情報管理部16は、第1の映像情報の1番目のフレームから、そのフレームに対応するタイムコードを取得する(ステップS205)。
撮影部13は、会議の場面を撮影し、その撮影した第2の映像情報を映像情報受付部14に渡す。映像情報受付部14は、その第2の映像情報のフレームを受け付け、映像情報蓄積部15に渡す(ステップS206)。
Thereafter, the first frame of the first video information identified by the video ID “V001” stored in the video
In addition, the
The photographing unit 13 photographs a meeting scene and passes the photographed second video information to the video
映像情報蓄積部15は、その第2の映像情報のフレ−ムを、映像ID「V002」で識別される第2の映像情報として、所定の記録媒体に蓄積する(ステップS207)。
また、映像情報蓄積部15は、タイムコードを含む、その蓄積した第2の映像情報のフレームを同期情報管理部16に渡す。
このようにして、同期情報管理部16は、その第2の映像情報のフレームから、そのフレームに対応するタイムコードを取得する(ステップS208)。ここで、そのタイムコードは、「0:15:00:00」であったとする。
同期情報管理部16は、表示された第1の映像情報のタイムコードと、撮影された第2の映像情報のタイムコードとを対応付ける同期情報を作成し(ステップS209)、所定の記録媒体に蓄積する(ステップS210)。
The video
In addition, the video
In this way, the synchronization
The synchronization
このようにして蓄積された同期情報は、図8で示される同期情報におけるタイムコードの1番目のレコードである。なお、図8において、第1の映像情報の映像ID「V001」と、第2の映像情報の映像ID「V002」とが対応付けられている。
このようにして、第1の映像情報のフレームがなくなるまで、第2の映像情報の蓄積と、同期情報の蓄積とが繰り返して行われることになる(ステップS202〜S211)。
The synchronization information accumulated in this way is the first record of the time code in the synchronization information shown in FIG. In FIG. 8, the video ID “V001” of the first video information and the video ID “V002” of the second video information are associated with each other.
In this manner, the second video information and the synchronization information are repeatedly stored until there is no first video information frame (steps S202 to S211).
その結果、映像情報蓄積部15が蓄積した第2の映像情報は、図9で示されるようになる。この第2の映像情報では、タイムコード「00:15:00:00」等が、先頭のフレームから順に割り当てられている。また、同期情報管理部16が蓄積した同期情報は、図8で示されるようになる。
なお、図5のフローチャートでは、第1の映像情報のフレームがなくなるまで、第2の映像情報の蓄積と、同期情報の蓄積とが繰り返される場合について示しているが、第2の映像情報の蓄積を終了する指示が受け付けられたことに応じて、第1の映像情報のフレームがなくなったかどうかに関わらず、第2の映像情報の蓄積と、同期情報の蓄積とが終了されるようにしてもよい。
As a result, the second video information stored in the video
Note that the flowchart of FIG. 5 shows a case where the accumulation of the second video information and the accumulation of the synchronization information are repeated until there is no frame of the first video information, but the second video information is accumulated. In response to the reception of the instruction to end the second video information, the second video information storage and the synchronization information storage are ended regardless of whether or not the first video information frame is lost. Good.
次に、第2の映像情報に第1の映像情報が同期情報を用いて合成された映像情報である合成映像情報が表示される処理について説明する。ユーザが、映像会議システムに接続されている所定の入力デバイスを操作して、映像ID「V002」に対応する第2の映像情報の表示を開始する旨の指示を入力したとする。すると、情報合成部17は、合成映像情報の表示を開始すると判断する(ステップS103)。
そして、まず、情報合成部17は、映像ID「V002」に対応する、図9で示される第2の映像情報の1番目のフレームを読み出し(ステップS301〜S303)、その1番目のフレームに対応するタイムコード「00:15:00:00」を取得する(ステップS304)。
Next, a process for displaying composite video information, which is video information obtained by combining the first video information with the second video information using the synchronization information, will be described. It is assumed that the user operates a predetermined input device connected to the video conference system and inputs an instruction to start displaying the second video information corresponding to the video ID “V002”. Then, the
First, the
情報合成部17は、図8で示される同期情報を参照し、その取得した第2の映像情報(映像ID:V002)のタイムコード「00:15:00:00」をキーとして検索を行い、その第2の映像情報のタイムコード「00:15:00:00」に対応する第1の映像情報(映像ID:V001)のタイムコード「1:00:00:00」を取得する(ステップS305)。
そして、情報合成部17は、映像情報記憶部11で記憶されている、図7で示される第1の映像情報から、そのタイムコード「1:00:00:00」に対応するフレームを読み出す(ステップS306)。
The
Then, the
その後、情報合成部17は、第2の映像情報の1番目のフレームにおいて、第1の映像情報が表示されている表示領域を検出する(ステップS307)。
そして、情報合成部17は、その検出した表示領域に、読み出した第1の映像情報のプレ−ムを合成する(ステップS308)。
この合成において、第2の映像情報の解像度に合うように、合成する第1の映像情報の解像度を変更してもよい。また、第2の映像情報の1番目のフレームにおいて表示されている第1の映像情報が、真正面の向きでなく、斜めの向きである場合には、その向きに合うように第1の映像情報を変形してもよい。
Thereafter, the
Then, the
In this synthesis, the resolution of the first video information to be synthesized may be changed so as to match the resolution of the second video information. In addition, when the first video information displayed in the first frame of the second video information is not in the frontal direction but in an oblique direction, the first video information is matched to the direction. May be modified.
情報合成部17は、第1の映像情報のフレームを第2の映像情報のフレームに合成した合成映像情報のフレームを出力する(ステップS309)。
このようにして、策2の映像情報のフレームがなくなるまで、互いに同期している第1の映像情報のフレームと第2の映像情報のフレームとの合成と、合成映像情報の出力とが繰り返して行われることになる(ステップS302〜310)。
The
In this way, until the frame of the video information of the measure 2 disappears, the synthesis of the first video information frame and the second video information frame synchronized with each other and the output of the synthesized video information are repeated. This is to be performed (steps S302 to S310).
図10、図11は、第2の映像情報のフレームと、情報合成部17が出力した合成映像情報のフレームとの比較するための図である。図10は、第2の映像情報のフレームを示す図であり、図11は、合成映像情報のフレームを示す図である。
図10で示されるように、ディスプレイ18に表示された第1の映像情報を撮影した第2の映像情報のフレームでは、第1の映像情報の表示は、ぼんやりとしたものになってしまい、はっきりとはしていない。
一方、図11で示されるように、情報合成部17が出力した合成映像情報では、第2の映像情報のフレームにおける第1の映像情報の表示領域が、第1の映像情報に置き換えられているため、第1の映像情報の表示もクリヤになっている。
FIGS. 10 and 11 are diagrams for comparing the second video information frame and the synthesized video information frame output by the
As shown in FIG. 10, in the frame of the second video information obtained by photographing the first video information displayed on the
On the other hand, as shown in FIG. 11, in the synthesized video information output from the
なお、図6のフローチャートでは、第2の映像情報のフレームがなくなるまで、合成映像情報のフレームの出力が繰り返される場合について示しているが、その表示を終了する指示が受け付けられたことに応じて、第2の映像情報のフレームがなくなったかどうかに関わらず、第1の映像情報のフレームと、第2の映像情報のフレームの表示が終了されるようにしてもよい。
また、この具体例では、音声の出力については説明しなかったが、前述のように、映像情報に音声情報が含まれる場合には、表示部12、及び情報合成部17は、音声情報の出力を行ってもよい。その場合に、情報合成部17は、第1の映像情報の音声情報を出力してもよく、第2の映像情報の音声情報を出力してもよく、両方を出力してもよい。
Note that the flowchart of FIG. 6 shows the case where the output of the composite video information frame is repeated until there is no second video information frame, but in response to the reception of an instruction to end the display. The display of the first video information frame and the second video information frame may be terminated regardless of whether or not the second video information frame disappears.
Further, in this specific example, the output of audio has not been described. However, as described above, when the audio information is included in the video information, the
また、前述のように、同期情報は、第1の映像情報に含まれていてもよい。例えば、図12で示されるように、第1の映像情報の各フレームに同期情報が含まれてもよい。
図12では、第1の映像情報のタイムコード「1:00:00:00」のフレームに、映像ID「V002」のタイムコード「0:15:00:00」と、映像ID「V003」のタイムコード「0:30:00:00」とが同期情報として含まれている。この同期情報により、第1の映像情報のタイムコード「1:00:00:00」のフレームに、映像ID「V002」で識別される第2の映像情報のタイムコード「0:15:00:00」のフレームと、映像ID「V003」で識別される第2の映像情報のタイムコード「0:30:00:00」のフレームとが同期していることが示される。この同期情報は、この第1の映像情報が会議において表示される際に、第1の映像情報に追記されてもよい。
Further, as described above, the synchronization information may be included in the first video information. For example, as shown in FIG. 12, the synchronization information may be included in each frame of the first video information.
In FIG. 12, the time code “0:15:00” of the video ID “V002” and the video ID “V003” are included in the frame of the time code “10: 00: 00: 00” of the first video information. The time code “0: 30: 00: 00” is included as synchronization information. With this synchronization information, the time code “0:15:00: of the second video information identified by the video ID“ V002 ”is added to the frame of the time code“ 10: 00: 00: 00 ”of the first video information. It is indicated that the frame of “00” and the frame of the time code “0: 30: 00: 00” of the second video information identified by the video ID “V003” are synchronized. This synchronization information may be added to the first video information when the first video information is displayed in the conference.
また、図12で示されるように、同期情報は、1個の第1の映像情報と、2個以上の第2の映像情報(図12では、映像ID「V002」で識別される映像情報と、映像ID「V003」で識別される映像情報との2個の映像情報)とを対応付ける情報であってもよい。そのような場合であっても、同期情報を用いることにより、第2の映像情報の任意のフレームに対応する第1の映像情報のフレームを特定することができるからである。なお、1個の第1の映像情報に、2個以上の第2の映像情報が同期する状況としては、例えば、第1の映像情報が2回以上表示され、その第1の映像情報が表示された2回以上の会議の場面が、2個以上の第2の映像情報として撮影された状況かありうる。 Also, as shown in FIG. 12, the synchronization information includes one first video information and two or more second video information (video information identified by video ID “V002” in FIG. 12). , Two pieces of video information with the video information identified by the video ID “V003”) may be associated with each other. This is because even in such a case, the frame of the first video information corresponding to an arbitrary frame of the second video information can be specified by using the synchronization information. As a situation in which two or more pieces of second video information are synchronized with one piece of first video information, for example, the first video information is displayed twice or more, and the first video information is displayed. It is possible that the scenes of two or more meetings that have been taken are photographed as two or more pieces of second video information.
また、前述のように、同期情報は、第2の映像情報に含まれていてもよい。例えば、図13で示されるように、第2の映像情報の各フレームに同期情報が含まれてもよい。図13では、第2の映像情報のタイムコード「0:15:00:00」のフレームに、映像ID「V001」のタイムコード「1:00:00:00」が同期情報として含まれている。この同期情報により、第2の映像情報のタイムコード「0:15:00:00」のフレームと、映像ID「V001」で識別される第1の映像情報のタイムコード「1:00:00:00」のフレームとが同期していることが示される。この同期情報は、この第2の映像情報が蓄積される際に、第2の映像情報に記録されてもよい。 Further, as described above, the synchronization information may be included in the second video information. For example, as shown in FIG. 13, the synchronization information may be included in each frame of the second video information. In FIG. 13, the time code “00:00:00” of the video ID “V001” is included as synchronization information in the frame of the time code “0: 15: 00: 00” of the second video information. . With this synchronization information, the frame of the second video information time code “0: 15: 00: 00” and the first video information time code “1: 00: 00: 00” identified by the video ID “V001”. It is shown that the frame of “00” is synchronized. This synchronization information may be recorded in the second video information when the second video information is accumulated.
また、前述のように、同期情報は、第1の映像情報と第2の映像情報とに含まれていてもよい。例えば、図14、図15で示されるように、第1の映像情報の各フレームと、第2の映像情報の各フレームとに同期情報が含まれていてもよい。
図14、図15では、第1の映像情報のタイムコード「1:00:00:00」のフレームに同期情報「syn001−001」が含まれており、第2の映像情報のタイムコード「0:15:00:00」のフレームに同期情報「syn001−001」が含まれていることによって、その両者のフレームが同期していることが示されている。この同期情報は、第1の映像情報が会議において表示される際に第1の映像情報に追記され、第2の映像情報が蓄積される際に第2の映像情報に記録されてもよい。
Further, as described above, the synchronization information may be included in the first video information and the second video information. For example, as shown in FIGS. 14 and 15, the synchronization information may be included in each frame of the first video information and each frame of the second video information.
In FIG. 14 and FIG. 15, the synchronization information “syn001-001” is included in the frame of the time code “10: 00: 00: 00” of the first video information, and the time code “0” of the second video information. : 15:00: 00 includes synchronization information “syn001-001”, which indicates that both frames are synchronized. This synchronization information may be added to the first video information when the first video information is displayed in the conference, and may be recorded in the second video information when the second video information is accumulated.
以上のように、本実施形態による映像会議システムによれば、過去の会議の映像の表示時点と、その過去の会議を見ながら行われた会議の映像の撮影時点とを同期させることができ、両映像を合成させた合成映像情報を出力することができる。その結果、過去の会議を見ながら行われた会議の内容を、より適切に理解することができるようになる。 As described above, according to the video conference system according to the present embodiment, it is possible to synchronize the display time of the video of the past conference and the shooting time of the video of the conference held while watching the past conference, It is possible to output composite video information obtained by combining both videos. As a result, it becomes possible to more appropriately understand the contents of the meetings held while looking at past meetings.
(第2の実施形態)
以下、本発明の第2の実施形態による映像会議システム(映像システム)について、図面を参照しながら説明する。
本実施形態では、第1の実施形態による情報合成部17で行っていた表示領域の検出を映像情報蓄積部25で行う。一方、情報合成部27は、この検出を行わず、映像情報蓄積部25の検出結果を用いて映像情報を合成する。
(Second Embodiment)
Hereinafter, a video conference system (video system) according to a second embodiment of the present invention will be described with reference to the drawings.
In the present embodiment, the video
図16は、本実施形態による映像会議システムの構成を示す図である。本実施形態(図16)と第1の実施形態(図1)とを比較すると、映像情報蓄積部25と情報合成部27とが異なる。しかし、他の構成要素(映像情報記憶部11、表示部12、撮影部13、映像情報受付部14、同期情報管理部16、ディスプレイ18、及びディスプレイ19)が持つ機能は第1の実施形態と同じであるので、第1の実施形態と同じ機能の説明は省略する。
FIG. 16 is a diagram showing the configuration of the video conference system according to the present embodiment. When this embodiment (FIG. 16) is compared with the first embodiment (FIG. 1), the video
映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報における第1の映像情報の表示領域を検出する。
映像情報蓄積部25は、第2の映像情報における第1の映像情報の表示領域の検出を、第1の実施形態による情報合成部17と同様にして行う。例えば、映像情報蓄積部25は、パターンマッチング等の技術を用いた検出、又は、ユーザ等が入力デバイスで入力した表示領域の指定を受け付け、その指定された表示領域を検出により、第1の映像情報の表示領域を検出する。また、この表示領域の検出の方法は、これらの方法に限定されるものではなく、その他の方法であってもよい。
The video
The video
映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報と、検出した第1の映像情報の表示領域の情報とを所定の記憶媒体に記憶してもよく、あるいは、映像情報受付部14が受け付けた第2の映像情報のうち、検出した第1の映像情報の表示領域を除いた第2の映像情報を蓄積してもよい。ここで、表示領域を除くとは、例えば、この表示領域の映像情報を予め決められた特定の値とすることである。
なお、この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、映像情報蓄積部25が有していてもよく、あるいは映像情報蓄積部25の外部に存在してもよい。また、この記録媒体は、第2の映像情報を一時的に記憶するものであってもよく、そうでなくてもよい。
The video
Note that this recording medium is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like, and may be included in the video
図17は、本実施形態における映像情報の一例について説明するための図である。
図17(a)は、映像情報蓄積部25が、映像情報受付部14が受け付けた第2の映像情報のうち、検出した第1の映像情報の表示領域を除いた第2の映像情報である。また、図17(b)、(c)は、それぞれ、映像情報受付部14が受け付けた第2の映像情報、検出した第1の映像情報の表示領域の情報である。
映像情報蓄積部25は、図17(a)に示した映像情報のみを記憶してもよいし、図17(b)と(c)とを記憶してもよい。
FIG. 17 is a diagram for describing an example of video information in the present embodiment.
FIG. 17A shows second video information excluding the display area of the detected first video information from the second video information received by the video
The video
本実施形態では、映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報から、検出した第1の映像情報の表示領域を除いた第2の映像情報を蓄積する(図17(a))。つまり、映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報のうち、第1の映像情報の表示領域を除く映像情報を蓄積する。
この第1の映像情報の表示領域を除いた第2の映像情報は、音声情報を含んでいてもよく、あるいは、含んでいなくてもよい。また、映像情報は、デジタルデータであってもよく、アナログデータであってもよい。
In the present embodiment, the video
The second video information excluding the first video information display area may or may not include audio information. The video information may be digital data or analog data.
情報合成部27は、映像情報記憶部11で記憶されている第1の映像情報と、第2の映像情報の少なくとも一部とを、同期情報管理部16が蓄積した同期情報を用いて同期させ、第2の映像情報における表示部12の表示領域に第1の映像情報を合成した映像を示す情報である合成映像情報を出力する。
ここで、情報合成部27は、第2の映像情報における第1の映像情報が除かれている領域を検出して第1の映像情報を合成する。例えば、情報合成部27は、映像情報蓄積部25が映像情報を予め決められた特定の値とした表示領域を検出する。
The
Here, the
なお、映像情報蓄積部25が、映像情報受付部14が受け付けた第2の映像情報と、検出した第1の映像情報の表示領域の情報とを蓄積した場合、情報合成部27は、この第1の映像情報の表示領域の情報を取得して、この表示領域に第1の映像情報を合成する。
When the video
情報合成部27は、第2の映像情報における第1の映像情報の合成を、第1の実施形態による情報合成部17と同様にして行う。例えば、情報合成部27は、第1の映像情報を、第2の映像情報における検出された表示領域の大きさとなるように変形する。
なお、第1の映像情報と第2の映像情報との少なくとも一方に音声情報が含まれる場合には、情報合成部27は、音声情報を含む合成映像情報を出力してもよい。その場合に、合成映像情報に含まれる音声情報は、第1の映像情報の音声情報であってもよく、第2の映像情報に含まれる音声情報であってもよく、両方の音声情報であってもよい。
The
In addition, when audio information is included in at least one of the first video information and the second video information, the
本実施形態では、情報合成部27は、ディスプレイ19に合成映像情報を表示するものとする。また、情報合成部17は、ハードウェアによって実現されてもよく、あるいは、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
In the present embodiment, the
次に、本実施形態による映像会議システムの動作について、図18のフローチャートを用いて説明する。なお、本実施形態による映像会議システムの動作は、図18のフローチャートで示されるものに限定されず、本発明の要旨を変更しない範囲において変更可能であることはいうまでもない。
本実施形態(図18)と第1の実施形態(図4)とを比較すると、ステップS402とステップS404が異なる。しかし、他の動作(S101、S103)は第1の実施形態と同じであるので、第1の実施形態と同じ動作の説明は省略する。
Next, the operation of the video conference system according to the present embodiment will be described with reference to the flowchart of FIG. Note that the operation of the video conference system according to the present embodiment is not limited to that shown in the flowchart of FIG. 18 and can be changed without departing from the scope of the present invention.
When this embodiment (FIG. 18) is compared with the first embodiment (FIG. 4), step S402 and step S404 are different. However, since other operations (S101, S103) are the same as those in the first embodiment, description of the same operations as those in the first embodiment is omitted.
(ステップS402)表示部12等は、第1の映像情報の表示や、第2の映像情報の蓄積、同期情報の作成、蓄積等を行う。このとき、映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報から、検出した第1の映像情報の表示領域を除いた第2の映像情報を蓄積する。そして、ステップS101に戻る。
このステップS402の処理の詳細については、図19のフローチャートを用いて後述する。
(Step S402) The
Details of the process of step S402 will be described later with reference to the flowchart of FIG.
(ステップS404)情報合成部27は、同期情報を用いて、第1の映像情報の表示領域を除いた第2の映像情報と第1の映像情報とを合成し、その合成後の合成映像情報をディスプレイ19に表示する。そして、ステップS101に戻る。このステップS404の処理の詳細については、図20のフローチャートを用いて後述する。
(Step S404) The
図19は、図18のフローチャートにおけるステップS402の処理の詳細を示すフローチャートである。
本実施形態(図19)と第1の実施形態(図5)とを比較すると、ステップS5071とステップS5072が異なる。しかし、他の処理(S201〜S206、S208〜S211)は第1の実施形態と同じであるので、第1の実施形態と同じ処理の説明は省略する。
FIG. 19 is a flowchart showing details of the process of step S402 in the flowchart of FIG.
When this embodiment (FIG. 19) is compared with the first embodiment (FIG. 5), step S5071 and step S5072 are different. However, since the other processes (S201 to S206, S208 to S211) are the same as those in the first embodiment, description of the same processes as those in the first embodiment is omitted.
(ステップS5071)映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報のフレームにおける第1の映像情報の表示領域を検出する。
(ステップS5072)映像情報蓄積部25は、映像情報受付部14が受け付けた第2の映像情報のフレームのうち、検出した第1の映像情報の表示領域を除いた第2の映像情報のフレームを所定の記録媒体に蓄積する。
(Step S5071) The video
(Step S5072) The video
図20は、図18のフローチャートにおけるステップS404の処理の詳細を示すフローチャートである。
本実施形態(図20)と第1の実施形態(図6)とを比較すると、ステップS607が異なる。しかし、他の処理(S301〜S306、S308〜S210)は第1の実施形態と同じであるので、第1の実施形態と同じ処理の説明は省略する。
FIG. 20 is a flowchart showing details of the process of step S404 in the flowchart of FIG.
When this embodiment (FIG. 20) is compared with the first embodiment (FIG. 6), step S607 is different. However, since the other processes (S301 to S306, S308 to S210) are the same as those in the first embodiment, description of the same processes as those in the first embodiment is omitted.
(ステップS607)情報合成部27は、第2の映像情報のj番目のフレームにおいて、第1の映像情報が除かれている表示部12の表示領域を検出する。
(Step S607) The
以上のように、本実施形態による映像会議システムによれば、第2の映像情報を蓄積する際に、第1の映像情報の表示領域を検出しているので、合成映像情報を出力する際の検出処理による負荷を軽減できる。また、映像会議システムの利用者は、合成映像情報の出力前に蓄積された第2の映像情報を確認すれば、第2の映像情報が検出した第1の表示領域に誤りがないかを確認することができる。
これにより、負荷による合成映像情報出力の遅延や停止、及び表示領域の誤りによる映像情報の欠落を防止でき、その結果、過去の会議を見ながら行われた会議の内容を、より適切に理解することができるようになる。
また、本実施形態による映像会議システムによれば、第2の映像情報を蓄積する際に、第1の映像情報の表示領域を除いているので、蓄積される第2の映像情報の容量を削減することができる。例えば、除かれた表示領域の映像情報を特定の値とした場合、該表示領域を除いた第2の映像情報を圧縮すると、該表示領域を除かない第2の映像情報と比較して情報の容量が小さくなる。なお、第2の映像情報において、第1の映像情報が表示されている表示領域の映像は必要ないため、その表示領域を除く映像情報を蓄積したとしても、問題はないことになる。
As described above, according to the video conference system according to the present embodiment, when the second video information is stored, the display area of the first video information is detected. The load caused by the detection process can be reduced. In addition, if the user of the video conference system confirms the second video information stored before the output of the composite video information, it confirms whether there is an error in the first display area detected by the second video information. can do.
As a result, delay and stop of composite video information output due to load, and loss of video information due to display area errors can be prevented, and as a result, the contents of conferences held while viewing past conferences can be understood more appropriately Will be able to.
In addition, according to the video conference system according to the present embodiment, when the second video information is stored, the display area of the first video information is excluded, so that the capacity of the stored second video information is reduced. can do. For example, when the video information of the removed display area is set to a specific value, when the second video information excluding the display area is compressed, the information of the information is compared with the second video information not excluding the display area. Capacity is reduced. In the second video information, since the video in the display area where the first video information is displayed is not required, there is no problem even if the video information excluding the display area is accumulated.
(第3の実施形態)
以下、本発明の第3の実施形態による映像会議システム(映像システム)について、図面を参照しながら説明する。
本実施形態では、第1の映像情報は、2以上の映像情報を合成した合成映像情報である。そして、第2の映像情報に第1の映像情報を合成する際、第2の映像情報と、第1の映像情報として合成する前の2以上の映像情報とを合成する。
(Third embodiment)
Hereinafter, a video conference system (video system) according to a third embodiment of the present invention will be described with reference to the drawings.
In the present embodiment, the first video information is synthesized video information obtained by synthesizing two or more pieces of video information. Then, when the first video information is synthesized with the second video information, the second video information is synthesized with two or more pieces of video information before being synthesized as the first video information.
図21は、本実施形態による映像情報の合成の一例を示す図である。
図21(b)は、第1の映像情報の一例であって、映像ID「V001」の映像情報(図21(a))と、映像ID「V002」の映像情報とを合成した合成映像情報であることを示す。
そして、図21(c)は、第2の映像情報の一例であって、映像ID「V003」の映像情報に、映像ID「V002」の映像情報を合成し、さらに、映像ID「V002」の映像情報を介して、映像ID「V001」の映像情報も合成した合成映像情報であることを示す。
例えば、各映像情報は、会議の場面を撮影した映像情報(映像ID「V001」)を表示した会議の場面を撮影した映像情報(映像ID「V002」)を表示して会議を行い、該会議の場面を撮影した映像情報(映像ID「V003」)として関係付けられる。
FIG. 21 is a diagram illustrating an example of the synthesis of video information according to the present embodiment.
FIG. 21B is an example of the first video information, and is composite video information obtained by synthesizing video information with the video ID “V001” (FIG. 21A) and video information with the video ID “V002”. Indicates that
FIG. 21C is an example of the second video information. The video information of the video ID “V002” is synthesized with the video information of the video ID “V003”, and further, the video ID “V002”. It indicates that the video information of the video ID “V001” is also synthesized video information through the video information.
For example, each piece of video information is displayed as video information (video ID “V002”) shooting a conference scene displaying video information (video ID “V001”) shooting the conference scene. As video information (video ID “V003”).
図22は、本実施形態による映像会議システムの構成を示す図である。本実施形態(図22)と第1の実施形態(図1)とを比較すると、情報合成部32と同期情報管理部36と情報合成部37とが異なる。しかし、他の構成要素(映像情報記憶部11、撮影部13、映像情報受付部14、映像情報蓄積部15、ディスプレイ18、及びディスプレイ19)が持つ機能は第1の実施形態と同じであるので、第1の実施形態と同じ機能の説明は省略する。また、本実施形態による動作は、第1の実施形態による動作(図4〜図6)と同じである。
FIG. 22 is a diagram showing the configuration of the video conference system according to the present embodiment. When this embodiment (FIG. 22) is compared with the first embodiment (FIG. 1), the
情報合成部32は、映像情報記憶部11で記憶されている2以上の映像情報を、同期情報管理部36に予め蓄積された同期情報を用いて同期して合成し、該合成した合成映像情報を第1の映像情報として出力する。
なお、第1の映像情報に音声情報が含まれる場合には、情報合成部32は、第1の映像情報を表示すると共に、その音声情報を音声出力してもよい。また、情報合成部32は、表示を行う表示デバイス(例えば、CRTや液晶ディスプレイなど)やスピーカを含んでもよく、あるいは含まなくてもよい。
The
In addition, when audio information is included in the first video information, the
本実施形態では、映像情報記憶部11で記憶されている2以上の映像情報を、映像ID「V001」の映像情報(図7)と、映像ID「V002」の映像情報(図9)とする。
また、本実施形態では、映像ID「V001」の映像情報と、映像ID「V002」の映像情報とが、それぞれ、時間的位置を示す情報としてタイムコードを含んでいるものとする(図7、図9)。
この映像ID「V001」の映像情報と、映像ID「V002」の映像情報とは、音声情報を含んでいてもよく、あるいは、含んでいなくてもよい。また、映像ID「V001」の映像情報と、映像ID「V002」の映像情報とは、デジタルデータであってもよく、アナログデータであってもよい。
In the present embodiment, the two or more pieces of video information stored in the video
In the present embodiment, it is assumed that the video information of the video ID “V001” and the video information of the video ID “V002” each include a time code as information indicating a temporal position (FIG. 7). FIG. 9).
The video information of the video ID “V001” and the video information of the video ID “V002” may or may not include audio information. Also, the video information of the video ID “V001” and the video information of the video ID “V002” may be digital data or analog data.
また、本実施形態では、情報合成部32は、ディスプレイ18に第1の映像情報を表示するものとする。また、情報合成部32は、ハードウェアによって実現されてもよく、あるいは表示デバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
In the present embodiment, the
同期情報管理部36は、映像情報記憶部11で記憶されている2以上の映像情報の表示時点の同期を示す同期情報を予め蓄積する。
また、同期情報管理部36は、情報合成部32による第1の映像情報の表示時点と、その第1の映像情報が表示されている会議の場面の映像である第2の映像情報の撮影時点との同期を示す同期情報を作成して蓄積する。
同期情報管理部36は、第1の映像情報の表示時点と第2の映像情報の表示時点との同期を示す同期情報の作成を、第1の実施形態による同期情報管理部16と同様にして行う。
なお、この同期情報は、第1の実施形態と同様に、(1)第1の映像情報、及び第2の映像情報とは別個に構成される情報であってもよく、(2)第1の映像情報に含まれる情報であってもよく、(3)第2の映像情報に含まれる情報であってもよく、(4)第1の映像情報、及び第2の映像情報に含まれる情報であってもよい。
The synchronization
In addition, the synchronization
The synchronization
The synchronization information may be information configured separately from (1) the first video information and the second video information, as in the first embodiment. (2) First (3) Information included in the second video information, and (4) Information included in the first video information and the second video information. It may be.
本実施形態では、同期情報管理部36は、映像ID「V001」の映像情報のタイムコードと、映像ID「V002」の映像情報のタイムコードとの同期を示す情報である同期情報を予め蓄積する。
また、本実施形態では、第2の映像情報の映像IDを「V003」とする。
In the present embodiment, the synchronization
In the present embodiment, the video ID of the second video information is “V003”.
図23は、本実施形態による同期情報の一例を示す図である。
図23(b)は、同期情報管理部36が予め蓄積する映像ID「V001」の映像情報のタイムコードと映像ID「V002」の映像情報のタイムコードとの同期を示す同期情報である。
ここで、図23の同期情報は、合成する表示領域がある映像情報を第2の映像情報とし、該第2の表示領域に合成する映像情報を第1の映像情報として、映像IDを蓄積しているとする。
図23(b)では、例えば、映像ID「V001」のタイムコード「1:00:00:00」に関係付けられた映像ID「V002」のタイムコードは、「0:15:00:00」であることを表わす。また、映像ID「V001」の映像情報は、映像ID「V002」の映像情報の表示領域に合成されることを表わす。
FIG. 23 is a diagram illustrating an example of synchronization information according to the present embodiment.
FIG. 23B shows synchronization information indicating synchronization between the time code of the video information of the video ID “V001” and the time code of the video information of the video ID “V002” stored in advance by the synchronization
Here, the synchronization information in FIG. 23 stores the video ID with the video information having the display area to be combined as the second video information, and the video information to be combined with the second display area as the first video information. Suppose that
In FIG. 23B, for example, the time code of the video ID “V002” associated with the time code “10:00:00” of the video ID “V001” is “0: 15: 00: 00”. It represents that. The video information of the video ID “V001” is combined with the display area of the video information of the video ID “V002”.
また、図23(a)は、同期情報管理部36が作成する第1の映像情報のタイムコードと第2の映像情報のタイムコードとの同期を示す同期情報である。
ここで、第2の映像情報である映像ID「003」の映像情報のタイムコードは、第1の映像情報として合成される映像情報(図23(b)中の第2の映像情報)である映像ID「V002」の映像情報のタイムコードと関係付けられている。
図23(a)では、例えば、映像ID「V002」のタイムコード「0:15:00:00」に関係付けられた映像ID「V003」のタイムコードは、「0:20:00:00」であり、映像ID「V002」の映像情報は、映像ID「V003」の映像情報の表示領域に合成することを表わす。
FIG. 23A shows synchronization information indicating the synchronization between the time code of the first video information and the time code of the second video information created by the synchronization
Here, the time code of the video information of the video ID “003” as the second video information is video information (second video information in FIG. 23B) synthesized as the first video information. It is associated with the time code of the video information of the video ID “V002”.
In FIG. 23A, for example, the time code of the video ID “V003” associated with the time code “0: 15: 00: 00: 00” of the video ID “V002” is “0: 20: 00: 00: 00”. And the video information of the video ID “V002” is combined with the display area of the video information of the video ID “V003”.
情報合成部37は、映像情報記憶部11で記憶されている2以上の映像情報と、映像情報蓄積部15が蓄積した第2の映像情報とを、同期情報管理部36が蓄積した同期情報を用いて同期させ、第2の映像情報における第1の映像の表示領域に、映像情報記憶部11で記憶されている2以上の映像情報を合成した映像を示す情報である合成映像情報を出力する。
The
情報合成部37は、同期情報管理部36が蓄積する同期情報を検索することにより、合成すべき映像情報を特定する。
具体的に、情報合成部37は、情報合成部37は、同期情報管理部36が蓄積する同期情報のうち、第2の映像情報の映像IDが「V003」である同期情報を検索する。情報合成部37は、検索の結果、図23(a)の同期情報を特定し、第1の映像情報が映像ID「V002」であることを特定する。そして、情報合成部37は、同期情報管理部36が蓄積する同期情報のうち、第2の映像情報の映像IDが「V002」である同期情報を検索する。検索の結果、図23(b)の同期情報を特定し、第1の映像情報が映像ID「V001」であることを特定する。
さらに、情報合成部37は、同期情報管理部36が蓄積する同期情報のうち、第2の映像情報の映像IDが「V001」である同期情報を検索する。本実施形態では、第2の映像情報に映像ID「V001」が関係付けられている同期情報はないとする。
The
Specifically, the
Further, the
情報合成部37は、上記検索の結果、特定した映像情報を合成する。
具体的に、情報合成部37は、映像ID「V003」の映像情報に、映像ID「V002」の映像情報を合成し、さらに、この映像情報ID「V002」の映像情報に、映像ID「V001」の映像情報を合成する。
なお、映像情報蓄積部37は、映像ID「V003」の映像情報における映像ID「V002」の映像情報の表示領域の検出、また、映像ID「V002」の映像情報における映像ID「V001」の映像情報の表示領域の検出を、第1の実施形態による情報合成部17と同様にして行う。
The
Specifically, the
The video
図24は、本実施形態による映像情報の合成の一例について説明するための図である。
情報合成部37は、図24の右から左に向かう順序で映像情報を合成する。
まず、情報合成部37は、映像IDが「V001」である映像情報を、映像IDが「V002」である映像情報の表示領域の形状にする変形1を行う。
次に、情報合成部37は、映像IDが「V002」である映像情報を、映像IDが「V003」である映像情報の表示領域の形状にする変形2を行う。このとき、情報合成部37は、変形1を行った映像IDが「V001」の映像情報についても、変形2を行う。
そして、情報合成部37は、以上の変形を行った映像IDが「V001」及び「V002」の映像情報と、映像IDが「V003」の映像情報とを合成する。
FIG. 24 is a diagram for explaining an example of the synthesis of video information according to the present embodiment.
The
First, the
Next, the
Then, the
また、情報合成部37は、例えば、予め映像情報の合成の回数を設定しておき、所定の回数前まで映像情報を合成するようにしてもよいし、また、映像情報を合成する表示領域サイズの最小サイズを予め設定しておき、表示領域のサイズが設定値よりも大きい間は、映像情報を合成するようにしてもよい。
Further, for example, the
以上のように、本実施形態による映像会議システムによれば、同期情報により関係付けられた映像情報を合成するので、何度も繰り返して、会議を行った場合でも、映像が劣化しない表示をすることができる。その結果、過去の会議を見ながら行われた会議の内容を、より適切に理解することができるようになる。 As described above, according to the video conference system according to the present embodiment, since the video information related by the synchronization information is synthesized, even when the conference is repeated many times, the video is displayed without deterioration. be able to. As a result, it becomes possible to more appropriately understand the contents of the meetings held while looking at past meetings.
なお、図24の説明図において、合成される表示領域が合成する画像より小さくなる場合を説明しているが、本発明は、これに限られず、合成される表示領域が合成する画像より大きくてもよい。一般に、映像を解像度が小さくなるような状況で撮影し、その撮影した映像を表示すると、元の映像に比べ映像が劣化してしまう。しかし、本実施形態による映像会議システムによれば、同期情報により関係付けられた映像情報を合成するので、合成する映像情報を、元の解像度を保ったまま合成映像情報として表示することができる。
例えば、第1の映像情報に含まれて表示された画像ID「001」の映像情報が、画像ID「001」の映像情報より小さく、つまり、解像度が小さく、第2の映像情報に含まれて表示された画像ID「001」の映像情報が、第1の映像情報に含まれて表示された画像ID「001」の映像情報より大きい場合であっても、本実施形態による映像会議システムによれば、画像ID「001」の映像情報を、元の解像度を保ったまま合成映像情報として表示することができる。
In the explanatory diagram of FIG. 24, the case where the display area to be combined is smaller than the image to be combined is described. However, the present invention is not limited to this, and the display area to be combined is larger than the image to be combined. Also good. In general, when a video is shot in a situation where the resolution is low and the shot video is displayed, the video is degraded compared to the original video. However, according to the video conference system according to the present embodiment, the video information related by the synchronization information is synthesized, so that the video information to be synthesized can be displayed as synthesized video information while maintaining the original resolution.
For example, the video information of the image ID “001” displayed in the first video information is smaller than the video information of the image ID “001”, that is, the resolution is small and is included in the second video information. Even if the video information of the displayed image ID “001” is larger than the video information of the image ID “001” displayed in the first video information, the video conference system according to the present embodiment For example, the video information of the image ID “001” can be displayed as composite video information while maintaining the original resolution.
なお、上記各実施形態による映像会議システムには、撮影部13、及びディスプレイ18、19が含まれなくてもよい。そのような場合には、映像会議システムは、システム外の撮影部13によって撮影された第2の映像情報を受け付けることとなり、また、システム外のディスプレイ18、19に第1の映像情報等を表示することになってもよい。
Note that the video conference system according to each of the above embodiments may not include the photographing unit 13 and the
また、上記各実施形態による映像会議システムは、通信機能を有しており、他の会議の場面も見ることが可能なものであってもよく、あるいは、通信機能を用いることなく図1で示される会議の場面のみを撮影するものであってもよい。前者の場合には、映像情報受付部14が受け付ける映像は、通信回線を介して接続されている2以上の会議の場面の映像を含んでもよく、あるいは、そのいずれかの会議の場面の映像のみであってもよい。
In addition, the video conference system according to each of the above embodiments has a communication function and may be able to see other conference scenes, or shown in FIG. 1 without using the communication function. It is also possible to shoot only the scenes of the conferences to be performed. In the former case, the video received by the video
また、上記各実施形態において、情報合成部17、27、37が第2の映像情報に第1の映像情報を合成して合成映像情報を作成する処理を、第2の映像情報の蓄積後に、バッチ処理として行う場合について説明したが、情報合成部17、27、37は、合成映像情報を作成する処理を、第2の映像情報を蓄積している途中に、リアルタイム処理(すなわち、逐次的な処理)として行ってもよい。この場合には、第2の映像情報が撮影されている際に、第2の映像情報に第1の映像情報を合成した合成映像情報が順次、出力されることになる。
Further, in each of the above embodiments, the
また、上記各実施形態において、情報合成部17、27、37が合成映像情報を蓄積する場合に、第2の映像情報を残す必要がない場合には、第2の映像情報に合成映像情報を上書きして蓄積してもよい。
また、上記実施形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、あるいは、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。
In each of the above embodiments, when the
In the above embodiment, each process or each function may be realized by centralized processing by a single device or a single system, or may be distributedly processed by a plurality of devices or a plurality of systems. May be realized.
また、上記各実施形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。
なお、上記各実施形態における映像会議システムを実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、映像情報記憶部で記憶されている撮影した映像を示す情報である第1の映像情報を表示する表示部、前記第1の映像情報が表示された前記表示部での表示領域を含む場面を撮影した映像を示す情報である第2の映像情報を受け付ける映像情報受付部、前記映像情報受付部で受け付けた第2の映像情報の少なくとも一部を蓄積する映像情報蓄積部、前記第1の表示部による第1の映像情報の表示時点と、当該第1の映像情報が表示されている場面の映像である第2の映像情報の撮影時点との同期を示す情報である同期情報を作成して蓄積する同期情報管理部、前記映像情報記憶部で記憶されている第1の映像情報と、前記映像情報蓄積部で蓄積した第2の映像情報とを、前記同期情報管理部で蓄積した同期情報を用いて同期させ、前記第2の映像情報における前記表示領域に、前記同期に応じて前記映像情報記憶部から読み出した第1の映像情報を合成した映像を示す情報である合成映像情報を出力する出力部、として機能させる。
In each of the above embodiments, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
The software that realizes the video conference system in each of the above embodiments is the following program. That is, the program includes a display unit that displays first video information that is information indicating a captured video stored in the video information storage unit, and the display unit that displays the first video information. A video information receiving unit that receives second video information that is information indicating a video including a scene including the display area in the video, and video information that accumulates at least a part of the second video information received by the video information receiving unit Information indicating synchronization between the display time point of the first video information by the storage unit and the first display unit and the shooting time point of the second video information which is a video of the scene where the first video information is displayed A synchronization information management unit that creates and stores the synchronization information, the first video information stored in the video information storage unit, and the second video information stored in the video information storage unit Accumulated in the information management department Synthetic video that is information indicating a video obtained by synthesizing the first video information read from the video information storage unit according to the synchronization in the display area in the second video information. It functions as an output unit that outputs information.
なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を受け付ける受付部や、情報を出力する情報合成部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。
また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
また、本発明は、以上の実施形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
In the program, the functions realized by the program do not include functions that can be realized only by hardware. For example, a function that can be realized only by hardware such as a modem or an interface card in a reception unit that receives information, an information synthesis unit that outputs information, and the like is not included in at least the functions realized by the program.
Further, this program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, or the like) is read out. May be executed by
Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
Further, the present invention is not limited to the above-described embodiment, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.
以上より、本発明による映像システム等によれば、過去の映像を見ながら行われた会議の内容を、より適切に理解することができるようにすることができ、会議を撮影した映像情報に関する処理を行う映像システム等としで有用である。 As described above, according to the video system and the like according to the present invention, it is possible to more appropriately understand the content of the conference held while viewing the past video, and the processing related to the video information obtained by capturing the conference It is useful as a video system for performing
11 映像情報記憶部
12 表示部
13 撮影部
14 映像情報受付部
15 映像情報蓄積部
16 同期情報管理部
17 情報合成部
18、19 ディスプレイ
25 映像情報蓄積部
27 情報合成部
32 情報合成部
36 同期情報管理部
37 情報合成部
DESCRIPTION OF
Claims (6)
前記第1の映像情報を表示する第1の表示部と、
前記第1の映像情報が表示された前記第1の表示部の表示領域を含む場面を撮影した第2の映像情報を記憶する第2の映像情報記憶部と、
映像間の同期情報を用いて、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成した第2の合成映像情報を出力する第2の情報合成部と、
前記第2の合成映像情報を表示する第2の表示部と、
前記第2の合成映像情報が表示された前記第2の表示部の表示領域を含む場面を撮影した第3の映像情報を記憶する第3の映像情報記憶部と、
映像間の同期情報を用いて、前記第3の映像情報における前記第2の表示部の表示領域に、前記第2の合成映像情報を合成した第3の合成映像情報を出力する第3の情報合成部と、
を備え、
前記第2の表示部の表示領域に前記第2の合成映像情報を合成する処理においては、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成する
ことを特徴とする映像システム。 A first video information storage unit for storing first video information;
A first display unit for displaying the first image information,
A second image information storing unit for storing the second image information obtained by photographing a scene including a display area of the first said image information is displayed in the first display portion,
Using the synchronization information among the video, the display area of the first display portion in the second image information, the second information combining for outputting the second synthesized image information obtained by combining the first image information And
A second display unit for displaying the second composite video information ;
A third video information storage unit for storing third video information obtained by photographing a scene including a display area of the second display unit on which the second composite video information is displayed ;
Third information for outputting third synthesized video information obtained by synthesizing the second synthesized video information to the display area of the second display unit in the third video information using synchronization information between videos. A synthesis unit ;
With
In the process of combining the second combined video information with the display area of the second display unit, the first video information is combined with the display area of the first display unit in the second video information. A video system characterized by
前記第3の映像情報記憶部は、第3の映像情報のうち、前記第2の表示部の表示領域を除く映像情報を記憶する
ことを特徴とする請求項1記載の映像システム。 The second video information storage unit stores video information excluding the display area of the first display unit among the second video information,
The third image information storage unit, a third of the video information, the video system of claim 1, wherein the storing the video information except for the display region of the second display unit.
ことを特徴とする請求項1または2に記載の映像システム。 The video system according to claim 1 , wherein the synchronization information is information using a video time code .
前記第1の映像情報が表示された前記第1の表示部の表示領域を含む場面を撮影した第2の映像情報を記憶する第2の映像情報記憶ステップと、
映像間の同期情報を用いて、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成した第2の合成映像情報を出力する第2の情報合成ステップと、
前記第2の合成映像情報を表示する第2の表示ステップと、
前記第2の合成映像情報が表示された前記第2の表示部の表示領域を含む場面を撮影した第3の映像情報を記憶する第3の映像情報記憶ステップと、
映像間の同期情報を用いて、前記第3の映像情報における前記第2の表示部の表示領域に、前記第2の合成映像情報を合成した第3の合成映像情報を出力する第3の情報合成ステップと、
を有し、
前記第2の表示部の表示領域に前記第2の合成映像情報を合成する処理においては、前記第2の映像情報における前記第1の表示部の表示領域に、前記第1の映像情報を合成する
ことを特徴とする映像情報処理方法。 A display step of displaying first video information, which is information indicating a captured video, on the first display unit ;
A second image information storing step of storing the second image information obtained by photographing a scene including a display area of the first said image information is displayed in the first display portion,
Using the synchronization information among the video, the display area of the first display portion in the second image information, the second information combining for outputting the second synthesized image information obtained by combining the first image information Steps ,
A second display step of displaying the second composite video information ;
A third video information storage step for storing third video information obtained by photographing a scene including a display area of the second display unit on which the second composite video information is displayed ;
Third information for outputting third synthesized video information obtained by synthesizing the second synthesized video information to the display area of the second display unit in the third video information using synchronization information between videos. A synthesis step ;
I have a,
In the process of combining the second combined video information with the display area of the second display unit, the first video information is combined with the display area of the first display unit in the second video information. A video information processing method characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008085498A JP5089459B2 (en) | 2008-03-28 | 2008-03-28 | Video system with past video reference function, video information processing method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008085498A JP5089459B2 (en) | 2008-03-28 | 2008-03-28 | Video system with past video reference function, video information processing method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009239793A JP2009239793A (en) | 2009-10-15 |
JP5089459B2 true JP5089459B2 (en) | 2012-12-05 |
Family
ID=41253173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008085498A Expired - Fee Related JP5089459B2 (en) | 2008-03-28 | 2008-03-28 | Video system with past video reference function, video information processing method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5089459B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4164985B2 (en) * | 2000-03-28 | 2008-10-15 | カシオ計算機株式会社 | Image processing apparatus and storage medium storing image processing program |
JP4253446B2 (en) * | 2001-06-13 | 2009-04-15 | 株式会社リコー | Recording and playback device for presentation |
JP2008072388A (en) * | 2006-09-13 | 2008-03-27 | Ricoh Co Ltd | Image processing apparatus and method, and program |
-
2008
- 2008-03-28 JP JP2008085498A patent/JP5089459B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009239793A (en) | 2009-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102077967B1 (en) | Electronic device | |
TWI433057B (en) | Improved pre-alarm video buffer | |
JPH114398A (en) | Digital wide camera | |
EP1347455A2 (en) | Contents recording/playback apparatus and contents edit method | |
JP4938615B2 (en) | Video recording / playback device | |
JP6351212B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM | |
CN110913118B (en) | Video processing method, device and storage medium | |
JP5600405B2 (en) | Image processing apparatus, image processing method, and program | |
JP2008306355A (en) | Image reproduction processing device, image reproduction processing method, program, and recording medium | |
JP2006203334A (en) | Image recording apparatus, control method thereof and program | |
JP4946935B2 (en) | Imaging device | |
JP5089459B2 (en) | Video system with past video reference function, video information processing method, program, and recording medium | |
JP2007060026A (en) | Video processing apparatus and object particularizing method | |
JP2012034128A (en) | Image processing apparatus and imaging apparatus using the same | |
JP2012178814A (en) | Moving image recording apparatus | |
JP2008228014A (en) | Video conference system, conference video processing method, program and recording medium | |
JP4979623B2 (en) | Image processing device | |
JP6594485B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM | |
JP2004312218A (en) | Digital camera and image reproducing apparatus | |
JP6602425B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM | |
WO2016117480A1 (en) | Telecommunication system | |
JP2007166539A (en) | Imaging apparatus, imaging method, program and storage medium | |
JP2013055590A (en) | Imaging device and imaging method | |
JP2014229930A (en) | Imaging device, and method and system of controlling the same | |
JP2007324663A (en) | Video camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120605 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120911 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |