JP2023026844A - Video recording system, video recording playback device and image processing method - Google Patents
Video recording system, video recording playback device and image processing method Download PDFInfo
- Publication number
- JP2023026844A JP2023026844A JP2021132243A JP2021132243A JP2023026844A JP 2023026844 A JP2023026844 A JP 2023026844A JP 2021132243 A JP2021132243 A JP 2021132243A JP 2021132243 A JP2021132243 A JP 2021132243A JP 2023026844 A JP2023026844 A JP 2023026844A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- unit
- moving
- file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000004891 communication Methods 0.000 claims abstract description 138
- 238000012545 processing Methods 0.000 claims abstract description 120
- 238000010276 construction Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims description 45
- 230000002194 synthesizing effect Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims 1
- 239000000463 material Substances 0.000 description 108
- 239000002131 composite material Substances 0.000 description 74
- 230000008569 process Effects 0.000 description 32
- 230000006870 function Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 26
- 238000003384 imaging method Methods 0.000 description 21
- 238000007726 management method Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 7
- 230000007704 transition Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、録画システム、録画再生装置、及び、画像処理方法に関する。 The present invention relates to a recording system, a recording/playback apparatus, and an image processing method.
ネットワークを介して、遠隔地の拠点との間で映像や音声を送受信する通信システムが知られている。通信システムにおいては、会議に参加する当事者の一方がいる拠点において、通信端末を用いて画像の撮像及び発言などの音声の収集を行い、これらをデジタルデータに変換して相手方の通信端末に送信する。相手方の通信端末はディスプレイへの画像表示及びスピーカからの音声出力を行い、ビデオ通話を行うことができる。 2. Description of the Related Art A communication system is known that transmits and receives video and audio to and from a remote location via a network. In a communication system, at a location where one of the parties participating in a conference is located, a communication terminal is used to capture images and collect voices such as remarks, which are then converted into digital data and transmitted to the communication terminal of the other party. . The other party's communication terminal can display an image on a display and output audio from a speaker to make a video call.
会議中の画像を録画する技術が考案されている(例えば、特許文献1参照。)。特許文献1には、加工前の画像を一旦録画することにより、後の編集を可能とすることで、会議を効率的に再現させるシステムが開示されている。 A technique for recording images during a conference has been devised (see, for example, Japanese Patent Application Laid-Open No. 2002-200011). Patent Literature 1 discloses a system that efficiently reproduces a conference by temporarily recording an image before processing so that it can be edited later.
しかしながら、従来の技術は、第一の画像に第二の画像が重ねて表示されるため、録画された画像を後からユーザーが再生しても第一の画像を表示することができないという問題がある。すなわち、通信端末は、ディスプレイに多拠点のカメラ画像(第二の画像)だけでなく資料(第一の画像)も表示するが、資料は文字情報が含まれるケースが多いため、ユーザーが一般的には資料をできるだけ大きく表示させる。多拠点のカメラ画像は縮小された状態で資料に重ねるようにPicture In Picture的な表示方法が行われる。そうすることによって、以下の使い方が可能になる。
・全ての画面を同時に見れる。
・重要(共有資料、or発話中の拠点映像、等)な画面や資料は大きく映すことができる。
However, the conventional technology has a problem that the second image is displayed superimposed on the first image, so even if the user later reproduces the recorded image, the first image cannot be displayed. be. In other words, the communication terminal displays not only the camera images of multiple sites (second image) but also the material (first image) on the display. display the material as large as possible. A picture-in-picture display method is used so that images from multiple sites are superimposed on materials in a reduced state. By doing so, the following usage becomes possible.
・All screens can be viewed at the same time.
・Important screens and materials (shared materials, base images during speech, etc.) can be enlarged.
しかし、録画システムがディスプレイに表示された資料や各拠点のカメラ画像を録画しても、第一の画像(大きく表示している映像)の一部は隠れており、ユーザーが第一の画像の気になる部位や箇所を表示することができない。 However, even if the recording system records the materials displayed on the display and the camera images of each site, part of the first image (the image displayed in large size) is hidden, and the user cannot see the first image. Unable to display areas of concern.
本発明は、上記課題に鑑み、第一の画像に第二の画像が重ねられた状態で録画されても、再生時に第一の画像を表示できる録画システムを提供することを目的とする。 SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a video recording system capable of displaying a first image during playback even when a second image is superimposed on a first image.
上記課題に鑑み、本発明は、他の拠点から第一の画像データを受信する通信部と、前記第一の画像に、他の拠点から受信するか又は自拠点で用意した第二の画像データを埋め込んだ動画のフレーム内で、前記第一の画像データ又は前記第二の画像データの位置を移動させる画像処理部と、前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成する画像合成部と、前記動画ファイルから前記第二の画像データを含まない前記第一の画像データを構築する画像構築部と、前記画像構築部が構築した前記第一の画像データを表示する表示制御部と、を有する録画システムを提供する。 In view of the above problems, the present invention provides a communication unit that receives first image data from another base, and second image data received from another base or prepared at one's own base for the first image. an image processing unit for moving the position of the first image data or the second image data within the frame of the moving image embedded with the moving image file in which the second image data is embedded in the first image data an image compositing unit that constructs the first image data that does not include the second image data from the moving image file; and the first image data constructed by the image constructing unit is displayed. and a display control unit for recording.
第一の画像に第二の画像が重ねられた状態で録画されても、再生時に第一の画像を表示できる録画システムを提供できる。 It is possible to provide a recording system capable of displaying the first image during playback even if the second image is recorded while being superimposed on the first image.
以下、本発明を実施するための形態の一例として、録画システムと録画システムが行う画像処理方法について図面を参照しながら説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS A video recording system and an image processing method performed by the video recording system will be described below as an example of embodiments of the present invention with reference to the drawings.
<録画システムの動作の概略>
本実施形態の録画システムでは、少なくとも以下の2つの画像が拠点間で送受信される。
1.会議参加者等、拠点の様子をカメラで撮像したカメラ画像(動画)
2.会議で共有すべき資料画像(一般的に静止画像)
各拠点の通信端末は、資料の見やすさを維持したまま、1と2の画像を一つの画面(1画面分のフレーム)に収める(同時に見えるようにする)。この場合、ユーザーはPicture In Picture的(以下、1を2に埋め込むという)なレイアウトにせざるを得ない。
<Outline of recording system operation>
In the recording system of this embodiment, at least the following two images are transmitted and received between sites.
1. Camera image (movie) of the site, such as conference participants, captured by a camera
2. Document images to be shared at the meeting (generally static images)
The communication terminal at each base puts the images 1 and 2 on one screen (frames for one screen) while maintaining the visibility of the materials (makes them visible at the same time). In this case, the user has no choice but to use a layout similar to Picture In Picture (hereinafter referred to as embedding 1 in 2).
カメラ画像(第二の画像データの一例)と資料画像(第一の画像データの一例)がレイアウトされた画面の全体を通信端末が録画した場合、会議に参加できなかった人が再生して見直す場合は、
・全ての時間の映像を慎重に見直すことで、資料画像のうちの死角となっている領域を把握できる場合もあるが、時間はかかる。
・あるいは死角の領域は見えないままで終わる可能性も否定できない。
という不都合がある。
If the entire screen on which the camera image (an example of the second image data) and the material image (an example of the first image data) are laid out is recorded by the communication terminal, the person who could not participate in the meeting can play it back and review it. If
・By carefully reviewing the video of all time, it may be possible to grasp the blind spot area in the document image, but it takes time.
・Alternatively, we cannot deny the possibility that the area of the blind spot remains invisible.
There is an inconvenience.
<本実施形態の処理の概略>
そこで、本実施形態では、以下の処理を行うことで、会議中には見えてなかった(隠れていた)領域を、録画システムが再生時に任意のタイミングで再生できるようにする。
<Outline of processing in this embodiment>
Therefore, in this embodiment, the following processing is performed so that the recording system can reproduce the area that was not visible (hidden) during the conference at an arbitrary timing during reproduction.
◆録画時(通信端末の処理)
通信端末は、録画時に以下の処理(少なくともいずれか)を実行する。
A.資料画像にカメラ画像が埋め込まれている場合、最前面になっている画像(通常はカメラ画像)の表示位置をゆっくりと移動させ続ける。
B.最背面になっている画像(通常は資料画像)が改ページ又は資料そのものが変更された場合、上下又は左右に資料画像をスライドさせるようにして、次のページに切り替える。
◆ When recording (processing of communication terminal)
The communication terminal executes (at least one of) the following processes during recording.
A. When the camera image is embedded in the material image, the display position of the frontmost image (usually the camera image) is slowly moved continuously.
B. When the backmost image (usually a material image) is changed to a new page or the material itself is changed, the material image is slid vertically or horizontally to switch to the next page.
◆再生時(録画再生装置の処理)
C(Aに対応). 最前面になっているカメラ画像の表示位置が移動するので、録画再生装置は、資料画像の背面に隠れていた領域も取得できる。録画再生装置はそれを別のファイルとして再生時に一時的に保存しておくことで、再生時は資料画像の全体を表示したり、資料画像の任意の位置にカメラ画像を移動したりすることができる。再生時に一時的とは、ファイルは一般の録画装置のように一つのファイルとして保存されており、録画再生装置は、再生時はその1つのファイルから資料画像を別ファイルとして生成することをいう。
◆ During playback (processing by recording/playback device)
C (corresponding to A). Since the display position of the camera image in the foreground moves, the recording/reproducing device can also obtain the area hidden behind the document image. By temporarily saving it as a separate file during playback, the recording and playback device can display the entire document image and move the camera image to any position in the document image during playback. can. "Temporary during playback" means that the file is saved as one file like a general recording device, and the recording and playback device generates the material image as a separate file from the one file during playback.
なお、資料画像は会議で使う資料であることが多いため、ほぼ静止画として扱える。そのことが、このような再生方法を可能にしている。
D(Bに対応). 資料画像がスライドして切り替わることを利用して、死角の領域の情報を取得する。録画再生装置がそれを再生時に一時的に別ファイルとして保存しておくことで、再生時は資料画像の全体を表示したり、資料画像の任意の位置にカメラ画像を移動したりすることができる。
In addition, since the material image is often the material used in the meeting, it can be treated as a still image. That is what makes such a playback method possible.
D (corresponding to B). To obtain information on a blind spot area by utilizing the fact that the material image is slid and switched. By temporarily saving it as a separate file during playback by the recording and playback device, the entire document image can be displayed during playback, and the camera image can be moved to any position in the document image. .
このC,Dの処理は、会議中とは異なり、資料画像にカメラ画像が埋め込まれた合成画像を録画しておくことができ、リアルタイムに表示する必要がないので実現できる。すなわち、すでに録画済みの合成画像を編集するかのように処理するので合成画像の再生表示を行うことができる。 These processes C and D can be realized because, unlike during a meeting, a synthesized image in which a camera image is embedded in a material image can be recorded and displayed in real time. That is, since processing is performed as if editing a composite image that has already been recorded, the composite image can be reproduced and displayed.
このように、本実施形態の通信システムは、会議の合成画像を参加できなかったユーザーが見直す場合に、死角の領域が見えないままで再生が終わることもなく、合成画像の全時間を慎重に追いかける必要性もない。 As described above, the communication system according to the present embodiment prevents users who have not been able to participate in the meeting from reviewing the synthesized image from being played back without seeing the blind spot area. No need to chase.
<用語について>
死角とは、第一の画像データのうち第二の画像データが重なっている領域である。死角の領域はユーザーから見えない領域となる。
<Terms>
A blind spot is an area where the second image data overlaps in the first image data. The blind spot area is an area invisible to the user.
リアルタイムとは、ある処理が現在、実行されたとして、一定の遅延内で処理の結果が得られることをいう。 Real-time means that if a certain process is currently executed, the result of the process can be obtained within a certain delay.
<録画システムの構成例>
図1は、通信システム100のシステム構成の概略図である。通信システム100では、拠点A~拠点Dに配置された各通信端末10A~10Dがインターネット等の通信ネットワークNを介して通信する。拠点A~Dには録画システム60(通信端末10と録画再生装置30)がある。必ずしも全ての拠点に録画再生装置30が配置されなくてもよい。図1の通信端末10A~10Dの数(4つ)は一例であり、2つ以上(2拠点以上)であればよい。通信端末10A~10Dのうち任意の通信端末を「通信端末10」と称す。
<Configuration example of recording system>
FIG. 1 is a schematic diagram of the system configuration of a
通信端末10A~10Dは撮像したカメラ画像及び音声を通信管理システム50に送信する。また、通信端末10A~10Dは通信管理システム50からカメラ画像を受信する。なお、自拠点のカメラ画像は自拠点側では受信しなくてよい。また、通信端末10A~10Dのうち任意の通信端末10は通信管理システム50に資料画像を送信する。資料画像は、通信端末10A~10Dが外部PCから取り込んだり内部的に保持したりしている会議の資料の画像である。通信端末10A~10Dは通信管理システム50から資料画像を受信する。資料画像は元々、通信管理システム50に登録されている場合もある。
The communication terminals 10A to 10D transmit captured camera images and voices to the
拠点A~Dの通信端末10A~10Dは、通信端末10A~10Dが撮像したカメラ画像と、上記の資料画像を表示する。音声データについても同様である。なお、通信端末10A~10Dが送信するカメラ画像は動画であるとするが、静止画でもよい。また、通信端末10A~10Dは、カメラ画像及び音声を送信しないで単に受信するだけでもよい。 The communication terminals 10A to 10D of the bases A to D display the camera images captured by the communication terminals 10A to 10D and the document images. The same applies to voice data. It is assumed that the camera images transmitted by the communication terminals 10A to 10D are moving images, but they may be still images. Also, the communication terminals 10A to 10D may simply receive camera images and voices without transmitting them.
通信端末10A~10Dは、それぞれ専用のテレビ会議端末でもよいし、アプリケーションを実行したPC(Personal Computer)でもよい。すなわち、PCは、普段は汎用的な情報処理装置として使用され、テレビ会議用のアプリケーションを実行すると通信端末10として動作する。
Each of the communication terminals 10A to 10D may be a dedicated teleconference terminal or a PC (Personal Computer) running an application. That is, the PC is normally used as a general-purpose information processing device, and operates as the
また、汎用的な情報処理装置としての通信端末10はPCの他、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)、携帯電話、プロジェクタ、電子黒板、カーナビ、などでもよい。
Further, the
また、通信ネットワークNには通信管理システム50が接続されている。通信管理システム50は、通信端末10A~10Dの通信を管理及び制御する。通信管理システム50は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
A
通信管理システム50は、例えば同じ会議に参加する通信端末10をセッションIDで対応付けて管理している。通信管理システム50は、セッションIDに基づいて各拠点からの画像(資料画像、カメラ画像)と音声を同じ会議に参加している他の拠点に送信する。こうすることで、他拠点間でテレビ会議が可能になる。
The
通信管理システム50は、一台以上の情報処理装置で実現される。通信管理システム50は、クラウドコンピューティングにより実現されてもよいし、単一の情報処理装置によって実現されてもよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される形態をいう。通信管理システム50は、インターネット上に存在しても、オンプレミスに存在してもよい。
The
図2は、1拠点にある録画システム60の構成図を示す。録画システム60は、通信端末10と録画再生装置30を有する。録画再生装置30にはディスプレイ20が接続される場合がある。通信端末10にディスプレイ20を接続することも可能である。
FIG. 2 shows a configuration diagram of a
通信端末10にはカメラとマイクが外付け接続される場合がある。カメラは自拠点の画角に入る範囲を撮像してカメラ画像を生成し、マイクは自拠点の音声を集音して音声データを生成する。通信端末10はカメラ画像を内蔵する又は外付けのディスプレイ20に表示すると共に、他の拠点に送信する。通信端末10は音声データを他の拠点に送信する。
A camera and a microphone may be externally connected to the
通信端末10は、自拠点のカメラ画像、他の拠点のカメラ画像を、自拠点又は他の拠点が用意する資料画像に埋め込んで合成画像を生成する。通信端末10は合成画像や音声データを録画再生装置30に送信する。録画再生装置30は会議中に生成される合成画像や音声データを録画して動画ファイルを作成する。
The
録画再生装置30は、各拠点や部署などに押下され、会議のダイジェストを主に会議に参加しなかったユーザーが会議の内容を把握するために使用される。
The recording/reproducing
録画再生装置30は、ユーザー操作に応じて、会議が終了した後、合成画像の動画ファイルを再生する。再生した映像はディスプレイ20に表示される。あるいは、録画再生装置30がWebサーバーとして、ユーザー端末に再生した合成画像の動画ファイルを送信してもよい。また、録画再生装置30は動画ファイルをクラウドにアップロードしてもよい。録画再生装置30がクラウド上にあってもよい。
The recording/reproducing
なお、図2では、通信端末10と録画再生装置30が別体だが、通信端末10が録画再生装置30の機能を有していてもよい。
In FIG. 2, the
<ハードウェア構成例>
図3,図4を参照して、本実施形態に係る録画システム60に含まれる通信端末10及び録画再生装置30のハードウェア構成について説明する。
<Hardware configuration example>
Hardware configurations of the
<<通信端末>>
図3は、通信端末10の一例のハードウェア構成を示す図である。通信端末10は、カメラモジュール301、映像処理部303、映像CODEC部314、映像出力処理部310、マイクアレイ304、音声出力部307、音声処理部308、ネットワーク処理部313、全体処理部315、操作部316、RAM306、録画装置I/F部317、映像特性解析部302、RAM305、及びCapture処理部312を備える。なお、カメラモジュール301は、外付けの汎用カメラを接続する構成でもよい。
<<communication terminal>>
FIG. 3 is a diagram showing an example hardware configuration of the
カメラモジュール301は、「撮像装置」の一例である。カメラモジュール301は、会議シーンの映像を撮像する。カメラモジュール301は、レンズ301a、撮像部301b(イメージセンサ)、及びDSP301cを有する。撮像部301bは、レンズ301aを介して集光された映像を電気信号に変換することにより、映像データ(RAWデータ)を生成する。DSP301cは、撮像部301bから出力された映像データ(RAWデータ)に対して、ベイヤー変換、3A制御、等の公知のカメラ映像処理を行うことにより、映像データ(YUVデータ)を生成する。
The
映像処理部303は、カメラモジュール301から出力された映像データ(YUVデータ)に対し、目的に応じてクロッピング処理及び変倍処理303a等の各種映像処理を行う。例えば、映像処理部303は、映像特性解析部302から顔検知情報、及び音声処理部308からのビームフォーミング情報、を取得して発話者のクローズアップ映像を生成する。生成された映像は、映像出力処理部310に転送される。なお、映像処理部303は、各種映像処理を行う際に、RAM306をバッファとして使用する。
The
映像CODEC部314は、他の通信端末10との間で送受信される映像データ(映像ストリームデータ)の符号化及び復号化を行う。例えば、映像CODEC部314は、動画Endocer314aによって、映像処理部303から出力された映像データを符号化し、符号化された映像データを、ネットワーク処理部313を介して、他の通信端末10へ送信する。あるいは、映像CODEC部314は、映像出力処理部310でレイアウト処理された映像データを符号化し、符号化された映像データを、ネットワーク処理部313を介して、他の通信端末10へ送信する。
The
また、例えば、映像CODEC部314は、他の通信端末10から送信された映像データ(他の通信端末10で符号化された映像データ)を、ネットワーク処理部313を介して取得し、動画Dedocer314bによって、当該映像データを復号化する。そして、映像CODEC部314は、復号された映像データを、映像出力処理部310へ出力する。映像CODEC部314は、例えば、H.264/265等の圧縮規格を用いた、CODEC回路又はソフトウェアによって構成される。
Further, for example, the
映像出力処理部310は、映像データに基づく映像を、タッチパネル部309が備えるディスプレイに表示させる。ディスプレイは外付けの一般的なモニターでもよい。
The image
・例えば、映像出力処理部310は、映像CODEC部314で復号化された映像データに基づく映像(すなわち、他拠点の映像)を、タッチパネル部309が備えるディスプレイに表示させる。他拠点映像は複数のケースもある。
For example, the video
・また、例えば、映像出力処理部310は、カメラモジュール301から出力された映像データに基づく映像(すなわち、自拠点の映像)を、タッチパネル部309が備えるディスプレイに表示させる。カメラモジュール301からの映像は、映像処理部303で発話者がクローズアップ処理された映像になることもある。
Also, for example, the image
・また、例えば、映像出力処理部310は、Capture処理部312から出力された映像データに基づく映像(すなわち、外部PC311で表示されている資料画面等の映像)を、タッチパネル部309が備えるディスプレイに表示させる。
Also, for example, the image
このように、映像出力処理部310が表示させる映像は多岐にわたるが、これらのビデオ会議にかかわる映像を一つのフレームに収める必要があるため、映像出力処理部310内でレイアウト処理を行う。各表示映像を単純に並べて表示することもあれば、あるいは共有資料を大きく映して各拠点の参加者映像をPicture In Picture形式で表示させることもある。映像出力処理部310は、表示中の映像特性やその時のレイアウトに応じて、随時レイアウトを変更させる。本実施形態のレイアウト変更(カメラ画像等の移動)は、このモジュールで実行される。
In this way, the video
マイクアレイ304は、マイクロフォンアレイ304a及びA/Dコンバータ304bを有する。マイクロフォンアレイ304aは、ビデオ会議の参加者の音声を集音し、音声信号(アナログ信号)を出力する。A/Dコンバータ304bは、マイクロフォンアレイ304aから出力された音声の音声信号(アナログ信号)をデジタル信号に変換して、変換後の音声信号(デジタル信号)を音声処理部308へ出力する。
The
音声出力部307は、D/Aコンバータ307B及びスピーカ307aを有する。D/Aコンバータ307Bは、他の通信端末10から送信された音声信号(デジタル信号)をアナログ信号に変換する。スピーカ307aは、D/Aコンバータ307Bによる変換後の音声信号(アナログ信号)が供給されることにより、他拠点において集音されたビデオ会議の参加者の音声を出力する。
The
音声処理部308は、DSP308a、音声CODECする機能308b、ノイズキャンセル(NR/EC)する機能308c、音声判別する機能308d、ビームフォーミングする機能308eを有し、他の通信端末10から受信された映像データを構成する音声データに対して、所定の音声処理(例えば、音声CODEC処理、ノイズキャンセル(NR/EC)、音声判別、ビームフォーミング等)を行う。そして、音声処理部308は、音声処理後の音声データを、音声出力部307へ出力する。同時に、音声処理部308は、音声出力部307に出力する音声データを把握しながら、マイクアレイ304に回り込んで入力される音声データに対するエコーキャンセル(EC)処理を行う。そして、音声処理部308は、音声処理後の音声データを、ネットワーク処理部313へ出力する。また、音声処理部308は、ビームフォーミング機能により音の方向を特定し、その情報をもとに映像処理部303で発話者のクローズアップ映像が生成される。
The
ネットワーク処理部313は、映像CODEC部(エンコーダ)314から出力された符号化済みの映像データを、ネットワークを介して、送信先の他の通信端末10へ送信するNIC313aを有する。また、ネットワーク処理部313は、他の通信端末10から送信された符号化済みの映像データを、ネットワークを介して受信する。そして、ネットワーク処理部313は、当該映像データを、映像CODEC部(デコーダ)314へ出力する。また、ネットワーク処理部313は、符号化パラメータ(QP値、等)を決めるための、ネットワークの帯域をモニターする機能(ネットワーク状態検知部313b)を有する。また、ネットワーク処理部313は、符号化パラメータ(QP値、等)や送信モードの設定を最適化するための、相手局の機能や性能に関する情報を取得する機能(相手局機能判別部313c)を有する。
The
全体処理部315は、通信端末10の全体の制御を行う。全体処理部315は、CPU315a、ROM315b、SSD315c、RAM315d等を備えて構成されている。例えば、全体処理部315は、オペレータの指示に従って、各モジュール及び各ブロックのモード設定、ステータス管理等を行う。また、全体処理部315は、システムメモリ(RAM)の使用権及びシステムバスのアクセス権限の調停機能等を有する。
The
また、全体処理部315は、カメラモジュール301の撮像モードの設定を行う。カメラモジュール301の撮像モードの設定は、環境に応じて自動的に設定される自動設定項目(例えば、測光条件等)と、オペレータの操作入力により手動的に設定される手動設定項目とを含み得る。
Also, the
また、全体処理部315は、映像出力処理部310で行われるレイアウト処理に関する設定を行う。全体処理部315は、共有資料を優先的に表示するためのPicture In Picture表示にする、あるいは、特定の拠点を大きく映す、等の予め決められている表示フォーマットを選択・設定する。
The
これらの設定は、オペレータによる操作部316の操作によって行われ、通信端末10が備えるメモリ(RAM)に記憶される。そして、これらの設定は、映像処理部303によって使用される。
These settings are made by the operator operating the
操作部316は、各種入力デバイス(例えば、タッチパネル、操作ボタン、リモコン等)を備える。操作部316は、オペレータによる各種入力デバイスに操作により、各種入力(例えば、各種設定、会議参加者の呼び出し等)を受け付ける。
The
録画装置I/F部317は、音声処理部308から出力される音声データと、映像出力処理部310で生成された映像データと、を組み合わせて録画データを構成させ、その合成されたデータを録画再生装置30に出力するためのI/F機能を有する。
The recording device I/
映像特性解析部302は、検知部302a及び動き判定部302bを有する。検知部302aは、カメラモジュール301から出力された映像データを構成するフレーム画像から、人の顔が存在するエリアを検知する。動き判定部302bは、カメラモジュール301から出力された映像データを構成するフレーム画像から、人が動いているエリアを検知する。映像特性解析部302は、各エリアの検知結果を、映像処理部303へ出力する。なお、映像特性解析部302は、各エリアの検知を行う際に、RAM305をバッファとして使用する。
The video
Capture処理部312は、外部PC311から入力された映像を取り込んで、映像出力処理部310に転送する。Capture処理部312は、本実施形態にかかわる機能としては、改頁(更新)検出機能を有する。
The capture processing unit 312 captures the video input from the
・外部PC311から転送されてくる資料(画面)共有用の映像について、Capture処理部312は、改頁(更新)されたかどうか検出する。
The capture processing unit 312 detects whether or not a page break (update) has occurred in the material (screen) sharing video transferred from the
・検出方法は特に限定するものはないが、PC画面の映像データなのでノイズ的な要素はないため、単純にフレーム間でのベリファイチェックやサムチェックでもよい。Capture処理部312は、演算量を抑えるために、Captureした画像の解像度を落としてから上記の処理を行ってもよい。 The detection method is not particularly limited, but since it is video data of a PC screen and there is no element of noise, a simple verify check or sum check between frames may be used. In order to reduce the amount of calculation, the capture processing unit 312 may perform the above processing after lowering the resolution of the captured image.
・ここでいう画面の改頁(更新)とは、会議がスタートした後に外部PC311が接続されて、外部PC311から資料(画面)共有の映像転送がスタートしたことも改頁トリガーに含める。
The page break (update) of the screen here includes the fact that the
・Capture処理部312は、改頁(更新)を検出したら、その旨を映像出力処理部310に知らせる。
- When the capture processing unit 312 detects a page break (update), it notifies the video
・外部PC311から転送されてくる映像は、ここでは資料(画面)共有用の画像という扱いなので、カメラモジュールの映像のような動画としては扱わない。よって、フレームレートにも上限が設けられる(すなわち、改頁(更新)検出の間隔をある程度確保する)。
- The video transferred from the
・なお、外部PC311上で再生している動画を、フレームレートの制約を設けず通常の動画として転送したい場合は、カメラモジュールからの入力映像をユーザーが無効にすればよい。ユーザーはシステムの動作モード指定時にそのような設定をCapture制御部にインプットする。
- If the user wants to transfer the moving image being played back on the
<<録画再生装置>>
図4は、録画再生装置30のハードウェア構成図である。図4に示されているように、録画再生装置30は、CPU501、RAM502、操作部503、ROM504、入力I/F505、CODEC506、録画再生回路507、暗号化回路508、出力I/F510、及び、NIC511を有している。
<<Recording and playback device>>
FIG. 4 is a hardware configuration diagram of the recording/
CPU501は、ROM504に格納された所定のプログラムに従って、本実施形態で説明される録画機能を実現するために、録画再生装置30の各ブロックを制御する。
The
RAM502は、CPU501の作業領域として利用されると共に、ROM504に格納される各処理プログラムなどの記憶領域としても利用される。RAM502は、通信端末10から転送される画像データや音声データの一時的な格納先として利用される。また、RAM502は、CODEC506や録画再生回路507のワークメモリとしても利用される。
The
操作部503は、ハードキーorリモコン等から構成され、録画再生装置30の起動、モード設定などを行う一般的なユーザーインタフェースである。
The operation unit 503 is composed of hard keys, a remote control, or the like, and is a general user interface for starting the recording/reproducing
入力I/F505は、通信端末10から転送される画像データと音声データを入力する際に使用されるインターフェースである。I/Fとしては専用のもの、あるいは一般的なHDMI(登録商標)やDisplayPortで実現可能である。
The input I/
CODEC506は、入力I/F505で入力された画像データのフレーム(映像ストリームデータ)のエンコード/デコード処理を行うため、H.264/265等のCODEC回路あるいはソフトウェアで構成される。上記エンコード処理で符号化されたデータは暗号化回路508で暗号化されてからストレージ装置509(HDD、SSD、SDメモリカード、等)に格納される。ストレージ装置509に格納されたデータが合成画像の動画ファイルそのものである。
A
録画再生回路507は、録画データを再利用しやすくするために、本実施形態で説明される一連の画像処理を行う。
A recording/
出力I/F510は、通信端末10から転送された画像データをディスプレイに出力する。あるいは、出力I/Fは、合成画像データから再生した合成画像をディスプレイに出力する。I/Fの規格としては、HDMI(登録商標)やDisplayPort(登録商標)等がある。画像録画データには音声データも含まれる。
The output I/
NIC511は、LAN(Local Area Network)等のネットワークを介してインターネットに接続でき、外部サーバーやNASに合成画像データを転送する。
The
<機能について>
図5は、通信端末10と録画再生装置30が有する機能をブロックに分けて説明する機能ブロック図の一例である。
<About functions>
FIG. 5 is an example of a functional block diagram for explaining the functions of the
<<通信端末>>
通信端末10は、カメラ画像取得部11、音声取得部12、通信部13、合成画像送信部14、移動部15、ページ切替部16、画像合成部17、及び、操作受付部18を有する。通信端末10が有するこれらの機能は図3に示した通信端末10のハードウェア回路で実現されるが、CPUがプログラムで実行することで実現されてもよい。また、図5の機能は通信端末10が有する主要な機能を示したに過ぎず、図示する他に機能を有していてよい。
<<communication terminal>>
The
カメラ画像取得部11は、カメラモジュール301が撮像したカメラ画像をカメラモジュール301からリアルタイムに取得する。音声取得部12は、マイクアレイ304が集音した音声をPCM変換して音声データを生成する。
The camera
通信部13は、通信管理システムを介してカメラ画像を他の拠点の通信端末10に送信し、また、他の拠点の通信端末10から通信管理システムを介してカメラ画像を受信する。通信部13は、通信管理システム50を介して音声データを他の拠点の通信端末10に送信し、また、他の拠点の通信端末10から通信管理システム50を介して音声データを受信する。通信部13は、他の拠点の通信端末10が資料画像を共有する場合は、通信管理システム50を介して資料画像を受信する。自拠点の通信端末10が資料画像を共有する場合は、通信部13は通信管理システム50を介して資料画像を他の拠点の通信端末10に送信する。
The
移動部15は、上記Aの方法の画像処理に関し、資料画像に対しカメラ画像をゆっくりと移動させることを継続的に行う。
Regarding the image processing of method A, the moving
画像合成部17は、ユーザー操作に応じて又は自動的に、自拠点のカメラ画像、他拠点のカメラ画像、及び、資料画像を配置して1フレームの合成画像を生成する。フレームとは動画における個々の静止画である。ユーザーはこれらのカメラ画像や資料画像を縮小してタイル状に配置することも、資料画像にカメラ画像を埋め込んで(又はその逆に)配置することも可能である。本実施形態では、資料画像にカメラ画像が埋め込まれて配置される場合を説明する。
The
また、画像合成部17は、合成画像におけるカメラ画像の位置情報・サイズと拠点の識別情報をメタデータなどでフレームに添付する。
In addition, the
ページ切替部16は、上記Bの画像処理に関し、資料画像の切り替えを検出して、資料画像を上下方向又は左右方向にスライドさせて切り替え前の資料画像から切り替え後の資料画像に切り替える。合成画像の各フレームには切り替わる途中の資料画像がスライドしながら記録される。補足すると、資料画像の切り替え自体はユーザー操作で行われる。ページ切替部16はユーザー操作による資料画像の切り替えを検出して、Bの処理のために切り替え後の資料画像を用意する(切り替え前の資料画像はすでに取得済み)。ページ切替部16は用意した切り替え後の資料画像と切り替え前の資料画像をスライドさせながら切り替える。
Regarding the image processing of B above, the
なお、移動部15とページ切替部16は画像処理部21として機能する。移動部15とページ切替部16はいずれか一方が動作してもよいし、両方が動作してもよい。
Note that the moving
画像合成部17は、ページ切替部16が生成する、スライドしながら記録された資料画像に、自拠点のカメラ画像及び他拠点のカメラ画像を配置して1フレームの合成画像を生成する。
The
合成画像送信部14は、合成画像を動画のように繰り返し録画再生装置30に送信する。動画の場合、1秒間に例えば30フレーム以上のフレームが次々に送信される。なお、合成画像送信部14は合成画像をリアルタイムに送信するほか、(会議中で録画再生装置30がディスプレイ出力をしていない場合は)一定量、蓄積してから送信してもよい。
The composite
操作受付部18は、通信端末10に対するユーザーの操作を受け付ける。
The
<<録画再生装置>>
録画再生装置30は、受信部31、動画ファイル作成部32、第一資料画像構築部33、操作受付部34、切替検出部35、第二資料画像構築部36、表示制御部37、及び、記憶部49を有している。録画再生装置30が有するこれらの機能は図4に示したハードウェアによりで実現されるが、CPUがプログラムで実行することで実現されてもよい。
<<Recording and playback device>>
The recording/
受信部31は、通信端末10から合成画像を受信し、合成画像記憶部41に保存する。このように、合成画像記憶部41には資料画像にカメラ画像が埋め込まれている合成画像が保存される。
The receiving
動画ファイル作成部32は、カメラ画像の位置情報・サイズに基づいて合成画像からカメラ画像を取り込み、カメラ画像からなる動画ファイル(第二の動画ファイルの一例)を作成する。合成画像からカメラ画像を取り出すことをトリミングという場合がある。動画ファイル作成部32は拠点の識別情報に基づいて同じ拠点のカメラ画像を時系列にカメラ画像記憶部42に保存する。カメラ画像は合成画像の各フレームから取得できるので、合成画像と同じfps(flame per second)のフレームがカメラ画像ごと(拠点ごと)に保存される。
The moving image
第一資料画像構築部33は、上記Cの処理として、撮像時刻が異なる合成画像(カメラ画像が切り取られた合成画像を中間画像という)にOR演算を行い、資料画像を構築する。第一資料画像構築部33は、構築した資料画像を資料画像記憶部43に保存する。この資料画像は死角がなくなるまでカメラ画像が移動するのに必要な時間ごとに構築される。
As the processing of C above, the first document
切替検出部35は、上記Dの処理として、資料画像そのもの又は資料画像のページ(以下、区別せずにページの切り替わりという)が切り替わったことを検出する。切替検出部35は、合成画像のカメラ画像以外の領域を、撮像時刻が異なるフレームごとに比較する。差異が一定以上の場合、切替検出部35は、資料画像のページが切り替わったことを検出する。あるいは、切替検出部35は、通信端末10から送信されたページを切り替える操作信号により資料画像のページの切り替わりを検出する。
As the processing of D above, the switching
第二資料画像構築部36は、上記Dの処理として、ページが切り替わったことが検出されると、カメラ画像が重なっていない部分の資料画像を結合して、資料画像を構築する。第二資料画像構築部36は構築した資料画像を資料画像記憶部43に保存する。この資料画像はページの切り替わりごとに構築される。
As the processing of D above, the second document
なお、第一資料画像構築部33と第二資料画像構築部36はいずれか一方が処理してもよいし、両方が処理してもよい。両方が処理する場合、同じ資料画像が作成される場合があるが、同じ画像は削除してもよい。
Either one of the first document
操作受付部34は、録画再生装置30に対する再生操作や録画操作を受け付ける。表示制御部37は、合成画像、カメラ画像、又は、資料画像をディスプレイ20に表示する。
The
図6は、合成画像記憶部41に記憶される情報を説明する図である。合成画像記憶部41では、録画開始から終了までが1つの動画ファイルで保存される。図6では、録画ID、撮像開始時刻、撮像終了時刻、拠点数、サイズ、録画時間、ファイル名の各項目が動画ファイルごとに管理されている。
・録画IDは動画ファイルを識別する識別情報であり、カメラ画像や資料画像を合成画像と対応付ける情報である。
・撮像開始時刻は録画の開始時刻である。
・撮像終了時刻は録画の終了時刻である。
・拠点数は会議に参加した拠点の数であり、通信端末10から送信される。なお、拠点数には自拠点も含まれる。
・サイズは動画ファイルの容量である。
・録画時間は、開始時刻から終了時刻の経過時間である。
・ファイル名は、ファイルパスと共に保存される合成画像のファイル名である。動画ファイルの形式は制限されない。
FIG. 6 is a diagram for explaining information stored in the composite
- A recording ID is identification information for identifying a moving image file, and is information for associating a camera image or a document image with a composite image.
- The imaging start time is the recording start time.
- The imaging end time is the recording end time.
- The number of bases is the number of bases participating in the conference, and is transmitted from the
・The size is the capacity of the video file.
- The recording time is the elapsed time from the start time to the end time.
・The file name is the file name of the composite image that is saved along with the file path. The video file format is not limited.
図7は、カメラ画像記憶部42に記憶される情報を説明する図である。カメラ画像記憶部42には、拠点ごとのカメラ画像が1つの動画ファイルで保存される。図7では、録画ID、撮像開始時刻、撮像終了時刻、拠点ID、サイズ、録画時間の各項目が動画ファイルごとに管理されている。録画ID、撮像開始時刻、撮像終了時刻、サイズ、及び録画時間については図6と同様でよい。
・拠点IDは、拠点を識別する識別情報である。録画再生装置30が拠点名を通信端末10から取得してもよいし、重複しない番号を採番しもよい。
FIG. 7 is a diagram for explaining information stored in the camera
- The base ID is identification information for identifying a base. The recording/reproducing
なお、図7ではファイル名を省略したが、拠点ごとのカメラ画像が動画ファイルで保存されている。また、各拠点のカメラ画像は1つの動画ファイルに保存されてもよい。 Although the file names are omitted in FIG. 7, the camera images for each location are saved as moving image files. Also, the camera images of each site may be saved in one moving image file.
図8は、資料画像記憶部43に記憶される情報を説明する図である。図8(a)は第一資料画像構築部33が構築した資料画像の情報であり、図8(b)は第二資料画像構築部36が構築した資料画像の情報である。
FIG. 8 is a diagram for explaining information stored in the document
図8(a)の資料画像記憶部43では、合成画像の動画ファイルから構築された1つ以上の資料画像が保存される。図8(a)では、録画ID、構築開始時刻、構築終了時刻、資料画像ID、サイズ、ファイル名の各項目が資料画像ごとに管理されている。
・構築開始時刻は、資料画像の構築の開始を録画の開始時刻を基準として記録した時刻である。構築の開始は、後述する状態Aの時刻でよい。
・構築終了時刻は、資料画像の構築の終了を録画の開始時刻を基準として記録した時刻である。構築の終了は、後述する状態Cの時刻でよい。
・資料画像IDは、資料画像を識別する識別情報である。
・サイズは資料画像の容量である。
・ファイル名は、資料画像のファイル名である。図8(a)では資料画像が静止画であるが、動画として保存されてもよい。
In the document
The construction start time is the time when the construction of the document image is started based on the recording start time. The start of construction may be the time of state A, which will be described later.
• The construction end time is the time when the construction of the material image was completed with reference to the recording start time. The construction may end at the time of state C, which will be described later.
- The document image ID is identification information for identifying the document image.
・The size is the capacity of the document image.
・The file name is the file name of the document image. Although the document image is a still image in FIG. 8A, it may be saved as a moving image.
図8(b)の資料画像記憶部43では、録画ID、ページ切り替え時刻、資料画像ID、サイズ、ファイル名の各項目が資料画像ごとに管理されている。録画ID、資料画像ID、サイズ、及びファイル名の各項目は、図8(a)と同様でよい。
・ページ切り替え時刻は、ページの切り替わりが検出された時刻を、録画の開始時刻を基準として記録した時刻である。
In the document
The page switching time is the time at which the page switching was detected and recorded with reference to the recording start time.
<従来の合成画像の方法>
図9は、通信端末10が作成する従来の合成画像の一例である。図9の合成画像は以下のような構成である。
・画面全体には協議中の資料画像201が表示されている。細かなテキストも含まれるため、できるだけ大きく表示されることが望ましい。
・画面左下はある拠点の参加者全員が撮像されているパノラマ画像202(カメラ画像)である。
・画面中央下は、在宅勤務等のため一人でリモート参加している個人ごとの個別画像203(カメラ画像)である。そのうちの1つが自拠点のカメラが撮像したカメラ画像である。
・画面右下は、発話中の人がやや大きめに表示されている話者カメラ画像204である。
<Conventional synthetic image method>
FIG. 9 is an example of a conventional composite image created by the
- A
A panorama image 202 (camera image) in which all participants at a site are captured is shown at the bottom left of the screen.
The bottom center of the screen is an individual image 203 (camera image) for each individual who participates remotely because of working from home or the like. One of them is the camera image captured by the camera at the base.
- The bottom right of the screen is the
図9の合成画像をそのまま録画再生装置30が録画すると、会議に参加できなかった人がこの再生した場合に以下のような問題があった。
・資料の死角が発生することが避けられない。
・資料画像を小さく表示すれば死角はなくなるかもしれないが、資料等はテキストが含まれるケースが多いため、縮小表示ではその内容を読み取りにくくなり、会議の進行に支障をきたす。
・死角の領域が見える時間帯があるのかもしれないが、見える時間帯がわからないとユーザーが再生時に全時間の映像を見る必要があるかもしれない。その場合、時間節約のために端折って再生映像を見るということがやりにくい方法があるが、結局、最後まで見えなかったというケースもあり得る。
If the recording/reproducing
・Blind spots in materials cannot be avoided.
・Blind spots may be eliminated if the material image is displayed in a small size.
・There may be times when the blind spot area is visible, but if the user does not know the times when the blind spot is visible, the user may need to watch the entire video during playback. In that case, there is a method that is difficult to watch the reproduced video in order to save time, but in the end, there may be a case where the user cannot see the video to the end.
従って、合成画像は、会議に参加できなかった人にとっては使いづらい録画映像となっていた。 Therefore, the synthesized image is a recorded video that is difficult to use for those who could not participate in the conference.
<本実施形態の画像処理の概略>
以下では、合成画像に対する二種類の画像処理を説明する。
<Overview of image processing according to the present embodiment>
Two types of image processing for a composite image are described below.
A.カメラ画像の位置の移動
まず、図10は、合成画像におけるカメラ画像の位置を移動させる画像処理の概略を説明する図である。
A. Movement of Position of Camera Image First, FIG. 10 is a diagram for explaining an outline of image processing for moving the position of a camera image in a synthesized image.
通信端末10の移動部15は、各拠点のカメラ画像を、図10(a)→図10(b)→図10(c)のように、ゆっくりと微妙に位置を変えて合成する。図10(a)~(c)によれば、パノラマ画像202、在宅リモート参加者の個別画像203、及び、発話者映像が移動していることが分かる。移動部15は、カメラ画像の位置を変えることで全く見えないままの領域を残さないように移動する。例えば、画像合成部17は、「カメラ画像のWindowの大きさ(サイズ)」と「表示位置座標(位置情報)」を把握しながら、死角を残さないように(サイズよりも大きく)ゆっくりと位置を変えていく。
The moving
録画再生装置30では、合成画像が圧縮符号化の後に記録される。再生時に(又は録画から再生までの間に)、録画再生装置30の第一資料画像構築部33は、Cの処理として、カメラ画像の表示位置が変わっていくことを利用して、死角のない資料画像を別途作成する。すでに会議が終了しているので(リアルタイムである必要がないため)、このような操作が可能になる。
In the recording/reproducing
また、再生時には、録画再生装置30は死角のない資料画像のみを表示することもできる。また2つのディスプレイがあれば、資料画像とカメラ画像を別々のディスプレイに同時に表示させることができる。
Also, during playback, the recording/
以上の操作で、再生時の会議内容把握にかかる時間を大幅に削減できることが期待できる。 With the above operations, it is expected that the time required to grasp the content of the conference during playback can be greatly reduced.
<処理手順>
図11は、合成画像の録画処理を説明するフローチャート図である。
<Processing procedure>
FIG. 11 is a flowchart for explaining recording processing of a composite image.
通信端末10のユーザーは、通信端末10又はアプリを起動させる。ユーザーは、起動時に録画システム60にかかわる初期設定を行う(S1)。初期設定は、例えば、接続先拠点の指定や会議画面のレイアウト指定、等である。
A user of the
次に、通信端末10はカメラやマイク、スピーカなど入出力機器の初期化、動作モードの設定等を行い、各装置を起動する(S2)。例えば、通信端末10は会議環境に合わせて、測光条件等のカメラ撮像モードの設定を行う。
Next, the
通信部13は、ステップS1、S2で本体の準備が整った時点で、通信管理システム50に通信開始を要求して会議をスタートする(S3)。通信部13は、あるいは相手局からの通信要求を受けて通信をスタートしてよい。通信端末10が合成画像を録画する場合は、録画再生装置30もこの時点で起動させる。
When the main body is ready in steps S1 and S2, the
合成画像が録画状態になっている場合は、処理はステップS7に移動する。そうでない場合は、処理はステップS5に進む。 If the composite image is in the recording state, the process moves to step S7. Otherwise, the process proceeds to step S5.
録画再生装置がREADY状態であれば、処理はステップS6に進む。そうでない場合は、処理はステップS8に進む。 If the recording/playback device is in the READY state, the process proceeds to step S6. Otherwise, the process proceeds to step S8.
通信端末10の合成画像送信部14は合成画像を録画再生装置30に送信することで、録画再生装置30が録画処理を開始する(S6)。
The composite
合成画像送信部14は録画処理を実行、又は継続する(S7)。会議が終了した場合は、通信端末10は待機状態へ移行する(S8)。会議が終了するまで、処理はステップS4に戻り、S4からS7の処理を繰り返す。
The composite
<<カメラ画像の位置の移動>>
図12は、合成画像のカメラ画像の移動を画面表示イメージで表した図である。つまり、移動部15が、図12のようにカメラ画像を移動させれば資料画像の死角をなくすことができる。
1.状態A→状態Bへ移行中は、パノラマ画像202と話者カメラ画像204が図で示すように移動する(上方向に移動)。
2.状態B→状態Cに移行中は、個別画像203と話者カメラ画像204が図で示すように移動する(個別画像203が左方向、話者カメラ画像204が上方向)。
3.状態C→状態Dに移行中は、個別画像203と話者カメラ画像204が図で示すように移動する(個別画像203が右方向、話者カメラ画像204が下方向)。すなわち、各カメラ画像が元の位置に戻ろうとする。
4.状態D→状態Aに移行中は、パノラマ画像202と話者カメラ画像204が図で示すように移動する(下方向に移動。初期の位置に戻ろうとする)。
この状態は以下のように遷移する。
状態A→状態B→状態C→状態D→状態A→状態B→状態C→状態D→・・・(以後繰り返し)
<<Move the position of the camera image>>
FIG. 12 is a diagram showing a screen display image of movement of a camera image of a composite image. In other words, if the moving
1. During the transition from state A to state B, the
2. During the transition from state B to state C, the
3. During the transition from state C to state D, the
4. During the transition from state D to state A, the
This state transitions as follows.
State A→state B→state C→state D→state A→state B→state C→state D→... (repeat thereafter)
図13は、図11のステップS7の処理を説明するフローチャート図である。図13では、現在の移動状態に従ってカメラ画像の移動方向が指定される。図12で説明したように、カメラ画像の移動中の状態A~Cは3つのいずれかの状態なので(状態DからAは復路なので状態としては省略してよい)、以下のようにカメラ画像が移動される。 FIG. 13 is a flow chart for explaining the process of step S7 in FIG. In FIG. 13, the movement direction of the camera image is designated according to the current movement state. As described with reference to FIG. 12, the states A to C during movement of the camera image are any of the three states (states D to A can be omitted as states because they are on the return trip), so the camera image is as follows. be moved.
状態A→状態Bに向けてカメラ画像を徐々に移動中の場合(S71のYes)、移動部15は状態A→状態Bに向けてカメラ画像を徐々に移動する(S72)。ステップS71がNoの場合、処理はステップS73に進む。
When the camera image is being gradually moved from state A to state B (Yes in S71), the moving
状態B→状態Cに向けてカメラ画像を徐々に移動中の場合(S73のYes)、移動部15は状態B→状態Cに向けてカメラ画像を徐々に移動する(S74)。ステップS73がNoの場合、処理はステップS75に進む。
When the camera image is being gradually moved from state B to state C (Yes in S73), the moving
状態C→状態Dに向けてカメラ画像を徐々に移動中の場合(S75のYes)、移動部15は状態C→状態Dに向けてカメラ画像を徐々に移動する(S76)。ステップS75がNoの場合、処理はステップS77に進む。移動部15は状態D→状態Aに向けてカメラ画像を徐々に移動する(S77)。
When the camera image is being gradually moved from state C to state D (Yes in S75), the moving
通信端末10の移動部15は、ステップS72,74,76,77ずれかの処理を常に行っていることになる。例えば、状態A~Cまでの時間は予め設定されており、30秒や1分などゆっくりした時間(ユーザーがカメラ画像の移動が気にならない時間)でよい。
The
図14は、合成画像のフレームに添付されるメタデータの一例である。フレームにはフレームID、領域ID、位置情報、サイズ、及び、状態が添付される。
・フレームIDは、例えばフレームの識別情報である。撮像時刻や撮像開始からの経過時間が含まれるとよい。
・拠点IDは拠点を識別する識別情報である。
・位置情報は、合成画像内のカメラ画像の座標である。位置情報は、移動部15が制御する値である。
・サイズはカメラ画像の幅と高さである。サイズは、ユーザーが設定しても固定でもよいが、いずれにせよ既知である。
FIG. 14 is an example of metadata attached to frames of a synthesized image. A frame is attached with a frame ID, region ID, location information, size, and state.
- The frame ID is, for example, identification information of a frame. It is preferable to include the imaging time and the elapsed time from the start of imaging.
- The base ID is identification information for identifying a base.
- The position information is the coordinates of the camera image in the composite image. The position information is a value controlled by the moving
・The size is the width and height of the camera image. The size may be set by the user or fixed, but is known anyway.
拠点ID、位置情報及びサイズはカメラ画像の数だけ含まれる。
・状態には、カメラ画像の配置が上記A~Dになった場合に状態A~Dが格納される。移動部15が制御する値である。
Site IDs, location information and sizes are included for the number of camera images.
The states A to D are stored in the state when the arrangement of the camera image is the above A to D. It is a value controlled by the moving
<C.録画再生装置における資料画像の構築>
図15は、録画再生装置30における資料画像の再生方法を説明する図である。録画再生装置30の第一資料画像構築部33は、録画された合成画像を活用して、死角がない資料画像を構築する。
<C. Construction of Material Image in Recording/Playback Device>
15A and 15B are diagrams for explaining a method of reproducing a material image in the recording/reproducing
第一資料画像構築部33は、合成画像の画像データから状態A、状態B、状態Cのそれぞれのフレームを取得する。状態A、状態B、状態Cのフレームであるかどうかは、録画再生装置30がカメラ画像の位置に基づいて判断してもよいし、画像合成部17が図14のメタデータから判断してもよい。
The first document
第一資料画像構築部33は、カメラ画像を表示していた領域を黒画素(256階調の0)に置き換え中間画像250を作成する(図15(a)~(c))。中間画像250は動画ファイル作成部32がカメラ画像をトリミングした後の合成画像でもよい。第一資料画像構築部33は白画素に置き換えてもよい。状態A、状態B、状態Cのカメラ画像の位置やサイズはメタデータから取得できる。
The first document
第一資料画像構築部33は、状態A'、状態B'、状態C'の中間画像250を画素位置ごとにOR演算で合成すれば、死角のない資料画像251を構築することができる図15(d))。このOR演算は、例えば、3つの中間画像250のうち画素値が0なら破棄して、0でなければ平均(又は任意の画像のどれか)を採用する処理である。
The first document
なお、状態A~Cの間に(カメラ画像の位置が変化する間に)資料画像が切り替わっている可能性があるので、第一資料画像構築部33はカメラ画像がない中間画像250の領域をブロックに分けて、3つの中間画像250のブロック同士を比較し、切り替わりを検出するとよい。資料画像が切り替わっていた場合、第一資料画像構築部33は資料画像を構築しない。あるいは、切り替わっていない資料画像が2つあれば、資料画像を構築してもよい(この場合、資料画像の全体を構築できないおそれがある)。
Since there is a possibility that the document image is switched between states A to C (while the position of the camera image is changing), the first document
また、使用する合成画像は上記では状態A~Cの3つだが、死角がなくなるように合成画像があればよく、2つ又は4つ以上でもよい。 In the above description, three composite images are used for states A to C, but it is sufficient if there are composite images so as to eliminate blind spots, and two or four or more may be used.
<Cの処理による、資料画像と動画ファイルの作成>
図16は、録画再生装置30がカメラ画像(動画ファイル)と資料画像を保存する処理を説明するフローチャート図である。図16の処理は、合成画像の動画ファイルが合成画像記憶部41に保存されると実行可能となる。ユーザーが録画再生装置30に対し、合成画像を再生する操作を開始したことでスタートしてもよい(普段のデータ収納は合成画像のままでよい)。
<Creation of document images and video files by processing C>
FIG. 16 is a flowchart for explaining the process of saving the camera image (moving image file) and the material image by the recording/reproducing
まず、動画ファイル作成部32は、合成画像記憶部41から合成画像を取得する(S11)。取得する合成画像はユーザーが指定した動画ファイルでもよいし、カメラ画像の動画ファイルや資料画像が構築されていない動画ファイルでもよい。
First, the moving image
動画ファイル作成部32は、各フレームのメタデータに含まれるカメラ画像の位置情報とサイズに基づいて、フレームからカメラ画像を切り出す。動画ファイル作成部32はこれらを拠点ごとに動画ファイルとしてカメラ画像記憶部42に保存する(S12)。
The moving image
次に、第一資料画像構築部33は合成画像の動画ファイルから状態がA~Cのフレームを特定する(S13)。ここでは、動画ファイル作成部32により中間画像が作成済みとする。
Next, the first document
状態A~Cのフレームは時系列にほぼ一定間隔に現れる。第一資料画像構築部33は状態A~Cのフレームを1セットに、OR演算して資料画像を構築する(S14)。
Frames of states A to C appear in time series at substantially regular intervals. The first document
第一資料画像構築部33は、資料画像に録画ID、構築開始時刻、構築終了時刻、資料画像ID、サイズ、ファイル名を対応付けて資料画像記憶部43に保存する(S15)。なお、構築開始時刻は状態Aのフレームの撮像時刻であり、構築終了時刻は状態Cのフレームの撮像時刻である。
The first document
<B.資料画像の上下スライド>
続いて、「B.資料画像の上下スライド」による合成画像の生成と録画された資料画像の構築について説明する。
<B. Vertical slide of the material image>
Next, generation of a composite image and construction of a recorded material image by "B. Vertical slide of material image" will be described.
図17は、資料画像を上にスライドさせながら合成画像を作成する画像処理の概略を説明する図である。 FIG. 17 is a diagram for explaining an outline of image processing for creating a composite image while sliding a material image upward.
通信端末10のページ切替部16は、資料画像を、図17(a)→図17(b)→図17(c)のように、上方向に移動させながら次の資料画像(次のページ)に移行する。スライドの速度は録画再生装置30が資料画像を取り込める程度の速度とする。図17ではカメラ画像が資料画像の下部にあるため、ページ切替部16が資料画像を上にスライドさせるが、カメラ画像が資料画像の側方にある場合、ページ切替部16が資料画像を左又は右にスライドさせる。カメラ画像が資料画像の上部にある場合、ページ切替部16が資料画像を下にスライドさせる。このように、ページ切替部16は、カメラ画像のレイアウトを考慮してスライド方向を決定する。
The
図17(a)→図17(b)→図17(c)では、切り替わる前の資料画像Aと切り替わった後の資料画像Bが徐々に上方向にスライドしている。 17(a)→FIG. 17(b)→FIG. 17(c), the material image A before switching and the material image B after switching gradually slide upward.
図18を用いて詳細に説明する。図18は、資料画像の上下スライドを説明する図である。まず、ページ切替部16は、図18(a)に示すように、資料画像の切り替わりを検出する。ページ切替部16は、例えば、他の拠点から送信される資料画像を一定間隔で比較し、資料画像の切り替わりを検出できる。ページ切替部16は、ページを切り替えた旨の操作信号で検出してもよい。ページ切替部16は切り替え後の資料画像Bを用意する。
A detailed description will be given with reference to FIG. FIG. 18 is a diagram for explaining vertical sliding of the document image. First, the
資料画像の切り替わりを検出した場合、ページ切替部16は、2つの資料画像A,Bを上下方向に連結し、図18(b)→図18(c)→図18(d)に示すように、1フレーム220に入る部分を資料画像として切り取る。ページ切替部16は、2つの資料画像A,Bの上方から下方に切り取る範囲を徐々に移動する。例えば、図18(b)では切り替わる前の資料画像Aの全体が1フレーム220に配置され、図18(c)では切り替わる前の資料画像Aの下半分と切り替わった後の資料画像Bの上半分が1フレーム220に配置され、図18(d)では切り替わった後の資料画像Bの全体が1フレーム220に配置されている。画像合成部17はこのようなフレームにカメラ画像を配置して合成画像を作成する。
When the switching of the document image is detected, the
そして、録画再生装置30では、図17、図18で説明した合成画像が圧縮符号化の後に記録される。この合成画像は、資料画像が上下にスライドしながら徐々に切り替わる動画になる。資料画像にはカメラ画像も埋め込まれている。資料画像の再生時、録画再生装置30の第二資料画像構築部36は、Dの処理として、資料画像がスライドしながら表示されていることを利用して、死角のない資料画像を別途作成する。
Then, in the recording/reproducing
すなわち、第二資料画像構築部36は、カメラ画像が重なっていない部分の資料画像を結合して、資料画像を構築する。カメラ画像が存在する領域を下端からLとすると、L以上の領域を切り取ればよい。第二資料画像構築部36は、例えば、図18(b)の画面(フレーム)の上半分221(フレームの一部)を切り取り、図18(c)の画面(フレーム)の上半分222(フレームの一部)を切り取る。第二資料画像構築部36は切り取った2つの資料画像を結合して、資料画像を構築する。図18(b)から図18(d)への切り替え時間をT秒とすると、切り替えの検出の直前と、切り替えの検出からT/2秒経過時に第二資料画像構築部36がそれぞれフレームの上半分221,222を切り取ればよい。
That is, the second document
なお、図17、図18の画像処理は、会議参加者が多い(参加拠点数が多いため)、Aのカメラ画像の移動がやりにくい、又は、資料の改頁がかなり短いインターバルで発生する場合に適している。 The image processing in FIGS. 17 and 18 is performed when there are many conference participants (because of the large number of participating sites), when it is difficult to move the camera image of A, or when page breaks in the material occur at fairly short intervals. Suitable for
<処理手順>>
図19は、資料画像を上にスライドさせる処理において、図11のステップS7の処理を説明するフローチャート図である。
<Processing procedure>
FIG. 19 is a flow chart for explaining the process of step S7 in FIG. 11 in the process of sliding the document image upward.
ページ切替部16が、他の拠点から送信される資料画像と表示中の資料画像に基づいて資料画像(ページ)が切り替わったか否かを判断する(S21)。ページ切替部16は、自拠点の通信端末10が資料画像を表示している場合、ユーザーの操作でページの切り替えを検出できる。
The
また、ページ切替部16は、資料画像におけるカメラ画像の位置に基づいてスライド方向を判断する(S22)。ここではページ切替部16は、上方向にスライドすると判断したものとする。
Also, the
次に、ページ切替部16は切り替わる前の資料画像を上に、切り替わった後の資料画像を下にして2つの資料画像を上下に連結する(S23)。
Next, the
ページ切替部16は、上側の資料画像の高さを時間Tで除算してスライド速度を決定する(S24)。時間Tは、予め設定されている。時間Tは、キャプチャ処理が間に合う範囲で速いほうが好ましい(例えば、10秒等)。ユーザーが会議中の議論に遅れないように資料画像を表示するためである。
The
ページ切替部16は、合成画像のフレームごとに、スライド速度に基づいて、上側の資料画像の上端を基準にフレームに含める範囲を決定する(S25)。
The
ページ切替部16は、上側の資料画像がフレームに入らなくなるまで、ステップS24の処理を繰り返す(S26)。
The
<D.録画再生装置における資料画像の構築>
次に、図20を参照して、録画再生装置30における資料画像の構築について説明する。図20は、資料画像を上下にスライドさせる処理において、第二資料画像構築部36が資料画像を構築する処理を説明するフローチャート図である。
<D. Construction of Material Image in Recording/Playback Device>
Next, referring to FIG. 20, construction of a material image in the recording/
まず、第二資料画像構築部36は、合成画像記憶部41から合成画像の動画ファイルを取得する(S31)。取得する合成画像はユーザーが指定した動画ファイルでもよいし、カメラ画像の動画ファイルや資料画像が構築されていない動画ファイルでもよい。
First, the second document
切替検出部35は、合成画像のフレームを監視して資料画像が切り替わったか否かを判断する(S32)。
The switching
ステップS32の判断がYesの場合、まず、第二資料画像構築部36は切り替える前の資料画像の上半分をキャプチャする(S33)。合成画像は保存済みなので、第二資料画像構築部36は切り替え開始の直前のフレームを特定できる。
If the determination in step S32 is Yes, first, the second document
次に、第二資料画像構築部36は切り替えが検出されてからT/2秒が経過した資料画像の上半分をキャプチャする(S34)。
Next, the second document
第二資料画像構築部36は、資料画像の上半分と下半分を連結して、資料画像を構築する(S35)。
The second document
第二資料画像構築部は、資料画像に録画ID、ページ切替時刻、資料画像ID、サイズ、ファイル名を対応付けて資料画像記憶部43に保存する(S36)。 The second document image constructing unit associates the document image with the recording ID, page switching time, document image ID, size, and file name, and stores the document image in the document image storage unit 43 (S36).
第二資料画像構築部36は、合成画像の動画ファイルの最後まで図20の処理を繰り返す(S37)。
The second document
<会議に参加していなかったユーザーの操作による資料画像の閲覧>
図21は、合成画像の再生時に利用できる3種類の画像を示す図である。図21(a)は合成画像260を示す。
<Browsing of material images by the operation of a user who did not participate in the meeting>
FIG. 21 is a diagram showing three types of images that can be used when reproducing a synthesized image. FIG. 21(a) shows a
図21(b)は資料画像用のファイルである。
・図21(b)は、C又はDの処理により作成された、会議中に共有されていた資料等に対して、死角のない資料画像251のファイルである。
FIG. 21(b) is a file for a material image.
- FIG. 21(b) is a file of a
図21(c)は、パノラマ画像202、個別画像203、話者カメラ画像204等のカメラ画像252のみを表示した動画ファイルである。
・再生時に資料と同時に映す必要がなければ、拡大表示が可能になるため、人の表情等がわかりやすくなる。
FIG. 21(c) is a moving image file displaying
・If it is not necessary to display the material at the same time as the material during playback, it is possible to enlarge the display, making it easier to understand the facial expressions of people.
図21(d)は、図21(a)と同様の合成画像260の動画ファイルである。
・図21(d)は、元の合成画像であり、動画として表示できる。
FIG. 21(d) is a moving image file of a
• Fig. 21(d) is the original composite image, which can be displayed as a moving image.
ユースケースの一例を説明する。会議に参加しなったユーザーはPCを録画再生装置30に接続して、合成画像の動画ファイルを選ぶ。どの合成画像が所望の会議のものかは、撮像開始時刻等からユーザーが判断できる。図21(d)に示すように、ユーザーは合成画像を最初から閲覧するが、資料の死角が気になると、例えば資料をダブルクリックするなどする。操作受付部34が資料の要求を検出する。表示制御部37は資料が要求された合成画像の表示時刻を検出し、資料画像記憶部43から表示時刻に対応する資料画像を取得する。例えば、合成画像の開始から1分15秒の経過時に資料が要求された場合、1分から1分30秒の間のフレームから構築された001-003.jpegの資料画像を取得する。表示制御部37は、ディスプレイにこの資料画像(死角がない)を大きく表示できる。
An example of a use case will be explained. A user who does not participate in the conference connects a PC to the recording/reproducing
同様に、ユーザーが参加者の表情が気になると、例えば任意のカメラ画像をダブルクリックするなどする。操作受付部34がカメラ画像の要求を検出する。表示制御部37はカメラ画像が要求された合成画像の表示時刻を検出し、カメラ画像記憶部42から表示時刻に対応するカメラ画像を取得する。例えば、合成画像の開始から1分15秒の経過時にカメラ画像が要求された場合、各拠点のカメラ画像(動画ファイル)の1分15秒経過時から再生する。
Similarly, when the user is concerned about the facial expressions of the participants, he/she double-clicks an arbitrary camera image, for example. The
また、図22に示すように、2つのディスプレイ20A,20Bがあれば、録画再生装置30は、カメラ画像252と資料画像251を同時に表示できる。図22は、合成画像260から作成されたカメラ画像252と資料画像251の2つのディスプレイを用いた表示例を示す。図21で説明したようにカメラ画像と資料画像を別々に用意することで、以下のような再生方法が可能になる。
・録画再生装置30が出力I/Fを2つ有する場合、図21(b)と(c)の画像を同時に2つのディスプレイ20A,20Bにそれぞれ出力することができる。
・あるいは、Dual DisplayとDisplayPortのマルチストリーム機能(ディスプレイ同士を接続できる)を使うことで、図21(b)と(c)の画像を同時にモニター出力することができる。
Also, as shown in FIG. 22, if there are two
- If the recording/
- Alternatively, by using the multi-stream function of Dual Display and DisplayPort (which can connect displays), the images in FIGS. 21(b) and (c) can be output to the monitor at the same time.
<主な効果>
以上説明したように、本実施形態の録画システム60は、カメラ画像が徐々に移動させるか、又は、資料画像をスライドさせてページを切り替えるかの少なくともいずれかにより、録画再生装置30は、画像の背面に隠れていた領域も取得できる。録画再生装置30はそれを別ファイルとして保存しておくことで、再生時は資料画像の全体を表示したり、資料画像の任意の位置にカメラ画像を移動したりすることができる。
<Main effects>
As described above, the
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above using examples, the present invention is by no means limited to such examples, and various modifications can be made without departing from the scope of the present invention. and substitutions can be added.
例えば、本実施形態では、資料画像にカメラ画像が埋め込まれる例を説明したが、画像に何が映っているかに関わらず本実施形態を適用できる。例えば資料画像は風景画像などでもよい。カメラ画像は動画投稿サイトが提供する画像でもよい。また、資料画像をWebページとして、カメラ画像を広告としてもよい。 For example, in this embodiment, an example in which a camera image is embedded in a document image has been described, but this embodiment can be applied regardless of what is shown in the image. For example, the material image may be a landscape image. The camera image may be an image provided by a video posting site. Alternatively, the document image may be the web page, and the camera image may be the advertisement.
また、本実施形態では録画再生装置30が資料画像を構築したが、サーバーが資料画像を構築してもよい。
Also, in the present embodiment, the recording/reproducing
また、図5などの構成例は、通信端末10、及び録画再生装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。通信端末10、及び録画再生装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
Further, the configuration examples in FIG. 5 and the like are divided according to main functions in order to facilitate understanding of processing by the
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiments described above may be implemented by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. Devices such as ASIC (Application Specific Integrated Circuit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array) and conventional circuit modules are included.
10 通信端末
30 録画再生装置
60 録画システム
100 通信システム
10
Claims (10)
前記第一の画像データに、他の拠点から受信するか又は自拠点で用意した第二の画像データを埋め込んだ動画のフレーム内で、前記第一の画像データ又は前記第二の画像データの位置を移動させる画像処理部と、
前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成する画像合成部と、
前記動画ファイルから前記第二の画像データを含まない前記第一の画像データを構築する画像構築部と、
前記画像構築部が構築した前記第一の画像データを表示する表示制御部と、
を有する録画システム。 a communication unit that receives the first image data from another base;
The position of the first image data or the second image data in the moving image frame in which the second image data received from another site or prepared at the own site is embedded in the first image data an image processing unit that moves the
an image synthesizing unit that generates a moving image file in which the second image data is embedded in the first image data;
an image construction unit that constructs the first image data that does not include the second image data from the moving image file;
a display control unit that displays the first image data constructed by the image construction unit;
A recording system with
前記画像構築部は、前記第二の画像データの位置が異なる複数の前記第一の画像データを前記動画ファイルから取得し、前記第一の画像データから前記第二の画像データを取り取って合成することで前記第二の画像データを含まない前記第一の画像データを構築することを特徴とする請求項1に記載の録画システム。 arranging the first image data in a moving image frame, and taking a preset time to make the second image data larger than the size of the second image data with respect to the first image data; Having a moving part for moving,
The image constructing unit acquires a plurality of the first image data in which the positions of the second image data are different from the moving image file, extracts the second image data from the first image data, and synthesizes the second image data. 2. The recording system according to claim 1, wherein the first image data that does not contain the second image data is constructed by doing so.
予め設定されている時間をかけて、動画のフレームに配置された切り替え前の前記第一の画像データをスライドさせて、切り替え後の前記第一の画像データに切り替えるページ切替部を有し、
前記画像合成部は、スライドの途中の前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成し、
前記動画ファイルから前記第一の画像データが切り替わったことを検出した場合、
前記画像構築部は、切り替わる前の前記第一の画像データの一部と、スライドされた後の前記第一の画像データの一部とをそれぞれ切り取って、合成することで前記第二の画像データを含まない前記第一の画像データを構築することを特徴とする請求項1に記載の録画システム。 When it is detected that the first image data has been switched,
a page switching unit that takes a preset time to slide the first image data before switching arranged in a frame of a moving image to switch to the first image data after switching;
The image synthesizing unit generates a moving image file in which the second image data is embedded in the first image data in the middle of the slide,
When it is detected that the first image data has been switched from the moving image file,
The image constructing unit cuts out a portion of the first image data before switching and a portion of the first image data after sliding, and synthesizes them to form the second image data. 2. The video recording system according to claim 1, wherein said first image data that does not contain .
前記画像構築部は、切り替わる前の前記第一の画像データの半分と、前記時間の半分が経過した前記第一の画像データの半分とをそれぞれ切り取って、合成することで前記第二の画像データを含まない前記第一の画像データを構築することを特徴とする請求項4に記載の録画システム。 When it is detected that the first image data has been switched from the moving image file,
The image constructing unit cuts out half of the first image data before switching and half of the first image data after half of the time, and synthesizes the second image data. 5. The video recording system according to claim 4, wherein said first image data that does not contain .
前記位置情報とサイズに基づいて、前記第一の画像データから取り込んだ前記第二の画像データの第二の動画ファイルを作成する動画ファイル作成部を有することを特徴とする請求項1~5のいずれか1項に記載の録画システム。 the moving image file has position information and size of the second image data in the first image data;
6. The method according to any one of claims 1 to 5, further comprising a moving image file creation unit that creates a second moving image file of said second image data captured from said first image data based on said position information and size. The recording system according to any one of items 1 and 2.
前記第一の画像データに、他の拠点から受信するか又は自拠点で用意した第二の画像データを埋め込んだ動画のフレーム内で、前記第一の画像データ又は前記第二の画像データの位置を移動させる画像処理部と、
前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成する画像合成部と、を有する通信端末から
前記動画ファイルを受信する受信部と、
前記受信部が受信した前記動画ファイルから前記第二の画像データを含まない前記第一の画像データを構築する画像構築部と、
前記画像構築部が構築した前記第一の画像データを表示する表示制御部と、
を有する録画再生装置。 a communication unit that receives the first image data from another base;
The position of the first image data or the second image data in the moving image frame in which the second image data received from another site or prepared at the own site is embedded in the first image data an image processing unit that moves the
a receiving unit for receiving the moving image file from a communication terminal having an image synthesizing unit for generating a moving image file in which the second image data is embedded in the first image data;
an image construction unit that constructs the first image data that does not include the second image data from the moving image file received by the reception unit;
a display control unit that displays the first image data constructed by the image construction unit;
A recording/playback device having
画像処理部が、前記第一の画像データに、他の拠点から受信するか又は自拠点で用意した第二の画像データを埋め込んだ動画のフレーム内で、前記第一の画像データ又は前記第二の画像データの位置を移動させるステップと、
画像合成部が、前記第一の画像データに前記第二の画像データを埋め込んだ動画ファイルを生成するステップと、
画像構築部が、前記動画ファイルから前記第二の画像データを含まない前記第一の画像データを構築するステップと、
表示制御部が、前記画像構築部が構築した前記第一の画像データを表示するステップと、
を有する画像処理方法。 a step in which the communication unit receives the first image data from another base;
The image processing unit embeds the first image data or the second a step of moving the position of the image data of
an image synthesizing unit generating a moving image file in which the second image data is embedded in the first image data;
an image construction unit constructing the first image data that does not include the second image data from the moving image file;
a step in which a display control unit displays the first image data constructed by the image construction unit;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021132243A JP2023026844A (en) | 2021-08-16 | 2021-08-16 | Video recording system, video recording playback device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021132243A JP2023026844A (en) | 2021-08-16 | 2021-08-16 | Video recording system, video recording playback device and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023026844A true JP2023026844A (en) | 2023-03-01 |
Family
ID=85327157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021132243A Pending JP2023026844A (en) | 2021-08-16 | 2021-08-16 | Video recording system, video recording playback device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023026844A (en) |
-
2021
- 2021-08-16 JP JP2021132243A patent/JP2023026844A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7508413B2 (en) | Video conference data transmission device and data transmission method adapted for small display of mobile terminals | |
JP5216303B2 (en) | Composite video distribution apparatus and method and program thereof | |
JP4994646B2 (en) | Communication terminal, communication system, and communication terminal display method | |
JP6172610B2 (en) | Video conferencing system | |
US7425979B2 (en) | Communication system | |
WO2005002218A1 (en) | Image pickup apparatus, image recording apparatus and image recording method | |
JP2005123804A (en) | Communication system and method | |
JP2016165162A (en) | Moving image distribution system | |
JP2010157906A (en) | Video display device | |
JP2016192610A (en) | Remote conference program, controller and remote conference method | |
JP2006211268A (en) | Video doorphone unit | |
JP2002262251A (en) | Conference server device and multi-point conference system | |
JP2011082867A (en) | Communication apparatus and communication conference system | |
JP2023026844A (en) | Video recording system, video recording playback device and image processing method | |
JP2003134487A (en) | Multi-spot conference system | |
JP4328582B2 (en) | Remote image monitoring system | |
KR101067952B1 (en) | Managing System for less traffic in video communication and Method thereof | |
JP3760564B2 (en) | Video conference system | |
JP2001069473A (en) | Video telephone system | |
JP2004200823A (en) | Imaging unit, recorder, and reproducing unit | |
JP2002247538A (en) | Conference server device and multipoint conference system | |
JP6481937B2 (en) | Communication device for video conference | |
CN112584084B (en) | Video playing method and device, computer equipment and storage medium | |
JP2002223264A (en) | Cooperative processing method | |
JP2004023706A (en) | Multi-point conference system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240624 |