JP2020042125A - Real-time editing system - Google Patents
Real-time editing system Download PDFInfo
- Publication number
- JP2020042125A JP2020042125A JP2018168530A JP2018168530A JP2020042125A JP 2020042125 A JP2020042125 A JP 2020042125A JP 2018168530 A JP2018168530 A JP 2018168530A JP 2018168530 A JP2018168530 A JP 2018168530A JP 2020042125 A JP2020042125 A JP 2020042125A
- Authority
- JP
- Japan
- Prior art keywords
- divided
- video
- synthesizing
- board
- sdi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、超高解像度映像のリアルタイム編集システムに関する。 The present invention relates to a real-time editing system for ultra-high resolution video.
近年、8K60Pのように映像の超高解像度化・高フレームレート化が進んでおり、その超高解像度映像をリアルタイムで編集できるリアルタイム編集システムが提案されている(例えば、特許文献1参照)。特許文献1に記載されたリアルタイム編集システムは、レンダリングジョブを生成する制御装置と、圧縮素材映像をデコードするデコード装置と、デコードされた素材映像を合成する合成装置とを備えるものである。そして、従来のリアルタイム編集システムでは、1台の合成装置及び2台のデコード装置からなる処理系統を4系統構成し、それぞれの処理系統で8K60Pの映像を時分割処理する。
なお、8K60Pとは、解像度が8K(7680×4320画素)であり、フレームレートが60P(60fps:frame per second)であることを意味する。
2. Description of the Related Art In recent years, ultra-high resolution and high frame rates of video such as 8K60P have been advanced, and a real-time editing system capable of editing the ultra-high resolution video in real time has been proposed (for example, see Patent Document 1). The real-time editing system described in
Note that 8K60P means that the resolution is 8K (7680 × 4320 pixels) and the frame rate is 60P (60 fps: frame per second).
しかし、従来のリアルタイム編集システムは、莫大なデータ量の超高解像度映像を処理する際、装置内部のバス帯域が不足することがあり、さらなる超高解像度化・高フレームレート化への対応が困難である。例えば、サンプリング構造がYCbCr4:2:2の8K60P映像を2ストリーム合成する場合を考える。この場合、映像の帯域が97.344Gバイト/秒であるのに対し、CPUとメモリ間のバス帯域が実測値で約50Gバイト/秒となり、バス帯域が不足する。
However, the conventional real-time editing system sometimes runs short of the internal bus bandwidth when processing ultra-high-resolution images with enormous amounts of data, making it difficult to respond to even higher resolutions and higher frame rates. It is. For example, the sampling structure YC b C r 4: 2: 2 of
さらに、従来のリアルタイム編集システムは、各装置の役割が固定されているが、超高解像度映像の内容により、装置間で処理負荷が大きく異なることがある。このため、従来のリアルタイム編集システムでは、システム全体の処理能力に余裕を持たせる必要があり、その処理能力を柔軟に増減できる余地(スケーラビリティ)が乏しいという問題もある。つまり、従来のリアルタイム編集システムにおいて、映像の解像度(4K、8K、16K)やフレームレート(60P、120P)を向上させようとしても、柔軟にシステム構成を変更できないという問題を示している。 Further, in the conventional real-time editing system, the role of each device is fixed, but the processing load may greatly differ between the devices depending on the content of the ultra-high-resolution video. For this reason, in the conventional real-time editing system, it is necessary to provide a margin in the processing capacity of the entire system, and there is also a problem that there is little room (scalability) to flexibly increase or decrease the processing capacity. In other words, in the conventional real-time editing system, there is a problem that the system configuration cannot be flexibly changed even if the resolution (4K, 8K, 16K) or the frame rate (60P, 120P) of the video is improved.
そこで、本発明は、バス帯域の制約を受けにくく、スケーラビリティに優れたリアルタイム編集システムを提供することを課題とする。 Therefore, an object of the present invention is to provide a real-time editing system that is not easily restricted by a bus band and has excellent scalability.
前記した課題に鑑みて、本発明に係るリアルタイム編集システムは、超高解像度の素材映像を分割した分割領域が予め割り当てられ、分割領域の素材映像である分割素材映像をデコードして合成する複数の合成装置と、合成装置を制御する1台の制御装置と、圧縮された分割素材映像を記憶する記憶装置を備えるリアルタイム編集システムであって、制御装置が、レンダリングジョブ生成手段、を備え、合成装置が、デコードジョブ生成手段と、1以上のデコード手段と、1以上の合成手段と、出力ボードと、を備える構成とした。 In view of the above-described problem, the real-time editing system according to the present invention is configured such that a plurality of divided regions obtained by dividing an ultra-high resolution material image are assigned in advance, and a divided material image that is a material image of the divided region is decoded and synthesized. A real-time editing system including a synthesizing device, one control device for controlling the synthesizing device, and a storage device for storing the compressed divided material video, wherein the control device includes a rendering job generating unit, Has a configuration including a decode job generating unit, one or more decoding units, one or more combining units, and an output board.
かかる構成によれば、制御装置は、レンダリングジョブ生成手段によって、分割素材映像の合成を合成装置に指令するレンダリングジョブを生成する。
合成装置は、デコードジョブ生成手段によって、制御装置が生成したレンダリングジョブで指定された分割素材映像のデコードを指令するデコードジョブを生成する。
合成装置は、デコード手段によって、デコードジョブ生成手段が生成したデコードジョブに基づいて、記憶手段の分割素材映像をデコードする。
合成装置は、合成手段によって、レンダリングジョブに基づいて、デコード手段がデコードした分割素材映像を合成する。
合成装置は、出力ボードによって、合成が最も遅れている合成装置に合わせて、合成手段が合成した分割合成映像を同期して出力する。この分割合成映像を分割領域の位置に応じて配置すれば、合成された超高解像度映像が得られる。
According to this configuration, the control device uses the rendering job generating means to generate a rendering job that instructs the synthesizing device to synthesize the divided material video.
The synthesizing device generates, by the decode job generating means, a decode job instructing to decode the divided material video specified by the rendering job generated by the control device.
The synthesizing device decodes the divided material video in the storage means by the decoding means based on the decode job generated by the decode job generating means.
The synthesizing device synthesizes the divided material video decoded by the decoding device based on the rendering job by the synthesizing device.
The synthesizing device synchronously outputs the divided synthesized video synthesized by the synthesizing means in accordance with the synthesizing device whose synthesis is delayed most by the output board. By arranging the divided combined video in accordance with the position of the divided area, a synthesized super high resolution video can be obtained.
このように、合成装置は、超高解像度の素材映像を分割した分割素材映像を扱うので、分割素材映像のデータ量が低減し、装置内部のバス帯域が不足する事態を防止することができる。
さらに、合成装置は、任意の数のデコード手段及び合成手段を備えるので、超高解像度映像の内容に応じて、システム全体の処理能力を柔軟に増減することができる。
As described above, since the synthesizing apparatus handles the divided material video obtained by dividing the ultra-high resolution material video, the amount of data of the divided material video can be reduced, and a shortage of the bus band inside the device can be prevented.
Furthermore, since the synthesizing device includes an arbitrary number of decoding means and synthesizing means, the processing capacity of the entire system can be flexibly increased or decreased according to the content of the ultra-high resolution video.
本発明に係るリアルタイム映像編集システムは、バス帯域の制約を受けにくく、スケーラビリティに優れているので、さらなる超高解像度化・高フレームレート化にも対応することができる。 The real-time video editing system according to the present invention is less susceptible to restrictions on the bus band and has excellent scalability, so that it can cope with even higher resolution and higher frame rate.
(第1実施形態)
以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び同一の処理には同一の符号を付し、説明を省略した。
(1st Embodiment)
Hereinafter, each embodiment of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, the same means and the same process are denoted by the same reference characters, and a description thereof will be omitted.
[リアルタイム編集システムの全体構成]
図1及び図2を参照し、リアルタイム編集システム1の全体構成について説明する。
図1に示すように、リアルタイム編集システム1は、制御装置10と、合成装置20と、記憶装置(HDD:Hard Disk Drive)30と、8Kディスプレイ(60P)40と、4Kディスプレイ50とを備える。
[Overall configuration of real-time editing system]
The overall configuration of the real-
As shown in FIG. 1, the real-
図2に示すように、リアルタイム編集システム1は、超高解像度の素材映像を空間的に4分割し、各分割領域の映像をそれぞれ合成する4台の合成装置20を備える。つまり、リアルタイム編集システム1では、4分割した分割領域のそれぞれを4台の合成装置201〜204に予め割り当てる。例えば、1台目の合成装置201に左上の分割領域を割り当て、2台目の合成装置202に左下の分割領域を割り当てる。また、3台目の合成装置203に右上の分割領域を割り当て、4台目の合成装置204に右下の分割領域を割り当てる。そして、各合成装置20は、割り当てられた分割領域の映像を合成する。
As shown in FIG. 2, the real-
なお、超高解像度の素材映像とは、8K60Pのような超高解像度・高フレームレートの素材映像のことである。本実施形態では、素材映像の解像度が7680×4320画素であり、素材映像のフレームレートが60fps(Frame Per Second)であることとして説明する。また、本実施形態では、素材映像を構成するピクセル(画素)のサンプリング構造が、放送用映像で一般的なYCbCr4:2:2であることとして説明する。このYCbCr4:2:2は、2つの色差信号Cb,Crを水平方向に1/2のデータ量に間引くので、主観的な画質をほとんど損なわずに総データ量を2/3に抑えることができる。
It should be noted that the ultra-high resolution material video is a material video of an ultra-high resolution and high frame rate such as 8K60P. In the present embodiment, a description will be given assuming that the resolution of the material video is 7680 × 4320 pixels and the frame rate of the material video is 60 fps (Frame Per Second). Further, in the present embodiment, the sampling structure of the pixels (pixels) constituting the source video is broadcast video in general YC b C r 4: 2: described as it is 2. The YC b C r 4: 2: 2 , the two color difference signals C b, since thinning the data quantity of 1/2 C r in the horizontal direction, the total data amount with little impair the
以後、超高解像度の素材映像を各分割領域に分割したものを「分割素材映像」と記載する場合がある。本実施形態では、8Kの素材映像(7680画素×4320画素)を4分割しているので、分割素材映像の解像度は4K(3840画素×2160画素)となる。
また、圧縮された分割素材映像を「圧縮分割素材映像」と記載する場合がある。
また、分割素材映像に合成処理を施したものを「分割合成映像」と記載する場合がある。
また、分割合成映像を縮小(ダウンコンバート)したものを「縮小映像」と記載する場合がある。また、各合成装置20で縮小された解像度が2K(1920画素×1080画素)の縮小映像を「2K縮小映像」と記載し、この2K縮小映像を4枚並べたものを「4K縮小映像」と記載する場合がある。
Hereinafter, what is obtained by dividing an ultra-high resolution material image into each divided region may be referred to as a “divided material image”. In the present embodiment, since the 8K material video (7680 pixels × 4320 pixels) is divided into four, the resolution of the divided material video is 4K (3840 pixels × 2160 pixels).
In some cases, a compressed divided material image is referred to as a “compressed divided material image”.
In addition, an image obtained by performing a combining process on a divided material image may be referred to as a “divided combined image”.
In addition, a reduced (down-converted) split composite video may be referred to as a “reduced video”. Further, a reduced image reduced in resolution by each synthesizing
ここで、特許文献1に記載のリアルタイム編集システム(以後、「従来のリアルタイム編集システム」)との相違について説明する。従来のリアルタイム編集システムでは、8K60Pの映像を4つの処理系統で時分割し、各処理系統を15Pのフレームレートで並行動作させている。これに対し、リアルタイム編集システム1は、合成装置20で動作する1以上のプロセスで実装することで、4K60Pの映像を1台の合成装置20で扱うことができる。そして、リアルタイム編集システム1は、この合成装置20を4台組み合わせることで、8K60Pの超高解像度映像を合成可能としたものである。
Here, a difference from the real-time editing system described in Patent Document 1 (hereinafter, “conventional real-time editing system”) will be described. In a conventional real-time editing system, 8K60P video is time-divided by four processing systems, and each processing system is operated in parallel at a frame rate of 15P. On the other hand, the real-
制御装置10は、合成装置20を制御するものである。具体的には、制御装置10は、レンダリングジョブを生成し、生成したレンダリングジョブを各合成装置20に出力する。
このレンダリングジョブは、分割素材映像の合成を各合成装置20に指令するものである。
また、制御装置10は、他領域レンダリングジョブを生成し、生成した他領域レンダリングジョブを各合成装置20に出力する。この他領域レンダリングジョブは、ピクチャーインピクチャー(PinP:Picture In Picture)など、他の合成装置20が記憶している分割素材映像を参照するレンダリングジョブである。
また、制御装置10は、各合成装置20から入力された2K縮小映像を並べて4K縮小映像を生成し、生成した4K縮小映像を4Kディスプレイ50に表示する。
The
This rendering job instructs each synthesizing
Further, the
Further, the
本実施形態では、制御装置10は、図1に示すように、2個のCPU(Central Processing Unit)100と、SDI(Serial Digital Interface)ボード110と、10Gbpsイーサネットボート120とを備える。
以後、10Gbpsイーサネットボートを「10GbEボード」と略記する場合がある。
なお、図1では、マウス、キーボード、ディスプレイ、メモリ等の一般的なハードウェア構成の図示を省略した。
In the present embodiment, as shown in FIG. 1, the
Hereinafter, the 10 Gbps Ethernet port may be abbreviated as “10 GbE board”.
In FIG. 1, illustration of general hardware configurations such as a mouse, a keyboard, a display, and a memory is omitted.
CPU100は、制御装置10で必要な各種演算を行う中央演算装置であり、例えば、デュアルCPUで構成される。
SDIボード110は、SDIにより映像の出力を行う映像入出力ボードである。このSDIボード110は、4K縮小映像を4Kディスプレイ50に出力する。
10GbEボード120は、制御装置10と合成装置20との間でデータ通信を行うネットワークIFである。この10GbEボード120は、通信速度が10Gbpsであり、レンダリングジョブや他領域レンダリングジョブを各合成装置20に送信する。また、10GbEボード120は、各合成装置20から2K縮小映像を受信する。
The
The
The 10
合成装置20は、制御装置10からの指令に応じて、記憶装置30に記憶されている圧縮分割素材映像をデコードして合成するものである。そして、合成装置20は、SDIボード240を介して、合成した分割映像を8Kディスプレイ(60P)40に出力する。
The synthesizing
本実施形態では、合成装置20は、2個のCPU200と、SDIボード240と、光IFボード250と、10GbEボード260とを備える。
CPU200は、合成装置20で必要な各種演算を行う中央演算装置であり、例えば、デュアルCPUで構成される。CPU200は、分割素材映像を合成する1以上の合成プロセス210と、分割素材映像をデコードする1以上のデコードプロセス220とを備える(図5)。合成プロセス210及びデコードプロセス220の数は任意に設定可能であり、例えば、合成プロセス210が2つ、デコードプロセス220が4つである。合成プロセス210及びデコードプロセス220は、マルチタスクOS(Operating System)のプロセスとして実装されているので、これらのプロセス数を容易に増減できる。
In the present embodiment, the synthesizing
The
SDIボード240は、図1に示すように、LVDS(Low Voltage Differential Signaling)によりリング接続されている。このLVDSは、1対1の片方向通信を高速に行うことができるシリアルインタフェースである。つまり、4台の合成装置201〜204が備える4台のSDIボード2401〜2404は、デイジーチェーン接続されている。そして、4台のSDIボード2401〜2404が、合成が最も遅れている合成装置20に合わせて、分割合成映像を同期して出力する。このように、フレーム同期した4つの分割合成映像(解像度4K)を並べるだけで、超高解像度映像(解像度8K)を容易に再構成できる。なお、SDIボード240の詳細は後記する。
The
光IFボード250は、光リング通信網に接続するネットワークIFである。例えば、光IFボード250は、40Gbpsの光モジュールを2個搭載すると共に、PCI Express(rev3)×8レーンでCPU200に接続される。
10GbEボード260は、制御装置10と合成装置20との間でデータ通信を行うネットワークIFである。この10GbEボード260は、制御装置10から、レンダリングジョブや他領域レンダリングジョブが入力される。また、10GbEボード260は、制御装置10に2K縮小映像を送信する。
The optical IF
The 10
記憶装置30は、圧縮分割素材映像を予め記憶するものである。本実施形態では、リアルタイム編集システム1は、合成装置201〜204と1対1で対応するように、4台の記憶装置301〜304を備える。そして、記憶装置301〜304は、合成装置201〜204に対応する圧縮分割素材映像をそれぞれ記憶する。例えば、図2に示すように、1台目の記憶装置301が左上の圧縮分割素材映像を記憶し、2台目の記憶装置302が左下の圧縮分割素材映像を記憶する。また、3台目の記憶装置303が右上の圧縮分割素材映像を記憶し、4台目の記憶装置304が右下の圧縮分割素材映像を記憶する。
The
記憶装置30に圧縮分割素材映像を記憶させる手法は、特に制限されない。超高解像度映像のビットレートは非常に大きいため、超高解像度映像を分割して記憶する映像記録装置が従来より開発されており、これを利用できる。例えば、この映像記録装置で分割した分割素材映像を圧縮し、記憶装置30に予め記憶すればよい。
The method of storing the compressed divided material video in the
8Kディスプレイ(60P)40は、8K60P等の超高解像度映像を表示するものである。本実施形態では、8Kディスプレイ(60P)40は、超高解像度映像を表示可能なFPD(Flat Panel Display)、CRT(Cathode Ray Tube)等のディスプレイである。
4Kディスプレイ50は、制御装置10から入力された4K縮小映像を表示可能なFPD、CRT等のディスプレイである。
The 8K display (60P) 40 displays an ultra-high resolution video such as 8K60P. In the present embodiment, the 8K display (60P) 40 is a display such as an FPD (Flat Panel Display) or a CRT (Cathode Ray Tube) capable of displaying an ultra-high resolution image.
The
[リアルタイム編集システムでの編集処理]
図3を参照し、リアルタイム編集システム1での編集処理について説明する。
まず、リアルタイム編集システム1の利用者(編集者)は、図示を省略したキーボード、マウス、スライダ等の入力手段を操作して、編集作業に必要な各種情報を制御装置10に設定する。例えば、各種情報には、合成装置20で行う合成処理の種類、分割素材映像の識別情報(ID)、分割素材映像のフレーム番号等の情報が含まれる。
[Editing process in real-time editing system]
The editing process in the real-
First, a user (editor) of the real-
この分割素材映像の識別情報は、1回の編集処理において、分割素材映像ファイルをオープンするときに決定される一意な識別子である。例えば、分割素材映像の識別情報として、制御装置10が分割素材映像をオープンしたとき、制御装置10のオペレーティングシステムが自動的に生成するファイル識別子を利用できる。
The identification information of the divided material video is a unique identifier determined when the divided material video file is opened in one editing process. For example, a file identifier automatically generated by an operating system of the
制御装置10は、利用者が設定した情報に基づいて、レンダリングジョブを生成し(ステップS1)、生成したレンダリングジョブを合成装置20に送信する(ステップS2)。
合成プロセス210は、制御装置10からレンダリングジョブを受信し、指定された識別情報及びフレーム番号の圧縮分割素材映像を記憶装置30から読み出し、プロセス間共有メモリ230に書き込む(ステップS3)。そして、合成プロセス210は、読み出した圧縮分割素材映像のデコード指令を、デコードジョブとしてデコードプロセス220に送信する(ステップS4)。
The
The
デコードプロセス220は、合成プロセス210から送信されたデコードジョブに基づいて、圧縮分割素材映像をデコードする(ステップS5)。そして、デコードプロセス220は、デコードした分割素材映像をプロセス間共有メモリ230に書き込む(ステップS6)。
The
合成プロセス210は、レンダリングジョブに基づいて、プロセス間共有メモリ230に書き込まれた分割素材映像を合成する(ステップS7)。
合成プロセス210は、4Kの分割合成映像を縮小した2K縮小映像を生成する(ステップS8)。
合成プロセス210は、10GbEボード260を介して、ステップS8で生成した2K縮小映像を制御装置10に送信する(ステップS9)。
合成プロセス210は、SDIボード240を介して、分割合成映像を8Kディスプレイ(60P)40に出力する(ステップS10)。
The combining
The combining
The combining
The combining
ここで、ステップS3〜S9の処理が4台の合成装置20で並列に実行されるので、4つの分割領域に対応した分割合成映像が得られる。そして、ステップS10において、SDIボード240が、最も合成の遅れている合成装置20に合わせて、4つの分割合成映像を同期して出力する。これにより、リアルタイム編集システム1では、4つの分割合成映像を並べるだけで、合成後の超高解像度映像を容易に再構成できる。
Here, since the processes of steps S3 to S9 are executed in parallel by the four
その後、制御装置10は、合成装置20から受信した2K縮小映像を4つ並べ、SDIボード110を介して、4K縮小映像として4Kディスプレイ50に出力する(ステップS11)。
これにより、リアルタイム編集システム1では、合成後の超高解像度映像を即座にプレビュー表示することができる。
Thereafter, the
Thus, the real-
[制御装置の構成]
図4を参照し、制御装置10の構成について説明する。
図4に示すように、制御装置10のCPU100は、レンダリングジョブ生成手段101と、バッファ予約手段102と、他領域レンダリングジョブ生成手段(第2レンダリングジョブ生成手段)103と、4K縮小映像生成手段104とを備える。
なお、2個のCPU100がデュアルCPUとして協調動作するため、図4ではCPU100を1個のみ図示した。
[Configuration of control device]
The configuration of the
As shown in FIG. 4, the
Since two
レンダリングジョブ生成手段101は、利用者が設定した情報に基づいて、各合成装置20のレンダリングジョブを生成するものである。前記したように、レンダリングジョブは、分割素材映像の合成を合成装置20の合成プロセス210に指令するものである。例えば、このレンダリングジョブには、合成装置20で行う合成処理の種類、分割素材映像の識別情報(ID)、分割素材映像のフレーム番号等の情報が含まれる。
The rendering
バッファ予約手段102は、他の合成装置20が記憶している分割素材映像を参照するか否かを判定するものである。そして、バッファ予約手段102は、その分割素材映像を参照する場合、各合成装置20が備える光IFボード250のバッファ251(図5)を予約する。
他領域レンダリングジョブ生成手段103は、他領域レンダリングジョブ(第2レンダリングジョブ)を生成するものである。この他領域レンダリングジョブは、他の合成装置20が記憶している分割素材映像を参照する場合において、分割素材映像をデコード及び合成して予約済みのバッファ251に格納する指令である。
なお、バッファ予約手段102及び他領域レンダリングジョブ生成手段103の詳細は、後記する。
The
The other area rendering
The details of the
4K縮小映像生成手段104は、分割領域の位置に応じて2K縮小映像を並べた4K縮小映像を生成するものである。つまり、4K縮小映像生成手段104は、各合成装置20が生成した2K縮小映像を、その合成装置20に割り当てられた分割領域の位置に応じて並べることで4K縮小映像を生成する。例えば、4K縮小映像生成手段104は、1台目の合成装置201が生成した2K縮小映像を左上に配置し、2台目の合成装置202が生成した2K縮小映像を左下に配置する。また、4K縮小映像生成手段104は、3台目の合成装置203が生成した2K縮小映像を右上に配置し、4台目の合成装置204が生成した2K縮小映像を右下に配置する。
その後、4K縮小映像生成手段104は、SDIボード110を介して、生成した4K縮小映像を4Kディスプレイ50に出力する。
The 4K reduced
Thereafter, the 4K reduced
[合成装置の構成]
図5を参照し、合成装置20の構成について説明する。ここでは、4台の合成装置20が同一構成のため、1台の合成装置20についてのみ説明する。
図5のように、合成装置20のCPU200は、合成プロセス210と、デコードプロセス220と、プロセス間共有メモリ230とを備える。前記したように、各合成装置20は、マルチタスクOSのプロセスとして、合成プロセス210及びデコードプロセス220を任意の数だけ起動し、並列処理を行うことができる。
[Configuration of synthesis device]
The configuration of the synthesizing
As shown in FIG. 5, the
<デコードプロセスの並列処理>
図6を参照し、デコードプロセス220の並列処理について説明した後、合成装置20の構成を説明する。
合成装置20では、合成処理よりデコード処理に時間を要するため、合成プロセス210の数よりデコードプロセス220の数を多くするとよい。図6では、1台目の合成装置201が、1つの合成プロセス210を起動し、4つのデコードプロセス2201〜2204を起動することとして説明する。つまり、図6の例では、4つのデコードプロセス2201〜2204が並列処理を行う。
<Parallel processing of decoding process>
With reference to FIG. 6, after explaining the parallel processing of the
In the synthesizing
図6に示すように、合成装置201は、2つの圧縮分割素材映像V1,V2をデコードして合成することとする。具体的には、合成装置201は、フレーム番号(0)で圧縮分割素材映像V1をデコードし、フレーム番号(1)〜(4)で圧縮分割素材映像V1,V2をデコードして合成する。
As shown in FIG. 6,
合成装置201は、4つのデコードプロセス2201〜2204に対し、順番にデコードするフレームを割り当てる。つまり、合成装置201は、4つのデコードプロセス2201〜2204で処理するフレーム番号(0)〜(4)を決定する。本実施形態では、各デコードプロセス2201〜2204が4フレーム間隔で処理を行うことになる。従って、フレーム番号(0),(4)が1つめのデコードプロセス2201で処理され、フレーム番号(1)が2つめのデコードプロセス2202で処理される。また、フレーム番号(2)が3つめのデコードプロセス2203で処理され、フレーム番号(3)が4つめのデコードプロセス2204で処理されることになる。
なお、図6では、デコードされた後の映像をO1,O2とする。また、V1,V2,O1,O2に付したカッコ書きの数値は、フレーム番号を意味する。
In FIG. 6, the decoded video is denoted by O1 and O2. The numerical values in parentheses attached to V1, V2, O1, and O2 mean frame numbers.
以下、1つめのデコードプロセス2201に着目する。フレーム番号(0)では、1つめのデコードプロセス2201が圧縮分割素材映像V1(0)を分割素材映像O1(0)としてデコードする。そして、合成プロセス210が、この分割素材映像O1(0)をそのまま分割合成映像として出力する。
In the following, attention is paid to the first
フレーム番号(4)では、デコードプロセス2201が圧縮分割素材映像V1(4)を分割素材映像O1(4)としてデコードし、圧縮分割素材映像V2(4)を分割素材映像O2(4)としてデコードする。さらに、合成プロセス210が、分割素材映像O1(4)に分割素材映像O2(4)を合成し、分割合成映像O1(4)として出力する。
In the frame number (4), and decodes the
図5に戻り、合成装置20の構成について、説明を続ける。
合成プロセス210は、デコードジョブ生成手段211と、圧縮分割素材映像読出手段212と、合成手段213と、2K縮小映像生成手段214とを備える。
Returning to FIG. 5, the description of the configuration of the synthesizing
The
デコードジョブ生成手段211は、制御装置10が生成したレンダリングジョブで指定された分割素材映像のデコードを指令するデコードジョブを生成するものである。具体的には、デコードジョブ生成手段211は、制御装置10からレンダリングジョブを受信すると、圧縮分割素材映像の読み出しを圧縮分割素材映像読出手段212に依頼する。そして、デコードジョブ生成手段211は、読み出した圧縮分割素材映像のデコード指令を、デコードジョブとして合成手段213に送信する。
The decode
圧縮分割素材映像読出手段212は、デコードジョブ生成手段211から依頼された圧縮分割素材映像を記憶装置30から読み出すものである。具体的には、圧縮分割素材映像読出手段212は、制御装置10から受信したレンダリングジョブで指定された識別情報及びフレーム番号の圧縮分割素材映像を記憶装置30から読み出す。そして、圧縮分割素材映像読出手段212は、読み出した圧縮分割素材映像をプロセス間共有メモリ230に格納する。
The compressed divided material video reading means 212 reads the compressed divided material video requested by the decode job generating means 211 from the
合成手段213は、制御装置10が生成したレンダリングジョブに基づいて、後記するデコード手段221がデコードした分割素材映像を合成するものである。例えば、合成手段213は、ディゾルブ、ワイプ等の合成処理をプロセス間共有メモリ230の分割素材映像に施す。そして、合成手段213は、生成した分割合成映像をSDIボード240のバッファ243(図8)に書き込み、当該分割合成映像が出力可能になった旨をSDIボード240に送信する。このように、合成手段213は、SDIボード240を介して、生成した分割合成映像を8Kディスプレイ(60P)40に出力する。
The synthesizing
<8K座標系から4K座標系への変換>
ここで、各合成装置20は、8Kの素材映像を分割した4Kの分割素材映像を扱う。このため、各合成装置20は、以下で説明するように、レンダリングジョブに含まれる8K座標系を4K座標系に変換する。
<Conversion from 8K coordinate system to 4K coordinate system>
Here, each synthesizing
図7に示すように、素材映像の右下に「○○○…○○○」という文字スーパー画像を重畳する場合を考える。例えば、4台目の合成装置204は、右下の分割領域が割り当てられているので、文字スーパー画像の一部を重畳する必要がある。このため、4台目の合成装置204は、レンダリングジョブに含まれる合成処理の対象範囲として、文字スーパーの範囲を示す左上座標(x1,y1)〜右下座標(x2,y2)を取得する。そして、合成装置204は、取得した左上座標(x1,y1)〜右下座標(x2,y2)から、割り当てられた分割領域の左上座標(3840,2160)を減算し、正値に切り上げる座標変換を行う。座標変換後、文字スーパーの範囲は、左上座標(x1−3840,y1−2160)〜右下座標(x2−3840,y2−2160)となる。
As shown in FIG. 7, a case is considered in which a superimposed character image “「.... For example, four
なお、2台目の合成装置202であれば、合成処理の対象範囲から、割り当てられた分割領域の左上座標(0,2160)を減算すればよい。また、3台目の合成装置203であれば、合成処理の対象範囲から、割り当てられた分割領域の左上座標(3840,0)を減算すればよい。
また、重畳対象である文字スーパーは、静止画であり、再生開始前に内容が確定することから、合成装置20のCPU200やメモリ(不図示)の容量・性能を圧迫しないので、8Kの静止画のまま扱ってもよい。
Incidentally, if the second unit of the
The superimposed character superimposition is a still image, and the content is determined before the start of reproduction, so that the capacity and performance of the
図5に戻り、合成装置20の構成について、説明を続ける。
2K縮小映像生成手段214は、合成手段213が合成した分割合成映像を縮小し、2K縮小映像(分割縮小映像)を生成するものである。つまり、2K縮小映像生成手段214は、分割合成映像の解像度を4Kから2Kまでダウンコンバートする。そして、2K縮小映像生成手段214は、10GbEボード260を介して、生成した2K縮小映像を制御装置10に出力する。
Returning to FIG. 5, the description of the configuration of the synthesizing
The 2K reduced
デコードプロセス220は、デコード手段221を備える。
デコード手段221は、デコードジョブ生成手段211が生成したデコードジョブに基づいて、圧縮分割素材映像をデコードするものである。このデコード手段221は、デコードジョブで指定された内容のデコード処理を、プロセス間共有メモリ230に格納された圧縮分割素材映像に施す。そして、デコード手段221は、デコードした分割素材映像をプロセス間共有メモリ230に格納する。
The
The decoding means 221 decodes the compressed divided material video based on the decoding job generated by the decoding job generating means 211. The
プロセス間共有メモリ230は、マルチタスクOSにおいて、プロセス間で共有可能なメモリである。本実施形態では、プロセス間共有メモリ230は、合成プロセス210とデコードプロセス220との間で共有される。例えば、プロセス間共有メモリ230は、圧縮分割素材映像読出手段212が読み出した圧縮分割素材映像や、デコード手段221がデコードした分割素材映像を格納する。
The inter-process shared
<SDIボードの構成>
図8を参照し、合成装置20が備えるSDIボード240の構成について説明する。
リアルタイム編集システム1では、何れか1台の合成装置20に備えられたSDIボード240がマスタSDIボードとして予め設定される。また、リアルタイム編集システム1では、他の合成装置20に備えられたSDIボード240がスレーブSDIボードとして予め設定される。本実施形態では、図8に示すように、1台目の合成装置201のSDIボード240がマスタSDIボード2401として設定されている。また、2台目から4台目までの合成装置202〜204のSDIボード240がスレーブSDIボード2402〜2404として設定されていることとする。
<Configuration of SDI board>
The configuration of the
In the real-
SDIボード240は、外部同期信号を入力するSync端子241と、3個のSDI端子242とを有する。また、SDIボード240は、バッファ243としてDDR3 SDRAM(Double Data Rate3 Synchronous Dynamic Random Access Memory)を搭載する。また、SDIボード240は、PCI Express(rev3)×8レーンでCPU200に接続される(符号244)。また、各合成装置20に備えられたSDIボード240を同期させるため、LVDS入力端子245IN及びLVDS出力端子245OUTを備える。
なお、前記したSDIボード240の構成は、マスタSDIボード2401及びスレーブSDIボード2402〜2404で共通する。
The
The configuration of the
また、SDIボード240は、LVDSによりリング接続されている。つまり、デイジーチェーンの先頭から末尾に順に接続され、デイジーチェーンの末尾から先頭に戻るように、4台のSDIボード240が全体でリング状に接続されている。具体的には、マスタSDIボード2401のLVDS出力端子245OUTが、スレーブSDIボード2402のLVDS入力端子245INに接続される。また、スレーブSDIボード2402のLVDS出力端子245OUTが、スレーブSDIボード2403のLVDS入力端子245INに接続される。また、スレーブSDIボード2403のLVDS出力端子245OUTが、スレーブSDIボード2404のLVDS入力端子245INに接続される。また、スレーブSDIボード2404のLVDS出力端子245OUTが、マスタSDIボード2401のLVDS入力端子245INに接続される。これにより、各SDIボード240は、受信したデータを接続先のSDIボード240に即座に送信することができ、伝送クロックで数クロック以内という略同時刻に同一データを共有できる。
The
前記したように、SDIボード240は、合成が最も遅れている合成装置20に合わせて、分割合成映像を同期して出力する。このため、マスタSDIボード2401は、問合手段246と、指令手段247と、同期出力手段(第1の同期出力手段)248Mとを備える。
問合手段246は、分割合成映像の次フレーム番号をスレーブSDIボード2402〜2404に問い合わせるものである。
指令手段247は、最小の次フレーム番号の分割合成映像の出力をマスタSDIボード2401及びスレーブSDIボード2402〜2404に指令するものである。この最小の次フレーム番号は、スレーブSDIボード2402〜2404が応答した次フレーム番号、及び、マスタSDIボード2401を備える合成装置201が出力予定の次フレーム番号のうち、最小のものである。
同期出力手段248Mは、指令手段247から指令された次フレーム番号の分割合成映像を同期して出力するものである。
As described above, the
Inquiry unit 246 is for querying the next frame number of the divided synthesis image into slave SDI board 240 2-240 4.
Command means 247 is for commanding the output of dividing and synthesizing the image of the minimum of the next frame number to the
Synchronous output means 248 M is for synchronization and outputs the split composite video commanded next frame number from the command means 247.
また、スレーブSDIボード2402〜2404は、応答手段249と、同期出力手段(第2の同期出力手段)248Sとを備える。
応答手段249は、問合手段246からの問い合わせに応じて、そのスレーブSDIボード2402〜2404を備える合成装置202〜2404が出力予定の次フレーム番号を、問合手段246に応答するものである。
同期出力手段248Sは、指令手段247から指令された次フレーム番号の分割合成映像を同期して出力するものである。
なお、スレーブSDIボード2403,2404の符号は、図面を見やすくするために省略した。
The slave SDI board 240 2-240 4 includes a response means 249, and a synchronous output means (second synchronous output means) 248 S.
Response means 249, in response to an inquiry from the inquiry unit 246, the next frame number of the synthesizer 20 2-240 4 output will comprise the slave SDI board 240 2-240 4, responds to the inquiry unit 246 Things.
The synchronous output means 248 S synchronously outputs the divided composite video of the next frame number specified by the command means 247.
Note that the reference numerals of the
<SDIボードによる同期制御>
図9を参照し、SDIボード240による同期制御について説明する。
図9は、合成装置20がバッファ243に分割合成映像を格納するタイミングと、SDIボード240がバッファ243の分割合成映像を出力するタイミングと、ビデオクロックを出力するタイミングと、SDIボード240による同期制御とを表している。
なお、図9では、横軸が時間の経過を表し、分割素材映像や分割合成映像で連続する4枚のフレーム画像を異なるハッチングで図示した。
<Synchronous control by SDI board>
The synchronization control by the
FIG. 9 shows the timing at which the
In FIG. 9, the horizontal axis represents the passage of time, and four continuous frame images of the divided material video and the divided composite video are illustrated with different hatchings.
図9上段に示すように、各合成装置20が合成を終えて、SDIボード240のバッファ243に分割合成映像を格納するタイミングは異なっている。例えば、1枚目及び2枚目の分割合成映像では、4台目の合成装置204が最も遅いタイミングとなる。また、3枚目及び4枚目の分割合成映像では、2台目の合成装置202が最も遅いタイミングとなる。
As shown in the upper part of FIG. 9, the timing at which each of the combining
このように、4台の合成装置20が分割合成映像を生成するタイミングが異なるため、8Kの合成映像を得るためには、分割合成映像を同期させる必要がある。
ここで、SDIボード240をはじめとして、映像入出力インタフェースのタイミング同期の手段として、外部同期信号を用いる方法が一般的である。例えば、単一の同期信号源から送信される水平同期信号及び垂直同期信号に一致するタイミングで各装置が映像信号を出力することにより、複数の装置間でタイミングを同期させることができる。この方法によれば、複数の装置で映像信号を単純に同期させるだけであれば十分であるが、分割合成映像間で時刻の整合性を保つには不十分である。つまり、リアルタイム編集システム1では、4台の合成装置20から出力される4Kの分割合成映像を8Kの合成映像として再構築する。このとき、リアルタイム編集システム1では、同時刻に出力される分割合成映像のフレーム画像が、同時刻の素材映像から分割されたものでなければならない。一般的な外部同期信号による同期では、分割合成映像間で時刻の整合性を保てず、不十分である。
As described above, since the timings at which the four combining
Here, a method using an external synchronization signal is generally used as a means for synchronizing the timing of the video input / output interface such as the
また、8K映像を4つの4K映像に分割して取り扱う記録再生装置についても検討する。この場合、再生対象が圧縮分割素材映像そのものであるため、記録再生装置で再生開始時の素材フレームと再生開始時刻を一致させておく。その後、同期信号に従って同じ枚数のフレームを順次、4台の記録再生装置から出力する同期方式が考えられる。しかし、リアルタイム編集システム1では、以下で述べるように、この同期方式の適用が困難である。再生開始時刻として、最もレンダリング処理の完了が遅くなる合成装置20で分割合成映像を出力できる時刻を設定しなければならず、この設定は容易でない。さらに、合成に1/60秒以上要する処理負荷の高いフレーム画像が連続する場合、いわゆる「コマ落ち」の状態となり、この状態で4K映像間の同期を取ることも容易ではない。
Further, a recording / reproducing apparatus which handles an 8K video by dividing it into four 4K videos will be considered. In this case, since the playback target is the compressed divided material video itself, the material frame at the time of starting playback and the playback start time are made to match in the recording and playback device. After that, a synchronization method in which the same number of frames are sequentially output from the four recording / reproducing apparatuses according to the synchronization signal is considered. However, in the real-
そこで、リアルタイム編集システム1では、4台の合成装置20に備えられたSDIボード240が自律協調し、同一時刻に同一フレームの分割合成映像を出力する方式を採用した。図9下段に示すように、各SDIボード240は、バッファ243に格納された分割合成映像を1/60秒間隔でSDI信号として8Kディスプレイ(60P)40に出力する。レンダリング(合成)が1/60秒未満で完了すれば、1/60秒後には次フレームの分割合成映像をバッファ243から出力できるので、4K60Pの動画再生が可能となる。
Therefore, the real-
実際に出力したい合成映像の解像度が8Kであるのに対し、分割合成映像の解像度が4Kである。従って、リアルタイム編集システム1では、正しい合成映像を出力するために、4台のSDIボード240からの分割合成映像がフレーム単位で同期しなければならない。
The resolution of the composite video that is actually output is 8K, whereas the resolution of the divided composite video is 4K. Therefore, in the real-
前記したように、4台のSDIボード240のうち、何れか1台がマスタSDIボード2401として設定され、他の3台がスレーブSDIボード2402〜2404として設定されている。そして、マスタSDIボード2401が、次のフレームとして出力すべき映像のフレーム番号(「次フレーム番号」)をスレーブSDIボード2402〜2404に送信する。これにより、全てのスレーブSDIボード2402〜2404が同時刻に同一フレームを出力できる。
As described above, among the four
ここで、リアルタイム編集システム1では、各合成装置20がレンダリングを非同期に行って分割合成映像を生成し、生成した分割合成映像がSDIボード240に順次バッファリングする。この処理過程を踏まえると、次フレーム番号は、全合成装置20がバッファリングを完了した(すなわち出力可能な)フレーム画像の中で最も古いフレーム画像を表すことになる。また、制御装置10がレンダリング指令を1回生成する毎に、フレーム番号を更新して付与する単調増加する整数値とする。この場合、次フレーム番号は、全合成装置20の出力可能フレーム番号の最小値を表すことになる。従って、マスタSDIボード2401は、スレーブSDIボード2402〜2404に対し、次フレーム番号の問い合わせをLVDSリングで行い、各合成装置20の出力フレームの同期を取る。
Here, in the real-
図9下段に示すように、マスタSDIボード2401の問合手段246は、LVDSリングで接続されたスレーブSDIボード2402に対し、次フレーム番号を問い合わせる(ステップS20)。
スレーブSDIボード2402の応答手段249は、LVDSリングで接続されたスレーブSDIボード2403に対し、2台目の合成装置202の次フレーム番号を送信する(ステップS21)。
スレーブSDIボード2403の応答手段249は、LVDSリングで接続されたスレーブSDIボード2404に対し、3台目の合成装置203の次フレーム番号を送信する(ステップS22)。
スレーブSDIボード2404の応答手段249は、LVDSリングで接続されたマスタSDIボード2401に対し、4台目の合成装置204の次フレーム番号を送信する(ステップS23)。
As shown in FIG. 9 lower, inquiry unit 246 of the
Response means 249 of the
Response means 249 of the
Response means 249 of the
すなわち、ステップS23で生成した送信には、2台目の合成装置202〜4台目の合成装置202の次フレーム番号が含まれている。また、マスタSDIボード2401は、バッファリングされている分割合成映像より、1台目の合成装置201の次フレーム番号がわかる。
That is, the transmission generated at step S23, the second unit of the
そこで、指令手段247は、1台目の合成装置201の次フレーム番号と、スレーブSDIボード2402〜2404が応答した次フレーム番号とのうち、最小となる次フレーム番号を求める。そして、指令手段247は、求めた次フレーム番号の分割合成映像の出力をスレーブSDIボード2402〜2404に指令する。この指令は、LVDSリングを介して、スレーブSDIボード2402〜2404に順次送信される。
さらに、指令手段247は、その次フレーム番号の分割合成映像の出力を、マスタSDIボード2401の同期出力手段248Sに指令する(ステップS24)。
Therefore, command means 247, the first and the next frame number first unit of
Further, the command means 247, the output of the split composite video of the next frame number, directs the synchronous output means 248 S master SDI board 240 1 (step S24).
同期出力手段248M,248Sは、次フレームのビデオクロックで、次フレーム番号の分割合成映像を出力すると設定する(ステップS25)。
次フレームのビデオクロックに合わせ、同期出力手段248M,248Sは、次フレーム番号の分割合成映像を出力する(ステップS26)。
Synchronous output means 248 M, 248 S is a video clock of the next frame is set as a divisional synthesis image of the next frame number (step S25).
In synchronization with the video clock of the next frame, the synchronous output means 248 M and 248 S output the divided composite video of the next frame number (step S26).
ステップS20〜S25の処理は、1ビデオクロック期間(1/60秒)以内に十分に収まる。そして、ステップS26の処理において、ビデオクロックと同期して、分割合成映像の各フレーム画像をSDI出力する。2枚目以降のフレーム画像でもステップS20〜S26の処理を繰り返すので、リアルタイムで分割合成映像を同期出力できる。 The processes in steps S20 to S25 are sufficiently completed within one video clock period (1/60 second). Then, in the process of step S26, each frame image of the divided composite video is output in SDI in synchronization with the video clock. Since the processes of steps S20 to S26 are repeated for the second and subsequent frame images, the divided composite video can be synchronously output in real time.
この同期制御により、再生処理開始から最初のフレーム画像を出力するまでの時間を、最も合成が遅い合成装置20において、合成処理が完了したフレームの次フレームを出力するという最短時間にできる。この最短時間とは、最も遅い合成装置20が合成を完了した時刻が8Kの映像として成立する時刻であり、その時刻から次のフレーム出力タイミングで映像を出力するという意味である。さらに、4Kの各分割合成映像を制御装置10や合成装置20に集める必要がないため、メモリやCPUの処理負荷を抑えることができる。
With this synchronization control, the time from the start of the reproduction process to the output of the first frame image can be set to the shortest time in the synthesizing
なお、図9では、マスタSDIボード2401が、内部クロック又は外部同期によりビデオクロック信号を生成し、スレーブSDIボード2402〜2404にLVDSリングで送信していることとする。
In FIG. 9, the
図5に戻り、合成装置20の構成について、説明を続ける。
合成装置20の光IFボード250は、バッファ251と、アドレステーブル252とを備える。
バッファ251は、4台の合成装置20が生成した4つの分割合成映像を記憶するバッファメモリである。つまり、各合成装置20は、それぞれのバッファ251に、各合成装置20が生成した4つの分割合成映像を格納する。このバッファ251は、複数(例えば64個)のフレームデータを格納可能なリングバッファであり、後記するバッファ番号で各リングバッファを特定できる。
アドレステーブル252は、バッファ251のバッファ領域を管理するテーブルである。
Returning to FIG. 5, the description of the configuration of the synthesizing
The optical IF
The buffer 251 is a buffer memory that stores the four divided combined images generated by the four combining
The address table 252 is a table for managing the buffer area of the buffer 251.
<他領域レンダリング処理>
図10及び図11を参照し、バッファ251を用いた他領域レンダリング処理について説明する。
前記したように、合成処理の際、他の合成装置20に割り当てられた分割領域の素材映像を参照することもある。図10に示すように、8K映像の右上にPinPを行う場合を考える。このとき、右上の分割領域が割り当てられた3台目の合成装置203のみで8K映像のデコード処理を行うことを考える。この場合、3台目の合成装置203の演算量のみが増大し、各合成装置20の演算量に大きな偏りが生じるために好ましくない。そこで、各合成装置20で素材映像をデコードし、デコードされた素材映像を3台目の合成装置203が取得する手法を検討する。
<Other area rendering processing>
The other area rendering processing using the buffer 251 will be described with reference to FIGS.
As described above, at the time of the synthesizing process, the material video of the divided area allocated to another synthesizing
本実施形態では、各合成装置20の光IFボード250が、リング状のトポロジにより通信路を形成するので、各合成装置20の間でRDMA(Remote Direct Memory Access)通信が可能となる。このように、光IFボード250は、各合成装置20の間で分割合成映像を送受信するための通信路を構成する。以下、具体的な処理手順について説明する。
In the present embodiment, since the optical IF
図11に示すように、バッファ予約手段102は、他の合成装置20が記憶している分割素材映像を参照するか否かを判定する。例えば、バッファ予約手段102は、レンダリングジョブで、他の合成装置20に割り当てられた分割領域が指定されている場合、他の合成装置20が記憶している分割素材映像を参照すると判定する(ステップS30)。
As shown in FIG. 11, the
バッファ予約手段102は、ステップS30で分割素材映像を参照すると判定した場合、各合成装置20が備える光IFボード250のバッファ251を予約する。このとき、バッファ予約手段102は、各合成装置20が記憶する4つの分割素材映像を格納できるだけのバッファ251を予約する。例えば、バッファ予約手段102は、アドレステーブル252を参照し、未使用のバッファ番号を連番で4つ予約済みとする(ステップS31)。
If it is determined in step S30 that the divided material video is to be referred to, the
他領域レンダリングジョブ生成手段103は、予約したバッファ番号の最小値、及び、分割素材映像のフレーム番号が含まれる他領域レンダリングジョブを生成する(ステップS32)。
他領域レンダリングジョブ生成手段103は、生成した他領域レンダリングジョブを合成装置20に送信する(ステップS33)。
The other area rendering
The other area rendering
合成プロセス210は、制御装置10からレンダリングジョブを受信し、指定されたフレーム番号の圧縮分割素材映像を記憶装置30から読み出し、プロセス間共有メモリ230に書き込む(ステップS34)。そして、合成プロセス210は、読み出した圧縮分割素材映像のデコード指令を、デコードジョブとしてデコードプロセス220に送信する(ステップS35)。
The
デコード手段221は、合成プロセス210から送信されたデコードジョブに基づいて、圧縮分割素材映像をデコードする(ステップS36)。
デコード手段221は、デコードした分割素材映像を予約したバッファ251に書き込む。例えば、デコード手段221は、合成装置20の識別番号(1〜4)及び予約済みのバッファ番号で特定されるバッファ251に書き込む(ステップS37)。
The
The
デコード手段221は、光IFボード250にRDMA処理を依頼する(ステップS38)。このRDMA処理とは、ある合成装置20が備える光IFボード250のバッファ251の内容を、他の合成装置20が備える光IFボード250のバッファ251に直接書き込むことである。
光IFボード250は、デコード手段221からの依頼に応じて、RDMA処理を行う(ステップS39)。
The
The optical IF
ここで、ステップS34〜S38の処理が4台の合成装置20で並列に実行されるので、各合成装置20に割り当てられた分割領域の素材映像が、その合成装置20のバッファ251に格納された状態となる。そして、ステップS39において、RDMA処理により、ある合成装置20のバッファ251に格納された分割素材映像が他の合成装置20のバッファ251にも格納される。これにより、各合成装置20のバッファ251に全分割素材映像が格納された状態となる。
Here, since the processing of steps S34 to S38 is performed in parallel by the four
合成手段213は、バッファ251に格納された全分割素材映像を読み出す(ステップS40)。
合成手段213は、制御装置10が生成した他領域レンダリングジョブに基づいて、読み出した全分割素材映像に合成処理を施す。例えば、合成手段213は、バッファ251読み出した全分割素材映像を縮小して重畳するPinP処理を行う(ステップS41)。
The synthesizing
The synthesizing
バッファ予約手段102は、ステップS31で予約したバッファ251を解放する。例えば、バッファ予約手段102は、アドレステーブル252を参照し、連番で予約したバッファ番号を未予約状態とする(ステップS42)。
なお、ステップS8〜S11の処理は、図3の編集処理と同様のため、説明を省略した。
また、ステップS8,S10,S41の処理は、PinPを行う3台目の合成装置203のみで実行すればよい。
The buffer reservation means 102 releases the buffer 251 reserved in step S31. For example, the
The processing in steps S8 to S11 is the same as the editing processing in FIG.
Further, the processing of steps S8, S10, and S41 may be performed only by the third
他領域レンダリング処理では、リアルタイム編集システム1が、バッファ251を用いることで、各合成装置20にデコード処理を分散できるので、ある合成装置20のみの演算量が増大する事態を抑制することができる。
In the other region rendering process, the real-
[作用・効果]
以上のように、リアルタイム編集システム1は、合成装置20が超高解像度映像を分割して扱うので、分割素材映像のデータ量が低減し、合成装置20内部のバス帯域が不足する事態を防止することができる。
さらに、リアルタイム編集システム1は、合成装置20の合成プロセス210及びデコードプロセス220がマルチタスクOSのプロセスとして実装されている。これにより、リアルタイム編集システム1では、超高解像度映像の内容に応じて、それらプロセスの個数を容易に変更し、システム全体の処理能力を柔軟に増減することができる。
[Action / Effect]
As described above, in the real-
Further, in the real-
従来のリアルタイム編集システムでは、合成処理及びデコード処理を個別の装置に割り当てるので、最も演算量が多いデコード処理にどの程度CPUを割り当てるかによって、装置構成が固定化されていた。このため、従来のリアルタイム編集システムでは、デコード処理以外を担当する装置には殆ど処理負荷がかからず、無駄が生じていた。一方、リアルタイム編集システム1は、合成装置20でデコード処理及び合成処理の両方を行うので、合成装置20の間で演算量の偏りが少なく、無駄を抑えることができる。
In the conventional real-time editing system, since the synthesizing process and the decoding process are assigned to individual devices, the device configuration is fixed depending on how much the CPU is assigned to the decoding process with the largest amount of calculation. For this reason, in the conventional real-time editing system, a processing load is hardly applied to a device that is in charge of processing other than the decoding process, resulting in waste. On the other hand, since the real-
(第2実施形態)
[リアルタイム編集システムの全体構成]
第2実施形態に係るリアルタイム編集システム1Bについて、第1実施形態と異なる点を説明する。
第1実施形態では超高解像度映像が8K60Pであるのに対し、第2実施形態では超高解像度映像が8K120Pとより高フレームレートになっている。このため、リアルタイム編集システム1Bは、偶数台の合成装置20を複数の処理系統に予めグループ分けし、その処理系統毎に時分割処理を行う点が第1実施形態と異なる。
(2nd Embodiment)
[Overall configuration of real-time editing system]
The points of the real-time editing system 1B according to the second embodiment that differ from the first embodiment will be described.
In the first embodiment, the ultra high resolution video is 8K60P, whereas in the second embodiment, the ultra high resolution video has a higher frame rate of 8K120P. For this reason, the real-time editing system 1B differs from the first embodiment in that the even-numbered
8K−SHV(Super High Vision)では、フルスペックSHVを現時点で最高品質の映像と位置付けている。このフルスペックSHVとは、解像度が7680×4320画素、ビット深度が12ビット、サンプリング構造がRGB4:4:4、フレームレートが120Pの映像のことである。 In 8K-SHV (Super High Vision), a full-spec SHV is positioned as the highest quality image at present. The full-spec SHV is an image having a resolution of 7680 × 4320 pixels, a bit depth of 12 bits, a sampling structure of RGB 4: 4: 4, and a frame rate of 120P.
第1実施形態では、超高解像度映像の解像度が7680×4320画素、サンプリング構造がYCbCr4:2:2、フレームレートが60Pなので、フルスペックSHVに達していない。ビット深度及びサンプリング構造に関しては、素材映像が圧縮されているため増加するデータ量が少ないこと、内部演算のビット幅が元々16ビット以上であることから、フルスペックSHVへの対応が比較的容易である。一方、フレームレートを60Pから120Pに上げるためには、各処理を2倍の速度で実行する必要があり、システム構成を変えずに高フレームレート化することは現実的ではない。
In the first embodiment, the resolution is 7680 × 4320 pixels of ultra-high resolution video, the
そこで、リアルタイム編集システム1Bは、図12に示すように、1台の制御装置10と、8台の合成装置20と、8台の記憶装置(不図示)と、8Kディスプレイ(120P)40Bと、4Kディスプレイ50とを備える。そして、リアルタイム編集システム1Bは、8台の合成装置20を4台ずつ、第1の処理系統20A及び第2の処理系統20Bにグループ分けし、各処理系統20A,20Bが60Pの処理を担当することとした。第1実施形態で説明したように、4台の合成装置20で60Pの超高解像度映像を合成できるので、2つの処理系統20A,20Bで偶数番フレームと奇数番フレームを交互に処理し出力すれば、120Pの超高解像度映像が得られる。
Therefore, as shown in FIG. 12, the real-time editing system 1B includes one
まず、制御装置10は、レンダリングジョブを生成する。レンダリングジョブの生成は、合成装置20が8台あることを除き、第1実施形態と同様である。そして、制御装置10は、処理系統20A,20Bのそれぞれに、1フレーム毎に交互にレンダリングジョブを送信する。すると、各合成装置20は、第1実施形態と同様、レンダリングジョブに従って、分割素材映像のデコード及び合成を行う。
First, the
そして、処理系統20A,20Bは、1/60秒間隔でフレーム画像を8Kディスプレイ(120P)40Bに出力する。8Kディスプレイ(120P)40Bは、処理系統20A,20Bからのフレーム画像をフレームバッファに交互に蓄積し、蓄積したフレーム画像を1/120秒毎に出力する。
Then, the
図13に示すように、8Kディスプレイ(120P)40Bは、第1の処理系統20A用に6個のフレームバッファ41Aを備え、第2の処理系統20B用に6個のフレームバッファ41Bを備える。つまり、8Kディスプレイ(120P)40Bは、計12個のフレームバッファ41を備える。
なお、図13には、各フレームバッファ41のバッファ番号bと各フレームバッファ41のフレーム番号fとを図示した。バッファ番号bは、6個のフレームバッファ41A,41Bを一意に識別する番号であり、0〜5までの整数となる。フレーム番号fは、各フレームバッファ41に格納されたフレーム画像を一意に識別する番号である。例えば、リアルタイム編集システム1Bの起動後から連番で単調増加する整数値である(図13の例では、0〜11)。
As shown in FIG. 13, the 8K display (120P) 40B includes six
FIG. 13 illustrates the buffer number b of each
合成装置20(合成プロセス210)は、分割合成映像をSDI出力する際、レンダリングジョブに含まれるフレーム番号fからバッファ番号bを算出する。ここで、バッファ番号bは、下記の式(1)を用いて算出できる。このバッファ番号bは、処理系統20A,20Bのそれぞれで0〜5の間を循環する数値となる。
なお、式(1)では、αが処理系統20の数、βが処理系統20毎のバッファの個数である。
b=(f/α)%β
=(f/2)%6 …式(1)
The synthesizing device 20 (synthesizing process 210) calculates the buffer number b from the frame number f included in the rendering job when outputting the divided synthesized video in SDI. Here, the buffer number b can be calculated using the following equation (1). The buffer number b is a numerical value circulating between 0 and 5 in each of the
In equation (1), α is the number of
b = (f / α)% β
= (F / 2)% 6 Equation (1)
8Kディスプレイ(120P)40Bは、受信した分割合成映像を、処理系統20A,20Bで指定されたバッファ番号bのフレームバッファ41A,41Bに格納する。図13の例では、8Kディスプレイ(120P)40Bは、フレーム番号fが0〜11のフレーム画像を12枚、フレームバッファ41に格納している。このとき、8Kディスプレイ(120P)40Bは、1/120秒毎にフレームバッファ41A,41Bからフレーム画像を交互に出力すると、120Pの超高解像度映像が得られる。
The 8K display (120P) 40B stores the received divided composite video in the
なお、SDI出力のタイミングは、再生開始からの遅延と処理系統20A,20Bの処理時間のばらつきを考慮して、処理系統20Aの入力時刻から3フレーム後としてもよい。これにより、処理系統20Aを基準として、60P相当で±2フレームの範囲内で処理系統20Bが得られので、120Pの超高解像度映像の出力を継続できる。処理系統20A,20Bでは、1/60秒のビデオクロックに合わせてSDI出力を行っているので、±2フレームの範囲内に収まる。
The SDI output timing may be three frames after the input time of the
[作用・効果]
以上のように、リアルタイム編集システム1Bは、第1実施形態と同様の効果に加え、さらなる高フレームレート化を図り、フルスペックSHVにも対応することができる。
[Action / Effect]
As described above, the real-time editing system 1B can achieve a higher frame rate and can support a full-spec SHV in addition to the same effects as those of the first embodiment.
(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
(Modification)
As described above, the embodiments of the present invention have been described in detail. However, the present invention is not limited to each of the above-described embodiments, and includes a design change or the like without departing from the gist of the present invention.
超高解像度映像の解像度、フレームレート及びサンプリング構造は、前記した実施形態に限定されないことは言うまでもない。
前記した各実施形態では、合成装置と記憶装置が別々の構成であることとして説明したが、合成装置が記憶装置を内蔵してもよい。
前記した各実施形態では、合成後の超高解像度映像をSDIディスプレイに出力することとして説明したが、その出力先は特に限定されない。
It goes without saying that the resolution, frame rate, and sampling structure of the ultra-high-resolution video are not limited to the above-described embodiments.
In each of the embodiments described above, the synthesizing device and the storage device are described as having different configurations, but the synthesizing device may include the storage device.
In each of the embodiments described above, the super-high-resolution video after synthesis is output to the SDI display, but the output destination is not particularly limited.
SDI信号の規格(ARIB STD−B58)では、超高解像度映像を2Kサイズのサブストリームに分割し、このサブストリームを複数の伝送リンクにより送受信する通信方法が規定されている。サブストリームへの分割が2サンプルインタリーブという方式で行われるため、8K映像の全体を参照しなければ、サブストリームを生成できない。前記した各実施形態では、各合成装置からの出力が4Kの分割合成映像であるため、前記した規格に従った8K映像となっていない。そこで、4つの分割合成映像を一旦、1個のフレームメモリに蓄積し、このフレームメモリから規格に従った8K映像を出力する変換装置を併用してもよい。この変換装置は、処理が単純なため、FPGA(Field Programmable Gate Array)を用いて、容易に構成可能である。 The SDI signal standard (ARIB STD-B58) defines a communication method for dividing an ultra-high resolution video into 2K-size substreams and transmitting and receiving the substreams via a plurality of transmission links. Since division into sub-streams is performed by a method called two-sample interleaving, a sub-stream cannot be generated unless the entire 8K video is referred to. In each of the above-described embodiments, the output from each synthesizing device is a 4K divided synthesized image, and thus the 8K image does not conform to the above-described standard. Therefore, a conversion device that temporarily stores the four divided combined images in one frame memory and outputs an 8K image according to the standard from the frame memory may be used together. Since this conversion device has simple processing, it can be easily configured using an FPGA (Field Programmable Gate Array).
1 リアルタイム編集システム
10 制御装置
100 CPU
101 レンダリングジョブ生成手段
102 バッファ予約手段
103 他領域レンダリングジョブ生成手段(第2レンダリングジョブ生成手段)
104 4K縮小映像生成手段
110 SDIボード
120 10GbEボード
20 合成装置
200 CPU
210 合成プロセス
211 デコードジョブ生成手段
212 圧縮分割素材映像読出手段
213 合成手段
214 2K縮小映像生成手段
220 デコードプロセス
221 デコード手段
230 プロセス間共有メモリ
240 SDIボード
2401 マスタSDIボード
2402〜2404 スレーブSDIボード
241 Sync端子
242 SDI端子
243 バッファ
244 PCI Express
245IN LVDS入力端子
245OUT LVDS出力端子
246 問合手段
247 指令手段
248M 同期出力手段(第1の同期出力手段)
248S 同期出力手段(第2の同期出力手段)
249 応答手段
250 光IFボード
251 バッファ
252 アドレステーブル
260 10GbEボード
30 記憶装置(HDD)
40 8Kディスプレイ(60P)
40B 8Kディスプレイ(120P)
50 4Kディスプレイ
1 real-
101 rendering job generating means 102 buffer reservation means 103 other area rendering job generating means (second rendering job generating means)
104 4K reduced video generation means 110
210
245 IN
248 S synchronous output means (second synchronous output means)
249 Response means 250 Optical IF board 251
408K display (60P)
40B 8K display (120P)
50 4K display
Claims (5)
前記制御装置は、
前記分割素材映像の合成を前記合成装置に指令するレンダリングジョブを生成するレンダリングジョブ生成手段、を備え、
前記合成装置は、
前記制御装置が生成したレンダリングジョブで指定された分割素材映像のデコードを指令するデコードジョブを生成するデコードジョブ生成手段と、
前記デコードジョブ生成手段が生成したデコードジョブに基づいて、前記記憶装置の分割素材映像をデコードする1以上のデコード手段と、
前記レンダリングジョブに基づいて、前記デコード手段がデコードした分割素材映像を合成する1以上の合成手段と、
合成が最も遅れている前記合成装置に合わせて、前記合成手段が合成した分割合成映像を同期して出力する出力ボードと、を備えることを特徴とするリアルタイム編集システム。 A plurality of synthesizing devices that are pre-allocated to a divided region obtained by dividing the ultra-high resolution material image, decode and synthesize the divided material image that is the material image of the divided region, and one control device that controls the synthesizing device A real-time editing system comprising a storage device for storing the compressed divided material video,
The control device includes:
Rendering job generating means for generating a rendering job for instructing the synthesizing device to synthesize the divided material video,
The synthesis device,
Decode job generating means for generating a decode job for instructing the decoding of the divided material video specified by the rendering job generated by the control device;
One or more decoding means for decoding the divided material video in the storage device based on the decoding job generated by the decoding job generating means;
One or more synthesizing means for synthesizing the divided material video decoded by the decoding means based on the rendering job;
A real-time editing system, comprising: an output board that synchronously outputs the divided composite video synthesized by the synthesizing unit in accordance with the synthesizing device that is the slowest in synthesizing.
前記マスタSDIボードは、
前記分割合成映像の次フレーム番号を各スレーブSDIボードに問い合わせる問合手段と、
前記各スレーブSDIボードが応答した次フレーム番号、及び、当該マスタSDIボードを備える合成装置が出力予定の次フレーム番号のうち、最小となる前記次フレーム番号の前記分割合成映像の出力を指令する指令手段と、
前記指令手段から指令された次フレーム番号の前記分割素材映像を同期して出力する第1の同期出力手段と、を備え、
前記スレーブSDIボードは、
前記問合手段からの問い合わせに応じて、当該スレーブSDIボードを備える合成装置が出力予定の次フレーム番号を前記問合手段に応答する応答手段と、
前記指令手段から指令された次フレーム番号の前記分割素材映像を同期して出力する第2の同期出力手段と、を備えることを特徴とする請求項1に記載のリアルタイム編集システム。 The output board is an SDI board ring-connected by LVDS, and an SDI board provided in any one of the synthesizing devices is preset as a master SDI board, and an SDI board provided in another synthesizing device. Are preset as slave SDI boards,
The master SDI board includes:
Inquiry means for inquiring each slave SDI board of the next frame number of the divided composite video;
The next frame number to which each of the slave SDI boards responded, and the command to output the divided composite video of the next frame number that is the smallest of the next frame numbers to be output by the synthesizing device including the master SDI board Means,
First synchronous output means for synchronously outputting the divided material video of the next frame number instructed by the instruction means,
The slave SDI board includes:
A responding unit that responds to the inquiry from the inquiry unit, the synthesis device including the slave SDI board responds to the inquiry unit with a next frame number to be output;
2. The real-time editing system according to claim 1, further comprising: a second synchronous output unit that synchronously outputs the divided material video of the next frame number instructed by the instruction unit. 3.
全分割領域の前記分割素材映像を格納するバッファを有し、リング接続された光IFボード、をさらに備え、
前記制御装置は、
他の前記合成装置が記憶している分割素材映像を参照する場合、前記光IFボードのバッファを予約するバッファ予約手段と、
前記分割素材映像をデコード及び合成して予約済みの前記バッファに格納する指令である第2レンダリングジョブを生成する第2レンダリングジョブ生成手段と、をさらに備え、
前記合成装置は、
前記デコード手段が、前記第2レンダリングジョブに基づいて、前記記憶装置の分割素材映像をデコードして前記予約済みのバッファに格納し、
前記予約済みのバッファに格納された前記分割素材映像を、他の前記合成装置が備える光IFボードのバッファにRDMA処理により格納することで、各合成装置が備える光IFボードのバッファに前記全分割領域の分割素材映像が格納され、
前記合成手段が、前記第2レンダリングジョブに基づいて、前記バッファに格納された全分割領域の分割素材映像を合成することを特徴とする請求項1又は請求項2に記載のリアルタイム編集システム。 The synthesis device,
Further comprising a buffer for storing the divided material image of all divided areas, and a ring-connected optical IF board;
The control device includes:
A buffer reserving unit for reserving a buffer of the optical IF board when referring to the divided material image stored in the other synthesizing device;
A second rendering job generating means for generating a second rendering job which is a command to decode and combine the divided material video and store the divided material video in the reserved buffer,
The synthesis device,
The decoding means decodes the divided material video in the storage device based on the second rendering job, and stores the divided material video in the reserved buffer;
By storing the divided material video stored in the reserved buffer in the buffer of the optical IF board provided in the other synthesizing device by RDMA processing, the entire divided image is stored in the buffer of the optical IF board provided in each synthesizing device. The divided material video of the area is stored,
3. The real-time editing system according to claim 1, wherein the synthesizing unit synthesizes divided material videos of all the divided regions stored in the buffer based on the second rendering job.
前記分割合成映像を縮小した分割縮小映像を生成する分割縮小映像生成手段、をさらに備え、
前記制御装置は、
前記分割領域に応じて前記分割縮小映像を並べた縮小映像を生成する縮小映像生成手段、をさらに備えることを特徴とする請求項1から請求項3の何れか一項に記載のリアルタイム編集システム。 The synthesis device,
Further comprising a divided reduced image generating means for generating a divided reduced image obtained by reducing the divided combined image,
The control device includes:
4. The real-time editing system according to claim 1, further comprising: a reduced image generating unit configured to generate a reduced image in which the divided reduced images are arranged according to the divided area. 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168530A JP7184248B2 (en) | 2018-09-10 | 2018-09-10 | real-time editing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168530A JP7184248B2 (en) | 2018-09-10 | 2018-09-10 | real-time editing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042125A true JP2020042125A (en) | 2020-03-19 |
JP7184248B2 JP7184248B2 (en) | 2022-12-06 |
Family
ID=69798170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168530A Active JP7184248B2 (en) | 2018-09-10 | 2018-09-10 | real-time editing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7184248B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112437325A (en) * | 2020-11-23 | 2021-03-02 | 杭州当虹科技股份有限公司 | 8KSDI signal generator implementation method |
CN114302062A (en) * | 2021-12-31 | 2022-04-08 | 北京中联合超高清协同技术中心有限公司 | 4K and 8K mixed follow-up ultra-high-definition on-site manufacturing system |
CN114845151A (en) * | 2022-05-09 | 2022-08-02 | 北斗星通智联科技有限责任公司 | Multi-screen synchronous display method, system, terminal equipment and storage medium |
CN115550709A (en) * | 2022-01-07 | 2022-12-30 | 荣耀终端有限公司 | Data processing method and electronic equipment |
WO2023013072A1 (en) * | 2021-08-06 | 2023-02-09 | 日本電信電話株式会社 | Device, method, and program for combining video signals |
WO2023223401A1 (en) * | 2022-05-17 | 2023-11-23 | さくら映機株式会社 | Real-time editing system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009010714A (en) * | 2007-06-28 | 2009-01-15 | Panasonic Corp | Moving picture encoded data converter |
JP2011169935A (en) * | 2010-02-16 | 2011-09-01 | Seiko Epson Corp | Image processing apparatus, image processing method, and computer program |
JP2012249025A (en) * | 2011-05-26 | 2012-12-13 | Nippon Telegr & Teleph Corp <Ntt> | Image encoding apparatus, image encoding method, and program |
JP2013141065A (en) * | 2011-12-28 | 2013-07-18 | Jvc Kenwood Corp | Image pickup device and control method |
JP2013218002A (en) * | 2012-04-05 | 2013-10-24 | Sharp Corp | Display device |
WO2018008076A1 (en) * | 2016-07-05 | 2018-01-11 | さくら映機株式会社 | Real-time editing system |
-
2018
- 2018-09-10 JP JP2018168530A patent/JP7184248B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009010714A (en) * | 2007-06-28 | 2009-01-15 | Panasonic Corp | Moving picture encoded data converter |
JP2011169935A (en) * | 2010-02-16 | 2011-09-01 | Seiko Epson Corp | Image processing apparatus, image processing method, and computer program |
JP2012249025A (en) * | 2011-05-26 | 2012-12-13 | Nippon Telegr & Teleph Corp <Ntt> | Image encoding apparatus, image encoding method, and program |
JP2013141065A (en) * | 2011-12-28 | 2013-07-18 | Jvc Kenwood Corp | Image pickup device and control method |
JP2013218002A (en) * | 2012-04-05 | 2013-10-24 | Sharp Corp | Display device |
WO2018008076A1 (en) * | 2016-07-05 | 2018-01-11 | さくら映機株式会社 | Real-time editing system |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112437325A (en) * | 2020-11-23 | 2021-03-02 | 杭州当虹科技股份有限公司 | 8KSDI signal generator implementation method |
WO2023013072A1 (en) * | 2021-08-06 | 2023-02-09 | 日本電信電話株式会社 | Device, method, and program for combining video signals |
CN114302062A (en) * | 2021-12-31 | 2022-04-08 | 北京中联合超高清协同技术中心有限公司 | 4K and 8K mixed follow-up ultra-high-definition on-site manufacturing system |
CN114302062B (en) * | 2021-12-31 | 2024-04-09 | 北京中联合超高清协同技术中心有限公司 | 4K and 8K mixed follow-up ultra-high definition field manufacturing system |
CN115550709A (en) * | 2022-01-07 | 2022-12-30 | 荣耀终端有限公司 | Data processing method and electronic equipment |
CN115550709B (en) * | 2022-01-07 | 2023-09-26 | 荣耀终端有限公司 | Data processing method and electronic equipment |
CN114845151A (en) * | 2022-05-09 | 2022-08-02 | 北斗星通智联科技有限责任公司 | Multi-screen synchronous display method, system, terminal equipment and storage medium |
WO2023223401A1 (en) * | 2022-05-17 | 2023-11-23 | さくら映機株式会社 | Real-time editing system |
Also Published As
Publication number | Publication date |
---|---|
JP7184248B2 (en) | 2022-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7184248B2 (en) | real-time editing system | |
US5900917A (en) | Image composing and displaying method and apparatus | |
US4949169A (en) | Audio-video data interface for a high speed communication link in a video-graphics display window environment | |
US7792412B2 (en) | Multi-screen image reproducing apparatus and image reproducing method in multi-screen image reproducing apparatus | |
JP4312238B2 (en) | Image conversion apparatus and image conversion method | |
US5517253A (en) | Multi-source video synchronization | |
US5790110A (en) | System and method for generating video in a computer system | |
CN101374233B (en) | Method and apparatus for adapting video stream frame rate, and FPGA chip as well as equipment for processing video stream | |
JP4623069B2 (en) | Information processing apparatus and method, program, and recording medium | |
US5940610A (en) | Using prioritized interrupt callback routines to process different types of multimedia information | |
JP2005250445A (en) | Multi-screen video playback system | |
US10389908B2 (en) | Image processing device, image processing method, and program with reduction and enlargement scaling of image data | |
EP2274908A1 (en) | Video multiviewer system using direct memory access (dma) registers and multi ported block ram and related method | |
JP4559976B2 (en) | Video composition apparatus, video composition method, and video composition program | |
JP2000322039A (en) | Display device, control device, and multiple screen display system | |
KR20110055011A (en) | Real-time input/output module system for ultra high-definition image | |
CN102625086B (en) | DDR2 (Double Data Rate 2) storage method and system for high-definition digital matrix | |
JP2002351438A (en) | Image monitor system | |
JP6778956B2 (en) | Real-time editing system | |
KR101562789B1 (en) | Method for both routing and switching multi-channel hd/uhd videos and the apparatus thereof | |
JP2010048976A (en) | Signal processing device and signal processing method | |
JP2009296410A (en) | High-resolution video reproducing device | |
JPWO2020022101A1 (en) | Image processing device and image processing method | |
JP2015125411A (en) | Video processing device | |
JP2014003491A (en) | Transmitter, receiver and program of broadband video signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7184248 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |