JP2009265319A - Video composition device - Google Patents
Video composition device Download PDFInfo
- Publication number
- JP2009265319A JP2009265319A JP2008113878A JP2008113878A JP2009265319A JP 2009265319 A JP2009265319 A JP 2009265319A JP 2008113878 A JP2008113878 A JP 2008113878A JP 2008113878 A JP2008113878 A JP 2008113878A JP 2009265319 A JP2009265319 A JP 2009265319A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- video
- frame data
- channel
- synthesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Circuits (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
この発明は、互いに同期していない複数のチャンネルのビデオデータである入力フレームデータを合成して、出力フレームデータを生成するビデオ合成装置に関するものである。 The present invention relates to a video synthesizing apparatus that synthesizes input frame data that is video data of a plurality of channels that are not synchronized with each other to generate output frame data.
互いに同期していない複数のチャンネルの入力フレームデータを合成して、出力フレームデータを生成するビデオ合成装置では、何らかの方法で、複数のチャンネルの入力フレームデータを同期化する必要がある。
そこで、入力フレームデータをバッファリングして同期化するビデオ合成装置が開発されている(例えば、特許文献1を参照)。
In a video synthesizing apparatus that generates output frame data by combining input frame data of a plurality of channels that are not synchronized with each other, it is necessary to synchronize the input frame data of the plurality of channels by some method.
Therefore, a video synthesizing device that buffers and synchronizes input frame data has been developed (see, for example, Patent Document 1).
このビデオ合成装置では、入力フレームデータ毎に専用のフレームメモリを設け、入力フレームデータがフレームメモリに格納されることにより生じる時間的余裕を利用して同期化を図っている。
この方法とは別に、単一のビデオメモリ(例えば、SDRAMやDDR−SDRAM)を使用し、そのビデオメモリを各チャンネルの入力用フレームメモリとして兼用する方法もある。
以降、フレームデータを格納するフレームメモリ内の領域をバッファと称する。
In this video synthesizing apparatus, a dedicated frame memory is provided for each input frame data, and synchronization is made using a time margin generated by storing the input frame data in the frame memory.
In addition to this method, there is a method in which a single video memory (for example, SDRAM or DDR-SDRAM) is used and the video memory is also used as an input frame memory for each channel.
Hereinafter, an area in the frame memory that stores frame data is referred to as a buffer.
入力フレームデータのバッファリングを行う場合、入力フレームデータのバッファリングの完了時点から、そのフレームデータが出力されるまでの時間(出力待ち時間)、そのフレームデータを格納しているバッファはロックされ、そのバッファに対する次のフレームデータのバッファリングが禁止される。
その出力待ち時間の期間に、フレームメモリに保持できない分量の入力フレームデータが入力されると、保持できないフレームデータは破棄され、その結果として、フレームデータの「フレーム落ち」が発生する。
例えば、ダブルバッファ方式など、複数バッファ方式を採用して、バッファの多重度を増やせば、「フレーム落ち」の頻度を減らすことができるが、追加のバッファが必要になる。
When buffering input frame data, the time from the completion of buffering of input frame data until the output of the frame data (output waiting time), the buffer storing the frame data is locked, Buffering of the next frame data for that buffer is prohibited.
If an amount of input frame data that cannot be held in the frame memory is input during the output waiting time period, the frame data that cannot be held is discarded, and as a result, “frame dropping” of the frame data occurs.
For example, by adopting a multiple buffer system such as a double buffer system and increasing the multiplicity of buffers, the frequency of “frame dropping” can be reduced, but an additional buffer is required.
複数のチャンネルの入力フレームデータは互いに同期していないため、入力用フレームメモリに対するバッファリングの完了タイミングは、チャンネル毎に異なる。
一方、バッファリングが完了している複数のチャンネルのフレームデータを読み出してビデオ合成を開始するタイミングは、複数のチャンネルで共通である。
よって、バッファリングが完了してから、出力するまでの時間(出力待ち時間)は、チャンネル毎に異なる。
この出力待ち時間が長いチャンネルは、前述の理由から「フレーム落ち」が発生する可能性が高くなる。
Since the input frame data of a plurality of channels are not synchronized with each other, the completion timing of buffering for the input frame memory differs for each channel.
On the other hand, the timing at which frame data of a plurality of channels for which buffering has been completed is read and video synthesis is started is common to the plurality of channels.
Therefore, the time from the completion of buffering to the output (output waiting time) differs for each channel.
For a channel with a long output waiting time, there is a high possibility that a “frame drop” will occur for the reason described above.
従来のビデオ合成装置においては、ビデオ合成を開始するタイミング(合成開始タイミング)が、ある一定の周期に固定されている場合が多い。
例えば、あるチャンネルの入力フレームデータのバッファリングが完了した時点を合成開始タイミングに固定する方法があげられる。
合成開始タイミングがある一定の周期に固定されていると、各チャンネルの入力用フレームメモリで出力待ち時間に偏りが生じる。即ち、全く待たされないチャンネルがある一方で、長く待たされるチャンネルも出てくる。出力待ち時間が長いチャンネルに「フレーム落ち」が集中する。
In conventional video synthesizing apparatuses, the timing for starting video synthesis (synthesis start timing) is often fixed at a certain period.
For example, there is a method of fixing the time when the buffering of input frame data of a certain channel is completed to the synthesis start timing.
If the synthesis start timing is fixed to a certain period, the output waiting time is biased in the input frame memory of each channel. That is, while there are channels that are not waited at all, there are also channels that are kept waiting for a long time. “Frame loss” concentrates on channels with long output waiting times.
また、合成開始タイミングがある一定の周期に固定されている場合、入力用フレームメモリの出力待ち時間が常に最短になるとは限らない。そのため、「フレーム落ち」の発生頻度が最小になっていない場合もある。
よって、入力用フレームメモリのバッファ多重度が「フレーム落ち」を防止するのに十分でない場合、合成開始タイミングをある一定の周期に固定してしまうと、「フレーム落ち」の発生頻度が均一にならず、また、「フレーム落ち」の発生頻度が最小にならない。
Further, when the synthesis start timing is fixed to a certain period, the output waiting time of the input frame memory is not always the shortest. Therefore, the occurrence frequency of “frame drop” may not be minimized.
Therefore, if the buffer multiplicity of the input frame memory is not sufficient to prevent “frame drop”, if the synthesis start timing is fixed at a certain period, the occurrence frequency of “frame drop” becomes uniform. In addition, the occurrence frequency of “frame dropping” is not minimized.
従来のビデオ合成装置は以上のように構成されているので、互いに同期していない複数のチャンネルの入力フレームデータを合成する際、入力用フレームメモリのバッファ多重度が「フレーム落ち」を防止するのに十分でない場合、ビデオ合成を開始するタイミングをある一定の周期に固定してしまうと、「フレーム落ち」が発生し易いチャンネルに偏りが生じ、また、「フレーム落ち」の発生頻度が最小にならないなどの課題があった。 Since the conventional video synthesizing apparatus is configured as described above, when the input frame data of a plurality of channels that are not synchronized with each other is synthesized, the buffer multiplicity of the input frame memory prevents “frame dropping”. If the timing for starting video composition is fixed at a certain period, the channel where “frame loss” is likely to occur is biased, and the frequency of “frame loss” is not minimized. There were issues such as.
この発明は上記のような課題を解決するためになされたもので、「フレーム落ち」の発生頻度の均一化と最小化を図ることができるビデオ合成装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a video synthesizing apparatus capable of equalizing and minimizing the occurrence frequency of “frame dropping”.
この発明に係るビデオ合成装置は、複数のチャンネルのフレームデータがフレームメモリに格納されてから、フレームデータ合成手段により合成が開始されるまでの待ち時間の合計が最小になる合成開始タイミングを設定するようにしたものである。 The video composition device according to the present invention sets the composition start timing that minimizes the total waiting time from the frame data of a plurality of channels being stored in the frame memory until the composition is started by the frame data composition means. It is what I did.
この発明によれば、複数のチャンネルのフレームデータがフレームメモリに格納されてから、フレームデータ合成手段により合成が開始されるまでの待ち時間の合計が最小になる合成開始タイミングを設定するように構成したので、「フレーム落ち」の発生頻度の均一化と最小化を図ることができる効果がある。 According to the present invention, the composition start timing is set so that the total waiting time from when the frame data of a plurality of channels is stored in the frame memory until the composition is started by the frame data composition means is minimized. Therefore, there is an effect that the frequency of occurrence of “frame drop” can be made uniform and minimized.
実施の形態1.
図1はこの発明の実施の形態1によるビデオ合成装置を示す構成図であり、図において、ビデオ入力部1は互いに同期していない複数のチャンネル(ビデオ1ch、ビデオ2ch、ビデオ3ch、ビデオ4ch)のビデオデータであるフレームデータを入力し、そのフレームデータをフレームメモリ2にバッファリングを行う。
また、ビデオ入力部1は複数のチャンネルのビデオ周期に関する情報(例えば、VSYNC)や、フレームデータのバッファリング完了信号などを合成タイミング生成部3に転送する。
なお、ビデオ入力部1はフレームデータ入力手段を構成している。
FIG. 1 is a block diagram showing a video synthesizing apparatus according to
In addition, the
The
フレームメモリ2は複数のチャンネルのフレームデータを格納するメモリであり、チャンネル毎に専用のフレームメモリであってもよいし、各チャンネルで共有する単一のフレームメモリであってもよい。
フレームメモリ2は例えばSRAMやDRAMなどで構成され、特定の仕様のメモリである必要はない。
単一のフレームメモリ2を各チャンネルが共有して使用する場合、フレームメモリ2の領域を分割し、各チャンネルの占有領域を決めておくようにする。この場合、フレームメモリコントローラを用いて、各チャンネルの書き込み要求などを調停して、単一のフレームメモリ2を時分割して共有使用する。
フレームメモリ2は複数バッファ方式(例えば、ダブルバッファ方式)で多重化されていてもよいし、シングルバッファ方式で全く多重化されていないものであってもよい。
The
The
When a
The
合成タイミング生成部3はビデオ入力部1から出力されるフレームデータのバッファリング完了信号に合わせて、フレームメモリ2に格納されている複数のチャンネルのフレームデータの合成開始タイミングを設定する。
即ち、合成タイミング生成部3は複数のチャンネルのフレームデータがフレームメモリ2に格納されてから、ビデオ合成出力部4により合成が開始されるまでの出力待ち時間の合計が最小になる合成開始タイミングを設定する。
なお、合成タイミング生成部3は合成開始タイミング設定手段を構成している。
The synthesis
That is, the synthesis
The synthesis
ビデオ合成出力部4は合成タイミング生成部3により設定された合成開始タイミングで、フレームメモリ2に格納されている複数のチャンネルのフレームデータの合成を開始する。
なお、ビデオ合成出力部4はフレームデータ合成手段を構成している。
The video
The video
図2は4つのチャンネルのビデオデータである入力フレームデータをビデオ合成している出力フレームデータの一例を示す説明図である。
各チャンネルのフレームデータは独立してフレームメモリ2に格納されているため、ビデオ合成時に重ね合わせを行うことができる。
合成後の出力フレームデータは、フレームメモリ2内に出力フレームデータ格納領域を確保して、その出力フレームデータ格納領域に一時的に格納してもよいし、格納せずに外部に出力してもよい。
FIG. 2 is an explanatory diagram showing an example of output frame data obtained by video composition of input frame data which is video data of four channels.
Since the frame data of each channel is stored in the
The synthesized output frame data may be stored in the
次に動作について説明する。
図3は複数のチャンネルにおけるフレームデータの合成処理期間の一例を示す説明図である。
図3において、「Nフレーム」(N=1,2,3…)と記入されているブロックは、ビデオ入力部1によりバッファリングされてフレームメモリ2に格納されるNフレーム目のフレームデータを示している。
Next, the operation will be described.
FIG. 3 is an explanatory diagram showing an example of a frame data composition processing period in a plurality of channels.
In FIG. 3, a block in which “N frames” (N = 1, 2, 3,...) Indicates frame data of the Nth frame that is buffered by the
図3の例では、ビデオ1chの1フレーム目のフレームデータは、時刻T1にバッファリングが完了しており、2フレーム目のフレームデータは、時刻T5にバッファリングが完了している。
また、ビデオ2chの1フレーム目のフレームデータは、時刻T2にバッファリングが完了しており、2フレーム目のフレームデータは、時刻T6にバッファリングが完了している。
ビデオ3chの1フレーム目のフレームデータは、時刻T3にバッファリングが完了しており、2フレーム目のフレームデータは、時刻T7にバッファリングが完了している。
また、ビデオ4chの1フレーム目のフレームデータは、時刻T4にバッファリングが完了しており、2フレーム目のフレームデータは、時刻T8にバッファリングが完了している。
In the example of FIG. 3, the frame data of the first frame of video 1ch has been buffered at time T1, and the frame data of the second frame has been buffered at time T5.
The frame data of the first frame of video 2ch has been buffered at time T2, and the frame data of the second frame has been buffered at time T6.
The frame data of the first frame of video 3ch has been buffered at time T3, and the frame data of the second frame has been buffered at time T7.
The frame data of the first frame of video 4ch has been buffered at time T4, and the frame data of the second frame has been buffered at time T8.
合成タイミング生成部3は、複数のチャンネル(ビデオ1ch、ビデオ2ch、ビデオ3ch、ビデオ4ch)の中から、基準となるチャンネル(以降、「基準チャンネル」と称する)を選択する。基準チャンネルの選択処理は一定期間単位で行う。基準チャンネルの選択方法については後述する。
合成タイミング生成部3は、ビデオ入力部1が基準チャンネルのフレームデータのバッファリングを完了することにより、ビデオ入力部1からバッファリング完了信号を受けると、その時点を合成開始タイミングに設定して合成開始指令をビデオ合成出力部4に出力する。
The
When the
ビデオ合成出力部4は、合成タイミング生成部3から合成開始指令を受けると、フレームメモリ2に格納されている複数のチャンネルのフレームデータの合成を開始する。
ただし、フレームメモリ2から複数のチャンネルのフレームデータを読み出す順序は任意である。
When receiving a synthesis start command from the synthesis
However, the order of reading frame data of a plurality of channels from the
図3では、ビデオ1chが基準チャンネルに選択されている例を示している。
したがって、ビデオ1chのフレームデータのバッファリングが完了した直後に(時刻T1,T5)、合成タイミング生成部3から合成開始指令が出力されて、ビデオ合成出力部4が複数のチャンネルのフレームデータの合成を開始している。
このとき、ビデオ合成出力部4は、各チャンネルのバッファリング済の出力待ちフレームデータを読み出して合成処理を行うが、例えば、図3の時刻T5から開始するビデオ合成処理期間2では、ビデオ1chについては、バッファリング済の2フレーム目のフレームデータをビデオ合成に使用し、ビデオ2ch,3ch,4chについては、バッファリング済の1フレーム目のフレームデータをビデオ合成に使用する。
FIG. 3 shows an example in which video 1ch is selected as the reference channel.
Therefore, immediately after the buffering of the frame data of video 1ch is completed (time T1, T5), a synthesis start command is output from the synthesis
At this time, the video
あるチャンネルのフレームデータのバッファリングが完了した時点から、ビデオ合成出力部4により当該フレームデータが読み出されるまでの時間(出力待ち時間)、そのフレームデータを格納しているフレームメモリ2のバッファはロックされ、そのバッファに対する次のフレームデータのバッファリングが禁止される。
その出力待ち時間の期間にバッファに保持できない分量のフレームデータがビデオ入力部1に入力されると、保持できないフレームデータが破棄され、その結果として、フレームデータの「フレーム落ち」が発生する。
The time from when the frame data buffering of a certain channel is completed until the frame data is read out by the video synthesis output unit 4 (output waiting time), the buffer of the
When an amount of frame data that cannot be held in the buffer is input to the
図4はビデオ1chが基準チャンネルに選択される場合におけるビデオ合成処理期間でのフレームデータの出力待ち時間を示す説明図である。
ビデオ1chの2フレーム目のフレームデータは時刻T5から時刻T9までの間が出力待ち時間であり、この出力待ち時間の期間は2フレーム目のフレームデータを格納しているフレームメモリ2のバッファがロックされる。
また、ビデオ2chの1フレーム目のフレームデータは時刻T2から時刻T9までの間が出力待ち時間であり、この出力待ち時間の期間は1フレーム目のフレームデータを格納しているフレームメモリ2のバッファがロックされる。
FIG. 4 is an explanatory diagram showing the output waiting time of frame data during the video composition processing period when video 1ch is selected as the reference channel.
The frame data of the second frame of video 1ch has an output waiting time from time T5 to time T9, and the buffer of the
The frame data of the first frame of video 2ch has an output waiting time from time T2 to time T9, and this output waiting time is a buffer of the
ビデオ3chの1フレーム目のフレームデータは時刻T3から時刻T9までの間が出力待ち時間であり、この出力待ち時間の期間は1フレーム目のフレームデータを格納しているフレームメモリ2のバッファがロックされる。
また、ビデオ4chの1フレーム目のフレームデータは時刻T4から時刻T9までの間が出力待ち時間であり、この出力待ち時間の期間は1フレーム目のフレームデータを格納しているフレームメモリ2のバッファがロックされる。
The frame data of the first frame of video 3ch has an output waiting time from time T3 to time T9, and the buffer of the
The frame data of the first frame of video 4ch has an output waiting time from time T4 to time T9, and this output waiting time period is a buffer of the
ビデオ合成処理期間2の終了時点である時刻T9まで、ビデオ1chの2フレーム目のフレームデータを格納しているフレームメモリ2のバッファがロックされる。
このとき、時刻T9でロックが解除される前に、ビデオ1chの3フレーム目のフレームデータの受信が開始される(図3を参照)。
そのため、ロックされているバッファ以外に1フレーム分のバッファが存在していない場合、即ち、フレームメモリ2のバッファの多重度が2以上でない場合、1フレーム分のフレームデータが破棄されて「フレーム落ち」が発生する。
The buffer of the
At this time, before the lock is released at time T9, reception of the frame data of the third frame of video 1ch is started (see FIG. 3).
Therefore, when there is no buffer for one frame other than the locked buffer, that is, when the multiplicity of the buffer in the
また、ビデオ合成処理期間2の終了時点である時刻T9まで、ビデオ2chの1フレーム目のフレームデータを格納しているフレームメモリ2のバッファがロックされる。また、2フレーム目のフレームデータのバッファリングも完了しており(図3を参照)、2フレーム目のフレームデータを格納しているフレームメモリ2のバッファもロックされる。
このとき、時刻T9でロックが解除される前に、ビデオ2chの3フレーム目のフレームデータの受信が開始される(図3を参照)。
そのため、ロックされている2つのバッファ以外に1フレーム分のバッファが存在していない場合、即ち、フレームメモリ2のバッファの多重度が3以上でない場合、1フレーム分のフレームデータが破棄されて「フレーム落ち」が発生する。
Also, the buffer of the
At this time, reception of the frame data of the third frame of video 2ch is started before the lock is released at time T9 (see FIG. 3).
Therefore, if there is no buffer for one frame other than the two locked buffers, that is, if the buffer multiplicity of the
したがって、チャンネルのフレームメモリ2の多重度がいずれも2の場合(いわゆるダブルバッファ方式の場合)、ビデオ2chに「フレーム落ち」が集中することになる。
このように、フレームメモリ2のバッファの多重度が「フレーム落ち」を防止するのに十分でない場合、基準チャンネルを固定して、あるチャンネルの周期に合成開始タイミングが固定されると、特定のチャンネルの出力待ち時間が長い状況が連続し、「フレーム落ち」が発生し易いチャンネルに偏りが生じる。
フレームメモリ2のバッファの多重度を増やせば、「フレーム落ち」の発生頻度自体が減少し、「フレーム落ち」の偏りも減少するが、追加のバッファ領域が必要となる。
そのため、この実施の形態1では、バッファの多重度を増やす方法については検討しない。
Therefore, when the multiplicity of the
As described above, when the multiplicity of the buffer of the
Increasing the buffer multiplicity of the
Therefore, in the first embodiment, a method for increasing the multiplicity of the buffer is not examined.
この実施の形態1では、「フレーム落ち」は出力待ち時間が長い場合に発生し易いことに着目し、この出力待ち時間を減らすため、基準チャンネルを一定期間単位で再選択して、変更することを検討する。
以下、基準チャンネルの選択方法について詳述する。
In this
The reference channel selection method will be described in detail below.
合成タイミング生成部3は、ビデオ入力部1から各チャンネルのフレームデータのバッファリング完了信号を受けると(例えば、時刻T5,T6,T7,T8などのタイミングで受信)、それらのバッファリング完了信号の受信時刻を合成開始タイミングに仮に設定することにより、各チャンネルが基準チャンネルとなる場合の出力待ち時間の合計をチャンネル毎に算出し、出力待ち時間の合計が最小になるチャンネルを基準チャンネルに設定する。
ただし、あるチャンネルのフレームデータが入力されない場合や、途中でフレームデータの入力が途切れてしまう場合などは、そのチャンネルを基準チャンネルの選択の候補から外すものとする。
When the synthesis
However, when the frame data of a certain channel is not input, or when the input of frame data is interrupted, the channel is excluded from candidates for selection of the reference channel.
例えば、図4に示すように、ビデオ1chを基準チャンネルとする場合、ビデオ1chのフレームデータのバッファリングが完了した直後(時刻T1,T5)が合成開始タイミングになる。
例えば、時刻T5の合成開始タイミングで開始されるビデオ合成処理期間において、合成対象となるバッファリング完了済のフレームデータは、ビデオ1chの2フレーム目のフレームデータ、ビデオ2chの1フレーム目のフレームデータ、ビデオ3chの1フレーム目のフレームデータ、ビデオ4chの1フレーム目のフレームデータである。
この場合、各チャンネルの出力待ち時間は、ビデオ1chが(T9−T5)、ビデオ2chが(T9−T2)、ビデオ3chが(T9−T3)、ビデオ4chが(T9−T4)となる。
For example, as shown in FIG. 4, when video 1ch is used as a reference channel, the synthesis start timing is immediately after the buffering of frame data of video 1ch is completed (time T1, T5).
For example, in the video compositing process period that starts at the compositing start timing at time T5, the frame data that has been buffered and is the compositing target is the frame data of the second frame of video 1ch and the frame data of the first frame of video 2ch. , Frame data of the first frame of video 3ch and frame data of the first frame of video 4ch.
In this case, the output waiting time of each channel is (T9-T5) for video 1ch, (T9-T2) for video 2ch, (T9-T3) for video 3ch, and (T9-T4) for video 4ch.
次に、図5に示すように、ビデオ4chを基準チャンネルとする場合、ビデオ4chのフレームデータのバッファリングが完了した直後(時刻T4,T8)が合成開始タイミングになる。
例えば、時刻T8の合成開始タイミングで開始されるビデオ合成処理期間において、合成対象となるバッファリング完了済のフレームデータは、ビデオ1chの2フレーム目のフレームデータ、ビデオ2chの2フレーム目のフレームデータ、ビデオ3chの2フレーム目のフレームデータ、ビデオ4chの2フレーム目のフレームデータである。
この場合、各チャンネルの出力待ち時間は、ビデオ1chが(T12−T5)、ビデオ2chが(T12−T6)、ビデオ3chが(T12−T7)、ビデオ4chが(T12−T8)となる。
よって、このような場合には、基準チャンネルをビデオ1chとするよりも、ビデオ4chとする方が、各チャンネルの出力待ち時間の合計が少なくなる。
Next, as shown in FIG. 5, when the video 4ch is used as the reference channel, the synthesis start timing is immediately after the buffering of the frame data of the video 4ch is completed (time T4, T8).
For example, in the video synthesis processing period that starts at the synthesis start timing at time T8, the frame data that has been buffered and is to be synthesized includes the frame data of the second frame of video 1ch and the frame data of the second frame of video 2ch. , Frame data of the second frame of video 3ch and frame data of the second frame of video 4ch.
In this case, the output waiting time of each channel is (T12-T5) for video 1ch, (T12-T6) for video 2ch, (T12-T7) for video 3ch, and (T12-T8) for video 4ch.
Therefore, in such a case, the total output waiting time of each channel is reduced when the reference channel is set to video 4ch rather than the video 1ch.
同様にして、ビデオ2ch,ビデオ3hを基準チャンネルとする場合の出力待ち時間を算出する。
図6に示すように、ビデオ2chを基準チャンネルとする場合、ビデオ2chのフレームデータのバッファリングが完了した直後(時刻T2,T6)が合成開始タイミングになる。
例えば、時刻T6の合成開始タイミングで開始されるビデオ合成処理期間において、合成対象となるバッファリング完了済のフレームデータは、ビデオ1chの2フレーム目のフレームデータ、ビデオ2chの2フレーム目のフレームデータ、ビデオ3chの1フレーム目のフレームデータ、ビデオ4chの1フレーム目のフレームデータである。
この場合、各チャンネルの出力待ち時間は、ビデオ1chが(T10−T5)、ビデオ2chが(T10−T6)、ビデオ3chが(T10−T3)、ビデオ4chが(T10−T4)となる。
Similarly, the output waiting time when the video 2ch and video 3h are used as reference channels is calculated.
As shown in FIG. 6, when video 2ch is used as a reference channel, the synthesis start timing is immediately after the completion of buffering of frame data of video 2ch (time T2, T6).
For example, in the video compositing process period that starts at the compositing start timing at time T6, the frame data that has been buffered and is the compositing target is the frame data of the second frame of video 1ch and the frame data of the second frame of video 2ch. , Frame data of the first frame of video 3ch and frame data of the first frame of video 4ch.
In this case, the output waiting time of each channel is (T10-T5) for video 1ch, (T10-T6) for video 2ch, (T10-T3) for video 3ch, and (T10-T4) for video 4ch.
図7に示すように、ビデオ3chを基準チャンネルとする場合、ビデオ3chのフレームデータのバッファリングが完了した直後(時刻T3,T7)が合成開始タイミングになる。
例えば、時刻T7の合成開始タイミングで開始されるビデオ合成処理期間において、合成対象となるバッファリング完了済のフレームデータは、ビデオ1chの2フレーム目のフレームデータ、ビデオ2chの2フレーム目のフレームデータ、ビデオ3chの2フレーム目のフレームデータ、ビデオ4chの1フレーム目のフレームデータである。
この場合、各チャンネルの出力待ち時間は、ビデオ1chが(T11−T5)、ビデオ2chが(T11−T6)、ビデオ3chが(T11−T7)、ビデオ4chが(T11−T4)となる。
よって、このような場合には、基準チャンネルをビデオ2ch,3chとするよりも、ビデオ4chとする方が、各チャンネルの出力待ち時間の合計が少なくなる。
As shown in FIG. 7, when video 3ch is used as a reference channel, the synthesis start timing is immediately after the completion of buffering of frame data of video 3ch (time T3, T7).
For example, in the video synthesis processing period that starts at the synthesis start timing at time T7, the frame data that has been buffered and is to be synthesized includes the frame data of the second frame of video 1ch and the frame data of the second frame of video 2ch. , Frame data of the second frame of video 3ch and frame data of the first frame of video 4ch.
In this case, the output waiting time of each channel is (T11-T5) for video 1ch, (T11-T6) for video 2ch, (T11-T7) for video 3ch, and (T11-T4) for video 4ch.
Therefore, in such a case, the total output waiting time of each channel is smaller when the reference channel is the video 4ch than when the reference channel is the video 2ch and 3ch.
これにより、合成タイミング生成部3は、ビデオ4chを基準チャンネルとして選択し、ビデオ4chのフレームデータのバッファリングが完了した直後(時刻T4,T8)を合成開始タイミングに設定して、合成開始指令をビデオ合成出力部4に出力する。
なお、合成タイミング生成部3は、上記の基準チャンネルの選択処理をある一定期間単位で行う。
短い期間単位で選択を行う方が「フレーム落ち」が発生し易いチャンネルの偏りを削減することができる。また、自動的に出力待ち時間が最小になるように調整されるため、各チャンネルの「フレーム落ち」の発生頻度を最小限に抑えることができる。
また、あるチャンネルのフレームデータの入力が途切れた場合でも、そのチャンネルを基準チャンネルの選択から外されるため、異常のないチャンネルを正常に合成して、出力フレームデータを生成することができる。
Thereby, the synthesis
The synthesis
When the selection is performed in units of short periods, it is possible to reduce the bias of the channel where “frame dropping” is likely to occur. In addition, since the output waiting time is automatically adjusted to be minimized, the occurrence frequency of “frame dropping” in each channel can be minimized.
Further, even when the input of frame data of a certain channel is interrupted, the channel is removed from the selection of the reference channel, so that it is possible to normally synthesize an abnormal channel and generate output frame data.
以上で明らかなように、この実施の形態1によれば、複数のチャンネルのフレームデータがフレームメモリ2に格納されてから、ビデオ合成出力部4により合成が開始されるまでの出力待ち時間の合計が最小になる合成開始タイミングを設定するように構成したので、「フレーム落ち」の発生頻度の均一化と最小化を図ることができる効果を奏する。
As is apparent from the above, according to the first embodiment, the total output waiting time from when the frame data of a plurality of channels is stored in the
実施の形態2.
上記実施の形態1では、合成タイミング生成部3が、どのチャンネルを基準チャンネルとすれば、出力待ち時間の合計が最小になるかを算出して、出力待ち時間の合計が最小になるチャンネルを基準チャンネルに設定するものについて示したが、合成タイミング生成部3が、フレーム落ちが発生したチャンネルを基準チャンネルに設定するようにしてもよい。
In the first embodiment, the synthesis
ビデオ合成装置の構成図は、上記実施の形態1と同じであり(図1を参照)、合成タイミング生成部3が出力待ち時間の算出処理を実施せずに、基準チャンネルの再設定を行う点でのみ上記実施の形態1と相違している。
The configuration diagram of the video synthesizing apparatus is the same as that of the first embodiment (see FIG. 1), and the synthesizing
合成タイミング生成部3は、各チャンネルの「フレーム落ち」の発生を検出する。
合成タイミング生成部3は、あるチャンネルの「フレーム落ち」の発生を検出すると、そのチャンネルを基準チャンネルに再設定する。
これにより、基準フレームに設定されたチャンネルは、出力待ち時間が一番短くなり、「フレーム落ち」の頻度が一番低くなる。
「フレーム落ち」が発生したチャンネルを基準チャンネルに選択することは、そのチャンネルの優先度を上げることに等しい。
The synthesis
When the synthesis
As a result, the channel set as the reference frame has the shortest output waiting time and the lowest “frame drop” frequency.
Selecting a channel in which “frame loss” has occurred as a reference channel is equivalent to increasing the priority of the channel.
図4の例では、ビデオ1chが基準チャンネルに選択されている。
この場合、ビデオ2chの出力待ち時間が一番長く、ビデオ2chにおいて「フレーム落ち」が一番発生し易い状況になっている。
この状況下で、ビデオ2chに「フレーム落ち」が発生すると、合成タイミング生成部3がビデオ2chを基準チャンネルに再設定する(図6を参照)。
In the example of FIG. 4, video 1ch is selected as the reference channel.
In this case, the output waiting time of video 2ch is the longest, and “frame drop” is most likely to occur in video 2ch.
Under this situation, when “frame drop” occurs in the video 2ch, the synthesis
この場合、ビデオ3chの出力待ち時間が一番長く、ビデオ3chにおいて「フレーム落ち」が一番発生し易い状況になっている。
この状況下で、ビデオ3chに「フレーム落ち」が発生すると、合成タイミング生成部3がビデオ3chを基準チャンネルに再設定する(図7を参照)。
In this case, the output waiting time of video 3ch is the longest, and “frame drop” is most likely to occur in video 3ch.
Under this situation, when “frame drop” occurs in the video 3ch, the synthesis
この場合、ビデオ4chの出力待ち時間が一番長く、ビデオ4chにおいて「フレーム落ち」が一番発生し易い状況になっている。
この状況下で、ビデオ4chに「フレーム落ち」が発生すると、合成タイミング生成部3がビデオ4chを基準チャンネルに再設定する(図5を参照)。
この場合、基準チャンネルをビデオ1ch,2ch,3chに選択した場合と比べて、出力待ち時間が少なくなっている。
In this case, the output waiting time of video 4ch is the longest, and “frame drop” is most likely to occur in video 4ch.
Under this situation, when “frame loss” occurs in the video 4ch, the synthesis
In this case, the output waiting time is reduced as compared with the case where the reference channel is selected as video 1ch, 2ch, or 3ch.
このように、「フレーム落ち」が発生したチャンネルを基準チャンネルに再設定していくようにすれば、消去法的に、出力待ち時間が最小になるチャンネルが基準チャンネルに再設定される。
また、自動的に出力待ち時間が最小になるように調整されるため、各チャンネルの「フレーム落ち」の発生頻度を最小限に抑えることができる。
また、あるチャンネルのフレームデータの入力が途切れた場合でも、そのチャンネルを基準チャンネルの選択から外されるため、異常のないチャンネルを正常に合成して、出力フレームデータを生成することができる。
上記実施の形態1と比べて、出力待ち時間が最小となる基準チャンネルを選択するのに長い時間を要するが、出力待ち時間の算出処理が不要になる。
In this way, if the channel in which “frame loss” has occurred is reset as the reference channel, the channel with the minimum output waiting time is reset as the reference channel in terms of the erasure method.
In addition, since the output waiting time is automatically adjusted to be minimized, the occurrence frequency of “frame dropping” in each channel can be minimized.
Further, even when the input of frame data of a certain channel is interrupted, the channel is removed from the selection of the reference channel, so that it is possible to normally synthesize an abnormal channel and generate output frame data.
Compared to the first embodiment, it takes a long time to select the reference channel that minimizes the output waiting time, but the output waiting time calculation process is not required.
1 ビデオ入力部(フレームデータ入力手段)、2 フレームメモリ、3 合成タイミング生成部(合成開始タイミング設定手段)、4 ビデオ合成出力部(フレームデータ合成手段)。 1 video input unit (frame data input unit), 2 frame memory, 3 synthesis timing generation unit (combination start timing setting unit), 4 video synthesis output unit (frame data synthesis unit).
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008113878A JP5172452B2 (en) | 2008-04-24 | 2008-04-24 | Video synthesizer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008113878A JP5172452B2 (en) | 2008-04-24 | 2008-04-24 | Video synthesizer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009265319A true JP2009265319A (en) | 2009-11-12 |
JP5172452B2 JP5172452B2 (en) | 2013-03-27 |
Family
ID=41391264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008113878A Active JP5172452B2 (en) | 2008-04-24 | 2008-04-24 | Video synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5172452B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015228588A (en) * | 2014-05-30 | 2015-12-17 | キヤノン株式会社 | Video processing apparatus, control method of the same, and program |
WO2022137325A1 (en) * | 2020-12-22 | 2022-06-30 | 日本電信電話株式会社 | Device, method, and program for synthesizing video signals |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104722A (en) * | 1993-09-30 | 1995-04-21 | Mitsubishi Electric Corp | Image display system |
JP2003280626A (en) * | 2002-03-19 | 2003-10-02 | Waimachikku Kk | Image compositing device |
JP2005004097A (en) * | 2003-06-13 | 2005-01-06 | Matsushita Electric Ind Co Ltd | Image synthesizing system |
JP2007271848A (en) * | 2006-03-31 | 2007-10-18 | Casio Comput Co Ltd | Video output device and video output method |
-
2008
- 2008-04-24 JP JP2008113878A patent/JP5172452B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104722A (en) * | 1993-09-30 | 1995-04-21 | Mitsubishi Electric Corp | Image display system |
JP2003280626A (en) * | 2002-03-19 | 2003-10-02 | Waimachikku Kk | Image compositing device |
JP2005004097A (en) * | 2003-06-13 | 2005-01-06 | Matsushita Electric Ind Co Ltd | Image synthesizing system |
JP2007271848A (en) * | 2006-03-31 | 2007-10-18 | Casio Comput Co Ltd | Video output device and video output method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015228588A (en) * | 2014-05-30 | 2015-12-17 | キヤノン株式会社 | Video processing apparatus, control method of the same, and program |
WO2022137325A1 (en) * | 2020-12-22 | 2022-06-30 | 日本電信電話株式会社 | Device, method, and program for synthesizing video signals |
Also Published As
Publication number | Publication date |
---|---|
JP5172452B2 (en) | 2013-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4322209B2 (en) | Method and apparatus for setting and compensating for read latency in high speed DRAM | |
US8661440B2 (en) | Method and apparatus for performing related tasks on multi-core processor | |
JP2007183959A (en) | Memory system having improved additive latency and control method | |
JPH08328941A (en) | Memory access control circuit | |
JP2007133527A (en) | Clock signal generation circuit, semiconductor integrated circuit, and frequency-division rate control method | |
KR100573256B1 (en) | Multiple address holding memory device | |
JP5172452B2 (en) | Video synthesizer | |
JP4207639B2 (en) | Data multiplexing method, data multiplexing device, transmission device, and reception device | |
JPWO2006046482A1 (en) | Multiprocessor system, synchronization control device, and synchronization control method | |
JP2011146043A (en) | Semiconductor device, semiconductor system having the device, and method of operating the system | |
KR100499623B1 (en) | Internal command signal generator and its method | |
KR100546389B1 (en) | Semiconductor memory device having different synchronizing timing according to CL | |
US20150293721A1 (en) | Semiconductor device including a plurality of function blocks | |
JP5778478B2 (en) | Data processing system | |
JP6662735B2 (en) | Semiconductor device, assignment method, and display system | |
KR20170065352A (en) | Semiconductor System | |
JP4633334B2 (en) | Information processing apparatus and memory access arbitration method | |
JPH07311730A (en) | Method and device for memory control | |
JP4265650B2 (en) | Data processing apparatus and image device | |
JPH11331792A (en) | Client device and server-client system | |
JP2000338940A (en) | Image processing device | |
JP6645423B2 (en) | Video processing apparatus and control method for video processing apparatus | |
JP6514001B2 (en) | Receiver | |
JP2011239176A (en) | Image processing apparatus | |
CN114257781A (en) | Double-rate dynamic random access memory read-write control method, device and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121009 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5172452 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |