WO2023017577A1 - 映像信号を合成する装置、方法及びプログラム - Google Patents

映像信号を合成する装置、方法及びプログラム Download PDF

Info

Publication number
WO2023017577A1
WO2023017577A1 PCT/JP2021/029617 JP2021029617W WO2023017577A1 WO 2023017577 A1 WO2023017577 A1 WO 2023017577A1 JP 2021029617 W JP2021029617 W JP 2021029617W WO 2023017577 A1 WO2023017577 A1 WO 2023017577A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
video
video signal
output
screen
Prior art date
Application number
PCT/JP2021/029617
Other languages
English (en)
French (fr)
Inventor
稔久 藤原
達也 福井
亮太 椎名
央也 小野
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2021/029617 priority Critical patent/WO2023017577A1/ja
Priority to JP2023541163A priority patent/JPWO2023017577A1/ja
Publication of WO2023017577A1 publication Critical patent/WO2023017577A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information

Definitions

  • This relates to a video synthesis system that synthesizes and outputs a single screen from multiple video input signals.
  • the video signal of this video device transmits one screen using a time equal to the frame rate. For example, in the case of a video signal of 60 frames per second, the video of one screen is transmitted in 1/60 second, that is, approximately 16.7 milliseconds (hereinafter referred to as 60 fps (frame per second)).
  • screen synthesis is performed, for example, by splitting and displaying a plurality of images on one screen, or by embedding other images in a reduced size display in a certain image screen.
  • the timing of video signals is not synchronized, and the timing of other video signals to be synthesized is different, so the signals are temporarily buffered in memory, etc., and then synthesized. As a result, a delay occurs in the output of the composite screen.
  • the delay associated with this synthesis will greatly impair its feasibility.
  • 120 BPM Beat Per Minute
  • the time taken by the camera and displayed must include other delays such as image processing time in the camera, display time on the monitor, and transmission time. .
  • image processing time in the camera In addition to processing related to composition, the time taken by the camera and displayed must include other delays such as image processing time in the camera, display time on the monitor, and transmission time. .
  • transmission time As a result, with the conventional technology, it is difficult to perform cooperative work in applications where timing is important, such as ensemble performances while viewing video images from remote locations.
  • the purpose of the present disclosure is to reduce the time delay from video input of asynchronous video to its composite video output.
  • the present disclosure inputs a plurality of asynchronous images, does not wait for the completion of the input of one screen for output synthesis, and supplements the lack of input data with past frame data. Then, the input data is synthesized and output as soon as possible at a rate faster than the input frame rate.
  • the apparatus and methods of the present disclosure include: A device for synthesizing a plurality of asynchronously input video signals into a video signal displayed on one screen, If the input of the input frame is not completed for any one of the plurality of video signals, Using past input frame data of the video signal instead of the data that has not been input, The video signals displayed on the one screen are synthesized.
  • the program of the present disclosure is a program for realizing a computer as each functional unit provided in the device of the present disclosure, and causes the computer to execute each step provided in the method executed by the device of the present disclosure. It is a program for
  • FIG. 1 shows a system configuration example of the present disclosure; An example of combining four input frames into one output frame is shown. An example of the timing at which four input frames are combined into an output frame is shown. An example of an output video signal output at time t5 is shown. An example of the timing at which four input frames are combined into an output frame is shown. An example of an output video signal output at time t5 is shown. 1 shows a configuration example of a video synthesizer;
  • Fig. 1 shows an example of screen information included in a video signal.
  • Information on the screen is transmitted by scanning the screen in the horizontal direction for each scanning line 21 and sequentially scanning the scanning lines 21 below.
  • This scan includes the display screen 24 as well as overhead information/signals such as blanking portions 22 and border portions 23 .
  • the blanking portion 22 may contain information other than video information, such as control information and audio information.
  • FIG. 2 shows a system configuration example of the present disclosure.
  • four video signals V1 to V4 are input to the video synthesizer 10, and the video synthesizer 10 synthesizes and outputs the video signal displayed on one screen 20.
  • the video synthesizer 10 directs the video signal VA from the input 1 and the video signal VB from the input 2 to the upper part of the screen 20, and the video signal VC from the input 3 and the video signal VD from the input 4 to the lower part of the screen 20.
  • 1 screen is transmitted using 1/the frame rate.
  • the video signal for one screen is transmitted over 1/60 second, that is, about 16.7 milliseconds (hereinafter referred to as 60 fps (frame per second)).
  • the information of one screen at each time included in the video signal is called a "frame”
  • the information of one screen of each video signal input to the video synthesizer 10 is called an "input frame”
  • the information output from the video synthesizer 10 is called an "input frame”.
  • the synthesized information for one screen is called an "output frame”.
  • Fig. 3 shows an example in which four different timing images are input, combined into a video signal displayed on one screen, and output.
  • the video synthesizing device 10 reads all input video screens, synthesizes them, and outputs them.
  • the output frame will be delayed by 2T_f+T_p at the maximum from the time of input of the first input frame.
  • the combined video will include a delay of 2 frame times or more, that is, 33.3 milliseconds or more.
  • the present disclosure is a system for inputting a plurality of asynchronous videos and synthesizing those images, and is characterized by synthesizing and outputting screens at a rate higher than the input frame rate.
  • the lack of input data is supplemented with data of past input frames that have already been input.
  • FIGS. 4 and 5 an example in which a four-input screen is reduced to 1/4 as shown in FIG. 2 and combined into a four-divided screen will be specifically described with reference to FIGS. 4 and 5.
  • FIG. 4 shows an example of the timing at which the input frames input from Input 1 to Input 4 are combined with the output frame.
  • the horizontal axis indicates the passage of time, and the vertical axis indicates the degree of completion of data for one frame from the start of input frame data, starting from the horizontal axis for each input. Indicates completion of data entry.
  • the video synthesizer 10 synthesizes input frames at an arbitrary frame rate and outputs output frames at times t1 to t5.
  • input frames of video signals VA1 to VA4 are input from input 1 at times t1 to t5
  • input frames of video signals VB1 and VB2 are input from input 2 at times t2 and t4
  • input frames of video signals VC1 and VC2 are input.
  • input frames of video signals VD1 and VD2 are input from input 4 at times t1 and t4.
  • output frames are output at a frame rate twice that of the input frames
  • output frames are output at a frame rate three times that of the input frames.
  • FIG. 5 shows an example of the video signal synthesized with the output frame that starts to be output at time t5.
  • the input frame data input to the video synthesizing device 10 by t5 can be output.
  • the video signal VC input from the input 3 only half of the video signal VC2 is input at time t5.
  • the usable input data of the video signal VC2 is used for the output frame, and the previous video signal VC1 is used instead of the unusable data of the video signal VC2.
  • the video signal VD input from the input 4 only 1 ⁇ 3 of the video signal VD2 is input at time t5.
  • the usable input data of the video signal VD2 is used for the output frame, and the previous video signal VD1 is used instead of the unusable data of the video signal VD2.
  • FIG. 6 is a diagram obtained by adding the timing of an output frame that starts to be output at time t5 and completes output at time t6 when synthesizing based on the data that has been input before the individual data output of the output frame is added to FIG. 4 with a dashed line. is. Since the data corresponding to inputs 1 and 2 are at the top of the screen, they will be output from t5 to the middle of t5 and t6, and the data corresponding to inputs 3 and 4 are at the top of the screen, so they will Output from time to t6.
  • FIG. 7 shows an example of a video signal that starts to be output at time t5 and is combined with an output frame that is completed at time t6. At this time, it is possible to output the input frame data input to the video synthesizer 10 by the time of output.
  • the video signal VC input from the input 3 only half of the video signal VC2 is input at time t5. Used for frames.
  • the video signal VD input from the input 4 only 1/3 of the video signal VD2 is input at time t5, but the input is completed up to 3/5 of the video signal VD2 where the output frame of the broken line overtakes the input. are doing. In this case, the previous 3/5 of the usable input data of the video signal VD2 is used for the output frame, and then the previous video signal VD1 is used instead of the unusable data of the video signal VD2. use.
  • the difference in the output of Input 2 to Input 4 is due to the difference in settings. For example, if the video signal VB is flagged to prohibit the partial use of the frame data, the video signal VC2 is not used in the output frame output at time t5 like the video signal VB. .
  • the present disclosure does not require that all outputs have a rate higher than the input frame rate, and there may be video signals with the same frame rate for input frames and output frames, such as input 1 to video signal VA.
  • FIG. 8 shows a configuration example of the video synthesizing device 10 according to this embodiment.
  • the video synthesizing device 10 according to this embodiment includes a detection unit 101 , a crossbar switch 102 , an up/down converter 103 , a buffer 104 and a pixel synthesizing unit 105 .
  • the figure shows four inputs and one output, any number of inputs and outputs may be used.
  • a functional unit 101 detects the input order within a frame time for N inputs.
  • a crossbar switch 102 has a function of rearranging and outputting the input order from 101 in the order of detection results.
  • An up-down converter 103 enlarges or reduces the number of pixels to an arbitrary size.
  • 102 and 103 may be reversely connected to the inputs (a, b, c, d, . . . ). That is, it is also possible to perform enlargement/reduction at 103 from inputs a, b, c, and d, and then rearrange and output at 102 in order of input.
  • 104 is a buffer. The inputs of 103 or 102 can be buffered and output in any order.
  • 105 is a pixel synthesizing unit. Pixel data is read out from 104 in the output order of the entire output screen, synthesized, and output. This synthesis is as described above. 105 may add an arbitrary control signal to the blanking portion of the screen.
  • the video synthesizing device 10 of the present disclosure can also be realized by a computer and a program, and the program can be recorded on a recording medium or provided through a network.
  • the present disclosure is a system for inputting a plurality of asynchronous videos and synthesizing those images, and synthesizing and outputting screens at a rate higher than the input frame rate.
  • output synthesis input data is output as soon as possible without waiting for the completion of input for one screen, and the shortfall of input data is supplemented with past frame data.
  • the present disclosure can shorten the delay time to the output after synthesis for an asynchronous video input signal. Therefore, in a system for synthesizing a plurality of screens from a plurality of sites, etc., cooperative work with strict low-delay requirements, and especially low-delay requirements for specific inputs, becomes possible.
  • This disclosure can be applied to the information and communications industry.
  • Video synthesizer 20 Screen 21: Scanning line 22: Blanking portion 23: Border portion 24: Display screen 101: Detector 102: Crossbar switch 103: Up/down converter 104: Buffer 105: Pixel synthesizing unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Circuits (AREA)

Abstract

本開示は、非同期映像の映像入力から、その合成映像出力までの時間を低遅延化することを目的とする。 本開示は、非同期で入力された複数の映像信号を、1つの画面に表示される映像信号に合成する装置であって、前記複数の映像信号のうちのいずれかの映像信号について、入力フレームの入力が完了していない場合、入力が完了していないデータに代えて、当該映像信号の過去の入力フレームのデータを用い、前記1つの画面に表示される映像信号を合成する、装置である。

Description

映像信号を合成する装置、方法及びプログラム
 複数の映像入力信号から、画面を1つに合成し、出力する、映像合成システムに関する。
 近年、多くの映像デバイスが利用されている。このような多くの映像デバイスの映像には、多様な画素数(解像度)、フレームレート等が利用されている。この映像デバイスの映像信号は、規格によって、物理的な信号、コントロール信号等に差異があるものの、1画面をそのフレームレート分の1の時間を使って伝送する。例えば、1秒間に60フレームの映像信号であれば、1/60秒、すなわち約16.7ミリ秒を掛けて1画面の映像を伝送する(以下、60fps(Frame per Second))。
 これらの映像の利用方法には、テレビ会議など、複数のカメラをカメラの数よりも少ないモニタで表示するような形態がある。このよう場合、複数の映像を、例えば1つの画面上に分割表示することや、ある映像画面中に、その他の映像画面縮小表示などをしてはめ込むことなどの、画面合成を行う。
 通常、映像信号のタイミングは同期されておらず、合成する他の映像信号のタイミングが異なることから、信号をメモリなどに一時的にバッファリングしてから、合成する。結果として、合成画面の出力には遅延が発生する。
 遠隔地などでの合奏等をこのような画面合成を行うテレビ会議で行うことを想定すると、この合成に関わる遅延は、その実現性を大きく損なう。例えば、1秒間に120拍の曲(以下、120BPM(Beat Per Minute))であれば、1拍の時間は、60/120秒=500ミリ秒である。仮にこれを、5%の精度で合わせることが必要であるとすると、500×0.05=25ミリ秒以下にカメラで撮影して表示するまでの遅延を抑える必要がある。
 カメラで撮影して表示するまでには、実際には、合成に関わる処理以外に、カメラでの画像処理時間、モニタでの表示時間、伝送に関わる時間などの、その他の遅延も含む必要がある。結果として、従来技術では、遠隔地で相互に映像を見ながらの合奏等のタイミングが重視される用途での、協調作業は困難である。
 そこで、低遅延要求が厳しい協調作業に対して、複数拠点などの複数画面を合成するシステムで、非同期映像の映像入力から、その合成映像出力までの時間を低遅延化するシステムの提供が必要である。
VESA and Industry Standards and Guidelines for Computer Display Monitor Timing (DMT), Version 1.0, Rev. 13, February 8, 2013
 本開示は、非同期映像の映像入力から、その合成映像出力までの時間を低遅延化することを目的とする。
 上記目的を達成するために、本開示は、複数の非同期の映像を入力し、出力合成は1画面分の入力完了を待たず、そして、入力データの不足分は、過去のフレームデータで補完して、入力済みデータを可能な限り早く、入力フレームレートより高速なレートで画面を合成して出力する。
 具体的には、本開示の装置及び方法は、
 非同期で入力された複数の映像信号を、1つの画面に表示される映像信号に合成する装置であって、
 前記複数の映像信号のうちのいずれかの映像信号について、入力フレームの入力が完了していない場合、
 入力が完了していないデータに代えて、当該映像信号の過去の入力フレームのデータを用い、
 前記1つの画面に表示される映像信号を合成する。
 具体的には、本開示のプログラムは、本開示に係る装置に備わる各機能部としてコンピュータを実現させるためのプログラムであり、本開示に係る装置が実行する方法に備わる各ステップをコンピュータに実行させるためのプログラムである。
 本開示は、非同期映像の映像入力から、その合成映像出力までの時間を低遅延化することができる。
映像信号に含まれる画面の情報の一例を示す。 本開示のシステム構成例を示す。 4つの入力フレームから1つの出力フレームへの合成例を示す。 4つの入力フレームが出力フレームに合成されるタイミングの一例を示す。 時間t5に出力された出力された映像信号の一例を示す。 4つの入力フレームが出力フレームに合成されるタイミングの一例を示す。 時間t5に出力された出力された映像信号の一例を示す。 映像合成装置の構成例を示す。
 以下、本開示の実施形態について、図面を参照しながら詳細に説明する。なお、本開示は、以下に示す実施形態に限定されるものではない。これらの実施の例は例示に過ぎず、本開示は当業者の知識に基づいて種々の変更、改良を施した形態で実施することができる。なお、本明細書及び図面において符号が同じ構成要素は、相互に同一のものを示すものとする。
 図1に、映像信号に含まれる画面の情報の一例を示す。画面の情報は、画面を横方向に1つの走査線21毎に走査して、順次下の走査線21を走査することで伝送される。この走査には、表示画面24の他、ブランキング部分22、また、ボーダ部分23などのオーバヘッド情報/信号を含む。ブランキング部分22に、制御情報や音声情報など、映像情報以外の情報を含む場合もある。
 図2に、本開示のシステム構成例を示す。
本開示では、一例として、4つの映像信号V1~V4が映像合成装置10に入力され、映像合成装置10が1つの画面20に表示される映像信号に合成して出力する例を示す。映像合成装置10は、入力1からの映像信号VA、及び入力2からの映像信号VBは、画面20の上部へ、入力3からの映像信号VC及び入力4からの映像信号VDは画面20の下部へ出力する。
 映像信号では1画面をそのフレームレート分の1の時間を使って伝送する。例えば、1秒間に60フレームの映像信号であれば、1/60秒、すなわち約16.7ミリ秒を掛けて1画面の映像信号を伝送する(以下、60fps(Frame per Second))。映像信号に含まれる各時点での1画面の情報を「フレーム」と称し、映像合成装置10に入力される各映像信号の1画面の情報を「入力フレーム」、映像合成装置10から出力される合成された1画面の情報を「出力フレーム」と称する。
 図3に、4つの異なるタイミングの映像を入力とし、1つの画面に表示される映像信号に合成して出力する例を図に示す。映像合成装置10が、全ての入力映像画面を読み込んでから、合成し、出力する形態の場合を考える。この場合、フレーム時間をT_f、合成処理時間をT_pとすると、出力フレームは、最初の入力フレームの入力時点から最大で、2T_f+T_p遅れることとなる。例えば、60fpsの映像を考えると、2フレーム時間以上、すなわち33.3ミリ秒以上の遅延が合成後の映像には、含まれる可能性があるということである。
 本開示は、複数の非同期の映像を入力し、それらの画像を合成するシステムであって、出力は入力フレームレートより高速なレートで画面を合成し出力することを特徴とする。このとき、本開示では、入力データの不足分を、入力済の過去の入力フレームのデータで補完する。以下、図4及び図5を参照しながら、図2に示すように、4入力の画面を1/4に縮小し、4分割画面に合成する例を具体的に説明する。
 図4は、入力1~入力4から入力された入力フレームが出力フレームに合成されるタイミングの一例を示す。横軸は時間経過を示し、縦軸は入力毎の横軸を起点として入力フレームのデータの入力開始から、上方向に1フレーム分のデータの完了の程度を示し、矢印の矢側の終点がデータ入力完了を示す。映像合成装置10は、任意のフレームレートの入力フレームを合成し、時間t1~t5に出力フレームを出力する。
 例えば、映像信号VA1~VA4の入力フレームが時間t1~t5に入力1から入力され、映像信号VB1及びVB2の入力フレームが時間t2及びt4に入力2から入力され、映像信号VC1及びVC2の入力フレームが時間t2及びt4に入力3から入力され、映像信号VD1及びVD2の入力フレームが時間t1及びt4に入力4から入力される。入力2及び3については入力フレームの倍のフレームレートで出力フレームを出力し、入力4については入力フレームの3倍のフレームレートで出力フレームを出力する。
 図5に、時間t5で出力され始める出力フレームに合成されている映像信号の一例を示す。この時、t5までに映像合成装置10に入力された入力フレームのデータを出力することができる。入力3から入力された映像信号VCについては、時間t5では、映像信号VC2の半分しか入力されていない。この場合、映像信号VC2のうちの使用可能な入力済のデータを出力フレームに用い、映像信号VC2のうちの使用できないデータに代えて、前の映像信号VC1を用いる。
 入力4から入力された映像信号VDについては、時間t5では、映像信号VD2の1/3しか入力されていない。この場合、映像信号VD2のうちの使用可能な入力済のデータを出力フレームに用い、映像信号VD2のうちの使用できないデータに代えて、前の映像信号VD1を用いる。
 入力2から入力された映像信号VB、及びについては、時間t5では、映像信号VC2の半分しか入力されていない。この場合、映像信号VB2を用いず、前の映像信号VB1のみを用いる。
 本開示は、前記の出力フレームの出力開始時の入力完了データを基準とするだけでなく、出力フレームの個別のデータ出力までに入力完了したデータを基準として合成することもできる。
 図6は、図4に出力フレームの個別のデータ出力までに入力完了したデータを基準として合成する場合の、時間t5で出力され始め、t6で出力完了する出力フレームのタイミングを破線で足したものである。入力1と入力2に対応するデータは画面上部のため、t5からt5とt6の中央の時間までで出力し、入力3と入力4に対応するデータは画面上部のため、t5とt6の中央の時間からt6までに出力する。
 図7に、時間t5で出力され始め、t6で出力完了出力フレームに合成されている映像信号の一例を示す。この時、出力時までに映像合成装置10に入力された入力フレームのデータを出力することができる。入力3から入力された映像信号VCについては、時間t5では、映像信号VC2の半分しか入力されていないが、出力完了までに入力が完了することから、この場合、映像信号VC2のデータのみを出力フレームに用いる。
 入力4から入力された映像信号VDについては、時間t5では、映像信号VD2の1/3しか入力されていないが、破線の出力フレームが入力を追い越す映像信号VD2の3/5までが入力が完了している。この場合、映像信号VD2のうちの使用可能な入力済のデータを前の3/5を出力フレームに用い、その後は、映像信号VD2のうちの使用できないデータに代えて、前の映像信号VD1を用いる。
 入力2から入力された映像信号VB、及びについては、時間t5では、映像信号VC2の半分しか入力されていない。この場合、映像信号VB2を用いず、前の映像信号VB1のみを用いる。
 入力2~入力4の出力の違いは、設定の違いによる。例えば、映像信号VBにフームデータの一部利用を禁止する旨のフラグが付されている場合、映像信号VBのように、時間t5に出力される出力フレームで映像信号VC2を用いないなどである。
 本開示は、全ての出力が入力フレームレートより高速なレートである必要はなく、入力1から映像信号VAのように、入力フレームと出力フレームのフレームレートが同一の映像信号があってもよい。
 図8に、本実施形態に係る映像合成装置10の構成例を示す。本実施形態に係る映像合成装置10は、検出部101、クロスバスイッチ102、アップダウンコンバータ103、バッファ104、画素合成部105を備える。図は4入力1出力であるが、任意の数の入出力でも構わない。
101は、N個の入力に対して、フレーム時間内の入力順を検出する機能部である。
102は、クロスバスイッチであり、101からの入力順序の検出結果順に並べ替え出力する機能である。
103は画素数を任意の大きさに拡大縮小を行う、アップダウンコンバータである。
102と103は入力(a,b,c,d,…)に対して逆に接続しても構わない。すなわち入力a,b,c,dから103で拡大縮小を行い、その後102、入力順に並べ替え出力しても構わない。
104は、バッファである。103または102の入力をバッファリングして、任意の順序で出力することができる。
105は、画素合成部である。出力の全体画面のうち、出力する順に104から画素データを読み出し、合成して出力する。この合成は、前記による。105は、任意のコントロール信号を画面のブランキング部に付加しても構わない。
 本開示の映像合成装置10は、コンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。
(本開示のポイント)
 以上説明したように、本開示は、複数の非同期の映像を入力し、それらの画像を合成するシステムであって、出力は入力フレームレートより高速なレートで画面を合成し出力する。ここで、出力合成は1画面分の入力完了を待たず、入力済みデータを可能な限り早く出力し、入力データの不足分は、過去のフレームデータで補完する。これにより、本開示は、非同期の映像入力信号に対して、合成後の出力までの遅延時間を短縮することができる。そのため、複数拠点等の複数画面を合成するシステムで低遅延要求が厳しく且つ特に特定の入力に対する低遅延要求がより厳しい協調作業が可能となる。
 本開示は情報通信産業に適用することができる。
10:映像合成装置
20:画面
21:走査線
22:ブランキング部分
23:ボーダ部分
24:表示画面
101:検出部
102:クロスバスイッチ
103:アップダウンコンバータ
104:バッファ
105:画素合成部

Claims (4)

  1.  非同期で入力された複数の映像信号を、1つの画面に表示される映像信号に合成する装置であって、
     前記複数の映像信号のうちのいずれかの映像信号について、入力フレームの入力が完了していない場合、
     入力が完了していないデータに代えて、当該映像信号の過去の入力フレームのデータを用い、
     前記1つの画面に表示される映像信号を合成する、
     装置。
  2.  前記複数の映像信号の少なくともいずれかは、フレームレートが異なる、
     請求項1に記載の装置。
  3.  非同期で入力された複数の映像信号を、1つの画面に表示される映像信号に合成する方法であって、
     前記複数の映像信号のうちのいずれかの映像信号について、入力フレームの入力が完了していない場合、
     入力が完了していないデータに代えて、当該映像信号の過去の入力フレームのデータを用い、
     前記1つの画面に表示される映像信号を合成する、
     方法。
  4.  請求項1又は2に記載の装置に備わる各機能部としてコンピュータを実現させるためのプログラム。
PCT/JP2021/029617 2021-08-11 2021-08-11 映像信号を合成する装置、方法及びプログラム WO2023017577A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/029617 WO2023017577A1 (ja) 2021-08-11 2021-08-11 映像信号を合成する装置、方法及びプログラム
JP2023541163A JPWO2023017577A1 (ja) 2021-08-11 2021-08-11

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/029617 WO2023017577A1 (ja) 2021-08-11 2021-08-11 映像信号を合成する装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2023017577A1 true WO2023017577A1 (ja) 2023-02-16

Family

ID=85200093

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/029617 WO2023017577A1 (ja) 2021-08-11 2021-08-11 映像信号を合成する装置、方法及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2023017577A1 (ja)
WO (1) WO2023017577A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023033A (ja) * 1998-07-03 2000-01-21 For A Co Ltd 分割マルチ画面表示装置
JP2005124167A (ja) * 2003-09-25 2005-05-12 Canon Inc フレームレート変換装置、それに用いられる追い越し予測方法、表示制御装置及び映像受信表示装置
JP2012169727A (ja) * 2011-02-10 2012-09-06 Panasonic Corp 映像信号処理装置および映像信号処理方法
WO2015159407A1 (ja) * 2014-04-17 2015-10-22 三菱電機株式会社 車載表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023033A (ja) * 1998-07-03 2000-01-21 For A Co Ltd 分割マルチ画面表示装置
JP2005124167A (ja) * 2003-09-25 2005-05-12 Canon Inc フレームレート変換装置、それに用いられる追い越し予測方法、表示制御装置及び映像受信表示装置
JP2012169727A (ja) * 2011-02-10 2012-09-06 Panasonic Corp 映像信号処理装置および映像信号処理方法
WO2015159407A1 (ja) * 2014-04-17 2015-10-22 三菱電機株式会社 車載表示装置

Also Published As

Publication number Publication date
JPWO2023017577A1 (ja) 2023-02-16

Similar Documents

Publication Publication Date Title
JP4991129B2 (ja) 映像音声再生装置および映像音声再生方法
JP4346591B2 (ja) 映像処理装置、映像処理方法およびプログラム
JP2004522365A (ja) 多チャンネル入力の高画質多重画面分割装置及び方法
CN111479154B (zh) 音画同步的实现设备、方法及计算机可读存储介质
KR20060120571A (ko) 라이브 스트리밍 방송 방법, 라이브 스트리밍 방송 장치,및 컴퓨터 프로그램
TW200939763A (en) Image processing system and method for processing divisional TV pictures
US8154654B2 (en) Frame interpolation device, frame interpolation method and image display device
JP4559976B2 (ja) 映像合成装置、映像合成方法及び映像合成プログラム
JPH0775014A (ja) 映像表示装置、マルチ画面表示システム及び拡大処理回路
WO2023017577A1 (ja) 映像信号を合成する装置、方法及びプログラム
JP2012222399A (ja) 映像再生システム、映像再生方法、映像再生装置及びプログラム
WO2022137325A1 (ja) 映像信号を合成する装置、方法及びプログラム
WO2023017578A1 (ja) 映像信号を合成する装置、方法及びプログラム
WO2023013072A1 (ja) 映像信号を合成する装置、方法及びプログラム
WO2022137326A1 (ja) 映像音響合成装置、方法及びプログラム
KR100817055B1 (ko) 회귀경로를 이용한 영상처리 시스템 장치 및 영상처리 방법
WO2022137324A1 (ja) 映像信号を合成する装置、方法及びプログラム
JP2005338498A (ja) 表示メモリ装置
JP7480908B2 (ja) 映像合成装置及び映像合成方法
JP2004538741A (ja) 複数セットの多重チャネルデジタル画像を組み合わせる方法及びバスインタフェース技術
JP2006337732A (ja) 会議用画像表示システム
CN111699672B (zh) 视频控制装置和视频控制方法
JPH05173530A (ja) 多入力映像信号表示装置
JP2010035092A (ja) 映像信号処理方法、映像信号処理装置
JPH05176229A (ja) 多入力映像信号表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21953473

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023541163

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE