WO2022137326A1 - 映像音響合成装置、方法及びプログラム - Google Patents

映像音響合成装置、方法及びプログラム Download PDF

Info

Publication number
WO2022137326A1
WO2022137326A1 PCT/JP2020/047865 JP2020047865W WO2022137326A1 WO 2022137326 A1 WO2022137326 A1 WO 2022137326A1 JP 2020047865 W JP2020047865 W JP 2020047865W WO 2022137326 A1 WO2022137326 A1 WO 2022137326A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
signal
acoustic
audio
signals
Prior art date
Application number
PCT/JP2020/047865
Other languages
English (en)
French (fr)
Inventor
稔久 藤原
央也 小野
達也 福井
智彦 池田
亮太 椎名
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2020/047865 priority Critical patent/WO2022137326A1/ja
Priority to JP2022570806A priority patent/JPWO2022137326A1/ja
Publication of WO2022137326A1 publication Critical patent/WO2022137326A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Definitions

  • the timing of the video signal is not synchronized, and the timing of other video signals to be combined is different. Therefore, the signal is temporarily buffered in a memory or the like before being combined. As a result, there is a delay in the output of the composite screen and the acoustic signal.
  • the delay related to this synthesis greatly impairs its feasibility.
  • 120 BPM Beat Per Minute
  • a system that synthesizes multiple screens / multiple audio signals at multiple locations, etc. has a low delay in the time from video input / audio signal input of asynchronous video to its audio output in particular.
  • a system to be converted Provide a system to be converted.
  • the purpose of this disclosure is to shorten the delay time until the acoustic signal is output.
  • the audiovisual synthesizer of the present disclosure is Acquires video signals and audio signals that make up multiple videos with audio,
  • the video signal and the acoustic signal are separated from the plurality of video signals with audio, and the video signal and the acoustic signal are separated.
  • the video signal composition process is performed separately from the acoustic signal process.
  • the audio signal is output without waiting for the completion of the video signal composition process.
  • the audiovisual synthesis method of the present disclosure is The audiovisual synthesizer Acquires video signals and audio signals that make up multiple videos with audio, The video signal and the acoustic signal are separated from the plurality of video signals with audio, and the video signal and the acoustic signal are separated. The video signal composition process is performed separately from the acoustic signal process. The audio signal is output without waiting for the completion of the video signal composition process.
  • the program of the present disclosure is a program for realizing a computer as each functional unit provided in the video-acoustic synthesizer according to the present disclosure, and each step provided in the method executed by the video-acoustic synthesizer according to the present disclosure is executed by the computer. It is a program to make it.
  • This disclosure can shorten the delay time until the acoustic signal is output.
  • An example of screen information included in a video signal is shown.
  • An example of screen composition is shown.
  • An example of the audiovisual synthesis method related to the present disclosure is shown.
  • An example of the audiovisual synthesis method of the present disclosure is shown.
  • An example of the audiovisual synthesis method of the present disclosure is shown.
  • a configuration example of the audiovisual synthesizer according to the present embodiment is shown.
  • FIG. 1 shows an example of screen information included in a video signal.
  • the information on the screen is transmitted by scanning the screen in the horizontal direction for each scanning line 21 and sequentially scanning the lower scanning line 21.
  • This scan includes scanning of overhead information / signals such as the blanking portion 22 and the border portion 23 in addition to the display screen 24.
  • the blanking portion 22 may include information other than video information, such as control information and audio information. (See, for example, Non-Patent Document 1, Chapter 3.)
  • FIG. 2 shows an example of synthesizing video signals.
  • four video signals are input to the video-acoustic synthesizer, and the video-acoustic synthesizer synthesizes and outputs one video signal.
  • one screen is transmitted using a time that is one-third of the frame rate. For example, in the case of a video signal of 60 frames per second, the video signal of one screen is transmitted in 1/60 seconds, that is, about 16.7 milliseconds (hereinafter, 60 fps (Frame per Second)).
  • the information on one screen at each time point included in the video signal is called “video frame”, and the information on one screen of each video signal input to the video / sound synthesizer is output from the video / sound synthesizer as "input frame”.
  • the combined information on one screen is called an "output frame”.
  • an acoustic signal may be included in the "input frame” and the "output frame”.
  • the composite video may include a delay of 2 frame times or more, that is, 33.3 milliseconds or more.
  • the input video x and k are the k-th video frames of the input x
  • the acoustics x and k are the acoustic signals included in the k-th video frame of the input x
  • the video k, k, k, k of the output signal is the kth output frame synthesized from the video 1, k, the video 2, k, the video 3, k, and the video 4, k.
  • the present disclosure is a system for inputting video signals and acoustic signals constituting a plurality of asynchronous videos with audio and synthesizing the video signals and acoustic signals, and separating the acoustic signals from the input signals to perform acoustics. It is characterized in that a video signal is synthesized separately from the signal, and an acoustic signal is synthesized and superimposed on the video signal without waiting for the synthesis of the original video signal.
  • FIG. 4 shows a synthetic example of the present disclosure.
  • sound 1, k, sound 2, k, sound 3, k, and sound 4, k are originally synthesized as sound into video k, k, k, k, which is a composite video of the original video. It should be.
  • the present disclosure separates only the acoustic signal and synthesizes and superimposes it in the previous video frame as much as possible.
  • the audiovisual synthesizer when each input frame of the acoustic signal can be output without delay, the audiovisual synthesizer outputs the output frame of the acoustic signal without delay.
  • the video-acoustic synthesizer Superimposes the sound 1, k on the images k-2, k-2, k-2, k-2.
  • the video-acoustic synthesizer uses sound 2, k, sound 3, k, and sound 4.
  • K is divided into video k-2, k-2, k-2, k-2 and video k-1, k-1, k-1, k-1 and superimposed.
  • the delay of the acoustic signal can be greatly reduced.
  • FIG. 4 shows an example in which each input frame of an acoustic signal can be output without delay, the present disclosure is not limited to this, and the present disclosure is not limited to this, and at an arbitrary timing prior to the output timing of the video signal simultaneously input. An acoustic signal can be output.
  • the output acoustic signal at time t1 becomes data of acoustic 1, k, acoustic 2, k, video 3, k and acoustic 3, k, video 4, k, and acoustic 4, k. It is possible to superimpose on video k-2, k-2, k-2, k-2 as different acoustic channels, but after synthesizing some or all acoustic signals with arbitrary intensity, video k- as the same acoustic channel. It can also be superimposed on 2, k-2, k-2, and k-2. By separating the channels, it becomes possible to control the sound intensity for each input signal on the audiovisual device side that receives the output signal and presents the image and sound. Further, by synthesizing the channels, it is possible to avoid the limitation of the number of channels of the acoustic signal to be multiplexed with the video signal.
  • the present disclosure is not limited to this, and the acoustic signal may also be synthesized.
  • the acoustic 1, k, the acoustic 2, k, the acoustic 3, k, and the acoustic 4, k are combined so as to match the timing of the output frame of the acoustic 4, k that arrives last. May be good.
  • the video signal and the acoustic signal can be treated as one frame each.
  • FIG. 6 shows a configuration example of the audiovisual synthesizer according to the present embodiment.
  • the audiovisual synthesizer 10 according to the present embodiment includes a separation unit 101, an up / down converter 102, a buffer 103, and a superposition unit 104.
  • the figure shows 4 inputs and 1 output, but any number of inputs and outputs may be used.
  • Reference numeral 101 is a functional unit capable of separating a video signal and an acoustic signal with respect to each input signal.
  • the separated signal may be input to 104 below or may be output separately to the outside.
  • Reference numeral 102 is an up / down converter that enlarges / reduces the number of pixels to an arbitrary size. For example, the number of pixels of the input 1 is enlarged or reduced so as to match the size of the screen shown in FIG.
  • Reference numeral 103 is a buffer for storing each input frame. The 102 inputs can be buffered and output in any order.
  • Reference numeral 104 is a pixel synthesis, acoustic synthesis, and superimposition unit.
  • Pixels of each input are read from 103, the entire screen is synthesized, and then the acoustic signal is synthesized, and then the video signal is immediately superimposed as an acoustic signal and output regardless of the original video on which the acoustic signal was superimposed. do.
  • the 104 may add an arbitrary control signal to the blanking section of the screen. Further, when some of the acoustic signals separated by the separation unit 101 do not require synthesis processing, the audiovisual synthesizer 10 may output the acoustic signal without going through the superimposing unit 104.
  • the audiovisual synthesizer of the present disclosure can also be realized by a computer and a program, and the program can be recorded on a recording medium or provided through a network.
  • the audio signal After separating the asynchronous video / audio input signal, the audio signal is synthesized without waiting for the completion of the video signal synthesis process before the separation, and the audio signal is superimposed on the video signal for which the synthesis has been completed. It is possible to shorten the delay time until the output after synthesis. This enables collaborative work with strict low delay requirements in a system that synthesizes multiple screens at multiple locations.
  • This disclosure can be applied to the information and communication industry that distributes video content and game content, as well as the movie, advertising, and game industries related to video production.
  • Audio-visual synthesizer 21 Scanning line 22: Blanking part 23: Border part 24: Display screen 101: Separation part 102: Up / down converter 103: Buffer 104: Superimposing part

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本開示は、音響信号を出力するまでの遅延時間を短縮することを目的とする。 本開示は、複数の音声付き映像を構成する映像信号及び音響信号を取得し、前記複数の音声付き映像信号から映像信号と音響信号とを分離し、映像信号の合成処理を音響信号の処理と個別に行い、映像信号の合成処理の完了を待たずに音響信号を出力する。

Description

映像音響合成装置、方法及びプログラム
 複数の映像及び音響の入力信号から、画面や音声を1つに合成し、出力する、映像及び音響の合成システムに関する。
 近年、多くの映像デバイスが利用されている。このような多くの映像デバイスの映像には、多様な画素数(解像度)、フレームレート等が利用されている。この映像デバイスの映像信号は、規格によって、物理的な信号、コントロール信号等に差異があるものの、1画面をそのフレームレート分の1の時間を使って伝送する。
 これらの映像の利用方法には、テレビ会議など、複数のカメラをカメラの数よりも少ないモニタで表示するような形態がある。このよう場合、複数の映像/音響信号を、例えば1つの画面上に分割表示することや、ある映像画面中に、その他の映像画面縮小表示などをしてはめ込むことなどの、画面合成と同時に対応する音響信号の合成を行う。
 通常、映像信号のタイミングは同期されておらず、合成する他の映像信号のタイミングが異なることから、信号をメモリなどに一時的にバッファリングしてから、合成する。結果として、合成画面の出力や音響信号には遅延が発生する。
 遠隔地などでの合奏等をこのような画面合成/音響合成を行うテレビ会議で行うことを想定すると、この合成に関わる遅延は、その実現性を大きく損なう。例えば、1分間に120拍の曲(以下、120BPM(Beat Per Minute))であれば、1拍の時間は、60/120秒=500ミリ秒である。仮にこれを、5%の精度で合わせることが必要であるとすると、500×0.05=25ミリ秒以下にカメラで撮影して表示するまでの遅延を抑える必要がある。
 カメラで撮影して表示するまでには、実際には、合成に関わる処理以外に、カメラでの画像処理時間、モニタでの表示時間、伝送に関わる時間などの、その他の遅延も含む必要がある。付随した音響信号にも遅延を含むことになる。結果として、従来技術では、遠隔地で相互に映像を見ながらの合奏等のタイミングが重視される用途での、協調作業は困難である。映像もしくは音響信号のうち一方だけでも低遅延であれば、タイミングが重視される用途での協調作業か可能な場合もある。
 そこで、低遅延要求が厳しい協調作業に対して、複数拠点などの複数画面/複数音響信号を合成するシステムで、非同期映像の映像入力/音響信号入力から、特にその音響出力までの時間を低遅延化するシステムを提供する。
VESA and Industry Standards and Guidelines for Computer Display Monitor Timing (DMT), Version 1.0, Rev. 13, February 8, 2013
 本開示は、音響信号を出力するまでの遅延時間を短縮することを目的とする。
 本開示の映像音響合成装置は、
 複数の音声付き映像を構成する映像信号及び音響信号を取得し、
 前記複数の音声付き映像信号から映像信号と音響信号とを分離し、
 映像信号の合成処理を音響信号の処理と個別に行い、
 映像信号の合成処理の完了を待たずに音響信号を出力する。
 本開示の映像音響合成方法は、
 映像音響合成装置が、
 複数の音声付き映像を構成する映像信号及び音響信号を取得し、
 前記複数の音声付き映像信号から映像信号と音響信号とを分離し、
 映像信号の合成処理を音響信号の処理と個別に行い、
 映像信号の合成処理の完了を待たずに音響信号を出力する。
 本開示のプログラムは、本開示に係る映像音響合成装置に備わる各機能部としてコンピュータを実現させるためのプログラムであり、本開示に係る映像音響合成装置が実行する方法に備わる各ステップをコンピュータに実行させるためのプログラムである。
 本開示は、音響信号を出力するまでの遅延時間を短縮することができる。
映像信号に含まれる画面の情報の一例を示す。 画面の合成例を示す。 本開示に関連する映像音響合成方法の一例を示す。 本開示の映像音響合成方法の一例を示す。 本開示の映像音響合成方法の一例を示す。 本実施形態に係る映像音響合成装置の構成例を示す。
 以下、本開示の実施形態について、図面を参照しながら詳細に説明する。なお、本開示は、以下に示す実施形態に限定されるものではない。これらの実施の例は例示に過ぎず、本開示は当業者の知識に基づいて種々の変更、改良を施した形態で実施することができる。なお、本明細書及び図面において符号が同じ構成要素は、相互に同一のものを示すものとする。
 図1に、映像信号に含まれる画面の情報の一例を示す。画面の情報は、画面を横方向に1つの走査線21毎に走査して、順次下の走査線21を走査することで伝送される。この走査には、表示画面24の他、ブランキング部分22、また、ボーダ部分23などのオーバヘッド情報/信号の走査を含む。ブランキング部分22に、制御情報や音声情報など、映像情報以外の情報を含む場合もある。(例えば、非特許文献1,第3章参照。)
 図2に、映像信号の合成例を示す。本開示では、一例として、映像音響合成装置に4つの映像信号が入力され、映像音響合成装置が1つの映像信号に合成して出力する例を示す。映像信号では1画面をそのフレームレート分の1の時間を使って伝送する。例えば、1秒間に60フレームの映像信号であれば、1/60秒、すなわち約16.7ミリ秒を掛けて1画面の映像信号を伝送する(以下、60fps(Frame per Second))。映像信号に含まれる各時点での1画面の情報を「映像フレーム」と称し、映像音響合成装置に入力される各映像信号の1画面の情報を「入力フレーム」、映像音響合成装置から出力される合成された1画面の情報を「出力フレーム」と称する。本開示では、「入力フレーム」及び「出力フレーム」に音響信号が含まれていてもよい。
 例えば、図3に示すように、映像音響合成装置が、4つの異なるタイミングの映像信号及び音響信号を入力とし、1画面の出力フレームに合成して出力する際に、全ての入力フレームを読み込んでから、合成し、出力する形態の場合を考える。この場合、フレーム時間をT_f、合成処理時間をT_pとすると、映像信号及び音響信号の合成された出力フレームは、最初の入力1の入力フレームの入力時点から最大で、2T_f+T_p遅れることとなる。例えば、60fpsの映像を考えると、2フレーム時間以上、すなわち33.3ミリ秒以上の遅延が合成後の映像には、含まれる可能性があるということである。
 ここで、本開示において、入力の映像x,kは入力xのk番目の映像フレームであり、音響x,kは入力xのk番目の映像フレームに含まれる音響信号である。また、出力信号の映像k,k,k,kは、映像1,k、映像2,k、映像3,k、映像4,kから合成されたk番目の出力フレームである。
 本開示は、複数の非同期の音声付き映像を構成する映像信号及び音響信号を入力し、それらの映像信号や音響信号を合成するシステムであって、入力された信号から音響信号を分離し、音響信号とは別に映像信号を合成し、元の映像信号の合成を待たずに映像信号に音響信号を合成し、重畳することを特徴とする。
 図4に、本開示の合成例を示す。図に示すように音響1,k、音響2,k、音響3,k、音響4,kは、本来、元の映像が合成された映像である映像k,k,k,kに音響として合成されるべきである。しかし、本開示は、音響信号のみを分離して、可能な限り前の映像フレーム中に合成、重畳する。
 例えば、図4に示すように、音響信号の各入力フレームを遅延なしに出力できる場合、映像音響合成装置は、音響信号の出力フレームを遅延なしに出力する。この場合、映像1,k及び音響1,kの入力フレームの入力時点が映像k-2,k-2,k-2,k-2の出力フレームの出力時点と一致する場合、映像音響合成装置は、音響1,kを、映像k-2,k-2,k-2,k-2に重畳する。映像k-2,k-2,k-2,k-2及び映像k-1,k-1,k-1,k-1の出力フレームを出力している間に、映像2,k及び音響2,k、映像3,k及び音響3,k、映像4,k及び音響4,kの入力フレームが入力された場合、映像音響合成装置は、音響2,k、音響3,k、音響4,kについては、映像k-2,k-2,k-2,k-2と映像k-1,k-1,k-1,k-1に分けて重畳する。これにより、音響信号については、遅延を大きく低減することができる。なお、図4の例では音響信号の各入力フレームを遅延なしに出力できる例を示したが、本開示はこれに限らず、同時に入力された映像信号の出力タイミングよりも前の任意のタイミングで音響信号を出力することができる。
 また、例えば、時刻t1の出力音響信号は、音響1,k、音響2,k、映像3,k及び音響3,k、映像4,k及び音響4,kのデータになるが、これらそれぞれを異なる音響チャンネルとして映像k-2,k-2,k-2,k-2に重畳することもできるが、一部または全部の音響信号を任意の強度で合成後、同一音響チャンネルとして映像k-2,k-2,k-2,k-2に重畳することもできる。チャンネルを分離することで、出力された信号を受信し映像や音響を提示する映像音響機器側で、入力信号毎に音響の強度を制御することが可能となる。またチャンネルを合成処理することで、映像信号への多重する音響信号のチャンネル数の制約を回避することができる。
 また、図4の例では音響信号の各入力フレームを合成することなく出力する例を示したが、本開示はこれに限らず、音響信号についても合成処理を行ってもよい。例えば、図5に示すように、最後に到着する音響4,kの出力フレームのタイミングに一致するよう、音響1,k、音響2,k、音響3,k、音響4,kを合成してもよい。これにより、映像信号及び音響信号をそれぞれ1フレームとして扱うことができる。
 図6に、本実施形態に係る映像音響合成装置の構成例を示す。本実施形態に係る映像音響合成装置10は、分離部101、アップダウンコンバータ102、バッファ103、重畳部104を備える。図は4入力1出力であるが、任意の数の入出力でも構わない。
 101は、入力信号にそれぞれ対して、映像信号と音響信号を分離することができる機能部である。分離された信号は下記104に入力するほか、別途外部に出力しても構わない。
 102は画素数を任意の大きさに拡大縮小を行う、アップダウンコンバータである。例えば、入力1の画素数を、図2に示す画面の大きさに整合するよう拡大又は縮小する。
 103は、各入力フレームを格納するバッファである。102の入力をバッファリングして、任意の順序で出力することができる。
 104は、画素合成、音響合成、重畳部である。103から各入力の画素を読み出し画面全体を合成し、更に、音響信号を合成した上で、映像信号を音響信号が重畳されていた元の映像によらず、即時に音響信号として重畳し、出力する。
 104は、任意のコントロール信号を画面のブランキング部に付加しても構わない。また、分離部101で分離された音響信号のなかで合成処理が不要なものがある場合、映像音響合成装置10は、重畳部104を介さずに音響信号を出力してもよい。
 本開示の映像音響合成装置は、コンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。
 上述の実施形態では4入力、4分割1画面の例を示したが、本開示はこれに限らず、任意の入力に適用できる。
(本開示の効果)
 非同期の映像/音響入力信号を分離した上で、分離前の映像信号の合成処理の完了を待たずに音響信号を合成し、音響信号を合成完了済みの映像信号に重畳することで、音響信号について合成後の出力までの遅延時間を短縮することができる。
 これにより、複数拠点等の複数画面を合成するシステムで低遅延要求が厳しい協調作業が可能となる。
 本開示は、映像コンテンツやゲームコンテンツを配信する情報通信産業のほか、映像制作に関わる映画、広告、ゲーム産業に適用することができる。
10:映像音響合成装置
21:走査線
22:ブランキング部分
23:ボーダ部分
24:表示画面
101:分離部
102:アップダウンコンバータ
103:バッファ
104:重畳部

Claims (5)

  1.  複数の音声付き映像を構成する映像信号及び音響信号を取得し、
     前記複数の音声付き映像信号から映像信号と音響信号とを分離し、
     映像信号の合成処理を音響信号の処理と個別に行い、
     映像信号の合成処理の完了を待たずに音響信号を出力する、
     映像音響合成装置。
  2.  取得した複数の音響信号の合成を行うことなく出力する、
     請求項1に記載の映像音響合成装置。
  3.  1フレーム内の前記複数の音声付き映像の最後の音響信号に合わせて、前記複数の音声付き映像に含まれる音響信号を合成する、
     請求項1に記載の映像音響合成装置。
  4.  映像音響合成装置が、
     複数の音声付き映像を構成する映像信号及び音響信号を取得し、
     前記複数の音声付き映像信号から映像信号と音響信号とを分離し、
     映像信号の合成処理を音響信号の処理と個別に行い、
     映像信号の合成処理の完了を待たずに音響信号を出力する、
     映像音響合成方法。
  5.  請求項1から3のいずれかに記載の映像音響合成装置に備わる各機能部としてコンピュータを実現させるためのプログラム。
PCT/JP2020/047865 2020-12-22 2020-12-22 映像音響合成装置、方法及びプログラム WO2022137326A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/047865 WO2022137326A1 (ja) 2020-12-22 2020-12-22 映像音響合成装置、方法及びプログラム
JP2022570806A JPWO2022137326A1 (ja) 2020-12-22 2020-12-22

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/047865 WO2022137326A1 (ja) 2020-12-22 2020-12-22 映像音響合成装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2022137326A1 true WO2022137326A1 (ja) 2022-06-30

Family

ID=82159164

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/047865 WO2022137326A1 (ja) 2020-12-22 2020-12-22 映像音響合成装置、方法及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2022137326A1 (ja)
WO (1) WO2022137326A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015070460A (ja) * 2013-09-30 2015-04-13 シャープ株式会社 映像音声配信システム、音声映像配信方法及びプログラム
JP2018101965A (ja) * 2016-12-21 2018-06-28 株式会社 ディー・エヌ・エー 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015070460A (ja) * 2013-09-30 2015-04-13 シャープ株式会社 映像音声配信システム、音声映像配信方法及びプログラム
JP2018101965A (ja) * 2016-12-21 2018-06-28 株式会社 ディー・エヌ・エー 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム

Also Published As

Publication number Publication date
JPWO2022137326A1 (ja) 2022-06-30

Similar Documents

Publication Publication Date Title
JP4991129B2 (ja) 映像音声再生装置および映像音声再生方法
JP4646446B2 (ja) 映像信号処理装置
CN111479154B (zh) 音画同步的实现设备、方法及计算机可读存储介质
JP5317825B2 (ja) 画像処理装置及び画像処理方法
CN100505889C (zh) 图像声音输出系统、装置、声音处理程序和记录介质
JP2004522365A (ja) 多チャンネル入力の高画質多重画面分割装置及び方法
US8259233B2 (en) System and method for processing a television picture-out-picture
JP2007072130A (ja) 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体
JP4559976B2 (ja) 映像合成装置、映像合成方法及び映像合成プログラム
WO2022137326A1 (ja) 映像音響合成装置、方法及びプログラム
KR101856177B1 (ko) 다중 신호 처리 시스템
WO2023017577A1 (ja) 映像信号を合成する装置、方法及びプログラム
WO2022137325A1 (ja) 映像信号を合成する装置、方法及びプログラム
WO2022137324A1 (ja) 映像信号を合成する装置、方法及びプログラム
WO2023017578A1 (ja) 映像信号を合成する装置、方法及びプログラム
WO2023013072A1 (ja) 映像信号を合成する装置、方法及びプログラム
JP2007110310A (ja) 映像表示装置
JP4489760B2 (ja) 3dビデオ信号を生成する装置
JP3928485B2 (ja) 映像信号表示装置
JP7480908B2 (ja) 映像合成装置及び映像合成方法
JP5207866B2 (ja) 映像信号処理方法、映像信号処理装置
JP4765475B2 (ja) 情報信号の処理装置および処理方法
KR20080002275A (ko) Fpga를 이용한 영상합성 제어장치
JPH05176229A (ja) 多入力映像信号表示装置
KR0147152B1 (ko) 메모리 어드레스를 이용한 다수화면분할 및 정지화면 구현 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20966819

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022570806

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20966819

Country of ref document: EP

Kind code of ref document: A1