JP2012114743A - Video edition system and video edition method - Google Patents
Video edition system and video edition method Download PDFInfo
- Publication number
- JP2012114743A JP2012114743A JP2010262851A JP2010262851A JP2012114743A JP 2012114743 A JP2012114743 A JP 2012114743A JP 2010262851 A JP2010262851 A JP 2010262851A JP 2010262851 A JP2010262851 A JP 2010262851A JP 2012114743 A JP2012114743 A JP 2012114743A
- Authority
- JP
- Japan
- Prior art keywords
- video
- editing
- period
- processing
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000033228 biological regulation Effects 0.000 claims abstract description 17
- 239000006185 dispersion Substances 0.000 abstract 2
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 230000000052 comparative effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000003672 processing method Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 2
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Landscapes
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
本発明は、映像編集システムおよび映像編集方法に関する。 The present invention relates to a video editing system and a video editing method.
近時、高速な広域コンピュータネットワーク網の整備に伴い、各種の計算機利用サービスを遠隔計算機を用いて提供する、所謂SaaS(Software as a Service)技術、或いはクラウドコンピューティングと呼ばれる技術が普及してきている。SaaS技術においては、利用者の手元にある端末コンピュータ(以下、クライアントと呼ぶ)では処理に必要な情報の入力と処理結果の出力のみを行い、その間の情報処理の大半は遠隔計算機(以下、リモートサーバと呼ぶ)で行っている。 Recently, with the development of a high-speed wide area computer network, a so-called SaaS (Software as a Service) technology that provides various computer use services using a remote computer, or a technology called cloud computing has become widespread. . In the SaaS technology, a terminal computer (hereinafter referred to as a client) at hand of a user only inputs information necessary for processing and outputs a processing result, and most of information processing during that time is performed by a remote computer (hereinafter referred to as a remote computer). Called a server).
他方、近時の放送用映像の高品位化により、映像の編集に伴う計算機処理負荷が著しく増大してきている。映像の編集の例としては、画面(動画)の一部に他の小さな別の画面(動画)を組み込み、所謂ピクチャー・イン・ピクチャー映像を作成する処理、加工された特殊な文字やアニメーション効果を持った文字を映像に重ねる処理、画面の一部をぼかすデフォーカス処理等の特殊効果を施す処理等がある。 On the other hand, with the recent increase in the quality of broadcast video, the computer processing load associated with video editing has increased significantly. Examples of video editing include incorporating another small screen (video) into a part of the screen (video), creating so-called picture-in-picture video, processed special characters and animation effects There are a process of superimposing characters on the video, a process of applying a special effect such as a defocus process of blurring a part of the screen, and the like.
高品位、即ち高解像度で画素数の多い映像に対してこれらの編集を行うためには、専用のソフトウェアと高性能な計算機からなる映像編集用の装置が必要となるが、この種の映像編集用の装置は一般に高価である。放送番組を制作する事業者(以下、番組制作者と呼ぶ)毎に映像編集用の装置を保有するとすれば番組制作者にとって無視し得ないコスト負担となる。 In order to edit these images with high quality, that is, high resolution and a large number of pixels, a video editing device consisting of dedicated software and a high-performance computer is required. The equipment for use is generally expensive. If each broadcaster producing company (hereinafter referred to as a program producer) has a video editing device, the cost of the program producer cannot be ignored.
この映像編集用の装置をSaaS技術を用いた映像編集システムとして構築すれば、番組制作者のコスト負担を低減することができる。即ち、高品位映像の編集処理を行う装置本体をリモートサーバとして構成し、編集を行うための情報入力を複数のクライアント(番組制作者側に配置される)から行えるようにすれば、装置全体のコストが分散されるため、各番組制作者のコスト負担を低減することができる。 If this video editing device is constructed as a video editing system using the SaaS technology, the cost burden on the program producer can be reduced. That is, if the device main body that performs high-definition video editing processing is configured as a remote server so that information input for editing can be performed from a plurality of clients (located on the program producer side), Since the cost is distributed, the cost burden of each program producer can be reduced.
さらに、高品位映像の編集処理を行うリモートサーバ自体を、単一の高機能高性能コンピュータではなく、複数の低コストのパーソナルコンピュータによって構成することによって、システム全体のコストを低減することができる。つまり、処理負荷の高い高品位映像の編集処理を、複数の低コストのパーソナルコンピュータに分散処理させることによって、処理の高速化とシステムの低コスト化を同時に実現することができる。以下、リモートサーバを構成する複数のパーソナルコンピュータを分散計算機と呼ぶ。 Furthermore, by configuring the remote server itself that performs high-definition video editing processing with a plurality of low-cost personal computers instead of a single high-performance high-performance computer, the cost of the entire system can be reduced. In other words, high-definition video editing processing with a high processing load is distributed to a plurality of low-cost personal computers, so that high-speed processing and low-cost system can be realized at the same time. Hereinafter, a plurality of personal computers constituting the remote server are referred to as distributed computers.
一般に、分散型のシステムにおいては、どのような処理をどのように分割し、かつ分割した処理をどのように夫々の分散計算機に分担させるか、によって全体の処理速度が大きく左右される。つまり、分割対象の処理内容に応じた適切な分割方法を取らないと、各分散計算機の処理効率は必ずしも上がらず、全体としての処理速度が期待した以上に向上しないという事態が生じうる。 In general, in a distributed system, the overall processing speed greatly depends on how and what processing is divided and how the divided processing is distributed to each distributed computer. That is, unless an appropriate division method according to the processing content to be divided is taken, the processing efficiency of each distributed computer does not necessarily increase, and a situation in which the overall processing speed is not improved more than expected can occur.
本発明は、放送用高品位映像の編集処理という特殊性を考慮して複数の分散計算機に処理を分割し、全体の処理効率或いは処理速度を高めることができる映像編集システムおよび映像編集方法を提供することを目的とする。 The present invention provides a video editing system and a video editing method capable of increasing the overall processing efficiency or processing speed by dividing the processing into a plurality of distributed computers in consideration of the special feature of editing processing of high-definition video for broadcasting. The purpose is to do.
上記課題を解決するため、本発明に係る映像編集システムは、タイムシーケンス上に規定される開始点から終了点までの1つの映像要素を1つのレイヤに割り付け、複数の前記レイヤが、夫々の前記開始点と前記終了点に基づいて前記タイムシーケンス上に重複可能に配置されるように記述される連続映像の編集規定情報に基づいて、前記連続映像を高解像度映像として編集する映像編集システムにおいて、前記編集規定情報に基づいて前記連続映像を複数の部分期間に分割し、前記高解像度映像の編集処理の分散処理を前記部分期間ごとに管理する管理端末と、分割された複数の前記部分期間ごとにそれぞれ分散して、前記高解像度映像の編集処理を行う複数の分散計算機と、を備え、前記部分期間は、前記タイムシーケンス上に複数のレイヤが重なっている場合において、前記複数のレイヤのうちの任意の1つのレイヤの前記開始点または前記終了点を分割点とするとき、互いに隣接する前記分割点の間の期間である、ことを特徴とする。 In order to solve the above-described problem, a video editing system according to the present invention allocates one video element from a start point to an end point defined on a time sequence to one layer, and a plurality of the layers are assigned to the respective layers. In the video editing system that edits the continuous video as a high-resolution video based on the editing specification information of the continuous video described so as to be arranged on the time sequence so as to be overlapped based on the start point and the end point, A management terminal that divides the continuous video into a plurality of partial periods based on the editing regulation information and manages distributed processing of the editing process of the high-resolution video for each partial period; and for each of the divided partial periods And a plurality of distributed computers that perform processing for editing the high-resolution video, and the partial period includes a plurality of records on the time sequence. When the start point or the end point of any one of the plurality of layers is a division point, the period between the adjacent division points is Features.
本発明に係る映像編集システムおよび映像編集方法によれば、放送用高品位映像の編集処理という特殊性を考慮して複数の分散計算機に処理を分割し、全体の処理効率或いは処理速度を高めることができる。 According to the video editing system and video editing method of the present invention, the processing is divided into a plurality of distributed computers in consideration of the special feature of editing processing of high-definition video for broadcasting, and the overall processing efficiency or processing speed is increased. Can do.
以下、本発明の実施形態を添付図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
(1)システム概要
図1は、本発明の一実施形態に係る映像編集システム1のシステム構成例を示す図である。映像編集システム1は、複数のクライアント3とリモートサーバ2とが、インターネット等の広域ネットワーク10を介して接続されている。
(1) System Overview FIG. 1 is a diagram showing a system configuration example of a video editing system 1 according to an embodiment of the present invention. In the video editing system 1, a plurality of clients 3 and a remote server 2 are connected via a wide area network 10 such as the Internet.
クライアント3は、例えばパーソナルコンピュータ等で構成される端末装置であり、夫々、番組制作者A、B等が管理する装置である。ここでの番組制作者とは、無線テレビジョン放送の放送事業者の他、有線テレビジョン放送事業者や番組制作会社等を含む。 The client 3 is a terminal device composed of a personal computer, for example, and is a device managed by the program producers A and B, respectively. The program producers here include a broadcaster of a wireless television broadcast, a cable television broadcaster, a program production company, and the like.
一方、リモートサーバ2は、所謂ハイビジョン映像等の高品位高解像度の映像を高速に処理することができるサーバである。リモートサーバ2は、サービス提供者が管理する装置であり、サービス提供者はリモートサーバ2を、例えば耐震、耐火災等の各種障害対策が施された建物等に設置する。リモートサーバ2は、番組制作者から提供される高品位高解像度の映像に対して、同じく番組制作者から提供される仕様に基づいて「編集」し、編集後の高品位高解像度の映像を番組制作者に返送するサービスを提供している。 On the other hand, the remote server 2 is a server that can process a high-definition high-resolution video such as a so-called high-definition video at high speed. The remote server 2 is a device managed by a service provider, and the service provider installs the remote server 2 in a building or the like where various countermeasures such as earthquake resistance and fire resistance are taken. The remote server 2 “edits” the high-definition and high-resolution video provided by the program producer based on the specifications provided by the program producer, and displays the edited high-definition and high-definition video. Provides a service to return to the creator.
ここで、本実施形態における「編集」の概念について簡単に説明しておく。通常、番組制作者は、スタジオや野外等で撮影すると、不要な部分をカットしたり、必要な場面をつなぎ合わせたりして、放送時間に収まるよう撮影した生映像に対する1次編集を行う。その後、1次編集された映像に対して特定の映像処理、即ち2次編集を行う。2次編集の例としては、画面の一部に他の動画や静止画を重畳合成する処理、画面の一部をぼかす処理、画面の一部に適宜の文字やグラフィクス、或いはこれらの組み合わせを重畳合成する処理、文字やグラフィクス、或いはこれらの組み合わせに所定の動きを加えながら合成するアニメーション合成処理等がある。 Here, the concept of “editing” in the present embodiment will be briefly described. Normally, when a program producer shoots in a studio, outdoors, etc., he / she cuts an unnecessary part or connects necessary scenes, and performs primary editing on the live video shot so as to be within broadcast time. Thereafter, specific video processing, that is, secondary editing is performed on the primary edited video. Examples of secondary editing include processing to superimpose other moving images and still images on part of the screen, processing to blur part of the screen, and superimposing appropriate characters and graphics, or a combination of these on part of the screen There are a process of combining, an animation combining process of combining a character and graphics, or a combination thereof while applying a predetermined motion.
上記のような編集作業(2次編集の編集作業)は、番組制作者が実際に映像を見ながら、経験と感性に基づく対話型の形態で行うのが効率的である。しかしながら、今日の高品位高解像度のデジタル映像は画素数が膨大であり、高品位高解像度の映像に対して直接対話型で上記の編集作業を行おうとすると、編集装置としてのコンピュータに非常に高い処理能力が求められる。 It is efficient to perform the editing work (secondary editing work) as described above in an interactive form based on experience and sensibility while actually watching the video. However, today's high-definition and high-resolution digital video has an enormous number of pixels, and it is very expensive for a computer as an editing device if the above-described editing operation is performed directly on a high-definition and high-resolution video. Processing power is required.
そこで、本実施形態に係る映像編集システム1では、番組制作者が保有するクライアント3では、高品位高解像度映像の解像度を低減した低解像度映像(この低解像度映像をプロキシ映像と呼ぶ場合がある)に対して対話型の編集を行うものとしている。そして、対話型編集の結果として得られた編集内容を、高性能のコンピュータであるリモートサーバ2に編集仕様として送り、リモートサーバ2では、送られてきた編集仕様に基づいて高品位高解像度映像に対する実際の編集処理を自動的に行うものとしている。クライアント3からリモートサーバ2に送られる編集仕様は、リモートサーバ2での処理内容を規定する編集規定情報であり、例えばXML(Extensible Mark-up Language)等を用いたコンピュータで解読可能な言語で記述されるものである。 Therefore, in the video editing system 1 according to the present embodiment, the client 3 owned by the program producer has a low-resolution video in which the resolution of the high-quality high-resolution video is reduced (this low-resolution video may be referred to as a proxy video). It is assumed that interactive editing is performed. Then, the editing content obtained as a result of the interactive editing is sent as an editing specification to the remote server 2 which is a high-performance computer, and the remote server 2 responds to the high-definition high-resolution video based on the editing specification sent. The actual editing process is automatically performed. The edit specification sent from the client 3 to the remote server 2 is edit specification information for specifying the processing contents in the remote server 2, and is described in a computer-readable language such as XML (Extensible Mark-up Language). It is what is done.
このように、本実施形態にかかる映像編集システム1では、低解像映像を用いた対話型の編集作業はクライアント3で行い、この編集作業の結果として得られる編集規定情報に基づいて高解像度映像に対する実際の編集処理をリモートサーバ2で行っている。 As described above, in the video editing system 1 according to the present embodiment, the interactive editing work using the low-resolution video is performed by the client 3, and the high-resolution video is based on the editing regulation information obtained as a result of the editing work. The remote server 2 performs the actual editing process for the above.
図1に示すように、本実施形態おけるリモートサーバ2は分散型のリモートサーバであり、管理端末20と複数の分散計算機23、及び記憶部21、管理テーブル201を少なくとも有する構成となっている。管理端末20及び分散計算機23は、例えば汎用のパーソナルコンピュータである。管理端末20は、クライアント3から編集規定情報を受信し、この編集規定情報に基づく複数の分散計算機23による高解像度映像の編集処理の実行を管理する。後述するように、本実施形態では、独自の編集規定情報の構造及び管理端末20の処理管理を用いることによって、特定の少数の分散計算機23に処理負荷が集中することを防止し、また同じ処理を複数の分散計算機23で重複して処理するといった無駄を排除している。この結果、それぞれの分散計算機23は低コストのパーソナルコンピュータであっても、全体として高性能で高速な分散型リモートサーバ2を実現している。 As shown in FIG. 1, the remote server 2 in this embodiment is a distributed remote server, and has a configuration including at least a management terminal 20, a plurality of distributed computers 23, a storage unit 21, and a management table 201. The management terminal 20 and the distributed computer 23 are, for example, general-purpose personal computers. The management terminal 20 receives the editing rule information from the client 3 and manages the execution of the high-resolution video editing process by the plurality of distributed computers 23 based on the editing rule information. As will be described later, in the present embodiment, by using the unique editing definition information structure and the processing management of the management terminal 20, it is possible to prevent the processing load from being concentrated on a specific small number of distributed computers 23 and to perform the same processing. Is redundantly processed by a plurality of distributed computers 23. As a result, even if each distributed computer 23 is a low-cost personal computer, the high-performance and high-speed distributed remote server 2 is realized as a whole.
図2は、クライアント3とリモートサーバ2で行う映像編集の概略の流れを示すフローチャートである。 FIG. 2 is a flowchart showing a schematic flow of video editing performed by the client 3 and the remote server 2.
ステップST11では、番組制作者が撮影し、さらに不要部分のカット等の1次編集を施した高品位高解像度の映像(以下、単に高解像度映像という)をクライアント3からリモートサーバ2に送信する。クライアント3から送信されてきた高解像度映像は、リモートサーバ2の記憶部21に保存される(ステップST21)。この高解像度映像から解像度が低減されたプロキシ映像(低解像度映像)が生成され(ステップST22)、クライアント3に送信する(ステップST23)。プロキシ映像は、元の高解像度映像に比べると画質は劣化しているが、データ量は小さい。 In step ST11, a high-quality, high-resolution video (hereinafter simply referred to as a high-resolution video) that has been photographed by the program producer and further subjected to primary editing such as cutting unnecessary portions is transmitted from the client 3 to the remote server 2. The high resolution video transmitted from the client 3 is stored in the storage unit 21 of the remote server 2 (step ST21). A proxy video (low-resolution video) with reduced resolution is generated from the high-resolution video (step ST22) and transmitted to the client 3 (step ST23). The proxy video has a degraded image quality compared to the original high-resolution video, but the data amount is small.
クライアント3は、受信したプロキシ映像を保存する一方(ステップST12)、保存したプロキシ映像を表示装置に表示して、プロキシ映像に対する編集作業を対話型で実施する(ステップST13)。プロキシ映像に対する編集の内容は、最終的に行われる高解像度映像に対する編集の内容と実質的に同じものであり、編集の対象が高解像度映像ではなく低解像度のプロキシ映像である点が相違しているだけである。つまり、プロキシ映像に対する編集は高解像度映像に対する編集を模擬したシミュレート編集である。 While the client 3 stores the received proxy video (step ST12), the client 3 displays the stored proxy video on the display device and interactively edits the proxy video (step ST13). The content of the edit on the proxy video is substantially the same as the content of the edit on the final high-resolution video, except that the editing target is not a high-resolution video but a low-resolution proxy video. There is only. In other words, editing for proxy video is simulated editing that simulates editing for high-resolution video.
シミュレート編集の作業は、例えば、30分や1時間の番組1本分といった長さの映像に対して行われ、プロキシ映像に対するシミュレート編集の全体が完了するまで、クライアント3側で継続して行われる。 The simulation editing work is performed on a video having a length of, for example, 30 minutes or one hour program, and is continued on the client 3 side until the entire simulation editing for the proxy video is completed. Done.
シミュレート編集の作業と並行して、クライアント3では、シミュレート編集の具体的な内容を記述する編集規定情報を生成する(ステップST14)。番組1本分のシミュレート編集が終了すると、番組1本分に対応する編集規定情報がクライアント2からリモートサーバ2の管理端末20に送信される(ステップST15、ステップST24)。 In parallel with the simulation editing work, the client 3 generates editing rule information describing specific contents of the simulation editing (step ST14). When the simulation editing for one program is completed, the editing regulation information corresponding to one program is transmitted from the client 2 to the management terminal 20 of the remote server 2 (steps ST15 and ST24).
リモートサーバ2は、受信した編集規定情報に基づいて、記憶部21に保存されている高解像度映像や高解像度グラフィックス等を用いた編集処理を、複数の分散計算機23で分散処理する(ステップST25)。その後、編集された最終的な高解像度映像を記憶部21に保存する一方(ステップST26)、リモートサーバ2からクライアント3に送信する(ステップST27、ステップST16)。 Based on the received editing definition information, the remote server 2 performs distributed processing using a plurality of distributed computers 23 on editing processing using high resolution video, high resolution graphics, and the like stored in the storage unit 21 (step ST25). ). Thereafter, the edited final high-resolution video is stored in the storage unit 21 (step ST26), and transmitted from the remote server 2 to the client 3 (steps ST27 and ST16).
(2)編集処理の詳細
以下、リモートサーバ2に送られてくる編集規定情報、及びステップST25におけるリモートサーバ2での編集処理の内容を、具体例を用いて説明する。
(2) Details of Editing Process Hereinafter, the editing rule information sent to the remote server 2 and the contents of the editing process in the remote server 2 in step ST25 will be described using a specific example.
図3(a)は、複数の映像要素を組み合わせて編集した編集後の映像(或いは編集過程の映像)の一例を示す図である。なお、リモートサーバ2で行われる編集処理は、総て高解像度の動画や高解像度の静止画、文字、グラフィックス等を用いて行われるため、以下の記載では特に言及しない限り、総て高解像度の動画や画像を編集対象としている。 FIG. 3A is a diagram illustrating an example of an edited video (or an editing process video) edited by combining a plurality of video elements. Note that all editing processes performed in the remote server 2 are performed using high-resolution moving images, high-resolution still images, characters, graphics, and the like. The video or image of is targeted for editing.
一方、図3(b)は、図3(a)の映像を編集するための編集規定情報の一例を示す図である。編集規定情報は、タイムラインとも呼ばれ、映像の開始から終了までの時間の流れに沿って記述されている。時間の流れは必ずしも実際の時刻である必要はなく、コマ番号(通常、1秒間に30コマ)でもよい。 On the other hand, FIG. 3B is a diagram showing an example of editing rule information for editing the video in FIG. The editing regulation information is also called a timeline, and is described along the flow of time from the start to the end of the video. The time flow does not necessarily have to be the actual time, and may be a frame number (usually 30 frames per second).
編集規定情報はレイヤ構造となっており、通常、最下層のレイヤ(1)にメイン映像が割り当てられる。メイン映像は多くの場合背景となる動画であり、図3(B)に示す例では、t1からt8まで継続する。 The edit regulation information has a layer structure, and the main video is normally assigned to the lowermost layer (1). In many cases, the main video is a moving image serving as a background. In the example shown in FIG. 3B, the main video continues from t1 to t8.
メイン映像の右上には、四角形の台座(文字背景(1))が重畳され、さらにその上に「山田さんのご家族」という文字(1)が重畳されている。文字背景(1)と文字(1)は、それぞれレイヤ(2)とレイヤ(3)に割り当てられ、t2からt6までの間表示されるように編集規定情報に規定されている。 A rectangular pedestal (character background (1)) is superimposed on the upper right of the main video, and a character (1) “Yamada's family” is further superimposed thereon. The character background (1) and the character (1) are assigned to the layer (2) and the layer (3), respectively, and are defined in the edit regulation information so as to be displayed from t2 to t6.
一方、メイン映像の左下には、雲状の文字背景(2)が重畳され、その上に「ふたりは何を相談しているのでしょう?」という文字(2)が重畳されている。文字背景(2)と文字(2)は、それぞれレイヤ(4)とレイヤ(5)に割り当てられ、t3からt7までの間表示されるように編集規定情報に規定されている。さらに、文字背景(2)と文字(2)に対しては、「スライドイン」や「フェードアウト」といったアニメーション効果を付加することが規定されている。 On the other hand, a cloud-like character background (2) is superimposed on the lower left of the main image, and a character (2) "What are they talking about?" Is superimposed thereon. The character background (2) and the character (2) are assigned to the layer (4) and the layer (5), respectively, and are defined in the edit regulation information so as to be displayed from t3 to t7. Furthermore, it is specified that an animation effect such as “slide in” or “fade out” is added to the character background (2) and the character (2).
「スライドイン」は、図4(a)、(b)に示すように、画面の端から現れて画面の所定の位置で停止するといった動きを伴う映像効果である。本例の編集規定情報では、文字背景(2)と文字(2)が、t3において画面下の左端から現れて、t4で画面下の中央近辺で停止することが規定されている。 “Slide-in” is a video effect with a motion that appears from the edge of the screen and stops at a predetermined position on the screen, as shown in FIGS. In the editing regulation information of this example, it is defined that the character background (2) and the character (2) appear from the left end at the bottom of the screen at t3 and stop near the center at the bottom of the screen at t4.
「フェードアウト」は、画像の透明度を徐々に高めていって最終的に消してしまう映像効果である。図4(d)に示す本例の編集規定情報では、文字背景(2)と文字(2)が、t5で消え始め、t6で完全に消えるように(図4(c))規定している。 "Fade out" is a video effect that gradually increases the transparency of an image and eventually disappears. In the editing regulation information of this example shown in FIG. 4D, it is defined that the character background (2) and the character (2) start to disappear at t5 and disappear completely at t6 (FIG. 4C). .
次に、複数の分散計算機23に効率よく分散処理させるための編集規定情報のデータ構造、およびこのデータ構造を用いた各分散計算機23の処理方法について、図3(b)や図4(d)に例示した編集規定情報を用いて説明する。 Next, with respect to the data structure of the editing definition information for causing the plurality of distributed computers 23 to perform distributed processing efficiently, and the processing method of each distributed computer 23 using this data structure, FIG. 3 (b) and FIG. 4 (d). This will be described using the editing rule information exemplified in the above.
図5(a)と図5(b)は、編集規定情報の時間的な流れと構造との対応関係を示す図である。本実施形態に係る編集規定情報は、図5(a)に示すように、タイムシーケンス上に規定される開始点から終了点までの1つの映像要素を1つのレイヤに割り付け、複数のレイヤが、夫々の開始点と終了点に基づいてタイムシーケンス上に重複可能に配置されるように記述される。例えば、1つの映像要素である文字(1)は開始点t2から終了点t6までレイヤ(3)に割り付けられ、他の1つの映像要素である文字(2)は、レイヤ(3)と重複する開始点t3から終了点t7までの期間レイヤ(5)に割り付けられる。「スライドイン」や「フェードアウト」といった映像効果は、効果を施す対象と同じレイヤに割り付けるが、これらの映像効果も開始点(例えばt3やt5)と終了点(例えばt4やt7)で規定される独立した映像要素と考える。 FIG. 5A and FIG. 5B are diagrams showing the correspondence between the temporal flow of the editing definition information and the structure. As shown in FIG. 5A, the editing definition information according to the present embodiment allocates one video element from the start point to the end point specified on the time sequence to one layer, and a plurality of layers are It is described so as to be arranged on the time sequence so as to overlap each other based on the respective start points and end points. For example, the character (1) that is one video element is assigned to the layer (3) from the start point t2 to the end point t6, and the character (2) that is another video element overlaps the layer (3). It is assigned to the period layer (5) from the start point t3 to the end point t7. Video effects such as “slide in” and “fade out” are assigned to the same layer as the target of the effect, but these video effects are also defined by a start point (for example, t3 and t5) and an end point (for example, t4 and t7). Think of it as an independent video element.
そして、本実施形態に係る編集規定情報では、複数のレイヤのうちの任意の1つのレイヤの開始点または終了点を分割点とするとき、互いに隣接する分割点の間の期間を「部分期間」と定義し、タイムシーケンス上に連続する映像をこの「部分期間」の単位で管理することを特徴としている。図5では(以下も同様)「部分期間」を「Part」と表記しており、複数の「Part」を時間順に、「Part 1」、「Part 2」のように識別している。 In the edit regulation information according to the present embodiment, when a start point or an end point of any one of a plurality of layers is a division point, a period between adjacent division points is a “partial period”. It is characterized in that video that is continuous on the time sequence is managed in units of this “partial period”. In FIG. 5 (and so on), the “partial period” is expressed as “Part”, and a plurality of “Parts” are identified as “Part 1” and “Part 2” in time order.
「部分期間」の中では、どのレイヤにおいても映像要素がその「部分期間」の途中から開始されたり、途中で終了したりすることがなく、重複するレイヤを縦方向に見たとき、1つの「部分期間」内の処理は一定である。 In the “partial period”, the video element does not start or end in the middle of any “partial period” in any layer, and when one layer of overlapping layers is viewed in the vertical direction, The processing within the “partial period” is constant.
編集規定情報は、例えばxml等の言語で記述されるが、図5(b)に示すように、それぞれの「部分期間(Part)」に分割して記述される。そして、編集規定情報の各「部分期間(Part)」内には、その「部分期間(Part)」内で実行すべき処理内容が具体的に記述される。各「部分期間(Part)」の処理内容は、レイヤの低い順から処理が記述されており、階層的な処理を行うのに便利な構造となっている。 The editing definition information is described in a language such as xml, for example, but is described by being divided into each “partial period (Part)” as shown in FIG. In each “partial period (Part)” of the editing definition information, the processing contents to be executed in the “partial period (Part)” are specifically described. The processing content of each “partial period (Part)” describes the processing from the lowest layer and has a convenient structure for performing hierarchical processing.
例えば、図5(c)に記述される「Part 3」の処理は、図6に示すように、1)メイン映像を記憶部21から読み込む、2)文字背景(1)を読み込む、3)文字(1)を生成する、4)文字背景(1)に文字(1)を重畳合成して中間データ(1)を生成する、5)メイン映像に中間データ(1)を重畳合成して中間データ(2)を生成する、6)文字背景(2)を読み込む、7)文字(2)を生成する、8)文字背景(2)に文字(2)を重畳合成して中間データ(3)を生成する、9)中間データ(2)に中間データ(3)をアニメーション合成(スライドイン)して最終結果を得る、という階層的なステップで実行される。 For example, the processing of “Part 3” described in FIG. 5C includes 1) reading the main video from the storage unit 21, 2) reading the character background (1), and 3) characters as shown in FIG. (1) is generated, 4) the character (1) is superimposed on the character background (1) to generate intermediate data (1), and 5) the intermediate data (1) is superimposed on the main video to generate intermediate data. (2) is generated, 6) the character background (2) is read, 7) the character (2) is generated, 8) the character (2) is superimposed on the character background (2), and the intermediate data (3) is generated. It is executed in a hierarchical step of 9) generating the final result by animation synthesis (slide-in) of the intermediate data (3) to the intermediate data (2).
上記のように、タイムシーケンス上の処理を「部分期間(Part)」に分割することによって、複数の分散計算機23による分散処理を効率よく行うことが可能となる。図7(a)、(b)は、「部分期間(Part)」と各分散計算機23との対応関係を示す図である。 As described above, by dividing the processing on the time sequence into “partial periods (Parts)”, the distributed processing by the plurality of distributed computers 23 can be efficiently performed. FIGS. 7A and 7B are diagrams showing a correspondence relationship between the “partial period (Part)” and each distributed computer 23.
管理端末20は、クライアントから送信されてきた編集規定情報に基づいて、図7(b)に例示する管理テーブル201を作成し、管理する。管理テーブル201には、「部分期間(Part)」、「Job」、及び「ステータス」が互いに関連付けられている。図7(b)の例では、「部分期間(Part)」と「Job」は1対1に関係付けられており、「Job」と「ステータス」も1対1に関係付けられている。 The management terminal 20 creates and manages the management table 201 illustrated in FIG. 7B based on the editing rule information transmitted from the client. In the management table 201, “partial period (Part)”, “Job”, and “status” are associated with each other. In the example of FIG. 7B, “partial period (Part)” and “Job” are related one-to-one, and “Job” and “status” are also related one-to-one.
「ステータス」はそれぞれの「Job」の進行状況を示す情報であり、未処理、処理中、処理済などである。編集処理の開始前は、総てのステータスが「未」となっている。編集処理が開始されると、各分散計算機23は、管理テーブルの「ステータス」を参照し、「未」となっている「Job」を自分の実行すべき処理内容として取り込み、そのステータスを「未」から「処理中」に変更する。そして、取り込んだ「Job」の処理が完了すると、ステータスを「処理中」から「済」に変更する。 “Status” is information indicating the progress status of each “Job”, and is “unprocessed”, “processing”, “processed”, and the like. Before the start of the editing process, all the statuses are “not yet”. When the editing process is started, each distributed computer 23 refers to the “status” in the management table, takes in “Job” which is “not yet” as the processing content to be executed, and sets the status to “unread” ”To“ Processing ”. When the processing of the fetched “Job” is completed, the status is changed from “processing” to “done”.
ステータスが「処理中」または「済」となっている「Job」に対しては、分散計算機23はその「Job」を取り込まないため、同じ「Job」が重複して処理されることはない。また、各「部分期間(Part)」或いは「Job」には識別情報が付されているため、各分散計算機23が実行する順序は編集規定情報に記述された順序(タイムシーケンス順)である必要はなく、それぞれの分散計算機23が自己の編集処理が終了した時点で記録部21に保存してゆけばよい。記録部21に保存された映像は、識別情報に基づいて時間順に並べ替えることができる。 For “Job” whose status is “Processing” or “Done”, the distributed computer 23 does not capture the “Job”, so the same “Job” is not processed repeatedly. Since each “partial period (Part)” or “Job” has identification information, the order executed by each distributed computer 23 needs to be the order described in the editing definition information (time sequence order). Instead, each distributed computer 23 may store it in the recording unit 21 when its editing process is completed. The videos stored in the recording unit 21 can be rearranged in time order based on the identification information.
このため、各分散計算機23は、取り込んだ「Job」の処理が終了すると他の分散計算機23の処理状況を気にすることなく、ステータスが「未」の「Job」が残っている限り、次から次へとその「Job」を取り込んで処理することが可能となり、無駄な待ち時間を生じさせることなく非常に効率的な分散処理ができる。 For this reason, each distributed computer 23 does not care about the processing status of the other distributed computers 23 when the processing of the fetched “Job” is completed, as long as “Job” whose status is “unknown” remains. The “Job” can be fetched and processed from one to the next, and very efficient distributed processing can be performed without causing unnecessary waiting time.
上述した本実施形態の分散処理の有効性をさらに明確に示すため、他の分散処理方法による2つの比較例と対比させながら説明する。 In order to more clearly show the effectiveness of the distributed processing of the present embodiment described above, a description will be given while comparing with two comparative examples using other distributed processing methods.
図8は、第1の比較例として、レイヤごとに分散計算機を割り当てて分散処理する方法を示している。この方法では、上位のレイヤを分担する分散計算機は、下位のレイヤの処理が終了するのを待つ必要があり、待ち時間が多くなって効率が悪い。また、上位のレイヤを担当する分散計算機は、下位のレイヤで生成した中間データ等を利用する必要があり、分散計算機間での中間データの授受の頻度が多くなり、これも効率を低下させる要因となる。 FIG. 8 shows a method for performing distributed processing by assigning a distributed computer to each layer as a first comparative example. In this method, the distributed computer that shares the upper layer needs to wait for the processing of the lower layer to end, which increases the waiting time and is inefficient. In addition, distributed computers in charge of higher layers must use intermediate data generated in lower layers, which increases the frequency of intermediate data exchange between distributed computers, which also reduces efficiency. It becomes.
また、編集規定情報の構造をレイヤごとに記述すると、各分散計算機が処理するフレーム番号(コマ番号)がどのレイヤに関与しているかを探索する必要があり、特にレイヤの数が多くなると探索時間が大きくなり処理効率が低下する。 If the structure of the editing specification information is described for each layer, it is necessary to search for which layer the frame number (frame number) processed by each distributed computer is involved, especially when the number of layers increases. Increases and the processing efficiency decreases.
これに対して、本実施形態に係る分散方式では、「部分期間(Part)」ごとに分散計算機を割り当てる方式としており、各「部分期間(Part)」にはその期間に関連する総てのレイヤの処理が含まれている。このため、各分散計算機23は、下層レイヤから上層レイヤまで自己の中で順に処理していけばよく、待ち時間が発生しない。また、各「部分期間(Part)」には、処理すべきフレーム番号(コマ番号)に対応する総てのレイヤの処理がまとめて記述されているため、フレーム番号(コマ番号)とレイヤとの対応関係を検索する時間は殆ど発生しない。 In contrast, in the distributed method according to the present embodiment, a distributed computer is assigned to each “partial period (Part)”, and each “partial period (Part)” includes all layers related to the period. Processing is included. For this reason, each distributed computer 23 should just process in order from a lower layer to an upper layer in itself, and a waiting time does not generate | occur | produce. In each “partial period (Part)”, the processing of all the layers corresponding to the frame number (frame number) to be processed is collectively described, so the frame number (frame number) and the layer There is almost no time for searching for correspondence.
言い換えれば、本実施形態に係る分散方式は、ある1つの分散計算機が行う処理と、他の分散計算機が行う処理との間の依存関係を排除した方式である。つまり、ある分散計算機がある処理を行い、その処理結果に基づいて他の分散計算機が処理するといった依存関係を完全に排除した方式である。この結果、それぞれの分散計算機の待ち時間が発生せず、分散計算機全体としての稼動効率を向上させることができる。 In other words, the distributed method according to the present embodiment is a method in which the dependency between a process performed by one distributed computer and a process performed by another distributed computer is eliminated. In other words, this is a method that completely eliminates the dependency that a certain distributed computer performs a certain process and another distributed computer processes based on the processing result. As a result, the waiting time of each distributed computer does not occur, and the operating efficiency of the entire distributed computer can be improved.
さらに、部分期間相互の処理に依存関係が無いため、部分期間を短くして、より多くの分散計算機による処理を実行することも可能となる。 Furthermore, since there is no dependency relationship between the partial periods, it is possible to shorten the partial period and execute processing by a larger number of distributed computers.
図9は、第2の比較例として、フレームごと(コマごと)に分散計算機を割り当てて処理する方法を示している。この方法では、それぞれの分散計算機が総てのレイヤの処理をフレームごとに行うことになる。このため、図10に示すように、メイン映像(動画)の読み込み処理だけでなく、文字、グラフィクス、或いは静止画のようにフレーム単位では殆ど変化しない映像要素も、分散計算機ごとに記憶部21から読み込んで、さらに中間データを生成する必要がある。 FIG. 9 shows, as a second comparative example, a method of processing by assigning a distributed computer for each frame (for each frame). In this method, each distributed computer processes all layers for each frame. For this reason, as shown in FIG. 10, not only the main video (moving image) reading process, but also video elements that hardly change in units of frames such as characters, graphics, or still images are stored from the storage unit 21 for each distributed computer. It is necessary to read and generate intermediate data.
これに対して、本実施形態に係る分散方式は、「部分期間(Part)」ごとに分散計算機を割り当てる方式であるため、部分期間内で変化しない映像要素に関しては、部分期間の最初に一度だけ読み込んでおけば、或いは中間データを一度だけ生成しておけば、部分期間の間はこれらの映像要素を再利用することができる。動画はフレームごとに変化するため、図11(b)に示すように、動画の読み込み処理や、動画と他の静止画との合成処理はフレームごと(コマごと)に行う必要があるが、それ以外のハッチングで示した処理は部分期間の中で最初の1回だけ実施すればよい。このため、フレームごとに各分散計算機に分散処理させる方法(第2の比較例)に比べると、処理時間が大幅に短縮され、効率の高い分散処理を実現することができる。 On the other hand, since the distribution method according to the present embodiment is a method in which a distributed computer is assigned for each “partial period (Part)”, the video elements that do not change within the partial period are only once at the beginning of the partial period. If read, or if intermediate data is generated only once, these video elements can be reused during the partial period. Since moving images change from frame to frame, as shown in FIG. 11 (b), it is necessary to perform moving image reading processing and combining processing of moving images and other still images for each frame (frame by frame). The processing indicated by hatching other than is only required to be executed once in the partial period. For this reason, compared with the method (second comparative example) in which each distributed computer performs distributed processing for each frame, the processing time is significantly shortened, and highly efficient distributed processing can be realized.
(3)他の実施形態
上述した実施形態における「部分期間(Part)」は、映像要素の長さや、各レイヤでの映像要素の重なり具合に依存して異なってくる。したがって、部分期間の長さが非常に長くなる場合は、その部分期間を分担する分散計算機23の処理時間も長くなる。そこで、以下に示す実施形態では、1台の分散計算機23における1回の処理時間の均一化を図っている。
(3) Other Embodiments The “partial period (Part)” in the above-described embodiments differs depending on the length of the video elements and the overlapping state of the video elements in each layer. Therefore, when the length of the partial period becomes very long, the processing time of the distributed computer 23 that shares the partial period also becomes long. Therefore, in the embodiment described below, the processing time for one time in one distributed computer 23 is made uniform.
具体的には、図12(a)に示すように、「部分期間」が所定の固定長の「単位期間」よりも長い場合は、「部分期間」をさらに「単位期間」に分割し、各分散計算機23は、分割された「単位期間」での編集処理(これを「Job」とする)を行うようにする。 Specifically, as shown in FIG. 12A, when the “partial period” is longer than the “unit period” having a predetermined fixed length, the “partial period” is further divided into “unit periods”. The distributed computer 23 performs an editing process (referred to as “Job”) in the divided “unit period”.
この場合、管理端末20が管理する管理テーブル201は、図12(b)に示すように、1つの「部分期間(Part)」に対して複数の「Job」が関連付けられる。そして、各「Job」ごとに、そのJobの進行状況を示す「ステータス」が付される。「ステータス」の内容、及び各分散計算機2によるステータスを参照や変更方法は、前述した実施形態と同じである。 In this case, in the management table 201 managed by the management terminal 20, as shown in FIG. 12B, a plurality of “Jobs” are associated with one “partial period (Part)”. For each “Job”, a “status” indicating the progress of the job is attached. The contents of “status” and the method for referring to and changing the status by each distributed computer 2 are the same as those in the above-described embodiment.
「単位期間」の長さは特に限定するものではないが、例えば、30フレーム(30コマ)分の長さ(時間にすると1秒)である。 The length of the “unit period” is not particularly limited, but is, for example, a length of 30 frames (30 frames) (1 second in terms of time).
この実施形態によれば、各分散計算機23は同一の長さの「単位期間」での処理を実行することになるため、各分散計算機23での処理負荷が「部分期間」の長さによらず均一化される。 According to this embodiment, each distributed computer 23 executes processing in the “unit period” of the same length, so the processing load on each distributed computer 23 depends on the length of “partial period”. It is made uniform.
なお、「部分期間」を固定長の「単位期間」に分割した場合、図12(a)の「Part 4」のように、余りの期間が生じる場合がある。このような場合には、余りの期間を、同じ部分期間内の最も遅い単位期間に含めてもよい。最後の単位期間に対応するJob(図12(a)では「Job 7」の処理は多少大きくなるが、Job数を増やすよりも処理効率は高くなる。 When the “partial period” is divided into “unit periods” having a fixed length, an extra period may occur as shown in “Part 4” in FIG. In such a case, the remaining period may be included in the latest unit period in the same partial period. The job corresponding to the last unit period (“Job 7” in FIG. 12A) is slightly larger, but the processing efficiency is higher than increasing the number of jobs.
以上説明してきたように、本実施形態に係る映像編集システム1、及び映像編集方法によれば、放送用高品位映像の編集処理という特殊性を考慮して複数の分散計算機に処理を分割し、全体の処理効率或いは処理速度を高めることができる。 As described above, according to the video editing system 1 and the video editing method according to the present embodiment, the processing is divided into a plurality of distributed computers in consideration of the special feature of editing processing of high-definition video for broadcasting, Overall processing efficiency or processing speed can be increased.
なお、本発明は上記の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。 Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined.
1 映像編集システム
2 リモートサーバ
3 クライアント
20 管理端末
21 記憶部
23 分散計算機
201 管理テーブル
DESCRIPTION OF SYMBOLS 1 Video editing system 2 Remote server 3 Client 20 Management terminal 21 Storage part 23 Distributed computer 201 Management table
Claims (9)
前記編集規定情報に基づいて前記連続映像を複数の部分期間に分割し、前記高解像度映像の編集処理の分散処理を前記部分期間ごとに管理する管理端末と、
分割された複数の前記部分期間ごとにそれぞれ分散して、前記高解像度映像の編集処理を行う複数の分散計算機と、
を備え、
前記部分期間は、前記タイムシーケンス上に複数のレイヤが重なっている場合において、前記複数のレイヤのうちの任意の1つのレイヤの前記開始点または前記終了点を分割点とするとき、互いに隣接する前記分割点の間の期間である、
ことを特徴とする映像編集システム。 One video element from the start point to the end point specified on the time sequence is assigned to one layer, and a plurality of the layers can overlap on the time sequence based on the start point and the end point, respectively. In the video editing system for editing the continuous video as a high-resolution video based on the editing specification information of the continuous video described to be arranged in
A management terminal that divides the continuous video into a plurality of partial periods based on the editing regulation information, and manages distributed processing of editing processing of the high-resolution video for each partial period;
A plurality of distributed computers that perform the editing processing of the high-resolution video, distributed for each of the plurality of divided partial periods;
With
The partial periods are adjacent to each other when the start point or the end point of any one of the plurality of layers is a division point when a plurality of layers are overlapped on the time sequence. A period between the dividing points;
A video editing system characterized by this.
ことを特徴とする請求項1に記載の映像編集システム。 In the editing rule information, the contents to be processed for each partial period are described, and when there are a plurality of overlapping video elements in the partial period, all of the plurality of overlapping video elements are recorded. The editing process is described.
The video editing system according to claim 1.
ことを特徴とする請求項1に記載の映像編集システム。 The editing rule information describes all the contents to be processed for each partial period, and eliminates the dependency between the process performed in one partial period and the process performed in another partial period. Being
The video editing system according to claim 1.
ことを特徴とする請求項1に記載の映像編集システム。 The distributed computer performs editing processing hierarchically from the lowest layer of the layer,
The video editing system according to claim 1.
前記管理端末は、前記部分期間をさらに前記単位期間に分割して管理し、
前記各分散計算機は、分割された前記単位期間ごとにそれぞれ分散して、前記高解像度映像の編集処理を行う、
ことを特徴とする請求項1に記載の映像編集システム。 When the partial period is longer than a predetermined fixed length unit period,
The management terminal further divides and manages the partial period into the unit periods,
Each of the distributed computers is distributed for each of the divided unit periods, and performs the editing processing of the high resolution video.
The video editing system according to claim 1.
ことを特徴とする請求項6に記載の映像編集システム。 The management terminal manages a remainder period obtained by dividing the partial period by the unit period by including it in the latest unit period in the partial period.
The video editing system according to claim 6.
前記管理テーブルには、前記部分期間または前記単位期間ごとに処理の進行状況を、未処理、処理中、処理済で示すステータスが付されており、
前記各分散計算機は、前記ステータスが未処理となっている前記部分期間または前記単位期間の処理を取得して実行し、処理の実行中は前記ステータスを未処理から処理中に変更し、処理の終了後は処理中から処理済に変更する、
ことを特徴とする請求項1または6に記載の映像編集システム。 The management terminal manages the distributed processing using a management table divided for each of the partial period or the unit period,
The management table has a status indicating that the progress of processing for each partial period or unit period is unprocessed, being processed, and processed,
Each of the distributed computers acquires and executes the process of the partial period or the unit period in which the status is unprocessed, changes the status from unprocessed to in-process during the process, After finishing, change from processing to processed,
The video editing system according to claim 1, wherein the video editing system is a video editing system.
前記編集規定情報に基づいて前記連続映像を複数の部分期間に分割し、前記高解像度映像の編集処理の分散処理を前記部分期間ごとに管理し、
分割された複数の前記部分期間ごとに、前記高解像度映像の編集処理を複数の分散計算機でそれぞれ分散処理し、
前記部分期間は、前記タイムシーケンス上に複数のレイヤが重なっている場合において、前記複数のレイヤのうちの任意の1つのレイヤの前記開始点または前記終了点を分割点とするとき、互いに隣接する前記分割点の間の期間である、
ことを特徴とする映像編集方法。 One video element from the start point to the end point specified on the time sequence is assigned to one layer, and a plurality of the layers can overlap on the time sequence based on the start point and the end point, respectively. In the video editing method for editing the continuous video as a high-resolution video based on the editing specification information of the continuous video described to be arranged in
Dividing the continuous video into a plurality of partial periods based on the editing regulation information, managing a distributed process of the editing process of the high-resolution video for each partial period;
For each of the divided partial periods, the high-resolution video editing process is distributed in a plurality of distributed computers, respectively.
The partial periods are adjacent to each other when the start point or the end point of any one of the plurality of layers is a division point when a plurality of layers are overlapped on the time sequence. A period between the dividing points;
A video editing method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010262851A JP4681685B1 (en) | 2010-11-25 | 2010-11-25 | Video editing system and video editing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010262851A JP4681685B1 (en) | 2010-11-25 | 2010-11-25 | Video editing system and video editing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP4681685B1 JP4681685B1 (en) | 2011-05-11 |
JP2012114743A true JP2012114743A (en) | 2012-06-14 |
Family
ID=44114140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010262851A Active JP4681685B1 (en) | 2010-11-25 | 2010-11-25 | Video editing system and video editing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4681685B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020057997A (en) * | 2018-10-04 | 2020-04-09 | 株式会社ラムダシステムズ | Information processing device, information processing method, and information processing program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118042243A (en) * | 2022-11-14 | 2024-05-14 | 北京字跳网络技术有限公司 | Multimedia resource processing method, device, equipment and medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006157363A (en) * | 2004-11-29 | 2006-06-15 | Tdk Corp | Contents edit system, contents edit method, edit server apparatus, program, and edit client apparatus, and program |
CN101223595B (en) * | 2005-07-15 | 2014-01-01 | 汤姆森许可贸易公司 | Method and system for remote digital editing by narrow-band channel |
WO2007082167A2 (en) * | 2006-01-05 | 2007-07-19 | Eyespot Corporation | System and methods for storing, editing, and sharing digital video |
US8818172B2 (en) * | 2009-04-14 | 2014-08-26 | Avid Technology, Inc. | Multi-user remote video editing |
-
2010
- 2010-11-25 JP JP2010262851A patent/JP4681685B1/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020057997A (en) * | 2018-10-04 | 2020-04-09 | 株式会社ラムダシステムズ | Information processing device, information processing method, and information processing program |
WO2020070981A1 (en) * | 2018-10-04 | 2020-04-09 | 株式会社ラムダシステムズ | Information-processing device, information-processing method, and information-processing program |
Also Published As
Publication number | Publication date |
---|---|
JP4681685B1 (en) | 2011-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113891113B (en) | Video clip synthesis method and electronic equipment | |
JP7446468B2 (en) | Video special effects processing methods, devices, electronic equipment and computer programs | |
US10291679B2 (en) | Permission request for social media content in a video production system | |
US9830948B1 (en) | Automated intelligent visualization of data through text and graphics | |
JP2019036980A (en) | Storyboard-directed video production from shared and individualized assets | |
JP6120169B2 (en) | Image editing device | |
US20130083036A1 (en) | Method of rendering a set of correlated events and computerized system thereof | |
CN104065979A (en) | Method for dynamically displaying information related with video content and system thereof | |
CN114450966A (en) | Data model for representation and streaming of heterogeneous immersive media | |
JP2016522624A (en) | Optimized HTML5 electronic program guide application | |
JP2010226706A (en) | Method, system, and computer program for displaying secondary media stream within primary media stream | |
CN110796712A (en) | Material processing method, device, electronic equipment and storage medium | |
CN111556325A (en) | Audio and video combined rendering method, medium and computer equipment | |
JP4681685B1 (en) | Video editing system and video editing method | |
US9620167B2 (en) | Broadcast-quality graphics creation and playout | |
CN112153472A (en) | Method and device for generating special picture effect, storage medium and electronic equipment | |
CN115314732B (en) | Multi-user collaborative film examination method and system | |
CN112788349A (en) | Data stream pushing method, system, computer equipment and readable storage medium | |
CN113347465B (en) | Video generation method and device, electronic equipment and storage medium | |
KR100959159B1 (en) | Multi-Screen control method and control device | |
CN107526824A (en) | A kind of object displaying method, device and terminal device being applied in electronic reading | |
CN113556610A (en) | Video synthesis control method, device, apparatus and medium | |
US11068145B2 (en) | Techniques for creative review of 3D content in a production environment | |
US10445398B2 (en) | Asset management during production of media | |
US20180160154A1 (en) | System for providing cloud-based user interfaces and method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4681685 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |