JP2015060539A - Content generation device and content generation program - Google Patents

Content generation device and content generation program Download PDF

Info

Publication number
JP2015060539A
JP2015060539A JP2013195734A JP2013195734A JP2015060539A JP 2015060539 A JP2015060539 A JP 2015060539A JP 2013195734 A JP2013195734 A JP 2013195734A JP 2013195734 A JP2013195734 A JP 2013195734A JP 2015060539 A JP2015060539 A JP 2015060539A
Authority
JP
Japan
Prior art keywords
script
video
content
generation
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013195734A
Other languages
Japanese (ja)
Other versions
JP6285676B2 (en
Inventor
井上 誠喜
Seiki Inoue
誠喜 井上
道家 守
Mamoru Doke
守 道家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2013195734A priority Critical patent/JP6285676B2/en
Publication of JP2015060539A publication Critical patent/JP2015060539A/en
Application granted granted Critical
Publication of JP6285676B2 publication Critical patent/JP6285676B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To generate a content simply in real time.SOLUTION: Provided is a content generation device for generating a video content having one or a plurality of CG objects, the content generation device having: script charge assignment means for assigning, on the basis of the type and number of CG objects included in the video content to be generated, the number of video generation engines to generate the video content from a script, and assigning, for each of the assigned video generation engines, a script to be taken charge of; script generation means for generating the script for generating the video content; and content generation means for generating, by the assigned video generation engines and using the generated script, a video content to be taken charge of by each, and, while accepting video contents generated by other video generation engines as input video, synthesizing the input video and the video contents generated from the script.

Description

本発明は、コンテンツ生成装置及びコンテンツ生成プログラムに係り、特にCG(Computer Graphics)オブジェクトの種類や数に応じて簡便かつリアルタイムにコンテンツを生成するためのコンテンツ生成装置及びコンテンツ生成プログラムに関する。   The present invention relates to a content generation device and a content generation program, and more particularly, to a content generation device and a content generation program for generating content easily and in real time according to the type and number of CG (Computer Graphics) objects.

従来では、CGや音声合成等を用いてテレビ番組等のような映像コンテンツが制作されている。このような映像コンテンツでは、例えばCGキャラクタ(CGアバター)や机、小物等の各種CGオブジェクトが数多く登場する映像コンテンツをリアルタイムに生成する必要が生じる場合がある。しかしながら、例えば1台のコンピュータ(情報処理装置)でリアルタイムに表示できるCGオブジェクトの数は、データ容量(例えば、ポリゴン数等)やCPU(Central Processing Unit)への負荷等の影響により限界がある。   Conventionally, video content such as a television program has been produced using CG, voice synthesis, or the like. In such video content, it may be necessary to generate in real time video content in which various CG objects such as CG characters (CG avatars), desks, and accessories appear. However, for example, the number of CG objects that can be displayed in real time on one computer (information processing apparatus) is limited due to the influence of the data capacity (for example, the number of polygons, etc.) and the load on the CPU (Central Processing Unit).

なお、従来では、コンピュータの負荷を軽減するために、画面分割や時間分割等を行い、分割した画像を別々の装置で生成し、生成した画像を空間又は時間的に合成して表示部に出力する手法がある(例えば、特許文献1、2参照。)
特許文献1に示す手法では、主人公キャラクタ等(キャスト)をシナリオに沿って動作させてアニメーションを表示する画像表示方法において、画像中のキャラクタを複数のブロックに分割し、そのブロック毎に独立して圧縮や伸長等の画像処理を行う。
Conventionally, in order to reduce the load on the computer, screen division, time division, etc. are performed, the divided images are generated by different devices, and the generated images are spatially or temporally synthesized and output to the display unit. (For example, refer to Patent Documents 1 and 2.)
In the method shown in Patent Document 1, in an image display method for displaying an animation by moving a hero character or the like (cast) according to a scenario, the character in the image is divided into a plurality of blocks, and each block is independently Performs image processing such as compression and decompression.

特許文献2に示す手法では、サーバ側からネットワークを通じて送信されたファイルをクライアント側で表示するメッセージ表示方法であって、クライアント側における表示画面を複数のフレームに分割するとともに、フレーム設定に基づき、HTML(Hyper Text Markup Language)ファイルの表示の際に、他のフレームに対応するHTMLファイルを参照してメッセージ表示を行う。   The technique shown in Patent Document 2 is a message display method for displaying a file transmitted from the server side through the network on the client side, dividing the display screen on the client side into a plurality of frames, and HTML based on the frame setting. When a (Hyper Text Markup Language) file is displayed, a message is displayed with reference to an HTML file corresponding to another frame.

特開2000−148133号公報JP 2000-148133 A 特開2003−186792号公報Japanese Patent Laid-Open No. 2003-186792

しかしながら、従来の画面分割手法では、各コンピュータで異なる部分領域の映像生成をする必要があるため、処理が複雑になる。また、従来の時間分割手法では、サーバ側から送信されるそれぞれのスクリプトを個別に判断し、必要な時刻を計算する必要があるため、処理が複雑になる。   However, in the conventional screen division method, since it is necessary to generate video of different partial areas in each computer, the processing becomes complicated. Further, in the conventional time division method, since it is necessary to individually determine each script transmitted from the server side and calculate a necessary time, the processing becomes complicated.

更に、それぞれのスクリプトの出力映像のタイミングが少しでもずれると、画面分割の境目が見えたり、アニメーションの動きの滑らかさが損なわれる。また、分割数に応じて映像生成部(映像生成エンジン)の数を変える場合には、それぞれの映像生成処理の変更や合成処理の変更が生じるため、柔軟な構成変更が困難である。   Furthermore, if the timing of the output video of each script deviates even slightly, the boundary between screen divisions can be seen, and the smoothness of the animation movement is impaired. Further, when the number of video generation units (video generation engines) is changed in accordance with the number of divisions, a change in the respective video generation processing and a change in the synthesis processing occur, so that a flexible configuration change is difficult.

本発明は、上述した問題点に鑑みなされたものであり、CGオブジェクトの種類や数に応じて簡便かつリアルタイムにコンテンツを生成することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to generate content easily and in real time according to the type and number of CG objects.

上記課題を解決するために、本発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above problems, the present invention employs means for solving the problems having the following features.

本発明の一態様におけるコンテンツ生成装置は、1又は複数のCGオブジェクトを有する映像コンテンツを生成するコンテンツ生成装置において、生成する前記映像コンテンツに含まれるCGオブジェクトの種類及び数に基づいて、スクリプトから前記映像コンテンツを生成する映像生成エンジンの数を割り当て、割り当てた映像生成エンジン毎に、担当するスクリプトを割り当てるスクリプト担当割り当て手段と、前記映像コンテンツを生成するための前記スクリプトを生成するスクリプト生成手段と、前記スクリプト生成手段により生成されたスクリプトを用いて、前記スクリプト担当割り当て手段により割り当てられた前記映像生成エンジンにより、それぞれが担当する映像コンテンツを生成すると共に、他の映像生成エンジンで生成された映像コンテンツを入力映像とし、該入力映像と前記スクリプトから生成した映像コンテンツとを合成するコンテンツ生成手段とを有することを特徴とする。   The content generation device according to one aspect of the present invention is a content generation device that generates video content having one or more CG objects, based on the type and number of CG objects included in the video content to be generated, from the script. Assigning the number of video generation engines for generating video content and assigning a script in charge for each assigned video generation engine; script generating means for generating the script for generating the video content; Using the script generated by the script generation means, the video generation engine assigned by the script charge assignment means generates the video content each is in charge of, and is generated by another video generation engine. Video content as an input video image, and having a content generation means for synthesizing the video content generated from the the input video script.

また、本発明の一態様におけるコンテンツ生成プログラムは、コンピュータを、上述したコンテンツ生成装置が有する各手段として機能させるためのコンテンツ生成プログラムである。   A content generation program according to an aspect of the present invention is a content generation program for causing a computer to function as each unit included in the above-described content generation apparatus.

本発明によれば、簡便かつリアルタイムにコンテンツを生成することができる。   According to the present invention, content can be generated easily and in real time.

本実施形態におけるコンテンツ生成装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the content generation apparatus in this embodiment. コンテンツ生成装置における処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process in a content generation apparatus. 映像生成エンジン数の決定例を説明するための図である。It is a figure for demonstrating the example of determination of the video production | generation engine number. コンテンツ生成の具体例を説明するための図である。It is a figure for demonstrating the specific example of content generation. 映像生成エンジンに出力するスクリプトの一例を示す図(その1)である。FIG. 6 is a diagram (part 1) illustrating an example of a script output to a video generation engine. 映像生成エンジンに出力するスクリプトの一例を示す図(その2)である。It is FIG. (2) which shows an example of the script output to a video generation engine. 映像生成エンジンに出力するスクリプトの一例を示す図(その3)である。FIG. 11 is a third diagram illustrating an example of a script output to the video generation engine. 合成映像のずれを説明するための図である。It is a figure for demonstrating the shift | offset | difference of a composite image. スクリプト送信用設定ファイルの一例を示す図である。It is a figure which shows an example of the setting file for script transmission. コンテンツ生成システムの構成例を示す図である。It is a figure which shows the structural example of a content generation system. コンテンツ生成システムの応用例を示す図である。It is a figure which shows the example of application of a content generation system.

以下に、上述したような特徴を有する本発明におけるコンテンツ生成装置及びコンテンツ生成プログラムを好適に実施した形態について、図面を用いて詳細に説明する。なお、以下の説明では、コンテンツの一例として放送番組を用いるが、コンテンツの一例としては、これに限定されるものではなく、例えば映画やテレビCM等の各種映像コンテンツに適用できる。また、本実施形態におけるコンテンツの生成においては、例えばTVML(TV program Making Language)等を用いることができるが、これに限定されるものではない。   Hereinafter, a preferred embodiment of a content generation device and a content generation program according to the present invention having the above-described features will be described in detail with reference to the drawings. In the following description, a broadcast program is used as an example of content. However, the example of content is not limited to this, and can be applied to various video contents such as movies and TV commercials. In the content generation according to the present embodiment, for example, TVML (TV program making language) can be used, but the present invention is not limited to this.

TVMLとは、言語体系にカメラや照明等のテレビ番組制作の概念やノウハウを含んだスクリプト言語であり、映像や音声等を素材データと台本(演出内容等)とに分けて記述することができる。制作側で台本を記述することで、PC(Personal Computer)等で動作するソフトウェア等がこれをスクリプト(TVMLスクリプト)として読み取り、台本に記述された素材データを取得して、例えばCGキャラクタにセリフや身体動作、表情等を与えることができる。   TVML is a scripting language that includes the concept and know-how of TV program production such as camera and lighting in the language system, and can describe video and audio separately for material data and scripts (production contents, etc.). . By writing a script on the production side, software operating on a PC (Personal Computer) or the like reads this as a script (TVML script), acquires the material data described in the script, Body movement, facial expressions, etc. can be given.

<コンテンツ生成装置の機能構成例>
図1は、本実施形態におけるコンテンツ生成装置の機能構成の一例を示す図である。図1に示すコンテンツ生成装置10は、入力手段11と、出力手段12と、記憶手段13と、スクリプト担当割り当て手段14と、スクリプト生成手段15と、遅延調整手段16と、コンテンツ生成手段17と、通信手段18と、制御手段19とを有するよう構成されている。また、コンテンツ生成手段17は、1又は複数の映像生成エンジン20−1〜20−n(以下、必要に応じて「映像生成エンジン20」という)を有する。
<Functional configuration example of content generation device>
FIG. 1 is a diagram illustrating an example of a functional configuration of a content generation apparatus according to the present embodiment. 1 includes an input unit 11, an output unit 12, a storage unit 13, a script charge assignment unit 14, a script generation unit 15, a delay adjustment unit 16, a content generation unit 17, The communication unit 18 and the control unit 19 are included. The content generation unit 17 includes one or a plurality of video generation engines 20-1 to 20-n (hereinafter referred to as “video generation engines 20” as necessary).

コンテンツ生成装置10は、PCやサーバ等であるが、これに限定されるものではなく、例えばスマートフォンやタブレット端末、映像生成機能・通信機能を有するテレビ装置、ゲーム機器、カメラ、携帯電話等でもよい。   The content generation device 10 is a PC, a server, or the like, but is not limited thereto, and may be a smartphone, a tablet terminal, a television device having a video generation function / communication function, a game device, a camera, a mobile phone, or the like. .

入力手段11は、コンテンツ生成装置10を使用するユーザ等からの指示等の入力を受け付ける。入力手段11は、例えば本実施形態におけるコンテンツ生成を行うためのスクリプト担当割り当て指示、スクリプト生成指示、遅延調整指示、コンテンツ生成指示、送受信指示等の各入力を受け付ける。なお、入力手段11は、例えばキーボードや、マウス等のポインティングデバイス、マイク等の音声入力デバイス等である。   The input unit 11 receives an input such as an instruction from a user or the like who uses the content generation device 10. The input unit 11 receives, for example, each input such as a script charge assignment instruction, a script generation instruction, a delay adjustment instruction, a content generation instruction, and a transmission / reception instruction for content generation in the present embodiment. The input unit 11 is, for example, a keyboard, a pointing device such as a mouse, a voice input device such as a microphone, or the like.

出力手段12は、入力手段11から入力された指示内容や設定内容等を画面等に表示したり、指示内容や設定内容等に基づいて実行された実行結果等を出力する。出力手段12は、例えばディスプレイ等による画面表示デバイスやスピーカ等による音声出力デバイス等である。なお、上述した入力手段11や出力手段12は、例えばタッチパネル等のように入出力が一体型の構成であってもよい。   The output unit 12 displays the instruction content or setting content input from the input unit 11 on a screen or the like, or outputs an execution result or the like executed based on the instruction content or setting content. The output means 12 is, for example, a screen display device such as a display or a sound output device such as a speaker. Note that the input unit 11 and the output unit 12 described above may have an input / output integrated configuration such as a touch panel, for example.

記憶手段13は、本実施形態におけるコンテンツ生成に必要な各種情報を記憶する。例えば、記憶手段13は、生成する放送番組(コンテンツ)に関する情報(例えば、番組台本、スタジオセット、番組に登場するCGオブジェクトの種類(例えば、CGオブジェクトの複雑さ)や数、遅延(ディレイ)情報、スクリプト、コンテンツ、素材データ、番組制作エンジン、CGオブジェクト毎の基本動作データ等を記憶する。   The storage means 13 stores various information necessary for content generation in the present embodiment. For example, the storage unit 13 stores information on a broadcast program (content) to be generated (for example, a program script, a studio set, the type (for example, complexity of the CG object) and number of CG objects appearing in the program, and delay information). Script, contents, material data, program production engine, basic operation data for each CG object, etc. are stored.

なお、本実施形態におけるCGオブジェクトとは、例えばCGキャラクタ(人や動物)や建物(例えばビルや家)、木、花、椅子、机、家具、PC、家電、車両、船、海、太陽、飛行機等の各種物体であるが、これらに限定されるものではない。また、CGオブジェクトの複雑さとは、例えばオブジェクト全体のポリゴン数等により設定され、ポリゴン数が多いほど複雑である。なお、複雑さの基準は、これに限定されるものではなく、例えばCGオブジェクトの表情や動作内容等を基準に設定されてもよい。   Note that the CG object in the present embodiment is, for example, a CG character (human or animal), a building (for example, a building or a house), a tree, a flower, a chair, a desk, furniture, a PC, a home appliance, a vehicle, a ship, the sea, the sun, Although it is various objects, such as an airplane, it is not limited to these. The complexity of the CG object is set by, for example, the number of polygons of the entire object, and becomes more complex as the number of polygons increases. Note that the complexity criterion is not limited to this, and may be set based on, for example, the expression of the CG object, the operation content, or the like.

また、記憶手段13は、例えば通信手段18を介して、上述した各種データをインターネットやLAN(Local Area Network)等の通信ネットワーク等に接続された外部装置等から取得することもできる。記憶手段13に記憶された各種データは、必要に応じて読み出しや書き込みが行われる。   The storage unit 13 can also acquire the various data described above from an external device connected to a communication network such as the Internet or a LAN (Local Area Network) via the communication unit 18, for example. Various data stored in the storage unit 13 is read and written as necessary.

スクリプト担当割り当て手段14は、コンテンツ生成手段17における1又は複数の映像生成エンジン20−1〜20−nへのスクリプトの担当を割り当てる。例えば、スクリプト担当割り当て手段14は、コンテンツ生成手段17における映像生成エンジン20の性能測定を行う。性能測定とは、番組生成時に使用する映像生成エンジン20において、例えば番組に登場させるCGキャラクタの複雑さ(例えば、ポリゴン数)やリアルタイムに表示できるキャラクタ数の関係を測定することをいうが、これに限定されるものではない。   The script assignment assigning unit 14 assigns a script assignment to one or a plurality of video generation engines 20-1 to 20-n in the content generation unit 17. For example, the script charge assignment unit 14 measures the performance of the video generation engine 20 in the content generation unit 17. The performance measurement means that the video generation engine 20 used at the time of program generation measures, for example, the relationship between the complexity of CG characters (for example, the number of polygons) that appear in the program and the number of characters that can be displayed in real time. It is not limited to.

また、スクリプト担当割り当て手段14は、上述した性能測定結果と、台本等から得られる番組の意図や効果等とに基づいて、番組生成時のCGオブジェクトの種類及びCGオブジェクト数を決定し、その内容に応じて映像生成エンジン20の数を割り当てる。例えば、CGオブジェクト数等により、映像生成エンジン20が2個必要と判断した場合には、コンテンツ生成手段17として映像生成エンジン20−1と、映像生成エンジン20−2とを割り当て、各エンジンにどのような映像を生成させ(スクリプトの割り当て)、どのように合成させるか(合成順序)等の設定を行う。スクリプト担当割り当て手段14は、映像生成エンジン20−1の映像出力を映像生成エンジン20−2の入力映像として使用するように設定する。なお、設定された情報は、パラメータ情報として管理される。   Further, the script charge assigning means 14 determines the type of CG object and the number of CG objects at the time of generating the program based on the above-mentioned performance measurement result and the intention and effect of the program obtained from the script, etc. The number of video generation engines 20 is allocated according to the above. For example, when it is determined that two video generation engines 20 are necessary based on the number of CG objects, the video generation engine 20-1 and the video generation engine 20-2 are allocated as the content generation unit 17, and which engine is assigned to each engine. Such a video is generated (script assignment), and how to compose (composition order) and the like are set. The script staff assignment unit 14 sets the video output of the video generation engine 20-1 to be used as the input video of the video generation engine 20-2. The set information is managed as parameter information.

スクリプト生成手段15は、スクリプト担当割り当て手段14で割り当てられた各映像生成エンジン20でコンテンツを生成させるため、それぞれに対応したスクリプトを生成する。例えば、スクリプト生成手段15は、予め設定されたスタジオセットやCGキャラクタを用いた初期シーン用のスクリプトを生成してもよく、またCGキャラクタに基本的なセリフや動作内容等のパラメータ情報が含まれている場合には、そのパラメータ情報に基づいて対応する番組進行用(後続シーン用)のスクリプトを生成してもよい。   The script generation unit 15 generates a script corresponding to each of the video generation engines 20 assigned by the script charge assignment unit 14 in order to generate content. For example, the script generation means 15 may generate a script for an initial scene using a preset studio set or a CG character, and the CG character includes parameter information such as basic speech and operation content. If so, a corresponding program progress (for subsequent scene) script may be generated based on the parameter information.

遅延調整手段16は、各映像生成エンジン20で生成されたコンテンツが同期して映像信号として出力されるように、各映像生成エンジン間での映像生成における遅延(ディレイ)時間を調整する。例えば、遅延調整手段16は、スクリプト生成手段15で生成された番組の初期シーンのスクリプト又は予め設定されたスクリプトを用いて、各映像生成エンジン20で映像の仮生成を行った結果から、それぞれの映像の誤差を取得し、各映像生成エンジン20の遅延時間を取得する。   The delay adjusting unit 16 adjusts the delay time in the video generation between the video generation engines so that the content generated by the video generation engines 20 is output as a video signal in synchronization. For example, the delay adjustment unit 16 uses the initial scene script of the program generated by the script generation unit 15 or a preset script, and from the result of the temporary generation of the video by each video generation engine 20, The video error is acquired, and the delay time of each video generation engine 20 is acquired.

遅延調整手段16は、取得した遅延時間に基づいて、各映像生成エンジン20から生成されたコンテンツが同期して出力されるように、どのタイミングでどの映像生成エンジン20にスクリプトを送信するかの調整時間を取得する。   The delay adjusting unit 16 adjusts which video generation engine 20 the script is transmitted to at which timing so that the content generated from each video generation engine 20 is synchronously output based on the acquired delay time. Get time.

遅延調整手段16により得られた遅延調整情報は、スクリプト生成手段15に出力される。これにより、スクリプト生成手段15は、遅延調整手段16により得られる遅延調整情報に基づいて、各映像生成エンジン20へ送るスクリプトの送信タイミングを調整することができ、映像合成時にそれぞれの映像を同期させることができる。   The delay adjustment information obtained by the delay adjustment unit 16 is output to the script generation unit 15. Thereby, the script generation means 15 can adjust the transmission timing of the script sent to each video generation engine 20 based on the delay adjustment information obtained by the delay adjustment means 16, and synchronizes each video at the time of video synthesis. be able to.

コンテンツ生成手段17は、スクリプトやパラメータ情報、素材データ(例えば画像や映像)等に基づいて映像コンテンツを生成する。また、コンテンツ生成手段17は、他の映像生成エンジンから取得した映像や通信手段18等を介して外部から取得した映像と、エンジン内部で生成される映像とを合成する。例えば、コンテンツ生成手段17は、複数の映像生成エンジン20−1〜20−nを有し、スクリプト担当割り当て手段14で割り当てられた順序に応じて、前段の映像生成エンジンで生成された映像と、自ら生成した映像とを合成し、合成した映像を次段の映像生成エンジンに送る処理を行うことができる。複数の映像生成エンジン20で生成された映像を段階的に合成することで、1つの画面に同時に多くのCGオブジェクトを表示させることができる。   The content generation unit 17 generates video content based on script, parameter information, material data (for example, image or video), and the like. In addition, the content generation unit 17 synthesizes a video acquired from another video generation engine, a video acquired from the outside via the communication unit 18 and the like, and a video generated inside the engine. For example, the content generation unit 17 includes a plurality of video generation engines 20-1 to 20-n, and the video generated by the previous video generation engine in accordance with the order assigned by the script charge assignment unit 14, It is possible to synthesize the video generated by itself and send the synthesized video to the video generation engine at the next stage. By synthesizing videos generated by a plurality of video generation engines 20 in stages, many CG objects can be displayed simultaneously on one screen.

各映像生成エンジン20−1〜20−nは、スクリプトによりCGオブジェクトを含む映像をリアルタイムに生成し、かつ、他の映像生成エンジンから入力される映像と、内部で生成した映像とをリアルタイムに合成する。例えば、各映像生成エンジン20−1〜20−nは、それぞれが入力したスクリプトファイルから、スクリプト担当割り当て手段14により割り当てられた自分が担当するスクリプトを抽出し、抽出したスクリプトに対してコンテンツを生成する。   Each of the video generation engines 20-1 to 20-n generates a video including a CG object by a script in real time, and synthesizes a video input from another video generation engine and an internally generated video in real time. To do. For example, each of the video generation engines 20-1 to 20-n extracts the script assigned by the script assignment assigning unit 14 from the script file input by each, and generates content for the extracted script. To do.

各映像生成エンジン20−1〜20−nは、それぞれがGPU(Graphics Processing Unit)等で構成されているが、これに限定されるものではなく、例えばVPU(Visual Processing Unit)やCPU等でもよい。つまり、コンテンツ生成手段17は、マルチプロセッサ等を用いて映像生成処理を分散して番組生成を行う。   Each of the video generation engines 20-1 to 20-n is configured by a GPU (Graphics Processing Unit) or the like, but is not limited thereto, and may be, for example, a VPU (Visual Processing Unit) or a CPU. . That is, the content generation unit 17 generates a program by distributing video generation processing using a multiprocessor or the like.

また、各映像生成エンジン20−1〜20−nは、それぞれが入力したスクリプトを解釈し、映像生成を担当するスクリプトである場合に、そのスクリプトに対応する映像生成を行う。また、各映像生成エンジン20−1〜20−nは、入力したスクリプトが、担当するスクリプトでない場合には、そのスクリプトに対する映像生成は行わない。   Also, each of the video generation engines 20-1 to 20-n interprets a script input by each of the video generation engines 20-1 to 20-n, and generates a video corresponding to the script when the script is in charge of video generation. Also, each of the video generation engines 20-1 to 20-n does not generate a video for the script when the input script is not a script in charge.

なお、コンテンツ生成手段17は、スクリプト担当割り当て手段14により割り当てられた映像生成エンジン20毎の処理対象のスクリプトや、どのような順序で映像を合成するか等の情報に基づいてコンテンツを生成する。   The content generation unit 17 generates content based on the script to be processed for each video generation engine 20 assigned by the script charge assignment unit 14 and information such as the order in which the video is to be combined.

また、コンテンツ生成手段17は、例えばTVMLスクリプトや素材データ等を読み込み、順次スクリプトを解釈しながらアニメーション映像をリアルタイムに生成するTVMLプレーヤーとしての機能を有していてもよい。   Further, the content generation unit 17 may have a function as a TVML player that reads, for example, a TVML script, material data, etc., and generates an animation video in real time while sequentially interpreting the script.

通信手段18は、通信ネットワーク等を介して外部装置とデータの送受信を行うための通信インタフェースである。通信手段18による通信は、有線でも無線でもよく、これらの組み合わせでもよい。   The communication means 18 is a communication interface for transmitting / receiving data to / from an external device via a communication network or the like. Communication by the communication means 18 may be wired or wireless, or a combination thereof.

制御手段19は、本実施形態におけるコンテンツ生成装置10の各機能構成全体の制御を行う。具体的には、制御手段19は、例えばスクリプト担当割り当て手段14によるスクリプトの担当の割り当て、スクリプト生成手段15によるスクリプトの生成、遅延調整手段16における各映像生成エンジン20での遅延(ディレイ)調整、コンテンツ生成手段17におけるコンテンツ生成、通信手段18におけるデータの送受信等の各種制御を行う。   The control unit 19 controls the entire functional configuration of the content generation apparatus 10 in the present embodiment. Specifically, for example, the control unit 19 assigns a script in charge by the script assigning unit 14, generates a script by the script generation unit 15, adjusts a delay in each video generation engine 20 in the delay adjustment unit 16, Various controls such as content generation in the content generation unit 17 and data transmission / reception in the communication unit 18 are performed.

なお、制御手段19が行う制御は、これに限定されるものではなく、例えばコンテンツ生成処理の開始や終了を制御したり、エラー制御(例えば、エラー発生時のメッセージ出力)等を行うことができる。   Note that the control performed by the control unit 19 is not limited to this. For example, the start and end of content generation processing can be controlled, and error control (for example, message output when an error occurs) can be performed. .

本実施形態では、上述したコンテンツ生成装置10により、1又は複数の映像生成エンジン等を用いて多くのCGオブジェクトが登場する映像コンテンツを簡便かつリアルタイムに生成することができる。   In the present embodiment, the above-described content generation apparatus 10 can easily and in real time generate video content in which many CG objects appear using one or a plurality of video generation engines.

<コンテンツ生成装置10における処理(コンテンツ生成処理)の一例>
次に、上述したコンテンツ生成装置10における処理の一例について、フローチャートを用いて説明する。図2は、コンテンツ生成装置における処理の一例を示すフローチャートである。なお、以下の説明では、生成する番組(コンテンツ)に登場させるCGオブジェクトの一例としてCGキャラクタを用いて説明するが、これに限定されるものではない
図2の例に示すコンテンツ生成処理において、スクリプト担当割り当て手段14は、コンテンツ生成手段17における映像生成の性能を測定する(S01)。S01の処理では、例えば映像生成エンジン20に対して、予め記憶手段13等に記憶されたCGキャラクタの種類毎に、リアルタイムに表示できるキャラクタ数の関係を測定する。
<Example of Processing (Content Generation Processing) in Content Generation Device 10>
Next, an example of processing in the content generation apparatus 10 described above will be described using a flowchart. FIG. 2 is a flowchart illustrating an example of processing in the content generation apparatus. In the following description, a CG character is used as an example of a CG object that appears in a program (content) to be generated. However, the present invention is not limited to this. In the content generation process shown in the example of FIG. The assigning unit 14 measures the performance of video generation in the content generation unit 17 (S01). In the process of S01, for example, the relationship between the number of characters that can be displayed in real time is measured for each type of CG character stored in advance in the storage unit 13 or the like with respect to the video generation engine 20.

次に、スクリプト担当割り当て手段14は、S01の処理で得られた性能測定結果や予め設定された番組台本等に基づいて、生成する番組(コンテンツ)に登場させるキャラクタとキャラクタ数を決定する(S02)。   Next, the script charge assigning means 14 determines the character and the number of characters to appear in the generated program (content) based on the performance measurement result obtained in the process of S01, a preset program script, and the like (S02). ).

次に、スクリプト担当割り当て手段14は、キャラクタとキャラクタ数に対応する映像生成エンジン20の数を決定し、各映像生成エンジンが担当するスクリプトを割り当てる(S03)。例えば、生成する番組で赤い服の女性のCGキャラクタ40体を表示させる場合に、性能測定結果から1つの映像生成エンジンで20体までリアルタイム表示できると判断されたとする。この場合、スクリプト担当割り当て手段14は、2つの映像生成エンジンを割り当てる。   Next, the script charge assignment unit 14 determines the number of characters and the number of video generation engines 20 corresponding to the number of characters, and assigns a script for each video generation engine (S03). For example, when displaying 40 female CG characters in red clothes in a program to be generated, it is determined from a performance measurement result that up to 20 can be displayed in real time by one video generation engine. In this case, the script charge assignment unit 14 assigns two video generation engines.

なお、各映像生成エンジン20は、予め設定されたIDやネットワークアドレス、ホスト名、ポート番号、MAC(Media Access Control)アドレス等の各種アドレス情報により識別されるが、各映像生成エンジン20の識別情報についてはこれに限定されるものではない。更に、スクリプト担当割り当て手段14は、例えば映像生成エンジン20−1で生成した映像を映像生成エンジン20−2の入力として取得し、映像生成エンジン20−2で生成された映像と合成させる等といった合成順序等を設定することもできる。   Each video generation engine 20 is identified by various address information such as a preset ID, network address, host name, port number, and MAC (Media Access Control) address. However, the present invention is not limited to this. Further, the script charge assignment unit 14 acquires, for example, the video generated by the video generation engine 20-1 as an input of the video generation engine 20-2, and synthesizes it with the video generated by the video generation engine 20-2. An order or the like can also be set.

次に、スクリプト生成手段15は、例えば各映像生成エンジンに対応する初期シーンのスクリプトを生成する(S04)。S04の処理において、スクリプト生成手段15は、例えば2つの映像生成エンジン20−1,20−2を用いて映像を生成する場合に、映像生成エンジン20−1用のスクリプトファイル(例えば、「Char40test_h1.tvml」)と、映像生成エンジン20−2用のスクリプトファイル(例えば、「Char40test_h2.tvml」)とを生成する。   Next, the script generation unit 15 generates an initial scene script corresponding to each video generation engine, for example (S04). In the process of S04, the script generation unit 15 generates a script file for the video generation engine 20-1 (for example, “Char40test_h1.h” when generating the video using the two video generation engines 20-1 and 20-2, for example. tvml ") and a script file (for example," Char40test_h2.tvml ") for the video generation engine 20-2.

次に、遅延調整手段16は、各映像生成エンジン20において生成された映像を合成する際に、2つの映像で遅延(誤差)が生じないように、各映像生成エンジン20における遅延時間を調整する(S05)。S05の処理において、例えば映像生成エンジン20−1の出力映像と、映像生成エンジン20−2でスクリプトから生成された映像とを、映像生成エンジン20−2で合成する場合、遅延調整手段16は、上述した2つの映像生成エンジン20−1,20−2に対して同一のスクリプトを出力して映像を仮生成させ、更に映像生成エンジン20−2で合成された2つの映像のずれ量から遅延時間(ディレイ量)を取得する。なお、同一のスクリプトとは、例えば、S04の処理で得られた初期シーンのスクリプトでもよく、予め設定された処理(例えば、カメラワーク)を行うスクリプトでもよいが、これに限定されるものではない。   Next, the delay adjusting unit 16 adjusts the delay time in each video generation engine 20 so that there is no delay (error) between the two videos when the video generated in each video generation engine 20 is synthesized. (S05). In the process of S05, for example, when the video generation engine 20-2 synthesizes the output video of the video generation engine 20-1 and the video generated from the script by the video generation engine 20-2, the delay adjustment unit 16 The same script is output to the two video generation engines 20-1 and 20-2 described above to temporarily generate a video, and further, the delay time is determined from the shift amount of the two videos synthesized by the video generation engine 20-2. Get (delay amount). The same script may be, for example, an initial scene script obtained in S04 or a script that performs a preset process (for example, camera work), but is not limited thereto. .

また、遅延調整手段16は、映像のずれが生じている場合に、そのずれ量に基づいて、映像生成エンジン20−1及び映像生成エンジン20−2にそれぞれ出力するスクリプトのタイミングをずらしながら、再度同一のスクリプトを出力し、各映像生成エンジンで仮生成された映像を取得する。この作業を映像のずれがなくなるまで行うことで、最終的に合成時の映像のずれがなくなる遅延時間(ディレイ量)を取得する。   In addition, when there is a video shift, the delay adjusting unit 16 again shifts the timing of the script output to the video generation engine 20-1 and the video generation engine 20-2 based on the shift amount. The same script is output, and the video temporarily generated by each video generation engine is acquired. By performing this operation until there is no video shift, a delay time (delay amount) is finally acquired at which there is no video shift during synthesis.

なお、遅延時間を取得するためのスクリプトの一例としては、例えばカメラワークとしてカメラAを横に振る(pan)スクリプト「camera:movement(name=CameraA,y=1.96,z=6,pan=−21.00,tilt=8.00,vangle=46.00,speed=0.2)」、「camera:movement(name=CameraA,y=1.96,z=6,pan=21.00,tilt=8.00,vangle=46.00,speed=0.2)」を用いることができるが、これに限定されるものではない。   As an example of the script for acquiring the delay time, for example, a script “camera: movement (name = CameraA, y = 1.96, z = 6, pan =) -21.00, tilt = 8.00, angle = 46.00, speed = 0.2) ”,“ camera: movement (name = CameraA, y = 1.96, z = 6, pan = 21.00, tilt = 8.00, vangle = 46.00, speed = 0.2) ”can be used, but the present invention is not limited to this.

次に、スクリプト生成手段15は、S05の処理により調整された遅延時間に基づくタイミングで、各映像生成エンジン20にスクリプトを出力する(S06)。次に、コンテンツ生成手段17は、スクリプトを入力した各映像生成エンジン20で、コンテンツを生成する(S07)。S07の処理において、コンテンツ生成手段17は、入力したスクリプトに自己が担当しているスクリプトが含まれている場合に、そのスクリプトに対応するコンテンツを生成する。また、コンテンツ生成手段17は、入力したスクリプトに自己が担当しているスクリプトが含まれていない場合には、コンテンツの生成を行わない。   Next, the script generation unit 15 outputs a script to each video generation engine 20 at a timing based on the delay time adjusted by the process of S05 (S06). Next, the content generation unit 17 generates content with each video generation engine 20 to which the script is input (S07). In the processing of S07, the content generation unit 17 generates content corresponding to the script when the input script includes a script that the user is in charge of. Further, the content generation unit 17 does not generate content when the input script does not include a script that the content generation unit 17 is responsible for.

次に、コンテンツ生成手段17は、複数の映像生成エンジン20で生成されたコンテンツを合成して、最終的な番組を生成する(S08)。S08の処理において、コンテンツ生成手段17は、例えば映像生成エンジン20−1で生成した映像コンテンツの出力が、映像生成エンジン20−2で生成した映像コンテンツの背景として入力される場合に、映像生成エンジン20−1で生成した映像コンテンツ(背景)の上に、映像生成エンジン20−2で生成した映像コンテンツを合成する。なお、本実施形態では、遅延調整手段16により各映像生成エンジン20の生成時間を考慮して生成時間が遅延されているため、S08の処理では、同期した映像の合成を実現することができる。また、本実施形態では、3つ以上の映像生成エンジン20を用いてコンテンツの合成を行ってもよい。次に、出力手段12は、コンテンツ生成手段17により生成された合成した番組を出力手段12等により出力する(S09)。   Next, the content generation means 17 combines the content generated by the plurality of video generation engines 20 to generate a final program (S08). In the processing of S08, the content generation unit 17 performs the video generation engine when, for example, the output of the video content generated by the video generation engine 20-1 is input as the background of the video content generated by the video generation engine 20-2. The video content generated by the video generation engine 20-2 is synthesized on the video content (background) generated in 20-1. In the present embodiment, since the generation time is delayed by the delay adjusting unit 16 in consideration of the generation time of each video generation engine 20, in the process of S08, synchronized video composition can be realized. In the present embodiment, content may be combined using three or more video generation engines 20. Next, the output unit 12 outputs the combined program generated by the content generation unit 17 by the output unit 12 or the like (S09).

ここで、コンテンツ生成装置10の制御手段19は、例えば後続シーンのスクリプト(番組進行用のスクリプト)を生成するか否かを判断する(S10)。S10の処理において、制御手段19は、例えば制作中の番組に対応する台本等に基づいて判断することができるが、これに限定されるものではない。   Here, the control means 19 of the content generation apparatus 10 determines whether or not to generate a script of the subsequent scene (program progression script), for example (S10). In the processing of S10, the control means 19 can make a determination based on, for example, a script corresponding to the program being produced, but is not limited to this.

後続シーンのスクリプトを生成する必要がある場合(S10において、YES)、スクリプト生成手段15は、各映像生成エンジン20に対応する後続シーンのスクリプトを生成し(S11)、S06の処理に戻り、所定のタイミングでスクリプトの出力を行う。例えば、上述したS11の処理において、スクリプト生成手段15は、番組の進行に沿って、同じスクリプト(Char40test_h3.tvml)を生成し、S05の処理において取得した遅延時間に基づいて、映像生成エンジン20−1,20−2のそれぞれに対して調整したタイミングで送信する。   When it is necessary to generate a script for the subsequent scene (YES in S10), the script generation unit 15 generates a script for the subsequent scene corresponding to each video generation engine 20 (S11), and returns to the process of S06, and returns to the predetermined process. The script is output at the timing. For example, in the process of S11 described above, the script generation unit 15 generates the same script (Char40test_h3.tvml) along with the progress of the program, and based on the delay time acquired in the process of S05, the video generation engine 20- 1 and 20-2 are transmitted at adjusted timings.

また、S10の処理において、後続シーンのスクリプトを生成しない場合(S10において、NO)、制御手段19は、コンテンツ生成処理を終了する。   Further, in the process of S10, when the script of the subsequent scene is not generated (NO in S10), the control unit 19 ends the content generation process.

<スクリプト担当割り当て手段14における映像生成エンジン数の決定例>
次に、上述したスクリプト担当割り当て手段14における映像生成エンジン数の決定例について説明する。図3は、映像生成エンジン数の決定例を説明するための図である。なお、以下の説明では、CGオブジェクトの一例としてCGキャラクタを用いて説明する。
<Determination Example of Number of Video Generation Engines in Script Assigning Unit 14>
Next, an example of determining the number of video generation engines in the script person assigning unit 14 will be described. FIG. 3 is a diagram for explaining an example of determining the number of video generation engines. In the following description, a CG character is used as an example of a CG object.

一般に、体の動きに従って滑らかに変形する皮膚を持ったCGキャラクタの表示は、多くの計算処理が必要となる。したがって、本実施形態において、スクリプト担当割り当て手段14は、コンテンツ生成手段17における映像生成エンジン20の性能測定を行い、CGオブジェクトの種類毎に、リアルタイムに表示できるCGオブジェクト数を測定する。   In general, display of a CG character having skin that deforms smoothly according to body movement requires a lot of calculation processing. Therefore, in this embodiment, the script charge assignment unit 14 measures the performance of the video generation engine 20 in the content generation unit 17 and measures the number of CG objects that can be displayed in real time for each type of CG object.

例えば、スクリプト担当割り当て手段14は、予めCGキャラクタ毎に設定されているポリゴン数(複雑さ)等のパラメータに応じて、映像生成エンジン20が処理の負荷等による動作の遅延等が生じることなくリアルタイムに生成できるキャラクタ数を決定する。   For example, the script charge assignment unit 14 performs real-time without causing a delay in the operation of the video generation engine 20 due to processing load or the like according to parameters such as the number of polygons (complexity) set in advance for each CG character. Determine the number of characters that can be generated.

図3に示す例では、番組に登場させることが可能なCGキャラクタ30−1〜30−3が予め設定されており、更に各CGキャラクタ毎にポリゴン数が設定されている。なお、CGキャラクタ30−1〜30−3の種類やポリゴン数については、これに限定されるものではない。   In the example shown in FIG. 3, CG characters 30-1 to 30-3 that can appear in a program are set in advance, and the number of polygons is set for each CG character. Note that the types of CG characters 30-1 to 30-3 and the number of polygons are not limited thereto.

スクリプト担当割り当て手段14は、各CGキャラクタ30−1〜30−3が使用するポリゴンの数に応じて1つの映像生成エンジンで生成可能なキャラクタ数を設定する。なお、コンテンツに登場させるキャラクタやキャラクタ数は、例えば生成する番組の台本等により設定することもできる。   The script charge assigning unit 14 sets the number of characters that can be generated by one video generation engine in accordance with the number of polygons used by the CG characters 30-1 to 30-3. Note that the number of characters and the number of characters to appear in the content can be set by, for example, a script of a program to be generated.

例えば、CGキャラクタ30−2(赤い服の女性)を、40体リアルタイムで表示しようとすると、図3に示す性能測定結果から1つの映像生成エンジンで20体をリアルタイム表示できることがわかる。したがって、スクリプト担当割り当て手段14は、40体のCGキャラクタ30−2を表示させるために2台の映像生成エンジンを割り当て、スクリプト生成手段15に割り当てた各映像生成エンジンに対応するスクリプトを生成させる。   For example, if 40 CG characters 30-2 (female in red clothes) are to be displayed in real time, it can be seen from the performance measurement results shown in FIG. Therefore, the script charge assignment unit 14 assigns two video generation engines to display the 40 CG characters 30-2, and generates a script corresponding to each video generation engine assigned to the script generation unit 15.

<コンテンツ生成の具体例>
次に、上述した本実施形態におけるコンテンツ生成の具体例について説明する。図4は、コンテンツ生成の具体例を説明するための図である。また、図5〜図7は、映像生成エンジンに出力するスクリプトの一例を示す図(その1〜その3)である。なお、図5〜図7の例では、説明の便宜上、TVMLスクリプトの左側に行番号を示している。
<Specific example of content generation>
Next, a specific example of content generation in the above-described embodiment will be described. FIG. 4 is a diagram for explaining a specific example of content generation. 5 to 7 are diagrams (part 1 to part 3) illustrating examples of scripts output to the video generation engine. In the examples of FIGS. 5 to 7, line numbers are shown on the left side of the TVML script for convenience of explanation.

図4の例では、コンテンツ生成手段17における2つの映像生成エンジン20−1,20−2を用いて番組を生成する例が示されている。映像生成エンジン20−1,20−2は、スクリプト生成手段15が生成したスクリプトファイルを読み込んで、自己が担当するスクリプトを順番に再生して映像を出力する。また、映像生成エンジン20−1,20−2は、リアルタイムかつ高速に変化するカメラワークデータ等をパラメータとして入力することも可能である。   In the example of FIG. 4, an example in which a program is generated using two video generation engines 20-1 and 20-2 in the content generation unit 17 is shown. The video generation engines 20-1 and 20-2 read the script file generated by the script generation means 15, reproduce the scripts that they are responsible for in order, and output the video. In addition, the video generation engines 20-1 and 20-2 can also input camerawork data and the like that change at high speed in real time as parameters.

また、映像生成エンジン20−1,20−2は、映像を段階的に合成することができるため、1つの画面に同時に多くのCGキャラクタを容易に登場させることができる。   In addition, since the video generation engines 20-1 and 20-2 can synthesize the video step by step, many CG characters can easily appear simultaneously on one screen.

図4の例において、映像生成エンジン20−1は、例えば図5に示すようなTVMLスクリプト(例えば、Char40test_h1.tvml」)を用いて背景セットと画面(カメラ位置)後方のキャラクタ群の生成を担当している。本実施形態におけるスクリプトは、例えばテレビ番組のような映像コンテンツ制作全般に使用することができ、例えばCGキャラクタのしゃべりや動作の他、照明、カメラ、セット、小道具、スーパーインポーズ、動画、BGM等、テレビ番組のスタジオ制作に必要な機能を全て記述することができる。   In the example of FIG. 4, the video generation engine 20-1 is in charge of generating a background set and a character group behind the screen (camera position) using a TVML script (for example, Char40test_h1.tvml) as shown in FIG. doing. The script in this embodiment can be used for video content production in general such as a television program, for example, in addition to chatting and operation of a CG character, lighting, camera, set, prop, superimpose, video, BGM, etc. All functions necessary for TV program studio production can be described.

図5の例に示すTVMLスクリプトでは、スタジオセットや照明、キャラクタ、カメラ等の設定の他に、(54)〜(62)行目に各CGキャラクタ(20体)の画面上の表示位置座標(一部記載省略)が設定されている。また、(66)〜(74)行目に各CGキャラクタ(20体)に対する動作内容(一部記載省略)が設定される。図5の例では、Character1_1A〜10_1A、Character1_2A〜10_2Aが、映像生成エンジン20−1が担当するCGオブジェクトとなる。   In the TVML script shown in the example of FIG. 5, in addition to the settings of the studio set, lighting, character, camera, etc., the display position coordinates (20) of each CG character (20 bodies) on the screen (54) to (62). Some are omitted). In addition, the action content (partially omitted) for each CG character (20 characters) is set in the (66) to (74) lines. In the example of FIG. 5, Characters 1_1A to 10_1A and Characters 1_2A to 10_2A are CG objects handled by the video generation engine 20-1.

また、映像生成エンジン20−2は、例えば図6に示すようなスクリプト(例えば、Char40test_h2.tvml」)を用いて画面(カメラ位置)手前のキャラクタ群の生成を担当している。   The video generation engine 20-2 is in charge of generating a character group in front of the screen (camera position) using a script (for example, Char40test_h2.tvml) as shown in FIG.

図6の例では、背景映像として、映像生成エンジン20−1の出力映像40−1を入力とするスクリプトが存在する((13)〜(15)行目)。また、図6の例では、照明、キャラクタ、カメラ等の設定の他に、(54)〜(62)行目に各CGキャラクタ(20体)の画面上の表示位置座標(一部記載省略)が設定されている。また、(68)〜(76)行目に各CGキャラクタ(20体)に対する動作内容(一部記載省略)が設定される。図6の例では、Character1_3A〜10_3A、Character1_4A〜10_4Aが、映像生成エンジン20−2が担当するCGオブジェクトとなる。   In the example of FIG. 6, there is a script that receives the output video 40-1 of the video generation engine 20-1 as a background video (lines (13) to (15)). Further, in the example of FIG. 6, in addition to the setting of lighting, character, camera, etc., the display position coordinates on the screen of each CG character (20 bodies) on the (54) to (62) lines (partially omitted) Is set. In addition, the action content (partially omitted) for each CG character (20 characters) is set in the (68) to (76) lines. In the example of FIG. 6, Characters 1_3A to 10_3A and Characters 1_4A to 10_4A are CG objects in charge of the video generation engine 20-2.

図4の例に示す映像生成エンジン20−1及び20−2では、例えば図5及び図6に示す初期シーンのスクリプトに対して、照明やカメラ等に関するスクリプトを処理し、同じ照明、同じカメラワークの映像を生成する。また、映像生成エンジン20−2は、図4に示すように前段の映像生成エンジン20−1からの出力映像を背景映像として入力し、映像生成エンジン20−2で生成された映像40−2と合成(キャラクタ領域だけ上書き)して、最終的な映像コンテンツ41を出力する。   In the video generation engines 20-1 and 20-2 shown in the example of FIG. 4, for example, scripts for lighting and cameras are processed with respect to the script of the initial scene shown in FIGS. Generate video for Further, as shown in FIG. 4, the video generation engine 20-2 receives the output video from the previous video generation engine 20-1 as a background video, and the video 40-2 generated by the video generation engine 20-2. The final video content 41 is output after being synthesized (overwriting only the character area).

なお、図5,図6に示すスクリプトは、例えば「skipscript」の「switch」パラメータにより表示(off:スキップしない)又は非表示(on:スキップする)を制御することができる。また、本実施形態では、映像生成エンジン20−1に背景セットと後方のキャラクタ群を担当させているが、これに限定されるものではなく、背景セットとキャラクタ群とを別々の映像生成エンジンに分けてもよく、またキャラクタ群に限らず他のCGオブジェクトの表示を担当させてもよい。   The scripts shown in FIGS. 5 and 6 can be controlled to be displayed (off: not skipped) or not displayed (on: skipped) by, for example, the “switch” parameter of “skipscript”. In the present embodiment, the video generation engine 20-1 is in charge of the background set and the rear character group. However, the present invention is not limited to this, and the background set and the character group are set as separate video generation engines. It may be divided, and not only the character group but also other CG objects may be displayed.

また、本実施形態において、スクリプト生成手段15は、番組進行に対応させて、例えば図7に示すような後続シーンのスクリプトファイル(例えば、Char40test_h3.tvml」)を映像生成エンジン20−1及び20−2に出力する。映像生成エンジン20−1及び20−2は、そのスクリプトファイルを受け取り、それぞれが担当するスクリプト(例えば、CGキャラクタ等)に対しての動作制御等を実行する。   Further, in the present embodiment, the script generation unit 15 generates a script file (for example, Char40test_h3.tvml) of the subsequent scene as shown in FIG. Output to 2. The video generation engines 20-1 and 20-2 receive the script file, and execute operation control on a script (for example, a CG character or the like) in charge of the script file.

図7の例では、(01)〜(04)行目に、Character(キャラクタ)1_1A、2_2A、3_3A、4_4Aが「バイバイ」と手を振るジェスチャ(動作)を行うスクリプトが記述されている。したがって、映像生成エンジン20−1は、自分が担当する図7の(01)、(02)行目のスクリプト(Character1_1A、2_2A)に対応した映像生成を行い、(03)、(04)行目のスクリプトには対応しない。一方、映像生成エンジン20−2は、図7の(01)、(02)行目にスクリプトには対応せず、(03)、(04)行目のスクリプト(Character3_3A、4_4A)に対応した映像生成を行う。   In the example of FIG. 7, in the (01) to (04) lines, a script that performs a gesture (motion) in which the characters (characters) 1_1A, 2_2A, 3_3A, and 4_4A shake their hands “bye-bye” is described. Accordingly, the video generation engine 20-1 performs video generation corresponding to the script (Character1_1A, 2_2A) on the (01) and (02) lines in FIG. 7 that it is in charge of, and the (03) and (04) lines This script is not supported. On the other hand, the video generation engine 20-2 does not correspond to the script on the (01) and (02) lines in FIG. 7, but corresponds to the script (Character 3_3A, 4_4A) on the (03) and (04) lines. Generate.

なお、図7に示すスクリプトは、遅延調整手段16から得られる遅延時間にしたがってタイミングをずらして各映像生成エンジン20−1,20−2に出力される。このように、本実施形態では、各映像生成エンジン20に対して同一のスクリプトを出力した場合でも、それぞれの映像生成エンジン20に割り当てられている担当スクリプトのみを抽出して処理することができる。したがって、スクリプト生成手段15は、映像生成エンジン20毎に個別のスクリプトを生成したり、送信する必要がなくなる。したがって、簡便かつリアルタイムにコンテンツを生成することができる。   Note that the script shown in FIG. 7 is output to the video generation engines 20-1 and 20-2 at different timings according to the delay time obtained from the delay adjustment unit 16. Thus, in the present embodiment, even when the same script is output to each video generation engine 20, only the assigned script assigned to each video generation engine 20 can be extracted and processed. Therefore, the script generation unit 15 does not need to generate or transmit an individual script for each video generation engine 20. Therefore, content can be generated easily and in real time.

<遅延調整の具体例>
次に、本実施形態における遅延調整の具体例について説明する。本実施形態では、各映像生成エンジン20からの映像を合成する際の映像間の遅延をなくすための調整を行う。例えば、図4に示すようにカメラの位置や向き、画角等を変更させるスクリプト(カメラワークスクリプト)を映像生成エンジン20−1,20−2に出力する。カメラワークスクリプトとしては、例えば図4に示すカメラワークスクリプトA、B等を出力することができるが、これに限定されるものではない。また、カメラワークスクリプトではなく、例えばCGキャラクタを移動させるスクリプト等の予め設定されたスクリプトであってもよく、上述した初期シーンスクリプトであってもよい。
<Specific example of delay adjustment>
Next, a specific example of delay adjustment in the present embodiment will be described. In the present embodiment, adjustment is performed to eliminate a delay between videos when the videos from the video generation engines 20 are combined. For example, as shown in FIG. 4, a script (camera work script) for changing the position, orientation, angle of view, etc. of the camera is output to the video generation engines 20-1, 20-2. For example, camera work scripts A and B shown in FIG. 4 can be output as the camera work script, but the camera work script is not limited to this. Further, instead of the camera work script, it may be a preset script such as a script for moving a CG character, or the initial scene script described above.

映像生成エンジン20−1,20−2は、それぞれで担当する映像を仮生成し、映像生成エンジン20−2で2つの映像が合成されて出力される。   The video generation engines 20-1 and 20-2 temporarily generate videos in charge of each, and the video generation engine 20-2 synthesizes and outputs the two videos.

ここで、例えば映像生成エンジン20−1,20−2に対して同じタイミングでカメラワークスクリプトを出力すると、映像生成エンジン20−1と映像生成エンジン20−2で、ほぼ同時に映像生成が行われる。しかしながら、映像生成エンジン毎の性能の違いや、映像生成エンジン20−1からの映像を映像生成エンジン20−2に出力し、映像生成エンジン20−2が入力するまでの通信時間等により、合成時の2つの映像が同期せずに遅延が生じ、全体の動作がずれてしまう。これは、例えばCGキャラクタが動作する場合であっても同様である。   Here, for example, when the camera work script is output to the video generation engines 20-1 and 20-2 at the same timing, the video generation engine 20-1 and the video generation engine 20-2 generate the video almost simultaneously. However, due to the difference in performance of each video generation engine, the video from the video generation engine 20-1 is output to the video generation engine 20-2, the communication time until the video generation engine 20-2 is input, etc. The two images are not synchronized and a delay occurs, resulting in a shift in the overall operation. This is the same even when the CG character moves, for example.

図8は、合成映像のずれを説明するための図である。図8(A)は、映像のずれがある場合を示し、図8(B)は、映像のずれがない場合を示している。上述したように、各映像生成エンジン20での処理時間のずれを考慮しない場合には、図8(A)に示すように、カメラワークの変更等によりCGキャラクタの位置がずれる等の現象が生じる。   FIG. 8 is a diagram for explaining the shift of the composite video. FIG. 8A shows a case where there is a video shift, and FIG. 8B shows a case where there is no video shift. As described above, when the shift in processing time in each video generation engine 20 is not taken into account, as shown in FIG. 8A, a phenomenon such as the position of the CG character being shifted due to a change in camera work or the like occurs. .

そこで、本実施形態では、そのような時間的ずれをなくすため、スクリプト生成手段15は、遅延調整手段16からの指示により、映像生成エンジン20−1,20−2に対する出力タイミングを所定時間ずらしてカメラワークスクリプトを出力する。遅延調整手段16は、例えば映像生成エンジン20−2から最終的に合成された映像を取得し、図8(A)、(B)に示すような映像の変化からずれ(位置ずれ、動作ずれ等)が生じていないか(同期しているか)を判断する。また、ずれが生じている場合には、ずらす時間を変更しながら、ずれが生じなくなるまで繰り返し処理を行う。   Therefore, in this embodiment, in order to eliminate such time lag, the script generation unit 15 shifts the output timing to the video generation engines 20-1 and 20-2 by a predetermined time according to an instruction from the delay adjustment unit 16. Output camera work script. The delay adjustment unit 16 acquires the finally synthesized video from the video generation engine 20-2, for example, and shifts from the video change as shown in FIGS. 8A and 8B (positional shift, motion shift, etc.). ) Is not generated (synchronized). If there is a deviation, the process is repeated until the deviation does not occur while changing the time for shifting.

これにより、遅延調整手段16は、各映像生成エンジンで仮生成された映像から遅延時間を取得することができ、取得した遅延時間を用いて、ずれが生じないように出力タイミングの調整を行い各映像生成エンジン20にスクリプトを出力する。例えば、スクリプト生成手段15は、映像生成エンジン20−2にスクリプトを出力するタイミングを映像生成エンジン20−1へスクリプトを出力するタイミングより遅いタイミングにすることで、例えば図8(B)に示すように、2つの映像が同期した合成映像を生成することができる。   Thereby, the delay adjusting means 16 can acquire the delay time from the video temporarily generated by each video generation engine, and adjusts the output timing using the acquired delay time so that no deviation occurs. A script is output to the video generation engine 20. For example, the script generation unit 15 sets the timing of outputting the script to the video generation engine 20-2 later than the timing of outputting the script to the video generation engine 20-1, for example, as shown in FIG. In addition, it is possible to generate a synthesized video in which two videos are synchronized.

なお、本実施形態において、スクリプト生成手段15は、予め設定されたスクリプト送信用設定ファイルに基づいてスクリプトの送信を行う。上述した遅延時間も、スクリプト送信用設定ファイルに記憶される。   In the present embodiment, the script generation unit 15 transmits a script based on a preset script transmission setting file. The delay time described above is also stored in the script transmission setting file.

図9は、スクリプト送信用設定ファイルの一例を示す図である。図9の例に示すスクリプト送信用設定ファイルは、例えば「セットワークモード設定セクション」、「ローカルモード設定セクション」、「リアルタイムパラメータ入力設定セクション」、「repeat構文設定セクション」、「送信先設定セクション」等があるが、これに限定されるものではない。   FIG. 9 is a diagram illustrating an example of a script transmission setting file. The script transmission setting file shown in the example of FIG. 9 includes, for example, “set work mode setting section”, “local mode setting section”, “real time parameter input setting section”, “repeat syntax setting section”, and “destination setting section”. However, the present invention is not limited to this.

例えば、遅延時間に基づくスクリプト送信間隔は、図9に示すように、映像生成エンジン20毎に、送信先のホスト名(HOST)及びポート番号(PORT)と共に、ディレイ量(DELAY)パラメータとして、「送信先設定セクション」に記憶される。   For example, as shown in FIG. 9, the script transmission interval based on the delay time is set as “DELAY” parameter as the delay amount (DELAY) parameter together with the host name (HOST) and port number (PORT) of the transmission destination for each video generation engine 20. It is stored in the “destination setting section”.

また、本実施形態では、遅延時間の最大値「SEND_DELAY_MAX」を予め設定してもよい。この設定情報は、例えば、図9に示すように「ネットワークモード設定セクション」として設定される。このように遅延時間の最大値を設定することで、合成映像そのものの遅延を防止し、リアルタイム映像出力を維持することができる。   In this embodiment, the maximum delay time “SEND_DELAY_MAX” may be set in advance. This setting information is set, for example, as a “network mode setting section” as shown in FIG. By setting the maximum delay time in this way, it is possible to prevent the synthesized video itself from being delayed and maintain the real-time video output.

なお、上述した実施形態では、2つの映像生成エンジン20−1,20−2を用いて説明したが、これに限定されるものではなく、映像に登場させるCGオブジェクトの複雑さや数、装置性能等に応じて3以上の映像生成エンジンを使用することができる。例えば、上述した実施形態において映像生成エンジン20−3を追加する場合には、映像生成エンジン20−2の後に配置し、各映像生成エンジン20−1〜20−3が担当する素材やスクリプト等の割り当てを再度行う。   In the above-described embodiment, the two video generation engines 20-1 and 20-2 have been described. However, the present invention is not limited to this, and the complexity and number of CG objects appearing in the video, device performance, and the like. Depending on, more than two video generation engines can be used. For example, in the case of adding the video generation engine 20-3 in the above-described embodiment, the video generation engine 20-2 is arranged after the video generation engine 20-2, such as a material or a script that each video generation engine 20-1 to 20-3 is in charge of. Reassign.

<他の実施形態>
上述したコンテンツ生成装置10は、例えば上述したコンテンツ生成手段17(映像生成エンジン20)を他の装置(例えば、PC等)で実現したコンテンツ生成システムとして構成されていてもよい。
<Other embodiments>
The content generation device 10 described above may be configured as a content generation system in which the content generation unit 17 (video generation engine 20) described above is realized by another device (for example, a PC, for example).

ここで、図10は、コンテンツ生成システムの構成例を示す図である。なお、以下の構成において、上述したコンテンツ生成装置10と同様の処理を行う構成については、上述した構成と同様の名称及び符号を付するものとし、ここでの具体的な説明は省略する。   Here, FIG. 10 is a diagram illustrating a configuration example of the content generation system. Note that, in the following configuration, a configuration that performs the same processing as that of the content generation device 10 described above is given the same name and symbol as the configuration described above, and a specific description thereof is omitted here.

図10の例において、コンテンツ生成システム50は、コンテンツ生成装置51と、1又は複数のPC52(図10の例では、PC52−1,52−2)とを有するよう構成されている。コンテンツ生成装置51とPC52とは、例えばインターネットやLAN等の通信ネットワーク53によりデータの送受信が可能な状態で接続されている。   In the example of FIG. 10, the content generation system 50 is configured to include a content generation device 51 and one or a plurality of PCs 52 (PCs 52-1 and 52-2 in the example of FIG. 10). The content generation device 51 and the PC 52 are connected in a state where data can be transmitted and received through a communication network 53 such as the Internet or a LAN.

コンテンツ生成装置51は、入力手段11と、出力手段12と、記憶手段13と、スクリプト担当割り当て手段14と、スクリプト生成手段15と、遅延調整手段16と、通信手段18と、制御手段19とを有するよう構成されている。また、PC52は、映像生成エンジン61と、通信手段62とを有している。なお、PC52は、例えばサーバや映像生成機能・通信機能を有するテレビ装置等でもよく、またスマートフォンやタブレット端末、ゲーム機器、カメラ、携帯電話等のモバイル端末等でもよい。   The content generation device 51 includes an input unit 11, an output unit 12, a storage unit 13, a script charge assignment unit 14, a script generation unit 15, a delay adjustment unit 16, a communication unit 18, and a control unit 19. It is comprised so that it may have. The PC 52 includes a video generation engine 61 and communication means 62. The PC 52 may be, for example, a server, a television device having a video generation function / communication function, or a mobile terminal such as a smartphone, a tablet terminal, a game device, a camera, or a mobile phone.

図10のコンテンツ生成装置51は、予め映像コンテンツを生成させる情報処理装置として1又は複数のPC52を管理している。各PC52は、例えばIPアドレス等のネットワークアドレスで識別することができる。各PC52は、例えばマルチプロセッサではなく、1つのプロセッサを用いてコンテンツを生成する映像生成エンジン61を有しているが、これに限定されるものではなく、例えば各PC52がマルチプロセッサ(複数の映像生成エンジン)を有していてもよい。映像生成エンジン61は、上述したコンテンツ生成手段17の機能を有してもよく、TVMLプレーヤーとしての機能を有していてもよい。   The content generation device 51 in FIG. 10 manages one or more PCs 52 as an information processing device for generating video content in advance. Each PC 52 can be identified by a network address such as an IP address. Each PC 52 has, for example, a video generation engine 61 that generates content using a single processor instead of a multiprocessor. However, the present invention is not limited to this. For example, each PC 52 includes a multiprocessor (a plurality of videos). Generation engine). The video generation engine 61 may have the function of the content generation unit 17 described above or may have a function as a TVML player.

コンテンツ生成装置51は、上述したコンテンツ生成装置10と同様に、スクリプト担当割り当て手段14により、使用するPC52の数と、どのPC52に対してどのスクリプトを担当させ、どの順序で合成するか等の情報を割り当てる。スクリプト生成手段15は、スクリプト担当割り当て手段14により割り当てられた内容に基づいてスクリプトを生成し、遅延調整手段16により調整された遅延時間(ディレイ量)に基づいて時間をずらして、通信手段18から同一のスクリプトを使用するPC52に送信する。このとき、通信手段18は、各PC52が担当する映像コンテンツを生成させると共に、他のPCで生成された生成された映像コンテンツを入力映像とし、その入力映像と、スクリプトから生成した映像コンテンツとを所定の順序で合成させる旨の指示も送信する。上述の指示は、送信するスクリプトに含まれていてもよく、また予め各PC52に送信されていてもよい。   Similar to the content generation apparatus 10 described above, the content generation apparatus 51 uses the script charge assignment unit 14 to determine the number of PCs 52 to be used, which script is assigned to which PC 52, and in which order information is combined. Assign. The script generation unit 15 generates a script based on the contents assigned by the script assigning unit 14 and shifts the time based on the delay time (delay amount) adjusted by the delay adjustment unit 16. It transmits to PC52 which uses the same script. At this time, the communication unit 18 generates the video content handled by each PC 52, sets the generated video content generated by another PC as an input video, and uses the input video and the video content generated from the script. An instruction to synthesize in a predetermined order is also transmitted. The above instruction may be included in the script to be transmitted, or may be transmitted to each PC 52 in advance.

PC52−1、PC52−2は、コンテンツ生成装置51から送信されたスクリプトファイルを通信手段62で受信し、受信したスクリプトファイルから自分が担当するスクリプトを抽出して、映像生成エンジン61により映像生成を行う。   The PC 52-1 and PC 52-2 receive the script file transmitted from the content generation device 51 by the communication unit 62, extract the script in charge from the received script file, and generate the video by the video generation engine 61. Do.

例えば、PC52−1により得られる出力映像40−1は、通信手段62により通信ネットワーク53を介してアドレス2のPC52−2に背景映像として入力される。なお、この場合には、例えば映像のエンコードやデコード処理等を含んでいてもよく、また通信ネットワーク53ではなく映像信号を送信する専用の回線(映像ライン)で送信してもよい。PC52−2は、入力した背景映像と、スクリプトから自ら生成した映像40−2とを合成して、最終的な映像コンテンツ41を出力する。   For example, the output video 40-1 obtained by the PC 52-1 is input as a background video to the PC 52-2 at address 2 by the communication means 62 via the communication network 53. In this case, for example, video encoding or decoding processing may be included, and transmission may be performed not by the communication network 53 but by a dedicated line (video line) for transmitting a video signal. The PC 52-2 synthesizes the input background video and the video 40-2 generated by itself from the script, and outputs the final video content 41.

<コンテンツ生成システムの応用例>
図11は、コンテンツ生成システムの応用例を示す図である。図11に示すコンテンツ生成システム70は、上述したコンテンツ生成装置51と、テレビ装置71と、モバイル端末72とを有している。コンテンツ生成装置51と、テレビ装置71と、モバイル端末72とは、例えばインターネットやLAN等の通信ネットワーク53によりデータの送受信が可能な状態で接続されている。
<Application example of content generation system>
FIG. 11 is a diagram illustrating an application example of the content generation system. A content generation system 70 illustrated in FIG. 11 includes the above-described content generation device 51, a television device 71, and a mobile terminal 72. The content generation device 51, the television device 71, and the mobile terminal 72 are connected in a state where data can be transmitted and received through a communication network 53 such as the Internet or a LAN.

テレビ装置71には、上述した映像生成エンジン61と、通信手段62とを有し、更に映像生成エンジン61により生成された映像コンテンツを画面に表示する表示手段81を有している。   The television apparatus 71 includes the video generation engine 61 and the communication unit 62 described above, and further includes a display unit 81 that displays video content generated by the video generation engine 61 on a screen.

また、モバイル端末72は、上述した映像生成エンジン61と、通信手段62と、表示手段81とを有し、更にテレビ装置71の表示手段81の画面に表示されているコンテンツを撮影するカメラ(撮像手段)82を有している。   In addition, the mobile terminal 72 includes the video generation engine 61, the communication unit 62, and the display unit 81 described above, and further, a camera (imaging) that captures content displayed on the screen of the display unit 81 of the television device 71. Means) 82.

図11に示すコンテンツ生成システムでは、例えばテレビ装置71の表示画面をモバイル端末72に内蔵されたカメラ82を通して撮影し、撮影した映像コンテンツを含む撮影画像全体をメインコンテンツとして取得する。更に、モバイル端末72は、そのメインコンテンツを背景映像として、通信ネットワーク53によりコンテンツ生成装置51から受信したスクリプトから自ら生成した映像(サブコンテンツ)83とを同期させて合成することができる。これにより、例えばモバイル端末72の表示手段81において、例えばキャラクタが撮影したテレビ装置71の表示画面から飛び出すような娯楽性のある映像を提供することができる。   In the content generation system shown in FIG. 11, for example, the display screen of the television apparatus 71 is photographed through a camera 82 built in the mobile terminal 72, and the entire photographed image including the photographed video content is acquired as the main content. Further, the mobile terminal 72 can synthesize the video (sub-content) 83 generated by itself from the script received from the content generation device 51 via the communication network 53 in synchronization with the main content as the background video. Thereby, for example, the display means 81 of the mobile terminal 72 can provide an entertaining video that pops out of the display screen of the television device 71 taken by the character, for example.

この場合、図11に示すコンテンツ生成装置51は、カメラワークやCGの生成空間の指定(クリッピングプレーン)等を行うことが好ましい。また、コンテンツ生成装置51は、同一のCGキャラクタについての制御スクリプトをテレビ装置71及びモバイル端末72に送信する。   In this case, it is preferable that the content generation apparatus 51 shown in FIG. 11 performs specification of a camera work, a CG generation space (clipping plane), and the like. In addition, the content generation device 51 transmits a control script for the same CG character to the television device 71 and the mobile terminal 72.

本実施形態により、簡単な構成で多くのキャラクタを表示可能となる。また、CGキャラクタが画面から飛び出すといった娯楽性のある映像コンテンツを提供することができる。なお、上述した実施形態は、各実施形態の一部又は全部を組み合わせて実施することができる。また、スクリプトは、TVMLスクリプト以外のスクリプトを用いてもよい。   According to this embodiment, many characters can be displayed with a simple configuration. In addition, it is possible to provide entertaining video content in which a CG character jumps out of the screen. The above-described embodiments can be implemented by combining some or all of the embodiments. The script may be a script other than the TVML script.

<実行プログラム(コンテンツ生成プログラム)>
ここで、上述したコンテンツ生成装置10,51は、例えばCPU、RAM(Random Access Memory)等の揮発性の記憶媒体、ROM(Read Only Memory)等の不揮発性の記憶媒体、マウスやキーボード、ポインティングデバイス等の入力装置、画像やデータを表示する表示部、並びに外部と通信するためのインタフェースを備えたコンピュータによって構成することができる。
<Execution program (content generation program)>
Here, the content generation apparatuses 10 and 51 described above include, for example, a CPU, a volatile storage medium such as a RAM (Random Access Memory), a non-volatile storage medium such as a ROM (Read Only Memory), a mouse, a keyboard, and a pointing device. The computer can include an input device such as a display unit for displaying images and data, and an interface for communicating with the outside.

したがって、コンテンツ生成装置10,51が有する各機能は、これらの機能を記述したプログラム(コンテンツ生成プログラム)をCPUに実行させることによりそれぞれ実現可能となる。また、このプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。   Accordingly, the functions of the content generation apparatuses 10 and 51 can be realized by causing the CPU to execute a program (content generation program) describing these functions. The program can also be stored and distributed on a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

つまり、本実施形態では、上述した各構成における処理をコンピュータ(ハードウェア)に実行させるための実行プログラム(コンテンツ生成プログラム)を生成し、例えば汎用のPCやサーバ等にそのプログラムをインストールすることにより、上述したハードウェアと、プログラム等からなるソフトウェアとを協働させて上述したコンテンツ生成処理を実現することができる。   In other words, in the present embodiment, an execution program (content generation program) for causing a computer (hardware) to execute the processing in each configuration described above is generated, and the program is installed in, for example, a general-purpose PC or server. The content generation processing described above can be realized by cooperating the hardware described above and software including a program or the like.

上述したように本発明によれば、CGオブジェクトの複雑さや数に対応させて簡便かつリアルタイムにコンテンツを生成することができる。具体的には、本実施形態では、簡単な構成で1つの画面に多くのキャラクタ等のCGオブジェクトを登場させることができる。また、映像生成エンジンの数が増減しても柔軟に対応することができる。CGキャラクタの複雑さや表示するキャラクタの数により必要な映像生成部の数も変わってくるが、映像生成部の機能は同じでよく、追加や削除が容易である。また、本実施形態では、それぞれの映像生成部が担当する素材は、意味のあるまとまりとなっており、精緻な表示タイミングを必要としない。   As described above, according to the present invention, content can be generated easily and in real time according to the complexity and number of CG objects. Specifically, in this embodiment, CG objects such as many characters can appear on one screen with a simple configuration. Further, even if the number of video generation engines increases or decreases, it can be flexibly handled. The number of video generation units required varies depending on the complexity of the CG character and the number of characters to be displayed, but the functions of the video generation units may be the same and can be easily added or deleted. Further, in the present embodiment, the materials handled by the respective video generation units are meaningful groups and do not require precise display timing.

以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10,51 コンテンツ生成装置
11 入力手段
12 出力手段
13 記憶手段
14 スクリプト担当割り当て手段
15 スクリプト生成手段
16 遅延調整手段
17 コンテンツ生成手段
18,62 通信手段
19 制御手段
20,61 映像生成エンジン
30 CGキャラクタ
40 映像
41 映像コンテンツ
50,70 コンテンツ生成システム
52 PC
53 通信ネットワーク
81 表示手段
82 カメラ(撮像手段)
DESCRIPTION OF SYMBOLS 10,51 Content production | generation apparatus 11 Input means 12 Output means 13 Storage means 14 Script assigning means 15 Script generation means 16 Delay adjustment means 17 Content generation means 18,62 Communication means 19 Control means 20,61 Video production engine 30 CG character 40 Video 41 Video content 50, 70 Content generation system 52 PC
53 Communication network 81 Display means 82 Camera (imaging means)

Claims (6)

1又は複数のCGオブジェクトを有する映像コンテンツを生成するコンテンツ生成装置において、
生成する前記映像コンテンツに含まれるCGオブジェクトの種類及び数に基づいて、スクリプトから前記映像コンテンツを生成する映像生成エンジンの数を割り当て、割り当てた映像生成エンジン毎に、担当するスクリプトを割り当てるスクリプト担当割り当て手段と、
前記映像コンテンツを生成するための前記スクリプトを生成するスクリプト生成手段と、
前記スクリプト生成手段により生成されたスクリプトを用いて、前記スクリプト担当割り当て手段により割り当てられた前記映像生成エンジンにより、それぞれが担当する映像コンテンツを生成すると共に、他の映像生成エンジンで生成された映像コンテンツを入力映像とし、該入力映像と前記スクリプトから生成した映像コンテンツとを合成するコンテンツ生成手段とを有することを特徴とするコンテンツ生成装置。
In a content generation device that generates video content having one or more CG objects,
Based on the type and number of CG objects included in the video content to be generated, the number of video generation engines that generate the video content is assigned from a script, and a script assignment that assigns a script for each assigned video generation engine Means,
Script generating means for generating the script for generating the video content;
Using the script generated by the script generation means, the video generation engine assigned by the script charge assignment means generates the video content each of which is in charge, and the video content generated by another video generation engine And a content generation means for synthesizing the input video and video content generated from the script.
前記コンテンツ生成手段により得られる映像コンテンツから、前記映像生成エンジン毎に生成される映像コンテンツの合成時の遅延時間を取得し、取得した遅延時間に基づいて、前記スクリプト生成手段から各映像生成エンジンに前記スクリプトを送信するタイミングを調整する遅延調整手段を有することを特徴とする請求項1に記載のコンテンツ生成装置。   From the video content obtained by the content generation means, a delay time at the time of synthesizing the video content generated for each video generation engine is acquired, and based on the acquired delay time, the script generation means sends each video generation engine The content generation apparatus according to claim 1, further comprising a delay adjustment unit that adjusts a timing at which the script is transmitted. 前記スクリプト生成手段は、前記映像生成エンジンに対して同一のスクリプトを出力し、
前記コンテンツ生成手段は、前記スクリプトから前記映像生成エンジン毎に割り当てられたスクリプトのみを抽出し、抽出したスクリプトを用いて担当する映像コンテンツを生成することを特徴とする請求項1又は2に記載のコンテンツ生成装置。
The script generation means outputs the same script to the video generation engine,
The content generation unit extracts only a script assigned to each video generation engine from the script, and generates video content in charge using the extracted script. Content generation device.
通信ネットワークを介して接続される映像生成エンジンを有する情報処理装置を用いて、1又は複数のCGオブジェクトを有する映像コンテンツを生成するコンテンツ生成装置において、
生成する前記映像コンテンツに含まれるCGオブジェクトの種類及び数に基づいて、スクリプトを送信する前記情報処理装置の数を割り当て、割り当てた情報処理装置毎に、担当するスクリプトを割り当てるスクリプト担当割り当て手段と、
前記映像コンテンツを生成するための前記スクリプトを生成するスクリプト生成手段と、
前記スクリプト生成手段により生成されたスクリプトを前記スクリプト担当割り当て手段により割り当てられた情報処理装置に送信し、各情報処理装置が担当する映像コンテンツを生成させると共に、他の映像生成エンジンで生成された映像コンテンツを入力映像とし、該入力映像と前記スクリプトから生成した映像コンテンツとを合成させる指示を送信する通信手段とを有することを特徴とするコンテンツ生成装置。
In a content generation apparatus that generates video content having one or a plurality of CG objects using an information processing apparatus having a video generation engine connected via a communication network.
Script assignment assigning means for assigning the number of information processing devices to which a script is transmitted based on the type and number of CG objects included in the video content to be generated, and assigning a script in charge for each assigned information processing device;
Script generating means for generating the script for generating the video content;
The script generated by the script generation means is transmitted to the information processing apparatus assigned by the script charge assignment means, and the video content assigned to each information processing apparatus is generated, and the video generated by another video generation engine A content generation apparatus comprising: communication means for transmitting content as an input video and an instruction to synthesize the video content generated from the input video and the script.
前記スクリプト担当割り当て手段により割り当てられた情報処理装置により得られる映像コンテンツから、前記映像コンテンツの合成時の遅延時間を取得し、取得した遅延時間に基づいて、前記通信手段から前記情報処理装置に前記スクリプトを送信するタイミングを調整する遅延調整手段を有することを特徴とする請求項4に記載のコンテンツ生成装置。   From the video content obtained by the information processing apparatus assigned by the script charge assignment means, a delay time at the time of synthesis of the video content is acquired, and based on the acquired delay time, the communication means sends the information processing apparatus to the information processing apparatus. The content generation apparatus according to claim 4, further comprising a delay adjustment unit that adjusts a timing for transmitting the script. コンピュータを、
請求項1乃至5の何れか1項に記載のコンテンツ生成装置が有する各手段として機能させるためのコンテンツ生成プログラム。
Computer
A content generation program for causing a content generation apparatus according to any one of claims 1 to 5 to function as each unit.
JP2013195734A 2013-09-20 2013-09-20 Content generation apparatus and content generation program Expired - Fee Related JP6285676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013195734A JP6285676B2 (en) 2013-09-20 2013-09-20 Content generation apparatus and content generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013195734A JP6285676B2 (en) 2013-09-20 2013-09-20 Content generation apparatus and content generation program

Publications (2)

Publication Number Publication Date
JP2015060539A true JP2015060539A (en) 2015-03-30
JP6285676B2 JP6285676B2 (en) 2018-02-28

Family

ID=52817974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013195734A Expired - Fee Related JP6285676B2 (en) 2013-09-20 2013-09-20 Content generation apparatus and content generation program

Country Status (1)

Country Link
JP (1) JP6285676B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011119869A (en) * 2009-12-01 2011-06-16 Nippon Hoso Kyokai <Nhk> Program production system and program production program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011119869A (en) * 2009-12-01 2011-06-16 Nippon Hoso Kyokai <Nhk> Program production system and program production program

Also Published As

Publication number Publication date
JP6285676B2 (en) 2018-02-28

Similar Documents

Publication Publication Date Title
JP6317854B2 (en) Virtual three-dimensional space generation method, video system, control method thereof, and recording medium readable by computer device
US9253440B2 (en) Augmenting a video conference
CN113240782B (en) Streaming media generation method and device based on virtual roles
US9310882B2 (en) Book object for augmented reality
US9839854B2 (en) Built-in support of in-game virtual split screens with peer-to peer-video conferencing
EP3573026B1 (en) Information processing apparatus, information processing method, and program
JP2015184689A (en) Moving image generation device and program
US10359988B2 (en) Shared experience of virtual environments
JP2013099511A (en) Rendering system, rendering server, control method thereof, program, and recording medium
WO2019114328A1 (en) Augmented reality-based video processing method and device thereof
CN105938541B (en) System and method for enhancing live performances with digital content
KR20150105058A (en) Mixed reality type virtual performance system using online
US20220207812A1 (en) Generating personalized videos with customized text messages
US20220237848A1 (en) Image processing method and apparatus, electronic device, and storage medium
US9979766B2 (en) System and method for reproducing source information
JP2001160154A (en) Avatar display device in virtual space communication system, avatar displaying method and storage medium
JP2023169282A (en) Computer program, server device, terminal device, and method
JP2017111719A (en) Video processing device, video processing method and video processing program
JP2014220572A (en) Content distribution system, distribution device, reception terminal, distribution program, and reception program
JP6285676B2 (en) Content generation apparatus and content generation program
KR102404130B1 (en) Device for transmitting tele-presence image, device for receiving tele-presence image and system for providing tele-presence image
KR20150105157A (en) On-line virtual stage system for the performance service of mixed-reality type
WO2023012976A1 (en) Video processing device, video processing method and program
JP5111422B2 (en) Content production system and content production program
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180202

R150 Certificate of patent or registration of utility model

Ref document number: 6285676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees