JP4917917B2 - Content generation apparatus and content generation program - Google Patents

Content generation apparatus and content generation program Download PDF

Info

Publication number
JP4917917B2
JP4917917B2 JP2007051560A JP2007051560A JP4917917B2 JP 4917917 B2 JP4917917 B2 JP 4917917B2 JP 2007051560 A JP2007051560 A JP 2007051560A JP 2007051560 A JP2007051560 A JP 2007051560A JP 4917917 B2 JP4917917 B2 JP 4917917B2
Authority
JP
Japan
Prior art keywords
content
script
program
motion
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007051560A
Other languages
Japanese (ja)
Other versions
JP2008217226A (en
Inventor
浩之 金子
斉周 浜口
誠喜 井上
守 道家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2007051560A priority Critical patent/JP4917917B2/en
Publication of JP2008217226A publication Critical patent/JP2008217226A/en
Application granted granted Critical
Publication of JP4917917B2 publication Critical patent/JP4917917B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、コンテンツ生成装置及びコンテンツ生成プログラムに係り、特に、演出条件に応じて適切なモーションデータを含むコンテンツを効率的に生成するためのコンテンツ生成装置及びコンテンツ生成プログラムに関する。   The present invention relates to a content generation device and a content generation program, and more particularly, to a content generation device and a content generation program for efficiently generating content including appropriate motion data according to performance conditions.

従来より、ニュースやスポーツ等の情報提供番組等の映像コンテンツを映像コンテンツ制作者が制作する際に、映像を生成する前に所定の記述様式により予め台本を作成し、これを専用のソフトウェア等に入力することで、台本に従ったCG(Computer Graphics)キャラクタ等の仮想物体の仮想空間上の動作やカメラワークを行う映像を生成することが可能な仕組みが存在している(例えば、特許文献1参照。)。   Conventionally, when video content creators produce video content such as news and sports information-providing programs, a script is created in advance in a predetermined description format before the video is generated, and this is made into dedicated software, etc. There is a mechanism capable of generating a video for performing a motion or camera work of a virtual object such as a computer graphics (CG) character or the like in accordance with a script by inputting it (for example, Patent Document 1). reference.).

なお、上述した特許文献1に示されている技術では、TVML(TV program Marking Language)を用いて番組の制作を行っている。ここで、TVMLとは、テレビ番組を制作するためのオブジェクトベース記述言語である。TVMLは、テレビ番組の映像と音声を、素材と台本(演出内容)とに分けて記述するものであり、番組台本を記述すれば、パソコン等で動作するソフトウェア等がこれを読取り、即座にテレビ番組として視聴(提示)することができるものである。   In the technology disclosed in Patent Document 1 described above, a program is produced using TVML (TV program Marking Language). Here, TVML is an object-based description language for producing a television program. TVML describes the video and audio of a TV program divided into materials and scripts (production contents). If a program script is described, software that runs on a personal computer or the like reads it and immediately reads the TV program. It can be viewed (presented) as a program.

また、TVMLを用いた番組制作では、制作者側で制作された番組の台本や、その台本に記述される番組制作エンジン(APE:Automatic Production Engine)、制作した番組に用いられる素材データ等を用いて番組を制作する。ここで、上述した番組制作エンジンとは、番組に登場する番組司会者や出演者等のCGキャラクタや番組における1つの動作の単位で「タイトル表示」、「ズームイン」、「CGキャラクタの動作」等のイベントが予め定義されたものであり、この番組制作エンジンを用いることにより、ニュースやバラエティ、スポーツ、ドラマ等の所定のジャンルの番組制作を効率的に実現することができる。   Also, in program production using TVML, a script of a program produced by the producer, a program production engine (APE: Automatic Production Engine) described in the script, material data used for the produced program, and the like are used. To produce a program. Here, the above-mentioned program production engine is a CG character such as a program presenter or a performer appearing in a program, or one operation unit in a program, such as “title display”, “zoom-in”, “CG character operation”, etc. These events are predefined, and by using this program production engine, it is possible to efficiently realize program production of a predetermined genre such as news, variety, sports, drama and the like.

また従来では、例えば番組等のコンテンツについて、CGキャラクタ等を動作させる場合に、例えばBVHファイル形式のモーションデータファイルを使用したものが知られている(例えば、特許文献2,3参照。)。   Conventionally, for example, when a CG character or the like is operated on content such as a program, for example, a BVH file format motion data file is used (see, for example, Patent Documents 2 and 3).

ここで、モーションデータファイルとは、例えばCGキャラクタの仮想空間上の動作情報を扱うファイルであり、実際に人体等の動作を計測して作成したデータであるため、CGキャラクタの自然な動作を可能とする。モーションデータファイルには、データの総フレーム数とフレームあたりの時間長の記述、及び動作中の各関節の回転角度が時系列に記述されている。なお、上述したTVMLでは、BVHファイルフォーマットに対応している。
特開2005−318254号公報 特開平07−239949号公報 特開2001−087543公報
Here, the motion data file is a file that handles, for example, motion information in the virtual space of the CG character, and is data created by actually measuring the motion of the human body and the like, so that the natural motion of the CG character is possible. And In the motion data file, the total number of frames of data, the description of the time length per frame, and the rotation angle of each joint in motion are described in time series. Note that the TVML described above supports the BVH file format.
JP 2005-318254 A Japanese Patent Application Laid-Open No. 07-239949 JP 2001-087543 A

しかしながら、上述した従来技術の場合、番組等のコンテンツを制作する際に、BVHファイル形式のモーションデータを使用することは可能であったが、その場合には番組制作時に人手によりモーションを実行するスクリプトをその都度記述する必要があった。また、番組の進行状況やコメント内容に従ってモーションデータを動的に選択し、番組に適応させることは実現できていなかった。   However, in the case of the above-described prior art, it was possible to use motion data in the BVH file format when producing content such as a program. In this case, a script for manually executing motion at the time of program production Needed to be written each time. In addition, it has not been possible to dynamically select motion data according to the progress of the program and the content of comments and adapt it to the program.

また、従来技術では、ユーザの操作に従って現在の姿勢を判別し、モーションを付加する技術は存在しているが、番組型コンテンツの進行状況やCGキャラクタのコメント内容に応じてCGキャラクタに動作を付加する技術は存在していなかった。また、番組制作時のCGキャラクタ動作に関する記述は人手で行うしかなく、作業に手間がかかっていた。   In the prior art, there is a technique for determining the current posture according to the user's operation and adding a motion. However, an action is added to the CG character according to the progress of the program type content and the comment content of the CG character. There was no technology to do that. In addition, the description about the CG character operation at the time of program production must be done manually, and it takes time and effort.

更に、TVML番組の出演者であるCGキャラクタの動作は、予め番組制作エンジン等で定義された動作「相手を見る」や「お辞儀をする」等を台本に記述することで実現しているが、標準で定義されている動作は限られており、また、その都度台本への記述が必要となるため、実際のテレビ番組の出演者のような、身振り手振りを交えた細かい動作を実現することは困難であった。   Furthermore, the operation of the CG character who is a performer of the TVML program is realized by describing in the script the actions “see the other party” and “bow” that are defined in advance by the program production engine or the like. The actions defined by the standard are limited, and it is necessary to describe the script each time, so it is not possible to realize detailed actions with gestures, such as the actual TV program performers. It was difficult.

本発明は、上述した問題点に鑑みなされたものであり、演出条件に応じて適切なモーションデータを含むコンテンツを効率的に生成するためのコンテンツ生成装置及びコンテンツ生成プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a content generation apparatus and a content generation program for efficiently generating content including appropriate motion data according to the rendering conditions. To do.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、仮想空間上に存在するキャラクタの所定の動作を表すモーションデータを含んだコンテンツを生成するコンテンツ生成装置において、前記コンテンツに対する演出内容と、前記モーションデータとを関連付けるための演出条件を設定する演出設定手段と、予め生成されたコンテンツのスクリプトデータを読み込み、読み込んだ前記スクリプトデータに含まれる演出内容から、前記演出設定手段により設定された前記演出条件に適合するスクリプトが存在するか否かを判定する判定手段と、前記判定手段により前記演出条件に適合したスクリプトに対して、前記演出設定手段により設定された前記キャラクタに対するモーションデータを追加又は置換するモーションデータ編集手段とを有し、前記モーションデータ編集手段は、前記追加又は置換するモーションの動作開始及び終了時に前記キャラクタが同一の姿勢になるように設定することを特徴とする。 According to the first aspect of the present invention, in the content generation device that generates content including motion data representing a predetermined motion of a character existing in a virtual space, the contents for the content are associated with the motion data. a presentation setting means for setting the effect condition for read script data in advance generated content, from the performance content included in the script data read, the script conforms to the presentation conditions set by the rendering setup means Determining means for determining whether or not there exists, and motion data editing means for adding or replacing motion data for the character set by the effect setting means to the script adapted to the effect condition by the determining means have a door, the motion data Editing means, characterized in that the character at the time of the addition or the operation start and end of the motion to be replaced is set to be the same posture.

請求項1記載の発明によれば、演出条件に応じて適切なモーションデータを含むコンテンツを効率的に生成することができる。また、モーションデータを追加又は置換した場合でもCGキャラクタの一連の動きに違和感がないコンテンツを提供することができる。 According to the first aspect of the present invention, it is possible to efficiently generate content including appropriate motion data according to the production conditions. Moreover, even when motion data is added or replaced, it is possible to provide content that does not give a sense of incongruity to a series of movements of the CG character.

請求項2に記載された発明は、前記スクリプトデータの記述内容を所定単位毎に解析して、前記キャラクタの動作に関するデータの有無を判断する記述内容解析手段を有することを特徴とする。   According to a second aspect of the present invention, there is provided a description content analyzing means for analyzing the description content of the script data for each predetermined unit and determining the presence / absence of data relating to the action of the character.

請求項2記載の発明によれば、スクリプトデータの記述内容を所定単位毎に解析してキャラクタの動作に関するデータ部分のみを予め抽出しておき、その内容から演出条件に適合するか否かの判定を行うことにより、効率的に適合処理を行うことができる。   According to the second aspect of the present invention, the description content of the script data is analyzed for each predetermined unit, and only the data portion relating to the action of the character is extracted in advance, and it is determined whether or not the performance condition is satisfied from the content. By performing the process, the adaptation process can be performed efficiently.

請求項に記載された発明は、前記モーションデータ編集手段は、新たに追加又は置換される複数のモーションデータを1つのモーションデータとして前記スクリプトに追加又は置換することを特徴とする。 The invention described in claim 3 is characterized in that the motion data editing means adds or replaces a plurality of newly added or replaced motion data as one motion data to the script.

請求項記載の発明によれば、複数のモーションを1つの新たなモーションとして設定することで、キャラクタに対する複数のモーションを一度に設定することができるため、効率的にコンテンツを生成することができる。 According to the invention described in claim 3 , since a plurality of motions for a character can be set at a time by setting a plurality of motions as one new motion, content can be generated efficiently. .

請求項に記載された発明は、前記演出設定手段は、前記キャラクタの動作に対応する少なくとも1つからなる演出条件と、前記演出条件に対応するモーションデータとして、モーションファイル名又はURLを設定することを特徴とする。 In the invention described in claim 4 , the effect setting means sets a motion file name or URL as at least one effect condition corresponding to the action of the character and motion data corresponding to the effect condition. It is characterized by that.

請求項記載の発明によれば、モーションファイル名やURL等を指定することにより、容易にモーションの設定を行うことができる。更に、URLを指定することで更新作業が必要なく、常に最新のモーションを取得してキャラクタに動作させることができる。 According to the fourth aspect of the present invention, it is possible to easily set a motion by designating a motion file name, URL or the like. Furthermore, by specifying the URL, no update work is required, and the character can be always moved by obtaining the latest motion.

請求項に記載された発明は、コンピュータを、請求項1乃至4の何れか1項に記載のコンテンツ生成装置が有する各手段として機能させるためのコンテンツ生成プログラムであるThe invention described in claim 5 is a content generation program for causing a computer to function as each unit included in the content generation apparatus according to any one of claims 1 to 4 .

請求項記載の発明によれば、演出条件に応じて適切なモーションデータを含むコンテンツを効率的に生成することができる。また、モーションデータを追加又は置換した場合でもCGキャラクタの一連の動きに違和感がないコンテンツを提供することができる。また、実行プログラムをコンピュータにインストールすることにより、容易にコンテンツの生成を実現することができる。 According to invention of Claim 5, the content containing suitable motion data can be produced | generated efficiently according to production conditions. Moreover, even when motion data is added or replaced, it is possible to provide content that does not give a sense of incongruity to a series of movements of the CG character. In addition, content can be easily generated by installing an execution program in a computer.

本発明によれば、演出条件に応じて適切なモーションデータを含むコンテンツを効率的に生成することができる。   According to the present invention, it is possible to efficiently generate content including appropriate motion data according to performance conditions.

<本発明の概要>
本発明では、例えばコンテンツの演出(例えば、進行状況等)とコンテンツに含まれる1又は複数のキャラクタ等の仮想物体の仮想空間上のモーションデータとを関連付ける演出ルール(演出条件)を設定する。つまり、事前に設定される演出ルールに従い、コンテンツの進行内容に応じてコンテンツの適切な箇所に、適切なモーションを実行するスクリプトを記述することにより、効率的なコンテンツの生成を実現する。
<Outline of the present invention>
In the present invention, for example, an effect rule (effect condition) for associating a content effect (for example, progress status) and motion data in a virtual space of a virtual object such as one or more characters included in the content is set. That is, according to the production rules set in advance, efficient content generation is realized by writing a script for executing an appropriate motion at an appropriate location of the content according to the progress of the content.

以下に、上述したような特徴を有する本発明におけるコンテンツ生成装置及びコンテンツ生成プログラムを好適に実施した形態について、図面を用いて詳細に説明する。   Hereinafter, a preferred embodiment of a content generation device and a content generation program according to the present invention having the above-described features will be described in detail with reference to the drawings.

なお、本実施形態では、コンテンツの一例として番組を用いる。更に、本実施形態では、番組の生成や提示等に用いられるスクリプトの一例として、TVMLを用いる。なお、本発明は、TVMLに限定されるものではなく、TVML以外の表現形式を用いてもよい。   In the present embodiment, a program is used as an example of content. Furthermore, in this embodiment, TVML is used as an example of a script used for program generation or presentation. The present invention is not limited to TVML, and an expression format other than TVML may be used.

<コンテンツ生成装置:機能構成例>
図1は、コンテンツ生成装置の一構成例を示す図である。図1に示すコンテンツ生成装置10は、入力手段11と、出力手段12と、蓄積手段13と、演出設定手段14と、記述内容解析手段15と、進行状況判定手段16と、モーションデータ編集手段17と、再生手段18と、送受信手段19と、制御手段20とを有するよう構成されている。
<Content generation device: functional configuration example>
FIG. 1 is a diagram illustrating a configuration example of a content generation apparatus. The content generation apparatus 10 shown in FIG. 1 includes an input unit 11, an output unit 12, a storage unit 13, an effect setting unit 14, a description content analysis unit 15, a progress situation determination unit 16, and a motion data editing unit 17. And reproduction means 18, transmission / reception means 19, and control means 20.

入力手段11は、コンテンツ生成に関する使用者や制作者等からのコンテンツ生成指示や、音楽や肉声、合成音声等の各種音声入力指示、演出ルールの設定の入力、スクリプト等の入力を受け付ける。なお、入力手段11は、例えばキーボードや、マウス等のポインティングデバイス、マイク等の音声入力デバイス等からなる。   The input unit 11 receives content generation instructions from users and producers regarding content generation, various voice input instructions such as music, real voice, and synthesized voice, input of setting of production rules, input of scripts and the like. Note that the input unit 11 includes, for example, a keyboard, a pointing device such as a mouse, a voice input device such as a microphone, and the like.

出力手段12は、入力手段11により入力された指示内容や音声、指示内容に基づいて生成されたコンテンツ、そのコンテンツに係る映像及び音声等の編集内容、設定された演出ルール等の内容を表示したり、音声等を出力する。なお、出力手段12は、ディスプレイやスピーカ等からなる。   The output means 12 displays the contents of the instruction content and sound input by the input means 11, the content generated based on the instruction content, the editing content such as video and sound related to the content, and the set production rules. Or output audio. The output unit 12 includes a display, a speaker, and the like.

蓄積手段13は、入力される音声や、コンテンツを生成するための画像や映像、音声、テキストデータ等の各種データからなる複数の素材データ、番組制作エンジン、番組の台本(スクリプト)、演出ルールの設定内容、本実施形態により生成される前及び後のコンテンツ等を蓄積する。   The storage means 13 includes a plurality of material data consisting of various data such as input voice, images and video for generating content, voice, text data, a program production engine, a program script (script), and production rules. The setting contents, contents before and after being generated according to the present embodiment, and the like are accumulated.

また、蓄積手段13は、台本に対応するTVMLスクリプト、番組制作エンジンに対応するAPEスクリプト、番組や対話シーンの生成時に使用することができる番組セットアップ用のTVMLスクリプト、番組生成データ(テンプレート)、番組に登場するキャラクタとの対話シーンを実現するための対話シーン生成データ(テンプレート)、対話応答用辞書(レスポンススクリプト)等が蓄積される。   The storage means 13 includes a TVML script corresponding to a script, an APE script corresponding to a program production engine, a TVML script for program setup that can be used when generating a program and a conversation scene, program generation data (template), a program The dialogue scene generation data (template), the dialogue response dictionary (response script), etc. for realizing the dialogue scene with the character appearing in are stored.

ここで、上述した番組セットアップ用のTVMLスクリプトとは、番組としてどのようなスタジオセット、小道具、照明、出演者(出演者同士の関係(性別、年齢、性格、職業(歌手、コメンテータ、コメディアン等)も含む)、音声を用いるか等の番組の初期設定情報が指定されたスクリプトである。また、対話応答用辞書とは、例えば視聴者からの問い合わせに対して想定される回答データが蓄積されたものである。したがって、蓄積手段13は、例えばデータベース等のように文字情報や画像情報、その他の情報の集合物であり、問い合わせの内容から蓄積された各種情報を検索することができるように体系的に構成されていてもよい。   Here, the TVML script for program setup described above is what kind of studio set, prop, lighting, performer as a program (relationships between performers (gender, age, personality, occupation (singer, commentator, comedian, etc.)) The default setting information of the program, such as whether to use audio, etc. The interactive response dictionary stores, for example, expected response data for inquiries from viewers. Accordingly, the storage means 13 is a collection of character information, image information, and other information such as a database, for example, and is structured so that various types of information stored in the inquiry can be searched. It may be configured.

なお、蓄積手段13は、上述した各種データを、送受信手段19を介してインターネットやや通信回線等に代表される通信ネットワークに接続された外部装置等から取得することもできる。   The storage unit 13 can also acquire the various data described above from the external device connected to the Internet or a communication network represented by a communication line or the like via the transmission / reception unit 19.

演出設定手段14は、番組の進行状況と、モーションデータを関連付ける演出ルールと呼ぶテンプレートを制作して演出ルールを設定する。また、演出設定手段14は、設定された演出ルールのテンプレートを蓄積手段13に出力する。   The effect setting means 14 creates a template called an effect rule that associates the progress of the program with the motion data, and sets the effect rule. The effect setting means 14 outputs the set effect rule template to the storage means 13.

つまり、演出設定手段14では、テレビ番組等で定型化されたキャラクタ等の仮想物体の仮想空間上の所定の動作に基づいて演出ルールを設定し、モーションキャプチャした動作を、設定した演出ルールに従ってTVML番組に自動的に適用させる仕組みを設ける。   In other words, the effect setting means 14 sets an effect rule based on a predetermined motion in a virtual space of a virtual object such as a character stylized in a TV program or the like, and the motion captured motion is set according to the set effect rule. Provide a mechanism to automatically apply to programs.

記述内容解析手段15は、蓄積手段13に蓄積されたTVMLスクリプトや、送受信手段19を介して通信ネットワーク等に接続された外部装置等から取得したTVMLスクリプトを読み込み、スクリプトの記述内容を解析する。   The description content analysis unit 15 reads the TVML script stored in the storage unit 13 or the TVML script acquired from the external device connected to the communication network or the like via the transmission / reception unit 19 and analyzes the description content of the script.

具体的には、記述内容解析手段15は、例えば既に制作された番組の台本ファイル(スクリプト)を文字列として入力し、入力した文字列を所定単位(例えば、1行、又は1コマンド等)毎に読み込み、そのスクリプトに記載されている内容を言語仕様に基づいて解析する。   Specifically, the description content analysis means 15 inputs, for example, a script file (script) of an already produced program as a character string, and inputs the input character string for each predetermined unit (for example, one line or one command). And analyze the contents described in the script based on the language specification.

なお、記述内容解析手段15は、所定の条件として、例えば読み込んだ行又はコマンドスクリプトがキャラクタの動作内容(キャラクタアクション)のスクリプトであるか否を判断する。なお、所定の条件となるキャラクタの動作内容の詳細については、後述する。   The description content analysis unit 15 determines, for example, whether the read line or command script is a character action content (character action) script as a predetermined condition. The details of the action content of the character that satisfies the predetermined condition will be described later.

また、進行状況判定手段16は、記述内容解析手段15により得られる1又は複数のスクリプトが、演出設定手段14により設定された演出ルールに適合しているか否かを判定する。なお、判定の具体的な内容については、後述する。また、進行状況判定手段16は、判定の結果、入力したスクリプトが演出ルールに適合している場合には、その適合した結果をモーションデータ編集手段17に出力する。   Further, the progress status determination means 16 determines whether or not one or more scripts obtained by the description content analysis means 15 are compatible with the effect rule set by the effect setting means 14. The specific contents of the determination will be described later. In addition, when the input script conforms to the effect rule as a result of the determination, the progress status determination unit 16 outputs the conformed result to the motion data editing unit 17.

なお、進行状況判定手段16は、記述内容解析手段15を介さずに既に制作された番組の台本ファイル(スクリプト)を直接読み込んで、演出ルールとの適合処理を行うこともできる。しかしながら、多くの演出ルールが設定されている場合には、進行状況判定手段16における適合処理に時間がかかるため、上述した予め記述内容解析手段15により抽出される所定の条件のスクリプトだけを用いることで、効率的に適合処理を行うことができる。   The progress status determination means 16 can also directly read a script file (script) of a program that has already been produced without going through the description content analysis means 15 and perform a matching process with the effect rule. However, when many production rules are set, the adaptation process in the progress determination means 16 takes time, so that only the script of the predetermined condition extracted by the description content analysis means 15 described above is used. Thus, the adaptation process can be performed efficiently.

モーションデータ編集手段17は、演出ルールに適合するスクリプトに対して、演出ルールのルールアクションに設定されているモーションデータファイル等を有するコマンドスクリプトを番組に追記する。   The motion data editing means 17 adds a command script having a motion data file or the like set in the rule action of the production rule to the program with respect to the script conforming to the production rule.

具体的には、モーションデータ編集手段17は、台本ファイル(スクリプト)から番組の進行状況に対応して所定の位置に上述したモーションデータファイル等を有するコマンドスクリプトを追加する。また、モーションデータ編集手段17は、既に読み込んだ台本ファイルにルールアクションが設定されている場合には、新たなルールアクションに置換する。   Specifically, the motion data editing means 17 adds a command script having the above-described motion data file or the like at a predetermined position corresponding to the progress of the program from the script file (script). The motion data editing means 17 replaces the rule action with a new rule action when the rule action is set in the script file that has already been read.

ここで、上述したモーションデータ編集を台本ファイルの最終行まで繰り返し、結果としてモーションデータファイルを含む複数の動作コマンドスクリプトを番組に追加したTVMLスクリプトが生成されることになる。   Here, the above-described motion data editing is repeated until the last line of the script file, and as a result, a TVML script in which a plurality of operation command scripts including the motion data file are added to the program is generated.

なお、モーションデータ編集手段17は、例えば複数のモーションデータを1つのモーションデータとしてスクリプトに追加又は置換することもできる。これにより、複数のモーションを1つの新たなモーションとして設定することで、キャラクタに対する複数の動作を一度に設定することができるため、効率的に番組を生成することができる。   The motion data editing unit 17 can add or replace a plurality of motion data as one motion data to the script, for example. Thus, by setting a plurality of motions as one new motion, it is possible to set a plurality of actions for the character at a time, so that a program can be generated efficiently.

再生手段18は、モーションデータ編集手段17により得られる最終的な本実施形態によるCGキャラクタの演出を含む映像TVMLスクリプトを再生する。ここで、再生手段18は、TVMLプレイヤー等の機能を有している。TVMLプレイヤーとは、TVMLで記述されたスクリプトを読み取り、番組の映像や音声をリアルタイムに出力することができるソフトウェアである。また、TVMLプレイヤーは、スタジオセットをリアルタイムCGで生成し、CGスタジオセットの中に登場する番組司会者や出演者等のCGキャラクタがTVMLスクリプト中に記述された台詞を合成音声で喋り、演技するところを表示する機能を有する。   The reproducing unit 18 reproduces the video TVML script including the final effect of the CG character according to the present embodiment obtained by the motion data editing unit 17. Here, the reproducing means 18 has a function such as a TVML player. The TVML player is software that can read a script described in TVML and output video and audio of a program in real time. In addition, the TVML player generates a studio set with real-time CG, and a CG character such as a program presenter or a performer appearing in the CG studio set speaks the speech described in the TVML script with synthesized speech and performs the performance. It has a function to display the place.

また、TVMLプレイヤーは、その他にも動画再生、文字フォント及び画像によるタイトル表示やスーパーインポーズ、オーディオデータファイル再生によるBGM再生、合成音声によるナレーション等をリアルタイムに生成し、番組の映像、音声を作成する機能を有する。再生手段18は、これらの機能を用いることで効率的で高精度な番組及び対話シーン等を再生することができる。   In addition, the TVML player also generates video and audio for programs by generating video playback, title display and superimpose with character fonts and images, BGM playback with audio data file playback, synthesized voice narration, etc. in real time. Has the function of By using these functions, the reproducing means 18 can reproduce efficient and highly accurate programs, conversation scenes, and the like.

送受信手段19は、インターネットや通信回線等に代表される通信ネットワークを介して接続される外部装置等から既存の演出ルールや台本、モーションデータ、各種スクリプト群等を受信するための通信インタフェイスである。また、送受信手段19は、本実施形態により生成されたモーションデータファイルを含む番組や、新たに設定された演出ルール等を上述の外部装置等に送信することもできる。   The transmission / reception means 19 is a communication interface for receiving existing production rules, scripts, motion data, various script groups, etc. from an external device connected via a communication network represented by the Internet or a communication line. . The transmission / reception means 19 can also transmit a program including the motion data file generated according to the present embodiment, a newly set production rule, and the like to the external device described above.

制御手段20は、コンテンツ生成装置10における各機能構成全体の制御を行う。具体的には、制御手段20は、入力手段11により入力された使用者等からの入力情報に基づいて演出設定手段14による演出ルールの設定処理をさせたり、記述内容解析手段15による記述内容の解析処理をさせたり、進行状況判定手段16による進行状況の判定処理をさせたり、モーションデータ編集手段17による台本ファイルへのモーションデータの追加及び置換等の編集処理をさせたり、再生手段18による番組の再生処理をさせる等の各処理を行う。   The control unit 20 controls the entire functional configuration in the content generation apparatus 10. Specifically, the control unit 20 causes the production rule setting process by the production setting unit 14 based on the input information from the user or the like input by the input unit 11 or the description content by the description content analysis unit 15. Analysis processing, progress determination processing by the progress determination means 16, editing processing such as addition and replacement of motion data to the script file by the motion data editing means 17, program by the playback means 18 Each process such as the reproduction process is performed.

これにより、演出条件に応じて適切なモーションデータを含むコンテンツを効率的に生成する。具体的には、本発明によれば、例えばCG番組の制作者等は、制作時にモーションコマンドの記述をする必要がなく、自動的にモーションデータを追加及び置換することにより台本ファイルを編集することができる。また、本発明によれば、番組の進行状況やコメント内容等の演出ルールに応じたCGキャラクタの適切な動作を実現することができる。   Thereby, the content containing suitable motion data is efficiently produced | generated according to production conditions. Specifically, according to the present invention, for example, a CG program producer does not need to describe a motion command at the time of production, and edits a script file by automatically adding and replacing motion data. Can do. Further, according to the present invention, it is possible to realize an appropriate operation of the CG character according to the production rules such as the progress of the program and the comment content.

<キャラクタの動作内容>
ここで、表現可能なCGキャラクタの動作例について説明する。図2は、表現可能なCGキャラクタの動作の一例を示す図である。CGキャラクタを動作させる場合、例えば図2に示すように「カメラ目線」、「前を向く」、「相手を見る」等の動作を表現することができる。
<Character content>
Here, an example of the operation of a CG character that can be expressed will be described. FIG. 2 is a diagram illustrating an example of an action of an expressible CG character. When the CG character is moved, for example, as shown in FIG. 2, actions such as “looking at the camera”, “facing front”, and “looking at the other party” can be expressed.

また、TVMLでは、BVHフォーマットによるモーションデータファイルを利用することが可能である。なお、モーションデータファイルは、現在web(ウェブ)上の多数のアーカイブで公開されており、他分野への再利用や有効活用方法が検討されている。そこで、本発明では定型化された動作をモーションキャプチャし、作成したモーションデータを後述する演出ルールに従ってTVML番組へ適用させている。   In TVML, a motion data file in the BVH format can be used. The motion data file is currently published in a number of archives on the web (web), and reuse and effective utilization methods for other fields are being studied. Therefore, in the present invention, the stylized operation is motion-captured, and the created motion data is applied to the TVML program according to the production rules described later.

<演出設定:ルールアクション>
次に、演出設定手段14における演出ルールの設定処理例について説明する。なお、本実施形態では、キャラクタの一例として人間の自然な動作をTVMLで実現する場合について以下に説明する。
<Direction setting: Rule action>
Next, an example of setting processing of the effect rule in the effect setting means 14 will be described. In the present embodiment, a case where a natural human action is realized by TVML as an example of a character will be described below.

まず実際に放送されたテレビ番組を調査すると、人間の動作はテレビ番組の種類毎に大きく異なるため、本実施形態では人間の立ち位置の変化が少なく、定型化された動作を多用しているニュースや情報提供番組を対象として、ルールアクションを設定する。図3は、本実施形態におけるルールアクションの一例を示す例である。   First, when the actually broadcasted TV program is investigated, since human actions vary greatly depending on the type of TV program, in this embodiment there is little change in human standing position, and news that uses a lot of standardized actions Set rule actions for information programs. FIG. 3 is an example showing an example of the rule action in the present embodiment.

なお、図3には、各演出ルールのルール条件に適合した場合のルールアクションとしてのキャラクタの動作内容と、その動作を行う予め設定されたモーション名(BVHファイル)の例が示されている。図3に示すように、設定される演出ルールとして、例えば「次の話題に移る際に原稿に目を落とす(genko.bvh)」、「写真を表示したら写真を見る(look_image.bvh)」等の設定を行うことができる。   FIG. 3 shows an example of the action content of the character as a rule action when the rule condition of each effect rule is met, and a preset motion name (BVH file) for performing the action. As shown in FIG. 3, as the production rules to be set, for example, “Look at the manuscript when moving to the next topic (genko.bvh)”, “View the photo when displaying the photo (look_image.bvh)”, etc. Can be set.

ここで、TVMLでは、上述したBiovisionの“.BVH(Bio Vision Hierarchy)”ファイルフォーマットに対応しているが、本発明においてはこの限りではなく、例えばAcclaimの“.ASF/.AMC”、Motion Analysisの“.HTR”(Hierarchical Translation−Rotation)等のファイルフォーマットを利用することができる。また、モーションデータファイルには、データの総フレーム数とフレームあたりの時間長の記述、及び動作中の各関節の回転角度等が時系列に記述されている。   Here, TVML corresponds to the above-mentioned “.BVH (BioVision Hierarchy)” file format of Biovision, but is not limited to this in the present invention. For example, “.ASF / .AMC” of Acclaim, Motion Analysis A file format such as “.HTR” (Hierarchical Translation-Rotation) can be used. In the motion data file, a description of the total number of frames of data and a time length per frame, a rotation angle of each joint in operation, and the like are described in time series.

また、モーションデータファイルには、キャラクタの各関節に関する各付属部品のポリゴンユニット毎に相対座標データ、角度データ及びその各部品の所定の中心と基本部品の中心間の距離データ、及び連結関係のデータ等が記述されていてもよい。つまり、モーションデータファイルの記述内容を用いて、キャラクタを所定時間において、各関節を基準に回転させ、スムーズな動作を実現することができる。   The motion data file also includes relative coordinate data, angle data, distance data between a predetermined center of each part and the center of the basic part, and connection relation data for each polygon unit of each accessory part relating to each joint of the character. Etc. may be described. That is, using the description content of the motion data file, the character can be rotated with respect to each joint for a predetermined time to realize a smooth operation.

なお、各モーションデータファイルは、上述したように送受信手段19を介して通信ネットワーク等に接続される外部装置等によりweb(ウェブ)等に公開している各モーションライブラリ(例えば、http://mocapdata.com/?&l=ja(株式会社Eyes,JAPAN(BVH形式等))、http://mocap.cs.cmu.edu/(カーネギーメロン大(asf−amc形式等)))から取得することができる。   As described above, each motion data file is stored in each motion library (for example, http: // mocapdata) published to the web (web) by an external device connected to the communication network or the like via the transmission / reception means 19. .Com /? & L = ja (Eyes, Japan (BVH format, etc.)), http://mocap.cs.cmu.edu/(Carnegie Mellon University (asf-amc format, etc.))) it can.

本実施形態では、上述したようルールアクションに従って、TV4Uで制作されたTVML番組の適切な箇所へモーションを挿入することにより、動作演出を付加したTVML番組を生成することができる。また、番組の種類毎に「ニュース風」や「バラエティ風」等のように各演出ルールを目的に応じて設定することで、CGキャラクタの動作演出の違いを詳細に表現することができる。   In the present embodiment, a TVML program to which an operation effect is added can be generated by inserting a motion at an appropriate location of a TVML program produced by the TV 4U according to the rule action as described above. Also, by setting each production rule according to the purpose, such as “news style” or “variety style” for each type of program, the difference in motion production of the CG character can be expressed in detail.

<演出設定例、進行状況判定例、及びモーションデータ編集例>
次に、演出設定例、進行状況判定例、及びモーションデータ編集例について図を用いて説明する。図4は、演出設定の一例を示す図である。図4に示すように、演出設定手段14により設定される演出ルールには、例えば<ルール名>、<ルール条件>、及び<ルールアクション>を含む少なくとも1つの演出ルールファイルが設定され、そのファイルが蓄積手段13等に蓄積されている。
<Examples of production settings, examples of progress determination, and examples of motion data editing>
Next, a production setting example, a progress situation determination example, and a motion data editing example will be described with reference to the drawings. FIG. 4 is a diagram illustrating an example of effect setting. As shown in FIG. 4, in the production rule set by the production setting means 14, at least one production rule file including, for example, <rule name>, <rule condition>, and <rule action> is set. Is stored in the storage means 13 or the like.

進行状況判定手段16は、記述内容解析手段15により得られる所定のスクリプトが図4に示すような演出ルールの条件(<ルール条件>)に適合しているか否かを判定する。なお、ルール条件では、1又は複数(図4では2つ)のスクリプトを設定することができる。   The progress status determination means 16 determines whether or not the predetermined script obtained by the description content analysis means 15 is compatible with the conditions of the effect rule (<rule condition>) as shown in FIG. In the rule condition, one or a plurality of scripts (two in FIG. 4) can be set.

図4に示す例では、ルール条件として、<状況パラメータ>と<コマンド>とがそれぞれ1つずつ設定されている。具体的には、再撮画面に小道具として写真が表示され(状況パラメータ)、かつ、動作主(キャラクタ)Aが“この写真は”と発言する(コマンド)という条件が設定されている。   In the example shown in FIG. 4, one <situation parameter> and one <command> are set as rule conditions. Specifically, a condition is set in which a photograph is displayed as a prop on the re-capture screen (situation parameter), and the actor (character) A says “This photograph is” (command).

したがって、進行状況判定手段16は、演出ルールの状況パラメータ(演出ルール#1の場合、prop:visible(name=propimageboard,switch=on))で設定された状況であるか否かにより番組の進行状況を判定する。また、進行状況判定手段16は、状況パラメータの状況下である場合に、演出ルールのコマンド(演出ルール#1の場合、character:talk(name=A,text=”この写真は”))が存在するか否かを判定する。   Therefore, the progress status determination means 16 determines whether or not the program progress status depends on whether or not it is a status set by the status parameter of the performance rule (in the case of the production rule # 1, prop: visible (name = propimateboard, switch = on)). Determine. Further, the progress status determining means 16 has a command for the production rule (in the case of production rule # 1, character: talk (name = A, text = “this photo is”)) when the situation parameter is present. It is determined whether or not to do.

また、図4に示す演出ルールでは、上述のルール条件に適合する箇所に、ルールアクションとして、手で表示された写真を指すモーションを実行するコマンドスクリプトを追記する演出ルールが設定されている。   Further, in the effect rule shown in FIG. 4, an effect rule for additionally writing a command script for executing a motion indicating a photograph displayed by hand is set as a rule action at a location that meets the above-described rule conditions.

具体的には、図4に示すように、「character:openkeyframe(name=A,keyframe=motion1,filename=“point_image.bvh”)、character:keyframe(name=A,keyframe=motion1)がルール条件にあるコメント(character:talk(name=A,talk=“この写真は”))の直前に追記される。   Specifically, as shown in FIG. 4, “character: openkeyframe (name = A, keyframe = motion1, filename =“ point_image.bvh ”), character: keyframe (name = A, keyframe = condition 1). A comment is added immediately before a comment (character: talk (name = A, talk = “this photo”)).

ここで、演出ルールの条件に適合する処理において、図4の例では、手で表示された写真を指すモーションを実行するコマンドスクリプトを追記するため、モーションデータ編集手段17は、この番組のスクリプトから得られる進行状況に基づいて、上述した演出ルールのルールアクションに設定されているコマンドスクリプトを動作主Aが発言するコメント(“この写真は・・・”)の前に追記(追加)する編集を行う。   Here, in the process conforming to the conditions of the effect rule, in the example of FIG. 4, the motion data editing means 17 adds the command script for executing the motion indicating the photograph displayed by hand. Based on the obtained progress situation, an edit is added (added) before the comment ("This photo is ...") that the operator A speaks the command script set in the rule action of the above-described production rule. Do.

このようにして、1又は複数行のコマンドスクリプトがモーションデータ編集手段17において追記され、結果として複数の動作コマンドスクリプトを追記したTVMLスクリプトを出力する。   In this way, one or more lines of command script are added in the motion data editing means 17, and as a result, a TVML script in which a plurality of operation command scripts are added is output.

なお、上述の例では、モーションデータのファイル名を「filename=“point_image.bvh”」として直接指定したが、本発明においてはこの限りではなく、例えば、送受信手段19により通信ネットワークに接続された他の外部装置(モーションライブラリ等)から取得してもよい。この場合、ファイル名としては、URL(例えば、www.motiondata.nnnnn.jp/・・・)を直接指定してもよい。URL等を指定することにより、更新作業が必要なく、常に最新のモーションを取得してキャラクタに動作させることができる。   In the above example, the file name of the motion data is “filename =“ point_image. However, the present invention is not limited to this, and for example, it may be acquired from another external device (such as a motion library) connected to the communication network by the transmission / reception means 19. In this case, a URL (for example, www.motiondata.nnnnn.jp/...) May be directly specified as the file name. By designating the URL or the like, the update operation is not necessary, and the character can always be acquired and operated by the character.

また、図5は、本実施形態により生成されたTVMLスクリプト番組の再生時のCGキャラクタの動作の一例を示す図である。なお、図5では、上述した図4に示す演出ルールに従ってコマンドスクリプトを番組に追記し、出力されたTVMLスクリプト番組の再生時のCGキャラクタの動作例を示している。   FIG. 5 is a diagram showing an example of the operation of the CG character when the TVML script program generated according to the present embodiment is reproduced. FIG. 5 shows an example of the operation of the CG character at the time of reproducing the output TVML script program by adding a command script to the program in accordance with the above-described production rules shown in FIG.

図5に示すように、TVML番組31に演出ルールにより得られるモーションデータファイル32の内容を追記(追加又は置換等を含む)する追記処理33を行い、追記されたTVMLスクリプト番組を再生することにより、スクリプト再生画面34では、手で写真(画像)を指す動作を行うCGキャラクタ35が表示されることになる。   As shown in FIG. 5, by performing an additional recording process 33 for adding (including adding or replacing) the content of the motion data file 32 obtained by the production rules to the TVML program 31, and reproducing the added TVML script program. On the script reproduction screen 34, a CG character 35 that performs an operation of pointing a photograph (image) by hand is displayed.

<モーションデータによるCGキャラクタの動作例>
ここで、モーションデータによるCGキャラクタの動作例について図を用いて説明する。図6は、モーションデータを用いたスクリプト再生の様子を説明するための一例の図である。
<Operation example of CG character by motion data>
Here, the operation example of the CG character by motion data is demonstrated using figures. FIG. 6 is a diagram illustrating an example of script playback using motion data.

ここで、図6(a)では、CGキャラクタが横を向いている例を示しており、図6(b)では、CGキャラクタが右手で右手後方に表示される再撮画像を指して説明する例を示している。   Here, FIG. 6A shows an example in which the CG character is facing sideways, and FIG. 6B shows a recaptured image in which the CG character is displayed behind the right hand with the right hand. An example is shown.

なお、上述したように、演出ルールに従ってモーションデータを含むコマンドスクリプトを追記して出力されたTVMLスクリプトからなる番組における再生時のCGキャラクタの動作は、基本姿勢からスタートし、モーションデータに基づく所定の動作を行い、動作終了後に基本姿勢に戻るように設定されている。これにより、1又は複数のモーションデータを追記した場合でもCGキャラクタの一連の動きに違和感がない番組を提供することができる。   Note that, as described above, the operation of the CG character at the time of playback in a program composed of a TVML script that is output by adding a command script including motion data in accordance with the production rules starts from the basic posture, and is based on the motion data. It is set to move and return to the basic posture after the movement ends. Thereby, even when one or a plurality of motion data is added, it is possible to provide a program in which a series of movements of the CG character does not feel strange.

<他の実施形態>
上述した実施形態では、動作コマンドの記述されていない台本ファイルとしてのTVMLスクリプトを入力し、番組の該当する部分にモーションデータが適用されたTVMLスクリプトが出力されている。つまり、演出ルールのルール条件に適合する箇所にルールアクションに含まれるモーションデータを追記する編集を行っているが、例えばルール条件にあてはまらない箇所にも、基本姿勢において、例えば人体の自然な揺らぎを計測したモーションデータを追記することで、番組の開始から終了までを一貫してCGキャラクタをモーションデータにより自動的に動作させることができる。
<Other embodiments>
In the above-described embodiment, a TVML script is input as a script file in which no operation command is described, and a TVML script in which motion data is applied to a corresponding portion of a program is output. In other words, editing is performed by adding motion data included in the rule action to a location that matches the rule condition of the production rule. By adding the measured motion data, the CG character can be automatically operated by the motion data consistently from the start to the end of the program.

また、これにより、番組の開始から終了までに適用された全てのモーションデータが、最終的に時系列に1つのモーションデータとして生成することで、CGキャラクタ1体につき1つのモーションデータファイルで構成することができる。   In addition, as a result, all motion data applied from the start to the end of the program is finally generated as one motion data in time series, so that one CG character is composed of one motion data file. be able to.

更に、複数のCGキャラクタが出演する番組ではCGキャラクタ毎にモーションデータを1つずつ構成してもよく、また複数のCGキャラクタが出演する場合にもまとめて1つのモーションデータで構成してもよい。   Furthermore, in a program in which a plurality of CG characters appear, one motion data may be configured for each CG character, and when a plurality of CG characters appear, it may be configured by one motion data. .

これにより、一連のモーションデータ群のうち複数のモーションを1つの新たなモーションとして設定することで、関連する複数のモーションを一度に設定することができるため、効率的にコンテンツを生成することができる。   Thus, by setting a plurality of motions as one new motion in a series of motion data groups, it is possible to set a plurality of related motions at a time, so that content can be generated efficiently. .

<コンテンツ生成プログラム>
ここで、上述したコンテンツ生成装置10は、上述した専用の装置構成により本発明におけるコンテンツ生成を行うこともできるが、各構成における処理をコンピュータに実行させるための実行プログラムを生成し、例えば、汎用のパーソナルコンピュータやサーバ等にプログラムをインストールすることにより、コンテンツ生成処理を実現することができる。
<Content generation program>
Here, the content generation device 10 described above can also generate content according to the present invention with the above-described dedicated device configuration. However, the content generation device 10 generates an execution program for causing a computer to execute the processing in each configuration. The content generation processing can be realized by installing a program in the personal computer or server.

<ハードウェア構成>
ここで、本発明における実行可能なコンピュータのハードウェア構成例について図を用いて説明する。図7は、本発明におけるコンテンツ生成処理が実現可能なハードウェア構成の一例を示す図である。
<Hardware configuration>
Here, an example of a hardware configuration of an executable computer in the present invention will be described with reference to the drawings. FIG. 7 is a diagram illustrating an example of a hardware configuration capable of realizing the content generation processing according to the present invention.

図7におけるコンピュータ本体には、入力装置41と、出力装置42と、ドライブ装置43と、補助記憶装置44と、メモリ装置45と、各種制御を行うCPU(Central Processing Unit)46と、ネットワーク接続装置47とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   7 includes an input device 41, an output device 42, a drive device 43, an auxiliary storage device 44, a memory device 45, a CPU (Central Processing Unit) 46 for performing various controls, and a network connection device. 47, which are connected to each other by a system bus B.

入力装置41は、使用者等が操作するキーボード及びマウス等のポインティングデバイスやマイク等の音声入力デバイス等を有しており、使用者等からのプログラムの実行等、各種操作信号を入力する。出力装置42は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイや音声を出力するスピーカ等を有し、CPU46が有する制御プログラムによりプログラムの実行経過や結果等を表示又は音声出力することができる。   The input device 41 includes a keyboard and a pointing device such as a mouse operated by a user, a voice input device such as a microphone, and the like, and inputs various operation signals such as execution of a program from the user. The output device 42 has a display for displaying various windows and data necessary for operating the computer main body for performing processing in the present invention, a speaker for outputting sound, and the like, and the program of the program is controlled by the control program of the CPU 46. Execution progress, results, etc. can be displayed or voice output.

ここで、本発明において、コンピュータ本体にインストールされる実行プログラムは、例えばCD−ROM等の記録媒体48等により提供される。プログラムを記録した記録媒体48は、ドライブ装置43にセット可能であり、記録媒体48に含まれる実行プログラムが、記録媒体48からドライブ装置43を介して補助記憶装置44にインストールされる。   In the present invention, the execution program installed in the computer main body is provided by the recording medium 48 such as a CD-ROM. The recording medium 48 on which the program is recorded can be set in the drive device 43, and the execution program included in the recording medium 48 is installed in the auxiliary storage device 44 from the recording medium 48 via the drive device 43.

補助記憶装置44は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。   The auxiliary storage device 44 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, and the like, and can perform input / output as necessary.

メモリ装置45は、CPU46により補助記憶装置44から読み出された実行プログラム等を格納する。なお、メモリ装置45は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory device 45 stores an execution program read from the auxiliary storage device 44 by the CPU 46. The memory device 45 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU46は、OS(Operating System)等の制御プログラム、メモリ装置45に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。また、CPU46は、プログラムの実行中に必要な各種情報を補助記憶装置44から取得することができ、またCPU46は、処理結果等を格納することもできる。   The CPU 46 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 45. Each processing can be realized. Further, the CPU 46 can acquire various types of information necessary during execution of the program from the auxiliary storage device 44, and the CPU 46 can also store processing results and the like.

ネットワーク接続装置47は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。   The network connection device 47 obtains an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or the execution result obtained by executing the program or the execution in the present invention The program itself can be provided to other terminals.

上述したようなハードウェア構成により、特別な装置構成を必要とせず、低コストで効率的にコンテンツ生成処理を実現することができる。また、プログラムをインストールすることにより、コンテンツ生成処理を容易に実現することができる。   With the hardware configuration as described above, a content generation process can be realized efficiently at a low cost without requiring a special device configuration. Further, the content generation process can be easily realized by installing the program.

<コンテンツ生成処理>
次に、本発明における実行プログラムによるコンテンツ生成処理手順についてフローチャートを用いて説明する。なお、以下の処理の説明では、コンテンツの一例として「番組」を用いているが本発明においては特に限定されるものではない。
<Content generation processing>
Next, a content generation processing procedure by the execution program in the present invention will be described using a flowchart. In the following description of the processing, “program” is used as an example of content, but the present invention is not particularly limited.

図8は、本実施形態におけるコンテンツ生成処理手順の一例を示すフローチャートである。図8において、まず、演出ルールの設定を行う(S01)。なお、S01の処理は、コンテンツ生成処理の前段階で行われていればよく、その場合には設定された演出ルールは、蓄積手段13等に予め蓄積される。   FIG. 8 is a flowchart showing an example of a content generation processing procedure in the present embodiment. In FIG. 8, first, an effect rule is set (S01). Note that the process of S01 only needs to be performed before the content generation process. In that case, the set production rules are stored in advance in the storage unit 13 or the like.

次に、既に存在する台本ファイル(スクリプト)を文字列として1行読み込み(S02)、番組に関する記述内容の解析を行う(S03)。ここで、S03の処理では、具体的には、例えばスクリプト内に番組に登場するCGキャラクタの動作(アクション)に関するスクリプトが存在するか否を判断する。   Next, a script file (script) that already exists is read as a character string (S02), and the description content of the program is analyzed (S03). Here, in the process of S03, specifically, for example, it is determined whether or not a script relating to the action (action) of the CG character appearing in the program exists in the script.

ここで、CGキャラクタの動作(アクション)に関するスクリプトが存在すると、そのスクリプトによる番組の進行状況を判定する(S04)。つまり、S03の処理により得られるスクリプトが、S01の処理により設定された演出ルールに適合しているか否かを判断する(S05)。   Here, if there is a script relating to the action (action) of the CG character, the progress of the program by the script is determined (S04). That is, it is determined whether or not the script obtained by the process of S03 conforms to the production rule set by the process of S01 (S05).

ここで、S02〜S05までの処理を上述した図4に示す演出ルール#1に適用させて説明する。まず、S02の処理において入力された文字列を行単位で読み込むと、S03の処理では、読み込んだスクリプトが言語仕様に基づき、例えばイベントタイプが”character”であるか、”prop”であるか、コマンド名が”talk”であるか”visible”である等の解析を行う。なお、TVMLイベント書式仕様は、例えば「イベントタイプ:コマンド名(arg1=data1,arg2=data2,arg3=data3,・・・)」等のように示されている。   Here, the process from S02 to S05 will be described by applying it to the effect rule # 1 shown in FIG. 4 described above. First, when the character string input in the process of S02 is read in line units, in the process of S03, based on the language specifications, for example, whether the event type is “character” or “prop”, Analysis is performed such as whether the command name is “talk” or “visible”. The TVML event format specification is shown as “event type: command name (arg1 = data1, arg2 = data2, arg3 = data3,...)”, For example.

また、S04の処理においては、演出ルールの状況パラメータ(演出ルール#1の場合、prop:visible(name=propimageboard,switch=on))で設定された状況であるか否かの番組の進行状況を判定する。   Further, in the process of S04, the progress status of the program as to whether or not it is the situation set by the status parameter of the production rule (in the case of production rule # 1, prop: visible (name = provisionboard, switch = on)). judge.

つまり、S03の処理により得られるスクリプトが状況パラメータで設定されたものであるか否かを判定する。ここで、演出ルール#1の場合、”switch=on”されてから”switch=off”までの間、状況パラメータのルール条件を満たすことになる。そこで、読み込まれる各行について、全ての演出ルールで設定された状況であるか否かを判定する。   That is, it is determined whether or not the script obtained by the process of S03 is set by the situation parameter. Here, in the case of effect rule # 1, the condition parameter condition condition is satisfied from “switch = on” to “switch = off”. Therefore, it is determined whether or not each row to be read is in a situation set by all the production rules.

また、現在処理しているスクリプトが設定された状況下のイベントであれば、S05の処理においてルール条件のコマンド(演出ルール#1の場合、character:talk(name=A,text=”この写真は”))と文字列が一致するか否か(スクリプトが動作主Aのtalkコマンドにおける台詞内容に”この写真は”が含まれるか否か)の判定処理を行う。また、設定したルールが複数ある場合には、S03〜S05の処理を繰り返し行う。   Also, if the current script is an event that is set, the command of the rule condition in the process of S05 (in the case of production rule # 1, character: talk (name = A, text = ”this photo ")) And the character string match (whether or not the script contains" this photo "is included in the dialogue content in the Talk command of the actor A). If there are a plurality of set rules, the processes of S03 to S05 are repeated.

S05の処理において、演出ルールに適合する場合(S05のおいて、YES)、演出ルールのルールアクションに設定されているモーションデータを含むコマンドスクリプトを読み込んだ台本の適切な位置に追記する編集を行う(S06)。また、S06の処理の終了後、又はS05において演出ルールに適合しない場合(S05において、NO)、台本の最終行の解析が終了したか否かを判断する(S07)。   In the process of S05, when the production rule is met (YES in S05), editing is performed by adding a command script including the motion data set in the rule action of the production rule to an appropriate position of the read script. (S06). Further, after completion of the process of S06, or when it does not conform to the production rules in S05 (NO in S05), it is determined whether or not the analysis of the last line of the script has been completed (S07).

ここで、最終行の解析まで終了していない場合(S07において、NO)、S02に戻り、以降の処理を継続して台本の最終行になるまで繰り返し処理を行う。また、S07の処理において、最終行の解析まで終了した場合(S07において、YES)、番組台本(スクリプト)を出力し(S08)、処理を終了する。   If the analysis of the last line has not been completed (NO in S07), the process returns to S02, and the subsequent processes are continued until the last line of the script is reached. Further, in the process of S07, when the analysis up to the last line is completed (YES in S07), a program script (script) is output (S08), and the process is terminated.

上述したように本発明によれば、演出条件に応じて適切なモーションデータを含むコンテンツを効率的に生成する。具体的には、本発明によれば、例えば番組等のコンテンツ制作者等は、コンテンツ制作時にモーションコマンドの記述をする必要がなく自動的にモーションデータファイルを用いたキャラクタの動作を編集することができる。   As described above, according to the present invention, content including appropriate motion data is efficiently generated according to the rendering conditions. Specifically, according to the present invention, for example, a content creator of a program or the like can automatically edit the motion of a character using a motion data file without needing to describe a motion command at the time of content creation. it can.

また、本発明によれば、番組の進行状況やコメント内容等の演出ルールに応じたCGキャラクタの適切な動作を実現することができる。また、上述では、演出ルールに従って、モーションキャプチャした自然な動作をTVML番組に適用させる手法を示したが、番組の種類毎にモーションデータと演出ルールを設定することで、より適切に番組中のCGキャラクタを動かすことが可能となる。これにより、効率的な番組制作が実現できる。   Further, according to the present invention, it is possible to realize an appropriate operation of the CG character according to the production rules such as the progress of the program and the comment content. In the above description, the method of applying the motion-captured natural motion to the TVML program according to the production rule is shown. However, by setting the motion data and the production rule for each program type, the CG in the program is more appropriately set. The character can be moved. Thereby, efficient program production can be realized.

また、本発明によるコンテンツ生成手法は、例えばTV4U等のようなインターネット等の通信ネットワーク上で番組を制作・公開するシステムにおいて、サーバサイドに独自のモーションデータのアーカイブを持つことで、一般ユーザがAPEに定義されていない動作を演出ルールに設定することで、外部から番組制作時に好みの動作を取得し、キャラクタ等に実行させることが可能となる。   In addition, the content generation method according to the present invention is a system for producing and publishing a program on a communication network such as the Internet such as TV4U. By setting a motion that is not defined in the production rules as a production rule, it is possible to acquire a desired motion from the outside during program production and have the character execute it.

また、本発明におけるコンテンツ生成処理により生成したコンテンツは、例えば使用者が自分のチャンネルに自分の作成した台本をアップロードして番組としてインターネット上に公開するといった、いわゆるブログテレビとして使用したり、ニュース番組を自動生成したり、コミュニティ番組の制作、教育ツール、広告ツールとして広く適用することができる。   In addition, the content generated by the content generation processing in the present invention can be used as a so-called blog TV in which a user uploads his / her script to his / her channel and publishes it on the Internet as a program, or a news program Can be automatically generated, and can be widely applied as production of community programs, educational tools, and advertising tools.

以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

コンテンツ生成装置の一構成例を示す図である。It is a figure which shows one structural example of a content production | generation apparatus. 表現可能なCGキャラクタの動作の一例を示す図である。It is a figure which shows an example of operation | movement of the CG character which can be expressed. 本実施形態におけるルールアクションの一例を示す例である。It is an example which shows an example of the rule action in this embodiment. 演出設定の一例を示す図である。It is a figure which shows an example of effect setting. 図5は、本実施形態により生成されたTVMLスクリプト番組の再生時のCGキャラクタの動作の一例を示す図である。FIG. 5 is a diagram illustrating an example of the operation of the CG character when the TVML script program generated according to the present embodiment is reproduced. モーションデータを用いたスクリプト再生の様子を説明するための一例の図である。It is a figure of an example for demonstrating the mode of script reproduction | regeneration using motion data. 本発明におけるコンテンツ生成処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the content production | generation process in this invention. 本実施形態におけるコンテンツ生成処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the content production | generation procedure in this embodiment.

符号の説明Explanation of symbols

10 コンテンツ生成装置
11 入力手段
12 出力手段
13 蓄積手段
14 演出設定手段
15 記述内容解析手段
16 進行状況判定手段
17 モーションデータ編集手段
18 再生手段
19 送受信手段
20 制御手段
31 TVML番組
32 モーションデータファイル
33 追記処理
34 スクリプト再生画面
35 CGキャラクタ
41 入力装置
42 出力装置
43 ドライブ装置
44 補助記憶装置
45 メモリ装置
46 CPU
47 ネットワーク接続装置
48 記録媒体
DESCRIPTION OF SYMBOLS 10 Content production | generation apparatus 11 Input means 12 Output means 13 Storage means 14 Production setting means 15 Description content analysis means 16 Progress status determination means 17 Motion data editing means 18 Playback means 19 Transmission / reception means 20 Control means 31 TVML program 32 Motion data file 33 Additional writing Process 34 Script playback screen 35 CG character 41 Input device 42 Output device 43 Drive device 44 Auxiliary storage device 45 Memory device 46 CPU
47 Network connection device 48 Recording medium

Claims (5)

仮想空間上に存在するキャラクタの所定の動作を表すモーションデータを含んだコンテンツを生成するコンテンツ生成装置において、
前記コンテンツに対する演出内容と、前記モーションデータとを関連付けるための演出条件を設定する演出設定手段と、
予め生成されたコンテンツのスクリプトデータを読み込み、読み込んだ前記スクリプトデータに含まれる演出内容から、前記演出設定手段により設定された前記演出条件に適合するスクリプトが存在するか否かを判定する判定手段と、
前記判定手段により前記演出条件に適合したスクリプトに対して、前記演出設定手段により設定された前記キャラクタに対するモーションデータを追加又は置換するモーションデータ編集手段とを有し、
前記モーションデータ編集手段は、
前記追加又は置換するモーションの動作開始及び終了時に前記キャラクタが同一の姿勢になるように設定することを特徴とするコンテンツ生成装置。
In a content generation device that generates content including motion data representing a predetermined motion of a character existing in a virtual space,
Production setting means for setting production conditions for associating production contents with respect to the content and the motion data ;
Load the script data of previously generated content, from the performance content included in the script data read, a determination unit configured to determine whether the rendering setup compatible script to the presentation conditions that are set by means exists ,
Wherein the script adapted to effect condition, possess a motion data editing means for adding or replacing a motion data for the character set by the rendering setup means by said determining means,
The motion data editing means
A content generating apparatus , wherein the character is set to have the same posture at the start and end of the motion of the motion to be added or replaced .
前記スクリプトデータの記述内容を所定単位毎に解析して、前記キャラクタの動作に関するデータの有無を判断する記述内容解析手段を有することを特徴とする請求項1に記載のコンテンツ生成装置。   2. The content generation apparatus according to claim 1, further comprising description content analysis means for analyzing the description content of the script data for each predetermined unit and determining the presence / absence of data relating to the motion of the character. 前記モーションデータ編集手段は、
新たに追加又は置換される複数のモーションデータを1つのモーションデータとして前記スクリプトに追加又は置換することを特徴とする請求項1又は2に記載のコンテンツ生成装置。
The motion data editing means
The content generation apparatus according to claim 1 or 2 , wherein a plurality of newly added or replaced motion data is added or replaced as one motion data to the script.
前記演出設定手段は、
前記キャラクタの動作に対応する少なくとも1つからなる演出条件と、前記演出条件に対応するモーションデータとして、モーションファイル名又はURLを設定することを特徴とする請求項1乃至の何れか1項に記載のコンテンツ生成装置。
The production setting means includes:
And from at least one consisting presentation condition corresponding to the operation of the character, as a motion data corresponding to the presentation conditions, to any one of claims 1 to 3, characterized in that to set the motion file name or URL The content generation device described.
コンピュータを、請求項1乃至4の何れか1項に記載のコンテンツ生成装置が有する各手段として機能させるためのコンテンツ生成プログラム。 A content generation program for causing a computer to function as each unit included in the content generation device according to any one of claims 1 to 4 .
JP2007051560A 2007-03-01 2007-03-01 Content generation apparatus and content generation program Active JP4917917B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007051560A JP4917917B2 (en) 2007-03-01 2007-03-01 Content generation apparatus and content generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007051560A JP4917917B2 (en) 2007-03-01 2007-03-01 Content generation apparatus and content generation program

Publications (2)

Publication Number Publication Date
JP2008217226A JP2008217226A (en) 2008-09-18
JP4917917B2 true JP4917917B2 (en) 2012-04-18

Family

ID=39837221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007051560A Active JP4917917B2 (en) 2007-03-01 2007-03-01 Content generation apparatus and content generation program

Country Status (1)

Country Link
JP (1) JP4917917B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5215960B2 (en) * 2009-08-14 2013-06-19 日本放送協会 Automatic program production device and automatic program production program
JP5600279B2 (en) * 2010-10-04 2014-10-01 日本放送協会 Video content production apparatus and video content production program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3401899B2 (en) * 1994-03-01 2003-04-28 株式会社セガ Image display processing device
JP4017290B2 (en) * 1999-07-07 2007-12-05 日本放送協会 Automatic program production device and recording medium recorded with automatic program production program
JP2001087543A (en) * 1999-09-22 2001-04-03 Square Co Ltd Motion reproduction control method, recording medium and game device
JP2002109560A (en) * 2000-10-02 2002-04-12 Sharp Corp Animation reproducing unit, animation reproducing system, animation reproducing method, recording medium readable by computer storing program for executing animation reproducing method
JP2002230573A (en) * 2001-02-05 2002-08-16 Sharp Corp Device for transferring animation, device for reproducing animation, system for reproducing animation, program for transferring animation, and program for reproducing animation
JP2003296752A (en) * 2002-03-29 2003-10-17 Hitachi Kokusai Electric Inc Program editing method
JP4490726B2 (en) * 2004-04-28 2010-06-30 日本放送協会 Program production system, program production management server, and program production management program

Also Published As

Publication number Publication date
JP2008217226A (en) 2008-09-18

Similar Documents

Publication Publication Date Title
US7458013B2 (en) Concurrent voice to text and sketch processing with synchronized replay
CN109324811B (en) Device for updating teaching recorded broadcast data
JP2011175598A (en) Device and program for generating sign language animation
US20090006965A1 (en) Assisting A User In Editing A Motion Picture With Audio Recast Of A Legacy Web Page
JP5230096B2 (en) VIDEO / AUDIO OUTPUT DEVICE AND VIDEO / AUDIO OUTPUT METHOD
KR100856786B1 (en) System for multimedia naration using 3D virtual agent and method thereof
JP2016038601A (en) Cg character interaction device and cg character interaction program
JP4917920B2 (en) Content generation apparatus and content generation program
JP2014109988A (en) Motion video generation device and motion video generation program
JP4932435B2 (en) Content providing server and content providing program
JP2001024610A (en) Automatic program producing device and recording medium with programs recorded therein
JP4917917B2 (en) Content generation apparatus and content generation program
JP5041853B2 (en) Content generation apparatus and content generation program
JP4865469B2 (en) Content production server, content presentation device, content production program, and content presentation program
JP5291448B2 (en) Content production server and content production program
JP4388496B2 (en) Program production device and program production program
JP2005285076A (en) Method for producing image information
JP4796466B2 (en) Content management server, content presentation device, content management program, and content presentation program
KR20070109103A (en) An online system for making multi-contents
JP5111422B2 (en) Content production system and content production program
JP4063566B2 (en) Program production method
KR102026994B1 (en) Video motion object markup language
JP4778302B2 (en) Interactive content presentation apparatus and interactive content presentation program
JP5297404B2 (en) Program production device and program production program
JP4018928B2 (en) Program production method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120127

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4917917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250