JP5639440B2 - CG character production device and CG character production program - Google Patents

CG character production device and CG character production program Download PDF

Info

Publication number
JP5639440B2
JP5639440B2 JP2010240022A JP2010240022A JP5639440B2 JP 5639440 B2 JP5639440 B2 JP 5639440B2 JP 2010240022 A JP2010240022 A JP 2010240022A JP 2010240022 A JP2010240022 A JP 2010240022A JP 5639440 B2 JP5639440 B2 JP 5639440B2
Authority
JP
Japan
Prior art keywords
character
image
screen
program
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010240022A
Other languages
Japanese (ja)
Other versions
JP2012093913A (en
Inventor
井上 誠喜
誠喜 井上
道家 守
守 道家
浜口 斉周
斉周 浜口
浩之 金子
浩之 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2010240022A priority Critical patent/JP5639440B2/en
Publication of JP2012093913A publication Critical patent/JP2012093913A/en
Application granted granted Critical
Publication of JP5639440B2 publication Critical patent/JP5639440B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、CGキャラクタ制作装置及びCGキャラクタ制作プログラムに係り、特にユーザが簡単に表情のあるCGキャラクタを制作するためのCGキャラクタ制作装置及びCGキャラクタ制作プログラムに関する。   The present invention relates to a CG character production apparatus and a CG character production program, and more particularly to a CG character production apparatus and a CG character production program for a user to easily produce a CG character with a facial expression.

従来、簡単な台本の記述によりCG(Computer Graphics)をベースとする番組等の映像コンテンツを自動的に制作する技術が存在する(例えば、特許文献1参照)。このような技術では、例えば、台本をAPE(Automatic Program Engine)と呼ばれる演出付加ユニットに入力するだけで、台本の記述に対応させて予め蓄積された特定のCGキャラクタ等に所定の動作やセリフを喋らせるような映像コンテンツを生成するための詳細な情報(例えば、TVML(TV program Making Language)スクリプト等)を生成することができる。   Conventionally, there is a technology for automatically producing video content such as a program based on CG (Computer Graphics) based on a simple script description (see, for example, Patent Document 1). In such a technique, for example, by only inputting a script into an effect adding unit called APE (Automatic Program Engine), a predetermined action or dialogue is given to a specific CG character or the like stored in advance corresponding to the description of the script. It is possible to generate detailed information (for example, a TV program making language (TVML) script) for generating the video content that makes the image appear to be blurred.

また従来では、上述したTVMLスクリプトを映像コンテンツ生成エンジン(以下、TVMLプレイヤー(Player)という)等の再生手段に入力することで、台本にあった映像コンテンツを生成し、生成したコンテンツを画面等に出力してユーザに提示している。このような仕組みにより、映像コンテンツ制作の経験や技術、CGに関する技術や知識がなくても、誰でも簡単に映像コンテンツを制作することができるようになっている。   Conventionally, the above-described TVML script is input to a playback unit such as a video content generation engine (hereinafter referred to as a TVML player (Player)) to generate video content suitable for the script, and the generated content is displayed on a screen or the like. It is output and presented to the user. With such a mechanism, anyone can easily produce video content without any experience or technology of video content production or technology or knowledge about CG.

したがって、テレビ番組のような映像コンテンツ制作全般に使うことのできるスクリプトで、CGキャラクタの喋りや動作の他、照明、カメラ、セット、小道具、スーパーインポーズ、ムービー、BGM等、テレビ番組のスタジオ制作に必要な機能を全て記述することができる。   Therefore, it is a script that can be used for the entire production of video content such as TV programs. In addition to the CG character's inflection and movement, lighting, cameras, sets, props, superimposes, movies, BGM, etc. Can describe all necessary functions.

また、一般に映像コンテンツに登場するCGキャラクタについては、そのCGキャラクタの動作、例えば口の開閉情報等を詳細に指定しなくても、セリフを入力するだけで自動的に口パクしたり、外部からのリアルタイムの音声入力に応じてキャラクタの口を開閉することができる。更に、従来技術では、瞬きや体の揺れについても、詳細な記述をしなくても、適当なタイミングで瞬き、揺れを発生している。   In general, a CG character appearing in video content can be automatically punctured by just inputting a line without specifying in detail the movement of the CG character, such as mouth opening / closing information. The character's mouth can be opened and closed in response to real-time voice input. Further, in the prior art, blinking and shaking are generated at an appropriate timing without detailed description.

なお、従来における映像コンテンツに登場するCGキャラクタの制作は、例えば形状データとテクスチャデータ、骨データ等から構成され、骨を動かすとそれに応じて形状が変化する(例えば、特許文献2参照)。また、これらの形状データは、複数の頂点で囲まれた面の情報とそこにマッピングされるテクスチャ情報を持っており、形状の変形は、頂点の移動で実現する。したがって、CGキャラクタが動くアニメーションでは、手足や顔の表情、目、口の動きを生成し、それに合わせて形状を変化させる必要がある。したがって、特に目の瞬きや口を変化させるには、多くの頂点データを使って顔形状を細かく作成し、瞼や口周辺の頂点データを制御する必要がある(例えば、非特許文献1参照)。   Note that the production of a CG character that appears in video content in the past is composed of, for example, shape data, texture data, bone data, and the like, and the shape changes accordingly when the bone is moved (see, for example, Patent Document 2). Further, these shape data have information of a surface surrounded by a plurality of vertices and texture information mapped thereon, and the deformation of the shape is realized by moving the vertices. Therefore, in an animation in which a CG character moves, it is necessary to generate movements of limbs and facial expressions, eyes and mouth, and change the shape accordingly. Therefore, in particular, in order to change the blink of the eyes and the mouth, it is necessary to finely create a face shape using a lot of vertex data and control the vertex data around the eyelids and the mouth (for example, see Non-Patent Document 1) .

ここで、図1は、従来技術におけるCGキャラクタの制作手法を説明するための図である。なお、図1(a)は、口を閉じた状態のCGキャラクタの顔を示し、図1(b)は、口を開いた状態のCGキャラクタの顔を示し、図1(c)は、目を閉じた状態のCGキャラクタの目周辺の拡大図を示し、図1(d)は、目を開いた状態のCGキャラクタの目周辺の拡大図を示している。   Here, FIG. 1 is a diagram for explaining a CG character production method in the prior art. 1A shows the face of the CG character with the mouth closed, FIG. 1B shows the face of the CG character with the mouth open, and FIG. FIG. 1D shows an enlarged view around the eyes of the CG character with the eyes open. FIG. 1D shows an enlarged view around the eyes of the CG character with the eyes closed.

図1(a)〜図1(d)に示すように、CGキャラクタは、各形状に対応したポリゴンの集合からなり、三角形の集合として表される。これらの三角形のポリゴンは、3つの頂点で定義され、細かな変形を可能にするには、より小さなポリゴンを数多く必要とし、例えば図1(a),図1(b)に示すような口の開閉時や図1(c),図1(d)に示すような目の開閉時には、目周辺の多くの頂点を移動させる必要があり、これは口の開閉時にも同様である。   As shown in FIGS. 1A to 1D, the CG character is composed of a set of polygons corresponding to each shape, and is represented as a set of triangles. These triangular polygons are defined by three vertices, and a large number of smaller polygons are required to enable fine deformation. For example, as shown in FIGS. 1 (a) and 1 (b) At the time of opening and closing, and at the time of opening and closing the eye as shown in FIGS. 1C and 1D, it is necessary to move many vertices around the eye, and this is the same when opening and closing the mouth.

特開2008−257450号公報JP 2008-257450 A 特開平9−330424号公報JP-A-9-330424

本城なお著、「Maya Biginners」、第10章キャラクタ作成、株式会社ビー・エヌ・エヌ新社、2007年7月20日初版発行Naoki Honjo, “Maya Beginners”, Chapter 10 Character Creation, BNN Corporation, July 20, 2007

上述したように、従来のCGキャラクタ制作において、自然な目の瞬きや口の変化を実現するには、多くの頂点を移動したり、細かいポリゴンの調整が必要となるため、熟練した技術と長時間の準備作業が必要となる。そのため、上述したような技術のない一般のユーザにはCGキャラクタを制作することは非常に困難であり、またCGキャラクタの制作は上述した専門的な知識が必要であったため、ある特定の専門家に委ねられていた。   As described above, in conventional CG character production, it is necessary to move many vertices and adjust fine polygons in order to achieve natural eye blinks and mouth changes. Time preparation work is required. For this reason, it is very difficult for a general user who does not have the above-described technique to produce a CG character, and the production of a CG character requires the above-described specialized knowledge. It was entrusted to.

つまり、一般ユーザや非専門のユーザはCGキャラクタを制作することができず、また専門家が作ったCGキャラクタを自分用にカスタマイズすることも困難であった。   That is, general users and non-professional users cannot produce CG characters, and it is difficult to customize CG characters created by experts for themselves.

本発明は、上述した問題点に鑑みなされたものであり、ユーザが簡単に表情のあるCGキャラクタを制作するためのCGキャラクタ制作装置及びCGキャラクタ制作プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide a CG character production apparatus and a CG character production program for a user to easily produce a CG character with a facial expression.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、テクスチャ画像データを用いてCGキャラクタを制作するCGキャラクタ制作装置において、CGキャラクタモデルの目及び口の開閉状態におけるそれぞれの画像を取得する画像取得手段と、前記画像取得手段により得られる画像を前記テクスチャ画像データとし、前記CGキャラクタモデルの頭部として設定された形状の面データに貼り付ける面データ貼り付け手段と、前記面データ貼り付け手段により前記面データに貼り付けられた前記テクスチャ画像データを、前記CGキャラクタモデルの目を含む上半分と前記CGキャラクタモデルの口を含む下半分とに分け、前記CGキャラクタのセリフ又は動作に対応させて、前記上半分と下半分とをそれぞれのタイミングで切り替えて、前記CGキャラクタモデルの目及び口の開閉状態を変更するテクスチャ変更手段とを有し、前記テクスチャ変更手段は、前記面データに貼り付ける前記テクスチャ画像データを切り替える変更条件を定義したCGキャラクタ定義ファイルを生成することを特徴とする。 According to the first aspect of the present invention, in the CG character production device for producing a CG character using the texture image data, the image acquisition means for acquiring the respective images in the open / closed state of the eyes and mouth of the CG character model, An image obtained by the image acquisition means is used as the texture image data, and is applied to the surface data by the surface data pasting means to be pasted on the surface data having the shape set as the head of the CG character model, and the surface data pasting means. The pasted texture image data is divided into an upper half including the eyes of the CG character model and a lower half including the mouth of the CG character model, and the upper half corresponding to the dialogue or motion of the CG character model. And the lower half at each timing, and the CG character model Eye and have a texture changing means for changing the opening and closing state of the mouth, the texture changing means, generating a CG character definition file that defines the change condition for switching the texture image data to be pasted on the surface data Features.

請求項1記載の発明によれば、ユーザが簡単に表情のあるCGキャラクタを制作することができる。   According to the first aspect of the present invention, the user can easily produce a CG character with a facial expression.

請求項に記載された発明は、前記画像取得手段により取得される画像が同一の顔サイズとなるように、撮影時の顔の位置を固定させるための案内画面を生成する画面生成手段を有することを特徴とする。 The invention described in claim 2 includes screen generation means for generating a guide screen for fixing the position of the face at the time of photographing so that the images acquired by the image acquisition means have the same face size. It is characterized by that.

請求項に記載された発明は、前記テクスチャ変更手段により得られた少なくとも1つのCGキャラクタを用いた番組を制作する番組制作手段を有することを特徴とする。 According to a third aspect of the present invention, there is provided program production means for producing a program using at least one CG character obtained by the texture changing means.

請求項に記載された発明は、コンピュータを、請求項1乃至の何れか1項に記載のCGキャラクタ制作装置として機能させるためのCGキャラクタ制作プログラムである。 The invention described in claim 4 is a CG character production program for causing a computer to function as the CG character production apparatus according to any one of claims 1 to 3 .

請求項記載の発明によれば、ユーザが簡単に表情のあるCGキャラクタを制作することができる。また、実行プログラムをコンピュータにインストールすることにより、容易にCGキャラクタ制作処理を実現することができる。

According to the fourth aspect of the present invention, the user can easily produce a CG character with a facial expression. In addition, the CG character production process can be easily realized by installing the execution program in the computer.

本発明によれば、ユーザが簡単に表情のあるCGキャラクタを制作することができる。   According to the present invention, a user can easily create a CG character with a facial expression.

従来技術におけるCGキャラクタの制作手法を説明するための図である。It is a figure for demonstrating the production method of the CG character in a prior art. 本実施形態におけるCGキャラクタ制作装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the CG character production apparatus in this embodiment. 本実施形態におけるテクスチャ貼り付けの一例を示す図である。It is a figure which shows an example of the texture sticking in this embodiment. 本実施形態におけるテクスチャ変更の他の実施例を説明するための図である。It is a figure for demonstrating the other Example of the texture change in this embodiment. 本実施形態におけるCGキャラクタの定義内容について説明するための図である。It is a figure for demonstrating the definition content of the CG character in this embodiment. 本実施形態におけるCGキャラクタの口部分の制御内容の一例を示す図である。It is a figure which shows an example of the control content of the mouth part of the CG character in this embodiment. 本実施形態におけるメニュー画面の一例を示す図である。It is a figure which shows an example of the menu screen in this embodiment. 顔写真を撮影する際に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed when taking a face photograph. 本実施形態における演出設定画面の一例を示す図である。It is a figure which shows an example of the production | presentation setting screen in this embodiment. 本実施形態における映像選択画面の一例を示す図である。It is a figure which shows an example of the image | video selection screen in this embodiment. セリフ設定画面の一例を示す図である。It is a figure which shows an example of a dialog setting screen. 本実施形態における音声入力画面の一例を示す図である。It is a figure which shows an example of the audio | voice input screen in this embodiment. 本実施形態における番組再生画面の一例を示す図である。It is a figure which shows an example of the program reproduction screen in this embodiment. 本実施形態におけるCGキャラクタ制作処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the CG character production process procedure in this embodiment. 本実施形態における番組制作処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the program production process sequence in this embodiment.

<本発明について>
本発明は、例えば番組等の映像コンテンツに登場(出演)するCGキャラクタの制作において、特に顔の制作に対し、口の開閉、目の開閉を示す複数の画像を用意し、用意した画像を所定の条件により切り替えることで、少ないポリゴンで構成される簡易な顔形状を作成する。
<About the present invention>
In the production of a CG character that appears (appears) in video content such as a program, for example, the present invention prepares a plurality of images showing opening and closing of the mouth and opening and closing of the eyes, particularly for the production of a face. By switching according to the above conditions, a simple face shape composed of a small number of polygons is created.

このように構成することで、詳細な形状変形を行わないため、例えば立方体や球等、簡単な形状による頭部モデルを制作することができるため、一般ユーザでも簡易なCGツールを使って簡単にCGキャラクタを制作することができる。また、画像は作画してもよいが、カメラ等の撮像手段により撮影された写真を用いることにより、リアルでユーザにカスタマイズされたCGキャラクタを制作することができる。つまり、一般ユーザが用意するのは、上述した内容のものだけでよいため、簡便にカスタマイズしたキャラクタを制作することができる。   With this configuration, since detailed shape deformation is not performed, a head model having a simple shape such as a cube or a sphere can be produced, so even a general user can easily use a simple CG tool. A CG character can be produced. Although an image may be created, a CG character that is real and customized by the user can be produced by using a photograph taken by an imaging means such as a camera. That is, since only the contents described above are prepared by the general user, a customized character can be easily produced.

以下に、上述したような特徴を有する本発明におけるCGキャラクタ制作装置及びCGキャラクタ制作プログラムを好適に実施した形態について、図面を用いて詳細に説明する。   Hereinafter, a preferred embodiment of a CG character production apparatus and a CG character production program according to the present invention having the above-described features will be described in detail with reference to the drawings.

<CGキャラクタ制作装置:概略構成例>
図2は、本実施形態におけるCGキャラクタ制作装置の機能構成の一例を示す図である。図2に示すCGキャラクタ制作装置10は、入力手段11と、出力手段12と、蓄積手段13と、画像取得手段14と、面データ貼り付け手段15と、テクスチャ変更手段16と、番組制作手段17と、再生手段18と、画面生成手段19と、送受信手段20と、制御手段21とを有するよう構成されている。
<CG character production device: schematic configuration example>
FIG. 2 is a diagram illustrating an example of a functional configuration of the CG character production apparatus according to the present embodiment. The CG character production apparatus 10 shown in FIG. 2 includes an input unit 11, an output unit 12, a storage unit 13, an image acquisition unit 14, a surface data pasting unit 15, a texture changing unit 16, and a program production unit 17. And a reproduction means 18, a screen generation means 19, a transmission / reception means 20, and a control means 21.

入力手段11は、例えば、CGキャラクタ制作装置10がPC等の汎用のコンピュータであれば、キーボード(Keyboard)やゲームパッド、マウス等の各種コントローラ又は専用の操作パネル、マイク等の音声入力デバイス等からなり、ユーザ等からの入力等により本実施形態における各構成の実行指示(画像取得指示、面データ貼り付け指示、テクスチャ変更指示、番組制作指示、再生指示、画面生成指示、送受信指示)等の入力や、CGキャラクタやカメラ等のオブジェクトに対する動作の入力(操作内容)を受け付ける。   For example, if the CG character production apparatus 10 is a general-purpose computer such as a PC, the input means 11 is a keyboard, a game pad, various controllers such as a mouse, a dedicated operation panel, a voice input device such as a microphone, or the like. Therefore, input of execution instructions (image acquisition instruction, surface data pasting instruction, texture change instruction, program production instruction, reproduction instruction, screen generation instruction, transmission / reception instruction) of each component in the present embodiment by input from a user or the like In addition, an operation input (operation content) for an object such as a CG character or a camera is received.

出力手段12は、入力手段11により入力された指示内容や、各指示内容に基づいて制作されるCGキャラクタ、CGキャラクタや番組を制作するための各種設定等を行わせるための画面、実行経過や実行結果、エラー情報等の各種情報を表示出力したり、音声出力を行う。なお、出力手段12は、ディスプレイ等の画面表示機能やスピーカ等の音声出力機能等を有する。   The output means 12 includes the instruction content input by the input means 11, a CG character produced based on each instruction content, a screen for making various settings for producing a CG character and a program, Various kinds of information such as execution results and error information are displayed and output. The output unit 12 has a screen display function such as a display, a sound output function such as a speaker, and the like.

蓄積手段13は、本実施形態におけるCGキャラクタ制作を実行するための各種プログラムや、画像取得手段14において取得された画像、面データ貼り付け手段15により得られる貼り付け結果、テクスチャ変更手段16により得られるテクスチャ変更における各種パラメータや変更された結果、再生手段18における再生結果、画面生成手段19により生成された設定条件や、設定された結果、送受信手段20にて送受信される各種情報等のデータを蓄積する。   The accumulating unit 13 is obtained by the various programs for executing the CG character production in the present embodiment, the image acquired by the image acquiring unit 14, the pasting result obtained by the surface data pasting unit 15, and the texture changing unit 16. Various parameters in the texture change to be made, the changed result, the reproduction result in the reproducing means 18, the setting condition generated by the screen generating means 19, the set result, and the data such as various information transmitted / received by the transmitting / receiving means 20 accumulate.

また、蓄積手段13は、上述した各種データを送受信手段20により通信ネットワーク等に接続された外部装置等から取得することもできる。また、蓄積手段13に蓄積された各種データは、必要に応じて適宜読み出すことができ、また書き込みや削除等を行うこともできる。   The storage unit 13 can also acquire the various data described above from the external device connected to the communication network or the like by the transmission / reception unit 20. Various data stored in the storage means 13 can be read out as needed, and can be written and deleted.

画像取得手段14は、CGキャラクタの顔となる画像を取得する。具体的には、例えば、CGキャラクタ制作装置10の外部に設けられたカメラ等の撮像手段22により得られる人物の顔画像等を取得する。なお、取得する画像は、ユーザ本人の画像でもよく、例えば芸能人等の他人であってもよい。   The image acquisition unit 14 acquires an image that becomes the face of the CG character. Specifically, for example, a face image of a person obtained by the imaging means 22 such as a camera provided outside the CG character production apparatus 10 is acquired. The acquired image may be an image of the user himself / herself, for example, another person such as a celebrity.

なお、画像取得手段14により取得される画像は、例えば目を閉じた状態の画像、口を開けた状態の画像を含む複数のテクスチャ画像を取得する。具体的には、例えば、顔画像において、目及び口を閉じている画像及び目及び口を開いている画像の2枚の画像を取得する。なお、取得する2枚の画像は目の開いているものと閉じているもの、口が開いているものと閉じているものが2枚の画像で撮影できれば、口及び目の開閉の組み合わせは、どちらでもよい。   The image acquired by the image acquisition unit 14 acquires a plurality of texture images including, for example, an image with eyes closed and an image with mouth open. Specifically, for example, in the face image, two images of an image with eyes and mouth closed and an image with eyes and mouth open are acquired. If the two images to be acquired can be taken with two images, one with open eyes and one with closed eyes, one with open mouths and one with closed mouths, the combination of opening and closing the mouth and eyes is either will do.

また、本実施形態では、画像の切り替え時に差がでないように、上述した2枚の画像の顔の大きさは同一であることが好ましいが、必要に応じて一方の顔画像を拡大若しくは縮小して同一の顔サイズに調整してもよい。   In the present embodiment, the face sizes of the two images described above are preferably the same so that there is no difference when switching images, but one face image is enlarged or reduced as necessary. May be adjusted to the same face size.

これにより、必要な画像を簡単に取得することができる。なお、画像取得手段14は、ユーザ等の人物のそのものの顔画像を取得してもよく、犬や猫等の動物であってもよく、更にアニメ画像であってもよい。なお、画像は、作画してもよいが、写真を使うとよりリアルでユーザにカスタマイズされたキャラクタを制作できる。   Thereby, a required image can be acquired easily. The image acquisition unit 14 may acquire a face image of a person such as a user, may be an animal such as a dog or a cat, and may be an animation image. The image may be drawn, but using a photograph can produce a more realistic and customized character.

ここで、撮像手段22は、例えば既存のデジタルカメラ等を用いることができる。また、画像取得手段14は、撮像手段22等により取得した画像を蓄積手段13等に蓄積しておくことができる。   Here, for example, an existing digital camera can be used as the imaging unit 22. Further, the image acquisition unit 14 can store the image acquired by the imaging unit 22 or the like in the storage unit 13 or the like.

面データ貼り付け手段15は、画像取得手段14から得られた画像に対して、予め設定されたCGキャラクタの面データに貼り付けを行う。具体的には、面データ貼り付け手段15は、少ないポリゴンで構成される簡易な顔形状を作成する。また、面データ貼り付け手段15は、画像のどの部分をどのポリゴンにマッピング(貼り付け)するかの情報を管理する。なお、面データ貼り付け手段15における具体的な内容については後述する。   The surface data pasting unit 15 pastes the image obtained from the image obtaining unit 14 on the surface data of a preset CG character. Specifically, the surface data pasting means 15 creates a simple face shape composed of a small number of polygons. The surface data pasting means 15 manages information on which part of the image is mapped (pasted) to which polygon. The specific contents of the surface data pasting means 15 will be described later.

テクスチャ変更手段16は、CGキャラクタを表示し、口の開閉、目の開閉のタイミングに応じて、画像取得手段14から得られた画像を用いてCGキャラクタの顔の貼り付ける画像を切り替える。また、テクスチャ変更手段16は、CGキャラクタの目を予め設定される目の瞬き等の間隔により目の開閉のテクスチャ画像の変更を制御する。また、テクスチャ変更手段16は、CGキャラクタの喋りに応じて口の開閉のテクスチャ画像の変更を制御する。   The texture changing unit 16 displays the CG character, and switches the image to which the face of the CG character is pasted using the image obtained from the image acquiring unit 14 according to the timing of opening / closing the mouth and opening / closing the eyes. Further, the texture changing means 16 controls the change of the texture image for opening and closing the eyes according to a predetermined interval such as blinking of the eyes of the CG character. Further, the texture changing unit 16 controls the change of the texture image for opening and closing the mouth according to the turning of the CG character.

つまり、本実施形態では、画像の切り替えだけで顔の表情や動作を表現し、頭部の形状変形等は行わない。そのため、頭部モデルの形状を例えば立方体や球等の簡単な形状で制作することができる。また、テクスチャ変更手段16は、例えば、一般ユーザでも簡易なCGツール等を用いて変更することができる。したがって、本実施形態では、一般ユーザが用意するのは、上記の切り替え用の画像だけでよく、簡便にカスタマイズしたキャラクタを制作できる。   That is, in the present embodiment, facial expressions and actions are expressed only by switching images, and the shape of the head is not deformed. Therefore, the shape of the head model can be produced in a simple shape such as a cube or a sphere. Further, the texture changing means 16 can be changed by, for example, a general user using a simple CG tool or the like. Therefore, in this embodiment, the general user only needs to prepare the above-described switching image, and can easily create a customized character.

更に、テクスチャ変更手段16は、上述した画像の変更情報をCGキャラクタに反映させるためのCGキャラクタ定義ファイルを生成する。なお、CGキャラクタ定義ファイルの詳細については後述する。   Further, the texture changing unit 16 generates a CG character definition file for reflecting the above-described image change information on the CG character. Details of the CG character definition file will be described later.

番組制作手段17は、面データ貼り付け手段15やテクスチャ変更手段16により得られる少なくとも1つのCGキャラクタを用いて番組を制作する機能を有する。具体的には、番組制作手段17は、演出内容や番組に用いる映像、CGキャラクタのセリフ、音声等を設定し、設定された内容に基づいて本実施形態において制作されたCGキャラクタを出演させた番組を制作する。   The program production means 17 has a function of producing a program using at least one CG character obtained by the surface data pasting means 15 and the texture changing means 16. Specifically, the program production means 17 sets the production content, the video used for the program, the speech of the CG character, the voice, etc., and the CG character produced in the present embodiment is made to appear based on the set content. Create a program.

なお、番組制作には、例えばTVML(TV program Making Language)等を用いることができる。TVMLとは、簡単な台本の記述によりCG(Computer Graphics)をベースとする番組等の映像コンテンツを自動的に制作する技術であり、台本をAPE(Automatic Program Engine)と呼ばれる演出付加ユニットに入力するだけで、台本の記述に対応させて映像コンテンツを生成するための詳細な情報(例えば、TVMLスクリプト等)を生成することができる。また、TVMLは、テレビ番組を制作するためのスクリプトベース記述言語であるため、番組制作手段17は、例えば、入力テキストとして「こんにちは」という文字がAPEに入力させることで、APEが文字列解析処理等を行い、出力テキストとして、「character:talk(name=CharacterA,text="こんにちは")」というTVMLスクリプトを出力することができる。   For program production, for example, TVML (TV program Making Language) can be used. TVML is a technology for automatically producing video content such as a program based on CG (Computer Graphics) based on a simple script description, and the script is input to an effect adding unit called APE (Automatic Program Engine). As a result, it is possible to generate detailed information (for example, a TVML script) for generating video content in correspondence with the description of the script. In addition, TVML is, because it is a script-based description language to produce a TV program, program production means 17, for example, that the word "Hello" is to be input to the APE as input text, APE the string analysis process carried out, etc., as the output text, "character: talk (name = CharacterA, text =" Hello ")" that it is possible to output the TVML script.

再生手段18は、制作されたCGキャラクタを、実際にTVMLスクリプトを用いて再生し、映像又は音声等を出力手段12により出力することで、ユーザにそのCGキャラクタの表情や動作を確認することができる。   The reproduction means 18 can actually reproduce the produced CG character using a TVML script and output video or audio by the output means 12 so that the user can confirm the expression and action of the CG character. it can.

なお、再生手段18は、例えばTVMLプレイヤーを用いることができる。TVMLプレイヤーとは、TVMLスクリプトを解釈してリアルタイムCG、音声合成等を用いて番組等のコンテンツを生成し、再生出力するソフトウェアである。   Note that the playback means 18 may be a TVML player, for example. The TVML player is software that interprets a TVML script, generates content such as a program using real-time CG, voice synthesis, and the like, and reproduces and outputs the content.

画面生成手段19は、本実施形態におけるCGキャラクタ制作に必要な各種画面を生成する。例えば、本実施形態におけるCGキャラクタ制作の実行画面や、画像取得処理に関する画面、面データ貼り付けに関する画面、テクスチャ変更に関する画面、再生手段18により再生された画面、CGキャラクタ制作装置10における実行経過や実行結果等の各種画面を所定のレイアウトで出力されるように生成する。なお、画面生成手段19により生成した画面は、出力手段12により映像及び/又は画面に対する使用案内等が音声として出力される。   The screen generation means 19 generates various screens necessary for CG character production in the present embodiment. For example, the execution screen of CG character production in this embodiment, the screen related to image acquisition processing, the screen related to surface data pasting, the screen related to texture change, the screen reproduced by the reproduction means 18, the execution progress in the CG character production device 10 Various screens such as execution results are generated so as to be output in a predetermined layout. Note that the screen generated by the screen generating means 19 is output by the output means 12 as video and / or usage guidance for the screen as audio.

送受信手段20は、通信ネットワークを介して各種制御データや、プログラム、CGキャラクタデータ(例えば、帽子や髪形、眼鏡、服、靴、鞄等のパーツ情報等)、台本データ、素材データ、番組制作エンジン、スクリプト等の各種データを他の装置に送信したり、他の装置から上述した各種データを受信するための通信インタフェースである。なお、送受信手段20は、画像取得手段14とは別に顔画像データの送受信を行うことができる。   The transmission / reception means 20 transmits various control data, programs, CG character data (for example, hat, hairstyle, glasses, clothes, shoes, bag information, etc.), script data, material data, program production engine via a communication network. This is a communication interface for transmitting various data such as scripts to other devices and receiving the above-mentioned various data from other devices. The transmission / reception unit 20 can transmit and receive face image data separately from the image acquisition unit 14.

制御手段21は、CGキャラクタ制作装置10における各機能構成全体の制御を行う。具体的には、制御手段21は、入力手段11により入力されたユーザ等からの入力情報に基づいて画像を取得したり、取得した画像データを用いて予め設定されたCGキャラクタの面データに貼り付け処理を行ったり、テクスチャ変更手段16により変更したり、再生したり、本実施形態における各種画面を生成し、生成した画面を出力したり、各種データを送受信する等の各種制御を行う。   The control means 21 controls the entire functional configuration of the CG character production apparatus 10. Specifically, the control unit 21 acquires an image based on input information from the user or the like input by the input unit 11 or pastes it on the plane data of the CG character set in advance using the acquired image data. Various controls are performed such as performing an attaching process, changing the texture by the texture changing unit 16, playing it back, generating various screens in the present embodiment, outputting the generated screens, and transmitting / receiving various data.

上述したように、本実施形態によれば、CGキャラクタの表情変化の実現に関して、例えば目を閉じた状態と開いた状態の画像、口を開けた状態と閉じた状態の画像を含む複数のテクスチャ画像を用意し、リアルタイムにテクスチャを切り替えることにより、CGキャラクタの瞬きや口形変化を簡単かつ容易に実現することができる。   As described above, according to the present embodiment, with respect to the realization of the CG character's facial expression change, for example, a plurality of textures including an eye closed state and an open state image, a mouth open state and a closed state image By preparing images and switching textures in real time, blinking and mouth shape change of a CG character can be realized easily and easily.

<面データ貼り付けとテクスチャ変更について>
次に、上述した本実施形態における面データ貼り付け手段15における面データ貼り付け処理と、テクスチャ変更手段16におけるテクスチャ変更処理とにおける具体例について図を用いて説明する。図3は、本実施形態におけるテクスチャ貼り付けの一例を示す図である。
<About surface data pasting and texture change>
Next, specific examples of the surface data pasting process in the surface data pasting unit 15 and the texture changing process in the texture changing unit 16 in the present embodiment will be described with reference to the drawings. FIG. 3 is a diagram illustrating an example of texture pasting in the present embodiment.

本実施形態では、図3に示すように、蓄積手段13等に蓄積された頭部を除く複数のキャラクタモデルを有し、その複数のキャラクタモデルから任意に選択したCGキャラクタモデル30を設定する。また、この設定されたCGキャラクタモデルの頭部の形状を設定し(例えば、立方体、球体等)、設定した頭部モデルに画像取得手段14にて取得した顔画像をテクスチャとして貼り付ける。なお、頭部の形状は、例えば立方体や直方体、球体等の簡易な形状データとする。これにより、複雑なポリゴン構造を行わずに簡単なポリゴンにより形成することができる。   In the present embodiment, as shown in FIG. 3, a CG character model 30 having a plurality of character models excluding the head accumulated in the accumulation means 13 and the like and arbitrarily selected from the plurality of character models is set. Further, the head shape of the set CG character model is set (for example, a cube, a sphere, etc.), and the face image acquired by the image acquisition unit 14 is pasted as a texture on the set head model. The shape of the head is, for example, simple shape data such as a cube, a rectangular parallelepiped, or a sphere. Thereby, it can form with a simple polygon, without performing a complicated polygon structure.

また、本実施形態では、顔画像を面データとして貼り付ける際、CGキャラクタモデル30の頭部の顔の前面に対応する面データに対して、目を含む上領域と口を含む下領域とに分ける。これは、目の開閉画像と口の開閉画像とをそれぞれ分けるためである。この分かれたデータを組み合わせることにより、CGキャラクタモデル30の顔の表情、特に一番特徴が現れる目及び口について、CGキャラクタモデル30の上顔半面と下顔半面とを切り替えて表示する。また、切り替えるタイミングは、例えば目の瞬きのタイミングであってもよく、セリフの1文字毎の口の開け方、喋るタイミング等に応じて適宜切り替えることができる。   In this embodiment, when a face image is pasted as face data, the face data corresponding to the front face of the head of the CG character model 30 is divided into an upper area including eyes and a lower area including mouth. Divide. This is to separate the opening / closing image of the eyes and the opening / closing image of the mouth. By combining the divided data, the facial expression of the CG character model 30, particularly the eyes and mouth where the most characteristic features appear, is switched between the upper face half face and the lower face half face of the CG character model 30. Moreover, the timing of switching may be, for example, the timing of blinking eyes, and can be switched as appropriate according to how to open the mouth for each character of the speech, the timing to speak.

具体的には、図3に示すように、目及び口が開いている写真画像31と、目及び口が閉じている写真画像32とをそれぞれ上半分と下半分とに分ける。つまり、写真画像31の上半分が画像31−aであり、下半分が画像31−bである。また、同様に写真画像の上半分が画像32−aであり、下半分が画像32−bである。面データ貼り付け手段15は、写真画像31及び写真画像32を頭部の立方体のどの面にマッピングされるかの情報が予め設定されており、これにより所定の条件に応じて画像31−aと画像32−a、画像31−bと画像32−bをそれぞれのタイミングで切り替えることができる。   Specifically, as shown in FIG. 3, a photographic image 31 with eyes and mouth open and a photographic image 32 with eyes and mouth closed are divided into an upper half and a lower half, respectively. That is, the upper half of the photographic image 31 is the image 31-a, and the lower half is the image 31-b. Similarly, the upper half of the photographic image is the image 32-a, and the lower half is the image 32-b. In the surface data pasting means 15, information on which surface of the cube of the head the photographic image 31 and the photographic image 32 are mapped is set in advance, whereby the image 31-a and the image 31-a The image 32-a, the image 31-b, and the image 32-b can be switched at each timing.

更に、図3では、CGキャラクタモデル30が被る帽子のCGモデル33が設定されている。このように、本実施形態では、CGキャラクタモデル30が着用する服や帽子、眼鏡、靴等についても、予め蓄積手段13に複数の格好に関するデータ等が蓄積され、その中からユーザ等により選択することができ、これらの画像をCGキャラクタモデル30の対応する部位にマッピングすることにより多種のCGキャラクタ設定を行うことができる。   Further, in FIG. 3, a CG model 33 of a hat worn by the CG character model 30 is set. As described above, in the present embodiment, for the clothes, hat, glasses, shoes, and the like worn by the CG character model 30, data relating to a plurality of appearances are stored in the storage unit 13 in advance, and are selected by the user or the like. Various CG character settings can be performed by mapping these images to corresponding portions of the CG character model 30.

ここで、図3に示す画像34−1〜34−5は、それぞれの表情に合わせて切り替えてマッピングされた後のCGキャラクタ30が表示されており、帽子のCGモデルもCGキャラクタモデル30の一部となっている。   Here, the images 34-1 to 34-5 shown in FIG. 3 display the CG character 30 after being switched and mapped in accordance with each expression, and the CG model of the hat is also one of the CG character models 30. Has become a department.

具体的には、画像34−1のCGキャラクタモデル30には、目が開いている画像が頭部モデルの前面上部にマッピングされ、更に口が閉じている画像が頭部モデルの前面下部にマッピングされている。   Specifically, in the CG character model 30 of the image 34-1, an image with open eyes is mapped to the upper front part of the head model, and an image with a closed mouth is mapped to the lower front part of the head model. Has been.

更に、CGキャラクタモデル30が何かを喋る場合には、予め設定された音声ファイル又は外部マイク入力された音声等にしたがって口が開閉する。この場合、テクスチャ変更手段16は、入力された音声の各文字や各単語に対応させて口の写真画像31−bと写真画像32−bとを切り替えて口部分のマッピングを行い、画像34−2に示すように実際に喋っているような画像を簡単に表示することができる。なお、本実施形態では、喋っている最中や、その他の静止している状態でも、予め設定される定期的又は所定のリズムで瞬きをさせるために写真画像31−aと写真画像32−aとを切り替え、画像34−3に示すように瞬きを行わせる。   Further, when the CG character model 30 speaks something, the mouth opens and closes in accordance with a preset voice file or voice input from an external microphone. In this case, the texture changing unit 16 performs mapping of the mouth portion by switching between the photographic image 31-b and the photographic image 32-b of the mouth corresponding to each character or each word of the input voice, and the image 34- As shown in FIG. 2, it is possible to easily display an image that is actually speaking. In the present embodiment, the photographic image 31-a and the photographic image 32-a are used for blinking at a preset periodicity or a predetermined rhythm even when the user is standing still or at rest. And blinking is performed as shown in an image 34-3.

なお、目の閉じた状態の画像と目を開けた状態の画像からなる2枚の画像の切り替えだけでも睫毛が移動しているように見える。これは、いわゆる「仮現運動」と呼ばれているものであり、実際には運動がないのに運動があるように錯覚する現象を利用している。つまり、本実施形態では、視覚に関する錯覚である錯視を利用することで、簡単に瞬き映像を違和感なくユーザに提示することができる。   It should be noted that the eyelashes appear to move only by switching between two images consisting of an image with the eyes closed and an image with the eyes open. This is a so-called “apparent movement”, and utilizes the phenomenon that there is an illusion that there is a movement even though there is no movement. That is, in the present embodiment, by using an illusion that is an illusion about vision, a blink video can be easily presented to the user without a sense of incongruity.

なお、図3の例では、立方体の頭部の前面に画像を貼り付けているため、画像34−4,34−5に示すように、別視点によりCGキャラクタモデル30が斜め方向を向いた場合には、あまり斜めや後を写す機会も少ないことから、立法体のそのままの色を表示させる。これにより、作業負担を軽減させることができると共に、より親しみ易いCGならではのコミカルなキャラクタ性を出すことができる。また、本発明においてはこれに限定されるものではなく、例えば頭部の形状を立法体ではなく球体にして全面を覆うように写真画像を貼り付けてもよく、また頭部の後面や側面を髪の色に合わせて、若しくは予め指定された色に合わせて着色してもよい。   In the example of FIG. 3, since the image is pasted on the front of the cube head, as shown in the images 34-4 and 34-5, the CG character model 30 is directed obliquely from another viewpoint. Because there are few opportunities to shoot diagonally or behind, the color of the legislature is displayed as it is. As a result, the work load can be reduced, and a comical character unique to CG that is more familiar can be produced. In the present invention, the present invention is not limited to this. For example, a photographic image may be pasted so that the shape of the head is not a legitimate body but a sphere, and the entire surface is covered. You may color according to the color of hair, or according to the color designated beforehand.

また、図3の画像34−5に示すように、CGキャラクタモデル30は、手足を動かす等の動作をアニメーション映像として表示することができ、この場合には、キャラクタ表示中にマッピング画像を切り替えることにより、瞬き、口の開閉を実現できる。   Further, as shown in an image 34-5 in FIG. 3, the CG character model 30 can display an operation such as moving a limb as an animation image. In this case, the mapping image is switched during the character display. Thus, blinking and opening / closing of the mouth can be realized.

<テクスチャ変更の他の実施例>
ここで、本実施形態におけるテクスチャ変更の他の実施例について図を用いて説明する。図4は、本実施形態におけるテクスチャ変更の他の実施例を説明するための図である。図4の例では、1つの写真画像41に対して所定部分のみの画像の引き伸ばし又は圧縮処理することにより、顔の表情を変化させる。
<Another embodiment of texture change>
Here, another example of texture change in the present embodiment will be described with reference to the drawings. FIG. 4 is a diagram for explaining another example of texture change according to the present embodiment. In the example of FIG. 4, the facial expression is changed by enlarging or compressing an image of only a predetermined portion of one photographic image 41.

具体的には、図4に示すように、写真画像41の中心から端部に行くほど画像の上下を引き伸ばすことで、変形画像42−aに示すように怒った顔に変化させることができ、また写真画像41の中心から端部に行くほど、画像の上下を圧縮することで、変形画像42−bに示すように笑った顔に変化させることができる。   Specifically, as shown in FIG. 4, by extending the top and bottom of the image from the center to the end of the photographic image 41, it can be changed to an angry face as shown in the modified image 42-a. Further, as it goes from the center of the photographic image 41 to the end portion, the upper and lower sides of the image are compressed, so that the face can be changed to a smile as shown in the modified image 42-b.

したがって、これらの変形画像を蓄積手段13に蓄積しておき、CGキャラクタが喋るセリフや設定した動作(例えば、「怒っている」、「楽しい」等)に応じて表示を変えた変形画像43−a,43−bに変更して表示させることができる。なお、本実施形態における変形画像は、上述した内容に限定されるものではなく、例えば画像の左右を引き伸ばしたり、圧縮したりしてもよい。また、本実施形態では、画像解析処理により画素の輝度や色差等から目や口を部分的に抽出して、その形や向きを変更することで表情を変えることができる。しかしながら、その場合には、画像解析処理が別途必要となり処理が複雑となるため、本実施形態において画像を変形する場合には、その1つの画像全体に対して上述したような引き伸ばしや圧縮を行うことが好ましい。これにより、1枚の画像から複数の画像を生成して表情のあるCGキャラクタの顔画像を設定することができる。   Therefore, these deformed images are accumulated in the accumulating means 13, and the deformed image 43- whose display is changed in accordance with a dialogue or a set action (for example, “angry”, “fun”, etc.) by the CG character. It can be changed to a, 43-b and displayed. Note that the deformed image in the present embodiment is not limited to the above-described content, and for example, the left and right sides of the image may be stretched or compressed. Further, in the present embodiment, the facial expression can be changed by partially extracting the eyes and mouth from the luminance and color difference of the pixels by image analysis processing and changing the shape and orientation thereof. However, in that case, an image analysis process is separately required and the process becomes complicated. Therefore, when an image is deformed in the present embodiment, the above-described enlargement or compression is performed on the entire image. It is preferable. Thereby, a plurality of images can be generated from one image and a facial image of a CG character with a facial expression can be set.

更に、本実施形態では、予め異なる表情の写真画像を用意することも可能であるが、1枚の写真画像を変形することにより、撮影回数を抑えて異なる表情を生成することができる。つまり、本実施形態では、テクスチャ画像データの変更により表情変化を実現することができる。   Furthermore, in this embodiment, it is possible to prepare photographic images with different facial expressions in advance, but by transforming one photographic image, it is possible to generate different facial expressions while suppressing the number of times of photographing. That is, in the present embodiment, the expression change can be realized by changing the texture image data.

上述した図3や図4に示す例では、頭部の形状は非常に簡単な立方体であるが、例えば楕円球や凹凸をもった曲面等により複雑な形状にし、ポリゴンの数を増やして、テクスチャマッピングの領域を細かく指定することにより、より自然なキャラクタを制作することもできる。また、本実施形態では、上述した写真画像だけでなく、手書きの画像も利用することができる。   In the examples shown in FIGS. 3 and 4 described above, the shape of the head is a very simple cube. However, for example, the shape of the head is complicated by an elliptical sphere or a curved surface with unevenness, and the number of polygons is increased to increase the texture. By specifying the mapping area in detail, a more natural character can be produced. In the present embodiment, not only the above-described photographic image but also a handwritten image can be used.

<CGキャラクタの定義>
ここで、上述した面データ貼り付けにおけるCGキャラクタの定義に内容について図を用いて説明する。図5は、本実施形態におけるCGキャラクタの定義内容について説明するための図である。なお、図5に示す例では、CGキャラクタの変更パラメータ等を設定する「Chara.bm」(図5(a))と、CGキャラクタの表情を設定する「Chara.bmo」(図5(b))と、目領域のテクスチャマッピング情報を設定する「eyeO.x」(図5(c))との3種類の定義ファイルを有している。
<Definition of CG character>
Here, the contents of the definition of the CG character in the above-described surface data pasting will be described with reference to the drawings. FIG. 5 is a diagram for explaining the definition contents of the CG character in the present embodiment. In the example shown in FIG. 5, “Chara.bm” (FIG. 5A) for setting the change parameter of the CG character and the like, and “Chara.bmo” (FIG. 5B) for setting the expression of the CG character. ) And “eyeO.x” (FIG. 5C) for setting the texture mapping information of the eye area.

図5(a)に示す「Chara.bm」の(1)では、瞬きのタイミング(瞬きする間隔、閉じたままの時間等)を設定する。また、図5(b)に示す「Chara.bmo」では、CGキャラクタの表情として、そのCGキャラクタの口の動きや目の瞬き時におけるファイル名を設定する。具体的には、図5(b)の(2)に示すように、CGキャラクタが何もセリフを喋らない場合又は何らかのセリフ(言葉)を発声する場合(例えば、母音("A"、"I"、"U"、"E"、"O")等)に対して何れかの画像の割り当てを行う。   In (1) of “Chara.bm” shown in FIG. 5A, the timing of blinking (blinking interval, time during which the blinking is closed, etc.) is set. Also, in “Chara.bmo” shown in FIG. 5B, the name of the file of the CG character's mouth movement or eye blink is set as the expression of the CG character. Specifically, as shown in (2) of FIG. 5B, when the CG character does not speak anything or utters some words (for example, vowels (“A”, “I “,“ U ”,“ E ”,“ O ”), etc.) is assigned.

なお、図5(b)の(2)の例では、"mouthC.x"が、口が閉じている状態の画像を示し、 "mouthO.x"が、口が開いている状態の画像を示す。   In the example of (2) in FIG. 5B, “moutC.x” indicates an image with the mouth closed, and “moutO.x” indicates an image with the mouth open. .

また、図5(b)の(3)に示すように、目の開閉時のそれぞれのCGデータを設定する。ここで、図5(b)の(3)の例では、"eyeC.x"が、目が閉じている状態の画像を示し、"eyeO.x"が、目が開いている状態の画像を示す。また、図5(b)の(4)に示すように、瞬きをどのように制御するかの制御方法を設定する。   In addition, as shown in (3) of FIG. 5B, the respective CG data when the eyes are opened and closed are set. Here, in the example of (3) in FIG. 5B, “eyeC.x” indicates an image with the eyes closed, and “eyeO.x” indicates an image with the eyes open. Show. Further, as shown in (4) of FIG. 5B, a control method is set for how to control blinking.

更に、図5(c)に示す「eyeO.x」の(5)では、"image.JPG"のテクスチャ画像に対して、目領域の形状データを設定し、図5(c)に示す「eyeO.x」の(6)では、目領域のテクスチャマッピング情報を設定する。これにより、面データに対する目領域のテクスチャ画像の貼り付け処理が行われる。   Further, in (5) of “eyeO.x” shown in FIG. 5C, the shape data of the eye area is set for the texture image “image.JPG”, and “eyeO.X” shown in FIG. .X ”(6) sets texture mapping information for the eye area. As a result, the texture image pasting process for the eye area is performed on the surface data.

また、図6は、本実施形態におけるCGキャラクタの口部分の制御内容の一例を示す図である。図6に示す例では、口部分の制御を行うための「Chara.bmo」と、口領域のテクスチャマッピング情報を設定する「mouseO.x」との2種類の定義ファイルを有している。   FIG. 6 is a diagram illustrating an example of the control content of the mouth portion of the CG character in the present embodiment. The example shown in FIG. 6 has two types of definition files, “Chara.bmo” for controlling the mouth portion and “mouseO.x” for setting texture mapping information for the mouth region.

図6(a)に示す「Chara.bmo」では、(1),(2)に示すように複数の表情に対するデータが設定されている。また、(3)に示すように口の開閉の制御方法を設定し、(4)に示すように、表情変更時における制御方法を設定する。   In “Chara.bmo” shown in FIG. 6A, data for a plurality of facial expressions are set as shown in (1) and (2). Further, a control method for opening and closing the mouth is set as shown in (3), and a control method for changing the facial expression is set as shown in (4).

また、図6(b)に示す「mouseO.x」では、(5)に示す口領域の形状データと、(6)に示す口領域テクスチャマッピング情報が設定されており、これにより、CGキャラクタの動作を、例えばTVML等を用いて再生することで、適切な動作を実現することができる。   Also, in “mouseO.x” shown in FIG. 6B, the shape data of the mouth area shown in (5) and the mouth area texture mapping information shown in (6) are set. An appropriate operation can be realized by reproducing the operation using, for example, TVML.

なお、これらの定義ファイルは面データ貼り付け手段15やテクスチャ変更手段16等により生成され、再生手段18において、読み出されることで、所定のCGキャラクタを設定することができる。   These definition files are generated by the surface data pasting means 15, the texture changing means 16, and the like, and read by the reproducing means 18, so that a predetermined CG character can be set.

<TVMLを用いた記述例>
ここで、本実施形態の適用例として、TVMLを用いたテクスチャ画像データの変更時における記述例について具体的に説明する。
<Description example using TVML>
Here, as an application example of this embodiment, a description example at the time of changing texture image data using TVML will be specifically described.

例えば、CGキャラクタであるキャラクタA("CharacterA")を番組等に出演さえる場合には、キャラクタAに対応した動作等を定義した定義ファイルを蓄積手段13から取得し、その定義ファイルを参照してキャラクタAの通常時の動作(例えば、目の瞬きやセリフに合わせた口の開閉等)を行う。   For example, when a character A (“Character A”), which is a CG character, appears in a program or the like, a definition file that defines actions and the like corresponding to the character A is acquired from the storage means 13 and the definition file is referred to. The normal operation of the character A (for example, blinking of eyes or opening / closing of the mouth in accordance with a line) is performed.

そこで、TVMLの記述中に、例えば
character: expression(name=CharacterA, type=angry, time=1.0);
character: talk( name=CharacterA, text="怒っています", emotion=excite)
character: expression(name=CharacterA, type=happy, time=1.0);
character: talk( name=CharacterA, text="幸せです", emotion=excite)
のような記述が含まれていた場合、テクスチャ変更手段は、"type=angry"又は"type=happy"等のパラメータを認識し、そのタイプ(type)に合わせて上述した変形画像に切り替えを行う。これにより、目及び口の開閉画像と、その変形画像とを用いて様々な表情の顔画像を表示することができる。
So, in the description of TVML, for example
character: expression (name = CharacterA, type = angry, time = 1.0);
character: talk (name = CharacterA, text = "angry", emotion = excite)
character: expression (name = CharacterA, type = happy, time = 1.0);
character: talk (name = CharacterA, text = "happy", emotion = excite)
Is included, the texture changing unit recognizes a parameter such as “type = angry” or “type = happy”, and switches to the above-described modified image according to the type (type). . As a result, face images with various facial expressions can be displayed using the open / closed images of the eyes and mouth and the deformed images.

<画面生成例>
次に、上述した画面生成手段19における画面生成例について図を用いて説明する。なお、以下に示す画面例では、自分の顔写真を使用した「自分キャラ」を作成してニュースやバラエティのようなテレビ番組の映像を制作するときの画面例を示すものであり、番組制作時に上述したCGキャラクタ制作を含むものである。
<Screen generation example>
Next, an example of screen generation in the above-described screen generation means 19 will be described with reference to the drawings. The screen example below shows a screen example when creating a video of a TV program such as news or variety by creating a “my character” using your face photo. This includes the CG character production described above.

<メニュー画面例>
図7は、本実施形態におけるメニュー画面の一例を示す図である。図7に示すメニュー画面50は、番組制作手順の一例として、ユーザ向けに「キャラクタをつくろう」、「演出をえらぼう」、「映像をえらぼう」、「セリフをかんがえよう」、「声を入れよう」、「作品を見よう」等のタイトルが表示される。つまり、図7に示す番組制作手順は、具体的には、CGキャラクタを制作するステップと、演出を選ぶステップと、映像を選ぶステップと、セリフを選ぶステップと、声を入れるステップと、作品を見るステップとを有している。
<Example of menu screen>
FIG. 7 is a diagram illustrating an example of a menu screen in the present embodiment. The menu screen 50 shown in FIG. 7 is an example of a program production procedure. For a user, “Create a character”, “Select a production”, “Select a video”, “Let's think about a line”, “Speak a voice” Titles such as “Let's see” and “Let's see the work” are displayed. That is, the program production procedure shown in FIG. 7 specifically includes a step of producing a CG character, a step of selecting an effect, a step of selecting a video, a step of selecting a speech, a step of making a voice, Viewing step.

また、図7に示すCGキャラクタを制作するための図面の内容が表示されている。CGキャラクタ制作手順としては、「自分キャラ」を制作するためにユーザ自らの顔写真を撮るステップと、CGキャラクタの服や髪形等の格好を選ぶステップとを有しており、その他にも、顔イラストを選ぶステップやCGキャラクタを選ぶステップを有することもできる。   Further, the contents of the drawing for producing the CG character shown in FIG. 7 are displayed. The CG character production procedure includes a step of taking a photograph of the user's face to produce a “self character”, and a step of selecting the appearance of the CG character's clothes, hairstyle, etc. A step of selecting an illustration and a step of selecting a CG character can also be included.

顔イラストを選ぶステップでは、CGキャラクタ制作装置10としてのパソコン(パーソナルコンピュータ)等の中に入っているイラストの中から顔を選択する。また、CGキャラクタを直接選ぶステップでは、パソコン等の中に入っているCGキャラクタモデルを選択する。また、メニュー画面50には、選択された状態でのCGキャラクタ51を表示させることができる。   In the step of selecting a face illustration, a face is selected from illustrations contained in a personal computer (personal computer) or the like as the CG character production apparatus 10. In the step of directly selecting a CG character, a CG character model in a personal computer or the like is selected. In addition, the CG character 51 in the selected state can be displayed on the menu screen 50.

<顔写真撮影画面>
次に、顔写真撮影画面について、図を用いて説明する。図8は、顔写真を撮影する際に表示される画面の一例を示す図である。図8に示すように、顔写真撮影に対してユーザが同じ大きさの2枚の写真(目の開閉、口の開閉)を撮影することができるように、案内機能を有する顔写真撮影画面60は、メニュー画面50よりも前面に表示される。
<Face photo shooting screen>
Next, the face photo shooting screen will be described with reference to the drawings. FIG. 8 is a diagram illustrating an example of a screen displayed when a face photograph is taken. As shown in FIG. 8, a face photo shooting screen 60 having a guidance function is provided so that the user can take two photos of the same size (opening / closing the eyes, opening / closing the mouth) for the face photo shooting. Is displayed in front of the menu screen 50.

ここで、顔写真撮影画面60には、顔の予め設定した輪郭領域61の中に入れ、図8に示すシャッターボタンを押して撮影を行う。このとき、図8の例では、目を入れる領域62と、口を入れる領域63とがうっすらと画面に表示されており、ユーザはその領域に目及び口の位置を合わせて撮影を行う。つまり、上述した輪郭の画像をディスプレイ等の出力手段12に出力し、ユーザは、その画面を確認しながら撮像手段22で撮影される顔画像の位置を調整して撮影を行うことができる。   Here, the face photo shooting screen 60 is placed in a preset contour area 61 of the face, and a shutter button shown in FIG. 8 is pressed to take a picture. At this time, in the example of FIG. 8, the area 62 for entering the eyes and the area 63 for entering the mouth are slightly displayed on the screen, and the user performs shooting while aligning the positions of the eyes and the mouth in the areas. That is, the above-described contour image is output to the output unit 12 such as a display, and the user can perform shooting while adjusting the position of the face image shot by the imaging unit 22 while checking the screen.

図8の例では、画面音声案内に併せて目を開けて、口を閉じた状態の顔画像と、目を閉じて、顔を開けた状態の画像を撮影する。なお、音声案内では、例えば、「3、2、1、カシャ!」等の音声によりタイミングを合わせて所定の顔画像を撮影することができる。   In the example of FIG. 8, a face image with the eyes closed with the screen voice guidance closed, and an image with the eyes closed with the eyes closed are photographed. In the voice guidance, for example, a predetermined face image can be taken at the same timing with a voice such as “3, 2, 1, Kash!”.

また、シャッターボタンは、上述した2種類の画像を連続して撮影することができる。更に、シャッターボタンは、何度でも押すことができ、顔画像を撮り直すこともできる。   In addition, the shutter button can continuously capture the two types of images described above. Furthermore, the shutter button can be pressed any number of times, and a face image can be taken again.

また、撮影した画像は、プレビュー画面表示領域64−1,64−2に表示されるため、撮影直後に2種類の写真を撮影し、取り直し等の処理を迅速に行うことができる。なお、図8の映像において、ウェブカメラの映像が青い部分だけ抜けて撮影された画像が見える。   Further, since the captured images are displayed in the preview screen display areas 64-1 and 64-2, it is possible to take two types of photographs immediately after shooting and quickly perform processing such as re-taking. In addition, in the image of FIG. 8, an image can be seen in which the image of the web camera is taken through only a blue portion.

これにより、ユーザは、同じ顔サイズの2種類の異なる画像を正確かつ容易に撮影することができる。更に、本実施形態において、CGキャラクタを制作する初期設定の部分では、例えばCGキャラクタの格好や髪形を決定するために、複数の異なる服装や髪形が表示され、その中から設定させる画面を生成してもよく、また予め蓄積手段13に予め蓄積されている複数のイラストから顔を選択させたり、既に制作したCGキャラクタの中から選択させるような画面を生成することもできる。   Thus, the user can accurately and easily capture two different images having the same face size. Furthermore, in the present embodiment, in the initial setting part for creating a CG character, for example, a plurality of different clothes and hairstyles are displayed to determine the appearance and hairstyle of the CG character, and a screen for setting from among them is generated. Alternatively, it is also possible to generate a screen that allows a face to be selected from a plurality of illustrations stored in advance in the storage unit 13 or to be selected from already produced CG characters.

また、複数のCGキャラクタを番組に出演させる場合には、他の顔で上述の処理を行う。これにより、少なくとも1つのCGキャラクタを用いた番組を制作することができる。   When a plurality of CG characters are to appear in a program, the above-described processing is performed with another face. Thereby, a program using at least one CG character can be produced.

<演出設定画面>
次に、本実施形態における演出設定画面について図を用いて説明する。図9は、本実施形態における演出設定画面の一例を示す図である。図9に示す演出設定画面70は、スタジオセット、照明、カメラワーク等、その番組の大まかな内容を表示する。なお、演出設定画面70は、メニュー画面50よりも前面に表示される。
<Direction setting screen>
Next, the effect setting screen in the present embodiment will be described with reference to the drawings. FIG. 9 is a diagram showing an example of the effect setting screen in the present embodiment. The effect setting screen 70 shown in FIG. 9 displays the general contents of the program such as studio set, lighting, camera work, and the like. The effect setting screen 70 is displayed in front of the menu screen 50.

つまり、図9に示すように、演出設定画面70では、複数の演出内容が所定のキャプチャ画面71−1〜71−6等に表示される。なお、このキャプチャ画面71−1〜71−6に表示されるものは静止画であってもよく動画であってもよい。   That is, as shown in FIG. 9, on the effect setting screen 70, a plurality of effect contents are displayed on predetermined capture screens 71-1 to 71-6 and the like. Note that what is displayed on the capture screens 71-1 to 71-6 may be a still image or a moving image.

具体的には、例えば、背景が動画になっているレポータ風のものや、モニターを背負った「ニュース風」等のものがあるが、その他にも屋内・野外等のバラエティさを出すもの等を表示することができる。   Specifically, for example, there are reporter-like ones with animated backgrounds and “news-like” ones with a monitor on the back, but others that produce variety such as indoors and outdoors. Can be displayed.

なお、演出設定画面70では、キャプチャ画像71−4に示すように、現在選択されているアイテムは強調表示することができ、これにより、選択されているキャプチャ画像を容易に把握することができる。   Note that, on the effect setting screen 70, as shown in the capture image 71-4, the currently selected item can be highlighted, and thus the selected capture image can be easily grasped.

<映像選択画面>
次に、本実施形態における映像選択画面について図を用いて説明する。図10は、本実施形態における映像選択画面の一例を示す図である。
<Video selection screen>
Next, the video selection screen in the present embodiment will be described with reference to the drawings. FIG. 10 is a diagram illustrating an example of a video selection screen in the present embodiment.

本実施形態における映像選択時には、図10(a)に示すような映像選択画面80が表示される。なお、映像選択画面80は、メニュー画面50よりも前面に表示される。また、映像選択画面80は、映像を探すキーワードを入力するキーワード入力領域81と、検索により得られる映像を表示する映像表示領域82とを有している。   When a video is selected in the present embodiment, a video selection screen 80 as shown in FIG. 10A is displayed. The video selection screen 80 is displayed in front of the menu screen 50. The video selection screen 80 includes a keyword input area 81 for inputting a keyword for searching for a video and a video display area 82 for displaying a video obtained by the search.

ここで、映像選択画面80の映像を探すためのキーワードを入力し、検索ボタン(「さがす」ボタン)を選択すると、予め蓄積された所定のコンテンツデータベースを参照して、キーワードに対応する映像を抽出し、その抽出された映像を検索結果画面83に表示する。なお、検索結果画面83は、メニュー画面50よりも前面に表示される。   When a keyword for searching for a video on the video selection screen 80 is input and a search button (“search” button) is selected, a video corresponding to the keyword is extracted with reference to a predetermined content database stored in advance. The extracted video is displayed on the search result screen 83. The search result screen 83 is displayed in front of the menu screen 50.

ここで、検索結果画面83には、検索の結果として得られた映像84−1〜84−5と、各映像に対する説明内容(例えば、タイトル、映像再生時間、内容の説明等)を表示する。なお、表示される映像数については、本発明においてはこれに限定されるものではない。   Here, on the search result screen 83, the videos 84-1 to 84-5 obtained as a result of the search and the description content (for example, title, video playback time, description of the content, etc.) for each video are displayed. Note that the number of displayed images is not limited to this in the present invention.

また、図10(b)に示すように、表示された映像84−1〜84−5のうち、選択されているアイテムには、強調表示をすることができる。更に、本実施形態では、アイテムが選択されているときに、映像検索結果画面83の再生ボタンを選択すると、映像再生領域85において、選択された映像を表示する。   Moreover, as shown in FIG.10 (b), the highlighted item can be highlighted in the image | videos 84-1 to 84-5 displayed. Furthermore, in this embodiment, when an item is selected, when the playback button on the video search result screen 83 is selected, the selected video is displayed in the video playback area 85.

これにより、ユーザは、映像の検索と、検索された映像の確認を容易に行うことができ、所望する映像を迅速に取得することができる。   Accordingly, the user can easily search for the video and confirm the searched video, and can quickly obtain the desired video.

<セリフ設定画面>
次に、本実施形態におけるセリフ設定画面について図を用いて説明する。図11は、セリフ設定画面の一例を示す図である。図11に示すセリフ設定画面90は、映像を再生する映像再生領域91と、その映像に対してアクションを選択するプルダウンメニュー92と、映像を再生するタイミングを指定できるタイミング指定ボタン93と、セリフ入力領域94と、セリフ入力領域94に入力された文章に対してCGキャラクタの表情を表示させる表情表示領域95と、カメラアングルを設定するカメラアングル設定領域96と、セリフ間隔指定ボタン97とを有している。なお、セリフ設定画面90は、メニュー画面50よりも前面に表示される。
<Serif setting screen>
Next, the dialogue setting screen in the present embodiment will be described with reference to the drawings. FIG. 11 is a diagram illustrating an example of a dialogue setting screen. A dialogue setting screen 90 shown in FIG. 11 includes a video reproduction area 91 for reproducing a video, a pull-down menu 92 for selecting an action for the video, a timing designation button 93 for designating timing for reproducing the video, and a speech input. An area 94; a facial expression display area 95 for displaying the expression of the CG character with respect to the text input in the speech input area 94; a camera angle setting area 96 for setting a camera angle; and a speech interval designation button 97. ing. The dialogue setting screen 90 is displayed in front of the menu screen 50.

映像再生領域91は、セリフ設定画面90が有する再生ボタンで全てのセリフを先頭からプレビューするための画面である。つまり、セリフ設定画面90には、複数のセリフが喋る順序で上から表示されており、映像再生領域91は、この全てのセリフを喋る番組の内容を表示する。なお、本実施形態においては、上述した全てのセリフだけでなく、ユーザが指定した少なくとも1つのセリフについて表示させることができる。   The video playback area 91 is a screen for previewing all lines from the top with the playback button of the line setting screen 90. That is, the dialogue setting screen 90 displays a plurality of dialogues in the order in which they are spoken, and the video playback area 91 displays the contents of the program that speaks all these dialogues. In the present embodiment, not only all the lines described above but also at least one line designated by the user can be displayed.

また、プルダウンメニュー92は、映像に対して出演するCGキャラクタに対するアクションを選択するものであり、予め設定された「お辞儀をする」、「両手を挙げる」、「手を振る」といったアクションの内容を選択する。   The pull-down menu 92 is used to select an action for a CG character appearing on the video. The action contents such as “bowing”, “raising both hands”, and “waving hands” are set in advance. select.

更に、タイミング指定ボタン93は、映像を再生するタイミングを指定できるボタンである。つまり、タイミング指定ボタン93により、セリフの喋り始めや喋った後に映像が再生されるように設定することができる。セリフ入力領域94は、予めテンプレートテキストが入力されており、その文章にオリジナルの表現や言葉を設定する。また、表情表示領域95は、設定されたセリフに合わせて、「怒っている」や「笑っている」等の所定の表情のキャラクタアニメーションが表示される。また、カメラアングル設定領域96は、CGキャラクタを撮影するカメラのアングル(例えば、ズーム、パン等)を設定する。なお、表情表示領域95及びカメラアングル設定領域96は、予め設定された値が設定されている。また、これらの各領域を選択すると別ウィンドウが表示され、大きな画面での表示を行うことができる。   Furthermore, the timing designation button 93 is a button that can designate the timing for reproducing the video. In other words, the timing designation button 93 can be set so that the video is played after the speech starts or starts to be spoken. In the input area 94, template text is input in advance, and original expressions and words are set in the sentence. In the facial expression display area 95, a character animation of a predetermined facial expression such as “angry” or “laughing” is displayed in accordance with the set line. The camera angle setting area 96 is used to set an angle (for example, zoom, pan, etc.) of the camera that captures the CG character. The facial expression display area 95 and the camera angle setting area 96 are set with preset values. Further, when each of these areas is selected, a separate window is displayed, and a large screen can be displayed.

ここで、セリフ設定画面90は、CGキャラクタに喋らせるための複数のセリフやナレーションが喋る順序で表示されている。つまり、ユーザは、セリフ設定画面90を用いてCGキャラクタが喋るセリフや番組中のナレーション等を、入力手段11等を用いて設定する。   Here, the serif setting screen 90 is displayed in the order in which a plurality of serifs and narrations are given to the CG character. That is, the user uses the input unit 11 or the like to set the speech that the CG character speaks, the narration in the program, or the like using the speech setting screen 90.

また、本実施形態では、各セリフやナレーションを出力する間隔(間)を指定するためにセリフ間隔指定ボタン97により、間を調整することができる。なお、本実施形態では、セリフ間隔指定ボタン97をクリックすると、ボタンの数が増え、1つのボタンあたり、約0.5〜3秒のうち、予め設定された秒数の間が設定される。これにより、ユーザは、セリフの間を容易に設定することができ、また間の間隔を画面から容易に取得することができる。   Further, in the present embodiment, the interval can be adjusted by the serif interval designation button 97 in order to designate the interval (interval) at which each line or narration is output. In the present embodiment, when the speech interval designation button 97 is clicked, the number of buttons increases, and a preset number of seconds is set out of about 0.5 to 3 seconds per button. Thereby, the user can easily set between the lines, and can easily obtain the interval between the lines from the screen.

<音声入力画面>
次に、本実施形態における音声入力画面について図を用いて説明する。図12は、本実施形態における音声入力画面の一例を示す図である。図12に示す音声入力画面100は、映像表示領域101と、音声入力用の台本表示領域102とを有している。なお、音声入力画面100は、メニュー画面50よりも前面に表示される。
<Voice input screen>
Next, the voice input screen in the present embodiment will be described with reference to the drawings. FIG. 12 is a diagram illustrating an example of a voice input screen according to the present embodiment. The voice input screen 100 shown in FIG. 12 has a video display area 101 and a script display area 102 for voice input. The voice input screen 100 is displayed in front of the menu screen 50.

また、図12の音声入力画面100には、音声を録音するための録音ボタン103、音声を再生するための音声再生ボタン104、及び、音声や台本(原稿)を削除するための削除ボタン105を有しており、それぞれのボタンにより、CGキャラクタに喋らせる音声を録音したり、再生したり、削除したりすることができる。なお、録音ボタン103を選択し、録音状態となっているときには、録音ボタン103は停止ボタンに変わり、その停止ボタンを選択することで、録音が停止される。   The voice input screen 100 of FIG. 12 includes a recording button 103 for recording voice, a voice playback button 104 for playing back voice, and a delete button 105 for deleting voice and script (original). Each button can be used to record, play back, or delete a voice that is struck by the CG character. When the recording button 103 is selected and the recording state is set, the recording button 103 changes to a stop button, and recording is stopped by selecting the stop button.

<番組再生画面>
次に、本実施形態における番組再生画面について図を用いて説明する。図13は、本実施形態における番組再生画面の一例を示す図である。図13における番組再生画面110では、全画面再生ボタンと保存ボタンとを有している。なお、番組再生画面110は、メニュー画面50よりも前面に表示される。
<Program playback screen>
Next, the program playback screen in the present embodiment will be described with reference to the drawings. FIG. 13 is a diagram showing an example of a program playback screen in the present embodiment. The program playback screen 110 in FIG. 13 has a full screen playback button and a save button. The program playback screen 110 is displayed in front of the menu screen 50.

番組再生画面110は、全画面再生ボタンを選択することで、今までに設定された内容で番組の再生を全画面で表示する。なお、本実施形態において、途中で再生を中止する場合には、中止ボタンを設けてもよく、また所定のキー(例えば、escapeキー)等を選択することで、中止させてもよい。また、保存ボタンを選択することにより、例えば保存ダイアログで名前を付けて保存したり、サーバ等の外部機器でレンダリングするために、予めマウントされているサーバ内に保存されるように設定してもよい。なお、設定は、例えばiniファイルで定義しておくことが好ましい。   The program playback screen 110 displays the playback of the program on the full screen with the contents set so far by selecting the full screen playback button. In the present embodiment, when the playback is stopped halfway, a stop button may be provided, or may be stopped by selecting a predetermined key (for example, escape key) or the like. In addition, by selecting the save button, for example, a name can be saved in the save dialog, or it can be set to be saved in a pre-mounted server for rendering on an external device such as a server. Good. Note that the settings are preferably defined in, for example, an ini file.

本実施形態では、上述した各種画面例を画面生成手段19により生成し、出力手段12に出力することで、ユーザはその画面を見ながら容易に本実施形態におけるCGキャラクタやそのCGキャラクタを用いた番組を制作することができる。   In the present embodiment, the above-described various screen examples are generated by the screen generation unit 19 and output to the output unit 12, so that the user can easily use the CG character or the CG character in the present embodiment while viewing the screen. Can produce programs.

<実行プログラム>
ここで、上述したCGキャラクタ制作装置10は、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)等の揮発性の記憶媒体、ROM(Read Only Memory)等の不揮発性の記憶媒体、マウスやキーボード、ポインティングデバイス等の入力装置、画像やデータを表示する表示装置、並びに外部と通信するためのインタフェース装置を備えたコンピュータによって構成することができる。
<Execution program>
Here, the above-described CG character production device 10 includes, for example, a CPU (Central Processing Unit), a volatile storage medium such as a RAM (Random Access Memory), a nonvolatile storage medium such as a ROM (Read Only Memory), a mouse, It can be constituted by a computer including an input device such as a keyboard and a pointing device, a display device for displaying images and data, and an interface device for communicating with the outside.

したがって、CGキャラクタ制作装置10が有する上述した各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現可能となる。また、これらのプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。   Accordingly, the above-described functions of the CG character production apparatus 10 can be realized by causing the CPU to execute a program describing these functions. These programs can also be stored and distributed in a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

つまり、上述した各構成における処理をコンピュータに実行させるための実行プログラム(CGキャラクタ制作プログラム)を生成し、例えば汎用のパーソナルコンピュータやサーバ等にそのプログラムをインストールすることにより、番組制作処理を実現することができる。なお、本発明における実行プログラムによる処理については、例えば上述した各処理を実現することができる。   That is, the program production process is realized by generating an execution program (CG character production program) for causing the computer to execute the process in each configuration described above and installing the program in, for example, a general-purpose personal computer or server. be able to. In addition, about the process by the execution program in this invention, each process mentioned above is realizable, for example.

次に、本発明における実行プログラムによる処理手順についてCGキャラクタ制作処理手順と、CGキャラクタ制作を含めた番組制作処理について、フローチャートを用いて説明する。なお、以下の処理の説明では、コンテンツの一例として番組を用いるが、本発明におけるコンテンツの種類については、これに限定されるものではない。   Next, a processing procedure by the execution program in the present invention will be described with reference to a flowchart for a CG character production processing procedure and a program production process including CG character production. In the following description of the process, a program is used as an example of content, but the type of content in the present invention is not limited to this.

<CGキャラクタ制作処理手順>
図14は、本実施形態におけるCGキャラクタ制作処理手順の一例を示すフローチャートである。図14において、例えば、上述したように撮影用の画面をディスプレイ等の出力手段12に表示し(S01)、撮像手段22により撮影された目及び口を開閉させた2枚の画像を取得する(S02)。
<CG character production processing procedure>
FIG. 14 is a flowchart illustrating an example of a CG character production process procedure according to the present embodiment. In FIG. 14, for example, as described above, a screen for photographing is displayed on the output means 12 such as a display (S01), and two images obtained by opening and closing the eyes and mouth photographed by the imaging means 22 are acquired (S01). S02).

次に、S02の処理により取得した画像に対して予め設定されたCGキャラクタの頭の面データに対して、面データ貼り付け処理を行い(S03)、更に、CGキャラクタの喋る内容や動作の内容等により表情を変える場合には、上記の内容に応じてテクスチャの変更を行う(S04)。また、変更された情報に基づいてCGキャラクタ定義ファイルを生成する(S05)。更に、定義されたCGキャラクタを表示する(S06)。ここで、CGキャラクタが所望した通りに動作しない場合には、S02〜S04等の処理に戻り設定の変更等を行う。また、CGキャラクタが納得のいくものであった場合、そのCGキャラクタ定義ファイルによりCGキャラクタを登録する(S07)。   Next, the surface data pasting process is performed on the head data of the head of the CG character set in advance for the image acquired in the process of S02 (S03), and further, the contents of the CG character and the contents of the action When the facial expression is changed by, for example, the texture is changed according to the above contents (S04). Further, a CG character definition file is generated based on the changed information (S05). Further, the defined CG character is displayed (S06). Here, when the CG character does not move as desired, the process returns to the processing of S02 to S04 and the setting is changed. If the CG character is satisfactory, the CG character is registered by the CG character definition file (S07).

ここで、他のCGキャラクタを制作するか否かを判断し(S08)、他のCGキャラクタを制作する場合(S08において、YES)、S01に戻り設定等を変えて後続の処理を行うことで、他の条件におけるCGキャラクタの制作を行う。また、S08の処理において、他のCGキャラクタの制作をしない場合(S08において、NO)、ユーザ等の終了指示等によりCGキャラクタ制作処理を終了する。   Here, it is determined whether or not another CG character is to be produced (S08). When another CG character is produced (YES in S08), the process returns to S01 and the subsequent processing is performed by changing the setting. CG characters are produced under other conditions. If no other CG character is produced in the process of S08 (NO in S08), the CG character production process is terminated by an end instruction from the user or the like.

<番組制作処理手順>
次に、本実施形態における番組制作処理手順についてフローチャートを用いて説明する。図15は、本実施形態における番組制作処理手順の一例を示すフローチャートである。図15において、例えば、上述したように撮影用の画面をディスプレイ等の出力手段12に表示し(S11)、撮像手段22により撮影された目及び口を開閉させた2枚の画像を取得する(S12)。
<Program production process>
Next, the program production processing procedure in the present embodiment will be described using a flowchart. FIG. 15 is a flowchart showing an example of a program production processing procedure in the present embodiment. In FIG. 15, for example, as described above, a screen for photographing is displayed on the output means 12 such as a display (S11), and two images obtained by opening and closing the eyes and mouth photographed by the imaging means 22 are acquired (S11). S12).

次に、S12の処理により取得した画像に対して、CGキャラクタの特徴をより具体化するために、予め蓄積手段13等に蓄積された服や髪形等の格好の選択を行い(S13)、S12の処理により取得した画像と、S13の処理により選択された服や髪形等に基づいて、その番組に出演するCGキャラクタを作成する(S14)。   Next, in order to make the characteristics of the CG character more specific with respect to the image acquired by the process of S12, the appearance, such as clothes and hairstyle, stored in the storage means 13 or the like is selected in advance (S13), S12 A CG character appearing in the program is created on the basis of the image acquired by the process and the clothes and hairstyle selected by the process of S13 (S14).

次に、番組の演出を選択し(S15)、CGキャラクタのセリフを設定し(S16)、そのセリフに合わせたCGキャラクタの喋りに合わせた音声やナレーションに合わせた音声等を入力する(S17)。これらの設定により番組を制作し(S18)、制作された番組を再生する(S19)。なお、番組の修正や変更等を行う場合には、S11〜S17から選択される変更対象の処理に戻って対応する処理が行われる。   Next, the production of the program is selected (S15), the speech of the CG character is set (S16), and the voice adapted to the CG character's accent or the voice adapted to the narration is input (S17). . A program is produced according to these settings (S18), and the produced program is reproduced (S19). In addition, when correcting or changing a program, the corresponding process is performed after returning to the process to be changed selected from S11 to S17.

ここで、他の番組を制作するか否かを判断し(S20)、他の番組を制作する場合(S20において、YES)、S11に戻り設定等を変えて後続の処理を行うことで、他の条件における番組の制作を行うことができる。また、S20の処理において、他の番組の制作をしない場合(S20において、NO)、ユーザ等の終了指示等により番組制作処理を終了する。   Here, it is determined whether or not another program is to be produced (S20), and if another program is produced (YES in S20), the process returns to S11 to change the settings and perform the subsequent processing, and so on. The program can be produced under the conditions. If no other program is produced in the process of S20 (NO in S20), the program production process is terminated by an end instruction from the user or the like.

上述したように本発明によれば、ユーザが簡単に表情のあるCGキャラクタを制作することができる。具体的には、本発明によれば、一般ユーザが簡単にカスタマイズしたキャラクタモデルを使ったアニメーション等の番組を制作することができる。また、本発明では、カメラ等の撮像手段により撮影した写真画像がそのまま使用できるため、例えば自分の写真を撮ってテクスチャ画像にすることにより、あたかも自分の分身のキャラクタを制作することができる。また、本発明によれば、定義ファイル等を用いて適当なタイミングでの瞬きや喋りに合わせた口の開閉等を行うことができ、より自然なアニメーションを制作することができる。   As described above, according to the present invention, a user can easily create a CG character with a facial expression. Specifically, according to the present invention, it is possible to produce a program such as an animation using a character model easily customized by a general user. Further, in the present invention, since a photographic image taken by an imaging means such as a camera can be used as it is, for example, by taking a picture of yourself and making it a texture image, it is possible to produce a character of his own character. Further, according to the present invention, it is possible to open and close the mouth in accordance with blinking or squealing at an appropriate timing using a definition file or the like, and it is possible to produce a more natural animation.

以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10 CGキャラクタ制作装置
11 入力手段
12 出力手段
13 蓄積手段
14 画像取得手段
15 面データ貼り付け手段
16 テクスチャ変更手段
17 番組制作手段
18 再生手段
19 画面生成手段
20 送受信手段
21 制御手段
22 撮像手段
30 CGキャラクタモデル
31,32,41 写真画像
33 CGモデル
34 画像
42,43 変形画像
50 メニュー画面
51 CGキャラクタ
60 顔写真撮影画面
61 輪郭領域
62,63 領域
64 プレビュー画面表示領域
70 演出設定画面
71 キャプチャ画面
80 映像選択画面
81 キーワード入力領域
82 映像表示領域
83 検索結果画面
84 映像
85 再生領域
90 セリフ設定画面
91 映像再生領域
92 プルダウンメニュー
93 タイミング指定ボタン
94 セリフ入力領域
95 表情表示領域
96 カメラアングル設定領域
97 セリフ間隔指定ボタン
100 音声入力画面
101 映像表示領域
102 台本表示領域
110 番組再生画面
DESCRIPTION OF SYMBOLS 10 CG character production apparatus 11 Input means 12 Output means 13 Storage means 14 Image acquisition means 15 Surface data pasting means 16 Texture change means 17 Program production means 18 Playback means 19 Screen generation means 20 Transmission / reception means 21 Control means 22 Imaging means 30 CG Character model 31, 32, 41 Photo image 33 CG model 34 Image 42, 43 Deformed image 50 Menu screen 51 CG character 60 Face photography screen 61 Contour area 62, 63 area 64 Preview screen display area 70 Effect setting screen 71 Capture screen 80 Video selection screen 81 Keyword input area 82 Video display area 83 Search result screen 84 Video 85 Playback area 90 Dialog setting screen 91 Video playback area 92 Pull-down menu 93 Timing specification button 94 Dialog input area Area 95 Expression display area 96 Camera angle setting area 97 Dialog interval designation button 100 Audio input screen 101 Video display area 102 Script display area 110 Program playback screen

Claims (4)

テクスチャ画像データを用いてCGキャラクタを制作するCGキャラクタ制作装置において、
CGキャラクタモデルの目及び口の開閉状態におけるそれぞれの画像を取得する画像取得手段と、
前記画像取得手段により得られる画像を前記テクスチャ画像データとし、前記CGキャラクタモデルの頭部として設定された形状の面データに貼り付ける面データ貼り付け手段と、
前記面データ貼り付け手段により前記面データに貼り付けられた前記テクスチャ画像データを、前記CGキャラクタモデルの目を含む上半分と前記CGキャラクタモデルの口を含む下半分とに分け、前記CGキャラクタのセリフ又は動作に対応させて、前記上半分と下半分とをそれぞれのタイミングで切り替えて、前記CGキャラクタモデルの目及び口の開閉状態を変更するテクスチャ変更手段とを有し、
前記テクスチャ変更手段は、前記面データに貼り付ける前記テクスチャ画像データを切り替える変更条件を定義したCGキャラクタ定義ファイルを生成することを特徴とするCGキャラクタ制作装置。
In a CG character production apparatus that produces a CG character using texture image data,
Image acquisition means for acquiring respective images in the open / closed state of the eyes and mouth of the CG character model;
An image obtained by the image acquisition means as the texture image data, surface data pasting means for pasting the surface data of the shape set as the head of the CG character model;
The texture image data pasted on the surface data by the surface data pasting means is divided into an upper half including the eyes of the CG character model and a lower half including the mouth of the CG character model, and in correspondence with the speech or operation, by switching the lower half and the upper half each time, it has a texture changing means for changing the opening and closing states of the eyes and mouth of the CG character model,
The CG character production apparatus , wherein the texture changing means generates a CG character definition file defining a change condition for switching the texture image data to be pasted on the plane data .
前記画像取得手段により取得される画像が同一の顔サイズとなるように、撮影時の顔の位置を固定させるための案内画面を生成する画面生成手段を有することを特徴とする請求項1記載のCGキャラクタ制作装置。 Wherein as image acquired by the image acquiring means is the same face size, according to claim 1, characterized in that it comprises a screen generation means for generating a guidance screen for fixing the position of the face at the time of shooting CG character production device. 前記テクスチャ変更手段により得られる顔を有する少なくとも1つのCGキャラクタを用いた番組を制作する番組制作手段を有することを特徴とする請求項1又は2に記載のCGキャラクタ制作装置。 CG character producing apparatus according to claim 1 or 2, characterized in that it has a program production means for producing at least one program with CG characters having a face obtained by the texture changing means. コンピュータを、請求項1乃至の何れか1項に記載のCGキャラクタ制作装置として機能させるためのCGキャラクタ制作プログラム。 A CG character production program for causing a computer to function as the CG character production apparatus according to any one of claims 1 to 3 .
JP2010240022A 2010-10-26 2010-10-26 CG character production device and CG character production program Expired - Fee Related JP5639440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010240022A JP5639440B2 (en) 2010-10-26 2010-10-26 CG character production device and CG character production program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010240022A JP5639440B2 (en) 2010-10-26 2010-10-26 CG character production device and CG character production program

Publications (2)

Publication Number Publication Date
JP2012093913A JP2012093913A (en) 2012-05-17
JP5639440B2 true JP5639440B2 (en) 2014-12-10

Family

ID=46387178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010240022A Expired - Fee Related JP5639440B2 (en) 2010-10-26 2010-10-26 CG character production device and CG character production program

Country Status (1)

Country Link
JP (1) JP5639440B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983309B2 (en) 2018-03-22 2024-05-14 Japan Science And Technology Agency Device and method to acquire timing of blink motion performed by a dialogue device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7471826B2 (en) * 2020-01-09 2024-04-22 株式会社Iriam Video generation device and video generation program
JP6935531B1 (en) * 2020-04-01 2021-09-15 エヌエイチエヌ コーポレーション Information processing programs and information processing systems
JP2023082998A (en) * 2021-12-03 2023-06-15 株式会社アイシン Display control apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330424A (en) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd Movement converter for three-dimensional skeleton structure
JP2000235656A (en) * 1999-02-15 2000-08-29 Sony Corp Image processor, method and program providing medium
JP2003248841A (en) * 2001-12-20 2003-09-05 Matsushita Electric Ind Co Ltd Virtual television intercom
WO2008156437A1 (en) * 2006-04-10 2008-12-24 Avaworks Incorporated Do-it-yourself photo realistic talking head creation system and method
JP5041853B2 (en) * 2007-04-04 2012-10-03 日本放送協会 Content generation apparatus and content generation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983309B2 (en) 2018-03-22 2024-05-14 Japan Science And Technology Agency Device and method to acquire timing of blink motion performed by a dialogue device

Also Published As

Publication number Publication date
JP2012093913A (en) 2012-05-17

Similar Documents

Publication Publication Date Title
KR102503413B1 (en) Animation interaction method, device, equipment and storage medium
US8830244B2 (en) Information processing device capable of displaying a character representing a user, and information processing method thereof
CN107613357B (en) Sound and picture synchronous optimization method and device and readable storage medium
CN105190699B (en) Karaoke incarnation animation based on facial motion data
US8730231B2 (en) Systems and methods for creating personalized media content having multiple content layers
JPWO2019230225A1 (en) Image processing device, image processing method, program
KR101306221B1 (en) Method and apparatus for providing moving picture using 3d user avatar
US20110304629A1 (en) Real-time animation of facial expressions
US20100201693A1 (en) System and method for audience participation event with digital avatars
JP5639440B2 (en) CG character production device and CG character production program
JP2016038601A (en) Cg character interaction device and cg character interaction program
CN111530086B (en) Method and device for generating expression of game role
JP2010017360A (en) Game device, game control method, game control program, and recording medium recording the program
CN115606191A (en) Text message customization in modifiable video in multimedia messaging applications
CN115362474A (en) Scoods and hairstyles in modifiable video for custom multimedia messaging applications
JP7098026B2 (en) Video distribution system, video distribution method and video distribution program
JP2004005265A (en) Image composing method, device and system
JP5690080B2 (en) Moving image data generation device and moving image data generation method
JP2008135923A (en) Production method of videos interacting in real time, video production device, and video production system
KR20200025285A (en) System and method for entertainer experience
JP2000306092A (en) Mirror realized by digital image processing and medium with built-in program for making computer perform the processing
JP5509287B2 (en) Reproduction display device, reproduction display program, reproduction display method, and image processing server
JP2020137050A (en) Imaging device, imaging method, imaging program, and learning device
KR20060040118A (en) Method and appartus for producing customized three dimensional animation and system for distributing thereof
JP5106240B2 (en) Image processing apparatus and image processing server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140722

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141024

LAPS Cancellation because of no payment of annual fees