JP2006039705A - Content creation device, content creation method, and content creation system - Google Patents
Content creation device, content creation method, and content creation system Download PDFInfo
- Publication number
- JP2006039705A JP2006039705A JP2004215236A JP2004215236A JP2006039705A JP 2006039705 A JP2006039705 A JP 2006039705A JP 2004215236 A JP2004215236 A JP 2004215236A JP 2004215236 A JP2004215236 A JP 2004215236A JP 2006039705 A JP2006039705 A JP 2006039705A
- Authority
- JP
- Japan
- Prior art keywords
- content
- scenario
- information
- input
- content creation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、コンピュータグラフィックス、画像、音声を組み合わせてコンテンツを作成するコンテンツ作成装置に関し、特に状況に応じて内容を変更するコンテンツを作成するコンテンツ作成装置に関する。 The present invention relates to a content creation device that creates content by combining computer graphics, images, and audio, and more particularly to a content creation device that creates content whose contents change according to the situation.
電子メールは、今や電話と並んで遠隔地間を結ぶ重要なコミュニケーションツールのひとつになっている。また、近年の通信ネットワークの広帯域化に伴って、テキストのみを使用するメールだけでなく、音声や画像を含んだものが増えている。更に最近では、携帯電話において、文字の大きさや色を変えたり、画像を挿入することによってカラフルで多彩なメールを作成することが可能になっている。コンテンツメーカーのウェブサイトには、この技術を利用して作成されたコンテンツが用意されている。ユーザーがその中から所望のコンテンツを選択し、送り先アドレスを指定するだけで、相手にカラフルで楽しいメールを容易に送ることを可能にするサービスも開始されている。 E-mail is now one of the important communication tools that connect remote locations alongside telephones. In addition, with recent widening of communication networks, not only emails that use only text, but also those that include voice and images are increasing. More recently, it has become possible to create colorful and diverse emails by changing the size and color of characters and inserting images on mobile phones. Content created using this technology is available on the content manufacturer's website. A service has also been started that allows a user to easily send a colorful and fun mail to a partner simply by selecting a desired content and specifying a destination address.
しかし、上述したサービスでは、あらかじめ用意されたコンテンツを利用するしかないため、例えば状況(場所、時間、背景に流れている音楽の曲調など)に応じてキャラクタの動作などを変化させることはできなかった。これらの問題に対処するための従来技術として、特開2001−118084号公報に開示された「オブジェクト表示制御システムおよび記録媒体」がある(特許文献1参照)。この従来技術を、図15を用いて説明する。図15のオブジェクト表示制御システムでは、まずプレーヤ16またはスピーカ&イヤホン17より入力されたサウンドデータの波形データを、ソフトウェア本体11を用いて解析することにより、音量レベルと周波数レベルが算出される。算出されたそれらのデータに基づき、振り付けデータやフォーメーションなどの、キャラクタのダンスアニメーションに使用する動き情報を変更する。音量レベル及び周波数レベルとその時の振り付けデータやフォーメーションとの関係は予め決定されているため、使用する動き情報の変更は、その対応関係に従って行われる。
しかしながら、上記の従来技術では、サウンドデータと振り付けやフォーメーション、すなわち動作データとを対応させる方法についてしか言及されておらず、多彩なコンテンツを作成する仕組みとしては不十分であるという問題があった。 However, in the above-described conventional technology, only a method for associating sound data with choreography and formation, that is, operation data is mentioned, and there is a problem that it is insufficient as a mechanism for creating various contents.
そこで、本発明はこのような状況に鑑みなされたもので、誕生日やお正月などのイベントに応じたシナリオに基づきつつ、コンテンツ作成者自身の映像や音声、居場所などを反映して内容を変更することで、多彩なコンテンツを容易に作成することが可能なコンテンツ作成装置を提供することを目的とする。 Therefore, the present invention has been made in view of such a situation, and changes the contents reflecting the video, voice, whereabouts, etc. of the content creator himself, based on a scenario according to an event such as a birthday or New Year. Accordingly, it is an object to provide a content creation device capable of easily creating various contents.
上記課題を解決するため、本発明の請求項1に記載のコンテンツ作成装置は、コンテンツ作成者が入力する情報を受け付ける入力情報受付手段と、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析手段と、決定された前記パラメータの値を反映させた前記コンテンツのシナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えるものである。 In order to solve the above-described problem, a content creation device according to claim 1 of the present invention analyzes input information receiving means for receiving information input by a content creator, information input by the content creator, Input information analysis means for determining parameters required for creation, and content creation means for creating the content scenario reflecting the determined parameter value and creating the content based on the scenario is there.
また、本発明の請求項2に記載のコンテンツ作成装置は、請求項1に記載のコンテンツ作成装置において、コンテンツ作成者が入力する情報は、前記コンテンツ作成者の音声であるものである。
A content creation device according to
また、本発明の請求項3に記載のコンテンツ作成装置は、請求項2に記載のコンテンツ作成装置において、入力情報受付手段は、コンテンツ作成者の音声の入力を受け付け、入力情報解析手段は、入力された前記音声の音量特性及び周波数特性を解析し、コンテンツ作成手段は、解析された前記音量特性及び前記周波数特性のうち少なくとも1種類の指標を反映させたシナリオを作成し、コンテンツを作成するものである。
The content creation device according to claim 3 of the present invention is the content creation device according to
また、本発明の請求項4に記載のコンテンツ作成装置は、請求項1に記載のコンテンツ作成装置において、コンテンツ作成者が入力する情報は、前記コンテンツ作成者を撮影した静止画または動画であるものである。 The content creation device according to claim 4 of the present invention is the content creation device according to claim 1, wherein the information input by the content creator is a still image or a moving image taken by the content creator. It is.
また、本発明の請求項5に記載のコンテンツ作成装置は、請求項4に記載のコンテンツ作成装置において、入力情報受付手段は、コンテンツ作成者を撮影した動画の入力を受け付け、入力情報解析手段は、入力された前記動画を構成する画像のフレーム間の変化量を算出し、コンテンツ作成手段は、算出された前記動画を構成する画像のフレーム間の変化量を反映させたシナリオを作成し、コンテンツを作成するものである。
The content creation device according to
また、本発明の請求項6に記載のコンテンツ作成装置は、請求項1に記載のコンテンツ作成装置において、入力情報受付手段は、コンテンツ作成者の音声及び動画の入力を受け付け、入力情報解析手段は、入力された前記音声の音量特性及び周波数特性を解析するとともに、入力された前記動画を構成する画像のフレーム間の変化量を算出し、コンテンツ作成手段は、解析された前記音量特性及び前記周波数特性のうち少なくとも1種類の指標と、算出された前記動画を構成する画像のフレーム間の変化量を反映させたシナリオを作成し、コンテンツを作成するものである。 The content creation device according to claim 6 of the present invention is the content creation device according to claim 1, wherein the input information receiving means accepts input of the content creator's voice and video, and the input information analysis means is Analyzing the volume characteristic and frequency characteristic of the input voice and calculating the amount of change between frames of the image constituting the input moving image, and the content creating means is configured to analyze the volume characteristic and frequency analyzed A content is created by creating a scenario reflecting at least one kind of index among the characteristics and the calculated amount of change between frames of the image constituting the moving image.
また、本発明の請求項7に記載のコンテンツ作成装置は、請求項1に記載のコンテンツ作成装置において、現在位置を取得する位置情報取得手段をさらに備え、コンテンツ作成手段は、取得された前記現在位置を反映させたシナリオを作成し、コンテンツを作成するものである。 The content creation device according to claim 7 of the present invention is the content creation device according to claim 1, further comprising position information acquisition means for acquiring a current position, wherein the content creation means is the acquired current A scenario reflecting the position is created to create content.
また、本発明の請求項8に記載のコンテンツ作成装置は、請求項1から請求項7の何れか一項に記載のコンテンツ作成装置において、コンテンツのシナリオは、あらかじめ定められた記述子を用いて記述されるメタファイルであるものである。 The content creation device according to claim 8 of the present invention is the content creation device according to any one of claims 1 to 7, wherein the content scenario uses a predetermined descriptor. It is a metafile to be described.
また、本発明の請求項9に記載のコンテンツ作成装置は、請求項8に記載のコンテンツ作成装置において、コンテンツ作成手段は、入力情報解析手段において決定されたパラメータの値によって、メタファイルに記述されている条件分岐の分岐先を決定するものである。 The content creation device according to claim 9 of the present invention is the content creation device according to claim 8, wherein the content creation means is described in the metafile by the value of the parameter determined by the input information analysis means. The branch destination of the conditional branch is determined.
また、本発明の請求項10に記載のコンテンツ作成方法は、コンテンツ作成者が入力する情報を受け付ける入力情報受付ステップと、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析ステップと、決定された前記パラメータの値を反映させた前記コンテンツのシナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成ステップを含むものである。
The content creation method according to
また、本発明の請求項11に記載のコンテンツ作成システムは、コンテンツを作成するための素材を提供するシナリオ・コンテンツサーバとコンテンツ作成端末が通信ネットワークを介して接続されて構成されるコンテンツ作成システムであって、前記シナリオ・コンテンツサーバは、コンテンツのシナリオを保持するシナリオ保持手段と、前記シナリオを配信する配信手段と、前記コンテンツ作成端末は、コンテンツ作成者が入力する情報を受け付ける入力情報受付手段と、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析手段と、決定された前記パラメータの値を反映させた前記シナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えるものである。 A content creation system according to an eleventh aspect of the present invention is a content creation system configured by connecting a scenario content server that provides a material for creating content and a content creation terminal via a communication network. The scenario content server includes scenario holding means for holding a content scenario, distribution means for distributing the scenario, and the content creation terminal includes input information receiving means for receiving information input by a content creator. Analyzing the information input by the content creator and determining input information analysis means for determining parameters required for content creation, creating the scenario reflecting the determined parameter value, and based on the scenario Content creation means for creating the content Is shall.
また、本発明の請求項12に記載のコンテンツ作成システムは、情報入力端末とコンテンツ作成サーバが通信ネットワークを介して接続されて構成されるコンテンツ作成システムであって、前記情報入力端末は、コンテンツ作成者が入力する情報を符号化してから多重化する情報多重化手段と、前記多重化された情報を前記コンテンツ作成サーバに配信するデータ受送信手段と、前記コンテンツ作成サーバは、コンテンツのシナリオを保持するシナリオ保持手段と、前記情報入力端末より配信される前記多重化された情報を分離してから復号化し、復号化された前記情報を解析し、前記コンテンツの作成に必要なパラメータを決定する多重化情報解析手段と、解析された前記パラメータの値を反映させた前記シナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えるものである。
The content creation system according to
以上説明したように、本発明に係るコンテンツ作成装置は、コンテンツ作成者が入力する情報を受け付ける入力情報受付手段と、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析手段と、決定された前記パラメータの値を反映させた前記コンテンツのシナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えることを特徴とする。 As described above, the content creation apparatus according to the present invention analyzes the information input by the content creator, the input information reception means for receiving information input by the content creator, and sets the parameters necessary for creating the content. Input information analyzing means for determining, and content creating means for creating a scenario of the content reflecting the value of the determined parameter and creating the content based on the scenario.
従って、コンテンツの内容を記述するシナリオに基づきつつ、コンテンツ作成者の顔画像や音声、動きの情報を反映させることができ、多様なコンテンツを容易に作成することが可能である。 Therefore, the content creator's face image, sound, and movement information can be reflected based on the scenario describing the content, and various contents can be easily created.
また、本発明に係るコンテンツ作成装置は、現在位置を取得する位置情報取得手段をさらに備え、コンテンツ作成手段は、取得された前記現在位置を反映させたシナリオを作成し、コンテンツを作成することを特徴とする。 The content creation device according to the present invention further includes position information acquisition means for acquiring a current position, and the content creation means creates a scenario reflecting the acquired current position and creates content. Features.
これにより、コンテンツ作成端末が現在設置されている場所に応じて、シナリオを変更することができ、個性豊かなコンテンツを容易に生成することができる。 Thus, the scenario can be changed according to the location where the content creation terminal is currently installed, and unique content can be easily generated.
以下、本発明の実施の形態を、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施の形態1)
以下、本発明の実施の形態1に係るコンテンツ作成装置を、図面を参照しながら説明する。
(Embodiment 1)
Hereinafter, a content creation device according to Embodiment 1 of the present invention will be described with reference to the drawings.
図1は、本発明の実施の形態1におけるコンテンツ作成装置の構成の一例を示す図である。 FIG. 1 is a diagram showing an example of a configuration of a content creation device according to Embodiment 1 of the present invention.
本発明の実施の形態1に係るコンテンツ作成装置は、シナリオ・コンテンツサーバ10、通信ネットワーク20、コンテンツ作成端末30により構成される。シナリオ・コンテンツサーバ10は、コンテンツ全体の内容を記述するシナリオを格納するシナリオ保持手段11、各シナリオに対応したコンテンツを作成するための様々な素材(以降、コンテンツパーツと称す。)を格納するコンテンツパーツ保持手段12、及びデータを受送信するための配信手段13により構成される。通信ネットワーク20は、サーバと端末間のデータのやり取りを行うためのインターネットなどのネットワークである。コンテンツ作成端末30は、データの受送信を行うデータ受送信手段31、コンテンツ作成に用いるシナリオを選択するためのシナリオ選択手段32、作成したコンテンツやダウンロードしたコンテンツパーツを保持するためのコンテンツ保持手段33、コンテンツを作成するためのコンテンツ作成手段34、コンテンツ作成者の音声情報37や映像情報38などの情報の入力を受け付ける入力情報受付手段36、及び入力された情報を解析するための入力情報解析手段35により構成される。以下で、本発明の実施の形態1に係るコンテンツ作成装置の処理の流れについて詳しく説明する。
The content creation apparatus according to the first embodiment of the present invention includes a scenario /
まず、本発明におけるコンテンツについて説明する。コンテンツとは、例えば「誕生日」、「結婚式」、「年賀状」などのイベントに対応し、コンピュータグラフィックス(以降、CGと称す。)で作成されたキャラクタや、カメラなどを用いて取得された静止画、動画、及びマイクロフォンなどを用いて取得された音楽や音声(これらの総称がコンテンツパーツである。)を組み合わせて作成される一連の情報の集合である。また、どのコンテンツパーツをどのようなタイミングでどのように組み合わせるかなど、コンテンツ全体の内容を記述したものをシナリオと呼ぶことにする。図2に「誕生日」イベントに対応したコンテンツの一例を示す。図2のコンテンツでは、CGで作成された大きなケーキのまわりで2人のCGキャラクタがダンスをしており、画面の上部にはコンテンツ作成者自身の映像とともに、「誕生日おめでとう!!」というテキストが表示されている。また、スピーカーからはコンテンツ作成者自身の音声による「誕生日おめでとう」というメッセージが流れる。ユーザーはこの作成したコンテンツを誕生日の友人に送ることで、多彩なコミュニケーションを実現できる。 First, content in the present invention will be described. The content corresponds to events such as “birthday”, “wedding”, and “new year's card”, for example, and is acquired using a character created by computer graphics (hereinafter referred to as CG) or a camera. It is a set of a series of information that is created by combining music and voice (collectively these are content parts) acquired using still images, moving images, microphones, and the like. In addition, what describes the contents of the whole content, such as which content parts are combined at what timing and how, is called a scenario. FIG. 2 shows an example of content corresponding to the “birthday” event. In the content of FIG. 2, two CG characters are dancing around a large cake made with CG, and the text “Happy Birthday!” Along with the content creator's own video at the top of the screen. Is displayed. In addition, the message “Happy Birthday” will be heard from the speaker. Users can realize a variety of communication by sending this created content to their birthday friends.
シナリオ保持手段11には、様々なイベントに対応するコンテンツの一覧表が保持されている。コンテンツは、各イベントに対して一種類のみであっても良いし、複数個存在しても良い。以降、この一覧表をコンテンツテーブルと称す。コンテンツテーブルは、シナリオ保持手段11より読み出され、配信手段13、通信ネットワーク20、データ受送信手段31を介して、シナリオ選択手段32に送られる。コンテンツ作成者は、送信されてきたコンテンツテーブルを参照し、作成したいコンテンツを選択する。選択された情報は、通信ネットワーク20を介してシナリオ保持手段11に送信される。シナリオ保持手段11では、選択されたコンテンツの情報を取得すると、当該コンテンツに対応するシナリオを読み出し、配信手段13、通信ネットワーク20、データ受送信手段31を介してコンテンツ作成手段34に送信する。
The scenario holding unit 11 holds a list of contents corresponding to various events. There may be only one type of content for each event, or there may be a plurality of contents. Hereinafter, this list is referred to as a content table. The content table is read from the scenario holding unit 11 and sent to the
シナリオを記述する方法は特に限定しないが、MPEG−7や、SMIL(Synchronized Multimedia Integration Language)、XML(Extensible Markup Language)などのシーン記述言語に則した形式で表現しても良い。図3に、シナリオ記述の一例を示す。図3に示すように、本発明の実施の形態1におけるシナリオは、<>で括られた記述子(タグ)とタグに囲まれた値や内容によって記述される。以下で、図3に示されているシナリオについて詳しく説明する。 The method of describing the scenario is not particularly limited, but may be expressed in a format according to a scene description language such as MPEG-7, SMIL (Synchronized Multimedia Integration Language), XML (Extensible Markup Language). FIG. 3 shows an example of scenario description. As shown in FIG. 3, the scenario according to the first embodiment of the present invention is described by a descriptor (tag) enclosed in <> and a value or content surrounded by the tag. Hereinafter, the scenario shown in FIG. 3 will be described in detail.
<HappyBirthday>タグは、このシナリオが「誕生日」に対応するコンテンツであることを表す。<ID>は、登場するコンテンツパーツを識別する記述子であり、<ModelName>はCGオブジェクトの形状データファイル名、<Position>は形状データを配置する初期位置を表す。<Animation>はアニメーションに関する記述の開始/終了を表し、<StartTime>はアニメーションの開始時刻、<Anim>はCGオブジェクトに適用するアニメーションデータのファイル名を表す。<Texture>はテクスチャに関する記述の開始/終了を表し、<TexName>はマッピングするテクスチャデータのファイル名を表す。従って、図3の6行目から16行目までを解釈すると、“Man.mdlという形状データファイルを読み込み、Pict.texテクスチャをマッピングして、[0.0 10.0 0.0]の位置に置き、1.0秒からAnim0.animのアニメーションを開始する。”となる。22行目の<when>から30行目の<otherwise>までは条件分岐を表し、Momentumの値が0以上50未満の場合にはAnim1.animのアニメーションデータを利用し、50以上100未満の場合にはAnim2.animを、それ以外の場合にはAnim3.animを利用することを意味する。Momentumの内容に関しては後述する。<Effect>は、エフェクトに関する記述の開始/終了を表し、<Kind>はエフェクトの種類、<EffectAnim>は利用するエフェクトの属性を表す。 The <HappyBirthday> tag indicates that this scenario is content corresponding to “birthday”. <ID> is a descriptor for identifying the appearing content part, <ModelName> is the shape data file name of the CG object, and <Position> is an initial position where the shape data is arranged. <Animation> represents the start / end of the description relating to the animation, <StartTime> represents the start time of the animation, and <Anim> represents the file name of the animation data to be applied to the CG object. <Texture> represents the start / end of the description about the texture, and <TextName> represents the file name of the texture data to be mapped. Therefore, when the 6th to 16th lines in FIG. 3 are interpreted, the shape data file “Man.mdl” is read, the Pict.tex texture is mapped, and the position of [0.0 10.0 0.0] And start animation of Anim0.anim from 1.0 second. " From <when> on the 22nd line to <otherwise> on the 30th line represents a conditional branch. When the value of Momentum is 0 or more and less than 50, Anim1. If the animation data of anim is used and is 50 or more and less than 100, Anim2. anim, otherwise Anim3. It means using anim. The content of Momentum will be described later. <Effect> represents the start / end of the description about the effect, <Kind> represents the type of the effect, and <EffectAnim> represents the attribute of the effect to be used.
コンテンツ作成者はシナリオ保持手段11よりシナリオを取得すると、次にコンテンツ作成端末30に取り付けられたカメラ及びマイクロフォン(図1ではともに入力情報受付手段36として図示されている。)を用いて、音声情報37及び映像情報38を入力する。例えば、「誕生日」イベントであればカメラに向かって手を振りながら、「お誕生日おめでとう」というメッセージを入力する。以降、コンテンツ作成者により入力された音声情報及び映像情報をまとめて映像メッセージと称す。入力された映像メッセージは入力情報受付手段36を介して入力情報解析手段35に送られる。
When the content creator obtains the scenario from the scenario holding means 11, the audio information is next used by using a camera and a microphone (both shown as the input information receiving means 36 in FIG. 1) attached to the
図3のシナリオにおいて、MomentumやVoicePitchは、ユーザーが入力した映像メッセージに基づいて決定される量である。従って、ユーザーが入力した情報に応じて条件分岐の判定結果が変わることになる。その結果、利用するアニメーションやエフェクトの属性を変化させ、多彩なコンテンツを作成することができる。入力情報解析手段35は、映像メッセージからこれらの値を算出する。 In the scenario of FIG. 3, Momentum and VoicePitch are quantities determined based on a video message input by the user. Therefore, the conditional branch determination result changes according to information input by the user. As a result, various contents can be created by changing the attributes of animations and effects to be used. The input information analysis means 35 calculates these values from the video message.
Momentumは、コンテンツ作成者が作成した映像メッセージの映像情報の変化の大きさ(動き量)を表す。入力された映像情報38からMomentumを算出する方法は特に限定しないが、例えば以下の2通りの方法が考えられる。
“Momentum” represents the amount of change (motion amount) of the video information of the video message created by the content creator. The method for calculating the momentum from the
(差分画像を利用する方法)
差分画像を利用する方法では、画像のフレーム間の差分を求めることで動き量を算出する。具体的には以下の手順に従う。
(Method using difference image)
In the method using a difference image, the amount of motion is calculated by obtaining a difference between frames of the image. Specifically, the following procedure is followed.
(1)動き総量AMOUNT=0とする。 (1) The total motion amount AMOUNT = 0.
(2)第Iフレームのj行k列目の画素値P[j][k]と第I−1フレームの同じ位置の画素値P‘[j][k]の差分(P[j][k]−P‘[j][k])を算出する。 (2) The difference (P [j] [k] between the pixel value P [j] [k] in the j-th row and the k-th column of the I-th frame and the pixel value P ′ [j] [k] at the same position in the I-1th frame. k] −P ′ [j] [k]).
(3)(2)で算出した値が0でない場合にはAMOUNTに1を加算する。0の場合には何もしない。図4の例では、斜線で表された領域がAMOUNTに1を加算する領域である。 (3) If the value calculated in (2) is not 0, 1 is added to AMOUNT. If 0, do nothing. In the example of FIG. 4, the hatched area is an area where 1 is added to AMOUNT.
(4)(2)(3)の処理を映像情報のすべてのフレームのすべての画素で実行する。 (4) The processes of (2) and (3) are executed for all pixels of all frames of video information.
(5)Momentum=AMOUNTとする。 (5) Momentum = AMOUNT.
(動きベクトルを利用する方法)
動きベクトルを利用する方法では、映像情報を構成する画像を固定サイズのブロックに分割し、各ブロックとひとつ前のフレームを構成する画像内で最も相関の高いブロックを求め、そのブロックへの移動ベクトルを用いる。具体的には以下の手順に従う(図5を参照)。
(Method using motion vectors)
In the method using a motion vector, an image constituting video information is divided into fixed-size blocks, a block having the highest correlation among the images constituting each block and the previous frame is obtained, and a movement vector to that block is obtained. Is used. Specifically, the following procedure is followed (see FIG. 5).
(1)映像情報を構成する画像を固定サイズのブロック(例えば16×16画素のブロック)に分割する。 (1) An image constituting video information is divided into fixed-size blocks (for example, blocks of 16 × 16 pixels).
(2)第Iフレームのあるブロックと第I−1フレームの画像のブロックと同じ大きさの部分領域との相関を、ブロック内の同じ位置にある画素の差分二乗和Sを取ることによって求める。そして、Sが最小となるブロックを決定する。 (2) The correlation between a certain block of the I-th frame and a partial region having the same size as the block of the image of the (1-1) -th frame is obtained by taking the difference square sum S of the pixels at the same position in the block. Then, the block that minimizes S is determined.
(3)第Iフレームのあるブロックの中心座標を(Xc,Yc)、当該ブロックと最も相関の高い第I−1フレームのブロックの中心座標を(Xrc,Yrc)とすると、動きベクトルvは、v=(vx,vy)=(Xc−Xrc,Yc−Yrc)で表される。 (3) Assuming that the center coordinates of a block in the I frame are (Xc, Yc) and the center coordinates of the block in the I-1 frame having the highest correlation with the block are (Xrc, Yrc), the motion vector v is v = (vx, vy) = (Xc−Xrc, Yc−Yrc).
(4)vの大きさ|v|=sqrt(vx*vx+vy*vy)を求める。ここで、sqrtは平方根を取ることを意味し、*は積を表す。 (4) The magnitude of v | v | = sqrt (vx * vx + vy * vy) is obtained. Here, sqrt means taking a square root, and * represents a product.
(5)(3)(4)の処理を映像メッセージのすべてのフレームのすべてのブロックで実行する。 (5) The processes of (3) and (4) are executed in all blocks of all frames of the video message.
(6)(5)の総和をMomentumとする。 (6) The sum of (5) is Momentum.
VoicePitchは、コンテンツ作成者が入力した音声情報の高さ(ピッチ)を表す。入力された音声情報37からVoicePitchを算出する方法は特に限定しないが、例えば以下のような2通りの方法がある。
VoicePitch represents the height (pitch) of audio information input by the content creator. The method for calculating VoicePitch from the input
(周波数のピーク値を利用する方法)
(1)入力された音声情報をフーリエ変換などにより周波数領域に変換する。
(Method using frequency peak value)
(1) The input voice information is converted into the frequency domain by Fourier transform or the like.
(2)各周波数成分のパワー値を調べ、パワー値が最大である周波数fpをVoicePitchとする。 (2) The power value of each frequency component is examined, and the frequency fp having the maximum power value is set as VoicePitch.
(周波数の相対値を利用する方法)
周波数のピーク値を利用する方法では、例えば低い声の作成者の場合にはVoicePitchの値は常に低くなる。そこで、周波数の相対値を利用する方法では、コンテンツ作成者が以前に入力した音声情報を解析して抽出したピッチ情報をコンテンツ保持手段33に記録しておく。そして、それとの相対値をVoicePitchとする。具体的には以下の手順に従う。
(Method using relative value of frequency)
In the method using the peak value of the frequency, for example, the value of VoicePitch is always low for a low voice creator. Therefore, in the method using the relative value of the frequency, the pitch information extracted by analyzing the audio information previously input by the content creator is recorded in the
(1)入力された音声情報を周波数領域に変換する。 (1) The input voice information is converted into the frequency domain.
(2)各周波数成分のパワー値を調べ、パワー値が最大である周波数fpを求める。 (2) The power value of each frequency component is examined, and the frequency fp having the maximum power value is obtained.
(3)コンテンツ保持手段33に記録されている、以前に抽出したピッチ情報fprefを読み出し、VoicePitch=fp/fprefとする。
(3) The previously extracted pitch information fpref recorded in the
以上の方法により算出されたMomentumやVoicePitchの値はコンテンツ作成手段34に送信される。 The values of Momentum and VoicePitch calculated by the above method are transmitted to the content creation means 34.
コンテンツ作成手段34では、シナリオ・コンテンツサーバ10より送られてきたシナリオと入力情報解析手段35で決定されたパラメータを用いてコンテンツを作成する。まず、シナリオで条件分岐になっている部分の処理を決定する。例えば、図3の例ではLady.mdlに利用するアニメーションデータがMomentumにより決定され、エフェクトの属性がVoicePitchにより決定される。ここで、図3の22行目から30行目に示されている条件分岐に関して、Anim1.animは、最も動きの変化が乏しいアニメーションデータであり、Anim2.anim、Anim3.animになるにつれて変化の激しいアニメーションデータになっている。これは、コンテンツ作成者が映像メッセージを作成した時の動きの度合いを、コンテンツにも反映させられることを意味する。また、37行目から42行目に示されている条件分岐では、キャラクタのまわりに星を降らせるエフェクトを決定しているが、Anim5.eftの方がAnim4.eftよりも星の個数が多くなるように設定されている。これは、映像メッセージを作成した時の声の高まり度合いを反映させられることを意味する。
The content creation means 34 creates content using the scenario sent from the scenario /
コンテンツ作成手段34はシナリオが確定すると、コンテンツ作成に必要なCG形状データ、アニメーションデータ、テクスチャデータなどのコンテンツパーツの取得要求を、通信ネットワーク20を介してシナリオ・コンテンツサーバ10に出す。シナリオ・コンテンツサーバ10は要求を受け取ると、コンテンツパーツ保持手段12より必要なコンテンツパーツを読み出し、配信手段13、通信ネットワーク20、データ受送信手段31を通じてコンテンツ作成手段34に送る。ここで、コンテンツ作成手段34は、コンテンツパーツをすべてシナリオ・コンテンツサーバ10から受け取るとしたが、その限りではない。例えば、以前コンテンツを作成した際にダウンロードしたパーツやコンテンツ作成端末30にあらかじめ保持されているパーツなどはコンテンツ保持手段33から取得して用いても良い。また、コンテンツ作成者が入力した映像メッセージをそのままコンテンツパーツとして利用しても良い。
When the scenario is determined, the
コンテンツパーツがすべて揃うと、それらを用いてコンテンツが作成される。コンテンツ作成手段34は、シナリオを解釈しながら、それに従ってCGの分野で一般的に用いられる以下のような処理を実行し、コンテンツを作成する。
When all the content parts are available, the content is created using them. The
(1)輝度計算
(2)隠線・隠面消去
(3)投影変換、ビューポート変換
(4)シェーディング
(5)テクスチャマッピング
また、音声や音楽に関してもシナリオに記述されたタイミングで再生する。図6に最終的に作成されたコンテンツの一例を示す。
(1) Luminance calculation (2) Hidden line / hidden surface elimination (3) Projection conversion, viewport conversion (4) Shading (5) Texture mapping In addition, voice and music are also reproduced at the timing described in the scenario. FIG. 6 shows an example of the content finally created.
作成されたコンテンツは、コンテンツ保持手段33に記録されるが、その形式は特に限定しない。非圧縮のまま保存しても良いし、MPEG−4などの形式で符号化したものを保存しても良い。また、作成したコンテンツをメールなどに添付して送ることもできる。
The created content is recorded in the
図7は、「結婚祝い」イベントに関するコンテンツのシナリオの一部である。図7において、<BGColor>は背景色を表すタグであり、<Voice>は音声に関する記述の開始/終了、<Movie>は映像に関する記述の開始/終了、<Play>は音声または映像の再生に関する記述の開始/終了を表すタグである。VoiceAmpは、コンテンツ作成者が映像メッセージを作成した時の音声情報の大きさを表す。VoiceAmpの算出方法は特に限定しない。例えば入力された音声情報37の振幅を調べ、その最大値をVoiceAmpとすることなどが考えられる。図7のシナリオでは、VoiceAmpの値に応じて、背景色が変化する。VoiceAmpの値が大きくなるにつれて、青→緑→黄に設定されることから、図7のシナリオでは、映像メッセージの音声の振幅が大きいほど明るい背景色が用いられることになり、その結果、コンテンツも明るく派手な印象を与えるものになる。
FIG. 7 is a part of a content scenario related to the “wedding celebration” event. In FIG. 7, <BGColor> is a tag representing a background color, <Voice> is the start / end of a description about audio, <Movie> is the start / end of a description about video, and <Play> is about playback of audio or video. This tag represents the start / end of the description. VoiceAmp represents the size of audio information when the content creator creates a video message. The calculation method of VoiceAmp is not particularly limited. For example, it is conceivable to check the amplitude of the
これまでの説明ではMomentumやVoiceAmpなどを別々に用いてシナリオ中のアニメーションデータやエフェクトの属性を決定してきたが、その限りではない。例えば、図16に示すシナリオであれば、Momentum、VoiceAmpともに小さい場合に背景色は紫色となり、逆にMomentum、VoiceAmpともに大きければ黄色になる。また、Momentumは大きいが、VoiceAmpが小さい場合には緑色になる。このように、複数の指標の組み合わせによりシナリオを決定しても良い。 In the description so far, Momentum, VoiceAmp, and the like are separately used to determine animation data and effect attributes in the scenario, but this is not a limitation. For example, in the scenario shown in FIG. 16, when both Momentum and VoiceAmp are small, the background color is purple, and conversely, when both Momentum and VoiceAmp are large, the background color is yellow. Also, if the momentum is large but the VoiceAmp is small, the color is green. Thus, the scenario may be determined by a combination of a plurality of indices.
図7の13行目のMyPictは、Man2.mdlの形状データにコンテンツ作成者自身の顔画像をテクスチャとしてマッピングすることを表している。使用する顔画像は、コンテンツ保持手段33に予め保存されている静止画像でも良いし、映像メッセージを作成する前に静止画像を撮影して用いても良いが、CGキャラクタのテクスチャとして利用するためには、取得した静止画像から顔領域を切り出す必要がある。以下、顔領域を抽出するための2通りの方法について説明する。
MyPict on
(1)テンプレートマッチングを用いる方法
テンプレートマッチングは、図8に示すような、様々な大きさ、姿勢を持つ顔参照画像をあらかじめ用意しておき(これらの画像をテンプレートと呼ぶ)、入力された静止画像の部分領域との相関を取ることによって、領域を特定する方法である。具体的には、用意されたテンプレートを用いて入力画像を走査していき、入力画像の画素値と、テンプレートの画素値の差分二乗和Sを順次求める。この処理をすべてのテンプレートについて行い、Sが最小となるテンプレートの位置、姿勢が入力画像における顔領域の位置、姿勢となる。
(1) Method Using Template Matching For template matching, face reference images having various sizes and postures as shown in FIG. 8 are prepared in advance (these images are referred to as templates), and the input still image This is a method of specifying a region by taking a correlation with a partial region of an image. Specifically, the input image is scanned using the prepared template, and the difference square sum S of the pixel value of the input image and the pixel value of the template is sequentially obtained. This process is performed for all templates, and the position and orientation of the template that minimizes S are the position and orientation of the face area in the input image.
(2)色情報を併用する方法
色情報を併用する方法では、入力画像からまず肌色の領域を抽出する。抽出された肌色の領域が顔領域の候補となる。これらの候補に対して(1)と同様の処理を施し、顔領域を抽出する。
(2) Method of using color information together In the method of using color information together, a skin color region is first extracted from an input image. The extracted skin color area is a face area candidate. These candidates are subjected to the same processing as (1) to extract face areas.
以上の方法を用いて、図9に示すように静止画像から顔領域のみを抽出する。抽出された顔画像はコンテンツ作成手段34に送られ、CGキャラクタにマッピングされる。このように、登場するCGキャラクタにコンテンツ作成者自身の顔画像をマッピングすることにより、親しみやすいコンテンツを作成することができる。 Using the above method, only the face area is extracted from the still image as shown in FIG. The extracted face image is sent to the content creation means 34 and mapped to the CG character. In this way, friendly content can be created by mapping the face image of the content creator to the CG character that appears.
図7の16行目のMyVoiceは、コンテンツ作成者が作成した映像メッセージの音声を再生することを表し、22行目のMyMovieは、映像を再生することを表す。従って、図7のシナリオでは、コンテンツ作成者の顔画像がマッピングされたCGキャラクタが登場して5.0秒後からコンテンツ作成者が作成した映像メッセージ、例えば結婚を祝うメッセージが再生される。このように、コンテンツに作成者の音声や動きの情報を反映させるとともに、映像メッセージそのものをコンテンツに埋め込むことも可能である。 The MyVoice on the 16th line in FIG. 7 indicates that the audio of the video message created by the content creator is reproduced, and the MyMovie on the 22nd line indicates that the video is reproduced. Accordingly, in the scenario of FIG. 7, a video message created by the content creator, for example, a message celebrating marriage, is played 5.0 seconds after the CG character to which the face image of the content creator is mapped appears. In this manner, the creator's voice and movement information can be reflected in the content, and the video message itself can be embedded in the content.
これまでの説明では、コンテンツ作成者が入力する情報に応じて、CGキャラクタの動作を制御するアニメーションデータや背景色、エフェクトの属性を変更する例について説明したが、それ以外の内容を変更することも可能である。例えば、登場するCGキャラクタの人数や、背景で流れる音楽を変更することができる。登場するキャラクタの人数を変更する場合には、入力された情報に応じて読み込むCG形状データファイル数を変えるようにシナリオを記述しておけば良い。また、背景で流れる音楽を変更する場合には、<Music>や<MusicName>などのタグを定義し、条件に応じて再生する音楽データファイルを変更するようにシナリオを記述しておけば良い。 In the description so far, the example of changing the animation data, the background color, and the effect attribute for controlling the movement of the CG character according to the information input by the content creator has been described. However, other contents may be changed. Is also possible. For example, the number of CG characters that appear and the music that flows in the background can be changed. When changing the number of characters appearing, it is only necessary to describe the scenario so as to change the number of CG shape data files to be read according to the input information. In addition, when changing the music that flows in the background, tags such as <Music> and <MusicName> are defined, and a scenario may be described so as to change the music data file to be played according to the conditions.
以上のように、本発明の実施の形態1に係るコンテンツ作成装置によれば、コンテンツの全体の内容を記述するシナリオに基づきつつ、コンテンツ作成者の顔画像や音声、動きの情報を反映させることができる。従って、多彩なコンテンツを容易に作成することが可能である。 As described above, according to the content creation device according to Embodiment 1 of the present invention, the face image, voice, and motion information of the content creator are reflected based on the scenario describing the entire content. Can do. Therefore, various contents can be easily created.
(実施の形態2)
以下、本発明の実施の形態2に係るコンテンツ作成装置を、図面を参照しながら説明する。
(Embodiment 2)
Hereinafter, a content creation apparatus according to
図10は、本発明の実施の形態2におけるコンテンツ作成装置の構成の一例を示す図である。図10のコンテンツ作成端末30は、本発明の実施の形態1で説明した構成に加えて、位置情報取得手段41を備えている。なお、本発明の実施の形態1と対応する機能構成については同一番号を付し、詳細な説明を省略する。
FIG. 10 is a diagram showing an example of the configuration of the content creation device according to
コンテンツ作成者はまず、シナリオ選択手段32を用いて、作成したいコンテンツを選択する。本発明の実施の形態2では、「お礼状」イベントに関するコンテンツを選択したとする。選択された情報はシナリオ保持手段11に送られ、それに対応するシナリオが通信ネットワーク20を介してコンテンツ作成手段34に送られる。
First, the content creator uses the
図11は、「お礼状」コンテンツに対応するシナリオの一部である。図11において、<Text>はテキストを表示することを表すタグである。また、4行目のGlobalPositionは、コンテンツ作成端末30が現在設置されている位置(場所)を表す。従って、図11のシナリオでは、端末の存在場所に応じて条件分岐し、表示するテキストが変更される。コンテンツ作成手段34は、シナリオを受け取ると、まずその内容を解析し、GlobalPositionが設定されていることを確認すると、位置情報取得手段41に対して、現在端末が設置されている位置に関する情報(以降、位置情報と称す。)を取得するように要求する。位置情報取得手段41は、要求を受けると、位置情報42を取得する。位置情報の取得方法は特に限定しないが、近年様々な機器に搭載されているGPS(Global Positioning System)を用いれば良い。取得された位置情報42は、コンテンツ作成手段34に送られる。
FIG. 11 shows a part of the scenario corresponding to the “thank you note” content. In FIG. 11, <Text> is a tag indicating that text is displayed. The Global Position on the fourth line represents the position (location) where the
コンテンツパーツ保持手段12には、“本当にありがとう”の文章を様々な地方の言葉で表現したテキストデータが格納されている。従って、図11の例では送信されてきた位置情報42を参照し、位置情報42が○以上□未満であると、“本当にありがとう”のテキストデータが選択され、位置情報42が□以上△未満であると、“ほんまおおきに”のテキストデータが選択されて、コンテンツパーツの取得要求が出される。コンテンツパーツ保持手段12は、コンテンツを作成するために必要な他のコンテンツパーツと同様に選択されたテキストデータをコンテンツ作成手段34に送信する。コンテンツ作成手段34では、本発明の実施の形態1と同様の手順でコンテンツを作成し、コンテンツ保持手段33に格納する。図12に、最終的に作成されたコンテンツの例を示す。
The content
このように、本発明の実施の形態2に係るコンテンツ作成装置によれば、コンテンツ作成端末が現在設置されている位置(場所)に応じて、コンテンツの内容を変更することができ、個性豊かなコンテンツを容易に作成することができる。
As described above, according to the content creation device according to
(実施の形態3)
以下、本発明の実施の形態3に係るコンテンツ作成装置を、図面を参照しながら説明する。
(Embodiment 3)
Hereinafter, a content creation apparatus according to Embodiment 3 of the present invention will be described with reference to the drawings.
図13は、本発明の実施の形態3におけるコンテンツ作成装置の構成の一例を示す図である。本発明の実施の形態3におけるコンテンツ作成装置は、コンテンツ作成者に関する情報をシナリオに反映させることで、多彩なコンテンツを作成することに代わりはないが、本発明の実施の形態1におけるコンテンツ作成装置では、コンテンツ作成端末でコンテンツを作成するのに対し、本発明の実施の形態3におけるコンテンツ作成装置では、サーバ側で作成し、端末側では音声情報や映像情報を入力するのみである点が異なる。なお、本発明の実施の形態1と対応する機能構成については同一番号を付し、詳細な説明を省略する。 FIG. 13 is a diagram illustrating an example of a configuration of a content creation device according to Embodiment 3 of the present invention. The content creation apparatus according to the third embodiment of the present invention is not limited to creating a variety of contents by reflecting information about the content creator in the scenario, but the content creation apparatus according to the first embodiment of the present invention. In the content creation terminal according to the third embodiment of the present invention, content is created on the server side, and only audio information and video information are input on the terminal side. . It should be noted that functional configurations corresponding to those of the first embodiment of the present invention are given the same numbers, and detailed descriptions thereof are omitted.
本発明の実施の形態3に係るコンテンツ作成装置は、コンテンツ作成サーバ50、通信ネットワーク20、及び情報入力端末60により構成される。コンテンツ作成サーバ50は、シナリオ保持手段11、コンテンツパーツ保持手段12、配信手段13に加えて、作成されたコンテンツを保持するコンテンツ保持手段33、シナリオ及びコンテンツパーツを用いてコンテンツを作成するコンテンツ作成手段34、及び多重化されて送られてくる音声情報37や映像情報38を分離して復号化し、それぞれの情報からシナリオを決定するためのパラメータを算出する多重化情報解析手段51を備えている。情報入力端末60は、データ受送信手段31、シナリオ選択手段32、入力情報受付手段36に加えて、入力された音声情報37や映像情報38を符号化し、多重化する情報多重化手段61を備えている。以下、本発明の実施の形態3に係るコンテンツ作成装置の処理の流れを詳細に説明する。
The content creation apparatus according to the third embodiment of the present invention includes a
コンテンツ作成者はまず、シナリオ保持手段11より送られてくるコンテンツテーブルの中から、シナリオ選択手段32を用いて、所望のコンテンツを選択する。選択されたコンテンツに関する情報は、シナリオ保持手段11に送信される。シナリオ保持手段11は、選択されたコンテンツに対応するシナリオをコンテンツ作成手段34に送信する。次に、コンテンツ作成者は情報入力端末60に取り付けられているカメラやマイクロフォンを用いて、映像メッセージを作成する。映像メッセージを構成する音声情報37及び映像情報38は入力情報受付手段36を介して、情報多重化手段61に送られる。
The content creator first selects a desired content from the content table sent from the scenario holding means 11 using the scenario selection means 32. Information regarding the selected content is transmitted to the scenario holding unit 11. The scenario holding unit 11 transmits a scenario corresponding to the selected content to the
情報多重化手段61では、送られてきた音声情報37及び映像情報38を受け取り、通信ネットワーク20を介してコンテンツ作成サーバ50に伝送可能なデータ形式に変換する。具体的には、図14に示すように、まず音声情報37及び映像情報38をそれぞれ独立に符号化し、ビットストリームを作成する。符号化の形式は特に限定しないが、例えばMPEG−4形式などがある。次に、作成されたビットストリームを多重化する。多重化方式についても特に限定しないが、例えばMP4形式などがある。多重化されたビットストリームは、通信ネットワーク20、配信手段13を介して、多重化情報解析手段51に送られる。
The information multiplexing means 61 receives the sent
多重化情報解析手段51では、送られてきた多重化ビットストリームを分離し、復号化して音声情報37及び映像情報38を取得する。コンテンツ作成手段34は、選択されたシナリオにおいて、内容を確定させるためにどのような情報が必要か(本発明の実施の形態1におけるMomentum、VoicePitch、VoiceAmpなど)を解釈し、その結果を多重化情報解析手段51に伝える。多重化情報解析手段51は、前述した方法を用いて動き量や音声の高さなどの必要なパラメータを算出する。算出されたパラメータはコンテンツ作成手段34に送られる。また、本発明の実施の形態2と同様に、情報入力端末60の情報多重化手段61に位置情報取得手段41を備えることもできる(図示せず)。位置情報取得手段41を備えた場合には、GPSなどを用いて位置情報42を取得し、音声情報37、及び映像情報38とともに情報多重化手段61で多重化して送信する。多重化情報解析手段51では、多重化されたビットストリームを分離して位置情報42を取得する。そして、選択されたシナリオでGlobalPositionが使用されている場合には、この値を参照してシナリオを決定する。
The multiplexed information analyzing means 51 separates the transmitted multiplexed bit stream and decodes it to obtain
コンテンツ作成手段34は、選択されたシナリオと多重化情報解析手段51で算出されたパラメータに基づき、コンテンツ作成に必要なコンテンツパーツをコンテンツパーツ保持手段12より読み出し、シナリオに従ってコンテンツを作成する。作成されたコンテンツは、コンテンツ保持手段33に記録しても良いし、メールに添付して相手に直接送信しても良い。
Based on the selected scenario and the parameters calculated by the multiplexed
このように本発明の実施の形態3に係るコンテンツ作成装置によれば、コンテンツの作成をすべてサーバで行い、端末は情報を入力するのみで良い。従って、端末にかかる計算負荷を最小限に抑えて、多彩なコンテンツを容易に生成することができる。これは、性能の低い端末を使用する場合に特に有効である。 As described above, according to the content creation device according to Embodiment 3 of the present invention, all content creation is performed by the server, and the terminal only needs to input information. Accordingly, it is possible to easily generate a variety of contents while minimizing the calculation load on the terminal. This is particularly effective when a terminal with low performance is used.
本発明のコンテンツ作成装置は、例えば、カメラやGPS機能の付いた携帯電話等に搭載して好適に利用できる。 The content creation device of the present invention can be suitably used by being mounted on, for example, a camera or a mobile phone with a GPS function.
10 シナリオ・コンテンツサーバ
11 シナリオ保持手段
12 コンテンツパーツ保持手段
13 配信手段
20 通信ネットワーク
30 コンテンツ作成端末
31 データ受送信手段
32 シナリオ選択手段
33 コンテンツ保持手段
34 コンテンツ作成手段
35 入力情報解析手段
36 入力情報受付手段
37 音声情報
38 映像情報
41 位置情報取得手段
42 位置情報
50 コンテンツ作成サーバ
51 多重化情報解析手段
60 情報入力端末
61 情報多重化手段
DESCRIPTION OF
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004215236A JP2006039705A (en) | 2004-07-23 | 2004-07-23 | Content creation device, content creation method, and content creation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004215236A JP2006039705A (en) | 2004-07-23 | 2004-07-23 | Content creation device, content creation method, and content creation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006039705A true JP2006039705A (en) | 2006-02-09 |
Family
ID=35904671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004215236A Pending JP2006039705A (en) | 2004-07-23 | 2004-07-23 | Content creation device, content creation method, and content creation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006039705A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009217905A (en) * | 2008-03-11 | 2009-09-24 | Toshiba Corp | Information reproducing device, information reproducing method, and information reproducing program |
JP2016127513A (en) * | 2015-01-07 | 2016-07-11 | 株式会社クリエ・ジャパン | Moving image generation server, moving image generation program, moving image generation method, and moving image generation system |
JP6964918B1 (en) * | 2021-09-15 | 2021-11-10 | 株式会社Type Bee Group | Content creation support system, content creation support method and program |
-
2004
- 2004-07-23 JP JP2004215236A patent/JP2006039705A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009217905A (en) * | 2008-03-11 | 2009-09-24 | Toshiba Corp | Information reproducing device, information reproducing method, and information reproducing program |
JP2016127513A (en) * | 2015-01-07 | 2016-07-11 | 株式会社クリエ・ジャパン | Moving image generation server, moving image generation program, moving image generation method, and moving image generation system |
JP6964918B1 (en) * | 2021-09-15 | 2021-11-10 | 株式会社Type Bee Group | Content creation support system, content creation support method and program |
JP2023042862A (en) * | 2021-09-15 | 2023-03-28 | 株式会社Type Bee Group | Content creation support system, content creation support method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2387013C1 (en) | System and method of generating interactive video images | |
KR100656661B1 (en) | Method and device for media editing | |
US8260263B2 (en) | Dynamic video messaging | |
EP2940940B1 (en) | Methods for sending and receiving video short message, apparatus and handheld electronic device thereof | |
US20100085363A1 (en) | Photo Realistic Talking Head Creation, Content Creation, and Distribution System and Method | |
JP5576667B2 (en) | Information transmission display system | |
JP2007025959A (en) | Multimedia data processor, multimedia data processing method and multimedia data processing program | |
JP2000123191A (en) | Device and method for processing image and information transmission system | |
KR20130116349A (en) | Input support device, input support method, and recording medium | |
KR20030003085A (en) | Contents distribution system and distribution method | |
JP2004350214A (en) | Content distributing server and terminal, and program | |
EP1908255A1 (en) | Apparatus, system, method, and article of manufacture for automatic context-based media transformation and generation | |
WO2014067269A1 (en) | Sent message playing method, system and related device | |
CN104794606A (en) | Event prompting system, event prompting method and situation playing unit | |
KR100795357B1 (en) | Mobile animation message service method and system and terminal | |
CN110012059A (en) | Electronics red packet implementation method and device | |
CN104991950A (en) | Picture generating method, display method and corresponding devices | |
CN105791964A (en) | Cross-platform media file playing method and system | |
JP2006039705A (en) | Content creation device, content creation method, and content creation system | |
KR100973654B1 (en) | Rich media server and rich media transmission system and rich media transmission method | |
JP3641631B2 (en) | Mobile phone device, control method for mobile phone device, control program for mobile phone device, and computer-readable recording medium recording control program for mobile phone device | |
KR100554374B1 (en) | A Method for manufacuturing and displaying a real type 2D video information program including a video, a audio, a caption and a message information, and a memory devices recorded a program for displaying thereof | |
JP2005228297A (en) | Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium | |
CN104506751A (en) | Method and device for generating electronic postcard with voice | |
JP2011091725A (en) | Server apparatus, cellular phone and composite motion picture creation system |