JP2006039705A - Content creation device, content creation method, and content creation system - Google Patents

Content creation device, content creation method, and content creation system Download PDF

Info

Publication number
JP2006039705A
JP2006039705A JP2004215236A JP2004215236A JP2006039705A JP 2006039705 A JP2006039705 A JP 2006039705A JP 2004215236 A JP2004215236 A JP 2004215236A JP 2004215236 A JP2004215236 A JP 2004215236A JP 2006039705 A JP2006039705 A JP 2006039705A
Authority
JP
Japan
Prior art keywords
content
scenario
information
input
content creation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004215236A
Other languages
Japanese (ja)
Inventor
Akira Kamisaki
亮 上崎
Katsunori Orimoto
勝則 折本
Toshinori Hijiri
利紀 樋尻
Yoshiyuki Mochizuki
義幸 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004215236A priority Critical patent/JP2006039705A/en
Publication of JP2006039705A publication Critical patent/JP2006039705A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device capable of easily creating various contents based on a scenario generated in compliance with an event. <P>SOLUTION: After selection of the desired scenario, a content creator inputs voice information and image information to a content creation terminal by means of a camera and a microphone. The inputted information is analyzed by an input information analysis means, and a parameter necessary for content creation is calculated. The value of the calculated parameter is reflected in the scenario, and contents are created based on the affected scenario. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、コンピュータグラフィックス、画像、音声を組み合わせてコンテンツを作成するコンテンツ作成装置に関し、特に状況に応じて内容を変更するコンテンツを作成するコンテンツ作成装置に関する。   The present invention relates to a content creation device that creates content by combining computer graphics, images, and audio, and more particularly to a content creation device that creates content whose contents change according to the situation.

電子メールは、今や電話と並んで遠隔地間を結ぶ重要なコミュニケーションツールのひとつになっている。また、近年の通信ネットワークの広帯域化に伴って、テキストのみを使用するメールだけでなく、音声や画像を含んだものが増えている。更に最近では、携帯電話において、文字の大きさや色を変えたり、画像を挿入することによってカラフルで多彩なメールを作成することが可能になっている。コンテンツメーカーのウェブサイトには、この技術を利用して作成されたコンテンツが用意されている。ユーザーがその中から所望のコンテンツを選択し、送り先アドレスを指定するだけで、相手にカラフルで楽しいメールを容易に送ることを可能にするサービスも開始されている。   E-mail is now one of the important communication tools that connect remote locations alongside telephones. In addition, with recent widening of communication networks, not only emails that use only text, but also those that include voice and images are increasing. More recently, it has become possible to create colorful and diverse emails by changing the size and color of characters and inserting images on mobile phones. Content created using this technology is available on the content manufacturer's website. A service has also been started that allows a user to easily send a colorful and fun mail to a partner simply by selecting a desired content and specifying a destination address.

しかし、上述したサービスでは、あらかじめ用意されたコンテンツを利用するしかないため、例えば状況(場所、時間、背景に流れている音楽の曲調など)に応じてキャラクタの動作などを変化させることはできなかった。これらの問題に対処するための従来技術として、特開2001−118084号公報に開示された「オブジェクト表示制御システムおよび記録媒体」がある(特許文献1参照)。この従来技術を、図15を用いて説明する。図15のオブジェクト表示制御システムでは、まずプレーヤ16またはスピーカ&イヤホン17より入力されたサウンドデータの波形データを、ソフトウェア本体11を用いて解析することにより、音量レベルと周波数レベルが算出される。算出されたそれらのデータに基づき、振り付けデータやフォーメーションなどの、キャラクタのダンスアニメーションに使用する動き情報を変更する。音量レベル及び周波数レベルとその時の振り付けデータやフォーメーションとの関係は予め決定されているため、使用する動き情報の変更は、その対応関係に従って行われる。
特開2001−118084号公報
However, since the above-mentioned service only uses content prepared in advance, for example, it is not possible to change the action of the character according to the situation (location, time, tone of music flowing in the background, etc.) It was. As a conventional technique for dealing with these problems, there is an “object display control system and recording medium” disclosed in Japanese Patent Application Laid-Open No. 2001-118084 (see Patent Document 1). This prior art will be described with reference to FIG. In the object display control system of FIG. 15, first, the volume level and the frequency level are calculated by analyzing the waveform data of the sound data input from the player 16 or the speaker & earphone 17 using the software main body 11. Based on the calculated data, movement information used for the dance animation of the character, such as choreography data and formation, is changed. Since the relationship between the volume level and the frequency level and the choreography data and formation at that time is determined in advance, the motion information to be used is changed according to the corresponding relationship.
JP 2001-118084 A

しかしながら、上記の従来技術では、サウンドデータと振り付けやフォーメーション、すなわち動作データとを対応させる方法についてしか言及されておらず、多彩なコンテンツを作成する仕組みとしては不十分であるという問題があった。   However, in the above-described conventional technology, only a method for associating sound data with choreography and formation, that is, operation data is mentioned, and there is a problem that it is insufficient as a mechanism for creating various contents.

そこで、本発明はこのような状況に鑑みなされたもので、誕生日やお正月などのイベントに応じたシナリオに基づきつつ、コンテンツ作成者自身の映像や音声、居場所などを反映して内容を変更することで、多彩なコンテンツを容易に作成することが可能なコンテンツ作成装置を提供することを目的とする。   Therefore, the present invention has been made in view of such a situation, and changes the contents reflecting the video, voice, whereabouts, etc. of the content creator himself, based on a scenario according to an event such as a birthday or New Year. Accordingly, it is an object to provide a content creation device capable of easily creating various contents.

上記課題を解決するため、本発明の請求項1に記載のコンテンツ作成装置は、コンテンツ作成者が入力する情報を受け付ける入力情報受付手段と、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析手段と、決定された前記パラメータの値を反映させた前記コンテンツのシナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えるものである。   In order to solve the above-described problem, a content creation device according to claim 1 of the present invention analyzes input information receiving means for receiving information input by a content creator, information input by the content creator, Input information analysis means for determining parameters required for creation, and content creation means for creating the content scenario reflecting the determined parameter value and creating the content based on the scenario is there.

また、本発明の請求項2に記載のコンテンツ作成装置は、請求項1に記載のコンテンツ作成装置において、コンテンツ作成者が入力する情報は、前記コンテンツ作成者の音声であるものである。   A content creation device according to claim 2 of the present invention is the content creation device according to claim 1, wherein the information input by the content creator is a voice of the content creator.

また、本発明の請求項3に記載のコンテンツ作成装置は、請求項2に記載のコンテンツ作成装置において、入力情報受付手段は、コンテンツ作成者の音声の入力を受け付け、入力情報解析手段は、入力された前記音声の音量特性及び周波数特性を解析し、コンテンツ作成手段は、解析された前記音量特性及び前記周波数特性のうち少なくとも1種類の指標を反映させたシナリオを作成し、コンテンツを作成するものである。   The content creation device according to claim 3 of the present invention is the content creation device according to claim 2, wherein the input information receiving means accepts the voice input of the content creator, and the input information analysis means Analyzing the volume characteristic and frequency characteristic of the sound, and creating content by creating a scenario reflecting at least one kind of index of the analyzed volume characteristic and frequency characteristic It is.

また、本発明の請求項4に記載のコンテンツ作成装置は、請求項1に記載のコンテンツ作成装置において、コンテンツ作成者が入力する情報は、前記コンテンツ作成者を撮影した静止画または動画であるものである。   The content creation device according to claim 4 of the present invention is the content creation device according to claim 1, wherein the information input by the content creator is a still image or a moving image taken by the content creator. It is.

また、本発明の請求項5に記載のコンテンツ作成装置は、請求項4に記載のコンテンツ作成装置において、入力情報受付手段は、コンテンツ作成者を撮影した動画の入力を受け付け、入力情報解析手段は、入力された前記動画を構成する画像のフレーム間の変化量を算出し、コンテンツ作成手段は、算出された前記動画を構成する画像のフレーム間の変化量を反映させたシナリオを作成し、コンテンツを作成するものである。   The content creation device according to claim 5 of the present invention is the content creation device according to claim 4, wherein the input information reception means accepts input of a moving image of the content creator, and the input information analysis means The amount of change between frames of the images constituting the input video is calculated, and the content creation means creates a scenario reflecting the calculated amount of change between frames of the images constituting the video, Is to create.

また、本発明の請求項6に記載のコンテンツ作成装置は、請求項1に記載のコンテンツ作成装置において、入力情報受付手段は、コンテンツ作成者の音声及び動画の入力を受け付け、入力情報解析手段は、入力された前記音声の音量特性及び周波数特性を解析するとともに、入力された前記動画を構成する画像のフレーム間の変化量を算出し、コンテンツ作成手段は、解析された前記音量特性及び前記周波数特性のうち少なくとも1種類の指標と、算出された前記動画を構成する画像のフレーム間の変化量を反映させたシナリオを作成し、コンテンツを作成するものである。   The content creation device according to claim 6 of the present invention is the content creation device according to claim 1, wherein the input information receiving means accepts input of the content creator's voice and video, and the input information analysis means is Analyzing the volume characteristic and frequency characteristic of the input voice and calculating the amount of change between frames of the image constituting the input moving image, and the content creating means is configured to analyze the volume characteristic and frequency analyzed A content is created by creating a scenario reflecting at least one kind of index among the characteristics and the calculated amount of change between frames of the image constituting the moving image.

また、本発明の請求項7に記載のコンテンツ作成装置は、請求項1に記載のコンテンツ作成装置において、現在位置を取得する位置情報取得手段をさらに備え、コンテンツ作成手段は、取得された前記現在位置を反映させたシナリオを作成し、コンテンツを作成するものである。   The content creation device according to claim 7 of the present invention is the content creation device according to claim 1, further comprising position information acquisition means for acquiring a current position, wherein the content creation means is the acquired current A scenario reflecting the position is created to create content.

また、本発明の請求項8に記載のコンテンツ作成装置は、請求項1から請求項7の何れか一項に記載のコンテンツ作成装置において、コンテンツのシナリオは、あらかじめ定められた記述子を用いて記述されるメタファイルであるものである。   The content creation device according to claim 8 of the present invention is the content creation device according to any one of claims 1 to 7, wherein the content scenario uses a predetermined descriptor. It is a metafile to be described.

また、本発明の請求項9に記載のコンテンツ作成装置は、請求項8に記載のコンテンツ作成装置において、コンテンツ作成手段は、入力情報解析手段において決定されたパラメータの値によって、メタファイルに記述されている条件分岐の分岐先を決定するものである。   The content creation device according to claim 9 of the present invention is the content creation device according to claim 8, wherein the content creation means is described in the metafile by the value of the parameter determined by the input information analysis means. The branch destination of the conditional branch is determined.

また、本発明の請求項10に記載のコンテンツ作成方法は、コンテンツ作成者が入力する情報を受け付ける入力情報受付ステップと、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析ステップと、決定された前記パラメータの値を反映させた前記コンテンツのシナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成ステップを含むものである。   The content creation method according to claim 10 of the present invention includes an input information reception step for receiving information input by a content creator, and parameters necessary for content creation by analyzing the information input by the content creator. And a content creation step of creating a scenario of the content reflecting the determined value of the parameter and creating the content based on the scenario.

また、本発明の請求項11に記載のコンテンツ作成システムは、コンテンツを作成するための素材を提供するシナリオ・コンテンツサーバとコンテンツ作成端末が通信ネットワークを介して接続されて構成されるコンテンツ作成システムであって、前記シナリオ・コンテンツサーバは、コンテンツのシナリオを保持するシナリオ保持手段と、前記シナリオを配信する配信手段と、前記コンテンツ作成端末は、コンテンツ作成者が入力する情報を受け付ける入力情報受付手段と、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析手段と、決定された前記パラメータの値を反映させた前記シナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えるものである。   A content creation system according to an eleventh aspect of the present invention is a content creation system configured by connecting a scenario content server that provides a material for creating content and a content creation terminal via a communication network. The scenario content server includes scenario holding means for holding a content scenario, distribution means for distributing the scenario, and the content creation terminal includes input information receiving means for receiving information input by a content creator. Analyzing the information input by the content creator and determining input information analysis means for determining parameters required for content creation, creating the scenario reflecting the determined parameter value, and based on the scenario Content creation means for creating the content Is shall.

また、本発明の請求項12に記載のコンテンツ作成システムは、情報入力端末とコンテンツ作成サーバが通信ネットワークを介して接続されて構成されるコンテンツ作成システムであって、前記情報入力端末は、コンテンツ作成者が入力する情報を符号化してから多重化する情報多重化手段と、前記多重化された情報を前記コンテンツ作成サーバに配信するデータ受送信手段と、前記コンテンツ作成サーバは、コンテンツのシナリオを保持するシナリオ保持手段と、前記情報入力端末より配信される前記多重化された情報を分離してから復号化し、復号化された前記情報を解析し、前記コンテンツの作成に必要なパラメータを決定する多重化情報解析手段と、解析された前記パラメータの値を反映させた前記シナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えるものである。   The content creation system according to claim 12 of the present invention is a content creation system configured by connecting an information input terminal and a content creation server via a communication network, and the information input terminal includes a content creation system. Information multiplexing means for encoding and then multiplexing information input by a user, data receiving / transmitting means for delivering the multiplexed information to the content creation server, and the content creation server holding a content scenario A scenario holding unit that performs the multiplexing and the decoding of the multiplexed information distributed from the information input terminal after separating the decoded information, analyzing the decoded information, and determining parameters necessary for creating the content And creating the scenario reflecting the value of the analyzed parameter, and the scenario Those with a content creating means for creating said content based.

以上説明したように、本発明に係るコンテンツ作成装置は、コンテンツ作成者が入力する情報を受け付ける入力情報受付手段と、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析手段と、決定された前記パラメータの値を反映させた前記コンテンツのシナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えることを特徴とする。   As described above, the content creation apparatus according to the present invention analyzes the information input by the content creator, the input information reception means for receiving information input by the content creator, and sets the parameters necessary for creating the content. Input information analyzing means for determining, and content creating means for creating a scenario of the content reflecting the value of the determined parameter and creating the content based on the scenario.

従って、コンテンツの内容を記述するシナリオに基づきつつ、コンテンツ作成者の顔画像や音声、動きの情報を反映させることができ、多様なコンテンツを容易に作成することが可能である。   Therefore, the content creator's face image, sound, and movement information can be reflected based on the scenario describing the content, and various contents can be easily created.

また、本発明に係るコンテンツ作成装置は、現在位置を取得する位置情報取得手段をさらに備え、コンテンツ作成手段は、取得された前記現在位置を反映させたシナリオを作成し、コンテンツを作成することを特徴とする。   The content creation device according to the present invention further includes position information acquisition means for acquiring a current position, and the content creation means creates a scenario reflecting the acquired current position and creates content. Features.

これにより、コンテンツ作成端末が現在設置されている場所に応じて、シナリオを変更することができ、個性豊かなコンテンツを容易に生成することができる。   Thus, the scenario can be changed according to the location where the content creation terminal is currently installed, and unique content can be easily generated.

以下、本発明の実施の形態を、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
以下、本発明の実施の形態1に係るコンテンツ作成装置を、図面を参照しながら説明する。
(Embodiment 1)
Hereinafter, a content creation device according to Embodiment 1 of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態1におけるコンテンツ作成装置の構成の一例を示す図である。   FIG. 1 is a diagram showing an example of a configuration of a content creation device according to Embodiment 1 of the present invention.

本発明の実施の形態1に係るコンテンツ作成装置は、シナリオ・コンテンツサーバ10、通信ネットワーク20、コンテンツ作成端末30により構成される。シナリオ・コンテンツサーバ10は、コンテンツ全体の内容を記述するシナリオを格納するシナリオ保持手段11、各シナリオに対応したコンテンツを作成するための様々な素材(以降、コンテンツパーツと称す。)を格納するコンテンツパーツ保持手段12、及びデータを受送信するための配信手段13により構成される。通信ネットワーク20は、サーバと端末間のデータのやり取りを行うためのインターネットなどのネットワークである。コンテンツ作成端末30は、データの受送信を行うデータ受送信手段31、コンテンツ作成に用いるシナリオを選択するためのシナリオ選択手段32、作成したコンテンツやダウンロードしたコンテンツパーツを保持するためのコンテンツ保持手段33、コンテンツを作成するためのコンテンツ作成手段34、コンテンツ作成者の音声情報37や映像情報38などの情報の入力を受け付ける入力情報受付手段36、及び入力された情報を解析するための入力情報解析手段35により構成される。以下で、本発明の実施の形態1に係るコンテンツ作成装置の処理の流れについて詳しく説明する。   The content creation apparatus according to the first embodiment of the present invention includes a scenario / content server 10, a communication network 20, and a content creation terminal 30. The scenario / content server 10 includes scenario holding means 11 for storing a scenario describing the contents of the entire content, and content for storing various materials (hereinafter referred to as content parts) for creating content corresponding to each scenario. It comprises a parts holding means 12 and a delivery means 13 for receiving and transmitting data. The communication network 20 is a network such as the Internet for exchanging data between a server and a terminal. The content creation terminal 30 includes a data transmission / reception unit 31 for receiving and transmitting data, a scenario selection unit 32 for selecting a scenario used for content creation, and a content holding unit 33 for holding the created content and downloaded content parts. Content creation means 34 for creating content, input information reception means 36 for receiving input of information such as audio information 37 and video information 38 of the content creator, and input information analysis means for analyzing the input information 35. Hereinafter, the processing flow of the content creation device according to Embodiment 1 of the present invention will be described in detail.

まず、本発明におけるコンテンツについて説明する。コンテンツとは、例えば「誕生日」、「結婚式」、「年賀状」などのイベントに対応し、コンピュータグラフィックス(以降、CGと称す。)で作成されたキャラクタや、カメラなどを用いて取得された静止画、動画、及びマイクロフォンなどを用いて取得された音楽や音声(これらの総称がコンテンツパーツである。)を組み合わせて作成される一連の情報の集合である。また、どのコンテンツパーツをどのようなタイミングでどのように組み合わせるかなど、コンテンツ全体の内容を記述したものをシナリオと呼ぶことにする。図2に「誕生日」イベントに対応したコンテンツの一例を示す。図2のコンテンツでは、CGで作成された大きなケーキのまわりで2人のCGキャラクタがダンスをしており、画面の上部にはコンテンツ作成者自身の映像とともに、「誕生日おめでとう!!」というテキストが表示されている。また、スピーカーからはコンテンツ作成者自身の音声による「誕生日おめでとう」というメッセージが流れる。ユーザーはこの作成したコンテンツを誕生日の友人に送ることで、多彩なコミュニケーションを実現できる。   First, content in the present invention will be described. The content corresponds to events such as “birthday”, “wedding”, and “new year's card”, for example, and is acquired using a character created by computer graphics (hereinafter referred to as CG) or a camera. It is a set of a series of information that is created by combining music and voice (collectively these are content parts) acquired using still images, moving images, microphones, and the like. In addition, what describes the contents of the whole content, such as which content parts are combined at what timing and how, is called a scenario. FIG. 2 shows an example of content corresponding to the “birthday” event. In the content of FIG. 2, two CG characters are dancing around a large cake made with CG, and the text “Happy Birthday!” Along with the content creator's own video at the top of the screen. Is displayed. In addition, the message “Happy Birthday” will be heard from the speaker. Users can realize a variety of communication by sending this created content to their birthday friends.

シナリオ保持手段11には、様々なイベントに対応するコンテンツの一覧表が保持されている。コンテンツは、各イベントに対して一種類のみであっても良いし、複数個存在しても良い。以降、この一覧表をコンテンツテーブルと称す。コンテンツテーブルは、シナリオ保持手段11より読み出され、配信手段13、通信ネットワーク20、データ受送信手段31を介して、シナリオ選択手段32に送られる。コンテンツ作成者は、送信されてきたコンテンツテーブルを参照し、作成したいコンテンツを選択する。選択された情報は、通信ネットワーク20を介してシナリオ保持手段11に送信される。シナリオ保持手段11では、選択されたコンテンツの情報を取得すると、当該コンテンツに対応するシナリオを読み出し、配信手段13、通信ネットワーク20、データ受送信手段31を介してコンテンツ作成手段34に送信する。   The scenario holding unit 11 holds a list of contents corresponding to various events. There may be only one type of content for each event, or there may be a plurality of contents. Hereinafter, this list is referred to as a content table. The content table is read from the scenario holding unit 11 and sent to the scenario selection unit 32 via the distribution unit 13, the communication network 20, and the data transmission / reception unit 31. The content creator refers to the transmitted content table and selects the content to be created. The selected information is transmitted to the scenario holding unit 11 via the communication network 20. When the scenario holding unit 11 acquires information on the selected content, the scenario corresponding to the content is read and transmitted to the content creation unit 34 via the distribution unit 13, the communication network 20, and the data receiving / transmitting unit 31.

シナリオを記述する方法は特に限定しないが、MPEG−7や、SMIL(Synchronized Multimedia Integration Language)、XML(Extensible Markup Language)などのシーン記述言語に則した形式で表現しても良い。図3に、シナリオ記述の一例を示す。図3に示すように、本発明の実施の形態1におけるシナリオは、<>で括られた記述子(タグ)とタグに囲まれた値や内容によって記述される。以下で、図3に示されているシナリオについて詳しく説明する。   The method of describing the scenario is not particularly limited, but may be expressed in a format according to a scene description language such as MPEG-7, SMIL (Synchronized Multimedia Integration Language), XML (Extensible Markup Language). FIG. 3 shows an example of scenario description. As shown in FIG. 3, the scenario according to the first embodiment of the present invention is described by a descriptor (tag) enclosed in <> and a value or content surrounded by the tag. Hereinafter, the scenario shown in FIG. 3 will be described in detail.

<HappyBirthday>タグは、このシナリオが「誕生日」に対応するコンテンツであることを表す。<ID>は、登場するコンテンツパーツを識別する記述子であり、<ModelName>はCGオブジェクトの形状データファイル名、<Position>は形状データを配置する初期位置を表す。<Animation>はアニメーションに関する記述の開始/終了を表し、<StartTime>はアニメーションの開始時刻、<Anim>はCGオブジェクトに適用するアニメーションデータのファイル名を表す。<Texture>はテクスチャに関する記述の開始/終了を表し、<TexName>はマッピングするテクスチャデータのファイル名を表す。従って、図3の6行目から16行目までを解釈すると、“Man.mdlという形状データファイルを読み込み、Pict.texテクスチャをマッピングして、[0.0 10.0 0.0]の位置に置き、1.0秒からAnim0.animのアニメーションを開始する。”となる。22行目の<when>から30行目の<otherwise>までは条件分岐を表し、Momentumの値が0以上50未満の場合にはAnim1.animのアニメーションデータを利用し、50以上100未満の場合にはAnim2.animを、それ以外の場合にはAnim3.animを利用することを意味する。Momentumの内容に関しては後述する。<Effect>は、エフェクトに関する記述の開始/終了を表し、<Kind>はエフェクトの種類、<EffectAnim>は利用するエフェクトの属性を表す。   The <HappyBirthday> tag indicates that this scenario is content corresponding to “birthday”. <ID> is a descriptor for identifying the appearing content part, <ModelName> is the shape data file name of the CG object, and <Position> is an initial position where the shape data is arranged. <Animation> represents the start / end of the description relating to the animation, <StartTime> represents the start time of the animation, and <Anim> represents the file name of the animation data to be applied to the CG object. <Texture> represents the start / end of the description about the texture, and <TextName> represents the file name of the texture data to be mapped. Therefore, when the 6th to 16th lines in FIG. 3 are interpreted, the shape data file “Man.mdl” is read, the Pict.tex texture is mapped, and the position of [0.0 10.0 0.0] And start animation of Anim0.anim from 1.0 second. " From <when> on the 22nd line to <otherwise> on the 30th line represents a conditional branch. When the value of Momentum is 0 or more and less than 50, Anim1. If the animation data of anim is used and is 50 or more and less than 100, Anim2. anim, otherwise Anim3. It means using anim. The content of Momentum will be described later. <Effect> represents the start / end of the description about the effect, <Kind> represents the type of the effect, and <EffectAnim> represents the attribute of the effect to be used.

コンテンツ作成者はシナリオ保持手段11よりシナリオを取得すると、次にコンテンツ作成端末30に取り付けられたカメラ及びマイクロフォン(図1ではともに入力情報受付手段36として図示されている。)を用いて、音声情報37及び映像情報38を入力する。例えば、「誕生日」イベントであればカメラに向かって手を振りながら、「お誕生日おめでとう」というメッセージを入力する。以降、コンテンツ作成者により入力された音声情報及び映像情報をまとめて映像メッセージと称す。入力された映像メッセージは入力情報受付手段36を介して入力情報解析手段35に送られる。   When the content creator obtains the scenario from the scenario holding means 11, the audio information is next used by using a camera and a microphone (both shown as the input information receiving means 36 in FIG. 1) attached to the content creation terminal 30. 37 and video information 38 are input. For example, for a “birthday” event, a message “Happy Birthday” is input while waving at the camera. Hereinafter, the audio information and the video information input by the content creator are collectively referred to as a video message. The input video message is sent to the input information analyzing means 35 via the input information receiving means 36.

図3のシナリオにおいて、MomentumやVoicePitchは、ユーザーが入力した映像メッセージに基づいて決定される量である。従って、ユーザーが入力した情報に応じて条件分岐の判定結果が変わることになる。その結果、利用するアニメーションやエフェクトの属性を変化させ、多彩なコンテンツを作成することができる。入力情報解析手段35は、映像メッセージからこれらの値を算出する。   In the scenario of FIG. 3, Momentum and VoicePitch are quantities determined based on a video message input by the user. Therefore, the conditional branch determination result changes according to information input by the user. As a result, various contents can be created by changing the attributes of animations and effects to be used. The input information analysis means 35 calculates these values from the video message.

Momentumは、コンテンツ作成者が作成した映像メッセージの映像情報の変化の大きさ(動き量)を表す。入力された映像情報38からMomentumを算出する方法は特に限定しないが、例えば以下の2通りの方法が考えられる。   “Momentum” represents the amount of change (motion amount) of the video information of the video message created by the content creator. The method for calculating the momentum from the input video information 38 is not particularly limited, but for example, the following two methods are conceivable.

(差分画像を利用する方法)
差分画像を利用する方法では、画像のフレーム間の差分を求めることで動き量を算出する。具体的には以下の手順に従う。
(Method using difference image)
In the method using a difference image, the amount of motion is calculated by obtaining a difference between frames of the image. Specifically, the following procedure is followed.

(1)動き総量AMOUNT=0とする。   (1) The total motion amount AMOUNT = 0.

(2)第Iフレームのj行k列目の画素値P[j][k]と第I−1フレームの同じ位置の画素値P‘[j][k]の差分(P[j][k]−P‘[j][k])を算出する。   (2) The difference (P [j] [k] between the pixel value P [j] [k] in the j-th row and the k-th column of the I-th frame and the pixel value P ′ [j] [k] at the same position in the I-1th frame. k] −P ′ [j] [k]).

(3)(2)で算出した値が0でない場合にはAMOUNTに1を加算する。0の場合には何もしない。図4の例では、斜線で表された領域がAMOUNTに1を加算する領域である。   (3) If the value calculated in (2) is not 0, 1 is added to AMOUNT. If 0, do nothing. In the example of FIG. 4, the hatched area is an area where 1 is added to AMOUNT.

(4)(2)(3)の処理を映像情報のすべてのフレームのすべての画素で実行する。   (4) The processes of (2) and (3) are executed for all pixels of all frames of video information.

(5)Momentum=AMOUNTとする。   (5) Momentum = AMOUNT.

(動きベクトルを利用する方法)
動きベクトルを利用する方法では、映像情報を構成する画像を固定サイズのブロックに分割し、各ブロックとひとつ前のフレームを構成する画像内で最も相関の高いブロックを求め、そのブロックへの移動ベクトルを用いる。具体的には以下の手順に従う(図5を参照)。
(Method using motion vectors)
In the method using a motion vector, an image constituting video information is divided into fixed-size blocks, a block having the highest correlation among the images constituting each block and the previous frame is obtained, and a movement vector to that block is obtained. Is used. Specifically, the following procedure is followed (see FIG. 5).

(1)映像情報を構成する画像を固定サイズのブロック(例えば16×16画素のブロック)に分割する。   (1) An image constituting video information is divided into fixed-size blocks (for example, blocks of 16 × 16 pixels).

(2)第Iフレームのあるブロックと第I−1フレームの画像のブロックと同じ大きさの部分領域との相関を、ブロック内の同じ位置にある画素の差分二乗和Sを取ることによって求める。そして、Sが最小となるブロックを決定する。   (2) The correlation between a certain block of the I-th frame and a partial region having the same size as the block of the image of the (1-1) -th frame is obtained by taking the difference square sum S of the pixels at the same position in the block. Then, the block that minimizes S is determined.

(3)第Iフレームのあるブロックの中心座標を(Xc,Yc)、当該ブロックと最も相関の高い第I−1フレームのブロックの中心座標を(Xrc,Yrc)とすると、動きベクトルvは、v=(vx,vy)=(Xc−Xrc,Yc−Yrc)で表される。   (3) Assuming that the center coordinates of a block in the I frame are (Xc, Yc) and the center coordinates of the block in the I-1 frame having the highest correlation with the block are (Xrc, Yrc), the motion vector v is v = (vx, vy) = (Xc−Xrc, Yc−Yrc).

(4)vの大きさ|v|=sqrt(vx*vx+vy*vy)を求める。ここで、sqrtは平方根を取ることを意味し、*は積を表す。   (4) The magnitude of v | v | = sqrt (vx * vx + vy * vy) is obtained. Here, sqrt means taking a square root, and * represents a product.

(5)(3)(4)の処理を映像メッセージのすべてのフレームのすべてのブロックで実行する。   (5) The processes of (3) and (4) are executed in all blocks of all frames of the video message.

(6)(5)の総和をMomentumとする。   (6) The sum of (5) is Momentum.

VoicePitchは、コンテンツ作成者が入力した音声情報の高さ(ピッチ)を表す。入力された音声情報37からVoicePitchを算出する方法は特に限定しないが、例えば以下のような2通りの方法がある。   VoicePitch represents the height (pitch) of audio information input by the content creator. The method for calculating VoicePitch from the input audio information 37 is not particularly limited, but there are, for example, the following two methods.

(周波数のピーク値を利用する方法)
(1)入力された音声情報をフーリエ変換などにより周波数領域に変換する。
(Method using frequency peak value)
(1) The input voice information is converted into the frequency domain by Fourier transform or the like.

(2)各周波数成分のパワー値を調べ、パワー値が最大である周波数fpをVoicePitchとする。   (2) The power value of each frequency component is examined, and the frequency fp having the maximum power value is set as VoicePitch.

(周波数の相対値を利用する方法)
周波数のピーク値を利用する方法では、例えば低い声の作成者の場合にはVoicePitchの値は常に低くなる。そこで、周波数の相対値を利用する方法では、コンテンツ作成者が以前に入力した音声情報を解析して抽出したピッチ情報をコンテンツ保持手段33に記録しておく。そして、それとの相対値をVoicePitchとする。具体的には以下の手順に従う。
(Method using relative value of frequency)
In the method using the peak value of the frequency, for example, the value of VoicePitch is always low for a low voice creator. Therefore, in the method using the relative value of the frequency, the pitch information extracted by analyzing the audio information previously input by the content creator is recorded in the content holding unit 33. And the relative value with it is set to VoicePitch. Specifically, the following procedure is followed.

(1)入力された音声情報を周波数領域に変換する。   (1) The input voice information is converted into the frequency domain.

(2)各周波数成分のパワー値を調べ、パワー値が最大である周波数fpを求める。   (2) The power value of each frequency component is examined, and the frequency fp having the maximum power value is obtained.

(3)コンテンツ保持手段33に記録されている、以前に抽出したピッチ情報fprefを読み出し、VoicePitch=fp/fprefとする。   (3) The previously extracted pitch information fpref recorded in the content holding unit 33 is read out and VoicePitch = fp / fpref is set.

以上の方法により算出されたMomentumやVoicePitchの値はコンテンツ作成手段34に送信される。   The values of Momentum and VoicePitch calculated by the above method are transmitted to the content creation means 34.

コンテンツ作成手段34では、シナリオ・コンテンツサーバ10より送られてきたシナリオと入力情報解析手段35で決定されたパラメータを用いてコンテンツを作成する。まず、シナリオで条件分岐になっている部分の処理を決定する。例えば、図3の例ではLady.mdlに利用するアニメーションデータがMomentumにより決定され、エフェクトの属性がVoicePitchにより決定される。ここで、図3の22行目から30行目に示されている条件分岐に関して、Anim1.animは、最も動きの変化が乏しいアニメーションデータであり、Anim2.anim、Anim3.animになるにつれて変化の激しいアニメーションデータになっている。これは、コンテンツ作成者が映像メッセージを作成した時の動きの度合いを、コンテンツにも反映させられることを意味する。また、37行目から42行目に示されている条件分岐では、キャラクタのまわりに星を降らせるエフェクトを決定しているが、Anim5.eftの方がAnim4.eftよりも星の個数が多くなるように設定されている。これは、映像メッセージを作成した時の声の高まり度合いを反映させられることを意味する。   The content creation means 34 creates content using the scenario sent from the scenario / content server 10 and the parameters determined by the input information analysis means 35. First, the processing of the part that is a conditional branch in the scenario is determined. For example, in the example of FIG. Animation data used for mdl is determined by Momentum, and the attribute of the effect is determined by VoicePitch. Here, regarding the conditional branch shown in the 22nd to 30th lines in FIG. anim is animation data with the least change in motion, and Anim2. anim, Anim3. The animation data changes rapidly with anim. This means that the degree of movement when the content creator creates the video message can be reflected in the content. Further, in the conditional branch shown in the 37th line to the 42nd line, the effect of dropping a star around the character is determined. eft is anim4. It is set so that the number of stars is larger than that of eft. This means that the degree of voice increase when the video message is created can be reflected.

コンテンツ作成手段34はシナリオが確定すると、コンテンツ作成に必要なCG形状データ、アニメーションデータ、テクスチャデータなどのコンテンツパーツの取得要求を、通信ネットワーク20を介してシナリオ・コンテンツサーバ10に出す。シナリオ・コンテンツサーバ10は要求を受け取ると、コンテンツパーツ保持手段12より必要なコンテンツパーツを読み出し、配信手段13、通信ネットワーク20、データ受送信手段31を通じてコンテンツ作成手段34に送る。ここで、コンテンツ作成手段34は、コンテンツパーツをすべてシナリオ・コンテンツサーバ10から受け取るとしたが、その限りではない。例えば、以前コンテンツを作成した際にダウンロードしたパーツやコンテンツ作成端末30にあらかじめ保持されているパーツなどはコンテンツ保持手段33から取得して用いても良い。また、コンテンツ作成者が入力した映像メッセージをそのままコンテンツパーツとして利用しても良い。   When the scenario is determined, the content creation unit 34 issues a request for acquiring content parts such as CG shape data, animation data, and texture data necessary for content creation to the scenario / content server 10 via the communication network 20. When the scenario content server 10 receives the request, it reads out the necessary content parts from the content part holding means 12 and sends them to the content creation means 34 through the distribution means 13, the communication network 20, and the data reception / transmission means 31. Here, the content creating unit 34 receives all the content parts from the scenario / content server 10, but this is not a limitation. For example, parts downloaded at the time of creating content before, parts previously held in the content creation terminal 30 may be acquired from the content holding means 33 and used. Further, a video message input by the content creator may be used as it is as a content part.

コンテンツパーツがすべて揃うと、それらを用いてコンテンツが作成される。コンテンツ作成手段34は、シナリオを解釈しながら、それに従ってCGの分野で一般的に用いられる以下のような処理を実行し、コンテンツを作成する。   When all the content parts are available, the content is created using them. The content creation unit 34 interprets the scenario and executes the following process generally used in the field of CG according to the scenario to create the content.

(1)輝度計算
(2)隠線・隠面消去
(3)投影変換、ビューポート変換
(4)シェーディング
(5)テクスチャマッピング
また、音声や音楽に関してもシナリオに記述されたタイミングで再生する。図6に最終的に作成されたコンテンツの一例を示す。
(1) Luminance calculation (2) Hidden line / hidden surface elimination (3) Projection conversion, viewport conversion (4) Shading (5) Texture mapping In addition, voice and music are also reproduced at the timing described in the scenario. FIG. 6 shows an example of the content finally created.

作成されたコンテンツは、コンテンツ保持手段33に記録されるが、その形式は特に限定しない。非圧縮のまま保存しても良いし、MPEG−4などの形式で符号化したものを保存しても良い。また、作成したコンテンツをメールなどに添付して送ることもできる。   The created content is recorded in the content holding unit 33, but the format is not particularly limited. You may preserve | save uncompressed and you may preserve | save what was encoded in formats, such as MPEG-4. Also, the created content can be sent as an email attachment.

図7は、「結婚祝い」イベントに関するコンテンツのシナリオの一部である。図7において、<BGColor>は背景色を表すタグであり、<Voice>は音声に関する記述の開始/終了、<Movie>は映像に関する記述の開始/終了、<Play>は音声または映像の再生に関する記述の開始/終了を表すタグである。VoiceAmpは、コンテンツ作成者が映像メッセージを作成した時の音声情報の大きさを表す。VoiceAmpの算出方法は特に限定しない。例えば入力された音声情報37の振幅を調べ、その最大値をVoiceAmpとすることなどが考えられる。図7のシナリオでは、VoiceAmpの値に応じて、背景色が変化する。VoiceAmpの値が大きくなるにつれて、青→緑→黄に設定されることから、図7のシナリオでは、映像メッセージの音声の振幅が大きいほど明るい背景色が用いられることになり、その結果、コンテンツも明るく派手な印象を与えるものになる。   FIG. 7 is a part of a content scenario related to the “wedding celebration” event. In FIG. 7, <BGColor> is a tag representing a background color, <Voice> is the start / end of a description about audio, <Movie> is the start / end of a description about video, and <Play> is about playback of audio or video. This tag represents the start / end of the description. VoiceAmp represents the size of audio information when the content creator creates a video message. The calculation method of VoiceAmp is not particularly limited. For example, it is conceivable to check the amplitude of the input voice information 37 and set the maximum value to VoiceAmp. In the scenario of FIG. 7, the background color changes according to the value of VoiceAmp. As the value of VoiceAmp increases, blue → green → yellow is set, so in the scenario of FIG. 7, the brighter background color is used as the audio amplitude of the video message increases, and as a result, the content also It will give a bright and flashy impression.

これまでの説明ではMomentumやVoiceAmpなどを別々に用いてシナリオ中のアニメーションデータやエフェクトの属性を決定してきたが、その限りではない。例えば、図16に示すシナリオであれば、Momentum、VoiceAmpともに小さい場合に背景色は紫色となり、逆にMomentum、VoiceAmpともに大きければ黄色になる。また、Momentumは大きいが、VoiceAmpが小さい場合には緑色になる。このように、複数の指標の組み合わせによりシナリオを決定しても良い。   In the description so far, Momentum, VoiceAmp, and the like are separately used to determine animation data and effect attributes in the scenario, but this is not a limitation. For example, in the scenario shown in FIG. 16, when both Momentum and VoiceAmp are small, the background color is purple, and conversely, when both Momentum and VoiceAmp are large, the background color is yellow. Also, if the momentum is large but the VoiceAmp is small, the color is green. Thus, the scenario may be determined by a combination of a plurality of indices.

図7の13行目のMyPictは、Man2.mdlの形状データにコンテンツ作成者自身の顔画像をテクスチャとしてマッピングすることを表している。使用する顔画像は、コンテンツ保持手段33に予め保存されている静止画像でも良いし、映像メッセージを作成する前に静止画像を撮影して用いても良いが、CGキャラクタのテクスチャとして利用するためには、取得した静止画像から顔領域を切り出す必要がある。以下、顔領域を抽出するための2通りの方法について説明する。   MyPict on line 13 in FIG. This represents mapping the content creator's own face image as a texture to the shape data of mdl. The face image to be used may be a still image stored in advance in the content holding unit 33 or may be used by photographing a still image before creating a video message, but for use as a texture for a CG character. Needs to cut out a face area from the acquired still image. Hereinafter, two methods for extracting the face area will be described.

(1)テンプレートマッチングを用いる方法
テンプレートマッチングは、図8に示すような、様々な大きさ、姿勢を持つ顔参照画像をあらかじめ用意しておき(これらの画像をテンプレートと呼ぶ)、入力された静止画像の部分領域との相関を取ることによって、領域を特定する方法である。具体的には、用意されたテンプレートを用いて入力画像を走査していき、入力画像の画素値と、テンプレートの画素値の差分二乗和Sを順次求める。この処理をすべてのテンプレートについて行い、Sが最小となるテンプレートの位置、姿勢が入力画像における顔領域の位置、姿勢となる。
(1) Method Using Template Matching For template matching, face reference images having various sizes and postures as shown in FIG. 8 are prepared in advance (these images are referred to as templates), and the input still image This is a method of specifying a region by taking a correlation with a partial region of an image. Specifically, the input image is scanned using the prepared template, and the difference square sum S of the pixel value of the input image and the pixel value of the template is sequentially obtained. This process is performed for all templates, and the position and orientation of the template that minimizes S are the position and orientation of the face area in the input image.

(2)色情報を併用する方法
色情報を併用する方法では、入力画像からまず肌色の領域を抽出する。抽出された肌色の領域が顔領域の候補となる。これらの候補に対して(1)と同様の処理を施し、顔領域を抽出する。
(2) Method of using color information together In the method of using color information together, a skin color region is first extracted from an input image. The extracted skin color area is a face area candidate. These candidates are subjected to the same processing as (1) to extract face areas.

以上の方法を用いて、図9に示すように静止画像から顔領域のみを抽出する。抽出された顔画像はコンテンツ作成手段34に送られ、CGキャラクタにマッピングされる。このように、登場するCGキャラクタにコンテンツ作成者自身の顔画像をマッピングすることにより、親しみやすいコンテンツを作成することができる。   Using the above method, only the face area is extracted from the still image as shown in FIG. The extracted face image is sent to the content creation means 34 and mapped to the CG character. In this way, friendly content can be created by mapping the face image of the content creator to the CG character that appears.

図7の16行目のMyVoiceは、コンテンツ作成者が作成した映像メッセージの音声を再生することを表し、22行目のMyMovieは、映像を再生することを表す。従って、図7のシナリオでは、コンテンツ作成者の顔画像がマッピングされたCGキャラクタが登場して5.0秒後からコンテンツ作成者が作成した映像メッセージ、例えば結婚を祝うメッセージが再生される。このように、コンテンツに作成者の音声や動きの情報を反映させるとともに、映像メッセージそのものをコンテンツに埋め込むことも可能である。   The MyVoice on the 16th line in FIG. 7 indicates that the audio of the video message created by the content creator is reproduced, and the MyMovie on the 22nd line indicates that the video is reproduced. Accordingly, in the scenario of FIG. 7, a video message created by the content creator, for example, a message celebrating marriage, is played 5.0 seconds after the CG character to which the face image of the content creator is mapped appears. In this manner, the creator's voice and movement information can be reflected in the content, and the video message itself can be embedded in the content.

これまでの説明では、コンテンツ作成者が入力する情報に応じて、CGキャラクタの動作を制御するアニメーションデータや背景色、エフェクトの属性を変更する例について説明したが、それ以外の内容を変更することも可能である。例えば、登場するCGキャラクタの人数や、背景で流れる音楽を変更することができる。登場するキャラクタの人数を変更する場合には、入力された情報に応じて読み込むCG形状データファイル数を変えるようにシナリオを記述しておけば良い。また、背景で流れる音楽を変更する場合には、<Music>や<MusicName>などのタグを定義し、条件に応じて再生する音楽データファイルを変更するようにシナリオを記述しておけば良い。   In the description so far, the example of changing the animation data, the background color, and the effect attribute for controlling the movement of the CG character according to the information input by the content creator has been described. However, other contents may be changed. Is also possible. For example, the number of CG characters that appear and the music that flows in the background can be changed. When changing the number of characters appearing, it is only necessary to describe the scenario so as to change the number of CG shape data files to be read according to the input information. In addition, when changing the music that flows in the background, tags such as <Music> and <MusicName> are defined, and a scenario may be described so as to change the music data file to be played according to the conditions.

以上のように、本発明の実施の形態1に係るコンテンツ作成装置によれば、コンテンツの全体の内容を記述するシナリオに基づきつつ、コンテンツ作成者の顔画像や音声、動きの情報を反映させることができる。従って、多彩なコンテンツを容易に作成することが可能である。   As described above, according to the content creation device according to Embodiment 1 of the present invention, the face image, voice, and motion information of the content creator are reflected based on the scenario describing the entire content. Can do. Therefore, various contents can be easily created.

(実施の形態2)
以下、本発明の実施の形態2に係るコンテンツ作成装置を、図面を参照しながら説明する。
(Embodiment 2)
Hereinafter, a content creation apparatus according to Embodiment 2 of the present invention will be described with reference to the drawings.

図10は、本発明の実施の形態2におけるコンテンツ作成装置の構成の一例を示す図である。図10のコンテンツ作成端末30は、本発明の実施の形態1で説明した構成に加えて、位置情報取得手段41を備えている。なお、本発明の実施の形態1と対応する機能構成については同一番号を付し、詳細な説明を省略する。   FIG. 10 is a diagram showing an example of the configuration of the content creation device according to Embodiment 2 of the present invention. The content creation terminal 30 in FIG. 10 includes a position information acquisition unit 41 in addition to the configuration described in the first embodiment of the present invention. It should be noted that functional configurations corresponding to those of the first embodiment of the present invention are given the same numbers, and detailed descriptions thereof are omitted.

コンテンツ作成者はまず、シナリオ選択手段32を用いて、作成したいコンテンツを選択する。本発明の実施の形態2では、「お礼状」イベントに関するコンテンツを選択したとする。選択された情報はシナリオ保持手段11に送られ、それに対応するシナリオが通信ネットワーク20を介してコンテンツ作成手段34に送られる。   First, the content creator uses the scenario selection unit 32 to select content to be created. In the second embodiment of the present invention, it is assumed that content related to a “thank you card” event is selected. The selected information is sent to the scenario holding means 11, and the corresponding scenario is sent to the content creation means 34 via the communication network 20.

図11は、「お礼状」コンテンツに対応するシナリオの一部である。図11において、<Text>はテキストを表示することを表すタグである。また、4行目のGlobalPositionは、コンテンツ作成端末30が現在設置されている位置(場所)を表す。従って、図11のシナリオでは、端末の存在場所に応じて条件分岐し、表示するテキストが変更される。コンテンツ作成手段34は、シナリオを受け取ると、まずその内容を解析し、GlobalPositionが設定されていることを確認すると、位置情報取得手段41に対して、現在端末が設置されている位置に関する情報(以降、位置情報と称す。)を取得するように要求する。位置情報取得手段41は、要求を受けると、位置情報42を取得する。位置情報の取得方法は特に限定しないが、近年様々な機器に搭載されているGPS(Global Positioning System)を用いれば良い。取得された位置情報42は、コンテンツ作成手段34に送られる。   FIG. 11 shows a part of the scenario corresponding to the “thank you note” content. In FIG. 11, <Text> is a tag indicating that text is displayed. The Global Position on the fourth line represents the position (location) where the content creation terminal 30 is currently installed. Therefore, in the scenario of FIG. 11, conditional branching is performed according to the location of the terminal, and the text to be displayed is changed. When the content creation means 34 receives the scenario, it first analyzes the contents and confirms that the GlobalPosition is set. , Referred to as position information). When receiving the request, the position information acquisition unit 41 acquires the position information 42. The method for acquiring the position information is not particularly limited, but a GPS (Global Positioning System) mounted on various devices in recent years may be used. The acquired position information 42 is sent to the content creation unit 34.

コンテンツパーツ保持手段12には、“本当にありがとう”の文章を様々な地方の言葉で表現したテキストデータが格納されている。従って、図11の例では送信されてきた位置情報42を参照し、位置情報42が○以上□未満であると、“本当にありがとう”のテキストデータが選択され、位置情報42が□以上△未満であると、“ほんまおおきに”のテキストデータが選択されて、コンテンツパーツの取得要求が出される。コンテンツパーツ保持手段12は、コンテンツを作成するために必要な他のコンテンツパーツと同様に選択されたテキストデータをコンテンツ作成手段34に送信する。コンテンツ作成手段34では、本発明の実施の形態1と同様の手順でコンテンツを作成し、コンテンツ保持手段33に格納する。図12に、最終的に作成されたコンテンツの例を示す。   The content parts holding means 12 stores text data that expresses “Thank you very much” in various local words. Therefore, in the example of FIG. 11, with reference to the transmitted position information 42, if the position information 42 is greater than or equal to ○ and less than □, the text data “Thank you very much” is selected, and the position information 42 is greater than or equal to □ and less than Δ. If there is, the text data “Honma-Oo-Oki” is selected, and a content part acquisition request is issued. The content part holding unit 12 transmits the selected text data to the content creating unit 34 in the same manner as other content parts necessary for creating the content. The content creation unit 34 creates a content in the same procedure as in the first embodiment of the present invention and stores it in the content holding unit 33. FIG. 12 shows an example of content that is finally created.

このように、本発明の実施の形態2に係るコンテンツ作成装置によれば、コンテンツ作成端末が現在設置されている位置(場所)に応じて、コンテンツの内容を変更することができ、個性豊かなコンテンツを容易に作成することができる。   As described above, according to the content creation device according to Embodiment 2 of the present invention, the content content can be changed according to the position (location) where the content creation terminal is currently installed, and the content creation terminal is rich in individuality. Content can be created easily.

(実施の形態3)
以下、本発明の実施の形態3に係るコンテンツ作成装置を、図面を参照しながら説明する。
(Embodiment 3)
Hereinafter, a content creation apparatus according to Embodiment 3 of the present invention will be described with reference to the drawings.

図13は、本発明の実施の形態3におけるコンテンツ作成装置の構成の一例を示す図である。本発明の実施の形態3におけるコンテンツ作成装置は、コンテンツ作成者に関する情報をシナリオに反映させることで、多彩なコンテンツを作成することに代わりはないが、本発明の実施の形態1におけるコンテンツ作成装置では、コンテンツ作成端末でコンテンツを作成するのに対し、本発明の実施の形態3におけるコンテンツ作成装置では、サーバ側で作成し、端末側では音声情報や映像情報を入力するのみである点が異なる。なお、本発明の実施の形態1と対応する機能構成については同一番号を付し、詳細な説明を省略する。   FIG. 13 is a diagram illustrating an example of a configuration of a content creation device according to Embodiment 3 of the present invention. The content creation apparatus according to the third embodiment of the present invention is not limited to creating a variety of contents by reflecting information about the content creator in the scenario, but the content creation apparatus according to the first embodiment of the present invention. In the content creation terminal according to the third embodiment of the present invention, content is created on the server side, and only audio information and video information are input on the terminal side. . It should be noted that functional configurations corresponding to those of the first embodiment of the present invention are given the same numbers, and detailed descriptions thereof are omitted.

本発明の実施の形態3に係るコンテンツ作成装置は、コンテンツ作成サーバ50、通信ネットワーク20、及び情報入力端末60により構成される。コンテンツ作成サーバ50は、シナリオ保持手段11、コンテンツパーツ保持手段12、配信手段13に加えて、作成されたコンテンツを保持するコンテンツ保持手段33、シナリオ及びコンテンツパーツを用いてコンテンツを作成するコンテンツ作成手段34、及び多重化されて送られてくる音声情報37や映像情報38を分離して復号化し、それぞれの情報からシナリオを決定するためのパラメータを算出する多重化情報解析手段51を備えている。情報入力端末60は、データ受送信手段31、シナリオ選択手段32、入力情報受付手段36に加えて、入力された音声情報37や映像情報38を符号化し、多重化する情報多重化手段61を備えている。以下、本発明の実施の形態3に係るコンテンツ作成装置の処理の流れを詳細に説明する。   The content creation apparatus according to the third embodiment of the present invention includes a content creation server 50, a communication network 20, and an information input terminal 60. In addition to the scenario holding unit 11, the content part holding unit 12, and the distribution unit 13, the content creation server 50 includes a content holding unit 33 that holds the created content, and a content creation unit that creates content using the scenario and the content part. 34, and multiplexed information analyzing means 51 for separating and decoding the audio information 37 and video information 38 sent multiplexed and calculating parameters for determining a scenario from each information. The information input terminal 60 includes an information multiplexing unit 61 that encodes and multiplexes the input audio information 37 and video information 38 in addition to the data transmission / reception unit 31, the scenario selection unit 32, and the input information reception unit 36. ing. Hereinafter, the flow of processing of the content creation device according to Embodiment 3 of the present invention will be described in detail.

コンテンツ作成者はまず、シナリオ保持手段11より送られてくるコンテンツテーブルの中から、シナリオ選択手段32を用いて、所望のコンテンツを選択する。選択されたコンテンツに関する情報は、シナリオ保持手段11に送信される。シナリオ保持手段11は、選択されたコンテンツに対応するシナリオをコンテンツ作成手段34に送信する。次に、コンテンツ作成者は情報入力端末60に取り付けられているカメラやマイクロフォンを用いて、映像メッセージを作成する。映像メッセージを構成する音声情報37及び映像情報38は入力情報受付手段36を介して、情報多重化手段61に送られる。   The content creator first selects a desired content from the content table sent from the scenario holding means 11 using the scenario selection means 32. Information regarding the selected content is transmitted to the scenario holding unit 11. The scenario holding unit 11 transmits a scenario corresponding to the selected content to the content creating unit 34. Next, the content creator creates a video message using a camera or a microphone attached to the information input terminal 60. The audio information 37 and the video information 38 constituting the video message are sent to the information multiplexing means 61 via the input information receiving means 36.

情報多重化手段61では、送られてきた音声情報37及び映像情報38を受け取り、通信ネットワーク20を介してコンテンツ作成サーバ50に伝送可能なデータ形式に変換する。具体的には、図14に示すように、まず音声情報37及び映像情報38をそれぞれ独立に符号化し、ビットストリームを作成する。符号化の形式は特に限定しないが、例えばMPEG−4形式などがある。次に、作成されたビットストリームを多重化する。多重化方式についても特に限定しないが、例えばMP4形式などがある。多重化されたビットストリームは、通信ネットワーク20、配信手段13を介して、多重化情報解析手段51に送られる。   The information multiplexing means 61 receives the sent audio information 37 and video information 38 and converts them into a data format that can be transmitted to the content creation server 50 via the communication network 20. Specifically, as shown in FIG. 14, first, audio information 37 and video information 38 are independently encoded to create a bitstream. The encoding format is not particularly limited, but there is, for example, the MPEG-4 format. Next, the created bit stream is multiplexed. There is no particular limitation on the multiplexing method, but there is an MP4 format, for example. The multiplexed bit stream is sent to the multiplexed information analyzing unit 51 via the communication network 20 and the distributing unit 13.

多重化情報解析手段51では、送られてきた多重化ビットストリームを分離し、復号化して音声情報37及び映像情報38を取得する。コンテンツ作成手段34は、選択されたシナリオにおいて、内容を確定させるためにどのような情報が必要か(本発明の実施の形態1におけるMomentum、VoicePitch、VoiceAmpなど)を解釈し、その結果を多重化情報解析手段51に伝える。多重化情報解析手段51は、前述した方法を用いて動き量や音声の高さなどの必要なパラメータを算出する。算出されたパラメータはコンテンツ作成手段34に送られる。また、本発明の実施の形態2と同様に、情報入力端末60の情報多重化手段61に位置情報取得手段41を備えることもできる(図示せず)。位置情報取得手段41を備えた場合には、GPSなどを用いて位置情報42を取得し、音声情報37、及び映像情報38とともに情報多重化手段61で多重化して送信する。多重化情報解析手段51では、多重化されたビットストリームを分離して位置情報42を取得する。そして、選択されたシナリオでGlobalPositionが使用されている場合には、この値を参照してシナリオを決定する。   The multiplexed information analyzing means 51 separates the transmitted multiplexed bit stream and decodes it to obtain audio information 37 and video information 38. The content creation means 34 interprets what information is necessary to determine the contents in the selected scenario (Momentum, VoicePitch, VoiceAmp, etc. in Embodiment 1 of the present invention), and multiplexes the results. Information is transmitted to the information analysis means 51. The multiplexed information analyzing means 51 calculates necessary parameters such as the amount of motion and the height of speech using the method described above. The calculated parameters are sent to the content creation means 34. Further, as in the second embodiment of the present invention, the information multiplexing means 61 of the information input terminal 60 can be provided with the position information acquisition means 41 (not shown). When the position information acquisition unit 41 is provided, the position information 42 is acquired by using GPS or the like, multiplexed with the audio information 37 and the video information 38 by the information multiplexing unit 61, and transmitted. The multiplexed information analyzing unit 51 acquires the position information 42 by separating the multiplexed bit stream. When GlobalPosition is used in the selected scenario, the scenario is determined with reference to this value.

コンテンツ作成手段34は、選択されたシナリオと多重化情報解析手段51で算出されたパラメータに基づき、コンテンツ作成に必要なコンテンツパーツをコンテンツパーツ保持手段12より読み出し、シナリオに従ってコンテンツを作成する。作成されたコンテンツは、コンテンツ保持手段33に記録しても良いし、メールに添付して相手に直接送信しても良い。   Based on the selected scenario and the parameters calculated by the multiplexed information analyzing unit 51, the content creating unit 34 reads out the content parts necessary for content creation from the content part holding unit 12, and creates the content according to the scenario. The created content may be recorded in the content holding unit 33, or may be directly transmitted to the other party as an attachment to an email.

このように本発明の実施の形態3に係るコンテンツ作成装置によれば、コンテンツの作成をすべてサーバで行い、端末は情報を入力するのみで良い。従って、端末にかかる計算負荷を最小限に抑えて、多彩なコンテンツを容易に生成することができる。これは、性能の低い端末を使用する場合に特に有効である。   As described above, according to the content creation device according to Embodiment 3 of the present invention, all content creation is performed by the server, and the terminal only needs to input information. Accordingly, it is possible to easily generate a variety of contents while minimizing the calculation load on the terminal. This is particularly effective when a terminal with low performance is used.

本発明のコンテンツ作成装置は、例えば、カメラやGPS機能の付いた携帯電話等に搭載して好適に利用できる。   The content creation device of the present invention can be suitably used by being mounted on, for example, a camera or a mobile phone with a GPS function.

本発明の実施の形態1におけるコンテンツ作成装置の構成を示す図The figure which shows the structure of the content creation apparatus in Embodiment 1 of this invention. 本発明を用いて作成されるコンテンツの一例を示す図The figure which shows an example of the content produced using this invention 本発明の実施の形態1で利用されるシナリオを表す図The figure showing the scenario utilized in Embodiment 1 of this invention 差分画像を利用して動き量を算出する方法を説明する図The figure explaining the method of calculating a motion amount using a difference image 動きベクトルを利用して動き量を算出する方法を説明する図The figure explaining the method of calculating a motion amount using a motion vector 選択されたシナリオに基づいて作成されたコンテンツの一例を示す図Diagram showing an example of content created based on the selected scenario 本発明の実施の形態1で利用されるシナリオを表す図The figure showing the scenario utilized in Embodiment 1 of this invention 顔領域の抽出に利用するテンプレートを説明する図The figure explaining the template used for extraction of a face area テンプレートを用いて画像中の顔領域を抽出した結果を示す図The figure which shows the result of having extracted the face area in an image using a template 本発明の実施の形態2におけるコンテンツ作成装置の構成を示す図The figure which shows the structure of the content creation apparatus in Embodiment 2 of this invention. 本発明の実施の形態2で利用されるシナリオを表す図The figure showing the scenario utilized in Embodiment 2 of this invention (a)選択されたシナリオに基づいて作成されたコンテンツの一例を示す図(b)選択されたシナリオに基づいて作成されたコンテンツの一例を示す図(A) The figure which shows an example of the content created based on the selected scenario (b) The figure which shows an example of the content created based on the selected scenario 本発明の実施の形態3におけるコンテンツ作成装置の構成を示す図The figure which shows the structure of the content creation apparatus in Embodiment 3 of this invention. 音声情報と映像情報を多重化する手順を説明する図The figure explaining the procedure which multiplexes audio information and video information 従来技術を説明する図Diagram explaining the prior art 本発明の実施の形態1で利用されるシナリオを表す図The figure showing the scenario utilized in Embodiment 1 of this invention

符号の説明Explanation of symbols

10 シナリオ・コンテンツサーバ
11 シナリオ保持手段
12 コンテンツパーツ保持手段
13 配信手段
20 通信ネットワーク
30 コンテンツ作成端末
31 データ受送信手段
32 シナリオ選択手段
33 コンテンツ保持手段
34 コンテンツ作成手段
35 入力情報解析手段
36 入力情報受付手段
37 音声情報
38 映像情報
41 位置情報取得手段
42 位置情報
50 コンテンツ作成サーバ
51 多重化情報解析手段
60 情報入力端末
61 情報多重化手段
DESCRIPTION OF SYMBOLS 10 Scenario content server 11 Scenario holding means 12 Content parts holding means 13 Distribution means 20 Communication network 30 Content creation terminal 31 Data transmission / reception means 32 Scenario selection means 33 Content holding means 34 Content creation means 35 Input information analysis means 36 Input information analysis means 36 Means 37 Audio information 38 Video information 41 Position information acquisition means 42 Position information 50 Content creation server 51 Multiplexed information analysis means 60 Information input terminal 61 Information multiplexing means

Claims (12)

コンテンツ作成者が入力する情報を受け付ける入力情報受付手段と、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析手段と、決定された前記パラメータの値を反映させた前記コンテンツのシナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えることを特徴とするコンテンツ作成装置。 Input information receiving means for receiving information input by the content creator, input information analyzing means for analyzing information input by the content creator and determining parameters necessary for content creation, and the determined value of the parameter A content creation apparatus comprising content creation means for creating a scenario of the content reflecting the content and creating the content based on the scenario. コンテンツ作成者が入力する情報は、前記コンテンツ作成者の音声であることを特徴とする請求項1記載のコンテンツ作成装置。 The content creation apparatus according to claim 1, wherein the information input by the content creator is a voice of the content creator. 入力情報受付手段は、コンテンツ作成者の音声の入力を受け付け、入力情報解析手段は、入力された前記音声の音量特性及び周波数特性を解析し、コンテンツ作成手段は、解析された前記音量特性及び前記周波数特性のうち少なくとも1種類の指標を反映させたシナリオを作成し、コンテンツを作成することを特徴とする請求項2記載のコンテンツ作成装置。 The input information accepting unit accepts an input of the content creator's voice, the input information analyzing unit analyzes the volume characteristic and frequency characteristic of the inputted voice, and the content creating unit is configured to analyze the volume characteristic and the analyzed volume characteristic. The content creating apparatus according to claim 2, wherein the content is created by creating a scenario reflecting at least one kind of index among the frequency characteristics. コンテンツ作成者が入力する情報は、前記コンテンツ作成者を撮影した静止画または動画であることを特徴とする請求項1記載のコンテンツ作成装置。 2. The content creation apparatus according to claim 1, wherein the information input by the content creator is a still image or a moving image taken by the content creator. 入力情報受付手段は、コンテンツ作成者を撮影した動画の入力を受け付け、入力情報解析手段は、入力された前記動画を構成する画像のフレーム間の変化量を算出し、コンテンツ作成手段は、算出された前記動画を構成する画像のフレーム間の変化量を反映させたシナリオを作成し、コンテンツを作成することを特徴とする請求項4記載のコンテンツ作成装置。 The input information accepting unit accepts an input of a moving image taken by the content creator, the input information analyzing unit calculates an amount of change between frames of the image constituting the input moving image, and the content creating unit calculates 5. The content creation apparatus according to claim 4, wherein a scenario is created by reflecting a change amount between frames of an image constituting the moving image, and the content is created. 入力情報受付手段は、コンテンツ作成者の音声及び動画の入力を受け付け、入力情報解析手段は、入力された前記音声の音量特性及び周波数特性を解析するとともに、入力された前記動画を構成する画像のフレーム間の変化量を算出し、コンテンツ作成手段は、解析された前記音量特性及び前記周波数特性のうち少なくとも1種類の指標と、算出された前記動画を構成する画像のフレーム間の変化量を反映させたシナリオを作成し、コンテンツを作成することを特徴とする請求項1記載のコンテンツ作成装置。 The input information accepting unit accepts input of the content creator's voice and moving image, and the input information analyzing unit analyzes a volume characteristic and a frequency characteristic of the inputted voice, and also inputs an image constituting the inputted moving image. The amount of change between frames is calculated, and the content creation means reflects at least one index of the analyzed volume characteristic and frequency characteristic and the calculated amount of change between frames of the image constituting the moving image. The content creation apparatus according to claim 1, wherein a scenario is created to create content. 現在位置を取得する位置情報取得手段をさらに備え、コンテンツ作成手段は、取得された前記現在位置を反映させたシナリオを作成し、コンテンツを作成することを特徴とする請求項1記載のコンテンツ作成装置。 2. The content creation device according to claim 1, further comprising position information acquisition means for acquiring a current position, wherein the content creation means creates a scenario by reflecting the acquired current position. . コンテンツのシナリオは、あらかじめ定められた記述子を用いて記述されるメタファイルであることを特徴とする請求項1から請求項7のいづれか一項に記載のコンテンツ作成装置。 8. The content creation apparatus according to claim 1, wherein the content scenario is a metafile described using a predetermined descriptor. コンテンツ作成手段は、入力情報解析手段において決定されたパラメータの値によって、メタファイルに記述されている条件分岐の分岐先を決定することを特徴とする請求項8記載のコンテンツ作成装置。 9. The content creation apparatus according to claim 8, wherein the content creation unit determines a branch destination of the conditional branch described in the metafile based on the parameter value determined by the input information analysis unit. コンテンツ作成者が入力する情報を受け付ける入力情報受付ステップと、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析ステップと、決定された前記パラメータの値を反映させた前記コンテンツのシナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成ステップを含むことを特徴とするコンテンツ作成方法。 An input information receiving step for receiving information input by the content creator, an input information analyzing step for analyzing information input by the content creator and determining parameters necessary for content creation, and the determined value of the parameter A content creation method comprising creating a content scenario reflecting the content and creating the content based on the scenario. コンテンツを作成するための素材を提供するシナリオ・コンテンツサーバとコンテンツ作成端末が通信ネットワークを介して接続されて構成されるコンテンツ作成システムであって、前記シナリオ・コンテンツサーバは、コンテンツのシナリオを保持するシナリオ保持手段と、前記シナリオを配信する配信手段と、前記コンテンツ作成端末は、コンテンツ作成者が入力する情報を受け付ける入力情報受付手段と、前記コンテンツ作成者が入力する情報を解析し、コンテンツの作成に必要なパラメータを決定する入力情報解析手段と、決定された前記パラメータの値を反映させた前記シナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えることを特徴とするコンテンツ作成システム。 A content creation system configured by connecting a scenario / content server that provides materials for creating content and a content creation terminal via a communication network, the scenario / content server holding a scenario of the content Scenario holding means, distribution means for delivering the scenario, the content creation terminal, input information receiving means for receiving information input by the content creator, and analysis of information input by the content creator to create content Input information analysis means for determining parameters required for the content, and content creation means for creating the scenario reflecting the determined parameter value and creating the content based on the scenario Content creation system. 情報入力端末とコンテンツ作成サーバが通信ネットワークを介して接続されて構成されるコンテンツ作成システムであって、前記情報入力端末は、コンテンツ作成者が入力する情報を符号化してから多重化する情報多重化手段と、前記多重化された情報を前記コンテンツ作成サーバに配信するデータ受送信手段と、前記コンテンツ作成サーバは、コンテンツのシナリオを保持するシナリオ保持手段と、前記情報入力端末より配信される前記多重化された情報を分離してから復号化し、復号化された前記情報を解析し、前記コンテンツの作成に必要なパラメータを決定する多重化情報解析手段と、解析された前記パラメータの値を反映させた前記シナリオを作成し、前記シナリオに基づいて前記コンテンツを作成するコンテンツ作成手段を備えることを特徴とするコンテンツ作成システム。 A content creation system configured by connecting an information input terminal and a content creation server via a communication network, wherein the information input terminal encodes information input by a content creator and then multiplexes the information Means, data transmission / reception means for delivering the multiplexed information to the content creation server, the content creation server comprising scenario holding means for holding a scenario of content, and the multiplexing delivered from the information input terminal And separating the decrypted information, decoding the decrypted information, analyzing the decrypted information, and determining a parameter necessary for creating the content, and reflecting the value of the analyzed parameter Content creation means for creating the scenario and creating the content based on the scenario Content production system, characterized in that.
JP2004215236A 2004-07-23 2004-07-23 Content creation device, content creation method, and content creation system Pending JP2006039705A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004215236A JP2006039705A (en) 2004-07-23 2004-07-23 Content creation device, content creation method, and content creation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004215236A JP2006039705A (en) 2004-07-23 2004-07-23 Content creation device, content creation method, and content creation system

Publications (1)

Publication Number Publication Date
JP2006039705A true JP2006039705A (en) 2006-02-09

Family

ID=35904671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004215236A Pending JP2006039705A (en) 2004-07-23 2004-07-23 Content creation device, content creation method, and content creation system

Country Status (1)

Country Link
JP (1) JP2006039705A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217905A (en) * 2008-03-11 2009-09-24 Toshiba Corp Information reproducing device, information reproducing method, and information reproducing program
JP2016127513A (en) * 2015-01-07 2016-07-11 株式会社クリエ・ジャパン Moving image generation server, moving image generation program, moving image generation method, and moving image generation system
JP6964918B1 (en) * 2021-09-15 2021-11-10 株式会社Type Bee Group Content creation support system, content creation support method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217905A (en) * 2008-03-11 2009-09-24 Toshiba Corp Information reproducing device, information reproducing method, and information reproducing program
JP2016127513A (en) * 2015-01-07 2016-07-11 株式会社クリエ・ジャパン Moving image generation server, moving image generation program, moving image generation method, and moving image generation system
JP6964918B1 (en) * 2021-09-15 2021-11-10 株式会社Type Bee Group Content creation support system, content creation support method and program
JP2023042862A (en) * 2021-09-15 2023-03-28 株式会社Type Bee Group Content creation support system, content creation support method, and program

Similar Documents

Publication Publication Date Title
RU2387013C1 (en) System and method of generating interactive video images
KR100656661B1 (en) Method and device for media editing
US8260263B2 (en) Dynamic video messaging
EP2940940B1 (en) Methods for sending and receiving video short message, apparatus and handheld electronic device thereof
US20100085363A1 (en) Photo Realistic Talking Head Creation, Content Creation, and Distribution System and Method
JP5576667B2 (en) Information transmission display system
JP2007025959A (en) Multimedia data processor, multimedia data processing method and multimedia data processing program
JP2000123191A (en) Device and method for processing image and information transmission system
KR20130116349A (en) Input support device, input support method, and recording medium
KR20030003085A (en) Contents distribution system and distribution method
JP2004350214A (en) Content distributing server and terminal, and program
EP1908255A1 (en) Apparatus, system, method, and article of manufacture for automatic context-based media transformation and generation
WO2014067269A1 (en) Sent message playing method, system and related device
CN104794606A (en) Event prompting system, event prompting method and situation playing unit
KR100795357B1 (en) Mobile animation message service method and system and terminal
CN110012059A (en) Electronics red packet implementation method and device
CN104991950A (en) Picture generating method, display method and corresponding devices
CN105791964A (en) Cross-platform media file playing method and system
JP2006039705A (en) Content creation device, content creation method, and content creation system
KR100973654B1 (en) Rich media server and rich media transmission system and rich media transmission method
JP3641631B2 (en) Mobile phone device, control method for mobile phone device, control program for mobile phone device, and computer-readable recording medium recording control program for mobile phone device
KR100554374B1 (en) A Method for manufacuturing and displaying a real type 2D video information program including a video, a audio, a caption and a message information, and a memory devices recorded a program for displaying thereof
JP2005228297A (en) Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium
CN104506751A (en) Method and device for generating electronic postcard with voice
JP2011091725A (en) Server apparatus, cellular phone and composite motion picture creation system