JP2010066789A - Avatar editing server and avatar editing program - Google Patents

Avatar editing server and avatar editing program Download PDF

Info

Publication number
JP2010066789A
JP2010066789A JP2008229681A JP2008229681A JP2010066789A JP 2010066789 A JP2010066789 A JP 2010066789A JP 2008229681 A JP2008229681 A JP 2008229681A JP 2008229681 A JP2008229681 A JP 2008229681A JP 2010066789 A JP2010066789 A JP 2010066789A
Authority
JP
Japan
Prior art keywords
avatar
data
terminal
voice
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008229681A
Other languages
Japanese (ja)
Inventor
Minami Teshigawara
みなみ 勅使川原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taito Corp
Original Assignee
Taito Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taito Corp filed Critical Taito Corp
Priority to JP2008229681A priority Critical patent/JP2010066789A/en
Publication of JP2010066789A publication Critical patent/JP2010066789A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an avatar editing server and an avatar editing program, for displaying an avatar wherein interest is improved by diverse performance. <P>SOLUTION: The avatar editing server 3 connected to terminals 7 via a communication network 5, editing the avatar reproduced in the terminal 7 has: a basic avatar table 31 storing image data that is a basis of the avatar of the terminal 7; a voice reception part 11 receiving voice data transmitted from the terminal 7; a voice table 32 storing the voice data received by the voice reception part 11 associatively to the image data stored in a basic avatar table 31; and an avatar generation part 15 adding movement to the image data associated to the voice data stored in the voice table 32 according to operation from the terminal 7 to generate the avatar with the movement. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、アバターを編集するアバター編集サーバ及びアバター編集プログラムに関する。   The present invention relates to an avatar editing server and an avatar editing program for editing an avatar.

従来、ユーザの分身であるキャラクタ画像のアバターを、ユーザの端末に対して通信ネットワークを介して接続されたサーバに記憶して、アバターをブログ等のユーザ自身の自己紹介ページに配置することで、コミニュケーションツールとして他の端末に自己紹介ページを表示させることが行われている。また、アバターの用途は、ブログ等に限らない。例えば、バーチャルなミーティングルームに、ユーザが所望のコンテンツと、そのユーザのアバターとを表示して、アバターが、コンテンツを視聴しているかのように表現したコンテンツの配信を行うコンテンツ視聴システムが提案されている(例えば、特許文献1)。
特開2007−115117号公報
Conventionally, by storing an avatar of a character image that is a user's alternation in a server connected to the user's terminal via a communication network, and placing the avatar on the user's own introduction page such as a blog, A self-introduction page is displayed on other terminals as a communication tool. The use of avatars is not limited to blogs. For example, a content viewing system has been proposed in which a user's desired content and the user's avatar are displayed in a virtual meeting room, and the content is distributed as if the avatar is viewing the content. (For example, Patent Document 1).
JP 2007-115117 A

特許文献1に記載のコンテンツ視聴システムは、アバター等の画像データと、ユーザが所望の音声等の音声データを含むコンテンツとを表示し、アバターが所定の動作をしたときに、コンテンツの表示を開始する。よって、特許文献1に記載のコンテンツ視聴システムにおいて、アバターは、コンテンツの表示の開始時に、視覚的な演出をするための画像にすぎず、面白さに欠けるものであった。
そこで、本発明は、多様な演出により面白さを向上させたアバターを表示するアバター編集サーバ及びアバター編集プログラムを提供することを目的とする。
The content viewing system described in Patent Literature 1 displays image data such as an avatar and content including audio data such as desired audio by the user, and starts displaying the content when the avatar performs a predetermined operation. To do. Therefore, in the content viewing system described in Patent Document 1, an avatar is merely an image for visual presentation at the start of content display, and lacks fun.
Then, an object of this invention is to provide the avatar edit server and avatar edit program which display the avatar which improved the interest by various productions.

本発明は、以下のような解決手段により、前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。また、符号を付して説明した構成は、適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。   The present invention solves the above problems by the following means. In addition, in order to make an understanding easy, although the code | symbol corresponding to embodiment of this invention is attached | subjected and demonstrated, it is not limited to this. In addition, the configuration described with reference numerals may be improved as appropriate, or at least a part thereof may be replaced with another configuration.

請求項1の発明は、端末(7)に対して通信ネットワーク(5)を介して接続され、前記端末で再生するアバターを編集するアバター編集サーバ(3)において、前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部(31)と、前記端末から送信された音声データを受け付ける音声受付部(11)と、前記音声受付部により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて記憶する音声記憶部(32)と、前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成部(15)と、を備えること、を特徴とするアバター編集サーバである。
請求項2の発明は、請求項1に記載のアバター編集サーバ(3)において、前記音声記憶部(32)に記憶された前記音声データの再生位置を視覚的に表示するタイムラインを生成して、前記端末(7)に出力するタイムライン生成部(12)と、前記アバターを構成するパーツであるパーツデータを記憶するパーツ記憶部(33)と、前記端末で前記パーツに動作を付与するための表示である動作付与表示が前記タイムラインの上に配置されたことに応じて、前記動作付与表示と前記動作付与表示に対応する前記再生位置とを含む動作データを、前記端末から受け付ける動作データ受付部(14)と、を備え、前記アバター生成部(15)は、前記動作データ受付部により受け付けた前記動作データに基づき、前記画像データを構成する前記パーツデータに動作を加えて動作付きのアバターを生成すること、を特徴とするアバター編集サーバである。
請求項3の発明は、請求項2に記載のアバター編集サーバ(3)において、前記パーツ記憶部(33)に記憶された前記パーツデータは、座標データの形態のものであり、前記アバター生成部(15)は、前記動作データに含む前記動作付与表示から前記動作付与表示に対応する前記パーツデータを前記パーツ記憶部から抽出し、抽出した前記パーツデータに対して連続動作を表現するパーツの前記座標データをレンダリングして、前記アバターを生成すること、を特徴とするアバター編集サーバである。
請求項4の発明は、請求項2又は請求項3に記載のアバター編集サーバ(3)において、前記動作データ受付部(14)は、前記端末(7)において異なる動作を示す複数の前記動作付与表示を前記タイムラインの上の同一の範囲に配置した前記動作データを、前記端末から受け付けること、を特徴とするアバター編集サーバである。
請求項5の発明は、請求項2から請求項4のいずれか1項に記載のアバター編集サーバ(3)において、前記動作データ受付部(14)は、前記端末(7)において異なる動作を示す複数の前記動作付与表示を、前記タイムラインの上に複数配置した前記動作データを、前記端末から受け付け、前記アバター生成部(15)は、前記タイムラインの上に隣り合って配置された2つの前記動作付与表示に対応する前記動作データに基づき前記動作付きのアバターを生成し、生成した前記動作付きのアバターを連続して動作をさせるように、生成した2つの前記動作付きのアバターの間を補完する前記動作付きのアバターを生成するアバター補完部(15A)を備えること、を特徴とするアバター編集サーバである。
請求項6の発明は、請求項1から請求項5のいずれか1項に記載のアバター編集サーバ(3)において、前記通信ネットワーク(5)を介して接続された他の端末(7)からの前記アバターの表示要求を受け付けることで、前記アバター生成部(15)により生成された前記動作付きのアバターと、前記アバターに対応付けて前記音声記憶部(32)に記憶された音声データとを前記他の端末に再生可能に送信する再生データ送信部(17)を備えること、を特徴とするアバター編集サーバである。
請求項7の発明は、請求項6に記載のアバター編集サーバ(3)において、前記音声受付部(11)は、前記再生データ送信部(17)により送信され、前記他の端末(7)で再生された音声データに対応する他の音声データを受け付け、前記音声記憶部(32)は、前記他の音声データを、前記音声データに対応付けて記憶すること、を特徴とするアバター編集サーバである。
請求項8の発明は、請求項7に記載のアバター編集サーバ(3)において、前記アバター生成部(15)は、前記他の端末(7)のアバターを生成して、前記端末(7)の前記動作付きのアバターに対して合成して、合成アバターを新たに生成すること、を特徴とするアバター編集サーバである。
請求項9の発明は、請求項7に記載のアバター編集サーバ(3)において、前記アバター生成部(15)は、前記基本アバター記憶部(31)に記憶された前記他の端末(7)の前記画像データを、前記端末(7)の前記動作付きのアバターと共に表示するように合成アバターを生成すること、を特徴とするアバター編集サーバである。
The invention of claim 1 is the basis of the avatar of the terminal in the avatar editing server (3) which is connected to the terminal (7) via the communication network (5) and edits the avatar to be played on the terminal. A basic avatar storage unit (31) for storing image data, a voice reception unit (11) for receiving voice data transmitted from the terminal, and the voice data received by the voice reception unit in the basic avatar storage unit An operation is performed on the image data associated with the audio data stored in the audio storage unit in response to an operation from the terminal, and an audio storage unit (32) that stores the image data in association with the stored image data. And an avatar generation unit (15) for generating an avatar with motion.
According to a second aspect of the present invention, in the avatar editing server (3) according to the first aspect, a timeline for visually displaying the reproduction position of the audio data stored in the audio storage unit (32) is generated. A timeline generating unit (12) for outputting to the terminal (7), a parts storage unit (33) for storing part data which is a part constituting the avatar, and for imparting an operation to the parts at the terminal Motion data including the motion grant display and the playback position corresponding to the motion grant display in response to the motion grant display being a display of A reception unit (14), wherein the avatar generation unit (15) is configured to configure the image data based on the motion data received by the motion data reception unit. To generate an avatar with operations in addition to operations in parts data, it is the avatar editing server according to claim.
The invention of claim 3 is the avatar editing server (3) according to claim 2, wherein the part data stored in the parts storage unit (33) is in the form of coordinate data, and the avatar generation unit (15) extracts the part data corresponding to the action giving display from the action giving display included in the action data from the parts storage unit, and the parts of the parts expressing continuous actions with respect to the extracted part data An avatar editing server characterized in that the avatar is generated by rendering coordinate data.
According to a fourth aspect of the present invention, in the avatar editing server (3) according to the second or third aspect, the motion data receiving unit (14) includes a plurality of the motion grants indicating different motions in the terminal (7). The avatar editing server, wherein the operation data arranged in the same range on the timeline is received from the terminal.
According to a fifth aspect of the present invention, in the avatar editing server (3) according to any one of the second to fourth aspects, the operation data receiving unit (14) exhibits different operations in the terminal (7). The operation data in which a plurality of the operation giving indications are arranged on the timeline is received from the terminal, and the avatar generation unit (15) is configured to receive two adjacent data arranged on the timeline. Based on the action data corresponding to the action giving display, the avatar with the action is generated, and the generated avatar with the action is continuously operated so that the generated avatar with the action is continuously operated. The avatar editing server includes an avatar complementing unit (15A) that generates the avatar with the motion to be complemented.
The invention of claim 6 is the avatar editing server (3) according to any one of claims 1 to 5, wherein the avatar editing server (3) is connected to another terminal (7) connected via the communication network (5). By receiving the display request of the avatar, the avatar with the action generated by the avatar generation unit (15) and the voice data stored in the voice storage unit (32) in association with the avatar are It is an avatar edit server characterized by including the reproduction | regeneration data transmission part (17) which transmits to other terminals so that reproduction | regeneration is possible.
According to a seventh aspect of the present invention, in the avatar editing server (3) according to the sixth aspect, the voice receiving unit (11) is transmitted by the reproduction data transmitting unit (17), and is transmitted to the other terminal (7). An avatar editing server characterized in that it accepts other audio data corresponding to the reproduced audio data, and the audio storage unit (32) stores the other audio data in association with the audio data. is there.
The invention of claim 8 is the avatar editing server (3) according to claim 7, wherein the avatar generation unit (15) generates an avatar of the other terminal (7), and the terminal (7) The avatar editing server is characterized in that a synthesized avatar is newly generated by synthesizing the avatar with operation.
The invention according to claim 9 is the avatar editing server (3) according to claim 7, wherein the avatar generation unit (15) is connected to the other terminal (7) stored in the basic avatar storage unit (31). A composite avatar is generated so as to display the image data together with the avatar with the operation of the terminal (7).

請求項10の発明は、端末(7)に対して通信ネットワーク(5)を介して接続され、前記端末(7)で再生するアバターを編集するアバター編集サーバ(3)が、前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部(31)を備え、前記アバター編集サーバにおいて実行されるアバター編集プログラム(39)であって、前記アバター編集サーバを、前記端末から送信された音声データを受け付ける音声受付手段と、前記音声受付手段により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて音声記憶部(32)に記憶させる音声記憶手段と、前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成手段と、して機能させること、を特徴とするアバター編集プログラムである。   According to the invention of claim 10, an avatar editing server (3) connected to a terminal (7) via a communication network (5) and editing an avatar to be played back on the terminal (7) A basic avatar storage unit (31) for storing basic image data, and an avatar editing program (39) executed in the avatar editing server, wherein the avatar editing server is transmitted from the terminal as voice data Voice receiving means for receiving the voice data received by the voice receiving means, the voice storage means for storing the voice data in the voice storage section (32) in association with the image data stored in the basic avatar storage section, and the terminal In response to the operation from the image data associated with the audio data stored in the audio storage unit Avatar generating means for generating an avatar with operation, thereby to function, an avatar editing program characterized.

本発明によれば、以下の効果を奏することができる。
(1)本発明は、音声データを端末から受け付けたことで、端末とその端末のアバターの基本になる画像データと関連付け、端末からの操作に応じて、画像データに動作を加えて動作付きのアバターを生成する。よって、音声データに動作付きの画像データを関連付けることができるので、アバターに、歌い、踊っているかのような面白い演出をさせることができる。
According to the present invention, the following effects can be obtained.
(1) The present invention associates the audio data with the image data that is the basis of the terminal and the avatar of the terminal by receiving the audio data from the terminal, and adds an operation to the image data according to the operation from the terminal. Create an avatar. Therefore, since the image data with operation can be associated with the sound data, it is possible to make the avatar have an interesting effect as if singing or dancing.

(2)本発明は、音声データの再生位置を視覚的に表示するタイムラインを生成して端末に出力するので、端末のユーザは、アバターを構成するパーツに動作を付与するための動作付与表示をタイムライン上に配置することができる。また、本発明は、配置した動作付与表示に対応する動作データを端末から受け付けることで、好みの動作をアバターに与えることができる。よって、タイムライン上に動作付与表示を配置するという、直感的に分かり易く、しかもユーザにとって簡単なユーザインタフェースを用いて、動作付きのアバターを生成することができる。 (2) Since the present invention generates a timeline for visually displaying the playback position of the audio data and outputs the timeline to the terminal, the terminal user gives an action display for giving an action to the parts constituting the avatar. Can be placed on the timeline. Moreover, this invention can give a favorite operation | movement to an avatar by receiving the operation | movement data corresponding to the arrange | positioned operation | movement provision display from a terminal. Therefore, it is possible to generate an avatar with an action using a user interface that is intuitively easy to understand, that is, an action giving display is arranged on the timeline.

(3)本発明は、座標データの形態であるパーツデータを用いて、動作付きアバターを生成するので、端末7において、生成されたアバターを端末7で再生することができる。
(4)本発明は、タイムライン上の同一の範囲に複数の動作付与表示を配置できるので、様々な複雑な動作をアバターに付与することができる。
(5)本発明は、タイムライン上に隣り合って配置された2つの動作付与表示から生成した動作付きのアバターを補完する動作付きのアバターをさらに生成するので、タイムライン上に隣り合って配置された2つの動作の間を滑らかにつなぐことができる。
(3) Since this invention produces | generates the avatar with operation | movement using the part data which is the form of coordinate data, in the terminal 7, the produced | generated avatar can be reproduced | regenerated with the terminal 7. FIG.
(4) Since the present invention can arrange a plurality of action giving displays in the same range on the timeline, various complicated actions can be given to the avatar.
(5) Since the present invention further generates an avatar with an action that complements an avatar with an action generated from two action-giving displays arranged adjacent to each other on the timeline, it is arranged adjacent to the timeline. It is possible to smoothly connect the two operations performed.

(6)本発明は、生成した動作付きのアバターと音声データとを、音声データを送信した端末とは異なる端末に送信するので、ユーザが作成した動作付きのアバターと音声データとからなるコンテンツを、他のユーザが視聴することができる。
(7)本発明は、生成した動作付きのアバターと音声データとからなるコンテンツに、音声データを追加し、別のアバターを生成して合成アバターを新たに作成する。よって、元の楽曲にハモリを加えたり、合唱やデュエット等をしたりする様子を演出できる。また、別のアバターに代えて、画像データを追加することで、アバター編集サーバの処理の負荷を軽減しつつ、ハモリやデュエット等を演出できる。
(6) The present invention transmits the generated avatar with operation and audio data to a terminal different from the terminal that transmitted the audio data. Other users can view.
(7) In the present invention, voice data is added to the generated content consisting of an avatar with motion and voice data, another avatar is generated, and a new synthetic avatar is created. Therefore, it is possible to produce a state in which a hamori is added to the original music or a chorus or duet is performed. In addition, by adding image data in place of another avatar, it is possible to produce hamori, duet, etc. while reducing the processing load of the avatar editing server.

本発明は、多様な演出により面白さを向上させたアバターを表示するアバター編集サーバ及びアバター編集プログラムを提供するという目的を、端末に対して通信ネットワークを介して接続され、端末で再生するアバターを編集するアバター編集サーバが、端末のアバターの基本になる画像データを記憶する基本アバター記憶部と、端末から送信された音声データを受け付ける音声受付部と、音声受付部により受け付けた音声データを、基本アバター記憶部に記憶された画像データに関連付けて記憶する音声記憶部と、端末からの操作に応じて、音声記憶部に記憶された音声データに関連付けられた画像データに動作を加えて、動作付きのアバターを生成するアバター生成部と、を備えることによって実現した。   An object of the present invention is to provide an avatar editing server and an avatar editing program for displaying an avatar with improved fun through various effects. An avatar connected to a terminal via a communication network and played on the terminal is provided. The avatar editing server to edit the basic avatar storage unit that stores the image data that is the basis of the terminal avatar, the voice reception unit that receives the voice data transmitted from the terminal, and the voice data received by the voice reception unit A voice storage unit that is stored in association with the image data stored in the avatar storage unit, and an operation is performed on the image data that is associated with the voice data stored in the voice storage unit in response to an operation from the terminal. This is realized by including an avatar generation unit that generates an avatar of

(実施形態)
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
図1は、本実施形態に係るアバターシステム1の構成及びアバター編集サーバ3の機能ブロックを示す図である。アバターシステム1は、アバター編集サーバ3と、複数の端末7と、アバター編集サーバ3及び端末7を接続する通信ネットワーク5とを備える。アバターシステム1は、アバター編集サーバ3が、端末7から音声データを受信し、音声データからタイムラインを生成して端末7に送信する。また、アバター編集サーバ3が、端末7から動作データを受け付け、動作付きのアバターを生成して、動作付きのアバターと、音声データとを端末7に送信する。そして、端末7に、動作付きのアバターを表示させる。
(Embodiment)
Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
FIG. 1 is a diagram showing a configuration of an avatar system 1 and functional blocks of an avatar editing server 3 according to the present embodiment. The avatar system 1 includes an avatar editing server 3, a plurality of terminals 7, and a communication network 5 that connects the avatar editing server 3 and the terminals 7. In the avatar system 1, the avatar editing server 3 receives audio data from the terminal 7, generates a timeline from the audio data, and transmits the timeline to the terminal 7. In addition, the avatar editing server 3 receives operation data from the terminal 7, generates an avatar with operation, and transmits the avatar with operation and voice data to the terminal 7. And the avatar with operation | movement is displayed on the terminal 7. FIG.

なお、本実施形態において、音声データとは、例えば、ユーザの歌声等、端末7のユーザが入力した音に関するデータをいう。また、動作付きアバターとは、3D(3−Dimensional)のレンダリングにより、アバターに、動作が追加されたアバターをいう。   In the present embodiment, the audio data refers to data relating to sounds input by the user of the terminal 7 such as the user's singing voice. Also, the avatar with motion refers to an avatar in which motion is added to the avatar by 3D (3-Dimensional) rendering.

アバター編集サーバ3を構成するハードウェアの数に制限はない。必要に応じて、1又は複数で構成してよい。また、アバター編集サーバ3のハードウェアは、必要に応じてWeb(ウェブ)サーバ、DB(データベース)サーバ、アプリケーション・サーバ等の各種サーバを含んで構成してよく、1台のサーバで構成しても、それぞれ別のサーバで構成してもよい。さらに、アバター編集サーバ3は、ウェブサービスを行うサーバと同一のサーバでも異なるサーバでもよいが、ここでは、同一のサーバであるものとして説明する。   There is no limit to the number of hardware constituting the avatar editing server 3. You may comprise 1 or more as needed. Further, the hardware of the avatar editing server 3 may be configured to include various servers such as a Web (web) server, a DB (database) server, and an application server as necessary, and configured with a single server. Alternatively, they may be configured by different servers. Further, the avatar editing server 3 may be the same server as the server that performs the web service or a different server. Here, the avatar editing server 3 will be described as being the same server.

端末7は、ウェブサービスのコンテンツを表示する表示部40とユーザが操作可能な操作部41とを備えたものである。端末7は、パソコン(パーソナルコンピュータ)の他、携帯電話機、携帯情報端末等であってもよい。端末7には、音声を出力するスピーカ42と、音声を入力するマイク43とが接続されている。
通信ネットワーク5は、アバター編集サーバ3及び端末7の間の通信を行うための、例えばインターネット等の通信網である。
The terminal 7 includes a display unit 40 that displays web service content and an operation unit 41 that can be operated by the user. The terminal 7 may be a mobile phone, a portable information terminal, or the like in addition to a personal computer (personal computer). The terminal 7 is connected to a speaker 42 that outputs sound and a microphone 43 that inputs sound.
The communication network 5 is a communication network such as the Internet for performing communication between the avatar editing server 3 and the terminal 7.

アバター編集サーバ3は、制御部10、通信インタフェース部25及び記憶部30を備えている。制御部10は、音声受付部11、タイムライン生成部12、動作データ受付部14、アバター生成部15、再生データ送信部17を有する。また、アバター生成部15は、アバター補完部15Aを有する。各手段の詳細については後述する。
制御部10は、情報の演算、及び処理を行う情報演算処理装置(CPU)であり、当該アバター編集サーバ3の全体を制御するものである。制御部10は、後述する記憶部30に記憶された各種プログラムを適宜読み出して実行することにより、アバター編集サーバ3のハードウェアと協働し、本発明に係る各種機能を実現している。
The avatar editing server 3 includes a control unit 10, a communication interface unit 25, and a storage unit 30. The control unit 10 includes a voice reception unit 11, a timeline generation unit 12, an operation data reception unit 14, an avatar generation unit 15, and a reproduction data transmission unit 17. In addition, the avatar generation unit 15 includes an avatar complementing unit 15A. Details of each means will be described later.
The control unit 10 is an information calculation processing device (CPU) that performs calculation and processing of information, and controls the entire avatar editing server 3. The control unit 10 implements various functions according to the present invention in cooperation with the hardware of the avatar editing server 3 by appropriately reading and executing various programs stored in the storage unit 30 described later.

通信インタフェース部25は、当該アバター編集サーバ3を専用ネットワーク又は公共ネットワークを介して端末7や、ウェブサービスを提供する別のサーバと接続できるようにするためのネットワーク・アダプタである。通信インタフェース部25は、モデム、ケーブルモデム及びイーサネット(登録商標)・アダプタを含んでよい。   The communication interface unit 25 is a network adapter that enables the avatar editing server 3 to be connected to the terminal 7 or another server that provides a web service via a dedicated network or a public network. The communication interface unit 25 may include a modem, a cable modem, and an Ethernet (registered trademark) adapter.

記憶部30は、本発明の機能を実現するアバター編集プログラム39を記憶する。また、基本アバターテーブル31、音声テーブル32、パーツテーブル33、動作付きアバターテーブル34、楽曲コンテンツテーブル35を有する。各テーブルの詳細については後述する。
記憶部30は、制御部10と組み合わせてプログラムの実行に使用するメモリを含んでよい。記憶部30を実現するものとして、電気的、磁気的、光学的、電磁的に実現するものを含んでよい。より具体的には、半導体記憶装置、磁気ディスク、ランダム・アクセス・メモリ(RAM)、リードオンリー・メモリ(ROM)等が含まれる。アバター編集サーバ3と外部接続することができる磁気テープ、CD−ROMとCD−R/WとDVDとを含む光ディスクや、メモリカード等の補助記憶装置も含む概念である。
The memory | storage part 30 memorize | stores the avatar edit program 39 which implement | achieves the function of this invention. In addition, a basic avatar table 31, a voice table 32, a parts table 33, an avatar table with motion 34, and a music content table 35 are provided. Details of each table will be described later.
The storage unit 30 may include a memory used for executing the program in combination with the control unit 10. As what implement | achieves the memory | storage part 30, you may include what implement | achieves electrically, magnetically, optically, and electromagnetically. More specifically, a semiconductor memory device, a magnetic disk, a random access memory (RAM), a read only memory (ROM), and the like are included. It is a concept including an auxiliary storage device such as a magnetic tape that can be externally connected to the avatar editing server 3, an optical disk including a CD-ROM, a CD-R / W, and a DVD, and a memory card.

次に、生成した動作付きアバターを端末7の表示部40に表示する例について説明する。
図2は、本実施形態に係る表示部40に表示されるTOPページ50を示す図である。
TOPページ50は、アバター編集サーバ3から配信され、例えば、端末7に備えられたブラウザの機能を用いて表示部40に表示されたウェブページである。TOPページ50の上部左方には、このTOPページ50が提供するサービスの名称である「○○○○!」の文字と、その右方に、ユーザのユーザ名51A及びユーザのアバター51Bを含むユーザ部51とが表示されている。また、TOPページ50は、フレーム分割がされており、左側のフレームには、メニュー部52が配置されている。メニュー部52から、ユーザが、端末7の操作部41を操作して好みのメニューを選択することで、メニュー部52の右側のフレームのメイン部53に、選択されたメニューに関する情報が表示される。
Next, an example in which the generated avatar with action is displayed on the display unit 40 of the terminal 7 will be described.
FIG. 2 is a diagram showing a TOP page 50 displayed on the display unit 40 according to the present embodiment.
The TOP page 50 is a web page distributed from the avatar editing server 3 and displayed on the display unit 40 using, for example, a browser function provided in the terminal 7. The top left of the TOP page 50 includes the characters “XXXXX”, which is the name of the service provided by the TOP page 50, and the user name 51A of the user and the user avatar 51B on the right. A user part 51 is displayed. The TOP page 50 is divided into frames, and a menu section 52 is arranged in the left frame. When the user operates the operation unit 41 of the terminal 7 to select a desired menu from the menu unit 52, information on the selected menu is displayed on the main unit 53 of the right frame of the menu unit 52. .

メイン部53は、コンテンツ情報表示部54、コンテンツ部55、歌選択メニュー部56、ブログパーツ選択メニュー部57、評価部58、コメント表示部59が、各々配置されている。
コンテンツ情報表示部54は、コンテンツ部55に表示されたコンテンツに関する情報として、例えば、曲名、コンテンツの位置情報、コンテンツのタグ情報等を表示する。
制御部10は、コンテンツ部55に、例えば、Flash(登録商標)を用いてコンテンツを表示する。その場合、コンテンツは、Flashを用いて再生するため、「.swf」の拡張子であるデータを用いることで、端末7で処理をしながらコンテンツを再生することができる。ここで、コンテンツとは、アバター編集サーバ3の制御部10(再生データ送信部17)により送信された音声データと、動作付きのアバターのデータとに基づき、端末7の表示部40で再生されるものをいう。
歌選択メニュー部56は、歌声を録音して音声データを取得するための楽曲や、他人のコンテンツを選択するメニューを表示する。
The main unit 53 includes a content information display unit 54, a content unit 55, a song selection menu unit 56, a blog parts selection menu unit 57, an evaluation unit 58, and a comment display unit 59.
The content information display unit 54 displays, for example, a song name, content position information, content tag information, and the like as information about the content displayed on the content unit 55.
The control unit 10 displays content on the content unit 55 using, for example, Flash (registered trademark). In this case, since the content is reproduced using Flash, the content can be reproduced while being processed by the terminal 7 by using the data with the extension “.swf”. Here, the content is reproduced on the display unit 40 of the terminal 7 based on the audio data transmitted by the control unit 10 (reproduction data transmission unit 17) of the avatar editing server 3 and the data of the avatar with operation. Say things.
The song selection menu section 56 displays a menu for selecting a song for recording a singing voice and acquiring voice data, and a content of another person.

ブログパーツ選択メニュー部57は、このTOPページ50を他のブログに貼り付けるためのTOPページ50のネットワーク上の位置データを含むHTML(HyperText Markup Language)タグを表示する。
評価部58は、コンテンツを閲覧したユーザによる、再生したコンテンツに対する評価を、一見して把握できるように、例えば、レーダーチャートの形式で表示する。また、操作部41を操作して、評価を評価部58に入力して送信することで、アバター編集サーバ3は、ユーザからの評価を反映する。
コメント表示部59は、寄せ書きのように、端末7でコンテンツを視聴したユーザが、コンテンツに関する感想や意見をコメントとして記載して登録することで、コンテンツに関するコメントを表示する。
The blog part selection menu unit 57 displays an HTML (HyperText Markup Language) tag including position data on the network of the TOP page 50 for pasting the TOP page 50 to another blog.
The evaluation unit 58 displays, for example, in the form of a radar chart so that the user who viewed the content can grasp the evaluation of the reproduced content at a glance. Moreover, the avatar edit server 3 reflects the evaluation from a user by operating the operation part 41 and inputting and transmitting evaluation to the evaluation part 58. FIG.
The comment display part 59 displays the comment regarding a content, when the user who watched the content with the terminal 7 describes and registered the opinion and opinion regarding a content as a comment like a note.

次に、歌選択メニュー部56について説明する。歌選択メニュー部56には、「1人で歌う」メニュー56Aと、「今見ている動画に声を重ねる」メニュー56Bとが設けられている。歌選択メニュー部56のメニュー56Aを選択することで、制御部10は、表示部40に、例えば、別ページを表示して、コンテンツ情報表示部54に示された楽曲のカラオケを再生する。楽曲のカラオケは、後述する楽曲コンテンツテーブル35に記憶された楽曲データを用いて実現できる。そして、アバター編集サーバ3は、端末7のマイク43(図1)からの音声の入力を受け付け可能にする。その後、アバター編集サーバ3は、受け付けた音声データを、音声テーブル32に記憶する。   Next, the song selection menu unit 56 will be described. The song selection menu section 56 is provided with a “singing alone” menu 56 </ b> A and a menu 56 </ b> B “superimpose a voice on a moving image that is currently being viewed”. By selecting the menu 56 </ b> A of the song selection menu unit 56, the control unit 10 displays another page on the display unit 40, for example, and reproduces the karaoke of the music shown on the content information display unit 54. The karaoke of music can be realized by using music data stored in a music content table 35 described later. And the avatar edit server 3 enables reception of the audio | voice input from the microphone 43 (FIG. 1) of the terminal 7. FIG. Thereafter, the avatar editing server 3 stores the received voice data in the voice table 32.

また、メニュー56Bを選択することで、表示部40に、例えば、別ページが表示され、コンテンツ部55に表示された再生中のコンテンツと再生中のコンテンツの歌詞とが表示される。そして、アバター編集サーバ3は、端末7のマイク43からの音声の入力を受け付け可能にする。その後、アバター編集サーバ3は、端末7から受け付けた音声データを、再生中のコンテンツの音声データに対応付けて、音声テーブル32に記憶する。
なお、歌声を録音して音声データを取得することは、歌選択メニュー部56から行う以外に、メニュー部52から表示された投稿可能曲のリストを選択して、そこから楽曲のカラオケを再生して行ってもよい。
Further, by selecting the menu 56B, for example, another page is displayed on the display unit 40, and the content being reproduced displayed on the content unit 55 and the lyrics of the content being reproduced are displayed. Then, the avatar editing server 3 can accept input of voice from the microphone 43 of the terminal 7. Thereafter, the avatar editing server 3 stores the audio data received from the terminal 7 in the audio table 32 in association with the audio data of the content being reproduced.
In addition to recording the singing voice and acquiring the voice data, in addition to performing from the song selection menu unit 56, the list of postable songs displayed from the menu unit 52 is selected, and the karaoke of the song is reproduced therefrom. You may go.

ここで、コンテンツ部55に表示するコンテンツを構成する、アバターを格納する基本アバターテーブル31、音声データを格納した音声テーブル32、楽曲のデータを格納した楽曲コンテンツテーブル35について説明する。
図3は、本実施形態に係る基本アバターテーブル31、音声テーブル32及び楽曲コンテンツテーブル35を示す図である。
Here, the basic avatar table 31 for storing avatars, the audio table 32 for storing audio data, and the music content table 35 for storing music data, which constitute the content to be displayed on the content section 55, will be described.
FIG. 3 is a diagram showing the basic avatar table 31, the audio table 32, and the music content table 35 according to the present embodiment.

図3(a)の基本アバターテーブル31は、ユーザ及びユーザに対応するアバターに関するデータを記憶するテーブルであり、ユーザID311、アバターID312、基本アバター画像313、ページデータ314の各項目からなる。
ユーザID311には、ユーザを一意に表す記号を格納する。アバターID312には、ユーザに対応するアバターを一意に表す記号を格納する。基本アバター画像313には、アバターIDに対応するユーザのアバターの画像データを格納する。
The basic avatar table 31 in FIG. 3A is a table that stores data related to the user and the avatar corresponding to the user, and includes items of a user ID 311, an avatar ID 312, a basic avatar image 313, and page data 314.
The user ID 311 stores a symbol that uniquely represents the user. The avatar ID 312 stores a symbol that uniquely represents an avatar corresponding to the user. The basic avatar image 313 stores user avatar image data corresponding to the avatar ID.

ページデータ314には、ユーザに関する情報が掲載されたページであるマイページのページデータを格納する。マイページは、ウェブページの一種であり、そのユーザのお気に入りのコンテンツやそのコンテンツの評価等を掲載するものである。アバターには、そのアバターに対応したマイページを表示する機能を有することで、例えば、コンテンツの作成ユーザの詳細を知りたい場合に、ユーザが、操作部41によりコンテンツ上のアバターを選択することで、このマイページを表示することができる。このように、制御部10は、選択されたアバターのマイページを表示することで、ユーザは、そのユーザのお気に入りのコンテンツや、そのユーザが作成した他のコンテンツ等の情報を簡単に知ることができる。そして、ユーザは、他のユーザのお気に入りのコンテンツから、新たに気に入るコンテンツを見つけることができる。   The page data 314 stores page data of My Page, which is a page on which information related to the user is posted. My page is a kind of web page, and displays the user's favorite content, evaluation of the content, and the like. The avatar has a function of displaying a My Page corresponding to the avatar. For example, when the user wants to know the details of the content creation user, the user selects the avatar on the content by the operation unit 41. This my page can be displayed. In this way, the control unit 10 displays the My Page of the selected avatar so that the user can easily know information such as the user's favorite content and other content created by the user. it can. Then, the user can find new favorite content from the favorite content of other users.

図3(b)の音声テーブル32は、コンテンツを記述する音声データに関するデータを記憶するテーブルであり、音声ID321、楽曲コンテンツID322、ユーザID323、音声データ324、評価データ325、コピー元音声ID326の各項目からなる。
音声ID321には、音声データ324に格納する音声データを一意に表す記号を格納する。音声ID321に格納する音声IDは、例えば、音声データを受け付けた都度、制御部10が新たな記号を付与する。楽曲コンテンツID322には、次に説明する図3(c)の楽曲コンテンツテーブル35に対応する楽曲コンテンツを一意に表す記号を格納する。ユーザID323には、図3(a)の基本アバターテーブル31に対応するユーザを一意に表す記号を格納する。音声データ324には、受け付けた音声データそのものを格納する。音声データは、例えば、拡張子が「.mp3」で表される形式のデータである。評価データ325には、後述する音声データに記憶された歌の上手さの度合いに応じて格納される評価値を格納する。コピー元音声ID326には、コンテンツをコピーした場合の元になる音声IDが格納される。コンテンツのコピーについては、後述する。
The audio table 32 in FIG. 3B is a table for storing data related to audio data describing content. Each of the audio ID 321, the music content ID 322, the user ID 323, the audio data 324, the evaluation data 325, and the copy source audio ID 326 is stored. Consists of items.
The voice ID 321 stores a symbol that uniquely represents the voice data stored in the voice data 324. The voice ID stored in the voice ID 321 is given a new symbol by the control unit 10 every time voice data is received, for example. The music content ID 322 stores a symbol that uniquely represents the music content corresponding to the music content table 35 of FIG. The user ID 323 stores a symbol that uniquely represents the user corresponding to the basic avatar table 31 in FIG. The audio data 324 stores the received audio data itself. The audio data is, for example, data in a format whose extension is represented by “.mp3”. In the evaluation data 325, an evaluation value stored according to the degree of skill of the song stored in the audio data described later is stored. The copy source audio ID 326 stores the audio ID that is the source when the content is copied. The content copy will be described later.

図3(c)の楽曲コンテンツテーブル35は、いわゆるカラオケ演奏を行うための楽曲コンテンツに関するデータを記憶するテーブルであり、楽曲コンテンツID351と楽曲データ352の項目からなる。
楽曲コンテンツID351には、楽曲コンテンツを一意に表す記号を格納する。また、楽曲データ352には、楽曲を出力するためのデータを格納する。楽曲データ352に格納するデータは、例えば、MIDI(Musical Instruments Digital Interface)形式である。また、楽曲データ352に格納するデータは、テロップとして歌詞を表示するための歌詞のデータ及びテロップを切り替えるための位置データに関連付けられている。
The music content table 35 in FIG. 3C is a table for storing data related to music content for performing so-called karaoke performance, and includes items of a music content ID 351 and music data 352.
The music content ID 351 stores a symbol that uniquely represents the music content. The music data 352 stores data for outputting music. The data stored in the music data 352 is, for example, in the MIDI (Musical Instruments Digital Interface) format. The data stored in the music data 352 is associated with lyric data for displaying lyrics as telops and position data for switching telops.

次に、アバター編集サーバ3におけるアバター投稿処理の流れを説明する。
図4は、本実施形態に係るアバター投稿処理のフローチャートである。アバター投稿処理により、端末7において、図2で示すTOPページ50のコンテンツ部55に、投稿したアバターのコンテンツを表示できる。
まず、ステップS1では、制御部10は、投稿する楽曲を受け付ける。つまり、ユーザが歌いたい楽曲を決定する。楽曲は、例えば、図2の歌選択メニュー部56やメニュー部52から受け付けることができる。
次に、ステップS2では、制御部10は、楽曲コンテンツテーブル35(図3)に記憶された該当の楽曲データを再生する。
Next, the flow of the avatar posting process in the avatar editing server 3 will be described.
FIG. 4 is a flowchart of the avatar posting process according to the present embodiment. By the avatar posting process, the posted avatar content can be displayed on the content portion 55 of the TOP page 50 shown in FIG.
First, in step S1, the control unit 10 receives music to be posted. That is, the music that the user wants to sing is determined. The music can be received from, for example, the song selection menu unit 56 or the menu unit 52 of FIG.
Next, in step S2, the control unit 10 reproduces the corresponding music data stored in the music content table 35 (FIG. 3).

ステップS3では、制御部10(音声受付部11)は、端末7から音声データを受け付ける。つまり、制御部10は、端末7から受信した音声データを記憶(録音)する。   In step S <b> 3, the control unit 10 (voice receiving unit 11) receives voice data from the terminal 7. That is, the control unit 10 stores (records) voice data received from the terminal 7.

ここで、音声データを受け付ける録音ページ60について説明する。
図5は、本実施形態に係る録音ページ60を示す図である。
図5(a)は、楽曲を受け付けたことで、表示部40(図1)に表示される録音ページ60を示す。録音ページには、殺風景な背景62をバックに、ユーザのアバター61(画像データ)がページの中央に表示されている。ユーザのアバター61は、基本アバターテーブル31(図3)のユーザID311に対応する基本アバター画像313に格納されたアバターの画像データである。また録音ページ60の下方には、録音時間表示部63、ステータスバー64、録音開始ボタン65が表示されている。録音時間表示部63は、楽曲の全体の時間の長さと、そのうちの録音時間とを表示する。この例では、全体の長さが2分間であり、録音時間が録音開始前のため0であることを示す。また、録音時間表示部63に対応して、ステータスバー64が表示されている。録音開始ボタン65は、操作部41(図1)を操作して押下することで、次に説明する録音停止ボタン66に変更される。また、録音開始ボタン65が押下されたタイミングで、楽曲の出力を開始すると共に、録音を開始する。
Here, the recording page 60 that receives audio data will be described.
FIG. 5 is a diagram showing a recording page 60 according to the present embodiment.
FIG. 5A shows a recording page 60 displayed on the display unit 40 (FIG. 1) when a music piece is received. On the recording page, a user's avatar 61 (image data) is displayed in the center of the page with a background 62 of a murderous landscape. The user avatar 61 is avatar image data stored in the basic avatar image 313 corresponding to the user ID 311 of the basic avatar table 31 (FIG. 3). Below the recording page 60, a recording time display section 63, a status bar 64, and a recording start button 65 are displayed. The recording time display unit 63 displays the total time length of the music and the recording time. In this example, the total length is 2 minutes, and the recording time is 0 because it is before the start of recording. A status bar 64 is displayed corresponding to the recording time display unit 63. The recording start button 65 is changed to a recording stop button 66 described below by operating and pressing the operation unit 41 (FIG. 1). In addition, at the timing when the recording start button 65 is pressed, the output of music is started and recording is started.

図5(b)は、録音途中の録音ページ60を示す。背景62は、録音中の音声データから判断された歌の上手さの度合いによって変更される。歌の上手さの度合いは、手本になる歌のリズム、音程等を基準にして音声データのずれ具合により制御部10が判断する。制御部10は、歌の上手さの度合いが高いと判断した場合には、背景62を、より華やかなものに変更し、アバターが豪華なステージで歌っているかのような演出をする。他方、制御部10は、歌の上手さの度合いが低いと判断した場合には、背景62を、より質素なものに変更する。録音ページの下方の録音時間表示部63及びステータスバー64は、楽曲の途中であることを示している。また、録音ページ60には、現時点での歌詞67が表示され、楽曲に合わせて歌詞を出力する。さらに、図5(a)の録音開始ボタン65の位置には、録音停止ボタン66が表示されている。   FIG. 5B shows a recording page 60 during recording. The background 62 is changed according to the skill level of the song determined from the sound data being recorded. The degree of skill of the song is determined by the control unit 10 based on the deviation of the audio data based on the rhythm and pitch of the example song. When determining that the degree of skill of the song is high, the control unit 10 changes the background 62 to a more gorgeous one and produces an effect as if the avatar is singing on a luxurious stage. On the other hand, if the control unit 10 determines that the degree of skill of the song is low, the control unit 10 changes the background 62 to a simpler one. A recording time display section 63 and a status bar 64 below the recording page indicate that the music is in the middle. The recording page 60 displays the current lyrics 67 and outputs the lyrics according to the music. Further, a recording stop button 66 is displayed at the position of the recording start button 65 in FIG.

図5(c)は、楽曲の出力が終了した時点での録音ページ60を示す。背景62は、歌い終わった時点において、録音した音声データから最終的な歌の上手さの度合いによって変更される。なお、最終的な歌の上手さの度合いである評価値は、音声データと共に図3で説明した音声テーブル32の評価データ325に記憶される。録音ページの下方の録音時間表示部63及びステータスバー64は、楽曲の出力が終了したことを示している。また、図5(b)の録音停止ボタン66が削除され、代わって決定ボタン68が表示される。   FIG.5 (c) shows the recording page 60 at the time of completion | finish of the output of a music. The background 62 is changed from the recorded audio data according to the degree of skill of the final song when the singing is completed. The evaluation value, which is the degree of skill of the final song, is stored in the evaluation data 325 of the audio table 32 described with reference to FIG. 3 together with the audio data. A recording time display unit 63 and a status bar 64 below the recording page indicate that the output of the music has been completed. Further, the recording stop button 66 in FIG. 5B is deleted, and a determination button 68 is displayed instead.

図4に戻り、ステップS4では、制御部10(タイムライン生成部12)は、タイムラインを生成して端末7に送信する。   Returning to FIG. 4, in step S <b> 4, the control unit 10 (timeline generation unit 12) generates a timeline and transmits it to the terminal 7.

ここで、端末7の表示部40に表示されるアクション作成ページ70について説明する。
図6は、本実施形態に係るアクション作成ページ70を示す図である。
アクション作成ページ70は、ページの上方に配置された検索部71と、その下方に設けられたアクション作成部72とからなり、視覚的に表示された音声データを見ながら、ユーザがアバターにアクション(動作)を付与して、動作付きのアバターを生成して、アバターを躍らせるような演出を行うためのページである。検索部71は、後からアバターにアクションを付けたい場合等に、ユーザ名や曲名を入れて検索するためのものである。そして、制御部10は、検索結果の音声データを記憶部30から読み出して、タイムラインを生成して表示する。
Here, the action creation page 70 displayed on the display unit 40 of the terminal 7 will be described.
FIG. 6 is a diagram showing an action creation page 70 according to the present embodiment.
The action creation page 70 includes a search unit 71 arranged at the top of the page and an action creation unit 72 provided below the page. The user creates an action ( It is a page for performing an effect that creates an avatar with an action and gives an avatar a jump. The search unit 71 is for searching for a user name or a song name when an action is to be applied to an avatar later. And the control part 10 reads the audio | voice data of a search result from the memory | storage part 30, produces | generates and displays a timeline.

アクション作成部72は、楽曲の曲名や音声データの元である発声元のユーザ名等を表示する曲名部73と、音声データに合わせてアクションを付けるためのタイムライン部74(タイムライン)とからなる。タイムライン部74は、楽曲の長さを横軸に表して、曲の拍や小節の単位で区切りの印を入れて表示する。タイムライン部74は、縦軸側に、上から下に向かって、アバターにアクションを付与するためのアクション構成部75、音声データを視覚的に表示する音声表示部76、曲の歌詞を表示する歌詞表示部77を有する。音声表示部76には、録音した音声データを分析して、例えば、音量や音の高低を波形を表示させる。歌詞表示部77には、上述した楽曲データに関連付けられたテロップとして歌詞を表示するための歌詞のデータと、テロップを切り替えるための位置データとを用いて、歌詞を表示させる。   The action creating unit 72 includes a song name portion 73 that displays the song name of the song and the user name of the voice source that is the source of the voice data, and a timeline portion 74 (timeline) for attaching an action according to the voice data. Become. The timeline unit 74 displays the length of the music on the horizontal axis, and displays the music with a delimiter in units of beats or measures. The timeline unit 74 displays, on the vertical axis side, from the top to the bottom, an action composition unit 75 for giving an action to an avatar, a voice display unit 76 for visually displaying voice data, and a song lyrics. It has a lyrics display section 77. The voice display unit 76 analyzes the recorded voice data and displays, for example, a waveform of the volume and the pitch of the sound. The lyrics display section 77 displays lyrics using lyrics data for displaying lyrics as telops associated with the music data described above and position data for switching telops.

アクション構成部75には、ユーザが操作部41を操作することで、好みの場所にアクション選択ボックス78を表示させる。そして、好きなアクション名を選択して、アクション構成部75に貼り付けることで、アクション構成部75には、アクション名(動作付与表示)が配置される。このようにすることで、アバターを構成するパーツに、該当のアクションを付けることができる。アクション選択ボックス78には、パーツテーブル33に記憶されたものを表示させる。   The action configuration unit 75 causes the action selection box 78 to be displayed at a favorite place when the user operates the operation unit 41. Then, by selecting a favorite action name and pasting it on the action composition unit 75, an action name (operation giving display) is arranged in the action composition unit 75. By doing in this way, the applicable action can be attached to the parts which comprise an avatar. In the action selection box 78, what is stored in the parts table 33 is displayed.

ここで、パーツテーブル33について説明する。
図7は、本実施形態に係るパーツテーブル33を示す図である。
パーツテーブル33は、パーツID331、アクション名332、パーツデータ333の各項目からなる。
パーツID331には、アクションのパーツを一意に表す記号を格納する。アクション名332には、アクション構成部75(図6)に表示するアクションの名称を格納する。また、アクション選択ボックス78(図6)には、このアクション名332に格納されたアクション名を表示する。パーツデータ333には、座標データの形態であるパーツのアクション自体のデータを格納する。
Here, the parts table 33 will be described.
FIG. 7 is a diagram showing a parts table 33 according to the present embodiment.
The parts table 33 includes items of a part ID 331, an action name 332, and part data 333.
The part ID 331 stores a symbol that uniquely represents the action part. The action name 332 stores the name of the action to be displayed on the action configuration unit 75 (FIG. 6). The action name stored in the action name 332 is displayed in the action selection box 78 (FIG. 6). The part data 333 stores the data of the part action itself in the form of coordinate data.

図6に戻って、アクション構成部75に配置するアクションの長さは、操作部41を操作することで、好みの長さに変更できる。また、アクション構成部75に配置するアクションは、一度貼り付けたパーツを操作部41の操作によって移動することができる。さらに、同じタイミングの場所に、複数のアクションを付与することもできる。例えば、手を挙げるというアバターの手に関する動作と、歩くという足に関する動作とであれば、同じタイミングの場所に付与することができる。プレビューボタン79は、ユーザが確認できるように、付与したアクションを再生するためのボタンである。決定ボタン80は、アクション構成部75に付与したアクションを、動作データとしてアバター編集サーバ3に送信するためのボタンである。   Returning to FIG. 6, the length of the action arranged in the action configuration unit 75 can be changed to a desired length by operating the operation unit 41. In addition, the action placed in the action configuration unit 75 can move the part once pasted by the operation of the operation unit 41. Furthermore, a plurality of actions can be given to the same timing location. For example, if the action is related to the avatar's hand raising the hand and the action related to the foot walking, the movement can be given to the place at the same timing. The preview button 79 is a button for reproducing the assigned action so that the user can confirm it. The determination button 80 is a button for transmitting the action given to the action configuration unit 75 to the avatar editing server 3 as operation data.

このように、アバター編集サーバ3は、音声データの再生位置を視覚的に表示するタイムライン部74を含むアクション作成ページ70を生成して端末7に出力するので、端末7のユーザは、アクション名をアクション構成部75上に配置することができ、配置したアクション名に対応する動作データを端末7から受け付けることで、好みの動作をアバターに与えることができる。よって、アクション構成部75上にアクション名を配置するという、直感的に分かり易く、しかもユーザにとって簡単なユーザインタフェースを用いて、動作付きのアバターを生成することができる。
また、アバター編集サーバ3は、アクション構成部75上の同一の範囲に複数のアクション名を配置できるので、様々な複雑な動作をアバターに付与することができる。
さらに、アバター編集サーバ3は、端末7から受け付けた音声データとアバターの画像データとを関連付けるので、動作を加えることで、アバターに、歌い、踊っているかのような演出を与えることができる。
Thus, since the avatar edit server 3 produces | generates the action creation page 70 containing the timeline part 74 which displays the reproduction | regeneration position of audio | voice data visually, and outputs it to the terminal 7, the user of the terminal 7 is action name Can be placed on the action configuration unit 75, and the operation data corresponding to the placed action name is received from the terminal 7, so that a favorite action can be given to the avatar. Therefore, an avatar with an action can be generated using an intuitively easy-to-understand user interface in which an action name is arranged on the action configuration unit 75.
Moreover, since the avatar edit server 3 can arrange | position a several action name in the same range on the action structure part 75, it can provide various complicated operation | movement to an avatar.
Furthermore, since the avatar editing server 3 associates the audio data received from the terminal 7 with the image data of the avatar, it is possible to give the avatar an effect as if singing or dancing.

図4に戻り、ステップS5では、制御部10(動作データ受付部14)は、端末7から動作データを受け付ける。具体的には、上述の図6のように、端末7で決定ボタン80が選択されたことで動作データが送信されるため、制御部10は、その動作データを受け付ける。
ステップS6では、制御部10(アバター生成部15)は、動作付きアバター生成処理を行う。
Returning to FIG. 4, in step S <b> 5, the control unit 10 (operation data reception unit 14) receives operation data from the terminal 7. Specifically, as illustrated in FIG. 6 described above, since the operation data is transmitted when the determination button 80 is selected on the terminal 7, the control unit 10 receives the operation data.
In step S6, the control part 10 (avatar production | generation part 15) performs an avatar production | generation process with operation | movement.

ここで、動作付きアバター生成処理について説明する。
図8は、本実施形態に係る動作付きアバター生成処理のフローチャートである。
まず、ステップS11では、アバター生成部15は、動作データに含む動作付与表示から、当該動作付与表示に対応するパーツデータを、パーツテーブル33から抽出する。
ステップS12では、アバター生成部15は、パーツデータに対して連続動作を表現するパーツの座標データをレンダリングして、アバターを生成する。そして、アバター生成部15は、生成したアバターの動作データを、動作付きアバターテーブル34に記憶する。
Here, the avatar generation process with operation will be described.
FIG. 8 is a flowchart of the avatar generation process with operation according to the present embodiment.
First, in step S <b> 11, the avatar generation unit 15 extracts part data corresponding to the action giving display from the parts table 33 from the action giving display included in the action data.
In step S <b> 12, the avatar generation unit 15 generates the avatar by rendering the coordinate data of the part expressing the continuous motion with respect to the part data. And the avatar production | generation part 15 memorize | stores the produced | generated operation | movement data of the avatar in the avatar table 34 with an operation | movement.

ここで、動作付きアバターテーブル34について説明する。
図9は、本実施形態に係る動作付きアバターテーブル34を示す図である。
動作付きアバターテーブル34は、アバターID341、音声ID342、時間位置343、アバター動作データ344の各項目からなる。
アバターID341には、図3(a)の基本アバターテーブル31に対応するアバターを一意に表す記号を格納する。音声ID342には、図3(b)の音声テーブル32に対応する音声データを一意に表す記号を格納する。時間位置343には、秒単位での時間を格納する。アバター動作データ344には、座標データの形態であるアバターのアクション自体のデータを格納する。
Here, the avatar table with motion 34 will be described.
FIG. 9 is a diagram showing an avatar table with action 34 according to the present embodiment.
The avatar table with action 34 includes items of an avatar ID 341, a voice ID 342, a time position 343, and an avatar action data 344.
The avatar ID 341 stores a symbol that uniquely represents an avatar corresponding to the basic avatar table 31 in FIG. The voice ID 342 stores a symbol that uniquely represents the voice data corresponding to the voice table 32 of FIG. The time position 343 stores the time in seconds. The avatar action data 344 stores data of the avatar action itself that is in the form of coordinate data.

ステップS13では、アバター生成部15は、全ての動作データに対して処理をしたか否かを判断する。全ての動作データに対して処理を行った場合(ステップS13:YES)には、アバター生成部15は、処理をステップS14に移す。他方、全ての動作データに対して処理を行っていない場合(ステップS13:NO)には、アバター生成部15は、処理をステップS11に移す。
ステップS14では、アバター生成部15は、タイムライン上に隣り合って配置された動作付与表示があるか否かを判断する。タイムライン上に隣り合って配置された動作付与表示がある場合(ステップS14:YES)には、アバター生成部15は、処理をステップS15に移す。他方、タイムライン上に隣り合って配置された動作付与表示がない場合(ステップS14:NO)には、アバター生成部15は、本処理を終了する。
ステップS15では、アバター補完部15Aは、隣り合って配置されたアバターの間を補完するアバターを生成する。そして、アバター生成部15は、生成したアバターの動作データを、動作付きアバターテーブル34に記憶する。その後、アバター生成部15は、本処理を終了する。
In step S13, the avatar generation unit 15 determines whether or not processing has been performed on all motion data. When the process is performed on all the motion data (step S13: YES), the avatar generating unit 15 moves the process to step S14. On the other hand, when the process is not performed on all the operation data (step S13: NO), the avatar generation unit 15 moves the process to step S11.
In step S <b> 14, the avatar generation unit 15 determines whether there is an action giving display arranged adjacent to the timeline. If there is an action giving display arranged adjacent to the timeline (step S14: YES), the avatar generation unit 15 moves the process to step S15. On the other hand, when there is no action giving display arranged adjacently on the timeline (step S14: NO), the avatar generation unit 15 ends this process.
In step S15, the avatar complementing unit 15A generates an avatar that complements between adjacent avatars. And the avatar production | generation part 15 memorize | stores the produced | generated operation | movement data of the avatar in the avatar table 34 with an operation | movement. Then, the avatar production | generation part 15 complete | finishes this process.

次に、レンダリング処理及び補完処理について説明する。
図10は、本実施形態に係るレンダリング処理及び補完処理の説明のための図である。
図10(a)は、連続する動作のレンダリング処理の方法を模式化したものであり、丸82と棒83とで表された部分は、アバターの腕の部分であり、丸82が関節等を、棒83が骨等を示す。時間の経過と共に、丸82と棒83とが移動することで、手を振る動作を表現する。このアバターの腕のパーツの座標データに、ポリゴンを用いて肉付けして、画像を描画する。
図10(b)は、アバターの動作を補完する補完処理を説明する図である。例えば、図6に示す例では、アクション構成部75に配置したアクションのうち「Action1」と「Action5」とは隣り合ったアクションである。ここで、「Action1」の最後のアクション(#1)と、「Action5」の最初のアクション(#2)とのパーツの位置が離れている場合、その間のアクションがないと、滑らかな動きにならない。そこで、隣り合ったアクションの間を補完するアクションを生成する。(#1)の座標データと(#2)の座標データとから、中間の位置の座標データを作成する。このように、中間の座標データにより、滑らかな動きを演出できる。
Next, the rendering process and the complement process will be described.
FIG. 10 is a diagram for explaining the rendering process and the complementing process according to the present embodiment.
FIG. 10A schematically shows a method for rendering a continuous motion. A portion represented by a circle 82 and a bar 83 is an avatar's arm portion, and the circle 82 has a joint or the like. A bar 83 indicates a bone or the like. As the time elapses, the circle 82 and the rod 83 move to express the motion of waving. The image is drawn by fleshing the coordinate data of the avatar's arm parts using polygons.
FIG.10 (b) is a figure explaining the complement process which complements the operation | movement of an avatar. For example, in the example illustrated in FIG. 6, “Action 1” and “Action 5” among the actions arranged in the action configuration unit 75 are adjacent actions. Here, if the position of the parts of the last action (# 1) of “Action 1” and the first action (# 2) of “Action 5” are separated, there will be no smooth movement if there is no action between them. . Therefore, an action that complements between adjacent actions is generated. From the coordinate data (# 1) and the coordinate data (# 2), coordinate data at an intermediate position is created. Thus, smooth movement can be produced by the intermediate coordinate data.

図4に戻り、ステップS7では、制御部10は、端末7に対して再生データを送信する。再生データは、座標データからなるデータであり、再生データを受信した端末7は、座標データから画像データを生成して表示部40に表示する。例えば、図6のプレビューボタン79を選択したことで、制御部10は、上述のステップS5からこのステップS7までの処理を行う。
ステップS8では、制御部10は、端末7からアバターの投稿を受け付ける。例えば、図6の決定ボタン80を選択したことで、制御部10は、このステップS8の処理を行う。その後、制御部10は、本処理を終了する。
Returning to FIG. 4, in step S <b> 7, the control unit 10 transmits reproduction data to the terminal 7. The reproduction data is data composed of coordinate data, and the terminal 7 that has received the reproduction data generates image data from the coordinate data and displays it on the display unit 40. For example, when the preview button 79 in FIG. 6 is selected, the control unit 10 performs the processing from step S5 to step S7 described above.
In step S <b> 8, the control unit 10 receives an avatar post from the terminal 7. For example, when the determination button 80 in FIG. 6 is selected, the control unit 10 performs the process of step S8. Then, the control part 10 complete | finishes this process.

このように、アバターの投稿を受け付けたことで、アバター編集サーバ3は、生成した動作付きのアバターと音声データとを、音声データを送信した端末7とは異なる端末7に送信するので、異なる端末7を操作するユーザは、音声データを送信したユーザが作成した動作付きのアバターと音声データとからなるコンテンツを、視聴することができる。   Thus, since the avatar edit server 3 receives the posting of the avatar, the avatar with the generated operation and the voice data are transmitted to the terminal 7 different from the terminal 7 that has transmitted the voice data. 7 can view the content made up of the avatar with motion and the voice data created by the user who transmitted the voice data.

次に、アバター合成処理について説明する。
図11は、本実施形態に係るアバター合成処理のフローチャートである。
ここで、アバター合成処理とは、再生中のコンテンツに、端末7から受け付けた音声データを追加するものであり、あたかも、再生中のコンテンツに対してハモリを加えたり、デュエットをしたりしたかのような演出を行うものである。例えば、図2において、メニュー56Bを選択した場合に行われる。なお、本処理の説明中、再生中のコンテンツを作成したユーザの端末を、端末7A、再生中のコンテンツに音声データを追加するユーザの端末を、端末7Bと記載して区別する。
Next, the avatar composition process will be described.
FIG. 11 is a flowchart of the avatar composition process according to this embodiment.
Here, the avatar composition processing is to add the audio data received from the terminal 7 to the content being played back, as if the content being played is added with a hammer or duet. Such an effect is performed. For example, this is performed when the menu 56B is selected in FIG. In the description of this process, the terminal of the user who created the content being played back is identified as the terminal 7A, and the terminal of the user who adds the audio data to the content being played back is identified as the terminal 7B.

まず、ステップS21では、制御部10は、端末7Bから音声データを受け付ける。
次に、ステップS22では、制御部10は、端末7Aのユーザが作成したコンテンツであり、端末7Bで再生中のコンテンツをコピーする。具体的には、図3(b)の音声テーブル32の音声ID321に記憶された該当の音声データの音声IDを、コピー元音声ID326に記憶したレコードを新たに作成して、作成したレコードの音声ID321に、新たな音声IDを付与する。
First, in step S21, the control unit 10 receives audio data from the terminal 7B.
Next, in step S22, the control unit 10 copies content that is created by the user of the terminal 7A and is being played back on the terminal 7B. Specifically, a new record is created in which the voice ID of the corresponding voice data stored in the voice ID 321 of the voice table 32 in FIG. 3B is stored in the copy source voice ID 326, and the voice of the created record is recorded. A new voice ID is assigned to ID321.

ステップS23では、制御部10は、受け付けた音声データを、コピーしたコンテンツに追加する。具体的には、新たな音声IDを付与したレコードの音声データ324に、受け付けた音声データを格納する。
ステップS24では、制御部10(アバター生成部15)は、音声データの受付元の端末7Bのユーザのアバターを、コピーしたコンテンツに追加する。具体的には、新たな音声IDを付与したレコードのユーザID323に、受け付けた端末7BのユーザのユーザIDを格納する。このようにすることで、新たな音声IDを付与したレコードのコンテンツを再生する場合には、当該レコードと、コピー元音声ID326に格納された音声IDのレコードと、を用いることで、アバターを合成し、音声を合成することができる。その後、制御部10は、本処理を終了する。
In step S23, the control unit 10 adds the received audio data to the copied content. Specifically, the received voice data is stored in the voice data 324 of the record to which a new voice ID is assigned.
In step S24, the control part 10 (avatar production | generation part 15) adds the user's avatar of the terminal 7B of the reception origin of audio | voice data to the copied content. Specifically, the user ID of the user of the received terminal 7B is stored in the user ID 323 of the record to which a new voice ID is assigned. In this way, when reproducing the content of a record to which a new audio ID is assigned, the avatar is synthesized by using the record and the audio ID record stored in the copy source audio ID 326. And can synthesize speech. Then, the control part 10 complete | finishes this process.

このように、アバター編集サーバ3は、生成した動作付きのアバターと音声データとからなるコンテンツに、音声データを追加し、別のアバターを生成して合成アバターを新たに作成することができる。よって、元の楽曲にハモリを加えたり、合唱やデュエット等をしたりする様子を演出できる。   As described above, the avatar editing server 3 can add voice data to the generated content consisting of the avatar with motion and the voice data, generate another avatar, and newly create a synthetic avatar. Therefore, it is possible to produce a state of adding hamori to the original music piece or performing chorus or duet.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。   As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used in combination as appropriate, detailed description is abbreviate | omitted.

(変形形態)
(1)本実施形態において、アバターに動作を付与するアクションは、アクション選択ボックスに表示される予め決められたものから選択する例を示したが、これに限定されない。例えば、会員や所定の回数投稿した場合等、特典を満たした場合に、アクション選択ボックスに表示されるアクションの種類を増やしてもよい。
(2)本実施形態において、アバター合成処理では、アバターを追加する例を示したが、これに限定されない。例えば、アバターよりも画像データ量の少ないユーザの静止画等を追加することで、サーバの処理の負荷を軽減できる。
(3)本実施形態において、各種テーブルを用いてサーバでの処理を説明したが、テーブルの構成等はこれに限定されない。本機能を実現できるものであれば、テーブルの構成はどのようなものであってもよい。
(Deformation)
(1) In this embodiment, although the example which selects the action which gives operation | movement to an avatar from the predetermined thing displayed on an action selection box was shown, it is not limited to this. For example, the types of actions displayed in the action selection box may be increased when a privilege is satisfied, such as when a member or a predetermined number of posts are made.
(2) In the present embodiment, in the avatar synthesis process, an example of adding an avatar has been shown, but the present invention is not limited to this. For example, the processing load of the server can be reduced by adding a still image of a user whose image data amount is smaller than that of an avatar.
(3) In the present embodiment, the processing in the server has been described using various tables, but the configuration of the table is not limited to this. As long as this function can be realized, the configuration of the table may be any.

本実施形態に係るアバターシステムの構成及びアバター編集サーバの機能ブロックを示す図である。It is a figure which shows the structure of the avatar system which concerns on this embodiment, and the functional block of an avatar edit server. 本実施形態に係る表示部に表示されるTOPページを示す図である。It is a figure which shows the TOP page displayed on the display part which concerns on this embodiment. 本実施形態に係る基本アバターテーブル、音声テーブル及び楽曲コンテンツテーブルを示す図である。It is a figure which shows the basic avatar table, audio | voice table, and music content table which concern on this embodiment. 本実施形態に係るアバター投稿処理のフローチャートである。It is a flowchart of the avatar contribution process which concerns on this embodiment. 本実施形態に係る録音ページを示す図である。It is a figure which shows the recording page which concerns on this embodiment. 本実施形態に係るアクション作成ページを示す図である。It is a figure which shows the action creation page which concerns on this embodiment. 本実施形態に係るパーツテーブルを示す図である。It is a figure which shows the parts table which concerns on this embodiment. 本実施形態に係る動作付きアバター生成処理のフローチャートである。It is a flowchart of the avatar generation process with operation | movement which concerns on this embodiment. 本実施形態に係る動作付きアバターテーブルを示す図である。It is a figure which shows the avatar table with operation | movement which concerns on this embodiment. 本実施形態に係るレンダリング処理及び補完処理の説明のための図である。It is a figure for demonstrating the rendering process and complement process which concern on this embodiment. 本実施形態に係るアバター合成処理のフローチャートである。It is a flowchart of the avatar synthetic | combination process which concerns on this embodiment.

符号の説明Explanation of symbols

1 アバターシステム
3 アバター編集サーバ
7、7A、7B 端末
10 制御部
11 音声受付部
12 タイムライン生成部
14 動作データ受付部
15 アバター生成部
15A アバター補完部
17 再生データ送信部
25 通信インタフェース部
30 記憶部
31 基本アバターテーブル
32 音声テーブル
33 パーツテーブル
34 動作付きアバターテーブル
35 楽曲コンテンツテーブル
39 アバター編集プログラム
40 表示部
41 操作部
42 スピーカ
43 マイク
70 アクション作成ページ
75 アクション構成部
DESCRIPTION OF SYMBOLS 1 Avatar system 3 Avatar edit server 7, 7A, 7B Terminal 10 Control part 11 Voice reception part 12 Timeline generation part 14 Operation data reception part 15 Avatar generation part 15A Avatar complement part 17 Reproduction data transmission part 25 Communication interface part 30 Storage part 31 Basic avatar table 32 Audio table 33 Parts table 34 Motion avatar table 35 Music content table 39 Avatar editing program 40 Display unit 41 Operation unit 42 Speaker 43 Microphone 70 Action creation page 75 Action component

Claims (10)

端末に対して通信ネットワークを介して接続され、前記端末で再生するアバターを編集するアバター編集サーバにおいて、
前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部と、
前記端末から送信された音声データを受け付ける音声受付部と、
前記音声受付部により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて記憶する音声記憶部と、
前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成部と、
を備えること、
を特徴とするアバター編集サーバ。
In an avatar editing server that is connected to a terminal via a communication network and edits an avatar played on the terminal,
A basic avatar storage for storing image data that is the basis of the avatar of the terminal;
A voice reception unit for receiving voice data transmitted from the terminal;
An audio storage unit that stores the audio data received by the audio reception unit in association with the image data stored in the basic avatar storage unit;
In response to an operation from the terminal, an avatar generation unit that generates an avatar with an operation by adding an operation to the image data associated with the audio data stored in the audio storage unit;
Providing
An avatar editing server characterized by
請求項1に記載のアバター編集サーバにおいて、
前記音声記憶部に記憶された前記音声データの再生位置を視覚的に表示するタイムラインを生成して、前記端末に出力するタイムライン生成部と、
前記アバターを構成するパーツであるパーツデータを記憶するパーツ記憶部と、
前記端末で前記パーツに動作を付与するための表示である動作付与表示が前記タイムラインの上に配置されたことに応じて、前記動作付与表示と前記動作付与表示に対応する前記再生位置とを含む動作データを、前記端末から受け付ける動作データ受付部と、
を備え、
前記アバター生成部は、前記動作データ受付部により受け付けた前記動作データに基づき、前記画像データを構成する前記パーツデータに動作を加えて動作付きのアバターを生成すること、
を特徴とするアバター編集サーバ。
The avatar editing server according to claim 1,
A timeline generating unit that generates a timeline for visually displaying the reproduction position of the audio data stored in the audio storage unit and outputs the timeline to the terminal;
A parts storage unit for storing parts data which is a part constituting the avatar;
In response to an action giving display being a display for giving an action to the part at the terminal being arranged on the timeline, the action giving display and the reproduction position corresponding to the action giving display are displayed. An operation data receiving unit that receives operation data including the operation data from the terminal;
With
The avatar generating unit generates an avatar with an operation by adding an operation to the part data constituting the image data based on the operation data received by the operation data receiving unit;
An avatar editing server characterized by
請求項2に記載のアバター編集サーバにおいて、
前記パーツ記憶部に記憶された前記パーツデータは、座標データの形態のものであり、
前記アバター生成部は、前記動作データに含む前記動作付与表示から前記動作付与表示に対応する前記パーツデータを前記パーツ記憶部から抽出し、抽出した前記パーツデータに対して連続動作を表現するパーツの前記座標データをレンダリングして、前記アバターを生成すること、
を特徴とするアバター編集サーバ。
In the avatar edit server according to claim 2,
The parts data stored in the parts storage unit is in the form of coordinate data,
The avatar generation unit extracts the part data corresponding to the action giving display from the action giving display included in the action data from the parts storage unit, and expresses a continuous action for the extracted part data. Rendering the coordinate data to generate the avatar;
An avatar editing server characterized by
請求項2又は請求項3に記載のアバター編集サーバにおいて、
前記動作データ受付部は、前記端末において異なる動作を示す複数の前記動作付与表示を前記タイムラインの上の同一の範囲に配置した前記動作データを、前記端末から受け付けること、
を特徴とするアバター編集サーバ。
In the avatar edit server according to claim 2 or 3,
The operation data receiving unit receives, from the terminal, the operation data in which a plurality of the operation giving indications indicating different operations in the terminal are arranged in the same range on the timeline;
An avatar editing server characterized by
請求項2から請求項4のいずれか1項に記載のアバター編集サーバにおいて、
前記動作データ受付部は、前記端末において異なる動作を示す複数の前記動作付与表示を、前記タイムラインの上に複数配置した前記動作データを、前記端末から受け付け、
前記アバター生成部は、
前記タイムラインの上に隣り合って配置された2つの前記動作付与表示に対応する前記動作データに基づき前記動作付きのアバターを生成し、
生成した前記動作付きのアバターを連続して動作をさせるように、生成した2つの前記動作付きのアバターの間を補完する前記動作付きのアバターを生成するアバター補完部を備えること、
を特徴とするアバター編集サーバ。
In the avatar edit server according to any one of claims 2 to 4,
The operation data receiving unit receives, from the terminal, the operation data in which a plurality of the operation giving displays indicating different operations in the terminal are arranged on the timeline,
The avatar generator is
Generating an avatar with the action based on the action data corresponding to the two action giving indications arranged adjacent to each other on the timeline;
An avatar complementing unit that generates the avatar with the operation for complementing between the two generated avatars with the operation so as to continuously operate the generated avatar with the operation;
An avatar editing server characterized by
請求項1から請求項5のいずれか1項に記載のアバター編集サーバにおいて、
前記通信ネットワークを介して接続された他の端末からの前記アバターの表示要求を受け付けることで、前記アバター生成部により生成された前記動作付きのアバターと、前記アバターに対応付けて前記音声記憶部に記憶された音声データとを前記他の端末に再生可能に送信する再生データ送信部を備えること、
を特徴とするアバター編集サーバ。
In the avatar edit server according to any one of claims 1 to 5,
By accepting the display request of the avatar from another terminal connected via the communication network, the avatar with the action generated by the avatar generation section and the voice storage section in association with the avatar. Comprising a reproduction data transmission unit for reproducibly transmitting the stored audio data to the other terminal,
An avatar editing server characterized by
請求項6に記載のアバター編集サーバにおいて、
前記音声受付部は、前記再生データ送信部により送信され、前記他の端末で再生された音声データに対応する他の音声データを受け付け、
前記音声記憶部は、前記他の音声データを、前記音声データに対応付けて記憶すること、
を特徴とするアバター編集サーバ。
The avatar editing server according to claim 6,
The voice receiving unit receives other voice data corresponding to the voice data transmitted by the playback data transmission unit and played by the other terminal,
The voice storage unit stores the other voice data in association with the voice data;
An avatar editing server characterized by
請求項7に記載のアバター編集サーバにおいて、
前記アバター生成部は、前記他の端末のアバターを生成して、前記端末の前記動作付きのアバターに対して合成して、合成アバターを新たに生成すること、
を特徴とするアバター編集サーバ。
The avatar editing server according to claim 7,
The avatar generation unit generates an avatar of the other terminal, synthesizes the avatar with the operation of the terminal, and newly generates a composite avatar;
An avatar editing server characterized by
請求項7に記載のアバター編集サーバにおいて、
前記アバター生成部は、前記基本アバター記憶部に記憶された前記他の端末の前記画像データを、前記端末の前記動作付きのアバターと共に表示するように合成アバターを生成すること、
を特徴とするアバター編集サーバ。
The avatar editing server according to claim 7,
The avatar generation unit generates a composite avatar so as to display the image data of the other terminal stored in the basic avatar storage unit together with the avatar with the operation of the terminal;
An avatar editing server characterized by
端末に対して通信ネットワークを介して接続され、前記端末で再生するアバターを編集するアバター編集サーバが、前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部を備え、前記アバター編集サーバにおいて実行されるアバター編集プログラムであって、
前記アバター編集サーバを、
前記端末から送信された音声データを受け付ける音声受付手段と、
前記音声受付手段により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて音声記憶部に記憶させる音声記憶手段と、
前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成手段と、
して機能させること、
を特徴とするアバター編集プログラム。
An avatar editing server that is connected to a terminal via a communication network and edits an avatar to be played on the terminal includes a basic avatar storage unit that stores image data that is a basis of the avatar of the terminal, and the avatar editing server An avatar editing program executed in
The avatar editing server,
Voice receiving means for receiving voice data transmitted from the terminal;
Voice storage means for storing the voice data received by the voice reception means in a voice storage section in association with the image data stored in the basic avatar storage section;
An avatar generating means for generating an avatar with an action by adding an action to the image data associated with the voice data stored in the voice storage unit in response to an operation from the terminal;
Make it work,
An avatar editing program characterized by
JP2008229681A 2008-09-08 2008-09-08 Avatar editing server and avatar editing program Pending JP2010066789A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008229681A JP2010066789A (en) 2008-09-08 2008-09-08 Avatar editing server and avatar editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008229681A JP2010066789A (en) 2008-09-08 2008-09-08 Avatar editing server and avatar editing program

Publications (1)

Publication Number Publication Date
JP2010066789A true JP2010066789A (en) 2010-03-25

Family

ID=42192366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008229681A Pending JP2010066789A (en) 2008-09-08 2008-09-08 Avatar editing server and avatar editing program

Country Status (1)

Country Link
JP (1) JP2010066789A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197414A (en) * 2014-06-18 2014-10-16 グリー株式会社 Moving image output device, moving image output method, and program
JP2015109094A (en) * 2014-12-19 2015-06-11 グリー株式会社 Moving image output device, moving image output method, and program
JP2016197398A (en) * 2015-04-03 2016-11-24 ネイバー コーポレーションNAVER Corporation System and method for providing content
KR101810023B1 (en) 2011-03-28 2018-01-26 에스케이플래닛 주식회사 An apparatus for producing multimedia content aided generating dialogue, a terminal thereof, a method thereof and a computer recordable medium storing the method
US10104333B2 (en) 2011-06-02 2018-10-16 Gree, Inc. Vector data conversion output device, vector data conversion output method, and vector data conversion output program
JP2019192174A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device, and method
US10755446B2 (en) 2015-04-02 2020-08-25 Naver Corporation System and method for providing contents using automatic margin creation
WO2022062808A1 (en) * 2020-09-24 2022-03-31 游艺星际(北京)科技有限公司 Portrait generation method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981782A (en) * 1995-07-12 1997-03-28 Sony Corp Method and system for three-dimensional virtual reality space, medium and method for recording information, medium and method for transmitting information, information processing method, client terminal, and common-use server terminal
JPH1127649A (en) * 1997-07-01 1999-01-29 Matsushita Electric Ind Co Ltd Television broadcast system and program generating method used for it
JP2003346173A (en) * 2002-05-24 2003-12-05 Tokei Jikake:Kk Delivery system of character/animation
JP2004053736A (en) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd Method for using karaoke system
JP2006048901A (en) * 2005-06-27 2006-02-16 Matsushita Electric Ind Co Ltd Multimedia information reproducing device and multimedia information recording device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981782A (en) * 1995-07-12 1997-03-28 Sony Corp Method and system for three-dimensional virtual reality space, medium and method for recording information, medium and method for transmitting information, information processing method, client terminal, and common-use server terminal
JPH1127649A (en) * 1997-07-01 1999-01-29 Matsushita Electric Ind Co Ltd Television broadcast system and program generating method used for it
JP2003346173A (en) * 2002-05-24 2003-12-05 Tokei Jikake:Kk Delivery system of character/animation
JP2004053736A (en) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd Method for using karaoke system
JP2006048901A (en) * 2005-06-27 2006-02-16 Matsushita Electric Ind Co Ltd Multimedia information reproducing device and multimedia information recording device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101810023B1 (en) 2011-03-28 2018-01-26 에스케이플래닛 주식회사 An apparatus for producing multimedia content aided generating dialogue, a terminal thereof, a method thereof and a computer recordable medium storing the method
US10104333B2 (en) 2011-06-02 2018-10-16 Gree, Inc. Vector data conversion output device, vector data conversion output method, and vector data conversion output program
JP2014197414A (en) * 2014-06-18 2014-10-16 グリー株式会社 Moving image output device, moving image output method, and program
JP2015109094A (en) * 2014-12-19 2015-06-11 グリー株式会社 Moving image output device, moving image output method, and program
US10755446B2 (en) 2015-04-02 2020-08-25 Naver Corporation System and method for providing contents using automatic margin creation
JP2016197398A (en) * 2015-04-03 2016-11-24 ネイバー コーポレーションNAVER Corporation System and method for providing content
US10255711B2 (en) 2015-04-03 2019-04-09 Naver Corporation System and method for providing contents by merging layers of page to which motion effect is set
JP2019192174A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device, and method
JP7258472B2 (en) 2018-04-27 2023-04-17 株式会社コロプラ Program, Information Processing Apparatus, and Method
WO2022062808A1 (en) * 2020-09-24 2022-03-31 游艺星际(北京)科技有限公司 Portrait generation method and device

Similar Documents

Publication Publication Date Title
JP2010066789A (en) Avatar editing server and avatar editing program
JP5122407B2 (en) Content editing server and content editing program
JP5949607B2 (en) Speech synthesizer
JP4755672B2 (en) Content editing apparatus, method and program
JP6452229B2 (en) Karaoke sound effect setting system
JP5151245B2 (en) Data reproducing apparatus, data reproducing method and program
JP2012198380A (en) Display control device
JP4483936B2 (en) Music / video playback device
JP2006189471A (en) Program, singing ability decision method, and decision system
JP6070952B2 (en) Karaoke device and karaoke program
JP2011133882A (en) Video with sound synthesis system, and video with sound synthesis method
JP6058991B2 (en) Singing video selection system corresponding to singing voice
JP2011191357A (en) Karaoke system
JP5789477B2 (en) Image reproduction apparatus and image reproduction system
JP5439994B2 (en) Data collection / delivery system, online karaoke system
JP6121139B2 (en) Singing voice selection system for karaoke singing video
JP5146974B1 (en) Method and apparatus for creating program image
JP2017108198A (en) Musical score display system, moving image data supply device, musical score data supply device, image display device and musical score display program
JP6574697B2 (en) Karaoke system
JP2021157007A (en) Photo movie generation system, photo movie generation device, user terminal, photo movie generation method, and program
JP6611633B2 (en) Karaoke system server
JP2005300739A (en) Device for editing musical performance data
JP2016014781A (en) Singing synthesis device and singing synthesis program
JP4075434B2 (en) Music and video playback device
JP4804984B2 (en) A karaoke system that accepts playback requests for model songs

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100408

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120828