JP2010066789A - Avatar editing server and avatar editing program - Google Patents
Avatar editing server and avatar editing program Download PDFInfo
- Publication number
- JP2010066789A JP2010066789A JP2008229681A JP2008229681A JP2010066789A JP 2010066789 A JP2010066789 A JP 2010066789A JP 2008229681 A JP2008229681 A JP 2008229681A JP 2008229681 A JP2008229681 A JP 2008229681A JP 2010066789 A JP2010066789 A JP 2010066789A
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- data
- terminal
- voice
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、アバターを編集するアバター編集サーバ及びアバター編集プログラムに関する。 The present invention relates to an avatar editing server and an avatar editing program for editing an avatar.
従来、ユーザの分身であるキャラクタ画像のアバターを、ユーザの端末に対して通信ネットワークを介して接続されたサーバに記憶して、アバターをブログ等のユーザ自身の自己紹介ページに配置することで、コミニュケーションツールとして他の端末に自己紹介ページを表示させることが行われている。また、アバターの用途は、ブログ等に限らない。例えば、バーチャルなミーティングルームに、ユーザが所望のコンテンツと、そのユーザのアバターとを表示して、アバターが、コンテンツを視聴しているかのように表現したコンテンツの配信を行うコンテンツ視聴システムが提案されている(例えば、特許文献1)。
特許文献1に記載のコンテンツ視聴システムは、アバター等の画像データと、ユーザが所望の音声等の音声データを含むコンテンツとを表示し、アバターが所定の動作をしたときに、コンテンツの表示を開始する。よって、特許文献1に記載のコンテンツ視聴システムにおいて、アバターは、コンテンツの表示の開始時に、視覚的な演出をするための画像にすぎず、面白さに欠けるものであった。
そこで、本発明は、多様な演出により面白さを向上させたアバターを表示するアバター編集サーバ及びアバター編集プログラムを提供することを目的とする。
The content viewing system described in
Then, an object of this invention is to provide the avatar edit server and avatar edit program which display the avatar which improved the interest by various productions.
本発明は、以下のような解決手段により、前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。また、符号を付して説明した構成は、適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。 The present invention solves the above problems by the following means. In addition, in order to make an understanding easy, although the code | symbol corresponding to embodiment of this invention is attached | subjected and demonstrated, it is not limited to this. In addition, the configuration described with reference numerals may be improved as appropriate, or at least a part thereof may be replaced with another configuration.
請求項1の発明は、端末(7)に対して通信ネットワーク(5)を介して接続され、前記端末で再生するアバターを編集するアバター編集サーバ(3)において、前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部(31)と、前記端末から送信された音声データを受け付ける音声受付部(11)と、前記音声受付部により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて記憶する音声記憶部(32)と、前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成部(15)と、を備えること、を特徴とするアバター編集サーバである。
請求項2の発明は、請求項1に記載のアバター編集サーバ(3)において、前記音声記憶部(32)に記憶された前記音声データの再生位置を視覚的に表示するタイムラインを生成して、前記端末(7)に出力するタイムライン生成部(12)と、前記アバターを構成するパーツであるパーツデータを記憶するパーツ記憶部(33)と、前記端末で前記パーツに動作を付与するための表示である動作付与表示が前記タイムラインの上に配置されたことに応じて、前記動作付与表示と前記動作付与表示に対応する前記再生位置とを含む動作データを、前記端末から受け付ける動作データ受付部(14)と、を備え、前記アバター生成部(15)は、前記動作データ受付部により受け付けた前記動作データに基づき、前記画像データを構成する前記パーツデータに動作を加えて動作付きのアバターを生成すること、を特徴とするアバター編集サーバである。
請求項3の発明は、請求項2に記載のアバター編集サーバ(3)において、前記パーツ記憶部(33)に記憶された前記パーツデータは、座標データの形態のものであり、前記アバター生成部(15)は、前記動作データに含む前記動作付与表示から前記動作付与表示に対応する前記パーツデータを前記パーツ記憶部から抽出し、抽出した前記パーツデータに対して連続動作を表現するパーツの前記座標データをレンダリングして、前記アバターを生成すること、を特徴とするアバター編集サーバである。
請求項4の発明は、請求項2又は請求項3に記載のアバター編集サーバ(3)において、前記動作データ受付部(14)は、前記端末(7)において異なる動作を示す複数の前記動作付与表示を前記タイムラインの上の同一の範囲に配置した前記動作データを、前記端末から受け付けること、を特徴とするアバター編集サーバである。
請求項5の発明は、請求項2から請求項4のいずれか1項に記載のアバター編集サーバ(3)において、前記動作データ受付部(14)は、前記端末(7)において異なる動作を示す複数の前記動作付与表示を、前記タイムラインの上に複数配置した前記動作データを、前記端末から受け付け、前記アバター生成部(15)は、前記タイムラインの上に隣り合って配置された2つの前記動作付与表示に対応する前記動作データに基づき前記動作付きのアバターを生成し、生成した前記動作付きのアバターを連続して動作をさせるように、生成した2つの前記動作付きのアバターの間を補完する前記動作付きのアバターを生成するアバター補完部(15A)を備えること、を特徴とするアバター編集サーバである。
請求項6の発明は、請求項1から請求項5のいずれか1項に記載のアバター編集サーバ(3)において、前記通信ネットワーク(5)を介して接続された他の端末(7)からの前記アバターの表示要求を受け付けることで、前記アバター生成部(15)により生成された前記動作付きのアバターと、前記アバターに対応付けて前記音声記憶部(32)に記憶された音声データとを前記他の端末に再生可能に送信する再生データ送信部(17)を備えること、を特徴とするアバター編集サーバである。
請求項7の発明は、請求項6に記載のアバター編集サーバ(3)において、前記音声受付部(11)は、前記再生データ送信部(17)により送信され、前記他の端末(7)で再生された音声データに対応する他の音声データを受け付け、前記音声記憶部(32)は、前記他の音声データを、前記音声データに対応付けて記憶すること、を特徴とするアバター編集サーバである。
請求項8の発明は、請求項7に記載のアバター編集サーバ(3)において、前記アバター生成部(15)は、前記他の端末(7)のアバターを生成して、前記端末(7)の前記動作付きのアバターに対して合成して、合成アバターを新たに生成すること、を特徴とするアバター編集サーバである。
請求項9の発明は、請求項7に記載のアバター編集サーバ(3)において、前記アバター生成部(15)は、前記基本アバター記憶部(31)に記憶された前記他の端末(7)の前記画像データを、前記端末(7)の前記動作付きのアバターと共に表示するように合成アバターを生成すること、を特徴とするアバター編集サーバである。
The invention of
According to a second aspect of the present invention, in the avatar editing server (3) according to the first aspect, a timeline for visually displaying the reproduction position of the audio data stored in the audio storage unit (32) is generated. A timeline generating unit (12) for outputting to the terminal (7), a parts storage unit (33) for storing part data which is a part constituting the avatar, and for imparting an operation to the parts at the terminal Motion data including the motion grant display and the playback position corresponding to the motion grant display in response to the motion grant display being a display of A reception unit (14), wherein the avatar generation unit (15) is configured to configure the image data based on the motion data received by the motion data reception unit. To generate an avatar with operations in addition to operations in parts data, it is the avatar editing server according to claim.
The invention of
According to a fourth aspect of the present invention, in the avatar editing server (3) according to the second or third aspect, the motion data receiving unit (14) includes a plurality of the motion grants indicating different motions in the terminal (7). The avatar editing server, wherein the operation data arranged in the same range on the timeline is received from the terminal.
According to a fifth aspect of the present invention, in the avatar editing server (3) according to any one of the second to fourth aspects, the operation data receiving unit (14) exhibits different operations in the terminal (7). The operation data in which a plurality of the operation giving indications are arranged on the timeline is received from the terminal, and the avatar generation unit (15) is configured to receive two adjacent data arranged on the timeline. Based on the action data corresponding to the action giving display, the avatar with the action is generated, and the generated avatar with the action is continuously operated so that the generated avatar with the action is continuously operated. The avatar editing server includes an avatar complementing unit (15A) that generates the avatar with the motion to be complemented.
The invention of claim 6 is the avatar editing server (3) according to any one of
According to a seventh aspect of the present invention, in the avatar editing server (3) according to the sixth aspect, the voice receiving unit (11) is transmitted by the reproduction data transmitting unit (17), and is transmitted to the other terminal (7). An avatar editing server characterized in that it accepts other audio data corresponding to the reproduced audio data, and the audio storage unit (32) stores the other audio data in association with the audio data. is there.
The invention of claim 8 is the avatar editing server (3) according to
The invention according to claim 9 is the avatar editing server (3) according to
請求項10の発明は、端末(7)に対して通信ネットワーク(5)を介して接続され、前記端末(7)で再生するアバターを編集するアバター編集サーバ(3)が、前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部(31)を備え、前記アバター編集サーバにおいて実行されるアバター編集プログラム(39)であって、前記アバター編集サーバを、前記端末から送信された音声データを受け付ける音声受付手段と、前記音声受付手段により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて音声記憶部(32)に記憶させる音声記憶手段と、前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成手段と、して機能させること、を特徴とするアバター編集プログラムである。
According to the invention of
本発明によれば、以下の効果を奏することができる。
(1)本発明は、音声データを端末から受け付けたことで、端末とその端末のアバターの基本になる画像データと関連付け、端末からの操作に応じて、画像データに動作を加えて動作付きのアバターを生成する。よって、音声データに動作付きの画像データを関連付けることができるので、アバターに、歌い、踊っているかのような面白い演出をさせることができる。
According to the present invention, the following effects can be obtained.
(1) The present invention associates the audio data with the image data that is the basis of the terminal and the avatar of the terminal by receiving the audio data from the terminal, and adds an operation to the image data according to the operation from the terminal. Create an avatar. Therefore, since the image data with operation can be associated with the sound data, it is possible to make the avatar have an interesting effect as if singing or dancing.
(2)本発明は、音声データの再生位置を視覚的に表示するタイムラインを生成して端末に出力するので、端末のユーザは、アバターを構成するパーツに動作を付与するための動作付与表示をタイムライン上に配置することができる。また、本発明は、配置した動作付与表示に対応する動作データを端末から受け付けることで、好みの動作をアバターに与えることができる。よって、タイムライン上に動作付与表示を配置するという、直感的に分かり易く、しかもユーザにとって簡単なユーザインタフェースを用いて、動作付きのアバターを生成することができる。 (2) Since the present invention generates a timeline for visually displaying the playback position of the audio data and outputs the timeline to the terminal, the terminal user gives an action display for giving an action to the parts constituting the avatar. Can be placed on the timeline. Moreover, this invention can give a favorite operation | movement to an avatar by receiving the operation | movement data corresponding to the arrange | positioned operation | movement provision display from a terminal. Therefore, it is possible to generate an avatar with an action using a user interface that is intuitively easy to understand, that is, an action giving display is arranged on the timeline.
(3)本発明は、座標データの形態であるパーツデータを用いて、動作付きアバターを生成するので、端末7において、生成されたアバターを端末7で再生することができる。
(4)本発明は、タイムライン上の同一の範囲に複数の動作付与表示を配置できるので、様々な複雑な動作をアバターに付与することができる。
(5)本発明は、タイムライン上に隣り合って配置された2つの動作付与表示から生成した動作付きのアバターを補完する動作付きのアバターをさらに生成するので、タイムライン上に隣り合って配置された2つの動作の間を滑らかにつなぐことができる。
(3) Since this invention produces | generates the avatar with operation | movement using the part data which is the form of coordinate data, in the
(4) Since the present invention can arrange a plurality of action giving displays in the same range on the timeline, various complicated actions can be given to the avatar.
(5) Since the present invention further generates an avatar with an action that complements an avatar with an action generated from two action-giving displays arranged adjacent to each other on the timeline, it is arranged adjacent to the timeline. It is possible to smoothly connect the two operations performed.
(6)本発明は、生成した動作付きのアバターと音声データとを、音声データを送信した端末とは異なる端末に送信するので、ユーザが作成した動作付きのアバターと音声データとからなるコンテンツを、他のユーザが視聴することができる。
(7)本発明は、生成した動作付きのアバターと音声データとからなるコンテンツに、音声データを追加し、別のアバターを生成して合成アバターを新たに作成する。よって、元の楽曲にハモリを加えたり、合唱やデュエット等をしたりする様子を演出できる。また、別のアバターに代えて、画像データを追加することで、アバター編集サーバの処理の負荷を軽減しつつ、ハモリやデュエット等を演出できる。
(6) The present invention transmits the generated avatar with operation and audio data to a terminal different from the terminal that transmitted the audio data. Other users can view.
(7) In the present invention, voice data is added to the generated content consisting of an avatar with motion and voice data, another avatar is generated, and a new synthetic avatar is created. Therefore, it is possible to produce a state in which a hamori is added to the original music or a chorus or duet is performed. In addition, by adding image data in place of another avatar, it is possible to produce hamori, duet, etc. while reducing the processing load of the avatar editing server.
本発明は、多様な演出により面白さを向上させたアバターを表示するアバター編集サーバ及びアバター編集プログラムを提供するという目的を、端末に対して通信ネットワークを介して接続され、端末で再生するアバターを編集するアバター編集サーバが、端末のアバターの基本になる画像データを記憶する基本アバター記憶部と、端末から送信された音声データを受け付ける音声受付部と、音声受付部により受け付けた音声データを、基本アバター記憶部に記憶された画像データに関連付けて記憶する音声記憶部と、端末からの操作に応じて、音声記憶部に記憶された音声データに関連付けられた画像データに動作を加えて、動作付きのアバターを生成するアバター生成部と、を備えることによって実現した。 An object of the present invention is to provide an avatar editing server and an avatar editing program for displaying an avatar with improved fun through various effects. An avatar connected to a terminal via a communication network and played on the terminal is provided. The avatar editing server to edit the basic avatar storage unit that stores the image data that is the basis of the terminal avatar, the voice reception unit that receives the voice data transmitted from the terminal, and the voice data received by the voice reception unit A voice storage unit that is stored in association with the image data stored in the avatar storage unit, and an operation is performed on the image data that is associated with the voice data stored in the voice storage unit in response to an operation from the terminal. This is realized by including an avatar generation unit that generates an avatar of
(実施形態)
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
図1は、本実施形態に係るアバターシステム1の構成及びアバター編集サーバ3の機能ブロックを示す図である。アバターシステム1は、アバター編集サーバ3と、複数の端末7と、アバター編集サーバ3及び端末7を接続する通信ネットワーク5とを備える。アバターシステム1は、アバター編集サーバ3が、端末7から音声データを受信し、音声データからタイムラインを生成して端末7に送信する。また、アバター編集サーバ3が、端末7から動作データを受け付け、動作付きのアバターを生成して、動作付きのアバターと、音声データとを端末7に送信する。そして、端末7に、動作付きのアバターを表示させる。
(Embodiment)
Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
FIG. 1 is a diagram showing a configuration of an
なお、本実施形態において、音声データとは、例えば、ユーザの歌声等、端末7のユーザが入力した音に関するデータをいう。また、動作付きアバターとは、3D(3−Dimensional)のレンダリングにより、アバターに、動作が追加されたアバターをいう。
In the present embodiment, the audio data refers to data relating to sounds input by the user of the
アバター編集サーバ3を構成するハードウェアの数に制限はない。必要に応じて、1又は複数で構成してよい。また、アバター編集サーバ3のハードウェアは、必要に応じてWeb(ウェブ)サーバ、DB(データベース)サーバ、アプリケーション・サーバ等の各種サーバを含んで構成してよく、1台のサーバで構成しても、それぞれ別のサーバで構成してもよい。さらに、アバター編集サーバ3は、ウェブサービスを行うサーバと同一のサーバでも異なるサーバでもよいが、ここでは、同一のサーバであるものとして説明する。
There is no limit to the number of hardware constituting the
端末7は、ウェブサービスのコンテンツを表示する表示部40とユーザが操作可能な操作部41とを備えたものである。端末7は、パソコン(パーソナルコンピュータ)の他、携帯電話機、携帯情報端末等であってもよい。端末7には、音声を出力するスピーカ42と、音声を入力するマイク43とが接続されている。
通信ネットワーク5は、アバター編集サーバ3及び端末7の間の通信を行うための、例えばインターネット等の通信網である。
The
The communication network 5 is a communication network such as the Internet for performing communication between the
アバター編集サーバ3は、制御部10、通信インタフェース部25及び記憶部30を備えている。制御部10は、音声受付部11、タイムライン生成部12、動作データ受付部14、アバター生成部15、再生データ送信部17を有する。また、アバター生成部15は、アバター補完部15Aを有する。各手段の詳細については後述する。
制御部10は、情報の演算、及び処理を行う情報演算処理装置(CPU)であり、当該アバター編集サーバ3の全体を制御するものである。制御部10は、後述する記憶部30に記憶された各種プログラムを適宜読み出して実行することにより、アバター編集サーバ3のハードウェアと協働し、本発明に係る各種機能を実現している。
The
The
通信インタフェース部25は、当該アバター編集サーバ3を専用ネットワーク又は公共ネットワークを介して端末7や、ウェブサービスを提供する別のサーバと接続できるようにするためのネットワーク・アダプタである。通信インタフェース部25は、モデム、ケーブルモデム及びイーサネット(登録商標)・アダプタを含んでよい。
The
記憶部30は、本発明の機能を実現するアバター編集プログラム39を記憶する。また、基本アバターテーブル31、音声テーブル32、パーツテーブル33、動作付きアバターテーブル34、楽曲コンテンツテーブル35を有する。各テーブルの詳細については後述する。
記憶部30は、制御部10と組み合わせてプログラムの実行に使用するメモリを含んでよい。記憶部30を実現するものとして、電気的、磁気的、光学的、電磁的に実現するものを含んでよい。より具体的には、半導体記憶装置、磁気ディスク、ランダム・アクセス・メモリ(RAM)、リードオンリー・メモリ(ROM)等が含まれる。アバター編集サーバ3と外部接続することができる磁気テープ、CD−ROMとCD−R/WとDVDとを含む光ディスクや、メモリカード等の補助記憶装置も含む概念である。
The memory |
The
次に、生成した動作付きアバターを端末7の表示部40に表示する例について説明する。
図2は、本実施形態に係る表示部40に表示されるTOPページ50を示す図である。
TOPページ50は、アバター編集サーバ3から配信され、例えば、端末7に備えられたブラウザの機能を用いて表示部40に表示されたウェブページである。TOPページ50の上部左方には、このTOPページ50が提供するサービスの名称である「○○○○!」の文字と、その右方に、ユーザのユーザ名51A及びユーザのアバター51Bを含むユーザ部51とが表示されている。また、TOPページ50は、フレーム分割がされており、左側のフレームには、メニュー部52が配置されている。メニュー部52から、ユーザが、端末7の操作部41を操作して好みのメニューを選択することで、メニュー部52の右側のフレームのメイン部53に、選択されたメニューに関する情報が表示される。
Next, an example in which the generated avatar with action is displayed on the
FIG. 2 is a diagram showing a
The
メイン部53は、コンテンツ情報表示部54、コンテンツ部55、歌選択メニュー部56、ブログパーツ選択メニュー部57、評価部58、コメント表示部59が、各々配置されている。
コンテンツ情報表示部54は、コンテンツ部55に表示されたコンテンツに関する情報として、例えば、曲名、コンテンツの位置情報、コンテンツのタグ情報等を表示する。
制御部10は、コンテンツ部55に、例えば、Flash(登録商標)を用いてコンテンツを表示する。その場合、コンテンツは、Flashを用いて再生するため、「.swf」の拡張子であるデータを用いることで、端末7で処理をしながらコンテンツを再生することができる。ここで、コンテンツとは、アバター編集サーバ3の制御部10(再生データ送信部17)により送信された音声データと、動作付きのアバターのデータとに基づき、端末7の表示部40で再生されるものをいう。
歌選択メニュー部56は、歌声を録音して音声データを取得するための楽曲や、他人のコンテンツを選択するメニューを表示する。
The
The content
The
The song
ブログパーツ選択メニュー部57は、このTOPページ50を他のブログに貼り付けるためのTOPページ50のネットワーク上の位置データを含むHTML(HyperText Markup Language)タグを表示する。
評価部58は、コンテンツを閲覧したユーザによる、再生したコンテンツに対する評価を、一見して把握できるように、例えば、レーダーチャートの形式で表示する。また、操作部41を操作して、評価を評価部58に入力して送信することで、アバター編集サーバ3は、ユーザからの評価を反映する。
コメント表示部59は、寄せ書きのように、端末7でコンテンツを視聴したユーザが、コンテンツに関する感想や意見をコメントとして記載して登録することで、コンテンツに関するコメントを表示する。
The blog part
The
The
次に、歌選択メニュー部56について説明する。歌選択メニュー部56には、「1人で歌う」メニュー56Aと、「今見ている動画に声を重ねる」メニュー56Bとが設けられている。歌選択メニュー部56のメニュー56Aを選択することで、制御部10は、表示部40に、例えば、別ページを表示して、コンテンツ情報表示部54に示された楽曲のカラオケを再生する。楽曲のカラオケは、後述する楽曲コンテンツテーブル35に記憶された楽曲データを用いて実現できる。そして、アバター編集サーバ3は、端末7のマイク43(図1)からの音声の入力を受け付け可能にする。その後、アバター編集サーバ3は、受け付けた音声データを、音声テーブル32に記憶する。
Next, the song
また、メニュー56Bを選択することで、表示部40に、例えば、別ページが表示され、コンテンツ部55に表示された再生中のコンテンツと再生中のコンテンツの歌詞とが表示される。そして、アバター編集サーバ3は、端末7のマイク43からの音声の入力を受け付け可能にする。その後、アバター編集サーバ3は、端末7から受け付けた音声データを、再生中のコンテンツの音声データに対応付けて、音声テーブル32に記憶する。
なお、歌声を録音して音声データを取得することは、歌選択メニュー部56から行う以外に、メニュー部52から表示された投稿可能曲のリストを選択して、そこから楽曲のカラオケを再生して行ってもよい。
Further, by selecting the
In addition to recording the singing voice and acquiring the voice data, in addition to performing from the song
ここで、コンテンツ部55に表示するコンテンツを構成する、アバターを格納する基本アバターテーブル31、音声データを格納した音声テーブル32、楽曲のデータを格納した楽曲コンテンツテーブル35について説明する。
図3は、本実施形態に係る基本アバターテーブル31、音声テーブル32及び楽曲コンテンツテーブル35を示す図である。
Here, the basic avatar table 31 for storing avatars, the audio table 32 for storing audio data, and the music content table 35 for storing music data, which constitute the content to be displayed on the
FIG. 3 is a diagram showing the basic avatar table 31, the audio table 32, and the music content table 35 according to the present embodiment.
図3(a)の基本アバターテーブル31は、ユーザ及びユーザに対応するアバターに関するデータを記憶するテーブルであり、ユーザID311、アバターID312、基本アバター画像313、ページデータ314の各項目からなる。
ユーザID311には、ユーザを一意に表す記号を格納する。アバターID312には、ユーザに対応するアバターを一意に表す記号を格納する。基本アバター画像313には、アバターIDに対応するユーザのアバターの画像データを格納する。
The basic avatar table 31 in FIG. 3A is a table that stores data related to the user and the avatar corresponding to the user, and includes items of a
The
ページデータ314には、ユーザに関する情報が掲載されたページであるマイページのページデータを格納する。マイページは、ウェブページの一種であり、そのユーザのお気に入りのコンテンツやそのコンテンツの評価等を掲載するものである。アバターには、そのアバターに対応したマイページを表示する機能を有することで、例えば、コンテンツの作成ユーザの詳細を知りたい場合に、ユーザが、操作部41によりコンテンツ上のアバターを選択することで、このマイページを表示することができる。このように、制御部10は、選択されたアバターのマイページを表示することで、ユーザは、そのユーザのお気に入りのコンテンツや、そのユーザが作成した他のコンテンツ等の情報を簡単に知ることができる。そして、ユーザは、他のユーザのお気に入りのコンテンツから、新たに気に入るコンテンツを見つけることができる。
The
図3(b)の音声テーブル32は、コンテンツを記述する音声データに関するデータを記憶するテーブルであり、音声ID321、楽曲コンテンツID322、ユーザID323、音声データ324、評価データ325、コピー元音声ID326の各項目からなる。
音声ID321には、音声データ324に格納する音声データを一意に表す記号を格納する。音声ID321に格納する音声IDは、例えば、音声データを受け付けた都度、制御部10が新たな記号を付与する。楽曲コンテンツID322には、次に説明する図3(c)の楽曲コンテンツテーブル35に対応する楽曲コンテンツを一意に表す記号を格納する。ユーザID323には、図3(a)の基本アバターテーブル31に対応するユーザを一意に表す記号を格納する。音声データ324には、受け付けた音声データそのものを格納する。音声データは、例えば、拡張子が「.mp3」で表される形式のデータである。評価データ325には、後述する音声データに記憶された歌の上手さの度合いに応じて格納される評価値を格納する。コピー元音声ID326には、コンテンツをコピーした場合の元になる音声IDが格納される。コンテンツのコピーについては、後述する。
The audio table 32 in FIG. 3B is a table for storing data related to audio data describing content. Each of the
The
図3(c)の楽曲コンテンツテーブル35は、いわゆるカラオケ演奏を行うための楽曲コンテンツに関するデータを記憶するテーブルであり、楽曲コンテンツID351と楽曲データ352の項目からなる。
楽曲コンテンツID351には、楽曲コンテンツを一意に表す記号を格納する。また、楽曲データ352には、楽曲を出力するためのデータを格納する。楽曲データ352に格納するデータは、例えば、MIDI(Musical Instruments Digital Interface)形式である。また、楽曲データ352に格納するデータは、テロップとして歌詞を表示するための歌詞のデータ及びテロップを切り替えるための位置データに関連付けられている。
The music content table 35 in FIG. 3C is a table for storing data related to music content for performing so-called karaoke performance, and includes items of a
The
次に、アバター編集サーバ3におけるアバター投稿処理の流れを説明する。
図4は、本実施形態に係るアバター投稿処理のフローチャートである。アバター投稿処理により、端末7において、図2で示すTOPページ50のコンテンツ部55に、投稿したアバターのコンテンツを表示できる。
まず、ステップS1では、制御部10は、投稿する楽曲を受け付ける。つまり、ユーザが歌いたい楽曲を決定する。楽曲は、例えば、図2の歌選択メニュー部56やメニュー部52から受け付けることができる。
次に、ステップS2では、制御部10は、楽曲コンテンツテーブル35(図3)に記憶された該当の楽曲データを再生する。
Next, the flow of the avatar posting process in the
FIG. 4 is a flowchart of the avatar posting process according to the present embodiment. By the avatar posting process, the posted avatar content can be displayed on the
First, in step S1, the
Next, in step S2, the
ステップS3では、制御部10(音声受付部11)は、端末7から音声データを受け付ける。つまり、制御部10は、端末7から受信した音声データを記憶(録音)する。
In step S <b> 3, the control unit 10 (voice receiving unit 11) receives voice data from the
ここで、音声データを受け付ける録音ページ60について説明する。
図5は、本実施形態に係る録音ページ60を示す図である。
図5(a)は、楽曲を受け付けたことで、表示部40(図1)に表示される録音ページ60を示す。録音ページには、殺風景な背景62をバックに、ユーザのアバター61(画像データ)がページの中央に表示されている。ユーザのアバター61は、基本アバターテーブル31(図3)のユーザID311に対応する基本アバター画像313に格納されたアバターの画像データである。また録音ページ60の下方には、録音時間表示部63、ステータスバー64、録音開始ボタン65が表示されている。録音時間表示部63は、楽曲の全体の時間の長さと、そのうちの録音時間とを表示する。この例では、全体の長さが2分間であり、録音時間が録音開始前のため0であることを示す。また、録音時間表示部63に対応して、ステータスバー64が表示されている。録音開始ボタン65は、操作部41(図1)を操作して押下することで、次に説明する録音停止ボタン66に変更される。また、録音開始ボタン65が押下されたタイミングで、楽曲の出力を開始すると共に、録音を開始する。
Here, the
FIG. 5 is a diagram showing a
FIG. 5A shows a
図5(b)は、録音途中の録音ページ60を示す。背景62は、録音中の音声データから判断された歌の上手さの度合いによって変更される。歌の上手さの度合いは、手本になる歌のリズム、音程等を基準にして音声データのずれ具合により制御部10が判断する。制御部10は、歌の上手さの度合いが高いと判断した場合には、背景62を、より華やかなものに変更し、アバターが豪華なステージで歌っているかのような演出をする。他方、制御部10は、歌の上手さの度合いが低いと判断した場合には、背景62を、より質素なものに変更する。録音ページの下方の録音時間表示部63及びステータスバー64は、楽曲の途中であることを示している。また、録音ページ60には、現時点での歌詞67が表示され、楽曲に合わせて歌詞を出力する。さらに、図5(a)の録音開始ボタン65の位置には、録音停止ボタン66が表示されている。
FIG. 5B shows a
図5(c)は、楽曲の出力が終了した時点での録音ページ60を示す。背景62は、歌い終わった時点において、録音した音声データから最終的な歌の上手さの度合いによって変更される。なお、最終的な歌の上手さの度合いである評価値は、音声データと共に図3で説明した音声テーブル32の評価データ325に記憶される。録音ページの下方の録音時間表示部63及びステータスバー64は、楽曲の出力が終了したことを示している。また、図5(b)の録音停止ボタン66が削除され、代わって決定ボタン68が表示される。
FIG.5 (c) shows the
図4に戻り、ステップS4では、制御部10(タイムライン生成部12)は、タイムラインを生成して端末7に送信する。
Returning to FIG. 4, in step S <b> 4, the control unit 10 (timeline generation unit 12) generates a timeline and transmits it to the
ここで、端末7の表示部40に表示されるアクション作成ページ70について説明する。
図6は、本実施形態に係るアクション作成ページ70を示す図である。
アクション作成ページ70は、ページの上方に配置された検索部71と、その下方に設けられたアクション作成部72とからなり、視覚的に表示された音声データを見ながら、ユーザがアバターにアクション(動作)を付与して、動作付きのアバターを生成して、アバターを躍らせるような演出を行うためのページである。検索部71は、後からアバターにアクションを付けたい場合等に、ユーザ名や曲名を入れて検索するためのものである。そして、制御部10は、検索結果の音声データを記憶部30から読み出して、タイムラインを生成して表示する。
Here, the
FIG. 6 is a diagram showing an
The
アクション作成部72は、楽曲の曲名や音声データの元である発声元のユーザ名等を表示する曲名部73と、音声データに合わせてアクションを付けるためのタイムライン部74(タイムライン)とからなる。タイムライン部74は、楽曲の長さを横軸に表して、曲の拍や小節の単位で区切りの印を入れて表示する。タイムライン部74は、縦軸側に、上から下に向かって、アバターにアクションを付与するためのアクション構成部75、音声データを視覚的に表示する音声表示部76、曲の歌詞を表示する歌詞表示部77を有する。音声表示部76には、録音した音声データを分析して、例えば、音量や音の高低を波形を表示させる。歌詞表示部77には、上述した楽曲データに関連付けられたテロップとして歌詞を表示するための歌詞のデータと、テロップを切り替えるための位置データとを用いて、歌詞を表示させる。
The
アクション構成部75には、ユーザが操作部41を操作することで、好みの場所にアクション選択ボックス78を表示させる。そして、好きなアクション名を選択して、アクション構成部75に貼り付けることで、アクション構成部75には、アクション名(動作付与表示)が配置される。このようにすることで、アバターを構成するパーツに、該当のアクションを付けることができる。アクション選択ボックス78には、パーツテーブル33に記憶されたものを表示させる。
The
ここで、パーツテーブル33について説明する。
図7は、本実施形態に係るパーツテーブル33を示す図である。
パーツテーブル33は、パーツID331、アクション名332、パーツデータ333の各項目からなる。
パーツID331には、アクションのパーツを一意に表す記号を格納する。アクション名332には、アクション構成部75(図6)に表示するアクションの名称を格納する。また、アクション選択ボックス78(図6)には、このアクション名332に格納されたアクション名を表示する。パーツデータ333には、座標データの形態であるパーツのアクション自体のデータを格納する。
Here, the parts table 33 will be described.
FIG. 7 is a diagram showing a parts table 33 according to the present embodiment.
The parts table 33 includes items of a
The
図6に戻って、アクション構成部75に配置するアクションの長さは、操作部41を操作することで、好みの長さに変更できる。また、アクション構成部75に配置するアクションは、一度貼り付けたパーツを操作部41の操作によって移動することができる。さらに、同じタイミングの場所に、複数のアクションを付与することもできる。例えば、手を挙げるというアバターの手に関する動作と、歩くという足に関する動作とであれば、同じタイミングの場所に付与することができる。プレビューボタン79は、ユーザが確認できるように、付与したアクションを再生するためのボタンである。決定ボタン80は、アクション構成部75に付与したアクションを、動作データとしてアバター編集サーバ3に送信するためのボタンである。
Returning to FIG. 6, the length of the action arranged in the
このように、アバター編集サーバ3は、音声データの再生位置を視覚的に表示するタイムライン部74を含むアクション作成ページ70を生成して端末7に出力するので、端末7のユーザは、アクション名をアクション構成部75上に配置することができ、配置したアクション名に対応する動作データを端末7から受け付けることで、好みの動作をアバターに与えることができる。よって、アクション構成部75上にアクション名を配置するという、直感的に分かり易く、しかもユーザにとって簡単なユーザインタフェースを用いて、動作付きのアバターを生成することができる。
また、アバター編集サーバ3は、アクション構成部75上の同一の範囲に複数のアクション名を配置できるので、様々な複雑な動作をアバターに付与することができる。
さらに、アバター編集サーバ3は、端末7から受け付けた音声データとアバターの画像データとを関連付けるので、動作を加えることで、アバターに、歌い、踊っているかのような演出を与えることができる。
Thus, since the
Moreover, since the
Furthermore, since the
図4に戻り、ステップS5では、制御部10(動作データ受付部14)は、端末7から動作データを受け付ける。具体的には、上述の図6のように、端末7で決定ボタン80が選択されたことで動作データが送信されるため、制御部10は、その動作データを受け付ける。
ステップS6では、制御部10(アバター生成部15)は、動作付きアバター生成処理を行う。
Returning to FIG. 4, in step S <b> 5, the control unit 10 (operation data reception unit 14) receives operation data from the
In step S6, the control part 10 (avatar production | generation part 15) performs an avatar production | generation process with operation | movement.
ここで、動作付きアバター生成処理について説明する。
図8は、本実施形態に係る動作付きアバター生成処理のフローチャートである。
まず、ステップS11では、アバター生成部15は、動作データに含む動作付与表示から、当該動作付与表示に対応するパーツデータを、パーツテーブル33から抽出する。
ステップS12では、アバター生成部15は、パーツデータに対して連続動作を表現するパーツの座標データをレンダリングして、アバターを生成する。そして、アバター生成部15は、生成したアバターの動作データを、動作付きアバターテーブル34に記憶する。
Here, the avatar generation process with operation will be described.
FIG. 8 is a flowchart of the avatar generation process with operation according to the present embodiment.
First, in step S <b> 11, the
In step S <b> 12, the
ここで、動作付きアバターテーブル34について説明する。
図9は、本実施形態に係る動作付きアバターテーブル34を示す図である。
動作付きアバターテーブル34は、アバターID341、音声ID342、時間位置343、アバター動作データ344の各項目からなる。
アバターID341には、図3(a)の基本アバターテーブル31に対応するアバターを一意に表す記号を格納する。音声ID342には、図3(b)の音声テーブル32に対応する音声データを一意に表す記号を格納する。時間位置343には、秒単位での時間を格納する。アバター動作データ344には、座標データの形態であるアバターのアクション自体のデータを格納する。
Here, the avatar table with
FIG. 9 is a diagram showing an avatar table with
The avatar table with
The
ステップS13では、アバター生成部15は、全ての動作データに対して処理をしたか否かを判断する。全ての動作データに対して処理を行った場合(ステップS13:YES)には、アバター生成部15は、処理をステップS14に移す。他方、全ての動作データに対して処理を行っていない場合(ステップS13:NO)には、アバター生成部15は、処理をステップS11に移す。
ステップS14では、アバター生成部15は、タイムライン上に隣り合って配置された動作付与表示があるか否かを判断する。タイムライン上に隣り合って配置された動作付与表示がある場合(ステップS14:YES)には、アバター生成部15は、処理をステップS15に移す。他方、タイムライン上に隣り合って配置された動作付与表示がない場合(ステップS14:NO)には、アバター生成部15は、本処理を終了する。
ステップS15では、アバター補完部15Aは、隣り合って配置されたアバターの間を補完するアバターを生成する。そして、アバター生成部15は、生成したアバターの動作データを、動作付きアバターテーブル34に記憶する。その後、アバター生成部15は、本処理を終了する。
In step S13, the
In step S <b> 14, the
In step S15, the
次に、レンダリング処理及び補完処理について説明する。
図10は、本実施形態に係るレンダリング処理及び補完処理の説明のための図である。
図10(a)は、連続する動作のレンダリング処理の方法を模式化したものであり、丸82と棒83とで表された部分は、アバターの腕の部分であり、丸82が関節等を、棒83が骨等を示す。時間の経過と共に、丸82と棒83とが移動することで、手を振る動作を表現する。このアバターの腕のパーツの座標データに、ポリゴンを用いて肉付けして、画像を描画する。
図10(b)は、アバターの動作を補完する補完処理を説明する図である。例えば、図6に示す例では、アクション構成部75に配置したアクションのうち「Action1」と「Action5」とは隣り合ったアクションである。ここで、「Action1」の最後のアクション(#1)と、「Action5」の最初のアクション(#2)とのパーツの位置が離れている場合、その間のアクションがないと、滑らかな動きにならない。そこで、隣り合ったアクションの間を補完するアクションを生成する。(#1)の座標データと(#2)の座標データとから、中間の位置の座標データを作成する。このように、中間の座標データにより、滑らかな動きを演出できる。
Next, the rendering process and the complement process will be described.
FIG. 10 is a diagram for explaining the rendering process and the complementing process according to the present embodiment.
FIG. 10A schematically shows a method for rendering a continuous motion. A portion represented by a
FIG.10 (b) is a figure explaining the complement process which complements the operation | movement of an avatar. For example, in the example illustrated in FIG. 6, “
図4に戻り、ステップS7では、制御部10は、端末7に対して再生データを送信する。再生データは、座標データからなるデータであり、再生データを受信した端末7は、座標データから画像データを生成して表示部40に表示する。例えば、図6のプレビューボタン79を選択したことで、制御部10は、上述のステップS5からこのステップS7までの処理を行う。
ステップS8では、制御部10は、端末7からアバターの投稿を受け付ける。例えば、図6の決定ボタン80を選択したことで、制御部10は、このステップS8の処理を行う。その後、制御部10は、本処理を終了する。
Returning to FIG. 4, in step S <b> 7, the
In step S <b> 8, the
このように、アバターの投稿を受け付けたことで、アバター編集サーバ3は、生成した動作付きのアバターと音声データとを、音声データを送信した端末7とは異なる端末7に送信するので、異なる端末7を操作するユーザは、音声データを送信したユーザが作成した動作付きのアバターと音声データとからなるコンテンツを、視聴することができる。
Thus, since the
次に、アバター合成処理について説明する。
図11は、本実施形態に係るアバター合成処理のフローチャートである。
ここで、アバター合成処理とは、再生中のコンテンツに、端末7から受け付けた音声データを追加するものであり、あたかも、再生中のコンテンツに対してハモリを加えたり、デュエットをしたりしたかのような演出を行うものである。例えば、図2において、メニュー56Bを選択した場合に行われる。なお、本処理の説明中、再生中のコンテンツを作成したユーザの端末を、端末7A、再生中のコンテンツに音声データを追加するユーザの端末を、端末7Bと記載して区別する。
Next, the avatar composition process will be described.
FIG. 11 is a flowchart of the avatar composition process according to this embodiment.
Here, the avatar composition processing is to add the audio data received from the
まず、ステップS21では、制御部10は、端末7Bから音声データを受け付ける。
次に、ステップS22では、制御部10は、端末7Aのユーザが作成したコンテンツであり、端末7Bで再生中のコンテンツをコピーする。具体的には、図3(b)の音声テーブル32の音声ID321に記憶された該当の音声データの音声IDを、コピー元音声ID326に記憶したレコードを新たに作成して、作成したレコードの音声ID321に、新たな音声IDを付与する。
First, in step S21, the
Next, in step S22, the
ステップS23では、制御部10は、受け付けた音声データを、コピーしたコンテンツに追加する。具体的には、新たな音声IDを付与したレコードの音声データ324に、受け付けた音声データを格納する。
ステップS24では、制御部10(アバター生成部15)は、音声データの受付元の端末7Bのユーザのアバターを、コピーしたコンテンツに追加する。具体的には、新たな音声IDを付与したレコードのユーザID323に、受け付けた端末7BのユーザのユーザIDを格納する。このようにすることで、新たな音声IDを付与したレコードのコンテンツを再生する場合には、当該レコードと、コピー元音声ID326に格納された音声IDのレコードと、を用いることで、アバターを合成し、音声を合成することができる。その後、制御部10は、本処理を終了する。
In step S23, the
In step S24, the control part 10 (avatar production | generation part 15) adds the user's avatar of the terminal 7B of the reception origin of audio | voice data to the copied content. Specifically, the user ID of the user of the received terminal 7B is stored in the
このように、アバター編集サーバ3は、生成した動作付きのアバターと音声データとからなるコンテンツに、音声データを追加し、別のアバターを生成して合成アバターを新たに作成することができる。よって、元の楽曲にハモリを加えたり、合唱やデュエット等をしたりする様子を演出できる。
As described above, the
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。 As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used in combination as appropriate, detailed description is abbreviate | omitted.
(変形形態)
(1)本実施形態において、アバターに動作を付与するアクションは、アクション選択ボックスに表示される予め決められたものから選択する例を示したが、これに限定されない。例えば、会員や所定の回数投稿した場合等、特典を満たした場合に、アクション選択ボックスに表示されるアクションの種類を増やしてもよい。
(2)本実施形態において、アバター合成処理では、アバターを追加する例を示したが、これに限定されない。例えば、アバターよりも画像データ量の少ないユーザの静止画等を追加することで、サーバの処理の負荷を軽減できる。
(3)本実施形態において、各種テーブルを用いてサーバでの処理を説明したが、テーブルの構成等はこれに限定されない。本機能を実現できるものであれば、テーブルの構成はどのようなものであってもよい。
(Deformation)
(1) In this embodiment, although the example which selects the action which gives operation | movement to an avatar from the predetermined thing displayed on an action selection box was shown, it is not limited to this. For example, the types of actions displayed in the action selection box may be increased when a privilege is satisfied, such as when a member or a predetermined number of posts are made.
(2) In the present embodiment, in the avatar synthesis process, an example of adding an avatar has been shown, but the present invention is not limited to this. For example, the processing load of the server can be reduced by adding a still image of a user whose image data amount is smaller than that of an avatar.
(3) In the present embodiment, the processing in the server has been described using various tables, but the configuration of the table is not limited to this. As long as this function can be realized, the configuration of the table may be any.
1 アバターシステム
3 アバター編集サーバ
7、7A、7B 端末
10 制御部
11 音声受付部
12 タイムライン生成部
14 動作データ受付部
15 アバター生成部
15A アバター補完部
17 再生データ送信部
25 通信インタフェース部
30 記憶部
31 基本アバターテーブル
32 音声テーブル
33 パーツテーブル
34 動作付きアバターテーブル
35 楽曲コンテンツテーブル
39 アバター編集プログラム
40 表示部
41 操作部
42 スピーカ
43 マイク
70 アクション作成ページ
75 アクション構成部
DESCRIPTION OF
Claims (10)
前記端末のアバターの基本になる画像データを記憶する基本アバター記憶部と、
前記端末から送信された音声データを受け付ける音声受付部と、
前記音声受付部により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて記憶する音声記憶部と、
前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成部と、
を備えること、
を特徴とするアバター編集サーバ。 In an avatar editing server that is connected to a terminal via a communication network and edits an avatar played on the terminal,
A basic avatar storage for storing image data that is the basis of the avatar of the terminal;
A voice reception unit for receiving voice data transmitted from the terminal;
An audio storage unit that stores the audio data received by the audio reception unit in association with the image data stored in the basic avatar storage unit;
In response to an operation from the terminal, an avatar generation unit that generates an avatar with an operation by adding an operation to the image data associated with the audio data stored in the audio storage unit;
Providing
An avatar editing server characterized by
前記音声記憶部に記憶された前記音声データの再生位置を視覚的に表示するタイムラインを生成して、前記端末に出力するタイムライン生成部と、
前記アバターを構成するパーツであるパーツデータを記憶するパーツ記憶部と、
前記端末で前記パーツに動作を付与するための表示である動作付与表示が前記タイムラインの上に配置されたことに応じて、前記動作付与表示と前記動作付与表示に対応する前記再生位置とを含む動作データを、前記端末から受け付ける動作データ受付部と、
を備え、
前記アバター生成部は、前記動作データ受付部により受け付けた前記動作データに基づき、前記画像データを構成する前記パーツデータに動作を加えて動作付きのアバターを生成すること、
を特徴とするアバター編集サーバ。 The avatar editing server according to claim 1,
A timeline generating unit that generates a timeline for visually displaying the reproduction position of the audio data stored in the audio storage unit and outputs the timeline to the terminal;
A parts storage unit for storing parts data which is a part constituting the avatar;
In response to an action giving display being a display for giving an action to the part at the terminal being arranged on the timeline, the action giving display and the reproduction position corresponding to the action giving display are displayed. An operation data receiving unit that receives operation data including the operation data from the terminal;
With
The avatar generating unit generates an avatar with an operation by adding an operation to the part data constituting the image data based on the operation data received by the operation data receiving unit;
An avatar editing server characterized by
前記パーツ記憶部に記憶された前記パーツデータは、座標データの形態のものであり、
前記アバター生成部は、前記動作データに含む前記動作付与表示から前記動作付与表示に対応する前記パーツデータを前記パーツ記憶部から抽出し、抽出した前記パーツデータに対して連続動作を表現するパーツの前記座標データをレンダリングして、前記アバターを生成すること、
を特徴とするアバター編集サーバ。 In the avatar edit server according to claim 2,
The parts data stored in the parts storage unit is in the form of coordinate data,
The avatar generation unit extracts the part data corresponding to the action giving display from the action giving display included in the action data from the parts storage unit, and expresses a continuous action for the extracted part data. Rendering the coordinate data to generate the avatar;
An avatar editing server characterized by
前記動作データ受付部は、前記端末において異なる動作を示す複数の前記動作付与表示を前記タイムラインの上の同一の範囲に配置した前記動作データを、前記端末から受け付けること、
を特徴とするアバター編集サーバ。 In the avatar edit server according to claim 2 or 3,
The operation data receiving unit receives, from the terminal, the operation data in which a plurality of the operation giving indications indicating different operations in the terminal are arranged in the same range on the timeline;
An avatar editing server characterized by
前記動作データ受付部は、前記端末において異なる動作を示す複数の前記動作付与表示を、前記タイムラインの上に複数配置した前記動作データを、前記端末から受け付け、
前記アバター生成部は、
前記タイムラインの上に隣り合って配置された2つの前記動作付与表示に対応する前記動作データに基づき前記動作付きのアバターを生成し、
生成した前記動作付きのアバターを連続して動作をさせるように、生成した2つの前記動作付きのアバターの間を補完する前記動作付きのアバターを生成するアバター補完部を備えること、
を特徴とするアバター編集サーバ。 In the avatar edit server according to any one of claims 2 to 4,
The operation data receiving unit receives, from the terminal, the operation data in which a plurality of the operation giving displays indicating different operations in the terminal are arranged on the timeline,
The avatar generator is
Generating an avatar with the action based on the action data corresponding to the two action giving indications arranged adjacent to each other on the timeline;
An avatar complementing unit that generates the avatar with the operation for complementing between the two generated avatars with the operation so as to continuously operate the generated avatar with the operation;
An avatar editing server characterized by
前記通信ネットワークを介して接続された他の端末からの前記アバターの表示要求を受け付けることで、前記アバター生成部により生成された前記動作付きのアバターと、前記アバターに対応付けて前記音声記憶部に記憶された音声データとを前記他の端末に再生可能に送信する再生データ送信部を備えること、
を特徴とするアバター編集サーバ。 In the avatar edit server according to any one of claims 1 to 5,
By accepting the display request of the avatar from another terminal connected via the communication network, the avatar with the action generated by the avatar generation section and the voice storage section in association with the avatar. Comprising a reproduction data transmission unit for reproducibly transmitting the stored audio data to the other terminal,
An avatar editing server characterized by
前記音声受付部は、前記再生データ送信部により送信され、前記他の端末で再生された音声データに対応する他の音声データを受け付け、
前記音声記憶部は、前記他の音声データを、前記音声データに対応付けて記憶すること、
を特徴とするアバター編集サーバ。 The avatar editing server according to claim 6,
The voice receiving unit receives other voice data corresponding to the voice data transmitted by the playback data transmission unit and played by the other terminal,
The voice storage unit stores the other voice data in association with the voice data;
An avatar editing server characterized by
前記アバター生成部は、前記他の端末のアバターを生成して、前記端末の前記動作付きのアバターに対して合成して、合成アバターを新たに生成すること、
を特徴とするアバター編集サーバ。 The avatar editing server according to claim 7,
The avatar generation unit generates an avatar of the other terminal, synthesizes the avatar with the operation of the terminal, and newly generates a composite avatar;
An avatar editing server characterized by
前記アバター生成部は、前記基本アバター記憶部に記憶された前記他の端末の前記画像データを、前記端末の前記動作付きのアバターと共に表示するように合成アバターを生成すること、
を特徴とするアバター編集サーバ。 The avatar editing server according to claim 7,
The avatar generation unit generates a composite avatar so as to display the image data of the other terminal stored in the basic avatar storage unit together with the avatar with the operation of the terminal;
An avatar editing server characterized by
前記アバター編集サーバを、
前記端末から送信された音声データを受け付ける音声受付手段と、
前記音声受付手段により受け付けた前記音声データを、前記基本アバター記憶部に記憶された前記画像データに関連付けて音声記憶部に記憶させる音声記憶手段と、
前記端末からの操作に応じて、前記音声記憶部に記憶された前記音声データに関連付けられた前記画像データに動作を加えて、動作付きのアバターを生成するアバター生成手段と、
して機能させること、
を特徴とするアバター編集プログラム。 An avatar editing server that is connected to a terminal via a communication network and edits an avatar to be played on the terminal includes a basic avatar storage unit that stores image data that is a basis of the avatar of the terminal, and the avatar editing server An avatar editing program executed in
The avatar editing server,
Voice receiving means for receiving voice data transmitted from the terminal;
Voice storage means for storing the voice data received by the voice reception means in a voice storage section in association with the image data stored in the basic avatar storage section;
An avatar generating means for generating an avatar with an action by adding an action to the image data associated with the voice data stored in the voice storage unit in response to an operation from the terminal;
Make it work,
An avatar editing program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008229681A JP2010066789A (en) | 2008-09-08 | 2008-09-08 | Avatar editing server and avatar editing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008229681A JP2010066789A (en) | 2008-09-08 | 2008-09-08 | Avatar editing server and avatar editing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010066789A true JP2010066789A (en) | 2010-03-25 |
Family
ID=42192366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008229681A Pending JP2010066789A (en) | 2008-09-08 | 2008-09-08 | Avatar editing server and avatar editing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010066789A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014197414A (en) * | 2014-06-18 | 2014-10-16 | グリー株式会社 | Moving image output device, moving image output method, and program |
JP2015109094A (en) * | 2014-12-19 | 2015-06-11 | グリー株式会社 | Moving image output device, moving image output method, and program |
JP2016197398A (en) * | 2015-04-03 | 2016-11-24 | ネイバー コーポレーションNAVER Corporation | System and method for providing content |
KR101810023B1 (en) | 2011-03-28 | 2018-01-26 | 에스케이플래닛 주식회사 | An apparatus for producing multimedia content aided generating dialogue, a terminal thereof, a method thereof and a computer recordable medium storing the method |
US10104333B2 (en) | 2011-06-02 | 2018-10-16 | Gree, Inc. | Vector data conversion output device, vector data conversion output method, and vector data conversion output program |
JP2019192174A (en) * | 2018-04-27 | 2019-10-31 | 株式会社コロプラ | Program, information processing device, and method |
US10755446B2 (en) | 2015-04-02 | 2020-08-25 | Naver Corporation | System and method for providing contents using automatic margin creation |
WO2022062808A1 (en) * | 2020-09-24 | 2022-03-31 | 游艺星际(北京)科技有限公司 | Portrait generation method and device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981782A (en) * | 1995-07-12 | 1997-03-28 | Sony Corp | Method and system for three-dimensional virtual reality space, medium and method for recording information, medium and method for transmitting information, information processing method, client terminal, and common-use server terminal |
JPH1127649A (en) * | 1997-07-01 | 1999-01-29 | Matsushita Electric Ind Co Ltd | Television broadcast system and program generating method used for it |
JP2003346173A (en) * | 2002-05-24 | 2003-12-05 | Tokei Jikake:Kk | Delivery system of character/animation |
JP2004053736A (en) * | 2002-07-17 | 2004-02-19 | Daiichikosho Co Ltd | Method for using karaoke system |
JP2006048901A (en) * | 2005-06-27 | 2006-02-16 | Matsushita Electric Ind Co Ltd | Multimedia information reproducing device and multimedia information recording device |
-
2008
- 2008-09-08 JP JP2008229681A patent/JP2010066789A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981782A (en) * | 1995-07-12 | 1997-03-28 | Sony Corp | Method and system for three-dimensional virtual reality space, medium and method for recording information, medium and method for transmitting information, information processing method, client terminal, and common-use server terminal |
JPH1127649A (en) * | 1997-07-01 | 1999-01-29 | Matsushita Electric Ind Co Ltd | Television broadcast system and program generating method used for it |
JP2003346173A (en) * | 2002-05-24 | 2003-12-05 | Tokei Jikake:Kk | Delivery system of character/animation |
JP2004053736A (en) * | 2002-07-17 | 2004-02-19 | Daiichikosho Co Ltd | Method for using karaoke system |
JP2006048901A (en) * | 2005-06-27 | 2006-02-16 | Matsushita Electric Ind Co Ltd | Multimedia information reproducing device and multimedia information recording device |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101810023B1 (en) | 2011-03-28 | 2018-01-26 | 에스케이플래닛 주식회사 | An apparatus for producing multimedia content aided generating dialogue, a terminal thereof, a method thereof and a computer recordable medium storing the method |
US10104333B2 (en) | 2011-06-02 | 2018-10-16 | Gree, Inc. | Vector data conversion output device, vector data conversion output method, and vector data conversion output program |
JP2014197414A (en) * | 2014-06-18 | 2014-10-16 | グリー株式会社 | Moving image output device, moving image output method, and program |
JP2015109094A (en) * | 2014-12-19 | 2015-06-11 | グリー株式会社 | Moving image output device, moving image output method, and program |
US10755446B2 (en) | 2015-04-02 | 2020-08-25 | Naver Corporation | System and method for providing contents using automatic margin creation |
JP2016197398A (en) * | 2015-04-03 | 2016-11-24 | ネイバー コーポレーションNAVER Corporation | System and method for providing content |
US10255711B2 (en) | 2015-04-03 | 2019-04-09 | Naver Corporation | System and method for providing contents by merging layers of page to which motion effect is set |
JP2019192174A (en) * | 2018-04-27 | 2019-10-31 | 株式会社コロプラ | Program, information processing device, and method |
JP7258472B2 (en) | 2018-04-27 | 2023-04-17 | 株式会社コロプラ | Program, Information Processing Apparatus, and Method |
WO2022062808A1 (en) * | 2020-09-24 | 2022-03-31 | 游艺星际(北京)科技有限公司 | Portrait generation method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010066789A (en) | Avatar editing server and avatar editing program | |
JP5122407B2 (en) | Content editing server and content editing program | |
JP5949607B2 (en) | Speech synthesizer | |
JP4755672B2 (en) | Content editing apparatus, method and program | |
JP6452229B2 (en) | Karaoke sound effect setting system | |
JP5151245B2 (en) | Data reproducing apparatus, data reproducing method and program | |
JP2012198380A (en) | Display control device | |
JP4483936B2 (en) | Music / video playback device | |
JP2006189471A (en) | Program, singing ability decision method, and decision system | |
JP6070952B2 (en) | Karaoke device and karaoke program | |
JP2011133882A (en) | Video with sound synthesis system, and video with sound synthesis method | |
JP6058991B2 (en) | Singing video selection system corresponding to singing voice | |
JP2011191357A (en) | Karaoke system | |
JP5789477B2 (en) | Image reproduction apparatus and image reproduction system | |
JP5439994B2 (en) | Data collection / delivery system, online karaoke system | |
JP6121139B2 (en) | Singing voice selection system for karaoke singing video | |
JP5146974B1 (en) | Method and apparatus for creating program image | |
JP2017108198A (en) | Musical score display system, moving image data supply device, musical score data supply device, image display device and musical score display program | |
JP6574697B2 (en) | Karaoke system | |
JP2021157007A (en) | Photo movie generation system, photo movie generation device, user terminal, photo movie generation method, and program | |
JP6611633B2 (en) | Karaoke system server | |
JP2005300739A (en) | Device for editing musical performance data | |
JP2016014781A (en) | Singing synthesis device and singing synthesis program | |
JP4075434B2 (en) | Music and video playback device | |
JP4804984B2 (en) | A karaoke system that accepts playback requests for model songs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20100305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100408 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20100415 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120808 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120828 |