JP2009301477A - Content editing device, method and program - Google Patents

Content editing device, method and program Download PDF

Info

Publication number
JP2009301477A
JP2009301477A JP2008157800A JP2008157800A JP2009301477A JP 2009301477 A JP2009301477 A JP 2009301477A JP 2008157800 A JP2008157800 A JP 2008157800A JP 2008157800 A JP2008157800 A JP 2008157800A JP 2009301477 A JP2009301477 A JP 2009301477A
Authority
JP
Japan
Prior art keywords
content
unit
song
dimensional space
background image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008157800A
Other languages
Japanese (ja)
Other versions
JP4755672B2 (en
Inventor
Yoshitaka Tsutsui
美宇 筒井
Masaru Ichikawa
勝 市川
Yukiko Mori
有紀子 森
Yosuke Hayakawa
洋輔 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2008157800A priority Critical patent/JP4755672B2/en
Publication of JP2009301477A publication Critical patent/JP2009301477A/en
Application granted granted Critical
Publication of JP4755672B2 publication Critical patent/JP4755672B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Stereophonic System (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a content editing device, method and program, for accompanying a change in regeneration of a content, by carrying out an edition for a user to be hardly tired. <P>SOLUTION: This content editing device 1 includes a request content extracting part 11 for extracting a music content comprising a music data and an avator image arranged in a virtual space, from a music content DB 22, in response to reception of a regeneration request of the music content and an assignment of a background image, and for extracting the background image serving as a background of the virtual space, from a background DB 24, a three-dimensional space generating part 12 for a new virtual space by composing the extracted background image in the virtual space of the extracted music content, a music data changing part 13 for changing the music data, based on an echo sound set value corresponding to the extracted background image from the background DB 24, and a content regeneration part 18 for regenerating the changed music data, and the avator image arranged in the generated new virtual space. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、曲データと仮想空間とを関連付けたコンテンツを編集するためのコンテンツ編集装置、方法及びプログラムに関する。   The present invention relates to a content editing apparatus, method, and program for editing content in which song data is associated with a virtual space.

従来、記憶媒体に記憶された楽曲や映像等のコンテンツを、ユーザがパーソナルコンピュータ(PC)等で再生することが行われている。また、インターネットの飛躍的な普及に伴い、ウェブページ上で視聴可能になっている楽曲や映像等のコンテンツを、ユーザがPC等で再生することが行われている。そして、ユーザは、複数のコンテンツの再生順を記憶したプレイリストを作成しそれを用いることで、ユーザに、好みのコンテンツを順番に再生することが行われている。そこで、複数のプレイリストから再生するプレイリストの切り替えを自発的に行う再生装置が開示されている(例えば、特許文献1)。
特開2007−66370号公報
2. Description of the Related Art Conventionally, a user plays back content such as music and video stored in a storage medium on a personal computer (PC) or the like. In addition, with the rapid spread of the Internet, content such as music and video that can be viewed on a web page is played by a user on a PC or the like. And a user reproduces | regenerates a favorite content to a user in order by producing and using the play list which memorize | stored the reproduction | regeneration order of several content. Thus, a playback device that spontaneously switches playlists to be played back from a plurality of playlists is disclosed (for example, Patent Document 1).
JP 2007-663370 A

特許文献1に記載の再生装置は、コンテンツのデジタルデータを再生するものであるが、再生の順番を制御するにとどまる。よって、ユーザが繰り返しコンテンツを再生する場合に再生の順序が変わるだけであるので、視覚、聴覚に与える変化に乏しく、ユーザに飽きられやすいものであった。   The playback device described in Patent Document 1 plays back digital data of content, but only controls the order of playback. Therefore, when the user repeatedly reproduces the content, the order of reproduction only changes. Therefore, the change given to the visual and auditory senses is scarce and the user is easily bored.

そこで、本発明は、コンテンツの再生に変化を伴わせるユーザに飽きられにくい編集を、コンテンツに対して行うコンテンツ編集装置、方法及びプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a content editing apparatus, method, and program for performing editing on content that is difficult to be bored by a user who is accompanied by a change in the reproduction of the content.

本発明者は、コンテンツの映像と曲とを関連付けてコンテンツに変化をつける仕組みを見出し、本発明を完成するに至った。本発明は、具体的には次のようなものを提供する。   The present inventor has found a mechanism for changing the content by associating the video and music of the content, and has completed the present invention. Specifically, the present invention provides the following.

(1) 曲データと、三次元空間に配置されたオブジェクトと、からなる曲コンテンツを記憶する曲コンテンツ記憶部と、
前記三次元空間の背景として表示される背景画像と、前記背景画像に対応した反響音設定値と、を記憶する背景記憶部と、
前記曲コンテンツの再生要求及び前記背景画像の指定を受け付けたことに応じて、前記曲コンテンツ記憶部から前記曲コンテンツを抽出し、前記背景記憶部から前記背景画像を抽出する要求コンテンツ抽出部と、
前記要求コンテンツ抽出部により抽出した前記曲コンテンツの前記三次元空間の背景を、抽出した前記背景画像を用いて合成して、新たな三次元空間を生成する三次元空間生成部と、
前記曲データを、抽出した前記背景画像に対応する前記反響音設定値に基づき変更する曲データ変更部と、
前記曲データ変更部により変更された前記曲データと、前記三次元空間生成部により生成された前記新たな三次元空間に配置されたオブジェクトとを再生するコンテンツ再生部と、
を備えるコンテンツ編集装置。
(1) a song content storage unit for storing song content comprising song data and an object arranged in a three-dimensional space;
A background storage unit that stores a background image displayed as a background of the three-dimensional space, and an echo sound setting value corresponding to the background image;
A request content extraction unit that extracts the song content from the song content storage unit and extracts the background image from the background storage unit in response to receiving the reproduction request for the song content and the designation of the background image;
A three-dimensional space generation unit that generates a new three-dimensional space by combining the background of the three-dimensional space of the song content extracted by the request content extraction unit using the extracted background image;
A song data changing unit for changing the song data based on the reverberation setting value corresponding to the extracted background image;
A content reproduction unit that reproduces the song data changed by the song data change unit and the object arranged in the new three-dimensional space generated by the three-dimensional space generation unit;
A content editing apparatus comprising:

本発明のこのような構成によれば、三次元空間に配置されたオブジェクトと曲データとからなる曲コンテンツの背景を、背景画像を用いて合成して、三次元空間を生成して再生するので、曲データに三次元の画像を組み合わせたコンテンツの再生をすることができる。また、曲データを、背景画像に対応する反響音設定値で変更して、コンテンツを再生するので、コンテンツの画像と再生する曲の反響音とが対応付けられて、一体となったコンテンツを提供することができる。よって、背景画像を変更することで、ユーザの視覚や聴覚に変化を与える編集を、コンテンツに対して行うことができる。   According to such a configuration of the present invention, the background of the song content composed of the object and song data arranged in the three-dimensional space is synthesized using the background image, and the three-dimensional space is generated and reproduced. In addition, it is possible to reproduce the content in which the music data is combined with a three-dimensional image. Also, since the song data is changed with the echo sound setting value corresponding to the background image and the content is played, the content image and the echo sound of the song to be played are associated with each other to provide an integrated content can do. Therefore, by changing the background image, editing that changes the user's vision and hearing can be performed on the content.

(2) 前記曲データの曲のリズムを取得するリズム取得部を備え、
前記コンテンツ再生部は、前記新たな三次元空間に配置されたオブジェクトを前記リズム取得部により取得された前記リズムに同期させて、前記オブジェクトに動作演出をして再生する、
(1)に記載のコンテンツ編集装置。
(2) A rhythm acquisition unit that acquires the rhythm of the song of the song data is provided,
The content reproduction unit synchronizes the object arranged in the new three-dimensional space with the rhythm acquired by the rhythm acquisition unit, and reproduces the object with an effect.
The content editing apparatus according to (1).

本発明のこのような構成によれば、曲のリズムを取得して、そのリズムに同期されてオブジェクトを動作演出するので、例えば、オブジェクトであるアバター画像に、リズムに乗っているような演出を与えて、コンテンツを再生することができる。   According to such a configuration of the present invention, the rhythm of the song is acquired and the object is operated in synchronization with the rhythm. For example, the avatar image that is the object has an effect such as riding on the rhythm. The content can be played.

(3) 前記コンテンツ再生部により再生される前記新たな三次元空間の再生位置を切り替える位置切替部を備え、
前記コンテンツ再生部は、前記位置切替部による切り替えを前記リズム取得部により取得された前記リズムに同期させて、前記新たな三次元空間の再生位置を切り替えて再生する、
(2)に記載のコンテンツ編集装置。
(3) a position switching unit that switches a reproduction position of the new three-dimensional space reproduced by the content reproduction unit;
The content reproduction unit synchronizes the switching by the position switching unit with the rhythm acquired by the rhythm acquisition unit, and switches and reproduces the reproduction position of the new three-dimensional space.
The content editing apparatus according to (2).

本発明のこのような構成によれば、曲のリズムに同期されてカメラの再生位置を切り替えるので、リズムにあわせて表示されるコンテンツの視点を変化させる再生を行うことができる。   According to such a configuration of the present invention, since the playback position of the camera is switched in synchronization with the rhythm of the song, it is possible to perform playback by changing the viewpoint of the content displayed in accordance with the rhythm.

(4) 前記コンテンツ再生部により再生される前記新たな三次元空間に対する光の演出を行う光演出部を備え、
前記コンテンツ再生部は、前記光演出部による光の演出を前記リズム取得部により取得された前記リズムに同期させて、前記新たな三次元空間を再生する、
(2)又は(3)に記載のコンテンツ編集装置。
(4) A light production unit that produces light for the new three-dimensional space reproduced by the content reproduction unit,
The content reproduction unit reproduces the new three-dimensional space by synchronizing the light effect by the light effect unit with the rhythm acquired by the rhythm acquisition unit.
The content editing apparatus according to (2) or (3).

本発明のこのような構成によれば、曲のリズムに同期されて、ライトの発光を切り替えるので、リズムにあわせて変化する光の演出を行うことで、変化のあるコンテンツの再生を行うことができる。   According to such a configuration of the present invention, since the light emission is switched in synchronization with the rhythm of the music, it is possible to reproduce the content with the change by performing the effect of the light changing according to the rhythm. it can.

(5) 前記三次元空間に配置されたオブジェクトに対する操作入力に基づき、前記オブジェクトを演出表示させるオブジェクト演出部を備え、
前記コンテンツ再生部は、前記三次元空間に前記オブジェクト演出部により演出表示されたオブジェクトを配置して再生する、
(1)から(4)のいずれか1項に記載のコンテンツ編集装置。
(5) provided with an object rendering unit for rendering the object based on an operation input to the object arranged in the three-dimensional space;
The content reproduction unit arranges and reproduces the object effect-displayed by the object effect unit in the three-dimensional space;
The content editing apparatus according to any one of (1) to (4).

本発明のこのような構成によれば、オブジェクトに対する操作入力に基づきオブジェクトを演出表示させてコンテンツを再生するので、例えば、オブジェクトであるアバター画像に、動きや音を含めたコンテンツを提供することができ、より臨場感の溢れるコンテンツを提供することができる。   According to such a configuration of the present invention, since the content is reproduced by displaying the object based on the operation input to the object, for example, it is possible to provide the content including movement and sound to the avatar image that is the object. It is possible to provide content that is more realistic.

(6) 前記オブジェクトに対応する文字情報を記憶したオブジェクト記憶部を備え、
前記コンテンツ再生部は、前記オブジェクト記憶部に記憶された前記文字情報を、対応する前記オブジェクトに関連付けて前記三次元空間に配置して再生する、
(1)から(5)のいずれか1項に記載のコンテンツ編集装置。
(6) an object storage unit storing character information corresponding to the object;
The content reproduction unit reproduces the character information stored in the object storage unit in association with the corresponding object in the three-dimensional space;
The content editing device according to any one of (1) to (5).

本発明のこのような構成によれば、オブジェクトに、オブジェクトに対する文字情報を関連付けて表示するコンテンツを提供することができる。   According to such a configuration of the present invention, it is possible to provide content that is displayed by associating character information with respect to the object.

(7) 前記オブジェクト記憶部は、前記オブジェクトに対応する文字情報を複数記憶しており、
前記曲データの再生時間と前記文字情報の数とに基づき、前記文字情報を表示する表示時間を算出する表示時間算出部を備え、
前記コンテンツ再生部は、前記オブジェクト記憶部に記憶された前記文字情報を順番に切り替えて、前記表示時間算出部により算出された表示時間に対応する前記オブジェクトに関連付けて前記三次元空間に配置して再生する、
(6)に記載のコンテンツ編集装置。
(7) The object storage unit stores a plurality of pieces of character information corresponding to the object,
A display time calculation unit for calculating a display time for displaying the character information based on the reproduction time of the music data and the number of the character information;
The content reproduction unit sequentially switches the character information stored in the object storage unit and arranges the character information in the three-dimensional space in association with the object corresponding to the display time calculated by the display time calculation unit. Reproduce,
The content editing device according to (6).

本発明のこのような構成によれば、オブジェクトに対応する文字情報を複数有する場合に、曲データの再生時間と文字情報の数とに基づき、文字情報の表示時間を計算して、計算された時間内に、文字情報をオブジェクトに関連付けて表示するコンテンツを提供することができる。   According to such a configuration of the present invention, when there are a plurality of character information corresponding to the object, the display time of the character information is calculated based on the reproduction time of the song data and the number of character information, It is possible to provide content that displays character information in association with an object within time.

(8) 曲データと、三次元空間に配置されたオブジェクトと、からなる曲コンテンツを記憶する曲コンテンツ記憶部と、
前記三次元空間の背景として表示される背景画像と、前記背景画像に対応した反響音設定値と、を記憶する背景記憶部と、
を備えたコンテンツ編集装置が、
前記曲コンテンツの再生要求及び前記背景画像の指定を受け付けたことに応じて、前記曲コンテンツ記憶部から前記曲コンテンツを抽出し、前記背景記憶部から前記背景画像を抽出するステップと、
抽出した前記曲コンテンツの前記三次元空間の背景を、抽出した前記背景画像を用いて合成して、新たな三次元空間を生成するステップと、
前記曲データを、抽出した前記背景画像に対応する前記反響音設定値に基づき変更するステップと、
変更された前記曲データと、生成された前記新たな三次元空間に配置されたオブジェクトとを再生するステップと、
を含むコンテンツ編集方法。
(8) a song content storage unit for storing song content composed of song data and an object arranged in a three-dimensional space;
A background storage unit that stores a background image displayed as a background of the three-dimensional space, and an echo sound setting value corresponding to the background image;
A content editing apparatus equipped with
Extracting the song content from the song content storage unit and extracting the background image from the background storage unit in response to receiving the reproduction request of the song content and the designation of the background image;
Synthesizing the background of the extracted three-dimensional space of the song content using the extracted background image to generate a new three-dimensional space;
Changing the song data based on the reverberation setting value corresponding to the extracted background image;
Replaying the changed song data and the generated object placed in the new three-dimensional space;
Content editing method.

(9) (8)に記載の方法のステップをコンピュータに実行させるためのコンテンツ編集プログラム。   (9) A content editing program for causing a computer to execute the steps of the method according to (8).

本発明によれば、端末に、曲データに三次元の画像を組み合わせたコンテンツの再生させることができる。また、コンテンツの画像と再生する曲の反響音とが対応付けられて、一体となったコンテンツを提供することができ、背景画像を変更することで、ユーザの視覚や聴覚に変化を与える編集を、コンテンツに対して行うことができる。   According to the present invention, it is possible to cause a terminal to reproduce content in which music data is combined with a three-dimensional image. In addition, the content image and the reverberation sound of the song to be played are associated with each other, so that the integrated content can be provided, and editing that changes the visual and auditory sense of the user by changing the background image. Can be done on content.

以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.

[コンテンツ編集システムの全体構成及びコンテンツ編集装置の機能構成]
図1は、本実施形態に係るコンテンツ編集システム100の全体構成及びコンテンツ編集装置1の機能構成を示す図である。
[Entire configuration of content editing system and functional configuration of content editing apparatus]
FIG. 1 is a diagram showing an overall configuration of a content editing system 100 and a functional configuration of the content editing apparatus 1 according to the present embodiment.

コンテンツ編集システム100は、コンテンツ編集装置1と、通信ネットワーク3と、端末5とにより構成される。図1に示すように、インターネット等の通信回線に代表される通信ネットワーク3を介して、コンテンツ編集装置1と、端末5とが通信可能に接続されている。   The content editing system 100 includes a content editing device 1, a communication network 3, and a terminal 5. As shown in FIG. 1, a content editing apparatus 1 and a terminal 5 are communicably connected via a communication network 3 typified by a communication line such as the Internet.

コンテンツ編集装置1は、例えばサーバであり、ハードウェアの数に制限はなく、必要に応じて1又は複数のハードウェアで構成してよい。また、複数のハードウェアで構成する場合には、通信ネットワーク3を介して各ハードウェアを接続してもよい。例えば、後述する各機能ごとに別サーバ(装置)とし、各サーバ間での信号の送受信により、各サーバを連携させることで、本実施形態の機能を実現してもよい。   The content editing device 1 is, for example, a server, and the number of hardware is not limited, and may be configured by one or a plurality of hardware as necessary. In the case of a plurality of hardware, each hardware may be connected via the communication network 3. For example, the functions of the present embodiment may be realized by using separate servers (devices) for each function described later, and by linking the servers by transmitting and receiving signals between the servers.

コンテンツ編集装置1は、制御部10と記憶部20とを備える。制御部10は、要求コンテンツ抽出部11と、三次元空間生成部12と、曲データ変更部13と、リズム取得部14と、位置切替部15と、光演出部16と、オブジェクト演出部17と、コンテンツ再生部18とを備える。また、記憶部20は、曲コンテンツデータベース(以下、データベースをDBともいう)22と、背景DB24と、アバターDB26と、曲DB28とを備える。各DBの内容については後述する。   The content editing apparatus 1 includes a control unit 10 and a storage unit 20. The control unit 10 includes a requested content extraction unit 11, a three-dimensional space generation unit 12, a song data change unit 13, a rhythm acquisition unit 14, a position switching unit 15, a light effect unit 16, and an object effect unit 17. And a content reproduction unit 18. The storage unit 20 includes a song content database (hereinafter, the database is also referred to as a DB) 22, a background DB 24, an avatar DB 26, and a song DB 28. The contents of each DB will be described later.

要求コンテンツ抽出部11は、端末5で再生する曲コンテンツの再生要求を、背景画像の指定と共に端末5から受信したことに応じて、曲コンテンツDB22から該当の曲コンテンツを抽出する。また、要求コンテンツ抽出部11は、背景DB24から背景画像を抽出する。ここで、曲コンテンツとは、曲データと、仮想空間(三次元空間)に配置されたアバター画像(オブジェクト)とからなるものをいう。曲データは、1曲でもよいし、プレイリストに関連付けられた複数の曲であってもよい。また、アバター画像は、ユーザを代理するキャラクタの画像であり、端末5のユーザのアバター画像を含めて、複数の画像であってよい。   The requested content extraction unit 11 extracts the corresponding song content from the song content DB 22 in response to receiving a playback request for the song content to be played back on the terminal 5 from the terminal 5 together with the designation of the background image. Further, the requested content extraction unit 11 extracts a background image from the background DB 24. Here, the music content refers to music data and an avatar image (object) arranged in a virtual space (three-dimensional space). The song data may be one song or a plurality of songs associated with the playlist. The avatar image is an image of a character representing the user, and may be a plurality of images including the avatar image of the user of the terminal 5.

三次元空間生成部12は、アバター画像を配置する仮想空間を生成する。仮想空間の背景は、背景DB24から抽出された画像により構成する。アバター画像と、背景画像とを合成して、新たな仮想空間(新たな三次元空間)を生成する。曲データ変更部13は、背景画像に対応して背景DB24に記憶された反響音設定値に基づき、曲データを変更する。   The three-dimensional space generation unit 12 generates a virtual space in which an avatar image is arranged. The background of the virtual space is composed of images extracted from the background DB 24. The avatar image and the background image are combined to generate a new virtual space (new three-dimensional space). The song data changing unit 13 changes the song data based on the echo sound setting value stored in the background DB 24 corresponding to the background image.

リズム取得部14は、曲データの曲のリズムを取得する。曲のリズムとは、例えば、メトロノーム等により計測できる曲のテンポをいう。位置切替部15は、端末5に送信され、端末5で表示される仮想空間内での表示位置(再生位置)を、曲のリズムに同期して切り替える。光演出部16は、仮想空間における光の演出を、曲のリズムに同期して変更する。オブジェクト演出部17は、端末5による操作に応じて、端末5に表示されたユーザのアバター画像に対して動きの演出を与える。コンテンツ再生部18は、変更した曲データと、新たな仮想空間に様々な演出を施した、アバター画像を含むコンテンツを、端末5に再生可能に送信することで、コンテンツを受信した端末5で再生する。   The rhythm acquisition unit 14 acquires the rhythm of the song in the song data. The rhythm of a song refers to the tempo of the song that can be measured by a metronome, for example. The position switching unit 15 switches the display position (playback position) in the virtual space transmitted to the terminal 5 and displayed on the terminal 5 in synchronization with the rhythm of the song. The light effect unit 16 changes the light effect in the virtual space in synchronization with the rhythm of the song. The object rendering unit 17 provides a motion effect to the user's avatar image displayed on the terminal 5 in response to an operation by the terminal 5. The content playback unit 18 replays the changed music data and the content including the avatar image, which has various effects in the new virtual space, to the terminal 5 so as to be played back on the terminal 5 that has received the content. To do.

端末5は、ユーザが、コンテンツを再生するための操作入力をするためのキーボード、マウス等の入力部や、コンテンツを表示する表示画面を備えた、例えば、パーソナルコンピュータ(PC)である。端末5を用いて、ユーザは、コンテンツを視聴したり、コンテンツの視聴中に、コンテンツに表示されたユーザ自身のアバター画像に対して動作を入力したりすることができる。   The terminal 5 is, for example, a personal computer (PC) including an input unit such as a keyboard and a mouse for a user to input an operation for reproducing the content and a display screen for displaying the content. Using the terminal 5, the user can view the content or input an operation on the user's own avatar image displayed on the content while viewing the content.

[コンテンツ編集装置1のハードウェア構成図]
図2は、本実施形態に係るコンテンツ編集装置1のハードウェア構成を示す図である。本発明が実施されるサーバは標準的なものでよく、以下に構成の一例を示す。
[Hardware Configuration of Content Editing Apparatus 1]
FIG. 2 is a diagram illustrating a hardware configuration of the content editing apparatus 1 according to the present embodiment. The server in which the present invention is implemented may be a standard server, and an example of the configuration is shown below.

コンテンツ編集装置1は、制御部10を構成するCPU(Central Processing Unit)1010(マルチプロセッサ構成ではCPU1012等複数のCPUが追加されてもよい)、バスライン1005、通信I/F(I/F:インターフェイス)1040、メインメモリ1050、BIOS(Basic Input Output System)1060、表示装置1022、I/Oコントローラ1070、キーボード及びマウス等の入力装置1100、ハードディスク1074、光ディスクドライブ1076、並びに半導体メモリ1078を備える。なお、ハードディスク1074、光ディスクドライブ1076、及び半導体メモリ1078はまとめて記憶部20と呼ぶ。   The content editing apparatus 1 includes a central processing unit (CPU) 1010 (a plurality of CPUs such as a CPU 1012 may be added in a multiprocessor configuration), a bus line 1005, a communication I / F (I / F: An interface) 1040, a main memory 1050, a BIOS (Basic Input Output System) 1060, a display device 1022, an I / O controller 1070, an input device 1100 such as a keyboard and a mouse, a hard disk 1074, an optical disk drive 1076, and a semiconductor memory 1078. The hard disk 1074, the optical disk drive 1076, and the semiconductor memory 1078 are collectively referred to as the storage unit 20.

制御部10は、コンテンツ編集装置1を統括的に制御する部分であり、ハードディスク1074に記憶された各種プログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、本発明に係る各種機能を実現している。   The control unit 10 is a part that controls the content editing apparatus 1 in an integrated manner, and by reading and executing various programs stored in the hard disk 1074 as appropriate, the control unit 10 cooperates with the above-described hardware and performs various types of the present invention. The function is realized.

通信I/F1040は、コンテンツ編集装置1が、通信ネットワーク3(図1)を介して端末5(図1)と情報を送受信する場合のネットワーク・アダプタである。通信I/F1040は、モデム、ケーブル・モデム及びイーサネット(登録商標)・アダプタを含んでよい。   The communication I / F 1040 is a network adapter when the content editing apparatus 1 transmits / receives information to / from the terminal 5 (FIG. 1) via the communication network 3 (FIG. 1). The communication I / F 1040 may include a modem, a cable modem, and an Ethernet (registered trademark) adapter.

BIOS1060は、コンテンツ編集装置1の起動時にCPU1010が実行するブートプログラムや、コンテンツ編集装置1のハードウェアに依存するプログラム等を記録する。   The BIOS 1060 records a boot program executed by the CPU 1010 when the content editing apparatus 1 is started up, a program depending on the hardware of the content editing apparatus 1, and the like.

表示装置1022は、ブラウン管表示装置(CRT)、液晶表示装置(LCD)等のディスプレイ装置を含む。   The display device 1022 includes a display device such as a cathode ray tube display device (CRT) or a liquid crystal display device (LCD).

I/Oコントローラ1070には、ハードディスク1074、光ディスクドライブ1076、及び半導体メモリ1078等の記憶装置である記憶部20を接続することができる。   The I / O controller 1070 can be connected to a storage unit 20 that is a storage device such as a hard disk 1074, an optical disk drive 1076, and a semiconductor memory 1078.

入力装置1100は、コンテンツ編集装置1の管理者による入力の受け付けを行うものである。   The input device 1100 is for accepting input by the administrator of the content editing device 1.

ハードディスク1074は、本ハードウェアをコンテンツ編集装置1として機能させるための各種プログラム、本発明の機能を実行するプログラム及び後述するDBのテーブル及びレコードを記憶する。なお、コンテンツ編集装置1は、外部に別途設けたハードディスク(図示せず)を外部記憶装置として利用することもできる。   The hard disk 1074 stores various programs for causing the hardware to function as the content editing apparatus 1, programs for executing the functions of the present invention, and DB tables and records to be described later. The content editing apparatus 1 can also use an external hard disk (not shown) as an external storage device.

光ディスクドライブ1076としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この場合は各ドライブに対応した光ディスク1077を使用する。光ディスク1077から光ディスクドライブ1076によりプログラム又はデータを読み取り、I/Oコントローラ1070を介してメインメモリ1050又はハードディスク1074に提供することもできる。   As the optical disc drive 1076, for example, a DVD-ROM drive, a CD-ROM drive, a DVD-RAM drive, or a CD-RAM drive can be used. In this case, the optical disk 1077 corresponding to each drive is used. A program or data may be read from the optical disk 1077 by the optical disk drive 1076 and provided to the main memory 1050 or the hard disk 1074 via the I / O controller 1070.

なお、本発明でいうコンピュータとは、記憶装置、制御部等を備えた情報処理装置をいい、コンテンツ編集装置1は、記憶部20、制御部10等を備えた情報処理装置により構成され、この情報処理装置は、本発明のコンピュータの概念に含まれる。   The computer referred to in the present invention refers to an information processing device including a storage device, a control unit, and the like. The content editing device 1 includes an information processing device including a storage unit 20, a control unit 10, and the like. The information processing apparatus is included in the concept of the computer of the present invention.

[端末5のハードウェア構成]
端末5も、上述のコンテンツ編集装置1と同様な構成を持つ。また、上述の例ではいわゆるコンピュータで実現した例について説明したが、さらに、本発明の原理が適用可能である限り、携帯電話、PDA(Personal Data Assistant)等の様々な端末で実現してよい。
[Hardware configuration of terminal 5]
The terminal 5 has the same configuration as that of the content editing apparatus 1 described above. In the above-described example, an example realized by a so-called computer has been described. Furthermore, as long as the principle of the present invention can be applied, it may be realized by various terminals such as a mobile phone and a PDA (Personal Data Assistant).

[仮想空間例]
図3及び図4は、本実施形態に係る端末5の表示画面に表示する仮想空間を説明する図である。
[Example of virtual space]
3 and 4 are diagrams illustrating a virtual space displayed on the display screen of the terminal 5 according to the present embodiment.

図3(a)は、複数のアバター画像から構成されたデータである。コンテンツの作成者のアバター画像であるアバター34と、コンテンツを過去に視聴したユーザのアバター画像であるアバター35と、コンテンツを現在視聴しているユーザ自身のアバター画像であるアバター36とが、仮想空間に配置されている。アバター34は、曲にあわせて歌っている動画であり、アバター35及びアバター36は、曲を聴く視聴者の動画である。他方、図3(b)は、背景DB24に記憶された背景画像の一例であって、屋内のライブハウスの背景画像33である。   FIG. 3A shows data composed of a plurality of avatar images. A virtual space includes an avatar 34 that is an avatar image of the content creator, an avatar 35 that is an avatar image of a user who has viewed the content in the past, and an avatar 36 that is an avatar image of the user who is currently viewing the content. Is arranged. The avatar 34 is a video singing along with a song, and the avatar 35 and the avatar 36 are videos of viewers who listen to the song. On the other hand, FIG. 3B is an example of a background image stored in the background DB 24 and is a background image 33 of an indoor live house.

図3(c)は、図3(a)と図3(b)との画像を合成した新たな仮想空間30を示す。アバター34からアバター36の複数のアバター画像からなる図3(a)と、背景画像33からなる図3(b)とを合成することで、あたかも、複数のアバター画像が、背景画像33が示すライブハウスに集っているかのように、ユーザに見せることができる。この例の場合、仮想空間30において、ライブハウスの背景画像33のステージ上に、アバター34が立って歌を歌っており、他の観客としてアバター35及びアバター36が視聴している。ユーザは、自身がライブハウスにトリップしたような感覚を持つことができる。   FIG. 3C shows a new virtual space 30 in which the images of FIG. 3A and FIG. By combining FIG. 3A composed of a plurality of avatar images from avatar 34 to avatar 36 and FIG. 3B composed of background image 33, it is as if a plurality of avatar images are live shown by background image 33. You can show it to the user as if they were gathering in the house. In the case of this example, in the virtual space 30, the avatar 34 stands and sings on the stage of the background image 33 of the live house, and the avatar 35 and the avatar 36 are watching as other audiences. The user can feel as if he / she has tripped to the live house.

また、仮想空間30には、複数台(この例では、3台)のカメラ31(カメラ31A〜31C)と、複数台(この例では、14台)のライト32(ライト32A〜32D)が配置されている。そして、カメラ31により撮影された仮想空間30の画像を、端末5の表示画面に表示する画像として、制御部10は、端末5に送信する。また、ライト32は、ステージの上方からアバター34に向けて下向き(Z方向)に光を出力するものや、ステージの左右方向(X方向)からアバター34に向けて光を出力する。   Also, in the virtual space 30, a plurality of (in this example, three) cameras 31 (cameras 31A to 31C) and a plurality of (in this example, 14) lights 32 (lights 32A to 32D) are arranged. Has been. Then, the control unit 10 transmits the image of the virtual space 30 captured by the camera 31 to the terminal 5 as an image to be displayed on the display screen of the terminal 5. The light 32 outputs light downward (Z direction) toward the avatar 34 from above the stage, and outputs light toward the avatar 34 from the left and right direction (X direction) of the stage.

図4は、図3(a)に示したアバター34からアバター36の複数のアバター画像を、図3(b)とは異なる背景画像39に合成した新たな仮想空間30を示す。図3(c)と同様に、コンテンツの作成者のアバター34と、コンテンツを過去に視聴したユーザのアバター35と、コンテンツを現在視聴しているユーザ自身のアバター36とが、仮想空間30に配置されている。背景画像39は、背景DB24に記憶された背景画像の一例であって、野外ステージの背景を示す。   FIG. 4 shows a new virtual space 30 in which a plurality of avatar images of avatars 36 to 36 shown in FIG. 3A are combined with a background image 39 different from FIG. As in FIG. 3C, the content creator's avatar 34, the user's avatar 35 who has viewed the content in the past, and the user's own avatar 36 who is currently viewing the content are arranged in the virtual space 30. Has been. The background image 39 is an example of a background image stored in the background DB 24 and indicates the background of the outdoor stage.

このように、同一のアバター画像を表示するものであっても、背景画像を異なるものに変更するだけで、様々な場所でライブをしている感じを演出できるので、ユーザは、より飽きずにコンテンツを楽しむ環境を提供できる。   In this way, even if the same avatar image is displayed, simply changing the background image to a different one can produce the feeling of being live in various places, so the user will not get bored An environment for enjoying content can be provided.

[曲コンテンツDB22及び背景DB24]
図5は、本実施形態に係る記憶部20に格納される曲コンテンツDB22及び背景DB24を示す図である。
[Song Content DB 22 and Background DB 24]
FIG. 5 is a diagram showing the song content DB 22 and the background DB 24 stored in the storage unit 20 according to the present embodiment.

図5(a)は、曲コンテンツDB22の一例を示す。曲コンテンツDB22は、コンテンツIDに、曲コンテンツを構成する曲を特定する曲ID及び曲IDに対応する曲の際に表示するアバターIDを対応付けるデータベースである。   FIG. 5A shows an example of the song content DB 22. The song content DB 22 is a database that associates a content ID with a song ID that identifies a song that constitutes the song content and an avatar ID that is displayed when the song corresponds to the song ID.

曲コンテンツDB22は、コンテンツID22aと、曲ID22bと、アバターID22cとを有する。コンテンツID22aには、上述のとおり、コンテンツを一意に示す記号が格納される。この記号は、ユーザにより作成されたコンテンツを、ユーザが曲コンテンツDB22に格納する際に、制御部10が適宜付与してもよい。また、曲ID22bには、曲を一意に示す記号が格納される。1つのコンテンツIDに対して、複数の曲IDが関連付けられてプレイリストを構成してもよい。アバターID22cには、アバター画像を特定する記号が格納される。端末5により曲コンテンツが再生されると、再生された曲の曲IDに対応したアバターID22cに、端末5のユーザのアバターIDが追加して記憶される。   The song content DB 22 has a content ID 22a, a song ID 22b, and an avatar ID 22c. As described above, the content ID 22a stores a symbol that uniquely indicates the content. This symbol may be appropriately given by the control unit 10 when the user stores content created by the user in the song content DB 22. The music ID 22b stores a symbol uniquely indicating the music. A plurality of song IDs may be associated with one content ID to form a playlist. The avatar ID 22c stores a symbol that identifies an avatar image. When the song content is reproduced by the terminal 5, the avatar ID of the user of the terminal 5 is added and stored in the avatar ID 22c corresponding to the song ID of the reproduced song.

図5(b)は、背景DB24の一例を示す。背景DB24は、背景IDをキー情報として、その背景画像のデータと、反響音に関する値とを対応付けるデータベースである。   FIG. 5B shows an example of the background DB 24. The background DB 24 is a database that associates background image data with values related to reverberation using the background ID as key information.

背景DB24は、背景ID24aと、背景名24bと、背景画像24cと、反響音設定値24dとを有する。背景ID24aには、背景画像を一意に示す記号が格納される。背景名24bには、背景を示す名称が格納される。背景画像24cには、実際に仮想空間を形成する背景画像のデータが格納される。例えば、図3(b)の背景画像33や、図4の背景画像39の背景画像データが格納される。反響音設定値24dには、背景画像に対応する反響音に関する値が格納される。反響音とは、音が物体に到達することにより物体の素材等に反射される音を数値化したものをいう。ここでは、背景画像が示す画像に対して、曲データに反響の変化をつける基準としての反響音設定値を用いる。例えば、屋内と野外であれば、屋内の方が音が反射しやすいので、反響音の設定値が大きくなる。この反射音設定値は、予め背景画像に対応する値が格納されており、0以上1以下の値である。   The background DB 24 includes a background ID 24a, a background name 24b, a background image 24c, and a reverberation sound setting value 24d. The background ID 24a stores a symbol that uniquely indicates the background image. The background name 24b stores a name indicating the background. The background image 24c stores background image data that actually forms a virtual space. For example, the background image 33 of FIG. 3B and the background image data of the background image 39 of FIG. 4 are stored. The reverberant set value 24d stores a value related to the reverberant sound corresponding to the background image. The reverberation sound is a numerical value of the sound reflected by the material of the object when the sound reaches the object. Here, a reverberation set value is used as a reference for applying a change in reverberation to music data with respect to the image indicated by the background image. For example, in indoors and outdoors, the sound is more likely to be reflected indoors, so the setting value of the reverberant sound becomes larger. The reflected sound setting value stores a value corresponding to the background image in advance, and is a value between 0 and 1.

[メイン処理のフローチャート]
図6は、本実施形態に係るコンテンツ編集装置1のメイン処理のフローチャートである。図7は、本実施形態に係る端末5で表示される画面例を示す図である。
[Flowchart of main processing]
FIG. 6 is a flowchart of the main process of the content editing apparatus 1 according to this embodiment. FIG. 7 is a diagram illustrating an example of a screen displayed on the terminal 5 according to the present embodiment.

図6のS1:制御部10は、端末5から曲コンテンツの再生要求を、背景画像の指定と共に受信する。   S1: Control unit 10 receives a music content reproduction request from terminal 5 together with a background image designation.

ここで、図7(a)は、端末5において、曲コンテンツと背景画像とを指定する際の画面例である。端末5の表示画面40には、複数の曲コンテンツが選択可能に表示されている。この例では、曲コンテンツの一部の画像であるイメージ画像41,42が表示されている。また、イメージ画像41,42の下方には、それぞれコンテンツの背景画像を示す背景名と、その右方にユーザが選択するためのボタンとが複数個示されている。   Here, FIG. 7A is an example of a screen when the song content and the background image are designated on the terminal 5. A plurality of song contents are displayed on the display screen 40 of the terminal 5 so as to be selectable. In this example, image images 41 and 42 that are images of part of the music content are displayed. Further, below the image images 41 and 42, a plurality of background names each indicating a background image of the content and a button for the user to select on the right side thereof are shown.

図6に戻ってS2:要求コンテンツ抽出部11は、曲コンテンツ要求のあった曲コンテンツDB22の中の曲コンテンツを抽出する。   Returning to FIG. 6, S2: The requested content extraction unit 11 extracts the song content in the song content DB 22 for which the song content request has been made.

S3:要求コンテンツ抽出部11は、S1で受信した指定された背景画像を背景DB24から抽出する。   S3: The requested content extraction unit 11 extracts the designated background image received in S1 from the background DB 24.

S4:三次元空間生成部12は、S2で抽出した曲コンテンツと、S3で抽出した背景画像とを合成して、仮想空間30を生成する。仮想空間30を生成する際に、端末5のユーザのアバター36も含めて曲コンテンツと背景画像とを合成してもよい。なお、合成した曲コンテンツは、元の曲コンテンツのデータに上書きしてもよい。   S4: The three-dimensional space generation unit 12 generates the virtual space 30 by synthesizing the song content extracted in S2 and the background image extracted in S3. When the virtual space 30 is generated, the music content and the background image may be synthesized including the avatar 36 of the user of the terminal 5. Note that the synthesized song content may overwrite the original song content data.

ここで、図7(b)及び図7(c)は、S4にて生成された仮想空間30が端末5の表示画面40に表示された例を示す。図7(b)は、上述の図3(c)で説明したライブハウスの背景画像33とアバター34からアバター36とを合成した仮想空間30を、図3(c)で示すカメラ31Aで撮影した、ライブ画像45を表示している。この図7(b)は、図7(a)でユーザによりボタン43が選択された場合に表示される。他方、図7(c)は、上述の図4で説明した野外ステージの背景画像39とアバター34からアバター36とを合成した仮想空間30を、図4で示すカメラ31Aで撮影した、ライブ画像46を表示している。この図7(c)は、図7(a)でユーザによりボタン44が選択された場合に表示される。   Here, FIG. 7B and FIG. 7C illustrate an example in which the virtual space 30 generated in S4 is displayed on the display screen 40 of the terminal 5. FIG. 7B shows a virtual space 30 in which the avatar 36 is synthesized from the background image 33 of the live house described in FIG. 3C and the avatar 34 with the camera 31A shown in FIG. 3C. A live image 45 is displayed. FIG. 7B is displayed when the button 43 is selected by the user in FIG. On the other hand, FIG. 7C shows a live image 46 in which the virtual space 30 obtained by combining the background image 39 of the outdoor stage described in FIG. 4 and the avatar 34 with the avatar 36 is captured by the camera 31A shown in FIG. Is displayed. FIG. 7C is displayed when the button 44 is selected by the user in FIG.

図6に戻ってS5:制御部10は、S3で抽出した背景画像に対応した反響音設定値を、背景DB24から抽出する。   Returning to FIG. 6, S <b> 5: The control unit 10 extracts the reverberation setting value corresponding to the background image extracted in S <b> 3 from the background DB 24.

S6:曲データ変更部13は、S5で抽出した反響音設定値に基づいて、曲コンテンツ内の曲データを変更する。つまり、反響音設定値が大きいほど、変更された曲データは、反響の度合いが高いものになる。   S6: The song data changing unit 13 changes the song data in the song content based on the reverberation setting value extracted in S5. In other words, the larger the reverberation setting value, the higher the degree of reverberation of the changed music data.

S7:制御部10は、後述で説明するBPM処理を行う。   S7: The control unit 10 performs BPM processing which will be described later.

S8:コンテンツ再生部18は、編集した曲コンテンツ再生可能に端末5に送信する。   S8: The content reproduction unit 18 transmits the edited music content to the terminal 5 so that the edited music content can be reproduced.

S9:制御部10は、端末5からアバター画像に対する操作要求を受け付けたか否かを判断する。アバター画像に対する操作要求を受け付けた場合(S9:YES)には、制御部10は、処理をS10に移す。他方、アバター画像に対する操作要求を受け付けていない場合(S9:NO)には、制御部10は、処理をS11に移す。   S9: The control unit 10 determines whether an operation request for the avatar image has been received from the terminal 5. When the operation request for the avatar image is received (S9: YES), the control unit 10 moves the process to S10. On the other hand, when the operation request for the avatar image is not received (S9: NO), the control unit 10 moves the process to S11.

S10:オブジェクト演出部17は、アバター画像に対して演出処理を行う。アバター画像に対する演出処理は、後述する図12及び図13で説明する。   S10: The object effect unit 17 performs effect processing on the avatar image. The effect process for the avatar image will be described with reference to FIGS.

S11:制御部10は、曲コンテンツの再生が終了したか否かを判断する。曲コンテンツの再生が終了した場合(S11:YES)には、制御部10は、本処理を終了する。他方、曲コンテンツの再生が終了していない場合(S11:NO)には、制御部10は、処理をS7に移す。   S11: The control unit 10 determines whether or not the reproduction of the song content has ended. When the reproduction of the song content is finished (S11: YES), the control unit 10 finishes this process. On the other hand, when the reproduction of the song content has not ended (S11: NO), the control unit 10 moves the process to S7.

[反響音の設定]
図8は、本実施形態に係る背景画像に対応する反響音設定値を説明するための図である。
[Reverb sound settings]
FIG. 8 is a diagram for explaining reverberation setting values corresponding to the background image according to the present embodiment.

図8では、X軸に時間を、Y軸に反響音に関する値を示しており、上述の図5(b)で示す反響音設定値は、各々背景IDに対応して図8に示すグラフとして表示できる。例えば、図3(b)の背景ID24aがIN02に対応する反響音設定値24dが「0.987」であるので、図3(b)に示す背景画像の中で、反響する度合いが最も高い。また、図3(b)に例示された3つの背景IDに関する反響音設定値は、OUT01が反響する度合いが最も低い。そして、反響は、時間の経過と共に度合いが低くなり、ついには反響しなくなる。   In FIG. 8, time is shown on the X-axis, and values related to the reverberation sound are shown on the Y-axis, and the reverberation setting values shown in FIG. 5 (b) are shown as a graph shown in FIG. Can be displayed. For example, since the echo sound setting value 24d corresponding to IN02 of the background ID 24a in FIG. 3B is “0.987”, the degree of reverberation is the highest in the background image shown in FIG. In addition, the echo sound setting values related to the three background IDs illustrated in FIG. 3B have the lowest degree of echo of OUT01. Then, the degree of reverberation decreases with time, and finally does not resonate.

ここで、図7を例に具体的に説明すると、図7(b)は、屋内のライブハウスでのコンテンツを示し、図7(c)は、野外ステージでのコンテンツを示すが、一般に、屋内の方が野外より反響しやすい。図7(b)の音イメージ47及び図7(c)の音イメージ48は、反響音の度合いを音符の後に記載した波線で表している。この図7で示したように、反響音は、屋内の背景画像(図7(b))の方が高く設定されており、より大きく反響している。   Here, FIG. 7 will be specifically described as an example. FIG. 7B shows content in an indoor live house, and FIG. 7C shows content in an outdoor stage. Is more likely to respond than outdoors. The sound image 47 in FIG. 7B and the sound image 48 in FIG. 7C represent the degree of reverberation with a wavy line described after the note. As shown in FIG. 7, the reverberation sound is set higher in the indoor background image (FIG. 7B) and reverberates more greatly.

[BPM処理のフローチャート]
図9は、本実施形態に係るコンテンツ編集装置1でのBPM処理のフローチャートである。BPM(Beat Par Minute)とは、1分間での曲の拍(ビート)数を示す楽曲のビートのスピードをいう。BPM処理では、この曲のビートにあわせた処理を行う。
[BPM processing flowchart]
FIG. 9 is a flowchart of BPM processing in the content editing apparatus 1 according to the present embodiment. BPM (Beat Par Minute) refers to the beat speed of a song indicating the number of beats of the song per minute. In the BPM process, a process according to the beat of this song is performed.

S21:リズム取得部14は、曲データから曲のビート(リズム)を取得する。   S21: The rhythm acquisition unit 14 acquires the beat (rhythm) of the song from the song data.

S22:制御部10は、取得した曲のビートに同期して、アバター画像の動きを加える。   S22: The control unit 10 adds the movement of the avatar image in synchronization with the acquired beat of the song.

S23:制御部10は、取得した曲のビートに同期して、カメラ31A〜31Cの位置を切り替える。   S23: The control unit 10 switches the positions of the cameras 31A to 31C in synchronization with the acquired beat of the song.

S24:制御部10は、取得した曲のビートに同期して、ライト32A〜32Dを点滅させる。その後、本処理を終了し、図6に戻る。   S24: The control unit 10 blinks the lights 32A to 32D in synchronization with the acquired beat of the song. Thereafter, this process is terminated, and the process returns to FIG.

[コンテンツ再生例]
図10は、本実施形態に係るリズムに同期してコンテンツが再生された例を示す図である。
[Content playback example]
FIG. 10 is a diagram illustrating an example in which content is reproduced in synchronization with the rhythm according to the present embodiment.

図10(a)から図10(c)は、リズムに同期させてカメラを切り替えて、コンテンツを端末5の表示画面40に表示している。図10(a)は、図3(c)のカメラ31Aから撮影したものであり、図10(b)は、図3(c)のカメラ31Cから、図10(c)は、図3(c)のカメラ31Bから、それぞれ撮影したものである。また、ライト32Aから32Dに関しても同様にリズムに同期させてライトごとにON/OFFを切り替えている。表示画面40に表示されたステータスバー51の再生位置表示部52より、図10(a)から図10(c)の場面は、少しずつ時間が経過しているのが分かる。   In FIG. 10A to FIG. 10C, the camera is switched in synchronization with the rhythm, and the content is displayed on the display screen 40 of the terminal 5. 10 (a) is taken from the camera 31A of FIG. 3 (c), FIG. 10 (b) is from the camera 31C of FIG. 3 (c), and FIG. 10 (c) is FIG. 3 (c). ) Of the camera 31B. Similarly, the lights 32A to 32D are switched ON / OFF for each light in synchronization with the rhythm. From the playback position display section 52 of the status bar 51 displayed on the display screen 40, it can be seen that the scenes of FIG. 10A to FIG.

このように、曲のリズムに同期させて、カメラを切り替えた画像を表示することで、変化のあるコンテンツを提供できる。   In this way, by displaying an image in which the camera is switched in synchronization with the rhythm of the music, it is possible to provide content with changes.

[アバターDB26及び曲DB28]
図11は、本実施形態に係る記憶部20に格納されるアバターDB26及び曲DB28を示す図である。
[Avatar DB 26 and song DB 28]
FIG. 11 is a diagram showing the avatar DB 26 and the song DB 28 stored in the storage unit 20 according to the present embodiment.

図11(a)は、アバターDB26の一例を示す。アバターDB26は、アバターID、コンテンツID及び曲IDとをキー情報に、アバターに関する情報と、コンテンツに対応するアバターの属性とを対応付けるデータベースである。   FIG. 11A shows an example of the avatar DB 26. The avatar DB 26 is a database in which avatar ID, content ID, and music ID are associated with key information and information about the avatar and avatar attributes corresponding to the content.

アバターDB26は、アバターID26aと、アバターデータ26bと、コンテンツID26cと、曲ID26dと、位置26eと、文字情報26fとを有する。アバターID26aには、アバターにより特定されるユーザを一意に示す記号が格納される。アバターデータ26bには、ユーザを代理するキャラクタであるアバターの画像データを格納する。コンテンツID26cには、コンテンツを一意に示す記号が、曲ID26dには、曲を一意に示す記号が、それぞれ格納される。位置26eには、座標で示したアバター画像の位置情報が格納される。文字情報26fには、予め曲コンテンツを視聴しているユーザにより端末5から入力された、ユーザの感想やかけ声等の文字情報が格納される。   The avatar DB 26 includes an avatar ID 26a, avatar data 26b, a content ID 26c, a song ID 26d, a position 26e, and character information 26f. The avatar ID 26a stores a symbol that uniquely indicates the user specified by the avatar. The avatar data 26b stores image data of an avatar that is a character representing the user. The content ID 26c stores a symbol uniquely indicating the content, and the music ID 26d stores a symbol uniquely indicating the music. The position 26e stores the position information of the avatar image indicated by coordinates. The character information 26f stores character information such as the user's impressions and calls input from the terminal 5 by a user who is watching the music content in advance.

図11(b)は、曲DB28の一例を示す。曲DB28は、曲IDをキー情報に、曲に関する情報を対応付けるデータベースである。   FIG. 11B shows an example of the music DB 28. The song DB 28 is a database that associates song information with song IDs as key information.

曲DB28は、曲ID28aと、曲データ28bと、曲の長さ28cとを有する。曲ID28aは、曲を一意に示す記号が格納される。曲データ28bには、曲のデータそのものを格納する。曲の長さ28cには、曲データの再生時間を格納する。   The song DB 28 has a song ID 28a, song data 28b, and a song length 28c. The music ID 28a stores a symbol that uniquely indicates the music. The song data 28b stores the song data itself. The reproduction time of the music data is stored in the music length 28c.

[コンテンツ再生時の画面例]
図12及び図13は、本実施形態に係る端末5の表示画面40に表示されるコンテンツ再生時の画面例を示す図である。
[Screen example during content playback]
12 and 13 are diagrams showing examples of screens during content playback displayed on the display screen 40 of the terminal 5 according to the present embodiment.

端末5の表示画面40には、コンテンツを再生するためのコンテンツプレーヤ50が表示されている。コンテンツプレーヤ50は、端末5に記憶される情報受信のためのソフトウェアを制御部10が起動することで表示され、端末5の表示画面40にコンテンツを表示する。コンテンツプレーヤ50は、再生するコンテンツのコンテンツ名を左上方に表示するコンテンツ名表示部53を有する。この例では、コンテンツIDを表示しているが、曲コンテンツDB22にコンテンツ名を記憶しておき、表示してもよい。   A content player 50 for playing back content is displayed on the display screen 40 of the terminal 5. The content player 50 is displayed when the control unit 10 activates software for receiving information stored in the terminal 5, and displays the content on the display screen 40 of the terminal 5. The content player 50 has a content name display unit 53 that displays the content name of the content to be reproduced in the upper left. In this example, the content ID is displayed, but the content name may be stored in the song content DB 22 and displayed.

コンテンツプレーヤ50の中央部には、コンテンツ表示部55を有し、再生中のコンテンツの内容を表示する。この例では、仮想空間でライブが行われている様子が示されている。アバター65を除く複数のアバター画像が、観客として表示されているが、観客のアバター画像は、当該曲コンテンツを過去に視聴したユーザのアバター画像と、現在視聴中のユーザ自身のアバター画像である。アバター61からアバター63には、かけ声や感想等が吹き出しとして表示されている。この吹き出しの中の文字は、上述の図11で説明したアバターDB26の文字情報26fに記憶された文字である。複数の文字情報がある場合には、コンテンツ編集装置1の制御部10(表示時間算出部)は、曲DB28の曲の長さ28cに記憶された再生時間を文字情報26fに記憶された文字情報の数で除算して、全ての文字情報が曲の再生中に表示されるようになっている。例えば、図11に示すように、曲DB28の曲の長さ28cが「40」秒である曲ID28aが「A01」の曲は、アバターDB26のアバターID26aが「AAA」のアバターの場合には、文字情報26fにより4つある。よって、これら4つの文字情報を10秒ずつ表示することで、コンテンツを変化させていくことができる。   A content display unit 55 is provided at the center of the content player 50 to display the content of the content being reproduced. In this example, a state in which live performance is performed in a virtual space is shown. A plurality of avatar images excluding the avatar 65 are displayed as a spectator. The spectator avatar image is an avatar image of a user who has viewed the song content in the past and an avatar image of the user who is currently viewing the avatar. On the avatar 61 to the avatar 63, a call and an impression are displayed as a balloon. The characters in the balloon are characters stored in the character information 26f of the avatar DB 26 described with reference to FIG. When there are a plurality of character information, the control unit 10 (display time calculation unit) of the content editing apparatus 1 sets the reproduction time stored in the song length 28c of the song DB 28 to the character information stored in the character information 26f. All character information is displayed during playback of the song. For example, as shown in FIG. 11, a song whose song ID 28 a is “A01” whose song length 28 c is “40” seconds is an avatar whose avatar ID 26 a is “AAA” in the avatar DB 26, There are four character information 26f. Therefore, the content can be changed by displaying these four character information for 10 seconds.

また、アバター64は、図12の表示画面40を表示させているユーザであるユーザID54が「XXX」のユーザ自身のアバター画像である。ユーザ自身のアバター画像であるアバター64に対する操作は、モッシュパーツにより行うことができる。コンテンツプレーヤ50は、モッシュ選択部57をステータスバー51の下方中央部分に有する。モッシュ選択部57には、モッシュパーツ57a,57b,57cの3つの操作ボタンが表示されている。モッシュパーツ57a,57b,57cは、ユーザのアバター画像に動きや音声を入れるために予め用意されたパーツ(部品)である。端末5の表示画面40に再生されるコンテンツにあわせて、ユーザがモッシュパーツ57a,57b,57cを適宜選択(操作)することで、コンテンツ表示部55に表示されたユーザのアバター64が、モッシュパーツ57a,57b,57cに応じた演出をする。この図12で、ユーザが矢印58をモッシュパーツ57aに移動させて選択した後の画面を図13に示す。図13では、アバター64が手を挙げてバンザイをした格好になっている。このように、モッシュ選択部57のパーツを選択することで、表示画面40のコンテンツ表示部55に表示されたユーザのアバター画像が、モッシュパーツ57a,57b,57cに応じた演出をするので、アバター画像に、動きや音を含めた、より臨場感の溢れるコンテンツを提供することができる。   Moreover, the avatar 64 is an avatar image of the user himself / herself whose user ID 54 is “XXX”, which is the user who is displaying the display screen 40 of FIG. Operation with respect to the avatar 64 which is a user's own avatar image can be performed with a mosh part. The content player 50 has a mosh selector 57 at the lower center portion of the status bar 51. In the mosh selection section 57, three operation buttons of mosh parts 57a, 57b and 57c are displayed. The mosh parts 57a, 57b, and 57c are parts (parts) prepared in advance for putting movement and voice into the user's avatar image. The user's avatar 64 displayed on the content display unit 55 is changed to the mosh parts by appropriately selecting (manipulating) the mosh parts 57a, 57b, and 57c according to the content reproduced on the display screen 40 of the terminal 5. It produces effects according to 57a, 57b, and 57c. FIG. 13 shows a screen after the user moves and selects the arrow 58 to the mosh part 57a in FIG. In FIG. 13, the avatar 64 looks like a banzai with his hands raised. Thus, by selecting the parts of the mosh selection unit 57, the user's avatar image displayed on the content display unit 55 of the display screen 40 produces an effect corresponding to the mosh parts 57a, 57b, 57c. It is possible to provide more realistic content including motion and sound in images.

コンテンツプレーヤ50は、コンテンツの状況を表示するステータスバー51をコンテンツ表示部55の下方に有し、ステータスバー51の左方には、現在の再生位置を示す再生位置表示部52が表示されている。また、コンテンツプレーヤ50は、時間表示部56をステータスバー51の下方右部分に有する。時間表示部56は、コンテンツ全体の再生時間と、現在の再生時間とを表示しており、この全体の時間の中の再生時間は、ステータスバー51における再生位置表示部52が示す場所に対応付けられている。   The content player 50 has a status bar 51 that displays the content status below the content display unit 55, and a playback position display unit 52 that indicates the current playback position is displayed on the left side of the status bar 51. . Further, the content player 50 has a time display unit 56 in the lower right portion of the status bar 51. The time display unit 56 displays the playback time of the entire content and the current playback time, and the playback time in the total time is associated with the location indicated by the playback position display unit 52 in the status bar 51. It has been.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。   As mentioned above, although embodiment of this invention was described, this invention is not restricted to embodiment mentioned above. The effects described in the embodiments of the present invention are only the most preferable effects resulting from the present invention, and the effects of the present invention are limited to those described in the embodiments of the present invention. is not.

(変形形態)
本実施形態では、仮想空間上のコンサートを例に説明したが、演劇に関するものやユーザが参加して作り上げるコンテンツであってもよい。また、ユーザが参加したことを演出するため、ユーザのアバター画像を表示したが、ユーザを特定するマスコット等のキャラクタであってもよい。また、図12に示すモッシュパーツは一例にすぎない。
(Deformation)
In the present embodiment, a concert in a virtual space has been described as an example. However, content related to a theater or content created by a user may be used. Moreover, although the user's avatar image was displayed in order to produce that the user participated, it may be a character such as a mascot that identifies the user. Further, the mosh part shown in FIG. 12 is merely an example.

本実施形態では、複数の位置に表示されたカメラを曲のリズムに同期させて切り替えるものであったが、1つのカメラでズームして画像を拡大させたり、戻したりするように切り替えるものであってもよいし、これらの組み合わせであってもよい。   In this embodiment, the cameras displayed at a plurality of positions are switched in synchronization with the rhythm of the song. However, the camera is switched so as to zoom in and zoom out with one camera. It may be a combination thereof.

本実施形態では、コンテンツとして表示される文字情報は、予め記憶されているものであったが、例えば、コンテンツプレーヤに文字入力欄を設けて、都度入力できるようにしてもよい。   In this embodiment, the character information displayed as the content is stored in advance. However, for example, a character input field may be provided in the content player so that it can be input each time.

本実施形態に係るコンテンツ編集システムの全体構成及びコンテンツ編集装置の機能構成を示す図である。It is a figure which shows the whole structure of the content editing system which concerns on this embodiment, and the function structure of a content editing apparatus. 本実施形態に係るコンテンツ編集装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the content editing apparatus which concerns on this embodiment. 本実施形態に係る端末の表示画面に表示する仮想空間を説明する図である。It is a figure explaining the virtual space displayed on the display screen of the terminal concerning this embodiment. 本実施形態に係る端末の表示画面に表示する曲コンテンツの元データを説明する図である。It is a figure explaining the original data of the music content displayed on the display screen of the terminal which concerns on this embodiment. 本実施形態に係る記憶部に格納される曲コンテンツDB及び背景DBを示す図である。It is a figure which shows the music content DB and background DB which are stored in the memory | storage part which concerns on this embodiment. 本実施形態に係るコンテンツ編集装置のメイン処理のフローチャートである。It is a flowchart of the main process of the content editing apparatus which concerns on this embodiment. 本実施形態に係る端末で表示される画面例を示す図である。It is a figure which shows the example of a screen displayed with the terminal which concerns on this embodiment. 本実施形態に係る背景画像に対応する反響音設定値を説明するための図である。It is a figure for demonstrating the echo sound setting value corresponding to the background image which concerns on this embodiment. 本実施形態に係るコンテンツ編集装置でのBPM処理のフローチャートである。It is a flowchart of the BPM process in the content editing apparatus which concerns on this embodiment. 本実施形態に係るリズムに同期してコンテンツが再生された例を示す図である。It is a figure which shows the example by which the content was reproduced | regenerated synchronizing with the rhythm which concerns on this embodiment. 本実施形態に係る記憶部に格納されるアバターDB及び曲DBを示す図である。It is a figure which shows the avatar DB and music DB which are stored in the memory | storage part which concerns on this embodiment. 本実施形態に係る端末の表示画面に表示されるコンテンツ再生時の画面例を示す図である。It is a figure which shows the example of a screen at the time of the content reproduction | regeneration displayed on the display screen of the terminal which concerns on this embodiment. 本実施形態に係る端末の表示画面に表示されるコンテンツ再生時の画面例を示す図である。It is a figure which shows the example of a screen at the time of the content reproduction | regeneration displayed on the display screen of the terminal which concerns on this embodiment.

符号の説明Explanation of symbols

1 コンテンツ編集装置
5 端末
10 制御部
11 要求コンテンツ抽出部
12 三次元空間生成部
13 曲データ変更部
14 リズム取得部
15 位置切替部
16 光演出部
17 オブジェクト演出部
18 コンテンツ再生部
20 記憶部
22 曲コンテンツDB
24 背景DB
26 アバターDB
28 曲DB
100 コンテンツ編集システム
DESCRIPTION OF SYMBOLS 1 Content editing apparatus 5 Terminal 10 Control part 11 Requested content extraction part 12 Three-dimensional space production | generation part 13 Song data change part 14 Rhythm acquisition part 15 Position switching part 16 Light effect part 17 Object effect part 18 Content reproduction part 20 Storage part 22 Music Content DB
24 Background DB
26 Avatar DB
28 songs DB
100 content editing system

Claims (9)

曲データと、三次元空間に配置されたオブジェクトと、からなる曲コンテンツを記憶する曲コンテンツ記憶部と、
前記三次元空間の背景として表示される背景画像と、前記背景画像に対応した反響音設定値と、を記憶する背景記憶部と、
前記曲コンテンツの再生要求及び前記背景画像の指定を受け付けたことに応じて、前記曲コンテンツ記憶部から前記曲コンテンツを抽出し、前記背景記憶部から前記背景画像を抽出する要求コンテンツ抽出部と、
前記要求コンテンツ抽出部により抽出した前記曲コンテンツの前記三次元空間の背景を、抽出した前記背景画像を用いて合成して、新たな三次元空間を生成する三次元空間生成部と、
前記曲データを、抽出した前記背景画像に対応する前記反響音設定値に基づき変更する曲データ変更部と、
前記曲データ変更部により変更された前記曲データと、前記三次元空間生成部により生成された前記新たな三次元空間に配置されたオブジェクトとを再生するコンテンツ再生部と、
を備えるコンテンツ編集装置。
A song content storage unit for storing song content comprising song data and an object arranged in a three-dimensional space;
A background storage unit that stores a background image displayed as a background of the three-dimensional space, and an echo sound setting value corresponding to the background image;
A request content extraction unit that extracts the song content from the song content storage unit and extracts the background image from the background storage unit in response to receiving the reproduction request for the song content and the designation of the background image;
A three-dimensional space generation unit that generates a new three-dimensional space by combining the background of the three-dimensional space of the song content extracted by the request content extraction unit using the extracted background image;
A song data changing unit for changing the song data based on the reverberation setting value corresponding to the extracted background image;
A content reproduction unit that reproduces the song data changed by the song data change unit and the object arranged in the new three-dimensional space generated by the three-dimensional space generation unit;
A content editing apparatus comprising:
前記曲データの曲のリズムを取得するリズム取得部を備え、
前記コンテンツ再生部は、前記新たな三次元空間に配置されたオブジェクトを前記リズム取得部により取得された前記リズムに同期させて、前記オブジェクトに動作演出をして再生する、
請求項1に記載のコンテンツ編集装置。
A rhythm acquisition unit that acquires the rhythm of the song data;
The content reproduction unit synchronizes the object arranged in the new three-dimensional space with the rhythm acquired by the rhythm acquisition unit, and reproduces the object with an effect.
The content editing apparatus according to claim 1.
前記コンテンツ再生部により再生される前記新たな三次元空間の再生位置を切り替える位置切替部を備え、
前記コンテンツ再生部は、前記位置切替部による切り替えを前記リズム取得部により取得された前記リズムに同期させて、前記新たな三次元空間の再生位置を切り替えて再生する、
請求項2に記載のコンテンツ編集装置。
A position switching unit that switches a reproduction position of the new three-dimensional space reproduced by the content reproduction unit;
The content reproduction unit synchronizes the switching by the position switching unit with the rhythm acquired by the rhythm acquisition unit, and switches and reproduces the reproduction position of the new three-dimensional space.
The content editing apparatus according to claim 2.
前記コンテンツ再生部により再生される前記新たな三次元空間に対する光の演出を行う光演出部を備え、
前記コンテンツ再生部は、前記光演出部による光の演出を前記リズム取得部により取得された前記リズムに同期させて、前記新たな三次元空間を再生する、
請求項2又は3に記載のコンテンツ編集装置。
A light production unit that produces light for the new three-dimensional space reproduced by the content reproduction unit;
The content reproduction unit reproduces the new three-dimensional space by synchronizing the light effect by the light effect unit with the rhythm acquired by the rhythm acquisition unit.
The content editing apparatus according to claim 2 or 3.
前記三次元空間に配置されたオブジェクトに対する操作入力に基づき、前記オブジェクトを演出表示させるオブジェクト演出部を備え、
前記コンテンツ再生部は、前記三次元空間に前記オブジェクト演出部により演出表示されたオブジェクトを配置して再生する、
請求項1から請求項4のいずれか1項に記載のコンテンツ編集装置。
Based on an operation input for the object arranged in the three-dimensional space, an object effect unit that effects display the object,
The content reproduction unit arranges and reproduces the object effect-displayed by the object effect unit in the three-dimensional space;
The content editing apparatus according to any one of claims 1 to 4.
前記オブジェクトに対応する文字情報を記憶したオブジェクト記憶部を備え、
前記コンテンツ再生部は、前記オブジェクト記憶部に記憶された前記文字情報を、対応する前記オブジェクトに関連付けて前記三次元空間に配置して再生する、
請求項1から請求項5のいずれか1項に記載のコンテンツ編集装置。
An object storage unit storing character information corresponding to the object;
The content reproduction unit reproduces the character information stored in the object storage unit in association with the corresponding object in the three-dimensional space;
The content editing apparatus according to any one of claims 1 to 5.
前記オブジェクト記憶部は、前記オブジェクトに対応する文字情報を複数記憶しており、
前記曲データの再生時間と前記文字情報の数とに基づき、前記文字情報を表示する表示時間を算出する表示時間算出部を備え、
前記コンテンツ再生部は、前記オブジェクト記憶部に記憶された前記文字情報を順番に切り替えて、前記表示時間算出部により算出された表示時間に対応する前記オブジェクトに関連付けて前記三次元空間に配置して再生する、
請求項6に記載のコンテンツ編集装置。
The object storage unit stores a plurality of character information corresponding to the object,
A display time calculation unit for calculating a display time for displaying the character information based on the reproduction time of the music data and the number of the character information;
The content reproduction unit sequentially switches the character information stored in the object storage unit and arranges the character information in the three-dimensional space in association with the object corresponding to the display time calculated by the display time calculation unit. Reproduce,
The content editing apparatus according to claim 6.
曲データと、三次元空間に配置されたオブジェクトと、からなる曲コンテンツを記憶する曲コンテンツ記憶部と、
前記三次元空間の背景として表示される背景画像と、前記背景画像に対応した反響音設定値と、を記憶する背景記憶部と、
を備えたコンテンツ編集装置が、
前記曲コンテンツの再生要求及び前記背景画像の指定を受け付けたことに応じて、前記曲コンテンツ記憶部から前記曲コンテンツを抽出し、前記背景記憶部から前記背景画像を抽出するステップと、
抽出した前記曲コンテンツの前記三次元空間の背景を、抽出した前記背景画像を用いて合成して、新たな三次元空間を生成するステップと、
前記曲データを、抽出した前記背景画像に対応する前記反響音設定値に基づき変更するステップと、
変更された前記曲データと、生成された前記新たな三次元空間に配置されたオブジェクトとを再生するステップと、
を含むコンテンツ編集方法。
A song content storage unit for storing song content comprising song data and an object arranged in a three-dimensional space;
A background storage unit that stores a background image displayed as a background of the three-dimensional space, and an echo sound setting value corresponding to the background image;
A content editing apparatus equipped with
Extracting the song content from the song content storage unit and extracting the background image from the background storage unit in response to receiving the reproduction request of the song content and the designation of the background image;
Synthesizing the background of the extracted three-dimensional space of the song content using the extracted background image to generate a new three-dimensional space;
Changing the song data based on the reverberation setting value corresponding to the extracted background image;
Replaying the changed song data and the generated object placed in the new three-dimensional space;
Content editing method.
請求項8に記載の方法のステップをコンピュータに実行させるためのコンテンツ編集プログラム。   A content editing program for causing a computer to execute the steps of the method according to claim 8.
JP2008157800A 2008-06-17 2008-06-17 Content editing apparatus, method and program Active JP4755672B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008157800A JP4755672B2 (en) 2008-06-17 2008-06-17 Content editing apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008157800A JP4755672B2 (en) 2008-06-17 2008-06-17 Content editing apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2009301477A true JP2009301477A (en) 2009-12-24
JP4755672B2 JP4755672B2 (en) 2011-08-24

Family

ID=41548278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008157800A Active JP4755672B2 (en) 2008-06-17 2008-06-17 Content editing apparatus, method and program

Country Status (1)

Country Link
JP (1) JP4755672B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066790A (en) * 2008-09-08 2010-03-25 Taito Corp Content editing server and content editing program
JP2016071433A (en) * 2014-09-26 2016-05-09 アイディアファクトリー株式会社 Content generation device, content generation method, content generation program, and content generation system
JP2017021799A (en) * 2015-07-07 2017-01-26 学校法人幾徳学園 Information presentation system, information presentation device and program
JP2018094326A (en) * 2016-12-16 2018-06-21 株式会社バンダイナムコエンターテインメント Event control system, and event notification system and program
JP2019192174A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device, and method
WO2020194821A1 (en) * 2019-03-27 2020-10-01 株式会社ドワンゴ Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data
WO2020213098A1 (en) * 2019-04-17 2020-10-22 マクセル株式会社 Video display device and display control method for same
WO2021131266A1 (en) * 2019-12-26 2021-07-01 株式会社ドワンゴ Program, information processing device, and method
WO2023200318A1 (en) * 2022-04-15 2023-10-19 주식회사 네모즈랩 Method and device for providing music in virtual space, and non-transitory computer-readable recording medium
US11995768B2 (en) 2019-03-27 2024-05-28 Dwango Co., Ltd. VR live broadcasting distribution system, distribution server, control method for distribution server control method, program for distribution server, and data structure of VR picture data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07131770A (en) * 1993-11-05 1995-05-19 Hitachi Ltd Integral controller for video image and audio signal
JPH0865573A (en) * 1994-08-25 1996-03-08 Matsushita Electric Ind Co Ltd Specific video/acoustic effect device
JPH08305829A (en) * 1995-05-09 1996-11-22 Atsushi Matsushita Method and system for sound complementing for creating presence in virtual space of still image
JP2001118072A (en) * 1999-10-20 2001-04-27 Mega Chips Corp System of controlling picture recognition and voice modulation
JP2001312497A (en) * 2000-04-28 2001-11-09 Yamaha Corp Content generating device, content distribution system, device and method for content reproduction, and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07131770A (en) * 1993-11-05 1995-05-19 Hitachi Ltd Integral controller for video image and audio signal
JPH0865573A (en) * 1994-08-25 1996-03-08 Matsushita Electric Ind Co Ltd Specific video/acoustic effect device
JPH08305829A (en) * 1995-05-09 1996-11-22 Atsushi Matsushita Method and system for sound complementing for creating presence in virtual space of still image
JP2001118072A (en) * 1999-10-20 2001-04-27 Mega Chips Corp System of controlling picture recognition and voice modulation
JP2001312497A (en) * 2000-04-28 2001-11-09 Yamaha Corp Content generating device, content distribution system, device and method for content reproduction, and storage medium

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066790A (en) * 2008-09-08 2010-03-25 Taito Corp Content editing server and content editing program
JP2016071433A (en) * 2014-09-26 2016-05-09 アイディアファクトリー株式会社 Content generation device, content generation method, content generation program, and content generation system
JP2017021799A (en) * 2015-07-07 2017-01-26 学校法人幾徳学園 Information presentation system, information presentation device and program
JP2018094326A (en) * 2016-12-16 2018-06-21 株式会社バンダイナムコエンターテインメント Event control system, and event notification system and program
JP7258472B2 (en) 2018-04-27 2023-04-17 株式会社コロプラ Program, Information Processing Apparatus, and Method
JP2019192174A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device, and method
WO2020194821A1 (en) * 2019-03-27 2020-10-01 株式会社ドワンゴ Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data
JP2020162004A (en) * 2019-03-27 2020-10-01 株式会社ドワンゴ Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data
US11995768B2 (en) 2019-03-27 2024-05-28 Dwango Co., Ltd. VR live broadcasting distribution system, distribution server, control method for distribution server control method, program for distribution server, and data structure of VR picture data
JPWO2020213098A1 (en) * 2019-04-17 2020-10-22
JP7256870B2 (en) 2019-04-17 2023-04-12 マクセル株式会社 Video display device and its display control method
WO2020213098A1 (en) * 2019-04-17 2020-10-22 マクセル株式会社 Video display device and display control method for same
JP2021105707A (en) * 2019-12-26 2021-07-26 株式会社ドワンゴ Program, information processing device, and method
JP2021105879A (en) * 2019-12-26 2021-07-26 株式会社ドワンゴ Program, information processing device, and method
CN114402274A (en) * 2019-12-26 2022-04-26 多玩国株式会社 Program, information processing apparatus, and method
WO2021131266A1 (en) * 2019-12-26 2021-07-01 株式会社ドワンゴ Program, information processing device, and method
JP7389009B2 (en) 2019-12-26 2023-11-29 株式会社ドワンゴ Program, information processing device and method
CN114402274B (en) * 2019-12-26 2024-04-26 多玩国株式会社 Program, information processing apparatus, and method
WO2023200318A1 (en) * 2022-04-15 2023-10-19 주식회사 네모즈랩 Method and device for providing music in virtual space, and non-transitory computer-readable recording medium

Also Published As

Publication number Publication date
JP4755672B2 (en) 2011-08-24

Similar Documents

Publication Publication Date Title
JP4755672B2 (en) Content editing apparatus, method and program
JP5198400B2 (en) Video content search apparatus and video content search method
JP5422317B2 (en) Karaoke system, central apparatus and content data generation method
JP5615190B2 (en) Karaoke device and karaoke program
JP5275184B2 (en) Karaoke system, central apparatus and content data generation method
JP2010066789A (en) Avatar editing server and avatar editing program
JP5361776B2 (en) Karaoke system, karaoke device and computer program
JP5713048B2 (en) Karaoke system
JP2012198380A (en) Display control device
JP5498341B2 (en) Karaoke system
JP6196839B2 (en) A communication karaoke system characterized by voice switching processing during communication duets
JP2010175819A (en) Karaoke network system
JP2014123085A (en) Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke
JP2009005012A (en) Device and method for distributing data, and program
JP2005228297A (en) Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium
JP5979589B2 (en) Exercise support device, program, exercise support method and system
JP3799359B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND PROGRAM
JP5789477B2 (en) Image reproduction apparatus and image reproduction system
JP2007316842A (en) Motion image generation program
JP5566512B2 (en) Karaoke system, central apparatus and content data generation method
JP6472050B2 (en) Karaoke system and program
JP4128326B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP5231093B2 (en) Content updating apparatus, method and program
JP7456232B2 (en) Photo movie generation system, photo movie generation device, user terminal, photo movie generation method, and program
JP6401492B2 (en) Online karaoke system server

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110527

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4755672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350