JP2015185020A - Event method, concert throwing method, event venue and content trading method - Google Patents
Event method, concert throwing method, event venue and content trading method Download PDFInfo
- Publication number
- JP2015185020A JP2015185020A JP2014062371A JP2014062371A JP2015185020A JP 2015185020 A JP2015185020 A JP 2015185020A JP 2014062371 A JP2014062371 A JP 2014062371A JP 2014062371 A JP2014062371 A JP 2014062371A JP 2015185020 A JP2015185020 A JP 2015185020A
- Authority
- JP
- Japan
- Prior art keywords
- data
- motion
- virtual video
- event
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、例えばアーティスト等によるイベント方法、コンサート開催方法、イベント会場及びコンテンツの売買方法に関する。 The present invention relates to an event method by an artist or the like, a concert holding method, an event venue, and a content buying and selling method.
従来から、全国各地のコンサート会場等において、様々なアーティストによるコンサートが開催されている。 Traditionally, concerts by various artists have been held at concert venues throughout the country.
コンサートでは、アーティストが生で歌い、演奏されること等により、ファンに対して様々なサービスが行われている。このため、コンサート会場には、あたかも別世界であるかのような楽しい時間が流れ、ファンが楽しい時間を過ごすことができる。 At the concert, various services are provided to the fans as artists sing and play live. For this reason, the concert venue has a fun time as if it were another world, and fans can have a good time.
ところで、従来のコンサートでは、アーティストがその場で歌ったり、演奏したりすることが前提になっている。アーティストの中には、様々な事情により、アーティストの素顔を隠して活動している者もいる。このようなアーティストにとっては、コンサートを開催したときに、ファンに素顔がばれてしまい、カリスマ性が崩れたり、今後の興行収入が減少したりする等の問題につながるおそれがある。 By the way, conventional concerts are based on the premise that artists will sing and perform on the spot. Some artists are hiding their faces for various reasons. For such an artist, when a concert is held, the fans may be faced, leading to problems such as a loss of charisma and a decrease in future box office revenue.
そこで、本発明は、上記問題に鑑み、アーティストがファンの前に姿を見せることなく、あたかもアーティストがその場で歌ったり、あるいは演奏しているかのような印象をファンに与えることができるイベント方法、コンサート開催方法、イベント会場及びコンテンツの売買方法を提供することを目的とする。 Therefore, in view of the above problems, the present invention provides an event method that can give an impression to a fan as if the artist is singing or playing on the spot without the artist appearing in front of the fan. The purpose is to provide a concert holding method, an event venue, and a content buying and selling method.
第1の発明は、バーチャル映像を利用したイベント方法であって、身体動作情報取得手段により身体の動作に関する身体動作情報を取得する身体動作情報取得ステップと、音声情報取得手段により音声に関する音声情報を取得する音声情報取得ステップと、モーションデータ生成手段により前記身体動作情報に基づいてモーションデータを生成するモーションデータ生成ステップと、音声データ生成手段により前記音声情報に基づいて音声データを生成する音声データ生成ステップと、バーチャル映像データ生成手段により前記モーションデータと前記音声データとを関連付けしたバーチャル映像データを生成するバーチャル映像データ生成ステップと、バーチャル映像表示制御手段により前記バーチャル映像データに基づいたバーチャル映像を表示部上に映し出すバーチャル映像表示制御ステップと、を有することを特徴とする。 The first invention is an event method using a virtual image, wherein a body motion information acquisition step for acquiring body motion information related to body motion by the body motion information acquisition means, and voice information related to voice by the voice information acquisition means. An audio information acquisition step for acquiring, a motion data generation step for generating motion data based on the body motion information by a motion data generation means, and an audio data generation for generating audio data based on the audio information by an audio data generation means A virtual video data generating step for generating virtual video data in which the motion data and the audio data are associated with each other by a virtual video data generating unit; and a virtual video data based on the virtual video data by a virtual video display control unit. It characterized by having a a virtual image display control step for projecting on a display unit.
この場合、音声出力手段により前記音声データに基づいた音声を出力する音声出力ステップを有することを特徴とする。 In this case, it has a voice output step of outputting a voice based on the voice data by a voice output means.
この場合、前記身体動作情報は、歌を歌うときの動作に関する情報であり、前記モーションデータは、歌を歌うときの動作に関するデータであることを特徴とする。 In this case, the physical motion information is information regarding a motion when singing a song, and the motion data is data regarding a motion when singing a song.
この場合、前記音声情報は、歌声に関する情報であり、前記音声データは、歌声に関するデータであることを特徴とする。 In this case, the voice information is information relating to a singing voice, and the voice data is data relating to a singing voice.
この場合、前記バーチャル映像データは、音声に合わせて動作する身体のシルエットに関するデータであることを特徴とする。 In this case, the virtual video data is data relating to a silhouette of a body that moves in accordance with voice.
この場合、前記バーチャル映像表示制御ステップでは、アーティストの近傍に前記バーチャル映像を映し出すことを特徴とする。 In this case, in the virtual image display control step, the virtual image is displayed in the vicinity of the artist.
この場合、前記バーチャル映像は、2次元映像であることを特徴とする。 In this case, the virtual image is a two-dimensional image.
第2の発明は、本発明のバーチャル映像を利用したイベント方法によってコンサートを行うコンサートの開催方法であることを特徴とする。 The second invention is a concert holding method in which a concert is performed by the event method using the virtual image of the present invention.
第3の発明は、本発明のバーチャル映像を利用したイベント方法を実現するイベント会場であることを特徴とする。 The third invention is an event venue that implements the event method using the virtual video of the present invention.
この場合、前記イベント会場は、観客席を有することを特徴とする。 In this case, the event venue has a spectator seat.
第4の発明は、本発明のバーチャル映像を利用したイベント方法により取得されたバーチャル映像の少なくとも一部あるいはバーチャル映像データをコンテンツ又は当該コンテンツが付された物品として販売することを特徴とするコンテンツの売買方法である。 According to a fourth aspect of the present invention, at least a part of virtual video or virtual video data acquired by the event method using virtual video according to the present invention is sold as content or an article to which the content is attached. It is a buying and selling method.
本発明の「コンテンツ」には、音楽あるいはその他の情報の内容という意味で定義される。コンテンツには、動画・静止画の他に、デザイン、写真、絵等が含まれる。 The “content” of the present invention is defined to mean the contents of music or other information. The content includes a design, a photograph, a picture, etc. in addition to a moving image / still image.
本発明の「物品」には、生活用品、植物、動物、食物、嗜好品、車両等が含まれる。 The “article” of the present invention includes daily necessities, plants, animals, food, luxury goods, vehicles and the like.
本発明によれば、実在するアーティストの身体動作と音声に極似したバーチャル映像を表示部に表示することにより、イベントを進行することができる。これにより、観客にとってはあたかもアーティスト本人がその場にいるかのような斬新な印象を受け、イベントを盛り上げることができる。 According to the present invention, an event can be progressed by displaying on the display unit a virtual image that closely resembles the physical movement and sound of an actual artist. This gives the audience a fresh impression as if the artist is on the spot, and can excite the event.
また、アーティストにとっては、イベント会場にいなくても、自身のバーチャル映像データを予め生成しておくことにより、自身の分身が振る舞うイベントを開催することができる。 For artists, even if they are not at the event venue, by generating their own virtual video data in advance, it is possible to hold an event in which their alternations behave.
また、音声出力手段により音声データに基づいた音声を出力する音声出力ステップを有することにより、バーチャル映像の動きに合致したタイミングで最適な音声が出力されるため、バーチャル特有の不自然さを消すことができ、イベントの完成度を高めることができる。 In addition, since there is an audio output step of outputting audio based on audio data by the audio output means, optimal audio is output at a timing that matches the movement of the virtual video, thus eliminating the unnaturalness peculiar to virtual. Can improve the completeness of the event.
また、身体動作情報は歌を歌うときの動作に関する情報であり、モーションデータは歌を歌うときの動作に関するデータであることにより、バーチャル映像によってアーティストの動作を正確に表現することができる。 The body motion information is information related to the motion when singing a song, and the motion data is data related to the motion when singing a song, so that the motion of the artist can be accurately expressed by a virtual image.
また、音声情報が歌声に関する情報であり、音声データが歌声に関するデータであることにより、バーチャル映像によってアーティストの歌声を正確に表現することができる。 Further, since the audio information is information related to the singing voice and the audio data is data related to the singing voice, the artist's singing voice can be accurately expressed by the virtual video.
また、バーチャル映像データが、音声に合わせて動作する身体のシルエットに関するデータであることにより、アーティスト本人による演出のように見せることができ、観客を益々興奮させ、イベントを成功させることができる。 In addition, since the virtual video data is data relating to the silhouette of the body that moves according to the sound, it can look like an effect by the artist himself, making the audience more excited and making the event successful.
また、バーチャル映像表示制御ステップでは、アーティストの近傍にバーチャル映像が映し出されることにより、アーティスト本人とその分身を並べて進行する公演を実現できる。これにより、観客の射幸心を刺激して、イベントを最高に盛り上げることができる。 Also, in the virtual video display control step, a virtual video can be displayed in the vicinity of the artist, thereby realizing a performance in which the artist himself and his alternation are advanced side by side. As a result, the audience can be stimulated and the event can be excited.
また、バーチャル映像が2次元映像であることにより、アーティスト本体の身体的な特徴を平面で捉えることができる。これにより、観客がいる位置によって、バーチャル映像が見え難くなることを防止できる。 In addition, since the virtual video is a two-dimensional video, the physical characteristics of the artist main body can be captured in a plane. Thereby, it can prevent that it becomes difficult to see a virtual image | video by the position where a spectator exists.
また、バーチャル映像を利用したイベント方法によってコンサートを行うことにより、アーティストがコンサート会場にいなくても、アーティスト本人が出演するコンサートと同様に盛り上げることができる。 In addition, by performing a concert by an event method using virtual images, it is possible to excite the artist in the same way as a concert in which the artist himself appears, even if the artist is not at the concert venue.
また、アーティスト本人の動作と音声に極似したバーチャル映像を表示できるイベント会場を提供することができる。 In addition, it is possible to provide an event venue that can display a virtual video that closely resembles the movement and sound of the artist.
また、イベント会場に観客席を設けることにより、多くの観客を収容して、大きなイベントを開催することができる。 In addition, a large event can be held by accommodating many spectators by providing spectator seats at the event venue.
また、バーチャル映像を利用したイベント方法により取得されたバーチャル映像の少なくとも一部あるいはバーチャル映像データをコンテンツ又はデザインとして販売することにより、斬新なコンテンツをファンに販売することができる。これにより、ファンが喜び、音楽業界が活性化される。 Moreover, novel content can be sold to fans by selling at least part of virtual video or virtual video data acquired by an event method using virtual video as content or design. This will delight fans and revitalize the music industry.
本発明の第1実施形態に係るバーチャル映像を利用したイベント方法、コンサート開催方法及びイベント会場について、図面を参照して説明する。 An event method, concert holding method, and event venue using a virtual image according to the first embodiment of the present invention will be described with reference to the drawings.
バーチャル映像を利用したイベント方法を実現させるためのイベントシステムについて説明する。 An event system for realizing an event method using virtual video will be described.
図1及び図2に示すように、イベントシステム10は、主として、メイン制御部10Aと、記憶部10Bと、身体動作情報入力部10Cと、音声情報入力部10Dと、モーションデータ生成部10Eと、音声データ生成部10Fと、バーチャル映像データ生成部10Gと、バーチャル映像表示制御部10Hと、音声出力部10Iと、を有している。
As shown in FIGS. 1 and 2, the
メイン制御部10Aは、イベントシステム10の各構成要素を統括的に制御する。
The
なお、メイン制御部10Aは、例えば、CPUを用いることができる。
The
記憶部10Bは、各種データ及びプログラムが記憶されている。
The
なお、記憶部10Bは、例えば、ROM、RAM等を用いることができる。
The
身体動作情報入力部10Cは、身体の動作の記録をとり、これを身体動作情報DB1として取得する。例えば、アーティストの姿勢、演技(コント)、歌を歌うときの振り付けなどの身体動作の記録に基づいた身体動作情報DB1を取得する。
The body motion
なお、身体動作情報DB1は、記憶部10Bに記憶される。
The body motion information DB1 is stored in the
身体動作情報入力部10Cとして、例えば、肉体の動作を測定するための各種センサを用いることができる。
As the body motion
音声情報入力部10Dは、対象者の音声を録音し、これを音声情報DB2として取得する。例えば、アーティストの歌声、話し言葉などの音声の記録に基づいた音声情報DB2を取得する。
The voice
なお、音声情報DB2は、記憶部10Bに記憶される。
The voice information DB2 is stored in the
音声情報入力部10Dとして、例えば、マイクを用いることができる。
For example, a microphone can be used as the audio
モーションデータ生成部10Eは、身体動作情報DB1に基づいてモーションデータDB3を生成する。モーションデータDB3は、例えば、アーティストの姿勢、演技などの身体動作を再現可能なデータである。
The motion
なお、モーションデータDB3は、記憶部10Bに記憶される。
The motion data DB3 is stored in the
モーションデータ生成部10Eとして、例えば、専用のモーションデータ生成プログラム(ソフトウエア)PG1に基づいてモーションデータDB3を生成するCPUを用いることができる。
As the motion
なお、モーションデータ生成プログラムPG1は、記憶部10Bに記憶されている。
The motion data generation program PG1 is stored in the
音声データ生成部10Fは、音声情報に基づいて音声データDB4を生成する。音声データDB4は、例えば、アーティストの歌声、話し言葉などを再現可能なデータである。
The voice data generation unit 10F generates the
なお、音声データDB4は、記憶部10Bに記憶される。
Note that the audio data DB4 is stored in the
音声データ生成部10Fとして、例えば、専用の音声データ生成プログラム(ソフトウエア)PG2に基づいて音声データDB4を生成するCPUを用いることができる。 As the audio data generation unit 10F, for example, a CPU that generates the audio data DB4 based on a dedicated audio data generation program (software) PG2 can be used.
なお、音声データ生成プログラムPG2は、記憶部10Bに記憶されている。
The audio data generation program PG2 is stored in the
バーチャル映像データ生成部10Gは、モーションデータDB3と音声データDB4とを関連付けしたバーチャル映像データDB5を生成する。バーチャル映像データDB5は、例えば、所定のアバター等のキャラクタに関するデータでもよいし、アーティストの身体のシルエットに関するデータでもよい。
The virtual video
バーチャル映像データDB5の一例として、アーティストが歌を歌ったり、踊ったりする映像データが挙げられる。このとき、バーチャル映像データDB5は、モーションデータと音声データとを調和あるいはそれらのタイミングを同期させて形成された合成データであり、アーティストの身体動作と音声を同時に自然な感じで表現することができる。
An example of the virtual
バーチャル映像データDB5の一例として、例えば、動作と音声を伴う2次元映像又は3次元映像のデータが採用される。また、バーチャル映像データDB5としては、例えば、キャラクタあるいはアーティストのシルエットが実際のアーティストの動作と同じ動作で動き、さらには実際のアーティストの歌声等と同じ歌声で歌を歌うことが可能なデータである。
As an example of the virtual
なお、モーションデータDB3と音声データDB4とを調和あるいはそれらのタイミングを同期させる手法(編集方法)は、周知の技術を利用できる。詳細については、実施例の中で説明する。
A well-known technique can be used as a method (editing method) for harmonizing the
なお、バーチャル映像データDB5は、記憶部10Bに記憶される。
The virtual video data DB5 is stored in the
バーチャル映像データ生成部10Gとして、例えば、専用のバーチャル映像データ生成プログラム(ソフトウエア)PG3に基づいてバーチャル映像データDB5を生成するCPUを用いることができる。
As the virtual video
なお、バーチャル映像データ生成プログラムPG3は、記憶部10Bに記憶されている
The virtual video data generation program PG3 is stored in the
また、バーチャル映像データ生成部10Gとして、専用のバーチャル映像データ生成ソフトウエアを利用して、モーションデータDB3と音声データDB4とを所定のタイミングを手作業により同期させる手法を用いてもよい。
Further, as the virtual video
バーチャル映像表示制御部10Hは、例えば、表示部12(図4参照)上でバーチャル映像データDB5に基づいたバーチャル映像14(図4参照)を映し出す。バーチャル映像表示制御部10Hは、バーチャル映像の表示の内容を制御する機能を有している。
For example, the virtual video
バーチャル映像14は、例えば、バーチャル映像データDB5に基づいたアーティストの動作と音声を伴った動きのある映像であり、あたかもアーティストが表示部12上で歌を歌っているかのような印象を観客に対して与えることができる。
The
バーチャル映像14として、例えば、所定のキャラクタに関する映像でもよく、アーティストのシルエットに関する映像でもよい。
The
バーチャル映像14は、例えば、2次元的に映し出される2次元映像が採用されるが、3次元的に映し出される3次元映像を作り出してもよい。
For the
バーチャル映像表示制御部10Hは、例えば、映写機やプロジェクタなど、映像を再生可能な電気・電子機器を用いることができる。
For the virtual video
なお、表示部12とは、バーチャル映像14を表示するためのスクリーンでもよいし、液晶ディスプレイ等でもよい。
The
表示部12は、例えば、2次元映像あるいは3次元映像を映し出すことが可能なディスプレイあるいはスクリーンが好ましい。
The
音声出力部10Iは、音声データに基づき音声を出力する。音声出力部10Iから出力される音声は、バーチャル映像データによってモーションデータと対応付けされており、バーチャル映像の動作に対応して出力される。このため、バーチャル映像の動作タイミングと音声出力タイミングとのズレがなく、あるいは多少のズレがあってもバーチャル映像データ生成部10Gあるいはメイン制御部10Aによって補正されるため、バーチャル映像を見ながら、音声を聴いたときに違和感が生じることがない。
The audio output unit 10I outputs audio based on the audio data. The audio output from the audio output unit 10I is associated with the motion data by the virtual video data, and is output corresponding to the operation of the virtual video. For this reason, there is no deviation between the operation timing of the virtual video and the audio output timing, or even a slight deviation is corrected by the virtual video
なお、音声出力部10Iとしては、例えば、スピーカを用いることができる。 For example, a speaker can be used as the audio output unit 10I.
次に、上記イベントシステム10を用いたバーチャル映像14を利用したイベント方法について説明する。
Next, an event method using the
図3に示すように、バーチャル映像を利用したイベント方法は、主として、身体動作情報取得ステップS10と、音声情報取得ステップS11と、モーションデータ生成ステップS12と、音楽データ生成ステップS13と、バーチャル映像データ生成ステップS14と、バーチャル映像表示制御ステップS15と、音声出力ステップS16と、を有する。 As shown in FIG. 3, the event method using virtual video mainly includes body motion information acquisition step S10, audio information acquisition step S11, motion data generation step S12, music data generation step S13, and virtual video data. It has generation step S14, virtual video display control step S15, and audio output step S16.
身体動作情報取得ステップS10では、身体動作情報入力部10Cによって身体の動作に関する身体動作情報DB1を取得する。例えば、身体動作情報DB1として、アーティストの姿勢、演技(コント)、歌を歌うときの振り付けなどの身体動作の記録に基づいた情報が該当する。
In the body motion information acquisition step S10, body motion information DB1 related to body motion is acquired by the body motion
音声情報取得ステップS11では、音声情報入力部10Dによって話し言葉・歌を歌うときの音声に関する音声情報DB2を取得する。例えば、音声情報DB2として、アーティストの歌声、話し言葉などの音声の記録に基づいた情報が該当する。
In the voice information acquisition step S11, the
モーションデータ生成ステップS12では、モーションデータ生成部10Eによって身体動作情報DB1に基づいてモーションデータDB3を生成する。モーションデータDB3は、例えば、アーティストの姿勢、演技などの身体動作を再現可能なデータである。
In the motion data generation step S12, the motion
音声データ生成ステップS13では、音声データ生成部10Fによって音声情報DB2に基づいて音声データDB4を生成する。音声データDB4は、例えば、アーティストの歌声、話し言葉などを再現可能なデータである。
In the voice data generation step S13, the
バーチャル映像データ生成ステップS14では、バーチャル映像データ生成部10GによってモーションデータDB3及び音声データDB4に基づいてバーチャル映像データDB5を生成する。例えば、バーチャル映像データDB5として、音声に合わせてアーティストが動作する身体のシルエットに関するバーチャル映像データが該当する。
In virtual video data generation step S14, virtual video data DB5 is generated based on motion data DB3 and audio data DB4 by virtual video
ここで、モーションデータDB3と音声データDB4とのタイミング等を合わせるために、所定の手法により調和あるいは同期される。 Here, in order to match the timing of the motion data DB3 and the audio data DB4, they are harmonized or synchronized by a predetermined method.
バーチャル映像表示制御ステップS15では、図4に示すように、バーチャル映像表示制御部10Hによってバーチャル映像データDB5に基づいたバーチャル映像14を表示部12上に映し出す。例えば、表示部12としてのスクリーン上で、歌を歌いながら踊るアーティストのシルエットあるいはキャラクタが映し出される。
In the virtual video display control step S15, as shown in FIG. 4, the virtual video
音声出力ステップS16では、バーチャル映像表示制御ステップS15と同じタイミングで実行されるものであり、音声出力部10Iによって音声データDB4に基づいた音声を出力する。これにより、バーチャル映像14の動きに合致したタイミングで最適な音声が出力され、バーチャル映像14を利用したイベント、コンサート、ライブの完成度を高めることができる。
The audio output step S16 is executed at the same timing as the virtual video display control step S15, and the audio output unit 10I outputs audio based on the audio data DB4. As a result, optimal sound is output at a timing that matches the movement of the
なお、アーティストは、一人でも良いし、複数人のグループでもよい。複数人グループの場合には、表示部12上で複数のアーティストが独自に歌いながら踊るシルエットあるいはそのキャラクタが映し出される。
The artist may be a single person or a group of multiple persons. In the case of a multi-person group, a silhouette or a character for dancing while a plurality of artists sing independently is displayed on the
ここで、図5に示すように、アーティスト本人16を登場させ、当該アーティスト本人16の近傍にバーチャル映像14が映し出されるように設定し、アーティスト本人16がバーチャル映像14と略同じタイミングで歌を歌いながら踊る特別な演出を設けてもよい。これにより、アーティストとその分身が並んだ状態でパフォーマンスを実行でき、斬新な演出になり、イベントが最高に盛り上がる。
Here, as shown in FIG. 5, the artist himself 16 is made to appear and the
なお、イベントとして、例えば、アーティストによるコンサートあるいはライブが該当する。この場合には、バーチャル映像14を利用したコンサート開催方法あるいはライブ開催方法という発明を創出できる。
The event corresponds to, for example, a concert or live performance by an artist. In this case, an invention of a concert holding method or a live holding method using the
本実施形態のバーチャル映像14を利用したイベント方法あるいはコンサート・ライブ開催方法によれば、実在するアーティストの身体動作と音声に極似したバーチャル映像14を表示することにより、イベントを進行することができる。これにより、観客にとってはあたかもアーティスト本人がその場にいるかのような斬新な印象を受け、イベントを盛り上げることができる。
According to the event method using the
また、アーティストにとっては、イベント会場17(図6参照)にいなくても、自身のモーションデータDB3と音声データDB4に基づきバーチャル映像データDB5を生成・記憶しておくことにより、自身の分身によるイベントを開催することができる。 For artists, even if they are not at the event venue 17 (see FIG. 6), the virtual video data DB5 is generated and stored based on their own motion data DB3 and audio data DB4, so that an event based on their own self Can be held.
身体動作情報取得ステップS10において歌を歌うときの動作に関する身体動作情報DB1が取得され、モーションデータ生成ステップS12においてその身体動作情報DB1に基づいてモーションデータDB3が生成されることにより、バーチャル映像14によってアーティストの動作を正確に表現することができる。 The body motion information DB1 relating to the motion when singing a song is acquired in the body motion information acquisition step S10, and the motion data DB3 is generated based on the body motion information DB1 in the motion data generation step S12. The artist's movement can be expressed accurately.
音声情報取得ステップS11において歌声に関する音声に関する音声情報が取得され、音声データ生成ステップS13においてその音声情報に基づいて音声データDB4が生成されることにより、バーチャル映像14によってアーティストの歌声を正確に表現することができる。
In the voice information acquisition step S11, voice information related to the voice related to the singing voice is acquired, and in the voice data generation step S13, the
バーチャル映像データ生成ステップS14では、モーションデータDB3及び音声データDB4に基づいて音声に合わせて動作するバーチャル映像データDB5が生成される。そして、バーチャル映像データDB5に基づいてバーチャル映像14が生成されて表示されることにより、アーティスト本人による演出のように見せかけることができ、観客が益々興奮し、イベントを成功させることができる。
In the virtual video data generation step S14, virtual video data DB5 that operates in accordance with the sound is generated based on the motion data DB3 and the sound data DB4. Then, by generating and displaying the
ここで、バーチャル映像14を利用したイベント方法によってコンサートの開催することにより、アーティストが出演する場合と同様にして、コンサートを盛り上げることができる。また、アーティストにとっては、コンサート会場16にいなくても、自身の分身によるコンサートを開催することができる。
Here, by holding the concert by an event method using the
なお、モーションデータDB3の基になる被測定者は、アーティストに限定されるものではない。アーティストの他に、人間、アニメのキャラクタ、故人、動物、機械、ロボットなど様々な人・物が対象となる。これらのものの身体動作情報DB1は、予め記録しておくことが好ましいが、コンピュータ等により新しく生成(再現)することも可能である。
The person to be measured on which the
また、同様にして、音声データDB4の基になる被測定者は、アーティストに限定されるものではない。アーティストの他に、人間、アニメのキャラクタ、故人、動物、機械、ロボットなど様々な人・物が対象となる。これらのものの音声情報DB2は、予め取得しておくことが好ましいが、コンピュータ等により新しく生成(再現)することも可能である。音声データDB4として、生演奏に限らず、人工的に作られたもの、自然環境の中で発生し得る音を利用してもよい。
Similarly, the person to be measured that is the basis of the
次に、上記したバーチャル映像14を利用したイベントが開催されるイベント会場について説明する。
Next, an event venue where an event using the
図6に示すように、イベント会場17は、バーチャル映像14を表示する表示部12と、表示部12の近傍に配置された複数の観客席18を有する観客エリア20と、を有している。
As shown in FIG. 6, the
また、イベント会場17には、表示部12の近傍にステージ22を適宜配置してもよい。ステージ22を設けることにより、ステージ22上にアーティスト本人が出演して歌を歌いながら踊り、同時に表示部12上でバーチャル映像14を表示するようにしてイベント(コンサートあるいはライブ)を行ってもよい。
In the
なお、イベントとしてコンサートを行う場合には、イベント会場17がコンサート会場になる。また、イベントとしてライブを行う場合には、イベント会場17がライブハウスあるいはライブ会場になる。
When performing a concert as an event, the
これにより、アーティストの動作と音声に極似したバーチャル映像14を表示できるイベント会場17を提供することができる。また、バーチャル映像14の表示とともに、アーティスト本人が出演することにより、斬新な演出を作り出すことができる。
As a result, it is possible to provide an
特に、イベント会場17に複数の観客席18を設けることにより、多くの観客を収容して、大きなイベントを開催することができる。
In particular, by providing a plurality of
次に、上記したバーチャル映像14を利用したイベント方法を用いたビジネスモデルを説明する。
Next, a business model using the event method using the
ここでは、第1実施形態のイベント方法及びイベントシステム10によって生成されたバーチャル映像データDB5及び表示部12に映し出されたバーチャル映像14の少なくとも一部のコンテンツ自体、あるいはそのコンテンツが付された物品を売買取引するビジネスモデルをとりあげる。
Here, the virtual
「コンテンツ」とは、音楽あるいはその他の情報の内容という意味で定義される。コンテンツには、動画・静止画の他に、デザイン、写真、絵等が含まれる。 “Content” is defined to mean the content of music or other information. The content includes a design, a photograph, a picture, etc. in addition to a moving image / still image.
本発明の「物品」には、コンテンツの少なくとも一部が付された生活用品、衣類、植物、動物、食物、嗜好品、車両等が含まれる。 The “article” of the present invention includes daily necessities, clothing, plants, animals, food, luxury goods, vehicles, etc. to which at least a part of the content is attached.
例えば、図20に示すように、イベントの内容をカメラ等の撮像手段(図示省略)で記録して、動画ファイル等のコンテンツ24を作成する。このコンテンツ24自体又はコンテンツ24に関する情報をアーティスト用端末26で専用のアプリケーション28を用いて保存する。そして、アーティスト用端末26から専用のアプリケーション28を用いてコンテンツ24又はその情報をコンテンツ配信用サーバ30にアップロードする。
For example, as shown in FIG. 20, the contents of the event are recorded by an imaging means (not shown) such as a camera to create a
ファンは、インターネットを介してコンテンツ配信用サーバ30からユーザ用端末32に専用のアプリケーション34を用いてコンテンツ又はその情報をダウンロードする。そして、欲しいコンテンツ24を専用のアプリケーション34を用いてユーザ用端末32から購入処理を行う。このときの課金処理は、別途設けられている課金管理用サーバ36に対して行うことが可能である。
The fan downloads the content or its information from the
このようにして、コンテンツ24を取得したファンは、自身の端末32によりコンテンツ24を再生してイベントを楽しむことができる。これにより、ファンが喜び、音楽業界が活性化される。
In this way, the fan who has acquired the
また、コンテンツ24として、バーチャル映像データDB5あるいはバーチャル映像14の少なくとも一部が表示された物品(グッズ)でもよい。ここで、物品(グッズ)として、衣類、文房具、録音されたメディア類などが該当する。これらの物品にバーチャル映像14の少なくとも一部がデザインとして表示されていることにより、ファンが喜ぶ。なお、物品の発送は、既存の配送ルートを利用することができる。
The
また、バーチャル映像データDB5を入手することにより、様々な用途で利用することができる。契約内容によっては、ファンがバーチャル映像14を自在に編集することも可能になる。これにより、斬新なコンテンツ24をファンに販売することができる。この結果、ファンが喜び、音楽業界が活性化される。
Further, by obtaining the virtual video data DB5, it can be used for various purposes. Depending on the contents of the contract, the fan can freely edit the
次に、上記したバーチャル映像14を利用したイベント方法の実施例について説明する。なお、コンサート開催方法についても下記の実施例を適用することができる。
Next, an embodiment of an event method using the
[第1実施例]
バーチャル映像を利用したイベント方法の第1実施例について説明する。バーチャル映像データ14を生成するための手法として、モーションキャプチャーを利用することができる。第1実施例では、モーションキャプチャーの一例として、それを実行するための装置あるいはシステムを含めて説明する。
[First embodiment]
A first embodiment of an event method using virtual video will be described. Motion capture can be used as a method for generating the
なお、第1実施例は、特許庁電子図書館で公開されている特開2007−18388号公報に記載されている公知技術を適用したものである。以下、特許庁電子図書館で公開されている特開2007−18388号公報に記載されている内容に基づいて第1実施例を説明する。 In the first embodiment, a known technique described in Japanese Patent Application Laid-Open No. 2007-18388 published at the JPO Digital Library is applied. The first embodiment will be described below based on the contents described in Japanese Patent Application Laid-Open No. 2007-18388 published at the JPO Electronic Library.
第1実施例では、図7は、モーション作成装置100の構成の概略を示す構成図である。モーション作成装置100は、図示するように、汎用のコンピュータにモーション作成処理用のプログラムをインストールすると共に起動することにより図示しないCPUやROM、RAM、入出力ポートなどのハードウエアとソフトウエアとが一体となって機能するものとして構成されている。
In the first embodiment, FIG. 7 is a configuration diagram showing an outline of the configuration of the
モーション作成装置100は、音楽データを入力する音楽データ入力部102と、入力した音楽データを解析する処理を行なう音楽データ解析部104と、音楽データの解析結果に基づいて人体画像のモーションを作成する処理を行なうモーション作成処理部106と、作成したモーションで人体画像が動作するようディスプレイ101に表示する処理を行なう表示処理部108と、人体画像の複数のモーションをモーショングラフとして登録するモーションデータベース(以下、モーションDBと呼ぶ)110と、を備えている。
The
なお、音楽データは、アーティストの歌声、話し声等を予め記録しておき、音声データという形式で生成するものである。 The music data is generated in the form of audio data by recording in advance the artist's singing voice, speaking voice, and the like.
音楽データ入力部102と音楽データ解析部104は、例えば、イベントシステム10の音声情報入力部10Dと音声データ生成部10Fに対応する。
The music
モーション作成処理部106は、例えば、イベントシステム10の身体動作情報入力部10Cとモーションデータ生成部10Eとバーチャル映像データ生成部10Gに対応する。
The motion
表示処理部108は、例えば、イベントシステム10のバーチャル映像表示制御部10Hに対応する。
The
ディスプレイ101は、例えば、イベントシステム10の表示部12に対応する。
The
モーションデータベース110は、例えば、イベントシステム10の記憶部10Bに対応する。
The
図8は、人体画像の一フレームを構成する人体モデルの一例を示す説明図である。人体モデルは、図示するように、人体の向きを示すベクトルR(={rx,ry,rz})と人体の空間上の位置を示すベクトルt(={tx,ty,tz})と人体の腰(waist)を中心とした体中心座標系{R,t}における人体モデルの各要素を連結するリンクの向きを示す17個の姿勢ベクトル(単位ベクトル)v0〜v16と各リンクの長さを示す9個のスカラー値l0〜l8とからなる人体姿勢S(f)(fはフレーム番号)として構成されている(次式(1)〜(3)参照)。
FIG. 8 is an explanatory diagram showing an example of a human body model constituting one frame of a human body image. As shown in the figure, the human body model includes a vector R (= {rx, ry, rz}) indicating the direction of the human body, a vector t (= {tx, ty, tz}) indicating the position of the human body in space, 17 posture vectors (unit vectors) v0 to v16 indicating the directions of links connecting the elements of the human body model in the body center coordinate system {R, t} centered on the waist and the length of each link. It is configured as a human body posture S (f) (f is a frame number) consisting of nine
ここで、体中心座標系{R,t}は、腰(waist)の位置を原点としてz軸が腰から腹部へ向かう方向,y軸が正面方向,x軸がz軸およびy軸に直交する方向となるよう定めた。また、スカラー値l0〜l8を9個としているのは右腕v1,v2,v3と左腕v5,v6,v7の長さや右手v4と左手v8の長さ,右足v9,v10,v11,v12と左足v13,v14,v15,v16の長さを左右同一としたためである。
Here, in the body center coordinate system {R, t}, the z axis is a direction from the waist to the abdomen with the position of the waist as the origin, the y axis is the front direction, and the x axis is orthogonal to the z axis and the y axis. It was determined to be a direction. The nine
図9は、モーションDB110に登録されるモーショングラフの一例を示す説明図である。モーショングラフは、図示するように、モーションキャプチャーにより取り込まれた複数のモーションデータ(図中にはモーションデータ1〜6と表示)上の各フレームのうち人体姿勢S(f)が互いに類似する2つのフレーム(ノード)間を連結した有向性グラフとして構成されている。
FIG. 9 is an explanatory diagram illustrating an example of a motion graph registered in the
人体姿勢S(f)が互いに類似するフレーム間の連結は、例えば、モーションデータ1〜6上の任意の2つのフレームに対して次式(4)により相関値を計算し、計算した相関値がしきい値よりも大きいものを人体姿勢SA(fA),SB(fB)が類似しているフレームfA,fBとして決定し、決定した2つのフレームfA,fB間を次式(5)を含む三次補間の関係式を用いて生成されるフレームによって連結することにより行なうことができる。
For the connection between frames whose human body postures S (f) are similar to each other, for example, a correlation value is calculated according to the following equation (4) for any two frames on the
ここで、式(4)中の右辺第1項は2つのフレームfA,fB間の姿勢ベクトルv(fA),v(fB)(iは姿勢ベクトルの番号)の相関を示し、右辺第2項は2つのフレームfA,fB間の姿勢ベクトルv(fA),v(fB)の微分(動き)の相関を示す。 Here, the first term on the right side in Equation (4) indicates the correlation between the posture vectors v (fA) and v (fB) (i is the number of the posture vector) between the two frames fA and fB, and the second term on the right side. Indicates the correlation of the differential (motion) of the posture vectors v (fA) and v (fB) between the two frames fA and fB.
なお、「αi」「βi」は、定数である。また、式(5)中の「T」は遷移時間(フレームfA,fB間に挿入するフレーム数)を示す。式(5)では、姿勢ベクトルv(fA),v(fB)についてのみ記述したが、ベクトルRやベクトルtについても同様の三次補間の関係式を用いることによりフレームfA,fB間を連結するためのフレームを生成することができる。こうしてモーショングラフを構築すると、モーショングラフ上のノード間を遷移することによりあらゆるパターンのモーションを少ないデータ量で実現することができる。 “Αi” and “βi” are constants. In addition, “T” in Equation (5) indicates a transition time (the number of frames inserted between frames fA and fB). In Expression (5), only the orientation vectors v (fA) and v (fB) are described, but the frames R and FB are connected to each other by using the same cubic interpolation relational expression for the vectors R and t. Frames can be generated. When a motion graph is constructed in this way, motion of any pattern can be realized with a small amount of data by transitioning between nodes on the motion graph.
また、モーショングラフは、フレーム毎にキーフレーム成分MCkeyframeと動き盛り上がり成分MCintensityとが関連付けられてモーションDB110に登録されている。
The motion graph is registered in the
ここで、キーフレーム成分MCkeyframeは、右手v4,左手v8の動作速度が極小となるフレームをキーフレームf,f(i,jはキーフレームの番号)としてそれぞれ登録しておき、フレームfに対してキーフレームfの時刻を中心とした時間幅Kをもたせたガウス関数を適用して得られる値と、フレームfに対して同様にキーフレームfの時刻を中心とした時間幅Kをもたせたガウス関数を適用して得られる値とを足し合わせたものを設定するものとした(次式(6)参照)。 Here, in the key frame component MCkeyframe, the frames in which the operating speed of the right hand v4 and the left hand v8 are minimized are registered as key frames f and f (i and j are key frame numbers), respectively. A value obtained by applying a Gaussian function having a time width K centered on the time of the key frame f and a Gaussian function having a time width K centered on the time of the key frame f with respect to the frame f. A value obtained by adding together the values obtained by applying is set (see the following equation (6)).
なお、式(6)中の「σ」は分散を示す。キーフレーム成分MCkeyframeを設定する様子の一例を図10に示す。図示するように、キーフレーム成分MCkeyframeは、キーフレームf,fに近いフレームfほど値が大きくなるよう設定され、その値が大きいほど後述する音楽のリズム(ビート特徴成分ASCbeat)との相関が大きく現われる。これは、踊りの中で手の動きが止まる場面(止め動作)は音楽のリズムにあわせて出現される傾向があることが確認されたことに基づく。 In the equation (6), “σ” indicates dispersion. An example of how the key frame component MCkeyframe is set is shown in FIG. As shown in the figure, the key frame component MCkeyframe is set to have a larger value as the frame f is closer to the key frames f and f, and the larger the value, the greater the correlation with the music rhythm (beat feature component ASCbeat) described later. Appear. This is based on the fact that it was confirmed that scenes where the movement of the hand stops during the dance (stopping action) tend to appear along with the rhythm of the music.
キーフレーム成分MCkeyframeに時間的な幅Kをもたせているのは、人は音楽のリズムに完全にあわせて踊っているわけではなく、ある程度のズレが生じることがあることを考慮したものである。また、動き盛り上がり成分MCintensityは、フレームfに対して隣接するキーフレームf,f間の中央時刻を中心としてキーフレームf,f間の時間幅をもたせたガウス関数を適用して得られる値と、フレームfに対して同様に隣接するキーフレームf,f間の中央時刻を中心としてキーフレームf,f間の時間幅をもたせたガウス関数を適用して得られる値とを足し合わせたものを設定するものとした(次式(7)参照)。 The reason why the key frame component MCkeyframe has a temporal width K is that a person does not dance perfectly in accordance with the rhythm of the music, and a certain amount of deviation may occur. Further, the motion excitement component MCintity is obtained by applying a Gaussian function having a time width between the key frames f and f around the central time between the key frames f and f adjacent to the frame f, and Similarly, a value obtained by applying a Gaussian function with a time width between key frames f and f centered on a central time between adjacent key frames f and f is set for frame f. (Refer to the following formula (7)).
なお、式(7)中の「v(i)」は隣接するキーフレームf,f間における右手v4の最大速度を示し、「v(i)」は左手v8において隣接するキーフレームf,f間における左手v8の最大速度を示す。動き盛り上がり成分MCintensityを設定する様子の一例を図11に示す。 In Expression (7), “v (i)” indicates the maximum speed of the right hand v4 between the adjacent key frames f and f, and “v (i)” is between the adjacent key frames f and f in the left hand v8. Shows the maximum speed of the left hand v8. FIG. 11 shows an example of how the motion excitement component MCintity is set.
図示するように、動き盛り上がり成分MCintensityは、隣接するキーフレームf,f間の中央時刻(フレーム),隣接するキーフレームf,f間の中央時刻(フレーム)に近いフレームfほど値が大きくなり且つ隣接するキーフレームf,f間における右手v4の最大速度v(i),隣接するキーフレームf,f間における左手v8の最大速度v(i)が大きいほど大きくなるよう設定され、後述する音楽盛り上がり成分ASCintensityとの相関が大きく現われる。これは、音楽が盛り上がっているときには手も速く動かされており、そうでないときには手もゆっくりとしか動かされていないことが確認されたことに基づく。 As shown in the drawing, the value of the motion excitement component MCintensity becomes larger as the frame f is closer to the central time (frame) between the adjacent key frames f and f and the central time (frame) between the adjacent key frames f and f. The maximum velocity v (i) of the right hand v4 between the adjacent key frames f and f and the maximum velocity v (i) of the left hand v8 between the adjacent key frames f and f are set so as to increase, and the music excitement described later A large correlation with the component ASC intensity appears. This is based on the fact that it was confirmed that the hands were moved fast when the music was exciting and the hands were moved only slowly when it was not.
次に、こうして構成された実施例のモーション作成装置100の動作について説明する。図12は、モーション作成装置100により実行されるメインルーチンの一例を示すフローチャートである。このルーチンは、操作者によりモーション作成開始の指示がなされたときに所定時間毎(例えば3秒毎)に繰り返し実行される。
Next, an operation of the
メインルーチンが実行されると、モーション作成装置100のCPUは、まず、音楽データを入力する(ステップS100)。音楽データは、WAVEデータやMIDIデータなどの他の如何なる形式のデータを入力するものとしてもよい。また、音楽データは、音楽CDなどの記録媒体からデータを直接読み込むことにより入力するものとしてもよいし、演奏されている音楽をマイクから取り込むことにより入力するものとしてもよい。続いて、入力した音楽データを解析し(ステップS110)、その解析結果に基づいてモーションDB110のモーショングラフから実行パスPathexec(モーショングラフ上の軌跡)を選択することによりモーションを作成し(ステップS120)、作成したモーションをディスプレイ21に表示出力する(ステップS130)。こうしたステップS100〜S130の処理を音楽が終了するまで繰り返し実行して(ステップS140)、本ルーチンを終了する。
When the main routine is executed, the CPU of the
ステップS110における音楽データの解析は、実施例では、図13に例示する音楽データ解析処理により実行される。音楽データ解析処理は、まず、入力した音楽データをスペクトル解析する(ステップS200)。スペクトル解析は、実施例では、窓関数として音楽データの処理に適していると言われているガウス関数を用いてフーリエ変換することにより行なうものとした。これにより、時間成分t毎,周波数成分f毎のスペクトルパワーp(t,f)が導出される。 In the embodiment, the music data analysis in step S110 is executed by a music data analysis process illustrated in FIG. In the music data analysis process, first, spectrum analysis is performed on the input music data (step S200). In the embodiment, the spectrum analysis is performed by Fourier transform using a Gaussian function that is said to be suitable for processing music data as a window function. Thereby, the spectrum power p (t, f) for each time component t and each frequency component f is derived.
続いて、スペクトル解析の結果に基づいて入力した音楽のビート間隔とビート時刻とを推定する(ステップS210)。ビート間隔の推定は、次式(8)により時間成分t毎,周波数成分f毎のスペクトルパワー増分d(t,f)を算出し、次式(9)により全ての周波数成分におけるスペクトルパワー増分d(t,f)を合計してスペクトルパワー増分D(t)を算出し、式(10)によりスペクトルパワー増分D(t)の自己相関関数RDD(τ)を求めてそれが最初にピークを示すときの時間τ_peakを抽出することにより推定することができる。 Subsequently, the beat interval and beat time of the input music are estimated based on the result of spectrum analysis (step S210). The beat interval is estimated by calculating the spectral power increment d (t, f) for each time component t and frequency component f by the following equation (8), and by the following equation (9). (T, f) is summed to calculate the spectrum power increment D (t), and the autocorrelation function RDD (τ) of the spectrum power increment D (t) is obtained by the equation (10), and it first shows a peak. It can be estimated by extracting the time τ_peak of the hour.
図14に、スペクトルパワー増分d(t,f)を算出する様子を示す。なお、式(8)において前回スペクトルパワーPrevPowに対象とする周波数fの上下(f±1)のスペクトルパワーも含めているのは、ある音が発音されているときに必ずしも一定の音程で発音されるわけではなく多少音程が上下することを考慮したことに基づく。式(10)に示す自己相関関数RDD(τ)は、最初にピークが到来する時間τ_peakがスペクトルパワー増分D(t)の周期をあらわすから、この時間τ_peakは発音間隔をあらわし、これをビート間隔とみなすことができる。 FIG. 14 shows how the spectrum power increment d (t, f) is calculated. It should be noted that in the equation (8), the spectrum power above and below (f ± 1) of the target frequency f is included in the previous spectrum power PrevPow when a certain sound is sounded, and it is not necessarily sounded at a certain pitch. It is not based on the fact that the pitch goes up or down somewhat. The autocorrelation function RDD (τ) shown in the equation (10) indicates that the time τ_peak when the peak first arrives represents the period of the spectrum power increment D (t), and this time τ_peak represents the sounding interval, which is expressed as the beat interval. Can be considered.
ビート時刻の推定は、実施例では、まず、推定したビート間隔を周期としたパルスを発生するパルス列P(t)を設定し、次式(11)によりパルス列P(t)と上述したスペクトルパワーの増分D(t)との相互相関関数RDP(τ)を求めてそれが最初にピークを示すときの時間τ_peakを抽出し、この時間τ_peakを仮のビート時刻として設定する。 In the embodiment, the beat time is first estimated by setting a pulse train P (t) that generates a pulse with the estimated beat interval as a period, and the pulse train P (t) and the above-described spectrum power according to the following equation (11). A cross-correlation function RDP (τ) with the increment D (t) is obtained, a time τ_peak when it first shows a peak is extracted, and this time τ_peak is set as a temporary beat time.
式(11)に示す相互相関関数RDP(τ)では、最初にピークが到来する時間τ_peakだけパルス列P(t)をずらしたパルス列P(t+τ_peak)がスペクトルパワーの増分D(t)と類似することを意味するから、この時間τ_peakによりある程度のビート時刻を把握することができる。そして、設定した仮のビート時刻を中心とした所定時間幅(例えばビート間隔の1/10程度の時間幅)でのスペクトルパワー増分D(t,f)のピークを抽出し、そのピークを示すときの時刻をビート時刻として設定することにより正確なビート時刻を把握することができる。 In the cross-correlation function RDP (τ) shown in Expression (11), the pulse train P (t + τ_peak) obtained by shifting the pulse train P (t) by the time τ_peak when the peak first arrives is similar to the spectrum power increment D (t). Therefore, a certain amount of beat time can be grasped from this time τ_peak. Then, when the peak of the spectrum power increment D (t, f) in a predetermined time width (for example, a time width of about 1/10 of the beat interval) around the set temporary beat time is extracted and indicated By setting this time as the beat time, an accurate beat time can be grasped.
こうしてビート時刻を推定すると、ビート時刻tから次のビート時刻t+1までの周波数成分のヒストグラムPhist(t,f)を設定する(ステップS220)。実施例では、周波数成分f毎にビート時刻tから次のビート時刻t+1まで即ち一拍間を積分区間としてスペクトルパワーp(t,f)を時間積分し、その積分値を周波数成分の順に並べたときの積分値のピークを抽出し、抽出したピークをその周波数成分f,ビート時刻tにおけるヒストグラムPhist(t,f)として設定するものとした。周波数成分のヒストグラムPhist(t,f)の一例を図15に示す。
When the beat time is estimated in this way, a histogram Pist (t, f) of frequency components from the beat time t to the next beat time t + 1 is set (step S220). In the embodiment, for each frequency component f, the spectrum power p (t, f) is time-integrated from the beat time t to the next beat
周波数成分のヒストグラムPhist(t,f)を設定すると、設定したヒストグラムPhist(t,f)に基づいてビート特徴成分ASCbeat(t)を設定する(ステップS230)。ビート特徴成分ASCbeat(t)の設定は、次式(12)および次式(13)を用いて行なわれる。 When the histogram Pist (t, f) of the frequency component is set, the beat feature component ASCbeat (t) is set based on the set histogram Pist (t, f) (step S230). The beat feature component ASCbeat (t) is set using the following equations (12) and (13).
即ち、周波数成分f毎に式(12)により連続するビート時刻t,t+1における周波数成分のヒストグラムPhist(t,f),Phist(t+1,f)の差分Pdiff(t,f)をとり、これを式(13)により周波数成分0〜1kHzに亘って合計したものをビート特徴成分ASCbeat(t)として設定するものとした。 That is, for each frequency component f, the difference Pdiff (t, f) between the histograms Pist (t, f) and Pist (t + 1, f) of the frequency components at successive beat times t and t + 1 is obtained by the equation (12). The sum total over the frequency components 0 to 1 kHz according to the equation (13) is set as the beat feature component ASCbeat (t).
通常、音楽のコードが変わる時刻で小節線(拍節の区切れ)が現われる可能性が高く、また、コードが変わるときには周波数成分が大きく変化しコードが変わらないときには周波数成分もほとんど変化がないことが知られている。したがって、周波数成分のヒストグラムPhist(t,f)の時間的な変化の度合いとして算出されるビート特徴成分ASCbeat(t)は、ビート時刻tにおけるコードの変化度として考えることができる。 Usually, there is a high possibility that a bar line (beat division) will appear at the time when the chord of the music changes, and when the chord changes, the frequency component changes greatly, and when the chord does not change, the frequency component hardly changes. It has been known. Therefore, the beat feature component ASCbeat (t) calculated as the temporal change degree of the frequency component histogram Pist (t, f) can be considered as the change degree of the chord at the beat time t.
ビート特徴成分ASCbeat(t)を設定すると、上述した周波数成分のヒストグラムPhist(t,f)に基づいて音楽盛り上がり成分ASCintensity(t)を設定して(ステップS240)、本ルーチンを終了する。音楽盛り上がり成分ASCintensity(t)の設定は、式(14)を用いて行なわれる。 When the beat feature component ASCbeat (t) is set, the music excitement component ASCinttentity (t) is set based on the above-described frequency component histogram Pist (t, f) (step S240), and this routine is terminated. The setting of the music excitement component ASCintensity (t) is performed using equation (14).
式(14)では、可聴領域のメロディーラインが400〜600Hz程度と考えられることから、その倍音成分も考慮して周波数成分のヒストグラムPhist(t,f)を400〜1500Hzにわたって合計したものを音楽盛り上がり成分ASCintensity(t)に設定するものとした。音楽盛り上がり成分ASCintensity(t)を周波数成分のヒストグラムPhist(t,f)に基づいて設定するのは、一般に音楽が盛り上がるにつれて楽曲のメロディーラインのスペクトルパワーも大きくなることに基づく。 In equation (14), since the melody line in the audible area is considered to be about 400 to 600 Hz, the sum of the frequency component histograms Pist (t, f) over 400 to 1500 Hz is also taken into account. The component ASC intensity (t) was set. The reason why the music excitement component ASCinttentity (t) is set based on the histogram Pist (t, f) of the frequency component is based on the fact that the spectral power of the melody line of the music generally increases as the music rises.
ステップS120におけるモーション作成処理は、図16に例示するモーション作成処理により実行される。モーション作成処理では、まず、モーショングラフ上の現在のポイントから選択可能なパスPathに沿って現在のビート時刻tからT時間後(実施例では3秒すなわちフレームレートを120Hzとすると360フレーム分)までに亘ってビート特徴成分ASCbeat(t+τ)(0≦τ≦T)と上述したキーフレーム成分MCkeyframeとの相関値MatchEvalbeatを次式(15)を用いて計算し(ステップS300)、選択可能なパスPathの中から相関値MatchEvalbeatが大きい順にN個(例えば5個)のパスPathbeatを選択する処理を行なう(ステップS310)。 The motion creation process in step S120 is executed by the motion creation process illustrated in FIG. In the motion creation process, first, from the current beat time t along the path Path that can be selected from the current point on the motion graph until T time later (in the embodiment, 3 seconds, that is, 360 frames when the frame rate is 120 Hz). A correlation value MatchEvalbeat between the beat feature component ASCbeat (t + τ) (0 ≦ τ ≦ T) and the key frame component MCkeyframe described above is calculated using the following equation (15) (step S300), and a selectable path Path A process of selecting N (for example, five) paths Pathbeats in descending order of the correlation value MatchEvalbeat from the list (step S310).
この処理は、相関値MatchEvalbeatがビート特徴成分ASCbeat(t)が生じるポイントとキーフレーム成分MCkeyframeが生じるポイントとが一致するほど大きな値として計算されることから、音楽のコード変化が生じるビート時刻で手の動きが止まる場面(止め動作)が生じるようにパスPathbeatを選択する処理と言える。 In this process, the correlation value MatchEvalbeat is calculated as a larger value as the point at which the beat feature component ASCbeat (t) occurs and the point at which the key frame component MCkeyframe is generated. It can be said that the path Pathbeat is selected so that a scene (stopping operation) stops.
こうしてN個のパスPathbeatを選択すると、N個のパスPathbeat毎に音楽盛り上がり成分ASCintensity(t+τ)と上述した動き盛り上がり成分MCintensity(t+τ)との相関値を次式(16)により計算すると共に(ステップS320)、選択したN個のパスPathbeatのうち計算した相関値が最も大きいパスを実行パスPathexecに設定して(ステップS330)、本ルーチンを終了する。 When N paths Pathbeat are selected in this way, a correlation value between the music excitement component ASC intensity (t + τ) and the above-described motion excitement component MC intensity (t + τ) is calculated by the following equation (16) for each of the N paths Pathbeat. S320), the path having the largest calculated correlation value among the selected N paths Pathbeat is set as the execution path Pathexec (step S330), and this routine is terminated.
第1実施例によれば、人体画像のモーションを構成する各フレームをキーフレーム成分MCkeyframeに関連付けてモーションDB110に登録し、音楽データを入力すると共に入力した音楽データを解析してビート特徴成分ASCbeatを抽出し、抽出したビート特徴成分ASCbeatとキーフレーム成分MCkeyframeとの相関値MatchEvalbeatが大きいパスPathbeatを選択してモーションを作成して表示出力するから、音楽のリズムにあったより適切なモーションをリアルタイムに作成することができる。しかも、キーフレーム成分MCkeyframeに加えて動き盛り上がり成分MCintensityも各フレームに関連付けてモーションDB110に登録し、入力した音楽データから音楽盛り上がり成分ASCintensityを抽出して動き盛り上がり成分MCintensityと音楽盛り上がり成分ASCintensityとの相関値が最も大きいパスを選択するから、音楽に盛り上がりの大小にも対応したモーションを作成することができる。
According to the first embodiment, each frame constituting the motion of the human body image is registered in the
モーション作成装置100では、ビート特徴成分ASCbeatとキーフレーム成分MCkeyframeとの相関値MatchEvalbeatが大きいN個のパスPathbeatの中から、音楽盛り上がり成分ASCintensityと動き盛り上がり成分MCintensityとの相関値が最も大きいパスを実行パスPathexecに設定するものとしたが、音楽の盛り上がりに関係なく、ビート特徴成分ASCbeatとキーフレーム成分MCkeyframeとの相関値MatchEvalbeatが最も大きいパスを実行パスPathexecに設定するものとしてもよい。
The
モーション作成装置100では、音楽のコードに変化が生じるビート時刻が到来するときにキーフレーム成分MCkeyframeとの相関が大きく現われるようにビート特徴成分ASCbeatを設定するものとしたが、コード変化に関係なく、単にビート時刻が到来するときに値がキーフレーム成分MCkeyframeとの相関が大きく現われるようにビート特徴成分ASCbeatを設定するものとしてもよいし、ビートの特徴を示す他の如何なるパラメータを用いてビート特徴成分ASCbeatを設定するものとしてもよい。
In the
モーション作成装置100では、手v4,v8の動作速度に基づいてキーフレーム成分MCkeyframeや動き盛り上がり成分MCintensityを設定するものとしたが、手v4,v8に限られず腕v1〜v3,v5〜v7の動作速度に基づいてキーフレーム成分MCkeyframeや動き盛り上がり成分MCintensityを設定するものとしてもよいし、さらに他の部位の動作速度も考慮するものとしてもよい。
In the
モーション作成装置100では、人体画像のモーション(アニメーション)を作成するものとしたが、人体画像に限られず、人体ロボットのモーションの作成に適用するものとしてもよい。また、犬や猫などの人以外の動物画像やその他のアニメキャラクター画像のモーションの作成に適用するものとしても差し支えないし、犬や猫などの人以外の動物型のロボットやその他のキャラクターロボットのモーションの作成に適用するものとしても差し支えない。なお、画像によりモーションを作成する場合、用いる画像は二次元画像であってもよいし三次元画像であってもよい。
In the
第1実施例によれば、モーションデータDB3(図2参照)と音声データDB4(図2参照)とを同期あるいは合成して編集されたバーチャル映像データDB5(図2参照)を取得することができる。 According to the first embodiment, the virtual video data DB5 (see FIG. 2) edited by synchronizing or synthesizing the motion data DB3 (see FIG. 2) and the audio data DB4 (see FIG. 2) can be acquired. .
なお、第1実施例は、モーションキャプチャー技術を利用したものであるが、これに限定されず、現在知られているモーションキャプチャー技術を適用することができる。 The first embodiment uses the motion capture technique, but is not limited to this, and a currently known motion capture technique can be applied.
モーションキャプチャー技術には、光学式、磁気式、機械式の3つの方式があり、これらの方式全てを利用することができる。 There are three types of motion capture technology: optical, magnetic, and mechanical. All of these methods can be used.
[第2実施例]
バーチャル映像を利用したイベント方法の第2実施例について説明する。バーチャル映像14を生成するための手法として、モーションキャプチャーを利用することができる。第2実施例では、モーションキャプチャーの一例として、それを実行するための装置あるいはシステムを含めて説明する。
[Second Embodiment]
A second embodiment of the event method using virtual video will be described. Motion capture can be used as a method for generating the
なお、第2実施例は、特許庁電子図書館で公開されている特開2005−337983号公報に記載されている公知技術を適用したものである。以下、特許庁電子図書館で公開されている特開2005−337983号公報に記載されている内容に基づいて第2実施例を説明する。 In the second embodiment, a known technique described in Japanese Patent Application Laid-Open No. 2005-337983 published at the JPO Electronic Library is applied. The second embodiment will be described below based on the contents described in Japanese Patent Application Laid-Open No. 2005-337983 published at the JPO Electronic Library.
第2実施例は、図17に示すように、モーションキャプチャシステム200は、人体(以下、被測定者という)各部に18個のジャイロセンサーを取り付けると共に、当該被測定者の骨格のデータをコンピュータに入力し、前記18個のジャイロセンサーを発信装置と有線接続し、該発信装置を被測定者に取り付ける。
In the second embodiment, as shown in FIG. 17, the
前記発信装置は、各ジャイロセンサーからのデータをコンピュータに無線発信し、コンピュータで受信して目的に対応した方法でデータを整理し、収録する。 The transmitting device wirelessly transmits data from each gyro sensor to a computer, receives the data by the computer, and organizes and records the data by a method corresponding to the purpose.
前記コンピュータには、腰から下の姿勢制御用ソフトを搭載してあって、被測定者が前後、左右に移動する一般動作についても対応できるようにしてある。 The computer is equipped with posture control software from the waist down so that it can cope with general movements in which the measurement subject moves back and forth and from side to side.
前記ジャイロセンサーは、3次元センサであって、回転方向に対しても正確にデータを取ることができるので、被測定者の身体の微妙な運動、各部変化についても収録することができる。 The gyro sensor is a three-dimensional sensor, and can accurately collect data in the rotation direction, so that it can also record subtle movements of the body of the subject and changes in each part.
前記ジャイロセンサーの取り付け位置は、被測定者の骨格に基づき位置決めがしてあるので、取り付け後は偏倚するおそれがなく、そのデータは修正を要しない。 Since the mounting position of the gyro sensor is positioned based on the skeleton of the person to be measured, there is no possibility of deviation after the mounting, and the data does not need to be corrected.
即ちコンピュータに入力するデータは骨格対応位置におけるデータとして、そのまま演算することにより、真実の形態と、連動を再現し得ることになり、被測定者の運動を正確かつ円滑に再現させることができる。 That is, the data input to the computer is directly calculated as data at the skeleton-corresponding position, so that the true form and the linkage can be reproduced, and the movement of the measurement subject can be reproduced accurately and smoothly.
前記被測定者の骨格寸法を予め測定した猿の骨格寸法に置換することにより、当該猿の運動を表現収録することができる。 By replacing the measurement subject's skeleton size with a previously measured monkey skeleton size, the monkey's movement can be expressed and recorded.
即ちアニメーションの登場者を収録するには、人体の実録データを利用し、登場者(例えば他の動物又は架空の動物、想像上の動物)の活動を真実らしく具現させることができる。 That is, in order to record the characters of the animation, the activity of the characters (for example, other animals, fictional animals, and imaginary animals) can be truly realized by using the data recorded on the human body.
ジャイロセンサーを18個取り付けたが、18個に限定するものではなく、詳細な部分運動を採用する為に、取り付け位置を変え、取り付け個数を変えることは自由である。 Although 18 gyro sensors are attached, the number is not limited to 18 and it is possible to change the attachment position and the number of attachments in order to adopt detailed partial movement.
従ってアニメーション登場の動物から、各種ロボット(介護用、家庭用、工業用その他人体に代る各種作業ロボット)の運動改善資料として採用することができる。 Therefore, it can be used as motion improvement data for various robots (nursing care, household, industrial and other various working robots replacing human bodies) from animated animals.
被測定者(人間)の運動を収録したものを、求める動物(例えば猿)の運動に置換する為には、被測定者の骨格データを猿の骨格データに変換すればよいと説明した。 In order to replace the recording of the movement of the person being measured (human) with the movement of the desired animal (for example, a monkey), it has been explained that the skeleton data of the person to be measured should be converted into the skeleton data of the monkey.
更に正確には、同種の動物(例えば日本猿)の運動状態をアニメーションに採用しようとする日本猿の骨格データとを変換することにより、一層真実に近い運動をさせることができる。 More precisely, by converting the motion state of the same kind of animal (for example, a Japanese monkey) to the skeleton data of a Japanese monkey that is to be adopted for animation, it is possible to make the motion closer to the truth.
前記のように、この発明は人間以外の動物その他動く物について測定して収録し、その動きを分析して改善することができる。 As described above, the present invention can measure and record non-human animals and other moving objects, and analyze and improve the movement.
(具体例)
図18に示すように、被測定者202の身体各部に、ジャイロセンサー204a、204b、204c、204d、204e、204f、204g、204h、204i、204j、204k、204l、204m、204n、204o、204p、204q、204rを夫々取り付ける。
(Concrete example)
As shown in FIG. 18,
次にコンピュータを内蔵した発信装置208と、前記各ジャイロセンサー204(全部を指す時はアルファベットなしとする)と、を電線212で接続し、発信装置208は、ベルトなどを用いて被測定者202の腰に装着する。また前記発信装置208とコンピュータ付の受信装置214との間は無線で送受信されている。
Next, the
従って被測定者202の身体各部で検出された運動データは、電線212を介して発信装置に送られ、ここで演算(X、Y、Zの点から位置を決定する)して位置を定める。この演算値を無線で受信装置214に送り、受信装置214内に設置した内蔵コンピュータに入力して、内蔵コンピュータ内に登録された骨格との関係から、骨格の運動による画像を収録する。ジャイロセンサー204から毎秒100〜500のデータが入力されるので、骨格の運動は極めてスムースに行われる。
Therefore, the movement data detected in each part of the body of the person to be measured 202 is sent to the transmitting device via the
具体例によれば、被測定者202の身体に18個以上のジャイロセンサー204をつけて、その3次元データを送り、このデータに基づき骨格の動きを表示するので、被測定者202の運動状態を正確に収録することができる。
According to the specific example, 18 or
またジャイロセンサー204のデータは、コンピュータ処理(3次元データより一点を求める)して無線送信するので、例えば自動車又はオートバイなどの運転中でも、運転者の動きを適確に収録することができる。このようなことは、従来知られているモーションキャプチャーでは不可能であった。
Further, since the data of the
図19は、主要骨格に、ジャイロセンサー204の取り付け位置を示したものである。即ち頭216、首218、腰220、脚の付け根222、足224に、ジャイロセンサー204を夫々取り付けた図である。この場合には人体の重要部の動きを測定する為の実例であるが、人体については最小でも図19のように7個のジャイロセンサー204が必要である。人間の場合、動物の場合により最小必要個数は異なる。
FIG. 19 shows the attachment position of the
第2実施例では、上述した方法により、モーションデータDB3(図2参照)を取得することができる。このモーションデータDB3に対して音楽データあるいは音声データDB4(図2参照)を同期あるいは合成させてバーチャル映像データDB5(図2参照)を取得することが可能である。 In the second embodiment, the motion data DB 3 (see FIG. 2) can be acquired by the method described above. Virtual video data DB5 (see FIG. 2) can be obtained by synchronizing or synthesizing music data or audio data DB4 (see FIG. 2) with this motion data DB3.
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々なる形態で実施し得ることは勿論である。 The best mode for carrying out the present invention has been described with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the gist of the present invention. Of course, it can be implemented in the form.
10 イベントシステム
10A メイン制御部
10B 記憶部
10C 身体動作情報入力部(身体動作情報取得手段)
10D 音声情報入力部(音声情報取得手段)
10E モーションデータ生成部(モーションデータ生成手段)
10F 音声データ生成部(音声データ生成手段)
10G バーチャル映像データ生成部(バーチャル映像データ生成手段)
10H バーチャル映像表示制御部(バーチャル映像表示制御手段)
10I 音声出力部(音声出力手段)
12 表示部
14 バーチャル映像
16 アーティスト本人
17 イベント会場
18 観客席
20 観客エリア
22 ステージ
24 コンテンツ
26 アーティスト用端末
28 アプリケーション
30 コンテンツ配信用サーバ
32 ユーザ用端末
34 アプリケーション
36 課金管理用サーバ
DB1 身体動作情報
DB2 音声情報
DB3 モーションデータ
DB4 音声データ
DB5 バーチャル映像データ
PG1 モーションデータ生成プログラム
PG2 音声データ生成プログラム
PG3 バーチャル映像データ生成プログラム
S10 身体動作情報取得ステップ
S11 音声情報取得ステップ
S12 モーションデータ生成ステップ
S13 音声データ生成ステップ
S14 バーチャル映像データ生成ステップ
S15 バーチャル映像表示制御ステップ
S16 音声出力ステップ
10
10D voice information input unit (voice information acquisition means)
10E Motion data generator (motion data generator)
10F voice data generation unit (voice data generation means)
10G virtual video data generator (virtual video data generator)
10H Virtual video display control unit (virtual video display control means)
10I audio output unit (audio output means)
DESCRIPTION OF
Claims (11)
身体動作情報取得手段により身体の動作に関する身体動作情報を取得する身体動作情報取得ステップと、
音声情報取得手段により音声に関する音声情報を取得する音声情報取得ステップと、
モーションデータ生成手段により前記身体動作情報に基づいてモーションデータを生成するモーションデータ生成ステップと、
音声データ生成手段により前記音声情報に基づいて音声データを生成する音声データ生成ステップと、
バーチャル映像データ生成手段により前記モーションデータと前記音声データとを関連付けしたバーチャル映像データを生成するバーチャル映像データ生成ステップと、
バーチャル映像表示制御手段により前記バーチャル映像データに基づいたバーチャル映像を表示部上に映し出すバーチャル映像表示制御ステップと、
を有することを特徴とするバーチャル映像を利用したイベント方法。 An event method using virtual images,
A body motion information acquisition step of acquiring body motion information related to body motion by the body motion information acquisition means;
An audio information acquisition step of acquiring audio information related to audio by the audio information acquisition means;
A motion data generation step of generating motion data based on the body movement information by means of motion data generation means;
A voice data generation step of generating voice data based on the voice information by voice data generation means;
A virtual video data generating step for generating virtual video data in which the motion data and the audio data are associated with each other by a virtual video data generating unit;
A virtual video display control step of projecting a virtual video based on the virtual video data on a display unit by a virtual video display control means;
An event method using virtual video, characterized by comprising:
前記モーションデータは、歌を歌うときの動作に関するデータであることを特徴とする請求項1又は2に記載のバーチャル映像を利用したイベント方法。 The body movement information is information about movement when singing a song,
3. The event method using a virtual image according to claim 1, wherein the motion data is data related to an operation when singing a song.
前記音声データは、歌声に関するデータであることを特徴とする請求項1乃至3のいずれか1項に記載のバーチャル映像を利用したイベント方法。 The audio information is information about singing voice,
The event method using a virtual image according to any one of claims 1 to 3, wherein the audio data is data related to a singing voice.
8. At least a part of virtual video or virtual video data acquired by the event method using virtual video according to any one of claims 1 to 7 is sold as content or an article to which the content is attached. How to buy and sell content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014062371A JP2015185020A (en) | 2014-03-25 | 2014-03-25 | Event method, concert throwing method, event venue and content trading method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014062371A JP2015185020A (en) | 2014-03-25 | 2014-03-25 | Event method, concert throwing method, event venue and content trading method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015185020A true JP2015185020A (en) | 2015-10-22 |
Family
ID=54351447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014062371A Pending JP2015185020A (en) | 2014-03-25 | 2014-03-25 | Event method, concert throwing method, event venue and content trading method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015185020A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6487585B1 (en) * | 2018-04-12 | 2019-03-20 | 株式会社バーチャルキャスト | Content distribution server, virtual character providing server, content distribution system, content distribution method and program |
JP2020017873A (en) * | 2018-07-25 | 2020-01-30 | 株式会社バーチャルキャスト | Content distribution server, virtual character provision server, content distribution system, content distribution method and program |
JP2021006977A (en) * | 2019-06-28 | 2021-01-21 | 株式会社ドワンゴ | Content control system, content control method, and content control program |
JP2021053181A (en) * | 2019-09-30 | 2021-04-08 | 株式会社コロプラ | Program, method and viewing terminal |
WO2021181902A1 (en) * | 2020-03-11 | 2021-09-16 | 株式会社メガチップス | Pose data generator, cg data generation system, pose data generation method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003076312A (en) * | 2001-09-06 | 2003-03-14 | Hideo Nagaoka | Character display device |
JP2003111057A (en) * | 2001-09-28 | 2003-04-11 | Taketoshi Akiyama | Information distribution method |
JP2005337983A (en) * | 2004-05-28 | 2005-12-08 | Spice:Kk | Motion capturing method and system |
JP2006163763A (en) * | 2004-12-07 | 2006-06-22 | Nec Corp | Event-holding method and system |
JP2009005012A (en) * | 2007-06-20 | 2009-01-08 | Yamaha Corp | Device and method for distributing data, and program |
-
2014
- 2014-03-25 JP JP2014062371A patent/JP2015185020A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003076312A (en) * | 2001-09-06 | 2003-03-14 | Hideo Nagaoka | Character display device |
JP2003111057A (en) * | 2001-09-28 | 2003-04-11 | Taketoshi Akiyama | Information distribution method |
JP2005337983A (en) * | 2004-05-28 | 2005-12-08 | Spice:Kk | Motion capturing method and system |
JP2006163763A (en) * | 2004-12-07 | 2006-06-22 | Nec Corp | Event-holding method and system |
JP2009005012A (en) * | 2007-06-20 | 2009-01-08 | Yamaha Corp | Device and method for distributing data, and program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6487585B1 (en) * | 2018-04-12 | 2019-03-20 | 株式会社バーチャルキャスト | Content distribution server, virtual character providing server, content distribution system, content distribution method and program |
JP2019186798A (en) * | 2018-04-12 | 2019-10-24 | 株式会社バーチャルキャスト | Content distribution server, virtual character provision server, content distribution system, content distribution method, and program |
JP2020017873A (en) * | 2018-07-25 | 2020-01-30 | 株式会社バーチャルキャスト | Content distribution server, virtual character provision server, content distribution system, content distribution method and program |
US11212569B2 (en) | 2018-07-25 | 2021-12-28 | Dwango Co., Ltd. | Content distribution server, virtual character providing server, content distribution system, content distribution method, and program |
JP2021006977A (en) * | 2019-06-28 | 2021-01-21 | 株式会社ドワンゴ | Content control system, content control method, and content control program |
JP2021053181A (en) * | 2019-09-30 | 2021-04-08 | 株式会社コロプラ | Program, method and viewing terminal |
WO2021181902A1 (en) * | 2020-03-11 | 2021-09-16 | 株式会社メガチップス | Pose data generator, cg data generation system, pose data generation method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Menache | Understanding motion capture for computer animation and video games | |
CN102822869B (en) | Capture view and the motion of the performer performed in the scene for generating | |
JP2015185020A (en) | Event method, concert throwing method, event venue and content trading method | |
Menache | Understanding motion capture for computer animation | |
Nogueira | Motion capture fundamentals | |
CN107005724A (en) | Information processor, information processing method and program | |
US6522332B1 (en) | Generating action data for the animation of characters | |
CN103348386A (en) | Computer-implemented method and apparatus for tracking and re-shaping human shaped figure in digital video | |
JP2007018388A (en) | Forming apparatus and method for creating motion, and program used therefor | |
CN107430781A (en) | Data structure, information processor, information processing method and the information processing system of computer graphical | |
JP5055223B2 (en) | Video content generation apparatus and computer program | |
WO2019124069A1 (en) | Information processing device, information processing method, and program | |
Heloir et al. | Exploiting motion capture for virtual human animation | |
JP2008010966A (en) | Moving picture generation system and method | |
JP6431259B2 (en) | Karaoke device, dance scoring method, and program | |
Volonte et al. | Headbox: A facial blendshape animation toolkit for the microsoft rocketbox library | |
Shiratori et al. | Synthesizing dance performance using musical and motion features | |
JP6313003B2 (en) | Karaoke apparatus, image output method, and program | |
Tang et al. | Anidance: Real-time dance motion synthesize to the song | |
Iwamoto et al. | DanceDJ: A 3D dance animation authoring system for live performance | |
CN107888974A (en) | A kind of instant video synthetic method and system based on scene or special object | |
Ouni et al. | Dynamic lip animation from a limited number of control points: Towards an effective audiovisual spoken communication | |
JP2006196017A (en) | Animation creation apparatus and method, storage medium | |
Sauer et al. | Music-driven character animation | |
JP4278288B2 (en) | Dance image emphasis synthesizer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170327 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20170327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180706 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181113 |