JP2015185020A - Event method, concert throwing method, event venue and content trading method - Google Patents

Event method, concert throwing method, event venue and content trading method Download PDF

Info

Publication number
JP2015185020A
JP2015185020A JP2014062371A JP2014062371A JP2015185020A JP 2015185020 A JP2015185020 A JP 2015185020A JP 2014062371 A JP2014062371 A JP 2014062371A JP 2014062371 A JP2014062371 A JP 2014062371A JP 2015185020 A JP2015185020 A JP 2015185020A
Authority
JP
Japan
Prior art keywords
data
motion
virtual video
event
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014062371A
Other languages
Japanese (ja)
Inventor
仁 西本
Hitoshi Nishimoto
仁 西本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HIGH SPEED BOYZ Inc
Original Assignee
HIGH SPEED BOYZ Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HIGH SPEED BOYZ Inc filed Critical HIGH SPEED BOYZ Inc
Priority to JP2014062371A priority Critical patent/JP2015185020A/en
Publication of JP2015185020A publication Critical patent/JP2015185020A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an event method, concert throwing method, event venue and content trading method that can give to fans an impression as if artists sign songs or play music although the artists do not appear before the fans.SOLUTION: An event method comprises: a body motion information acquisition step S10 of acquiring body motion information about a body motion; a voice information acquisition step S11 of acquiring voice information about a voice; a motion data generation step S12 of generating motion data on the basis of the body motion information; a voice data generation step S13 of generating voice data on the basis of the voice information; a virtual video image data generation step S14 of generating virtual video image data associated with the motion data and the voice data; and a virtual video image display control step S15 of projecting a virtual video image on a display part on the basis of the virtual video image data.

Description

本発明は、例えばアーティスト等によるイベント方法、コンサート開催方法、イベント会場及びコンテンツの売買方法に関する。   The present invention relates to an event method by an artist or the like, a concert holding method, an event venue, and a content buying and selling method.

従来から、全国各地のコンサート会場等において、様々なアーティストによるコンサートが開催されている。   Traditionally, concerts by various artists have been held at concert venues throughout the country.

コンサートでは、アーティストが生で歌い、演奏されること等により、ファンに対して様々なサービスが行われている。このため、コンサート会場には、あたかも別世界であるかのような楽しい時間が流れ、ファンが楽しい時間を過ごすことができる。   At the concert, various services are provided to the fans as artists sing and play live. For this reason, the concert venue has a fun time as if it were another world, and fans can have a good time.

特開2001−8186号公報JP 2001-8186 A 特開2011−15942号公報JP 2011-155942 A

ところで、従来のコンサートでは、アーティストがその場で歌ったり、演奏したりすることが前提になっている。アーティストの中には、様々な事情により、アーティストの素顔を隠して活動している者もいる。このようなアーティストにとっては、コンサートを開催したときに、ファンに素顔がばれてしまい、カリスマ性が崩れたり、今後の興行収入が減少したりする等の問題につながるおそれがある。   By the way, conventional concerts are based on the premise that artists will sing and perform on the spot. Some artists are hiding their faces for various reasons. For such an artist, when a concert is held, the fans may be faced, leading to problems such as a loss of charisma and a decrease in future box office revenue.

そこで、本発明は、上記問題に鑑み、アーティストがファンの前に姿を見せることなく、あたかもアーティストがその場で歌ったり、あるいは演奏しているかのような印象をファンに与えることができるイベント方法、コンサート開催方法、イベント会場及びコンテンツの売買方法を提供することを目的とする。   Therefore, in view of the above problems, the present invention provides an event method that can give an impression to a fan as if the artist is singing or playing on the spot without the artist appearing in front of the fan. The purpose is to provide a concert holding method, an event venue, and a content buying and selling method.

第1の発明は、バーチャル映像を利用したイベント方法であって、身体動作情報取得手段により身体の動作に関する身体動作情報を取得する身体動作情報取得ステップと、音声情報取得手段により音声に関する音声情報を取得する音声情報取得ステップと、モーションデータ生成手段により前記身体動作情報に基づいてモーションデータを生成するモーションデータ生成ステップと、音声データ生成手段により前記音声情報に基づいて音声データを生成する音声データ生成ステップと、バーチャル映像データ生成手段により前記モーションデータと前記音声データとを関連付けしたバーチャル映像データを生成するバーチャル映像データ生成ステップと、バーチャル映像表示制御手段により前記バーチャル映像データに基づいたバーチャル映像を表示部上に映し出すバーチャル映像表示制御ステップと、を有することを特徴とする。   The first invention is an event method using a virtual image, wherein a body motion information acquisition step for acquiring body motion information related to body motion by the body motion information acquisition means, and voice information related to voice by the voice information acquisition means. An audio information acquisition step for acquiring, a motion data generation step for generating motion data based on the body motion information by a motion data generation means, and an audio data generation for generating audio data based on the audio information by an audio data generation means A virtual video data generating step for generating virtual video data in which the motion data and the audio data are associated with each other by a virtual video data generating unit; and a virtual video data based on the virtual video data by a virtual video display control unit. It characterized by having a a virtual image display control step for projecting on a display unit.

この場合、音声出力手段により前記音声データに基づいた音声を出力する音声出力ステップを有することを特徴とする。   In this case, it has a voice output step of outputting a voice based on the voice data by a voice output means.

この場合、前記身体動作情報は、歌を歌うときの動作に関する情報であり、前記モーションデータは、歌を歌うときの動作に関するデータであることを特徴とする。   In this case, the physical motion information is information regarding a motion when singing a song, and the motion data is data regarding a motion when singing a song.

この場合、前記音声情報は、歌声に関する情報であり、前記音声データは、歌声に関するデータであることを特徴とする。   In this case, the voice information is information relating to a singing voice, and the voice data is data relating to a singing voice.

この場合、前記バーチャル映像データは、音声に合わせて動作する身体のシルエットに関するデータであることを特徴とする。   In this case, the virtual video data is data relating to a silhouette of a body that moves in accordance with voice.

この場合、前記バーチャル映像表示制御ステップでは、アーティストの近傍に前記バーチャル映像を映し出すことを特徴とする。   In this case, in the virtual image display control step, the virtual image is displayed in the vicinity of the artist.

この場合、前記バーチャル映像は、2次元映像であることを特徴とする。   In this case, the virtual image is a two-dimensional image.

第2の発明は、本発明のバーチャル映像を利用したイベント方法によってコンサートを行うコンサートの開催方法であることを特徴とする。   The second invention is a concert holding method in which a concert is performed by the event method using the virtual image of the present invention.

第3の発明は、本発明のバーチャル映像を利用したイベント方法を実現するイベント会場であることを特徴とする。   The third invention is an event venue that implements the event method using the virtual video of the present invention.

この場合、前記イベント会場は、観客席を有することを特徴とする。   In this case, the event venue has a spectator seat.

第4の発明は、本発明のバーチャル映像を利用したイベント方法により取得されたバーチャル映像の少なくとも一部あるいはバーチャル映像データをコンテンツ又は当該コンテンツが付された物品として販売することを特徴とするコンテンツの売買方法である。   According to a fourth aspect of the present invention, at least a part of virtual video or virtual video data acquired by the event method using virtual video according to the present invention is sold as content or an article to which the content is attached. It is a buying and selling method.

本発明の「コンテンツ」には、音楽あるいはその他の情報の内容という意味で定義される。コンテンツには、動画・静止画の他に、デザイン、写真、絵等が含まれる。   The “content” of the present invention is defined to mean the contents of music or other information. The content includes a design, a photograph, a picture, etc. in addition to a moving image / still image.

本発明の「物品」には、生活用品、植物、動物、食物、嗜好品、車両等が含まれる。   The “article” of the present invention includes daily necessities, plants, animals, food, luxury goods, vehicles and the like.

本発明によれば、実在するアーティストの身体動作と音声に極似したバーチャル映像を表示部に表示することにより、イベントを進行することができる。これにより、観客にとってはあたかもアーティスト本人がその場にいるかのような斬新な印象を受け、イベントを盛り上げることができる。   According to the present invention, an event can be progressed by displaying on the display unit a virtual image that closely resembles the physical movement and sound of an actual artist. This gives the audience a fresh impression as if the artist is on the spot, and can excite the event.

また、アーティストにとっては、イベント会場にいなくても、自身のバーチャル映像データを予め生成しておくことにより、自身の分身が振る舞うイベントを開催することができる。   For artists, even if they are not at the event venue, by generating their own virtual video data in advance, it is possible to hold an event in which their alternations behave.

また、音声出力手段により音声データに基づいた音声を出力する音声出力ステップを有することにより、バーチャル映像の動きに合致したタイミングで最適な音声が出力されるため、バーチャル特有の不自然さを消すことができ、イベントの完成度を高めることができる。   In addition, since there is an audio output step of outputting audio based on audio data by the audio output means, optimal audio is output at a timing that matches the movement of the virtual video, thus eliminating the unnaturalness peculiar to virtual. Can improve the completeness of the event.

また、身体動作情報は歌を歌うときの動作に関する情報であり、モーションデータは歌を歌うときの動作に関するデータであることにより、バーチャル映像によってアーティストの動作を正確に表現することができる。   The body motion information is information related to the motion when singing a song, and the motion data is data related to the motion when singing a song, so that the motion of the artist can be accurately expressed by a virtual image.

また、音声情報が歌声に関する情報であり、音声データが歌声に関するデータであることにより、バーチャル映像によってアーティストの歌声を正確に表現することができる。   Further, since the audio information is information related to the singing voice and the audio data is data related to the singing voice, the artist's singing voice can be accurately expressed by the virtual video.

また、バーチャル映像データが、音声に合わせて動作する身体のシルエットに関するデータであることにより、アーティスト本人による演出のように見せることができ、観客を益々興奮させ、イベントを成功させることができる。   In addition, since the virtual video data is data relating to the silhouette of the body that moves according to the sound, it can look like an effect by the artist himself, making the audience more excited and making the event successful.

また、バーチャル映像表示制御ステップでは、アーティストの近傍にバーチャル映像が映し出されることにより、アーティスト本人とその分身を並べて進行する公演を実現できる。これにより、観客の射幸心を刺激して、イベントを最高に盛り上げることができる。   Also, in the virtual video display control step, a virtual video can be displayed in the vicinity of the artist, thereby realizing a performance in which the artist himself and his alternation are advanced side by side. As a result, the audience can be stimulated and the event can be excited.

また、バーチャル映像が2次元映像であることにより、アーティスト本体の身体的な特徴を平面で捉えることができる。これにより、観客がいる位置によって、バーチャル映像が見え難くなることを防止できる。   In addition, since the virtual video is a two-dimensional video, the physical characteristics of the artist main body can be captured in a plane. Thereby, it can prevent that it becomes difficult to see a virtual image | video by the position where a spectator exists.

また、バーチャル映像を利用したイベント方法によってコンサートを行うことにより、アーティストがコンサート会場にいなくても、アーティスト本人が出演するコンサートと同様に盛り上げることができる。   In addition, by performing a concert by an event method using virtual images, it is possible to excite the artist in the same way as a concert in which the artist himself appears, even if the artist is not at the concert venue.

また、アーティスト本人の動作と音声に極似したバーチャル映像を表示できるイベント会場を提供することができる。   In addition, it is possible to provide an event venue that can display a virtual video that closely resembles the movement and sound of the artist.

また、イベント会場に観客席を設けることにより、多くの観客を収容して、大きなイベントを開催することができる。   In addition, a large event can be held by accommodating many spectators by providing spectator seats at the event venue.

また、バーチャル映像を利用したイベント方法により取得されたバーチャル映像の少なくとも一部あるいはバーチャル映像データをコンテンツ又はデザインとして販売することにより、斬新なコンテンツをファンに販売することができる。これにより、ファンが喜び、音楽業界が活性化される。   Moreover, novel content can be sold to fans by selling at least part of virtual video or virtual video data acquired by an event method using virtual video as content or design. This will delight fans and revitalize the music industry.

本発明の第1実施形態のイベントシステムの構成図である。It is a block diagram of the event system of 1st Embodiment of this invention. 本発明の第1実施形態のイベントシステムの記憶部の構成図である。It is a block diagram of the memory | storage part of the event system of 1st Embodiment of this invention. 本発明の第1実施形態のイベント方法の各ステップを示す図である。It is a figure which shows each step of the event method of 1st Embodiment of this invention. 本発明の第1実施形態のイベント方法によるバーチャル映像の一例を示した図である。It is the figure which showed an example of the virtual image | video by the event method of 1st Embodiment of this invention. 本発明の第1実施形態のイベント方法によるバーチャル映像の近傍にアーティストが立って歌を歌っている状態を示した図である。It is the figure which showed the state where the artist stood in the vicinity of the virtual image by the event method of 1st Embodiment of this invention, and sings a song. 本発明の第1実施形態のコンサート会場の平面図であるIt is a top view of the concert hall of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例においてモーション作成装置の構成の概略を示す構成図である。It is a block diagram which shows the outline of a structure of the motion production apparatus in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例において人体モデルの一例を示す説明図である。It is explanatory drawing which shows an example of a human body model in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例においてモーショングラフの一例を示す説明図である。It is explanatory drawing which shows an example of a motion graph in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例においてキーフレーム成分MCkeyframeを設定する様子の一例を示す説明図である。It is explanatory drawing which shows an example of a mode that the key frame component MCkeyframe is set in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例において動き盛り上がり成分MCintensityを設定する様子の一例を示す説明図である。It is explanatory drawing which shows an example of a mode that the motion excitement component MCintensity is set in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例においてモーション作成装置により実行されるメインルーチンの一例を示すフローチャートである。It is a flowchart which shows an example of the main routine performed by the motion production apparatus in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例において音楽データ解析処理の一例を示すフローチャートである。It is a flowchart which shows an example of a music data analysis process in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例においてスペクトルパワー増分d (t,f)を算出する様子を示す説明図である。It is explanatory drawing which shows a mode that the spectrum power increment d (t, f) is calculated in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例において周波数成分のヒストグラムPhist(t,f)の一例を示す説明図である。It is explanatory drawing which shows an example of the histogram Pist (t, f) of a frequency component in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第1実施例においてモーション作成処理の一例を示すフローチャートである。It is a flowchart which shows an example of a motion creation process in 1st Example of 1st Embodiment of this invention. 本発明の第1実施形態の第2実施例の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Example of 1st Embodiment of this invention. 本発明の第1実施形態の第2実施例において被測定者にジャイロセンサーを取り付けた状態の説明図である。It is explanatory drawing of the state which attached the gyro sensor to the to-be-measured person in 2nd Example of 1st Embodiment of this invention. 本発明の第1実施形態の第2実施例においてジャイロセンサーと骨格の相互位置を示すコンピュータ映像である。It is a computer image | video which shows the mutual position of a gyro sensor and frame | skeleton in 2nd Example of 1st Embodiment of this invention. 本発明の第1実施形態のイベントのコンテンツを売買するビジネスモデルの一例を示した図である。It is the figure which showed an example of the business model which buys and sells the content of the event of 1st Embodiment of this invention.

本発明の第1実施形態に係るバーチャル映像を利用したイベント方法、コンサート開催方法及びイベント会場について、図面を参照して説明する。   An event method, concert holding method, and event venue using a virtual image according to the first embodiment of the present invention will be described with reference to the drawings.

バーチャル映像を利用したイベント方法を実現させるためのイベントシステムについて説明する。   An event system for realizing an event method using virtual video will be described.

図1及び図2に示すように、イベントシステム10は、主として、メイン制御部10Aと、記憶部10Bと、身体動作情報入力部10Cと、音声情報入力部10Dと、モーションデータ生成部10Eと、音声データ生成部10Fと、バーチャル映像データ生成部10Gと、バーチャル映像表示制御部10Hと、音声出力部10Iと、を有している。   As shown in FIGS. 1 and 2, the event system 10 mainly includes a main control unit 10A, a storage unit 10B, a body motion information input unit 10C, a voice information input unit 10D, and a motion data generation unit 10E. The audio data generation unit 10F, the virtual video data generation unit 10G, the virtual video display control unit 10H, and the audio output unit 10I are included.

メイン制御部10Aは、イベントシステム10の各構成要素を統括的に制御する。   The main control unit 10A comprehensively controls each component of the event system 10.

なお、メイン制御部10Aは、例えば、CPUを用いることができる。   The main control unit 10A can use a CPU, for example.

記憶部10Bは、各種データ及びプログラムが記憶されている。   The storage unit 10B stores various data and programs.

なお、記憶部10Bは、例えば、ROM、RAM等を用いることができる。   The storage unit 10B can use, for example, a ROM, a RAM, or the like.

身体動作情報入力部10Cは、身体の動作の記録をとり、これを身体動作情報DB1として取得する。例えば、アーティストの姿勢、演技(コント)、歌を歌うときの振り付けなどの身体動作の記録に基づいた身体動作情報DB1を取得する。   The body motion information input unit 10C records the body motion and acquires this as the body motion information DB1. For example, the body motion information DB 1 is acquired based on a record of body motion such as the posture of the artist, acting (comte), and choreography when singing a song.

なお、身体動作情報DB1は、記憶部10Bに記憶される。   The body motion information DB1 is stored in the storage unit 10B.

身体動作情報入力部10Cとして、例えば、肉体の動作を測定するための各種センサを用いることができる。   As the body motion information input unit 10C, for example, various sensors for measuring the motion of the body can be used.

音声情報入力部10Dは、対象者の音声を録音し、これを音声情報DB2として取得する。例えば、アーティストの歌声、話し言葉などの音声の記録に基づいた音声情報DB2を取得する。   The voice information input unit 10D records the voice of the target person and acquires it as the voice information DB2. For example, the voice information DB 2 based on the recording of voices such as artist singing voices and spoken words is acquired.

なお、音声情報DB2は、記憶部10Bに記憶される。   The voice information DB2 is stored in the storage unit 10B.

音声情報入力部10Dとして、例えば、マイクを用いることができる。   For example, a microphone can be used as the audio information input unit 10D.

モーションデータ生成部10Eは、身体動作情報DB1に基づいてモーションデータDB3を生成する。モーションデータDB3は、例えば、アーティストの姿勢、演技などの身体動作を再現可能なデータである。   The motion data generation unit 10E generates the motion data DB3 based on the body motion information DB1. The motion data DB 3 is data that can reproduce physical movements such as the posture and performance of an artist, for example.

なお、モーションデータDB3は、記憶部10Bに記憶される。   The motion data DB3 is stored in the storage unit 10B.

モーションデータ生成部10Eとして、例えば、専用のモーションデータ生成プログラム(ソフトウエア)PG1に基づいてモーションデータDB3を生成するCPUを用いることができる。   As the motion data generation unit 10E, for example, a CPU that generates the motion data DB3 based on a dedicated motion data generation program (software) PG1 can be used.

なお、モーションデータ生成プログラムPG1は、記憶部10Bに記憶されている。   The motion data generation program PG1 is stored in the storage unit 10B.

音声データ生成部10Fは、音声情報に基づいて音声データDB4を生成する。音声データDB4は、例えば、アーティストの歌声、話し言葉などを再現可能なデータである。   The voice data generation unit 10F generates the voice data DB 4 based on the voice information. The audio data DB 4 is data that can reproduce, for example, an artist's singing voice and spoken language.

なお、音声データDB4は、記憶部10Bに記憶される。   Note that the audio data DB4 is stored in the storage unit 10B.

音声データ生成部10Fとして、例えば、専用の音声データ生成プログラム(ソフトウエア)PG2に基づいて音声データDB4を生成するCPUを用いることができる。   As the audio data generation unit 10F, for example, a CPU that generates the audio data DB4 based on a dedicated audio data generation program (software) PG2 can be used.

なお、音声データ生成プログラムPG2は、記憶部10Bに記憶されている。   The audio data generation program PG2 is stored in the storage unit 10B.

バーチャル映像データ生成部10Gは、モーションデータDB3と音声データDB4とを関連付けしたバーチャル映像データDB5を生成する。バーチャル映像データDB5は、例えば、所定のアバター等のキャラクタに関するデータでもよいし、アーティストの身体のシルエットに関するデータでもよい。   The virtual video data generation unit 10G generates a virtual video data DB5 in which the motion data DB3 and the audio data DB4 are associated with each other. The virtual video data DB 5 may be data relating to a character such as a predetermined avatar or data relating to an artist's body silhouette, for example.

バーチャル映像データDB5の一例として、アーティストが歌を歌ったり、踊ったりする映像データが挙げられる。このとき、バーチャル映像データDB5は、モーションデータと音声データとを調和あるいはそれらのタイミングを同期させて形成された合成データであり、アーティストの身体動作と音声を同時に自然な感じで表現することができる。   An example of the virtual video data DB 5 is video data in which an artist sings or dances. At this time, the virtual video data DB 5 is synthesized data formed by harmonizing motion data and audio data or synchronizing their timings, and can simultaneously express the physical movement and audio of the artist with a natural feeling. .

バーチャル映像データDB5の一例として、例えば、動作と音声を伴う2次元映像又は3次元映像のデータが採用される。また、バーチャル映像データDB5としては、例えば、キャラクタあるいはアーティストのシルエットが実際のアーティストの動作と同じ動作で動き、さらには実際のアーティストの歌声等と同じ歌声で歌を歌うことが可能なデータである。   As an example of the virtual video data DB 5, for example, 2D video data or 3D video data with motion and sound is employed. The virtual video data DB 5 is data that allows, for example, a character or an artist's silhouette to move in the same manner as an actual artist's motion, and to sing a song with the same singing voice as the actual artist's singing voice. .

なお、モーションデータDB3と音声データDB4とを調和あるいはそれらのタイミングを同期させる手法(編集方法)は、周知の技術を利用できる。詳細については、実施例の中で説明する。   A well-known technique can be used as a method (editing method) for harmonizing the motion data DB 3 and the audio data DB 4 or synchronizing their timings. Details will be described in Examples.

なお、バーチャル映像データDB5は、記憶部10Bに記憶される。   The virtual video data DB5 is stored in the storage unit 10B.

バーチャル映像データ生成部10Gとして、例えば、専用のバーチャル映像データ生成プログラム(ソフトウエア)PG3に基づいてバーチャル映像データDB5を生成するCPUを用いることができる。   As the virtual video data generation unit 10G, for example, a CPU that generates the virtual video data DB 5 based on a dedicated virtual video data generation program (software) PG3 can be used.

なお、バーチャル映像データ生成プログラムPG3は、記憶部10Bに記憶されている   The virtual video data generation program PG3 is stored in the storage unit 10B.

また、バーチャル映像データ生成部10Gとして、専用のバーチャル映像データ生成ソフトウエアを利用して、モーションデータDB3と音声データDB4とを所定のタイミングを手作業により同期させる手法を用いてもよい。   Further, as the virtual video data generation unit 10G, a method may be used in which dedicated virtual video data generation software is used to manually synchronize the motion data DB3 and the audio data DB4 with a predetermined timing.

バーチャル映像表示制御部10Hは、例えば、表示部12(図4参照)上でバーチャル映像データDB5に基づいたバーチャル映像14(図4参照)を映し出す。バーチャル映像表示制御部10Hは、バーチャル映像の表示の内容を制御する機能を有している。   For example, the virtual video display control unit 10H projects the virtual video 14 (see FIG. 4) based on the virtual video data DB 5 on the display unit 12 (see FIG. 4). The virtual video display control unit 10H has a function of controlling the display content of the virtual video.

バーチャル映像14は、例えば、バーチャル映像データDB5に基づいたアーティストの動作と音声を伴った動きのある映像であり、あたかもアーティストが表示部12上で歌を歌っているかのような印象を観客に対して与えることができる。   The virtual video 14 is, for example, a video with movements of the artist's movement and sound based on the virtual video data DB 5, and gives the audience the impression that the artist is singing a song on the display unit 12. Can be given.

バーチャル映像14として、例えば、所定のキャラクタに関する映像でもよく、アーティストのシルエットに関する映像でもよい。   The virtual video 14 may be, for example, a video related to a predetermined character or a video related to an artist's silhouette.

バーチャル映像14は、例えば、2次元的に映し出される2次元映像が採用されるが、3次元的に映し出される3次元映像を作り出してもよい。   For the virtual video 14, for example, a two-dimensional image projected in two dimensions is adopted, but a three-dimensional image projected in three dimensions may be created.

バーチャル映像表示制御部10Hは、例えば、映写機やプロジェクタなど、映像を再生可能な電気・電子機器を用いることができる。   For the virtual video display control unit 10H, for example, an electric / electronic device capable of reproducing video, such as a projector or a projector, can be used.

なお、表示部12とは、バーチャル映像14を表示するためのスクリーンでもよいし、液晶ディスプレイ等でもよい。   The display unit 12 may be a screen for displaying the virtual video 14, a liquid crystal display, or the like.

表示部12は、例えば、2次元映像あるいは3次元映像を映し出すことが可能なディスプレイあるいはスクリーンが好ましい。   The display unit 12 is preferably a display or a screen capable of projecting a two-dimensional video or a three-dimensional video, for example.

音声出力部10Iは、音声データに基づき音声を出力する。音声出力部10Iから出力される音声は、バーチャル映像データによってモーションデータと対応付けされており、バーチャル映像の動作に対応して出力される。このため、バーチャル映像の動作タイミングと音声出力タイミングとのズレがなく、あるいは多少のズレがあってもバーチャル映像データ生成部10Gあるいはメイン制御部10Aによって補正されるため、バーチャル映像を見ながら、音声を聴いたときに違和感が生じることがない。   The audio output unit 10I outputs audio based on the audio data. The audio output from the audio output unit 10I is associated with the motion data by the virtual video data, and is output corresponding to the operation of the virtual video. For this reason, there is no deviation between the operation timing of the virtual video and the audio output timing, or even a slight deviation is corrected by the virtual video data generation unit 10G or the main control unit 10A. There is no sense of incongruity when listening to

なお、音声出力部10Iとしては、例えば、スピーカを用いることができる。   For example, a speaker can be used as the audio output unit 10I.

次に、上記イベントシステム10を用いたバーチャル映像14を利用したイベント方法について説明する。   Next, an event method using the virtual video 14 using the event system 10 will be described.

図3に示すように、バーチャル映像を利用したイベント方法は、主として、身体動作情報取得ステップS10と、音声情報取得ステップS11と、モーションデータ生成ステップS12と、音楽データ生成ステップS13と、バーチャル映像データ生成ステップS14と、バーチャル映像表示制御ステップS15と、音声出力ステップS16と、を有する。   As shown in FIG. 3, the event method using virtual video mainly includes body motion information acquisition step S10, audio information acquisition step S11, motion data generation step S12, music data generation step S13, and virtual video data. It has generation step S14, virtual video display control step S15, and audio output step S16.

身体動作情報取得ステップS10では、身体動作情報入力部10Cによって身体の動作に関する身体動作情報DB1を取得する。例えば、身体動作情報DB1として、アーティストの姿勢、演技(コント)、歌を歌うときの振り付けなどの身体動作の記録に基づいた情報が該当する。   In the body motion information acquisition step S10, body motion information DB1 related to body motion is acquired by the body motion information input unit 10C. For example, the body motion information DB 1 corresponds to information based on a record of body motion such as an artist's posture, acting (comte), choreography when singing a song.

音声情報取得ステップS11では、音声情報入力部10Dによって話し言葉・歌を歌うときの音声に関する音声情報DB2を取得する。例えば、音声情報DB2として、アーティストの歌声、話し言葉などの音声の記録に基づいた情報が該当する。   In the voice information acquisition step S11, the voice information DB 2 related to the voice when the spoken word / song is sung is acquired by the voice information input unit 10D. For example, the audio information DB 2 corresponds to information based on audio recording such as an artist's singing voice and spoken language.

モーションデータ生成ステップS12では、モーションデータ生成部10Eによって身体動作情報DB1に基づいてモーションデータDB3を生成する。モーションデータDB3は、例えば、アーティストの姿勢、演技などの身体動作を再現可能なデータである。   In the motion data generation step S12, the motion data generating unit 10E generates the motion data DB3 based on the body motion information DB1. The motion data DB 3 is data that can reproduce physical movements such as the posture and performance of an artist, for example.

音声データ生成ステップS13では、音声データ生成部10Fによって音声情報DB2に基づいて音声データDB4を生成する。音声データDB4は、例えば、アーティストの歌声、話し言葉などを再現可能なデータである。   In the voice data generation step S13, the voice data DB 4 is generated by the voice data generation unit 10F based on the voice information DB2. The audio data DB 4 is data that can reproduce, for example, an artist's singing voice and spoken language.

バーチャル映像データ生成ステップS14では、バーチャル映像データ生成部10GによってモーションデータDB3及び音声データDB4に基づいてバーチャル映像データDB5を生成する。例えば、バーチャル映像データDB5として、音声に合わせてアーティストが動作する身体のシルエットに関するバーチャル映像データが該当する。   In virtual video data generation step S14, virtual video data DB5 is generated based on motion data DB3 and audio data DB4 by virtual video data generation unit 10G. For example, the virtual video data DB 5 corresponds to virtual video data related to a silhouette of a body in which an artist operates in accordance with sound.

ここで、モーションデータDB3と音声データDB4とのタイミング等を合わせるために、所定の手法により調和あるいは同期される。   Here, in order to match the timing of the motion data DB3 and the audio data DB4, they are harmonized or synchronized by a predetermined method.

バーチャル映像表示制御ステップS15では、図4に示すように、バーチャル映像表示制御部10Hによってバーチャル映像データDB5に基づいたバーチャル映像14を表示部12上に映し出す。例えば、表示部12としてのスクリーン上で、歌を歌いながら踊るアーティストのシルエットあるいはキャラクタが映し出される。   In the virtual video display control step S15, as shown in FIG. 4, the virtual video display control unit 10H projects the virtual video 14 based on the virtual video data DB 5 on the display unit 12. For example, the silhouette or character of an artist who dances while singing a song is displayed on the screen as the display unit 12.

音声出力ステップS16では、バーチャル映像表示制御ステップS15と同じタイミングで実行されるものであり、音声出力部10Iによって音声データDB4に基づいた音声を出力する。これにより、バーチャル映像14の動きに合致したタイミングで最適な音声が出力され、バーチャル映像14を利用したイベント、コンサート、ライブの完成度を高めることができる。   The audio output step S16 is executed at the same timing as the virtual video display control step S15, and the audio output unit 10I outputs audio based on the audio data DB4. As a result, optimal sound is output at a timing that matches the movement of the virtual video 14, and the degree of completion of events, concerts, and live using the virtual video 14 can be increased.

なお、アーティストは、一人でも良いし、複数人のグループでもよい。複数人グループの場合には、表示部12上で複数のアーティストが独自に歌いながら踊るシルエットあるいはそのキャラクタが映し出される。   The artist may be a single person or a group of multiple persons. In the case of a multi-person group, a silhouette or a character for dancing while a plurality of artists sing independently is displayed on the display unit 12.

ここで、図5に示すように、アーティスト本人16を登場させ、当該アーティスト本人16の近傍にバーチャル映像14が映し出されるように設定し、アーティスト本人16がバーチャル映像14と略同じタイミングで歌を歌いながら踊る特別な演出を設けてもよい。これにより、アーティストとその分身が並んだ状態でパフォーマンスを実行でき、斬新な演出になり、イベントが最高に盛り上がる。   Here, as shown in FIG. 5, the artist himself 16 is made to appear and the virtual video 14 is set to be displayed in the vicinity of the artist himself 16, and the artist himself 16 sings a song at almost the same timing as the virtual video 14. A special performance may be provided for dancing. As a result, the performance can be executed with the artist and his part lined up, creating a novel production and exciting the event.

なお、イベントとして、例えば、アーティストによるコンサートあるいはライブが該当する。この場合には、バーチャル映像14を利用したコンサート開催方法あるいはライブ開催方法という発明を創出できる。   The event corresponds to, for example, a concert or live performance by an artist. In this case, an invention of a concert holding method or a live holding method using the virtual image 14 can be created.

本実施形態のバーチャル映像14を利用したイベント方法あるいはコンサート・ライブ開催方法によれば、実在するアーティストの身体動作と音声に極似したバーチャル映像14を表示することにより、イベントを進行することができる。これにより、観客にとってはあたかもアーティスト本人がその場にいるかのような斬新な印象を受け、イベントを盛り上げることができる。   According to the event method using the virtual image 14 or the concert live holding method of the present embodiment, the event can be progressed by displaying the virtual image 14 that closely resembles the physical motion and sound of an actual artist. . This gives the audience a fresh impression as if the artist is on the spot, and can excite the event.

また、アーティストにとっては、イベント会場17(図6参照)にいなくても、自身のモーションデータDB3と音声データDB4に基づきバーチャル映像データDB5を生成・記憶しておくことにより、自身の分身によるイベントを開催することができる。   For artists, even if they are not at the event venue 17 (see FIG. 6), the virtual video data DB5 is generated and stored based on their own motion data DB3 and audio data DB4, so that an event based on their own self Can be held.

身体動作情報取得ステップS10において歌を歌うときの動作に関する身体動作情報DB1が取得され、モーションデータ生成ステップS12においてその身体動作情報DB1に基づいてモーションデータDB3が生成されることにより、バーチャル映像14によってアーティストの動作を正確に表現することができる。   The body motion information DB1 relating to the motion when singing a song is acquired in the body motion information acquisition step S10, and the motion data DB3 is generated based on the body motion information DB1 in the motion data generation step S12. The artist's movement can be expressed accurately.

音声情報取得ステップS11において歌声に関する音声に関する音声情報が取得され、音声データ生成ステップS13においてその音声情報に基づいて音声データDB4が生成されることにより、バーチャル映像14によってアーティストの歌声を正確に表現することができる。   In the voice information acquisition step S11, voice information related to the voice related to the singing voice is acquired, and in the voice data generation step S13, the voice data DB 4 is generated based on the voice information, whereby the artist's singing voice is accurately expressed by the virtual video 14. be able to.

バーチャル映像データ生成ステップS14では、モーションデータDB3及び音声データDB4に基づいて音声に合わせて動作するバーチャル映像データDB5が生成される。そして、バーチャル映像データDB5に基づいてバーチャル映像14が生成されて表示されることにより、アーティスト本人による演出のように見せかけることができ、観客が益々興奮し、イベントを成功させることができる。   In the virtual video data generation step S14, virtual video data DB5 that operates in accordance with the sound is generated based on the motion data DB3 and the sound data DB4. Then, by generating and displaying the virtual video 14 based on the virtual video data DB 5, it is possible to make it appear as if it is an effect by the artist himself, and the audience is more excited and the event can be successful.

ここで、バーチャル映像14を利用したイベント方法によってコンサートの開催することにより、アーティストが出演する場合と同様にして、コンサートを盛り上げることができる。また、アーティストにとっては、コンサート会場16にいなくても、自身の分身によるコンサートを開催することができる。   Here, by holding the concert by an event method using the virtual image 14, the concert can be energized in the same manner as when an artist appears. For artists, even if they are not in the concert hall 16, they can hold concerts based on their own personality.

なお、モーションデータDB3の基になる被測定者は、アーティストに限定されるものではない。アーティストの他に、人間、アニメのキャラクタ、故人、動物、機械、ロボットなど様々な人・物が対象となる。これらのものの身体動作情報DB1は、予め記録しておくことが好ましいが、コンピュータ等により新しく生成(再現)することも可能である。   The person to be measured on which the motion data DB 3 is based is not limited to an artist. In addition to artists, various people and objects such as human beings, anime characters, deceased people, animals, machines, robots, etc. are targeted. The body motion information DB 1 for these items is preferably recorded in advance, but can be newly generated (reproduced) by a computer or the like.

また、同様にして、音声データDB4の基になる被測定者は、アーティストに限定されるものではない。アーティストの他に、人間、アニメのキャラクタ、故人、動物、機械、ロボットなど様々な人・物が対象となる。これらのものの音声情報DB2は、予め取得しておくことが好ましいが、コンピュータ等により新しく生成(再現)することも可能である。音声データDB4として、生演奏に限らず、人工的に作られたもの、自然環境の中で発生し得る音を利用してもよい。   Similarly, the person to be measured that is the basis of the audio data DB 4 is not limited to an artist. In addition to artists, various people and objects such as human beings, anime characters, deceased people, animals, machines, robots, etc. are targeted. The audio information DB 2 of these items is preferably acquired in advance, but can be newly generated (reproduced) by a computer or the like. The sound data DB 4 is not limited to a live performance, but may be an artificially created sound or a sound that can be generated in a natural environment.

次に、上記したバーチャル映像14を利用したイベントが開催されるイベント会場について説明する。   Next, an event venue where an event using the virtual video 14 is held will be described.

図6に示すように、イベント会場17は、バーチャル映像14を表示する表示部12と、表示部12の近傍に配置された複数の観客席18を有する観客エリア20と、を有している。   As shown in FIG. 6, the event venue 17 includes a display unit 12 that displays the virtual video 14 and a spectator area 20 that has a plurality of spectator seats 18 arranged in the vicinity of the display unit 12.

また、イベント会場17には、表示部12の近傍にステージ22を適宜配置してもよい。ステージ22を設けることにより、ステージ22上にアーティスト本人が出演して歌を歌いながら踊り、同時に表示部12上でバーチャル映像14を表示するようにしてイベント(コンサートあるいはライブ)を行ってもよい。   In the event hall 17, a stage 22 may be appropriately arranged in the vicinity of the display unit 12. By providing the stage 22, the artist himself / herself may appear on the stage 22 and dance while singing a song, and at the same time, the virtual image 14 may be displayed on the display unit 12 to perform an event (concert or live).

なお、イベントとしてコンサートを行う場合には、イベント会場17がコンサート会場になる。また、イベントとしてライブを行う場合には、イベント会場17がライブハウスあるいはライブ会場になる。   When performing a concert as an event, the event venue 17 becomes a concert venue. In addition, when performing live as an event, the event venue 17 becomes a live house or a live venue.

これにより、アーティストの動作と音声に極似したバーチャル映像14を表示できるイベント会場17を提供することができる。また、バーチャル映像14の表示とともに、アーティスト本人が出演することにより、斬新な演出を作り出すことができる。   As a result, it is possible to provide an event venue 17 that can display a virtual video 14 that closely resembles the artist's motion and voice. In addition to the display of the virtual video 14, the artist himself / herself can appear to create a novel effect.

特に、イベント会場17に複数の観客席18を設けることにより、多くの観客を収容して、大きなイベントを開催することができる。   In particular, by providing a plurality of spectator seats 18 in the event venue 17, a large event can be held by accommodating many spectators.

次に、上記したバーチャル映像14を利用したイベント方法を用いたビジネスモデルを説明する。   Next, a business model using the event method using the virtual video 14 will be described.

ここでは、第1実施形態のイベント方法及びイベントシステム10によって生成されたバーチャル映像データDB5及び表示部12に映し出されたバーチャル映像14の少なくとも一部のコンテンツ自体、あるいはそのコンテンツが付された物品を売買取引するビジネスモデルをとりあげる。   Here, the virtual video data DB 5 generated by the event method and event system 10 of the first embodiment and the virtual video 14 displayed on the display unit 12 or at least a part of the content itself or an article to which the content is attached. Take up a business model for buying and selling.

「コンテンツ」とは、音楽あるいはその他の情報の内容という意味で定義される。コンテンツには、動画・静止画の他に、デザイン、写真、絵等が含まれる。   “Content” is defined to mean the content of music or other information. The content includes a design, a photograph, a picture, etc. in addition to a moving image / still image.

本発明の「物品」には、コンテンツの少なくとも一部が付された生活用品、衣類、植物、動物、食物、嗜好品、車両等が含まれる。   The “article” of the present invention includes daily necessities, clothing, plants, animals, food, luxury goods, vehicles, etc. to which at least a part of the content is attached.

例えば、図20に示すように、イベントの内容をカメラ等の撮像手段(図示省略)で記録して、動画ファイル等のコンテンツ24を作成する。このコンテンツ24自体又はコンテンツ24に関する情報をアーティスト用端末26で専用のアプリケーション28を用いて保存する。そして、アーティスト用端末26から専用のアプリケーション28を用いてコンテンツ24又はその情報をコンテンツ配信用サーバ30にアップロードする。   For example, as shown in FIG. 20, the contents of the event are recorded by an imaging means (not shown) such as a camera to create a content 24 such as a moving image file. The content 24 itself or information related to the content 24 is stored in the artist terminal 26 using a dedicated application 28. Then, the content 24 or its information is uploaded from the artist terminal 26 to the content distribution server 30 using the dedicated application 28.

ファンは、インターネットを介してコンテンツ配信用サーバ30からユーザ用端末32に専用のアプリケーション34を用いてコンテンツ又はその情報をダウンロードする。そして、欲しいコンテンツ24を専用のアプリケーション34を用いてユーザ用端末32から購入処理を行う。このときの課金処理は、別途設けられている課金管理用サーバ36に対して行うことが可能である。   The fan downloads the content or its information from the content distribution server 30 to the user terminal 32 using the dedicated application 34 via the Internet. Then, the desired content 24 is purchased from the user terminal 32 using the dedicated application 34. The billing process at this time can be performed for a billing management server 36 provided separately.

このようにして、コンテンツ24を取得したファンは、自身の端末32によりコンテンツ24を再生してイベントを楽しむことができる。これにより、ファンが喜び、音楽業界が活性化される。   In this way, the fan who has acquired the content 24 can enjoy the event by playing the content 24 using his / her terminal 32. This will delight fans and revitalize the music industry.

また、コンテンツ24として、バーチャル映像データDB5あるいはバーチャル映像14の少なくとも一部が表示された物品(グッズ)でもよい。ここで、物品(グッズ)として、衣類、文房具、録音されたメディア類などが該当する。これらの物品にバーチャル映像14の少なくとも一部がデザインとして表示されていることにより、ファンが喜ぶ。なお、物品の発送は、既存の配送ルートを利用することができる。   The content 24 may be an article (goods) on which at least a part of the virtual video data DB 5 or the virtual video 14 is displayed. Here, as articles (goods), clothing, stationery, recorded media, and the like are applicable. The fans are pleased that at least a part of the virtual video 14 is displayed as a design on these articles. Note that an existing delivery route can be used to ship the article.

また、バーチャル映像データDB5を入手することにより、様々な用途で利用することができる。契約内容によっては、ファンがバーチャル映像14を自在に編集することも可能になる。これにより、斬新なコンテンツ24をファンに販売することができる。この結果、ファンが喜び、音楽業界が活性化される。   Further, by obtaining the virtual video data DB5, it can be used for various purposes. Depending on the contents of the contract, the fan can freely edit the virtual video 14. Thereby, the novel content 24 can be sold to fans. As a result, the fans are delighted and the music industry is activated.

次に、上記したバーチャル映像14を利用したイベント方法の実施例について説明する。なお、コンサート開催方法についても下記の実施例を適用することができる。   Next, an embodiment of an event method using the virtual video 14 will be described. The following embodiments can also be applied to the concert holding method.

[第1実施例]
バーチャル映像を利用したイベント方法の第1実施例について説明する。バーチャル映像データ14を生成するための手法として、モーションキャプチャーを利用することができる。第1実施例では、モーションキャプチャーの一例として、それを実行するための装置あるいはシステムを含めて説明する。
[First embodiment]
A first embodiment of an event method using virtual video will be described. Motion capture can be used as a method for generating the virtual video data 14. In the first embodiment, as an example of motion capture, an apparatus or system for executing the motion capture will be described.

なお、第1実施例は、特許庁電子図書館で公開されている特開2007−18388号公報に記載されている公知技術を適用したものである。以下、特許庁電子図書館で公開されている特開2007−18388号公報に記載されている内容に基づいて第1実施例を説明する。   In the first embodiment, a known technique described in Japanese Patent Application Laid-Open No. 2007-18388 published at the JPO Digital Library is applied. The first embodiment will be described below based on the contents described in Japanese Patent Application Laid-Open No. 2007-18388 published at the JPO Electronic Library.

第1実施例では、図7は、モーション作成装置100の構成の概略を示す構成図である。モーション作成装置100は、図示するように、汎用のコンピュータにモーション作成処理用のプログラムをインストールすると共に起動することにより図示しないCPUやROM、RAM、入出力ポートなどのハードウエアとソフトウエアとが一体となって機能するものとして構成されている。   In the first embodiment, FIG. 7 is a configuration diagram showing an outline of the configuration of the motion creation device 100. As shown in the figure, the motion creation device 100 is installed with a software for motion creation processing on a general-purpose computer and is activated to integrate hardware and software such as a CPU, ROM, RAM, and input / output ports (not shown). And is configured to function.

モーション作成装置100は、音楽データを入力する音楽データ入力部102と、入力した音楽データを解析する処理を行なう音楽データ解析部104と、音楽データの解析結果に基づいて人体画像のモーションを作成する処理を行なうモーション作成処理部106と、作成したモーションで人体画像が動作するようディスプレイ101に表示する処理を行なう表示処理部108と、人体画像の複数のモーションをモーショングラフとして登録するモーションデータベース(以下、モーションDBと呼ぶ)110と、を備えている。   The motion creation device 100 creates a motion of a human body image based on a music data input unit 102 that inputs music data, a music data analysis unit 104 that performs processing to analyze the input music data, and a result of analysis of the music data. A motion creation processing unit 106 that performs processing, a display processing unit 108 that performs processing for displaying the human body image on the display 101 so that the human body image operates with the created motion, and a motion database (hereinafter referred to as a motion graph) that registers a plurality of motions of the human body image , Referred to as motion DB) 110.

なお、音楽データは、アーティストの歌声、話し声等を予め記録しておき、音声データという形式で生成するものである。   The music data is generated in the form of audio data by recording in advance the artist's singing voice, speaking voice, and the like.

音楽データ入力部102と音楽データ解析部104は、例えば、イベントシステム10の音声情報入力部10Dと音声データ生成部10Fに対応する。   The music data input unit 102 and the music data analysis unit 104 correspond to, for example, the audio information input unit 10D and the audio data generation unit 10F of the event system 10.

モーション作成処理部106は、例えば、イベントシステム10の身体動作情報入力部10Cとモーションデータ生成部10Eとバーチャル映像データ生成部10Gに対応する。   The motion creation processing unit 106 corresponds to, for example, the body motion information input unit 10C, the motion data generation unit 10E, and the virtual video data generation unit 10G of the event system 10.

表示処理部108は、例えば、イベントシステム10のバーチャル映像表示制御部10Hに対応する。   The display processing unit 108 corresponds to the virtual video display control unit 10H of the event system 10, for example.

ディスプレイ101は、例えば、イベントシステム10の表示部12に対応する。   The display 101 corresponds to, for example, the display unit 12 of the event system 10.

モーションデータベース110は、例えば、イベントシステム10の記憶部10Bに対応する。   The motion database 110 corresponds to the storage unit 10B of the event system 10, for example.

図8は、人体画像の一フレームを構成する人体モデルの一例を示す説明図である。人体モデルは、図示するように、人体の向きを示すベクトルR(={rx,ry,rz})と人体の空間上の位置を示すベクトルt(={tx,ty,tz})と人体の腰(waist)を中心とした体中心座標系{R,t}における人体モデルの各要素を連結するリンクの向きを示す17個の姿勢ベクトル(単位ベクトル)v0〜v16と各リンクの長さを示す9個のスカラー値l0〜l8とからなる人体姿勢S(f)(fはフレーム番号)として構成されている(次式(1)〜(3)参照)。   FIG. 8 is an explanatory diagram showing an example of a human body model constituting one frame of a human body image. As shown in the figure, the human body model includes a vector R (= {rx, ry, rz}) indicating the direction of the human body, a vector t (= {tx, ty, tz}) indicating the position of the human body in space, 17 posture vectors (unit vectors) v0 to v16 indicating the directions of links connecting the elements of the human body model in the body center coordinate system {R, t} centered on the waist and the length of each link. It is configured as a human body posture S (f) (f is a frame number) consisting of nine scalar values 10 to l8 shown (see the following equations (1) to (3)).

ここで、体中心座標系{R,t}は、腰(waist)の位置を原点としてz軸が腰から腹部へ向かう方向,y軸が正面方向,x軸がz軸およびy軸に直交する方向となるよう定めた。また、スカラー値l0〜l8を9個としているのは右腕v1,v2,v3と左腕v5,v6,v7の長さや右手v4と左手v8の長さ,右足v9,v10,v11,v12と左足v13,v14,v15,v16の長さを左右同一としたためである。   Here, in the body center coordinate system {R, t}, the z axis is a direction from the waist to the abdomen with the position of the waist as the origin, the y axis is the front direction, and the x axis is orthogonal to the z axis and the y axis. It was determined to be a direction. The nine scalar values 10 to 18 are the lengths of the right arms v1, v2, v3 and the left arms v5, v6, v7, the lengths of the right hand v4 and the left hand v8, the right feet v9, v10, v11, v12 and the left foot v13. , V14, v15, and v16 have the same length on the left and right.

Figure 2015185020
Figure 2015185020

図9は、モーションDB110に登録されるモーショングラフの一例を示す説明図である。モーショングラフは、図示するように、モーションキャプチャーにより取り込まれた複数のモーションデータ(図中にはモーションデータ1〜6と表示)上の各フレームのうち人体姿勢S(f)が互いに類似する2つのフレーム(ノード)間を連結した有向性グラフとして構成されている。   FIG. 9 is an explanatory diagram illustrating an example of a motion graph registered in the motion DB 110. As shown in the figure, the motion graph includes two frames whose human body postures S (f) are similar to each other in each frame on a plurality of motion data captured by motion capture (shown as motion data 1 to 6 in the figure). It is configured as a directed graph connecting frames (nodes).

人体姿勢S(f)が互いに類似するフレーム間の連結は、例えば、モーションデータ1〜6上の任意の2つのフレームに対して次式(4)により相関値を計算し、計算した相関値がしきい値よりも大きいものを人体姿勢SA(fA),SB(fB)が類似しているフレームfA,fBとして決定し、決定した2つのフレームfA,fB間を次式(5)を含む三次補間の関係式を用いて生成されるフレームによって連結することにより行なうことができる。 For the connection between frames whose human body postures S (f) are similar to each other, for example, a correlation value is calculated according to the following equation (4) for any two frames on the motion data 1 to 6, and the calculated correlation value is What is larger than the threshold value is determined as frames fA and fB having similar human body postures S A (fA) and S B (fB), and the following equation (5) is determined between the two determined frames fA and fB. This can be done by concatenating the frames generated using the relational expression of the cubic interpolation that includes them.

ここで、式(4)中の右辺第1項は2つのフレームfA,fB間の姿勢ベクトルv(fA),v(fB)(iは姿勢ベクトルの番号)の相関を示し、右辺第2項は2つのフレームfA,fB間の姿勢ベクトルv(fA),v(fB)の微分(動き)の相関を示す。   Here, the first term on the right side in Equation (4) indicates the correlation between the posture vectors v (fA) and v (fB) (i is the number of the posture vector) between the two frames fA and fB, and the second term on the right side. Indicates the correlation of the differential (motion) of the posture vectors v (fA) and v (fB) between the two frames fA and fB.

なお、「αi」「βi」は、定数である。また、式(5)中の「T」は遷移時間(フレームfA,fB間に挿入するフレーム数)を示す。式(5)では、姿勢ベクトルv(fA),v(fB)についてのみ記述したが、ベクトルRやベクトルtについても同様の三次補間の関係式を用いることによりフレームfA,fB間を連結するためのフレームを生成することができる。こうしてモーショングラフを構築すると、モーショングラフ上のノード間を遷移することによりあらゆるパターンのモーションを少ないデータ量で実現することができる。   “Αi” and “βi” are constants. In addition, “T” in Equation (5) indicates a transition time (the number of frames inserted between frames fA and fB). In Expression (5), only the orientation vectors v (fA) and v (fB) are described, but the frames R and FB are connected to each other by using the same cubic interpolation relational expression for the vectors R and t. Frames can be generated. When a motion graph is constructed in this way, motion of any pattern can be realized with a small amount of data by transitioning between nodes on the motion graph.

Figure 2015185020
Figure 2015185020

また、モーショングラフは、フレーム毎にキーフレーム成分MCkeyframeと動き盛り上がり成分MCintensityとが関連付けられてモーションDB110に登録されている。   The motion graph is registered in the motion DB 110 in such a manner that a key frame component MCkeyframe and a motion excitement component MCintensity are associated with each other for each frame.

ここで、キーフレーム成分MCkeyframeは、右手v4,左手v8の動作速度が極小となるフレームをキーフレームf,f(i,jはキーフレームの番号)としてそれぞれ登録しておき、フレームfに対してキーフレームfの時刻を中心とした時間幅Kをもたせたガウス関数を適用して得られる値と、フレームfに対して同様にキーフレームfの時刻を中心とした時間幅Kをもたせたガウス関数を適用して得られる値とを足し合わせたものを設定するものとした(次式(6)参照)。   Here, in the key frame component MCkeyframe, the frames in which the operating speed of the right hand v4 and the left hand v8 are minimized are registered as key frames f and f (i and j are key frame numbers), respectively. A value obtained by applying a Gaussian function having a time width K centered on the time of the key frame f and a Gaussian function having a time width K centered on the time of the key frame f with respect to the frame f. A value obtained by adding together the values obtained by applying is set (see the following equation (6)).

なお、式(6)中の「σ」は分散を示す。キーフレーム成分MCkeyframeを設定する様子の一例を図10に示す。図示するように、キーフレーム成分MCkeyframeは、キーフレームf,fに近いフレームfほど値が大きくなるよう設定され、その値が大きいほど後述する音楽のリズム(ビート特徴成分ASCbeat)との相関が大きく現われる。これは、踊りの中で手の動きが止まる場面(止め動作)は音楽のリズムにあわせて出現される傾向があることが確認されたことに基づく。   In the equation (6), “σ” indicates dispersion. An example of how the key frame component MCkeyframe is set is shown in FIG. As shown in the figure, the key frame component MCkeyframe is set to have a larger value as the frame f is closer to the key frames f and f, and the larger the value, the greater the correlation with the music rhythm (beat feature component ASCbeat) described later. Appear. This is based on the fact that it was confirmed that scenes where the movement of the hand stops during the dance (stopping action) tend to appear along with the rhythm of the music.

キーフレーム成分MCkeyframeに時間的な幅Kをもたせているのは、人は音楽のリズムに完全にあわせて踊っているわけではなく、ある程度のズレが生じることがあることを考慮したものである。また、動き盛り上がり成分MCintensityは、フレームfに対して隣接するキーフレームf,f間の中央時刻を中心としてキーフレームf,f間の時間幅をもたせたガウス関数を適用して得られる値と、フレームfに対して同様に隣接するキーフレームf,f間の中央時刻を中心としてキーフレームf,f間の時間幅をもたせたガウス関数を適用して得られる値とを足し合わせたものを設定するものとした(次式(7)参照)。   The reason why the key frame component MCkeyframe has a temporal width K is that a person does not dance perfectly in accordance with the rhythm of the music, and a certain amount of deviation may occur. Further, the motion excitement component MCintity is obtained by applying a Gaussian function having a time width between the key frames f and f around the central time between the key frames f and f adjacent to the frame f, and Similarly, a value obtained by applying a Gaussian function with a time width between key frames f and f centered on a central time between adjacent key frames f and f is set for frame f. (Refer to the following formula (7)).

なお、式(7)中の「v(i)」は隣接するキーフレームf,f間における右手v4の最大速度を示し、「v(i)」は左手v8において隣接するキーフレームf,f間における左手v8の最大速度を示す。動き盛り上がり成分MCintensityを設定する様子の一例を図11に示す。   In Expression (7), “v (i)” indicates the maximum speed of the right hand v4 between the adjacent key frames f and f, and “v (i)” is between the adjacent key frames f and f in the left hand v8. Shows the maximum speed of the left hand v8. FIG. 11 shows an example of how the motion excitement component MCintity is set.

図示するように、動き盛り上がり成分MCintensityは、隣接するキーフレームf,f間の中央時刻(フレーム),隣接するキーフレームf,f間の中央時刻(フレーム)に近いフレームfほど値が大きくなり且つ隣接するキーフレームf,f間における右手v4の最大速度v(i),隣接するキーフレームf,f間における左手v8の最大速度v(i)が大きいほど大きくなるよう設定され、後述する音楽盛り上がり成分ASCintensityとの相関が大きく現われる。これは、音楽が盛り上がっているときには手も速く動かされており、そうでないときには手もゆっくりとしか動かされていないことが確認されたことに基づく。   As shown in the drawing, the value of the motion excitement component MCintensity becomes larger as the frame f is closer to the central time (frame) between the adjacent key frames f and f and the central time (frame) between the adjacent key frames f and f. The maximum velocity v (i) of the right hand v4 between the adjacent key frames f and f and the maximum velocity v (i) of the left hand v8 between the adjacent key frames f and f are set so as to increase, and the music excitement described later A large correlation with the component ASC intensity appears. This is based on the fact that it was confirmed that the hands were moved fast when the music was exciting and the hands were moved only slowly when it was not.

Figure 2015185020
Figure 2015185020

次に、こうして構成された実施例のモーション作成装置100の動作について説明する。図12は、モーション作成装置100により実行されるメインルーチンの一例を示すフローチャートである。このルーチンは、操作者によりモーション作成開始の指示がなされたときに所定時間毎(例えば3秒毎)に繰り返し実行される。   Next, an operation of the motion creation device 100 according to the embodiment configured as described above will be described. FIG. 12 is a flowchart illustrating an example of a main routine executed by the motion creation device 100. This routine is repeatedly executed every predetermined time (for example, every 3 seconds) when the operator gives an instruction to start motion creation.

メインルーチンが実行されると、モーション作成装置100のCPUは、まず、音楽データを入力する(ステップS100)。音楽データは、WAVEデータやMIDIデータなどの他の如何なる形式のデータを入力するものとしてもよい。また、音楽データは、音楽CDなどの記録媒体からデータを直接読み込むことにより入力するものとしてもよいし、演奏されている音楽をマイクから取り込むことにより入力するものとしてもよい。続いて、入力した音楽データを解析し(ステップS110)、その解析結果に基づいてモーションDB110のモーショングラフから実行パスPathexec(モーショングラフ上の軌跡)を選択することによりモーションを作成し(ステップS120)、作成したモーションをディスプレイ21に表示出力する(ステップS130)。こうしたステップS100〜S130の処理を音楽が終了するまで繰り返し実行して(ステップS140)、本ルーチンを終了する。   When the main routine is executed, the CPU of the motion creation device 100 first inputs music data (step S100). As the music data, data in any other format such as WAVE data or MIDI data may be input. The music data may be input by directly reading data from a recording medium such as a music CD, or may be input by capturing music being played from a microphone. Subsequently, the input music data is analyzed (step S110), and a motion is created by selecting an execution path Pathexec (trajectory on the motion graph) from the motion graph of the motion DB 110 based on the analysis result (step S120). The generated motion is displayed and output on the display 21 (step S130). The processes in steps S100 to S130 are repeatedly executed until the music is finished (step S140), and this routine is finished.

ステップS110における音楽データの解析は、実施例では、図13に例示する音楽データ解析処理により実行される。音楽データ解析処理は、まず、入力した音楽データをスペクトル解析する(ステップS200)。スペクトル解析は、実施例では、窓関数として音楽データの処理に適していると言われているガウス関数を用いてフーリエ変換することにより行なうものとした。これにより、時間成分t毎,周波数成分f毎のスペクトルパワーp(t,f)が導出される。   In the embodiment, the music data analysis in step S110 is executed by a music data analysis process illustrated in FIG. In the music data analysis process, first, spectrum analysis is performed on the input music data (step S200). In the embodiment, the spectrum analysis is performed by Fourier transform using a Gaussian function that is said to be suitable for processing music data as a window function. Thereby, the spectrum power p (t, f) for each time component t and each frequency component f is derived.

続いて、スペクトル解析の結果に基づいて入力した音楽のビート間隔とビート時刻とを推定する(ステップS210)。ビート間隔の推定は、次式(8)により時間成分t毎,周波数成分f毎のスペクトルパワー増分d(t,f)を算出し、次式(9)により全ての周波数成分におけるスペクトルパワー増分d(t,f)を合計してスペクトルパワー増分D(t)を算出し、式(10)によりスペクトルパワー増分D(t)の自己相関関数RDD(τ)を求めてそれが最初にピークを示すときの時間τ_peakを抽出することにより推定することができる。   Subsequently, the beat interval and beat time of the input music are estimated based on the result of spectrum analysis (step S210). The beat interval is estimated by calculating the spectral power increment d (t, f) for each time component t and frequency component f by the following equation (8), and by the following equation (9). (T, f) is summed to calculate the spectrum power increment D (t), and the autocorrelation function RDD (τ) of the spectrum power increment D (t) is obtained by the equation (10), and it first shows a peak. It can be estimated by extracting the time τ_peak of the hour.

図14に、スペクトルパワー増分d(t,f)を算出する様子を示す。なお、式(8)において前回スペクトルパワーPrevPowに対象とする周波数fの上下(f±1)のスペクトルパワーも含めているのは、ある音が発音されているときに必ずしも一定の音程で発音されるわけではなく多少音程が上下することを考慮したことに基づく。式(10)に示す自己相関関数RDD(τ)は、最初にピークが到来する時間τ_peakがスペクトルパワー増分D(t)の周期をあらわすから、この時間τ_peakは発音間隔をあらわし、これをビート間隔とみなすことができる。   FIG. 14 shows how the spectrum power increment d (t, f) is calculated. It should be noted that in the equation (8), the spectrum power above and below (f ± 1) of the target frequency f is included in the previous spectrum power PrevPow when a certain sound is sounded, and it is not necessarily sounded at a certain pitch. It is not based on the fact that the pitch goes up or down somewhat. The autocorrelation function RDD (τ) shown in the equation (10) indicates that the time τ_peak when the peak first arrives represents the period of the spectrum power increment D (t), and this time τ_peak represents the sounding interval, which is expressed as the beat interval. Can be considered.

ビート時刻の推定は、実施例では、まず、推定したビート間隔を周期としたパルスを発生するパルス列P(t)を設定し、次式(11)によりパルス列P(t)と上述したスペクトルパワーの増分D(t)との相互相関関数RDP(τ)を求めてそれが最初にピークを示すときの時間τ_peakを抽出し、この時間τ_peakを仮のビート時刻として設定する。   In the embodiment, the beat time is first estimated by setting a pulse train P (t) that generates a pulse with the estimated beat interval as a period, and the pulse train P (t) and the above-described spectrum power according to the following equation (11). A cross-correlation function RDP (τ) with the increment D (t) is obtained, a time τ_peak when it first shows a peak is extracted, and this time τ_peak is set as a temporary beat time.

式(11)に示す相互相関関数RDP(τ)では、最初にピークが到来する時間τ_peakだけパルス列P(t)をずらしたパルス列P(t+τ_peak)がスペクトルパワーの増分D(t)と類似することを意味するから、この時間τ_peakによりある程度のビート時刻を把握することができる。そして、設定した仮のビート時刻を中心とした所定時間幅(例えばビート間隔の1/10程度の時間幅)でのスペクトルパワー増分D(t,f)のピークを抽出し、そのピークを示すときの時刻をビート時刻として設定することにより正確なビート時刻を把握することができる。   In the cross-correlation function RDP (τ) shown in Expression (11), the pulse train P (t + τ_peak) obtained by shifting the pulse train P (t) by the time τ_peak when the peak first arrives is similar to the spectrum power increment D (t). Therefore, a certain amount of beat time can be grasped from this time τ_peak. Then, when the peak of the spectrum power increment D (t, f) in a predetermined time width (for example, a time width of about 1/10 of the beat interval) around the set temporary beat time is extracted and indicated By setting this time as the beat time, an accurate beat time can be grasped.

Figure 2015185020
Figure 2015185020

こうしてビート時刻を推定すると、ビート時刻tから次のビート時刻t+1までの周波数成分のヒストグラムPhist(t,f)を設定する(ステップS220)。実施例では、周波数成分f毎にビート時刻tから次のビート時刻t+1まで即ち一拍間を積分区間としてスペクトルパワーp(t,f)を時間積分し、その積分値を周波数成分の順に並べたときの積分値のピークを抽出し、抽出したピークをその周波数成分f,ビート時刻tにおけるヒストグラムPhist(t,f)として設定するものとした。周波数成分のヒストグラムPhist(t,f)の一例を図15に示す。   When the beat time is estimated in this way, a histogram Pist (t, f) of frequency components from the beat time t to the next beat time t + 1 is set (step S220). In the embodiment, for each frequency component f, the spectrum power p (t, f) is time-integrated from the beat time t to the next beat time t + 1, that is, one beat as an integration interval, and the integrated values are arranged in the order of frequency components. The peak of the integration value at that time is extracted, and the extracted peak is set as the histogram Pist (t, f) at the frequency component f and beat time t. An example of the frequency component histogram Pist (t, f) is shown in FIG.

周波数成分のヒストグラムPhist(t,f)を設定すると、設定したヒストグラムPhist(t,f)に基づいてビート特徴成分ASCbeat(t)を設定する(ステップS230)。ビート特徴成分ASCbeat(t)の設定は、次式(12)および次式(13)を用いて行なわれる。   When the histogram Pist (t, f) of the frequency component is set, the beat feature component ASCbeat (t) is set based on the set histogram Pist (t, f) (step S230). The beat feature component ASCbeat (t) is set using the following equations (12) and (13).

即ち、周波数成分f毎に式(12)により連続するビート時刻t,t+1における周波数成分のヒストグラムPhist(t,f),Phist(t+1,f)の差分Pdiff(t,f)をとり、これを式(13)により周波数成分0〜1kHzに亘って合計したものをビート特徴成分ASCbeat(t)として設定するものとした。   That is, for each frequency component f, the difference Pdiff (t, f) between the histograms Pist (t, f) and Pist (t + 1, f) of the frequency components at successive beat times t and t + 1 is obtained by the equation (12). The sum total over the frequency components 0 to 1 kHz according to the equation (13) is set as the beat feature component ASCbeat (t).

通常、音楽のコードが変わる時刻で小節線(拍節の区切れ)が現われる可能性が高く、また、コードが変わるときには周波数成分が大きく変化しコードが変わらないときには周波数成分もほとんど変化がないことが知られている。したがって、周波数成分のヒストグラムPhist(t,f)の時間的な変化の度合いとして算出されるビート特徴成分ASCbeat(t)は、ビート時刻tにおけるコードの変化度として考えることができる。   Usually, there is a high possibility that a bar line (beat division) will appear at the time when the chord of the music changes, and when the chord changes, the frequency component changes greatly, and when the chord does not change, the frequency component hardly changes. It has been known. Therefore, the beat feature component ASCbeat (t) calculated as the temporal change degree of the frequency component histogram Pist (t, f) can be considered as the change degree of the chord at the beat time t.

Figure 2015185020
Figure 2015185020

ビート特徴成分ASCbeat(t)を設定すると、上述した周波数成分のヒストグラムPhist(t,f)に基づいて音楽盛り上がり成分ASCintensity(t)を設定して(ステップS240)、本ルーチンを終了する。音楽盛り上がり成分ASCintensity(t)の設定は、式(14)を用いて行なわれる。   When the beat feature component ASCbeat (t) is set, the music excitement component ASCinttentity (t) is set based on the above-described frequency component histogram Pist (t, f) (step S240), and this routine is terminated. The setting of the music excitement component ASCintensity (t) is performed using equation (14).

式(14)では、可聴領域のメロディーラインが400〜600Hz程度と考えられることから、その倍音成分も考慮して周波数成分のヒストグラムPhist(t,f)を400〜1500Hzにわたって合計したものを音楽盛り上がり成分ASCintensity(t)に設定するものとした。音楽盛り上がり成分ASCintensity(t)を周波数成分のヒストグラムPhist(t,f)に基づいて設定するのは、一般に音楽が盛り上がるにつれて楽曲のメロディーラインのスペクトルパワーも大きくなることに基づく。   In equation (14), since the melody line in the audible area is considered to be about 400 to 600 Hz, the sum of the frequency component histograms Pist (t, f) over 400 to 1500 Hz is also taken into account. The component ASC intensity (t) was set. The reason why the music excitement component ASCinttentity (t) is set based on the histogram Pist (t, f) of the frequency component is based on the fact that the spectral power of the melody line of the music generally increases as the music rises.

Figure 2015185020
Figure 2015185020

ステップS120におけるモーション作成処理は、図16に例示するモーション作成処理により実行される。モーション作成処理では、まず、モーショングラフ上の現在のポイントから選択可能なパスPathに沿って現在のビート時刻tからT時間後(実施例では3秒すなわちフレームレートを120Hzとすると360フレーム分)までに亘ってビート特徴成分ASCbeat(t+τ)(0≦τ≦T)と上述したキーフレーム成分MCkeyframeとの相関値MatchEvalbeatを次式(15)を用いて計算し(ステップS300)、選択可能なパスPathの中から相関値MatchEvalbeatが大きい順にN個(例えば5個)のパスPathbeatを選択する処理を行なう(ステップS310)。   The motion creation process in step S120 is executed by the motion creation process illustrated in FIG. In the motion creation process, first, from the current beat time t along the path Path that can be selected from the current point on the motion graph until T time later (in the embodiment, 3 seconds, that is, 360 frames when the frame rate is 120 Hz). A correlation value MatchEvalbeat between the beat feature component ASCbeat (t + τ) (0 ≦ τ ≦ T) and the key frame component MCkeyframe described above is calculated using the following equation (15) (step S300), and a selectable path Path A process of selecting N (for example, five) paths Pathbeats in descending order of the correlation value MatchEvalbeat from the list (step S310).

この処理は、相関値MatchEvalbeatがビート特徴成分ASCbeat(t)が生じるポイントとキーフレーム成分MCkeyframeが生じるポイントとが一致するほど大きな値として計算されることから、音楽のコード変化が生じるビート時刻で手の動きが止まる場面(止め動作)が生じるようにパスPathbeatを選択する処理と言える。   In this process, the correlation value MatchEvalbeat is calculated as a larger value as the point at which the beat feature component ASCbeat (t) occurs and the point at which the key frame component MCkeyframe is generated. It can be said that the path Pathbeat is selected so that a scene (stopping operation) stops.

Figure 2015185020
Figure 2015185020

こうしてN個のパスPathbeatを選択すると、N個のパスPathbeat毎に音楽盛り上がり成分ASCintensity(t+τ)と上述した動き盛り上がり成分MCintensity(t+τ)との相関値を次式(16)により計算すると共に(ステップS320)、選択したN個のパスPathbeatのうち計算した相関値が最も大きいパスを実行パスPathexecに設定して(ステップS330)、本ルーチンを終了する。   When N paths Pathbeat are selected in this way, a correlation value between the music excitement component ASC intensity (t + τ) and the above-described motion excitement component MC intensity (t + τ) is calculated by the following equation (16) for each of the N paths Pathbeat. S320), the path having the largest calculated correlation value among the selected N paths Pathbeat is set as the execution path Pathexec (step S330), and this routine is terminated.

Figure 2015185020
Figure 2015185020

第1実施例によれば、人体画像のモーションを構成する各フレームをキーフレーム成分MCkeyframeに関連付けてモーションDB110に登録し、音楽データを入力すると共に入力した音楽データを解析してビート特徴成分ASCbeatを抽出し、抽出したビート特徴成分ASCbeatとキーフレーム成分MCkeyframeとの相関値MatchEvalbeatが大きいパスPathbeatを選択してモーションを作成して表示出力するから、音楽のリズムにあったより適切なモーションをリアルタイムに作成することができる。しかも、キーフレーム成分MCkeyframeに加えて動き盛り上がり成分MCintensityも各フレームに関連付けてモーションDB110に登録し、入力した音楽データから音楽盛り上がり成分ASCintensityを抽出して動き盛り上がり成分MCintensityと音楽盛り上がり成分ASCintensityとの相関値が最も大きいパスを選択するから、音楽に盛り上がりの大小にも対応したモーションを作成することができる。   According to the first embodiment, each frame constituting the motion of the human body image is registered in the motion DB 110 in association with the key frame component MCkeyframe, the music data is input, the input music data is analyzed, and the beat feature component ASCbeat is calculated. Extracted and selected path Pathbeat with a large correlation value MatchEvalbeat between extracted beat feature component ASCbeat and key frame component MCkeyframe, and creates and displays a motion, so a more appropriate motion that matches the rhythm of music is created in real time can do. Moreover, in addition to the key frame component MCkeyframe, the motion excitement component MCtensity is also registered in the motion DB 110 in association with each frame, and the music excitement component MCintity is extracted from the input music data, and the correlation between the motion excitement component MCintity and the music excitement component ASCintensity Since the path with the largest value is selected, a motion corresponding to the size of the music can be created.

モーション作成装置100では、ビート特徴成分ASCbeatとキーフレーム成分MCkeyframeとの相関値MatchEvalbeatが大きいN個のパスPathbeatの中から、音楽盛り上がり成分ASCintensityと動き盛り上がり成分MCintensityとの相関値が最も大きいパスを実行パスPathexecに設定するものとしたが、音楽の盛り上がりに関係なく、ビート特徴成分ASCbeatとキーフレーム成分MCkeyframeとの相関値MatchEvalbeatが最も大きいパスを実行パスPathexecに設定するものとしてもよい。   The motion creation device 100 executes a path having the largest correlation value between the music excitement component ASCintensity and the motion excitement component MCintity from among N paths Pathbeat having a large correlation value MatchEvalbeat between the beat feature component ASCbeat and the key frame component MCkeyframe. Although the path Pathexec is set, the path having the largest correlation value MatchEvalbeat between the beat feature component ASCbeat and the key frame component MCkeyframe may be set as the execution path Pathexec regardless of the excitement of music.

モーション作成装置100では、音楽のコードに変化が生じるビート時刻が到来するときにキーフレーム成分MCkeyframeとの相関が大きく現われるようにビート特徴成分ASCbeatを設定するものとしたが、コード変化に関係なく、単にビート時刻が到来するときに値がキーフレーム成分MCkeyframeとの相関が大きく現われるようにビート特徴成分ASCbeatを設定するものとしてもよいし、ビートの特徴を示す他の如何なるパラメータを用いてビート特徴成分ASCbeatを設定するものとしてもよい。   In the motion creation device 100, the beat feature component ASCbeat is set so that the correlation with the key frame component MCkeyframe appears greatly when the beat time at which a change occurs in the chord of music arrives. The beat feature component ASCbeat may be set so that the value is greatly correlated with the key frame component MCkeyframe when the beat time arrives. The beat feature component may be set using any other parameter indicating the beat feature. ASCbeat may be set.

モーション作成装置100では、手v4,v8の動作速度に基づいてキーフレーム成分MCkeyframeや動き盛り上がり成分MCintensityを設定するものとしたが、手v4,v8に限られず腕v1〜v3,v5〜v7の動作速度に基づいてキーフレーム成分MCkeyframeや動き盛り上がり成分MCintensityを設定するものとしてもよいし、さらに他の部位の動作速度も考慮するものとしてもよい。   In the motion creation device 100, the key frame component MCkeyframe and the motion swell component MCintensity are set based on the motion speeds of the hands v4 and v8. However, the motions of the arms v1 to v3 and v5 to v7 are not limited to the hands v4 and v8. The key frame component MCkeyframe and the motion excitement component MCtensity may be set based on the speed, and the operation speed of other parts may be considered.

モーション作成装置100では、人体画像のモーション(アニメーション)を作成するものとしたが、人体画像に限られず、人体ロボットのモーションの作成に適用するものとしてもよい。また、犬や猫などの人以外の動物画像やその他のアニメキャラクター画像のモーションの作成に適用するものとしても差し支えないし、犬や猫などの人以外の動物型のロボットやその他のキャラクターロボットのモーションの作成に適用するものとしても差し支えない。なお、画像によりモーションを作成する場合、用いる画像は二次元画像であってもよいし三次元画像であってもよい。   In the motion creation device 100, motion (animation) of a human body image is created. However, the motion creation device 100 is not limited to a human body image, and may be applied to creation of motion of a human body robot. It can also be applied to create motions for non-human animal images such as dogs and cats and other anime character images, and motions for non-human animal robots such as dogs and cats and other character robots. It may be applied to the creation of When creating a motion from an image, the image used may be a two-dimensional image or a three-dimensional image.

第1実施例によれば、モーションデータDB3(図2参照)と音声データDB4(図2参照)とを同期あるいは合成して編集されたバーチャル映像データDB5(図2参照)を取得することができる。   According to the first embodiment, the virtual video data DB5 (see FIG. 2) edited by synchronizing or synthesizing the motion data DB3 (see FIG. 2) and the audio data DB4 (see FIG. 2) can be acquired. .

なお、第1実施例は、モーションキャプチャー技術を利用したものであるが、これに限定されず、現在知られているモーションキャプチャー技術を適用することができる。   The first embodiment uses the motion capture technique, but is not limited to this, and a currently known motion capture technique can be applied.

モーションキャプチャー技術には、光学式、磁気式、機械式の3つの方式があり、これらの方式全てを利用することができる。   There are three types of motion capture technology: optical, magnetic, and mechanical. All of these methods can be used.

[第2実施例]
バーチャル映像を利用したイベント方法の第2実施例について説明する。バーチャル映像14を生成するための手法として、モーションキャプチャーを利用することができる。第2実施例では、モーションキャプチャーの一例として、それを実行するための装置あるいはシステムを含めて説明する。
[Second Embodiment]
A second embodiment of the event method using virtual video will be described. Motion capture can be used as a method for generating the virtual video 14. In the second embodiment, as an example of motion capture, an apparatus or system for executing the motion capture will be described.

なお、第2実施例は、特許庁電子図書館で公開されている特開2005−337983号公報に記載されている公知技術を適用したものである。以下、特許庁電子図書館で公開されている特開2005−337983号公報に記載されている内容に基づいて第2実施例を説明する。   In the second embodiment, a known technique described in Japanese Patent Application Laid-Open No. 2005-337983 published at the JPO Electronic Library is applied. The second embodiment will be described below based on the contents described in Japanese Patent Application Laid-Open No. 2005-337983 published at the JPO Electronic Library.

第2実施例は、図17に示すように、モーションキャプチャシステム200は、人体(以下、被測定者という)各部に18個のジャイロセンサーを取り付けると共に、当該被測定者の骨格のデータをコンピュータに入力し、前記18個のジャイロセンサーを発信装置と有線接続し、該発信装置を被測定者に取り付ける。   In the second embodiment, as shown in FIG. 17, the motion capture system 200 has 18 gyro sensors attached to each part of the human body (hereinafter referred to as a person to be measured) and the skeleton data of the person to be measured is stored in a computer. The 18 gyro sensors are connected to the transmitter by wire, and the transmitter is attached to the person to be measured.

前記発信装置は、各ジャイロセンサーからのデータをコンピュータに無線発信し、コンピュータで受信して目的に対応した方法でデータを整理し、収録する。   The transmitting device wirelessly transmits data from each gyro sensor to a computer, receives the data by the computer, and organizes and records the data by a method corresponding to the purpose.

前記コンピュータには、腰から下の姿勢制御用ソフトを搭載してあって、被測定者が前後、左右に移動する一般動作についても対応できるようにしてある。   The computer is equipped with posture control software from the waist down so that it can cope with general movements in which the measurement subject moves back and forth and from side to side.

前記ジャイロセンサーは、3次元センサであって、回転方向に対しても正確にデータを取ることができるので、被測定者の身体の微妙な運動、各部変化についても収録することができる。   The gyro sensor is a three-dimensional sensor, and can accurately collect data in the rotation direction, so that it can also record subtle movements of the body of the subject and changes in each part.

前記ジャイロセンサーの取り付け位置は、被測定者の骨格に基づき位置決めがしてあるので、取り付け後は偏倚するおそれがなく、そのデータは修正を要しない。   Since the mounting position of the gyro sensor is positioned based on the skeleton of the person to be measured, there is no possibility of deviation after the mounting, and the data does not need to be corrected.

即ちコンピュータに入力するデータは骨格対応位置におけるデータとして、そのまま演算することにより、真実の形態と、連動を再現し得ることになり、被測定者の運動を正確かつ円滑に再現させることができる。   That is, the data input to the computer is directly calculated as data at the skeleton-corresponding position, so that the true form and the linkage can be reproduced, and the movement of the measurement subject can be reproduced accurately and smoothly.

前記被測定者の骨格寸法を予め測定した猿の骨格寸法に置換することにより、当該猿の運動を表現収録することができる。   By replacing the measurement subject's skeleton size with a previously measured monkey skeleton size, the monkey's movement can be expressed and recorded.

即ちアニメーションの登場者を収録するには、人体の実録データを利用し、登場者(例えば他の動物又は架空の動物、想像上の動物)の活動を真実らしく具現させることができる。   That is, in order to record the characters of the animation, the activity of the characters (for example, other animals, fictional animals, and imaginary animals) can be truly realized by using the data recorded on the human body.

ジャイロセンサーを18個取り付けたが、18個に限定するものではなく、詳細な部分運動を採用する為に、取り付け位置を変え、取り付け個数を変えることは自由である。   Although 18 gyro sensors are attached, the number is not limited to 18 and it is possible to change the attachment position and the number of attachments in order to adopt detailed partial movement.

従ってアニメーション登場の動物から、各種ロボット(介護用、家庭用、工業用その他人体に代る各種作業ロボット)の運動改善資料として採用することができる。   Therefore, it can be used as motion improvement data for various robots (nursing care, household, industrial and other various working robots replacing human bodies) from animated animals.

被測定者(人間)の運動を収録したものを、求める動物(例えば猿)の運動に置換する為には、被測定者の骨格データを猿の骨格データに変換すればよいと説明した。   In order to replace the recording of the movement of the person being measured (human) with the movement of the desired animal (for example, a monkey), it has been explained that the skeleton data of the person to be measured should be converted into the skeleton data of the monkey.

更に正確には、同種の動物(例えば日本猿)の運動状態をアニメーションに採用しようとする日本猿の骨格データとを変換することにより、一層真実に近い運動をさせることができる。   More precisely, by converting the motion state of the same kind of animal (for example, a Japanese monkey) to the skeleton data of a Japanese monkey that is to be adopted for animation, it is possible to make the motion closer to the truth.

前記のように、この発明は人間以外の動物その他動く物について測定して収録し、その動きを分析して改善することができる。   As described above, the present invention can measure and record non-human animals and other moving objects, and analyze and improve the movement.

(具体例)
図18に示すように、被測定者202の身体各部に、ジャイロセンサー204a、204b、204c、204d、204e、204f、204g、204h、204i、204j、204k、204l、204m、204n、204o、204p、204q、204rを夫々取り付ける。
(Concrete example)
As shown in FIG. 18, gyro sensors 204a, 204b, 204c, 204d, 204e, 204f, 204g, 204h, 204i, 204j, 204k, 204l, 204m, 204n, 204o, 204p, 204q and 204r are attached respectively.

次にコンピュータを内蔵した発信装置208と、前記各ジャイロセンサー204(全部を指す時はアルファベットなしとする)と、を電線212で接続し、発信装置208は、ベルトなどを用いて被測定者202の腰に装着する。また前記発信装置208とコンピュータ付の受信装置214との間は無線で送受信されている。   Next, the transmitter 208 having a built-in computer is connected to each gyro sensor 204 (without alphabets when referring to all of them) by an electric wire 212. The transmitter 208 uses a belt or the like to measure the subject 202. Wear on the waist. The transmitting device 208 and the receiving device 214 with a computer are transmitted and received wirelessly.

従って被測定者202の身体各部で検出された運動データは、電線212を介して発信装置に送られ、ここで演算(X、Y、Zの点から位置を決定する)して位置を定める。この演算値を無線で受信装置214に送り、受信装置214内に設置した内蔵コンピュータに入力して、内蔵コンピュータ内に登録された骨格との関係から、骨格の運動による画像を収録する。ジャイロセンサー204から毎秒100〜500のデータが入力されるので、骨格の運動は極めてスムースに行われる。   Therefore, the movement data detected in each part of the body of the person to be measured 202 is sent to the transmitting device via the electric wire 212, and the position is determined by calculation (determining the position from the points of X, Y, and Z). This calculated value is wirelessly sent to the receiving device 214 and input to the built-in computer installed in the receiving device 214, and an image of the motion of the skeleton is recorded from the relationship with the skeleton registered in the built-in computer. Since data of 100 to 500 per second is input from the gyro sensor 204, the movement of the skeleton is performed extremely smoothly.

具体例によれば、被測定者202の身体に18個以上のジャイロセンサー204をつけて、その3次元データを送り、このデータに基づき骨格の動きを表示するので、被測定者202の運動状態を正確に収録することができる。   According to the specific example, 18 or more gyro sensors 204 are attached to the body of the person 202 to be measured, the three-dimensional data is sent, and the movement of the skeleton is displayed based on this data. Can be recorded accurately.

またジャイロセンサー204のデータは、コンピュータ処理(3次元データより一点を求める)して無線送信するので、例えば自動車又はオートバイなどの運転中でも、運転者の動きを適確に収録することができる。このようなことは、従来知られているモーションキャプチャーでは不可能であった。   Further, since the data of the gyro sensor 204 is wirelessly transmitted by computer processing (one point is obtained from the three-dimensional data), for example, the movement of the driver can be accurately recorded even during driving of an automobile or a motorcycle. Such a thing was impossible with the conventionally known motion capture.

図19は、主要骨格に、ジャイロセンサー204の取り付け位置を示したものである。即ち頭216、首218、腰220、脚の付け根222、足224に、ジャイロセンサー204を夫々取り付けた図である。この場合には人体の重要部の動きを測定する為の実例であるが、人体については最小でも図19のように7個のジャイロセンサー204が必要である。人間の場合、動物の場合により最小必要個数は異なる。   FIG. 19 shows the attachment position of the gyro sensor 204 on the main skeleton. That is, the gyro sensor 204 is attached to the head 216, the neck 218, the waist 220, the base of the leg 222, and the foot 224, respectively. In this case, although it is an example for measuring the movement of the important part of the human body, at least seven gyro sensors 204 are required for the human body as shown in FIG. In the case of humans, the minimum required number varies depending on the case of animals.

第2実施例では、上述した方法により、モーションデータDB3(図2参照)を取得することができる。このモーションデータDB3に対して音楽データあるいは音声データDB4(図2参照)を同期あるいは合成させてバーチャル映像データDB5(図2参照)を取得することが可能である。   In the second embodiment, the motion data DB 3 (see FIG. 2) can be acquired by the method described above. Virtual video data DB5 (see FIG. 2) can be obtained by synchronizing or synthesizing music data or audio data DB4 (see FIG. 2) with this motion data DB3.

以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々なる形態で実施し得ることは勿論である。   The best mode for carrying out the present invention has been described with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the gist of the present invention. Of course, it can be implemented in the form.

10 イベントシステム
10A メイン制御部
10B 記憶部
10C 身体動作情報入力部(身体動作情報取得手段)
10D 音声情報入力部(音声情報取得手段)
10E モーションデータ生成部(モーションデータ生成手段)
10F 音声データ生成部(音声データ生成手段)
10G バーチャル映像データ生成部(バーチャル映像データ生成手段)
10H バーチャル映像表示制御部(バーチャル映像表示制御手段)
10I 音声出力部(音声出力手段)
12 表示部
14 バーチャル映像
16 アーティスト本人
17 イベント会場
18 観客席
20 観客エリア
22 ステージ
24 コンテンツ
26 アーティスト用端末
28 アプリケーション
30 コンテンツ配信用サーバ
32 ユーザ用端末
34 アプリケーション
36 課金管理用サーバ
DB1 身体動作情報
DB2 音声情報
DB3 モーションデータ
DB4 音声データ
DB5 バーチャル映像データ
PG1 モーションデータ生成プログラム
PG2 音声データ生成プログラム
PG3 バーチャル映像データ生成プログラム
S10 身体動作情報取得ステップ
S11 音声情報取得ステップ
S12 モーションデータ生成ステップ
S13 音声データ生成ステップ
S14 バーチャル映像データ生成ステップ
S15 バーチャル映像表示制御ステップ
S16 音声出力ステップ
10 Event System 10A Main Control Unit 10B Storage Unit 10C Body Motion Information Input Unit (Body Motion Information Acquisition Unit)
10D voice information input unit (voice information acquisition means)
10E Motion data generator (motion data generator)
10F voice data generation unit (voice data generation means)
10G virtual video data generator (virtual video data generator)
10H Virtual video display control unit (virtual video display control means)
10I audio output unit (audio output means)
DESCRIPTION OF SYMBOLS 12 Display part 14 Virtual image | video 16 Artist person 17 Event hall 18 Audience seat 20 Audience area 22 Stage 24 Content 26 Artist terminal 28 Application 30 Content distribution server 32 User terminal 34 Application 36 Billing management server DB1 Body motion information DB2 Voice Information DB3 Motion data DB4 Audio data DB5 Virtual video data PG1 Motion data generation program PG2 Audio data generation program PG3 Virtual video data generation program S10 Physical motion information acquisition step S11 Audio information acquisition step S12 Motion data generation step S13 Audio data generation step S14 Virtual Video data generation step S15 Virtual video display control step S16 Audio output Step

Claims (11)

バーチャル映像を利用したイベント方法であって、
身体動作情報取得手段により身体の動作に関する身体動作情報を取得する身体動作情報取得ステップと、
音声情報取得手段により音声に関する音声情報を取得する音声情報取得ステップと、
モーションデータ生成手段により前記身体動作情報に基づいてモーションデータを生成するモーションデータ生成ステップと、
音声データ生成手段により前記音声情報に基づいて音声データを生成する音声データ生成ステップと、
バーチャル映像データ生成手段により前記モーションデータと前記音声データとを関連付けしたバーチャル映像データを生成するバーチャル映像データ生成ステップと、
バーチャル映像表示制御手段により前記バーチャル映像データに基づいたバーチャル映像を表示部上に映し出すバーチャル映像表示制御ステップと、
を有することを特徴とするバーチャル映像を利用したイベント方法。
An event method using virtual images,
A body motion information acquisition step of acquiring body motion information related to body motion by the body motion information acquisition means;
An audio information acquisition step of acquiring audio information related to audio by the audio information acquisition means;
A motion data generation step of generating motion data based on the body movement information by means of motion data generation means;
A voice data generation step of generating voice data based on the voice information by voice data generation means;
A virtual video data generating step for generating virtual video data in which the motion data and the audio data are associated with each other by a virtual video data generating unit;
A virtual video display control step of projecting a virtual video based on the virtual video data on a display unit by a virtual video display control means;
An event method using virtual video, characterized by comprising:
音声出力手段により前記音声データに基づいた音声を出力する音声出力ステップを有することを特徴とする請求項1に記載のバーチャル映像を利用したイベント方法。   The event method using a virtual image according to claim 1, further comprising an audio output step of outputting audio based on the audio data by an audio output means. 前記身体動作情報は、歌を歌うときの動作に関する情報であり、
前記モーションデータは、歌を歌うときの動作に関するデータであることを特徴とする請求項1又は2に記載のバーチャル映像を利用したイベント方法。
The body movement information is information about movement when singing a song,
3. The event method using a virtual image according to claim 1, wherein the motion data is data related to an operation when singing a song.
前記音声情報は、歌声に関する情報であり、
前記音声データは、歌声に関するデータであることを特徴とする請求項1乃至3のいずれか1項に記載のバーチャル映像を利用したイベント方法。
The audio information is information about singing voice,
The event method using a virtual image according to any one of claims 1 to 3, wherein the audio data is data related to a singing voice.
前記バーチャル映像データは、音声に合わせて動作する身体のシルエットに関するデータであることを特徴とする請求項1乃至4のいずれか1項に記載のバーチャル映像を利用したイベント方法。   The event method using a virtual image according to any one of claims 1 to 4, wherein the virtual image data is data relating to a silhouette of a body that moves in accordance with sound. 前記バーチャル映像表示制御ステップでは、アーティストの近傍に前記バーチャル映像を映し出すことを特徴とする請求項1乃至5のいずれか1項に記載のバーチャル映像を利用したイベント方法。   6. The event method using a virtual image according to claim 1, wherein in the virtual image display control step, the virtual image is displayed in the vicinity of an artist. 前記バーチャル映像は、2次元映像であることを特徴とする請求項1乃至6のいずれか1項に記載のバーチャル映像を利用したイベント方法。   The event method using a virtual video according to claim 1, wherein the virtual video is a two-dimensional video. 請求項1乃至7のいずれか1項に記載のバーチャル映像を利用したイベント方法によってコンサートを行うことを特徴とするコンサートの開催方法。   A concert holding method, wherein a concert is performed by an event method using the virtual image according to any one of claims 1 to 7. 請求項1乃至7のいずれか1項に記載のバーチャル映像を利用したイベント方法を実現することを特徴とするイベント会場。   An event venue that implements the event method using the virtual image according to any one of claims 1 to 7. 前記イベント会場は、観客席を有することを特徴とする請求項9に記載のイベント会場。   The event venue according to claim 9, wherein the event venue has a spectator seat. 請求項1乃至7のいずれか1項に記載のバーチャル映像を利用したイベント方法により取得されたバーチャル映像の少なくとも一部あるいはバーチャル映像データをコンテンツ又は当該コンテンツが付された物品として販売することを特徴とするコンテンツの売買方法。
8. At least a part of virtual video or virtual video data acquired by the event method using virtual video according to any one of claims 1 to 7 is sold as content or an article to which the content is attached. How to buy and sell content.
JP2014062371A 2014-03-25 2014-03-25 Event method, concert throwing method, event venue and content trading method Pending JP2015185020A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014062371A JP2015185020A (en) 2014-03-25 2014-03-25 Event method, concert throwing method, event venue and content trading method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014062371A JP2015185020A (en) 2014-03-25 2014-03-25 Event method, concert throwing method, event venue and content trading method

Publications (1)

Publication Number Publication Date
JP2015185020A true JP2015185020A (en) 2015-10-22

Family

ID=54351447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014062371A Pending JP2015185020A (en) 2014-03-25 2014-03-25 Event method, concert throwing method, event venue and content trading method

Country Status (1)

Country Link
JP (1) JP2015185020A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6487585B1 (en) * 2018-04-12 2019-03-20 株式会社バーチャルキャスト Content distribution server, virtual character providing server, content distribution system, content distribution method and program
JP2020017873A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Content distribution server, virtual character provision server, content distribution system, content distribution method and program
JP2021006977A (en) * 2019-06-28 2021-01-21 株式会社ドワンゴ Content control system, content control method, and content control program
JP2021053181A (en) * 2019-09-30 2021-04-08 株式会社コロプラ Program, method and viewing terminal
WO2021181902A1 (en) * 2020-03-11 2021-09-16 株式会社メガチップス Pose data generator, cg data generation system, pose data generation method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076312A (en) * 2001-09-06 2003-03-14 Hideo Nagaoka Character display device
JP2003111057A (en) * 2001-09-28 2003-04-11 Taketoshi Akiyama Information distribution method
JP2005337983A (en) * 2004-05-28 2005-12-08 Spice:Kk Motion capturing method and system
JP2006163763A (en) * 2004-12-07 2006-06-22 Nec Corp Event-holding method and system
JP2009005012A (en) * 2007-06-20 2009-01-08 Yamaha Corp Device and method for distributing data, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076312A (en) * 2001-09-06 2003-03-14 Hideo Nagaoka Character display device
JP2003111057A (en) * 2001-09-28 2003-04-11 Taketoshi Akiyama Information distribution method
JP2005337983A (en) * 2004-05-28 2005-12-08 Spice:Kk Motion capturing method and system
JP2006163763A (en) * 2004-12-07 2006-06-22 Nec Corp Event-holding method and system
JP2009005012A (en) * 2007-06-20 2009-01-08 Yamaha Corp Device and method for distributing data, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6487585B1 (en) * 2018-04-12 2019-03-20 株式会社バーチャルキャスト Content distribution server, virtual character providing server, content distribution system, content distribution method and program
JP2019186798A (en) * 2018-04-12 2019-10-24 株式会社バーチャルキャスト Content distribution server, virtual character provision server, content distribution system, content distribution method, and program
JP2020017873A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Content distribution server, virtual character provision server, content distribution system, content distribution method and program
US11212569B2 (en) 2018-07-25 2021-12-28 Dwango Co., Ltd. Content distribution server, virtual character providing server, content distribution system, content distribution method, and program
JP2021006977A (en) * 2019-06-28 2021-01-21 株式会社ドワンゴ Content control system, content control method, and content control program
JP2021053181A (en) * 2019-09-30 2021-04-08 株式会社コロプラ Program, method and viewing terminal
WO2021181902A1 (en) * 2020-03-11 2021-09-16 株式会社メガチップス Pose data generator, cg data generation system, pose data generation method, and program

Similar Documents

Publication Publication Date Title
Menache Understanding motion capture for computer animation and video games
CN102822869B (en) Capture view and the motion of the performer performed in the scene for generating
JP2015185020A (en) Event method, concert throwing method, event venue and content trading method
Menache Understanding motion capture for computer animation
Nogueira Motion capture fundamentals
CN107005724A (en) Information processor, information processing method and program
US6522332B1 (en) Generating action data for the animation of characters
CN103348386A (en) Computer-implemented method and apparatus for tracking and re-shaping human shaped figure in digital video
JP2007018388A (en) Forming apparatus and method for creating motion, and program used therefor
CN107430781A (en) Data structure, information processor, information processing method and the information processing system of computer graphical
JP5055223B2 (en) Video content generation apparatus and computer program
WO2019124069A1 (en) Information processing device, information processing method, and program
Heloir et al. Exploiting motion capture for virtual human animation
JP2008010966A (en) Moving picture generation system and method
JP6431259B2 (en) Karaoke device, dance scoring method, and program
Volonte et al. Headbox: A facial blendshape animation toolkit for the microsoft rocketbox library
Shiratori et al. Synthesizing dance performance using musical and motion features
JP6313003B2 (en) Karaoke apparatus, image output method, and program
Tang et al. Anidance: Real-time dance motion synthesize to the song
Iwamoto et al. DanceDJ: A 3D dance animation authoring system for live performance
CN107888974A (en) A kind of instant video synthetic method and system based on scene or special object
Ouni et al. Dynamic lip animation from a limited number of control points: Towards an effective audiovisual spoken communication
JP2006196017A (en) Animation creation apparatus and method, storage medium
Sauer et al. Music-driven character animation
JP4278288B2 (en) Dance image emphasis synthesizer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170327

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181113