JP2012212245A - 映像コンテンツ生成装置およびコンピュータプログラム - Google Patents

映像コンテンツ生成装置およびコンピュータプログラム Download PDF

Info

Publication number
JP2012212245A
JP2012212245A JP2011076656A JP2011076656A JP2012212245A JP 2012212245 A JP2012212245 A JP 2012212245A JP 2011076656 A JP2011076656 A JP 2011076656A JP 2011076656 A JP2011076656 A JP 2011076656A JP 2012212245 A JP2012212245 A JP 2012212245A
Authority
JP
Japan
Prior art keywords
event
motion
video content
data
content generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011076656A
Other languages
English (en)
Other versions
JP5583066B2 (ja
Inventor
Kenho Jo
建鋒 徐
Koichi Takagi
幸一 高木
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2011076656A priority Critical patent/JP5583066B2/ja
Publication of JP2012212245A publication Critical patent/JP2012212245A/ja
Application granted granted Critical
Publication of JP5583066B2 publication Critical patent/JP5583066B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】音楽に合わせた映像コンテンツを生成する際に、音楽を聴いている利用者の盛り上がりを映像コンテンツに反映させることを図る。
【解決手段】利用者が音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得部11と、取得したデータを用いてイベントの発生を判定するイベント判定部(盛り上がり判定部12)と、イベントが発生したと判定した場合に、イベントに対応する動きのデータである第1の動きデータを生成する第1の動き生成部14と、イベントが発生したと判定した場合に第1の動きデータを表示する表示データを生成する表示データ生成部17と、を備える。
【選択図】図1

Description

本発明は、映像コンテンツ生成装置およびコンピュータプログラムに関する。
近年、音楽に合わせた動き(モーション)データを自動生成する技術が提案されている。例えば特許文献1に記載のモーション作成装置では、複数のモーションにおいて人体姿勢が類似する2つのフレーム間を連結した有向性グラフとしてモーションデータベースを構築し、その複数のモーションの中から、音楽データから取得したビート特徴成分と相関を有する動き特徴成分をもつモーションを選択している。また、非特許文献1に記載の技術では、事前に独自なデータ構造を生成し、音楽を入力すると、動的計画法(Dynamic Programming)により高速な同期を行うことができる。
特開2007−018388号公報
徐建鋒、高木幸一、米山暁夫、"動きのビート・盛り上がり情報に基づく音楽に同期したダンス生成手法"、2009年度映像メディア処理シンポジウム(IMPS)、I−04−01、2009年10月7日
しかし、上述した従来の装置では、音楽を聴いている利用者の盛り上がりを映像コンテンツに反映させることができない。例えば、カラオケ装置が再生する音楽に合わせた映像コンテンツを表示するシステムにおいて、カラオケ装置が再生する音楽に合わせて歌っている利用者が盛り上がっている時に、盛り上がっている動きのデータを表示することができれば、利用者と映像コンテンツとの一体感が高まるので、利用者の満足度を向上させることができる。
本発明は、このような事情を考慮してなされたもので、音楽に合わせた映像コンテンツを生成する際に、音楽を聴いている利用者の盛り上がりを映像コンテンツに反映させることができる映像コンテンツ生成装置およびコンピュータプログラムを提供することを課題とする。
上記の課題を解決するために、本発明に係る映像コンテンツ生成装置は、音楽に合わせた映像コンテンツを生成する映像コンテンツ生成装置において、利用者が前記音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得部と、前記データ取得部が取得したデータを用いてイベントの発生を判定するイベント判定部と、前記イベント判定部が、イベントが発生したと判定した場合に、イベントに対応する動きのデータである第1の動きデータを生成する動き生成部と、前記イベント判定部が、イベントが発生したと判定した場合に、前記動き生成部が生成した第1の動きデータを表示する表示データを生成する表示データ生成部と、を備えたことを特徴とする。
本発明に係る映像コンテンツ生成装置においては、前記イベント判定部が、イベントが発生したと判定した場合に、前記データ取得部が取得したデータを用いてテンポを算出するテンポ算出部を備え、前記動き生成部は、前記テンポ算出部が算出したテンポに、イベントに対応する動きのテンポを合わせた動きデータを生成する、ことを特徴とする。
本発明に係る映像コンテンツ生成装置において、前記表示データ生成部は、前記音楽に合わせた第2の動きデータと前記動き生成部が生成した第1の動きデータとを用いて前記表示データを生成し、前記動き生成部は、前記表示データにおける前区間の動きデータに続く第1の動きデータを生成する、ことを特徴とする。
本発明に係る映像コンテンツ生成装置においては、イベントに対応する動きのデータを蓄積する動きデータベースを備え、前記動き生成部は、前記動きデータベースから、前記表示データにおける前区間の動きデータに続く動きのデータを選択する、ことを特徴とする。
本発明に係る映像コンテンツ生成装置において、前記データ取得部は、前記利用者の動きを検知する加速度センサーを有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記加速度センサーの出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
本発明に係る映像コンテンツ生成装置において、前記データ取得部は、前記利用者との間の距離を検知する距離センサーを有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記距離センサーの出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
本発明に係る映像コンテンツ生成装置において、前記テンポ算出部は、前記第一主成分の得点をフーリエ変換して求めた最大周波数を用いて、テンポを算出する、ことを特徴とする。
本発明に係る映像コンテンツ生成装置において、前記データ取得部は、前記利用者の音声を検知するマイクロホンを有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記マイクロホンの出力信号を用いて音量を算出し、平均音量が閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
本発明に係る映像コンテンツ生成装置において、前記データ取得部は、複数の前記利用者の音声のシンク度を測定する音シンク度測定装置を有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記音シンク度算出装置が測定したシンク度又は平均シンク度が閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
本発明に係る映像コンテンツ生成装置において、前記音楽はカラオケ装置が再生するものであり、前記データ取得部は、前記カラオケ装置が前記利用者の歌を採点したスコアを入力する入力装置を有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記入力装置が入力したスコア又は平均スコアが閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
本発明に係るコンピュータプログラムは、音楽に合わせた映像コンテンツを生成する映像コンテンツ生成処理を行うためのコンピュータプログラムであって、利用者が前記音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得ステップと、前記取得したデータを用いてイベントの発生を判定するイベント判定ステップと、前記イベント判定ステップで、イベントが発生したと判定した場合に、イベントに対応する動きのデータを生成する動き生成ステップと、前記イベント判定ステップで、イベントが発生したと判定した場合に、前記動き生成ステップで生成した動きデータを表示する表示データを生成する表示データ生成ステップと、をコンピュータに実行させるためのコンピュータプログラムであることを特徴とする。
これにより、前述の映像コンテンツ生成装置がコンピュータを利用して実現できるようになる。
本発明によれば、音楽に合わせた映像コンテンツを生成する際に、音楽を聴いている利用者の盛り上がりを映像コンテンツに反映させることができるという効果が得られる。
本発明の一実施形態に係る映像コンテンツ生成装置1の構成を示すブロック図である。 本発明の一実施形態に係る映像コンテンツ生成処理のフローチャートである。 本発明の一実施形態に係る表示データ生成シーケンスの一例を示す図である。 正弦近似処理の概念図である。
以下、図面を参照し、本発明の実施形態について説明する。本実施形態では、利用者が音楽を聴いているときのイベントとして、利用者が盛り上がっていること、を判定する。なお、利用者が音楽を聴いているときのイベントについては任意に定義することができる。
図1は、本発明の一実施形態に係る映像コンテンツ生成装置1の構成を示すブロック図である。図1において、映像コンテンツ生成装置1は、データ取得部11と盛り上がり判定部12とテンポ算出部13と第1の動き生成部14と第1の動きデータベース15と第1の動き記憶部16と表示データ生成部17と第2の動き生成部21と第2の動きデータベース22と第2の動き記憶部23と制御部31を備える。
映像コンテンツ生成装置1は、音楽に合わせた映像コンテンツを生成する。映像コンテンツ生成装置1は、例えばカラオケ装置が再生する音楽に合わせた動きのデータを表示する表示データを生成する。その表示データは、例えばカラオケ装置の表示画面上で表示される。これにより、利用者は、カラオケ装置が再生する音楽と共に該表示データを視聴して楽しむことができる。
データ取得部11は、音楽を聴いている利用者の盛り上がりを判定するためのデータを取得する。データ取得部11は、例えば、音楽を聴いている利用者の動きを検知する加速度センサー、音楽を聴いている利用者との間の距離を検知する距離センサー、音楽を聴いている利用者の音声を検知するマイクロホン、音楽を聴いている複数の利用者の音声のシンク度を測定する音シンク度測定装置、又は、カラオケ装置が再生する音楽に合わせて歌っている利用者の歌を該カラオケ装置が採点したスコアを入力する入力装置、を有する。本実施形態では、データ取得部11は、音楽を聴いている利用者の動きを検知する加速度センサーを有している。
盛り上がり判定部12は、データ取得部11の加速度センサーの出力信号を用いて盛り上がりを判定する。テンポ算出部13は、盛り上がり判定部12が盛り上がっていると判定した場合に、データ取得部11の加速度センサーからの出力信号を用いてテンポを算出する。
第1の動き生成部14は、盛り上がり判定部12が盛り上がっていると判定した場合に、盛り上がっている動きのデータを生成する。第1の動き生成部14は、テンポ算出部13が算出したテンポに、盛り上がっている動きのテンポを合わせた動きデータを生成する。
第1の動きデータベース15は、盛り上がっている動きのデータを蓄積している。第1の動きデータベース15には、盛り上がっている動きのデータが予め準備される。第1の動き生成部14は、第1の動きデータベース15内の動きデータを利用して、盛り上がっている動きのデータを生成する。
第1の動き記憶部16は、第1の動き生成部14が生成した動きデータ(第1の動きデータ)を一時的に記憶する。
第2の動き生成部21は、入力される音楽データに合わせた動きのデータ(第2の動きデータ)を生成する。第2の動きデータベース22は、各種の動きのデータを蓄積している。第2の動きデータベース22には、各種の動きのデータが予め準備される。第2の動き生成部21は、第2の動きデータベース22内の動きデータを利用して、第2の動きデータを生成する。第2の動き記憶部23は、第2の動き生成部21が生成した第2の動きデータを一時的に記憶する。
制御部31は、映像コンテンツ生成装置1の動作を制御する。制御部31は、入力される操作データに従って、映像コンテンツ生成装置1内の各部を制御する。又、制御部31は、盛り上がり判定部12の判定結果に応じて、映像コンテンツ生成装置1内の各部を制御する。
次に、図2を参照して、図1に示す映像コンテンツ生成装置1の全体的な動作を説明する。図2は、本実施形態に係る映像コンテンツ生成処理のフローチャートである。
ステップS1:制御部31は、第2の動き生成部21及び盛り上がり判定部12に対して、一定時間毎に、処理実行を指示する。第2の動き生成部21は、制御部31からの処理実行指示に応じて、一定時間分の音楽データを入力する。盛り上がり判定部12は、制御部31からの処理実行指示に応じて、データ取得部11から、一定時間分の加速度センサー出力信号を取得する。データ取得部11は、定常的に、加速度センサーからの出力信号を出力している。この加速度センサーの出力信号は、第2の動き生成部21に入力される音楽データが再生された音楽を聴いている利用者の動きを検知した信号である。
ステップS2:第2の動き生成部21は、入力した一定時間分の音楽データ(入力音楽データ)に合わせた第2の動きデータを生成する。このとき、第2の動き生成部21は、第2の動きデータベース22内の動きデータの中から入力音楽データに合った動きデータを選択して第2の動きデータを生成する。第2の動き生成部21は、生成した第2の動きデータを第2の動き記憶部23に保存する。
ステップS3:盛り上がり判定部12は、入力した一定時間分の加速度センサー出力信号を用いて盛り上がりを判定する。盛り上がり判定部12は、盛り上がりの判定結果を制御部31に通知する。
ステップS4:ステップS3の判定結果が、「盛り上がっている」である場合にはステップS5に進み、「盛り上がっていない」である場合にはステップS9に進む。
ステップS5:盛り上がり判定部12は、ステップS3の判定の結果が「盛り上がっている」である場合に、テンポ算出部13に対して、テンポ算出を指示する。テンポ算出部13は、盛り上がり判定部12からのテンポ算出指示に応じて、テンポを算出する。
ステップS6:制御部31は、盛り上がり判定部12から通知された判定結果が「盛り上がっている」である場合に、第1の動き生成部14に対して、動きデータ生成を指示する。第1の動き生成部14は、制御部31からの動きデータ生成指示に応じて、第1の動きデータを生成する。このとき、第1の動き生成部14は、第1の動きデータベース15内の動きデータの中から、表示データにおける前区間の動きデータに続く動きデータに適した動きデータを選択して第1の動きデータを生成する。
ステップS7:第1の動き生成部14は、テンポ算出部13が算出したテンポに、第1の動きデータの動きのテンポを合わせる調整を行う。第1の動き生成部14は、生成した第1の動きデータを第1の動き記憶部16に保存する。
ステップS8:制御部31は、盛り上がり判定部12から通知された判定結果が「盛り上がっている」である場合に、表示データ生成部17に対して、第1の動きデータを用いた表示データ生成を指示する。表示データ生成部17は、制御部31からの「第1の動きデータを用いた表示データ生成指示」に応じて、第1の動き記憶部16から第1の動きデータを読み出し、読み出した第1の動きデータを表示する表示データを生成する。
ステップS9:制御部31は、盛り上がり判定部12から通知された判定結果が「盛り上がっていない」である場合に、表示データ生成部17に対して、第2の動きデータを用いた表示データ生成を指示する。表示データ生成部17は、制御部31からの「第2の動きデータを用いた表示データ生成指示」に応じて、第2の動き記憶部23から第2の動きデータを読み出し、読み出した第2の動きデータを表示する表示データを生成する。
ステップS8又はS9で生成された表示データは、映像コンテンツ生成装置1から出力されて、表示装置(図示せず)の画面上に表示される。例えば、表示データはカラオケ装置の表示画面上で表示される。
ステップS10:制御部31は、映像コンテンツ生成処理の終了を判断する。この結果、映像コンテンツ生成処理の終了である場合には図2の処理を終了する。一方、映像コンテンツ生成処理の継続である場合にはステップS1に戻る。
図3は、本実施形態に係る表示データ生成シーケンスの一例を示す図である。図3において、ステップS101では、ステップS100で生成された第2の動きデータを用いて、第(P−1)区間の表示データを生成する。但し、Pは2以上の整数とする。
ステップS111では、ステップS110で取得された加速度センサー出力信号を用いて盛り上がり判定した結果が「盛り上がっている(合格)」であるので、第1の動きデータを生成する。このとき、(P−1)区間の表示データに使用された第2の動きデータ(ステップS100で生成されたもの)に続くように、第1の動きデータを生成する。そして、ステップS112では、ステップS111で生成された第1の動きデータを用いて、P区間の表示データを生成する。
ステップS121では、ステップS120で取得された加速度センサー出力信号を用いて盛り上がり判定した結果が「盛り上がっている(合格)」であるので、第1の動きデータを生成する。このとき、P区間の表示データに使用された第1の動きデータ(ステップS111で生成されたもの)に続くように、第1の動きデータを生成する。そして、ステップS122では、ステップS121で生成された第1の動きデータを用いて、(P+1)区間の表示データを生成する。
ステップS131では、ステップS130で取得された加速度センサー出力信号を用いて盛り上がり判定した結果が「盛り上がっていない(不合格)」であるので、第1の動きデータを生成しない。そして、ステップS141では、ステップS140で生成された第2の動きデータを用いて、(P+2)区間の表示データを生成する。
次に、本実施形態に係る盛り上がり判定処理(図2のステップS3)を詳細に説明する。
本実施形態では、一定時間(盛り上がりを判定する区間)毎に、入力した一定時間分の加速度センサー出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に盛り上がっていると判定する。
加速度センサーは、利用者の手や足などに装着されている。盛り上がり判定部12は、一定時間毎に、加速度センサー出力信号(以下、加速度信号と称する)を取得して主成分分析を行い、第一主成分得点を算出する。ここで、時刻tにおける3次元の加速度信号「a(t)=(ax(t),ay(t),az(t))」を用いて、一区間のデータ「X」を「X={a(t1),a(t2),・・・,a(tN)}と表す。但し、Nは区間長(一区間内に含まれるサンプルの個数)である。Xは、M行N列の行列である(但し、M=3)。
主成分分析処理では、データXに対して主成分分析処理を行い、データXを主成分空間へ変換する。主成分分析処理については、例えば、“http://en.wikipedia.org/wiki/Principal_components_analysis#Software.2Fsource_code”にオープンソースが開示されている。以下、本実施形態に係る主成分分析処理(ステップS301からS303)を説明する。
ステップS301:(1)式により、データXから平均値を除いたN行M列の行列Dを算出する。
Figure 2012212245
ステップS302:(2)式により、N行M列の行列Dに対して特異値分解(Singular Value Decomposition)処理を行う。特異値分解処理については、例えば、“http://www.gnu.org/software/gsl/”にオープンソースが開示されている。
Figure 2012212245
但し、Uは、N行N列のユニタリ行列である。Σは、N行M列の負でない対角要素を降順にもつ対角行列であり、主成分空間の座標の分散を表す。Vは、M行M列のユニタリ行列であり、主成分に対する係数(principal component)である。
ステップS303:(3)式により、N行M列の行列Dを主成分空間へ変換する。M行N列の行列Yは、主成分空間の座標値(得点)を表す。
Figure 2012212245
(3)式による行列Yから第一主成分の座標値(第一主成分得点)を取得し、第一主成分得点の平均値(平均得点)を算出する。この平均得点が、盛り上がり判定の所定の基準値(閾値)以上である場合に「盛り上がっている(合格)」と判定し、該閾値未満である場合に「盛り上がっていない(不合格)」と判定する。
次に、本実施形態に係るテンポ算出処理(図2のステップS5)を詳細に説明する。
まず、上記盛り上がり判定処理で算出された第一主成分得点y(t)の極値b(j)を抽出する。極値b(j)の集合Bは(4)式で表される。但し、Jは、ビートの個数である。
Figure 2012212245
次いで、集合B内の各極値b(j)間を、(5)式により正弦曲線(Sinusoid)で近似する。
Figure 2012212245
図4は、(5)式による正弦近似処理の概念図である。但し、sj−1(t)は、(j−1)番目の極値b(j−1)からj番目の極値b(j)までの区間の正弦近似値である。図4において、1番目の極値b(1)から2番目の極値b(2)までの区間a1(j=2の場合の区間)は、s(t)で近似される。同様に、2番目の極値b(2)から3番目の極値b(3)までの区間a2(j=3の場合の区間)はs(t)で近似され、3番目の極値b(3)から4番目の極値b(4)までの区間a3(j=4の場合の区間)はs(t)で近似され、4番目の極値b(4)から5番目の極値b(5)までの区間a4(j=5の場合の区間)はs(t)で近似される。
次いで、(5)式で得られたs(t)をフーリエ変換して、s(t)の最大周波数を求める。このとき、最低L点のハン窓を用いたFFT(高速フーリエ変換)を行い、所定の周波数範囲[fl,fh]で最大周波数fmaxを求める。そして、最大周波数fmaxを用いてテンポを算出する。本実施形態では、テンポ(tempo=60×fmax)とする。
次に、本実施形態に係る第1の動き生成処理(図2のステップS6)を詳細に説明する。
まず、第1の動きデータベース15内の動きデータの中から、表示データにおける前区間の動きデータに続く動きデータに適した動きデータを選択する。具体的には、(6)式および(7)式によって、第1の動きデータベース15内の動きデータの中から、使用する動きデータを選択する。
Figure 2012212245
但し、kは、第1の動きデータベース15内に在る動きデータの個数である。tは、第1の動きデータベース15内の動きデータにおけるフレーム番号である。c(k,t)は、(7)式で算出される。
Figure 2012212245
但し、q1(i)は、表示データにおける前区間の動きデータにおける最後のN個のフレームの中のi番目のフレームである。q2(i,t)は、第1の動きデータベース15内の動きデータのt番目のフレームからのN個のフレームの中のi番目のフレームである。
次いで、第1の動きデータベース15から選択された動きデータにおける「t番目のフレームからのN個のフレーム」と、表示データにおける前区間の動きデータにおける「最後のN個のフレーム」とを、slerp(spherical linear interpolation)処理によってブレンディングする。このブレンディング処理については、「David H. Eberly,“3D Game Engine Design”, 2nd edition, Geometric Tools, Inc., Morgan Kaufmann, pp.774, 2006」に記載されている。
次に、本実施形態に係るテンポ調整処理(図2のステップS7)を詳細に説明する。
本実施形態では、第1の動き生成処理(図2のステップS6)で、第1の動きデータベース15から選択された動きデータに対してブレンディングを行った後の動きデータ(第1の動きデータ)に対して、テンポ算出処理(図2のステップS5)で算出したテンポ(tempo)に、テンポを合わせる処理を行う。具体的には、(8)式によって、第1の動きデータの再生速度を調整する。再生速度の調整後の第1の動きデータは、第1の動き記憶部16に格納される。
Figure 2012212245
但し、Fs_oldは第1の動きデータベース15内の動きデータに定義されている再生速度である。Fs_newは調整後の再生速度である。tempo_origは、第1の動きデータベース15内の動きデータのテンポであり、第1の動きデータベース15に予め準備されている。tempo_inputは、テンポ算出処理(図2のステップS5)で算出したテンポ(tempo)である。TH_High及びTH_Lowは所定の閾値である。
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
例えば、データ取得部11は、音楽を聴いている利用者との間の距離を検知する距離センサーを有してもよい。この場合、盛り上がり判定部12は、上述した実施形態と同様に、一定時間(盛り上がりを判定する区間)毎に、入力した一定時間分の距離センサー出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に盛り上がっていると判定する。
又は、データ取得部11は、音楽を聴いている利用者の音声を検知するマイクロホンを有してもよい。この場合、盛り上がり判定部12は、一定時間(盛り上がりを判定する区間)毎に、マイクロホンの出力信号を用いて音量を算出し、平均音量が閾値以上である場合に盛り上がっていると判定する。音量算出技術については、例えば「RECOMMENDATION ITU-R BS.1770-1. Algorithms to measure audio programme loudness and true-peak audio level」に記載されている。
又は、データ取得部11は、音楽を聴いている複数の利用者の音声のシンク度を測定する音シンク度測定装置を有してもよい。この場合、盛り上がり判定部12は、一定時間(盛り上がりを判定する区間)毎に、音シンク度算出装置が測定したシンク度又は平均シンク度が閾値以上である場合に盛り上がっていると判定する。
又は、データ取得部11は、カラオケ装置が再生する音楽に合わせて歌っている利用者の歌を該カラオケ装置が採点したスコアを入力する入力装置を有してもよい。この場合、盛り上がり判定部12は、一定時間(盛り上がりを判定する区間)毎に、入力装置が入力したスコア又は平均スコアが閾値以上である場合に盛り上がっていると判定する。
なお、上述した実施形態に係る第2の動き生成部21は、任意の方法によって、入力音楽データに合わせた第2の動きデータを生成するものでよい。例えば、特許文献1又は非特許文献1に記載される従来技術を用いることができる。又、「Ganapathi, V.; Plagemann, C.; Koller, D.; Thrun, S., “Real Time Motion Capture Using a Single Time-of-Flight Camera”, IEEE CVPR 2010, pp. 755 - 762.」に記載される従来技術を用い、距離センサーからの出力信号から人物の動きを自動的に抽出するようにしてもよい。
また、第2の動きデータについては、予め準備しておいてもよい。例えば、音楽データと共に第2の動きデータを映像コンテンツ生成装置1に入力するようにしてもよい。この場合には、第2の動き生成部21および第2の動きデータベース22は不要である。
また、図2に示す各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、映像コンテンツ生成処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
1…映像コンテンツ生成装置、11…データ取得部、12…盛り上がり判定部(イベント判定部)、13…テンポ算出部、14…第1の動き生成部、15…第1の動きデータベース、16…第1の動き記憶部、17…表示データ生成部、21…第2の動き生成部、22…第2の動きデータベース、23…第2の動き記憶部、31…制御部

Claims (11)

  1. 音楽に合わせた映像コンテンツを生成する映像コンテンツ生成装置において、
    利用者が前記音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得部と、
    前記データ取得部が取得したデータを用いてイベントの発生を判定するイベント判定部と、
    前記イベント判定部が、イベントが発生したと判定した場合に、イベントに対応する動きのデータである第1の動きデータを生成する動き生成部と、
    前記イベント判定部が、イベントが発生したと判定した場合に、前記動き生成部が生成した第1の動きデータを表示する表示データを生成する表示データ生成部と、
    を備えたことを特徴とする映像コンテンツ生成装置。
  2. 前記イベント判定部が、イベントが発生したと判定した場合に、前記データ取得部が取得したデータを用いてテンポを算出するテンポ算出部を備え、
    前記動き生成部は、前記テンポ算出部が算出したテンポに、イベントに対応する動きのテンポを合わせた動きデータを生成する、
    ことを特徴とする請求項1に記載の映像コンテンツ生成装置。
  3. 前記表示データ生成部は、前記音楽に合わせた第2の動きデータと前記動き生成部が生成した第1の動きデータとを用いて前記表示データを生成し、
    前記動き生成部は、前記表示データにおける前区間の動きデータに続く第1の動きデータを生成する、
    ことを特徴とする請求項1又は2に記載の映像コンテンツ生成装置。
  4. イベントに対応する動きのデータを蓄積する動きデータベースを備え、
    前記動き生成部は、前記動きデータベースから、前記表示データにおける前区間の動きデータに続く動きのデータを選択する、
    ことを特徴とする請求項3に記載の映像コンテンツ生成装置。
  5. 前記データ取得部は、前記利用者の動きを検知する加速度センサーを有し、
    前記イベント判定部は、イベントの発生を判定する区間毎に、前記加速度センサーの出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に、イベントが発生したと判定する、
    ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
  6. 前記データ取得部は、前記利用者との間の距離を検知する距離センサーを有し、
    前記イベント判定部は、イベントの発生を判定する区間毎に、前記距離センサーの出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に、イベントが発生したと判定する、
    ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
  7. 前記テンポ算出部は、前記第一主成分の得点をフーリエ変換して求めた最大周波数を用いて、テンポを算出する、
    ことを特徴とする請求項5又は6に記載の映像コンテンツ生成装置。
  8. 前記データ取得部は、前記利用者の音声を検知するマイクロホンを有し、
    前記イベント判定部は、イベントの発生を判定する区間毎に、前記マイクロホンの出力信号を用いて音量を算出し、平均音量が閾値以上である場合に、イベントが発生したと判定する、
    ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
  9. 前記データ取得部は、複数の前記利用者の音声のシンク度を測定する音シンク度測定装置を有し、
    前記イベント判定部は、イベントの発生を判定する区間毎に、前記音シンク度算出装置が測定したシンク度又は平均シンク度が閾値以上である場合に、イベントが発生したと判定する、
    ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
  10. 前記音楽はカラオケ装置が再生するものであり、
    前記データ取得部は、前記カラオケ装置が前記利用者の歌を採点したスコアを入力する入力装置を有し、
    前記イベント判定部は、イベントの発生を判定する区間毎に、前記入力装置が入力したスコア又は平均スコアが閾値以上である場合に、イベントが発生したと判定する、
    ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
  11. 音楽に合わせた映像コンテンツを生成する映像コンテンツ生成処理を行うためのコンピュータプログラムであって、
    利用者が前記音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得ステップと、
    前記取得したデータを用いてイベントの発生を判定するイベント判定ステップと、
    前記イベント判定ステップで、イベントが発生したと判定した場合に、イベントに対応する動きのデータを生成する動き生成ステップと、
    前記イベント判定ステップで、イベントが発生したと判定した場合に、前記動き生成ステップで生成した動きデータを表示する表示データを生成する表示データ生成ステップと、
    をコンピュータに実行させるためのコンピュータプログラム。
JP2011076656A 2011-03-30 2011-03-30 映像コンテンツ生成装置およびコンピュータプログラム Expired - Fee Related JP5583066B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011076656A JP5583066B2 (ja) 2011-03-30 2011-03-30 映像コンテンツ生成装置およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011076656A JP5583066B2 (ja) 2011-03-30 2011-03-30 映像コンテンツ生成装置およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2012212245A true JP2012212245A (ja) 2012-11-01
JP5583066B2 JP5583066B2 (ja) 2014-09-03

Family

ID=47266154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011076656A Expired - Fee Related JP5583066B2 (ja) 2011-03-30 2011-03-30 映像コンテンツ生成装置およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP5583066B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019126416A (ja) * 2018-01-22 2019-08-01 株式会社カプコン ゲームプログラムおよびゲーム機

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11231872A (ja) * 1998-02-12 1999-08-27 Namco Ltd 楽音生成装置、画像生成装置、ゲーム装置及び情報記憶媒体
JP2007018388A (ja) * 2005-07-08 2007-01-25 Univ Of Tokyo モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム
JP2009086785A (ja) * 2007-09-28 2009-04-23 Casio Comput Co Ltd 合成画像出力装置および合成画像出力処理プログラム
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法
JP2010219849A (ja) * 2009-03-17 2010-09-30 Cellius Inc 画像生成システム、プログラム、情報記憶媒体、サーバシステム、及びコンテンツ配信システム
JP2010267069A (ja) * 2009-05-14 2010-11-25 Kddi Corp 映像コンテンツ生成装置及びコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11231872A (ja) * 1998-02-12 1999-08-27 Namco Ltd 楽音生成装置、画像生成装置、ゲーム装置及び情報記憶媒体
JP2007018388A (ja) * 2005-07-08 2007-01-25 Univ Of Tokyo モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム
JP2009086785A (ja) * 2007-09-28 2009-04-23 Casio Comput Co Ltd 合成画像出力装置および合成画像出力処理プログラム
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法
JP2010219849A (ja) * 2009-03-17 2010-09-30 Cellius Inc 画像生成システム、プログラム、情報記憶媒体、サーバシステム、及びコンテンツ配信システム
JP2010267069A (ja) * 2009-05-14 2010-11-25 Kddi Corp 映像コンテンツ生成装置及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019126416A (ja) * 2018-01-22 2019-08-01 株式会社カプコン ゲームプログラムおよびゲーム機

Also Published As

Publication number Publication date
JP5583066B2 (ja) 2014-09-03

Similar Documents

Publication Publication Date Title
JP6137935B2 (ja) 身体動作評価装置、カラオケシステム、及びプログラム
JP6428066B2 (ja) 採点装置及び採点方法
JP2020505652A5 (ja)
US20120086855A1 (en) Video content generation system, video content generation device, and storage media
CN104768049B (zh) 一种用于同步音频数据和视频数据的方法、系统及计算机可读存储介质
JP6044306B2 (ja) 情報処理装置、情報処理システム及びプログラム
JP6203003B2 (ja) 信号処理装置、信号処理方法およびプログラム
JP4568144B2 (ja) 情報提示装置及び情報提示プログラム
JP5583066B2 (ja) 映像コンテンツ生成装置およびコンピュータプログラム
JP6501344B2 (ja) 聴取者評価を考慮したカラオケ採点システム
JP6803485B1 (ja) コンピュータプログラム、方法及びサーバ装置
WO2013008869A1 (ja) 電子機器及びデータ生成方法
JPWO2017061278A1 (ja) 信号処理装置、信号処理方法及びコンピュータプログラム
US20170157514A1 (en) Condition Ascertainment Unit
US11337021B2 (en) Head-related transfer function generator, head-related transfer function generation program, and head-related transfer function generation method
JP6545950B2 (ja) 推定装置、推定方法、およびプログラム
WO2021176925A1 (ja) 演奏データに対する観衆の評価を推論する方法、システム、及びプログラム
JP2019020530A (ja) 信号処理装置、制御方法、及びプログラム
US8940990B2 (en) Exercise music support apparatus
WO2019156079A1 (ja) 推定装置、推定方法、およびプログラム
JP6882785B2 (ja) 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム
JP6627625B2 (ja) 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム
JP6686553B2 (ja) 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置
JP2020042557A (ja) 盛り上がり促進システム
JP6287921B2 (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140620

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140715

R150 Certificate of patent or registration of utility model

Ref document number: 5583066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees