JP2006101362A - 動画生成装置及びその方法 - Google Patents

動画生成装置及びその方法 Download PDF

Info

Publication number
JP2006101362A
JP2006101362A JP2004287016A JP2004287016A JP2006101362A JP 2006101362 A JP2006101362 A JP 2006101362A JP 2004287016 A JP2004287016 A JP 2004287016A JP 2004287016 A JP2004287016 A JP 2004287016A JP 2006101362 A JP2006101362 A JP 2006101362A
Authority
JP
Japan
Prior art keywords
music
scenario
pattern data
phrase
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004287016A
Other languages
English (en)
Inventor
Yasuhiro Mori
康浩 森
Katsuhiko Hirose
勝彦 廣瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004287016A priority Critical patent/JP2006101362A/ja
Publication of JP2006101362A publication Critical patent/JP2006101362A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】楽曲のフレーズ(=音の並び)に合せて、静止画を動かすパターンデータを割当てること。楽曲のフレーズを構成する音の特徴量に合せて、動きパターンのパラメータを生成することによって、音の特徴と静止画の動きをマッチさせる。
【解決手段】音楽データから抽出した音楽特徴量によって、音楽をフレーズ単位の分割し、各フレーズからフレーズ情報を生成する。そのフレーズ情報に従って、動作パターンデータを割当てる。次に、基本動作パラメータ生成手段において、フレーズを構成する音の特徴量に対応する動作のパラメータ(動き距離、時間、速さなど)を決定することによって、音そのものと静止画の動きをマッチさせる。
【選択図】図1

Description

本発明は楽曲と映像が同期した動画コンテンツを生成する装置並びに方法に関するものである。
従来、静止画を再生する場合には、スライドショーと言われるアプリケーションによって、時間の経過と共に静止画を切り替え表示することが一般的で、その切り替えタイミングをBGMとなる楽曲のテンポやリズム、特徴的な音の発生するタイミングに同期させることが普通に行われている。
このようなスライドショーでは、画像の切り替えが一定のテンポになるため、単調になりがちで、BGMとなる楽曲のフレーズの内容に応じた変化が求められていた。例えば、特許文献1によれば、こういったニーズに応えることは可能である。
特許文献1は、カラオケシステムにおいて、ユーザーが歌っている時に室内の照明による演出効果を自動的に行う為の発明であって、楽曲データをフレーズに分割して、そのフレーズの内容に適した演出パターンデータを割当てることによって、演出データを自動生成するものであるが、演出パターンデータをスライドショーの画像の動きパターンデータに置き換えれば、同等の効果を得ることができると考えるのは容易である。
特開平10−124078号公報
しかしながら、前記従来例では、次のような課題が残る。
第1に、楽曲をフレーズというブロック単位に分割した上で、その内容(イントロ、Aメロ、Bメロ、サビなど)に応じて、動きパターンデータを選出しただけでは、ブロックの始端、もしくは終端で、音楽と映像が同期しているだけであって、フレーズ内でも音と画像の動きが同期しているとは言い難い。
第2に、フレーズを構成する音の特徴量と動きパターンデータを構成する基本動作の特徴量がマッチしているとは限らないことである。すなわち、音は音程、音量、音質の3つの要素に分解できるが、それらにマッチするよう基本動作を設定しない限り、音の発生するタイミングで画像を切り替えるだけでは、質の高いマルチメディアコンテンツとならない。
本発明は、前記従来の課題を解決するもので、映像と音楽の相乗効果によって高品質なマルチメディアコンテンツを自動生成することが可能な動画生成装置及びその方法を提供することを目的とする。
前記従来の課題を解決するために、本発明は、静止画と音楽を素材として、動画コンテンツを生成・再生する動画生成装置であって、音楽データから音楽特徴量を抽出する音楽特徴量抽出手段と、前記音楽特徴量に基づいて、音楽をフレーズ単位に分割して、フレーズ情報を生成するフレーズ検出手段と、前記フレーズに対して、前記フレーズ情報に基づいて、動作パターンデータを割当て、それを時系列に並べることによって、動画コンテンツのシナリオの雛型を生成する動作パターンデータ割当て手段と、前記シナリオの雛型内の動作パターンデータの夫々に対して、画像を割当て、シナリオを完成させるシナリオ生成手段と、前記シナリオを読み込み、実際に動画コンテンツを再生するシナリオ再生手段とを具備したことを特徴とする動画生成装置に関する。
本発明の動画生成装置によれば、音楽の各フレーズの音の構成パターンに合致する動作パターンデータを割当てた上で、動作パターンデータを構成する基本動作を定義する動作パラメータをフレーズ内の音の特徴量によって決定するので、音楽と静止画の動きがマッチした、質の高い動画コンテンツを生成することができる。
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1における動画生成装置の構成を示すブロック図である。
図1において、100は音楽特徴量抽出手段、101はフレーズ検出手段、102は動作パターンデータ割当て手段、103は、シナリオ生成手段、104はシナリオ再生手段である。
音楽特徴量抽出手段100は、楽曲データから音楽特徴量を抽出する。フレーズ検出手段101は、抽出された音楽特徴量を元に時間軸上で連続する特徴的な音を一つの固まりであるフレーズとして括り、それをフレーズ情報として出力する。動作パターンデータ割当て手段102は、フレーズ情報を読み込んで、その中に含まれる音の並びを元に動きパターンデータを選出/割当て、時系列に並べることによってシナリオスケルトンを生成する。シナリオスケルトンは、シナリオ生成手段103によって、各基本動作に対象となる静止画が割当てられて、シナリオとして完成される。
シナリオは、スクリプト言語で記述された形式のデータであって、これをシナリオ再生手段104が読み込んでデコードすることによって、ユーザーは動画として見ることができる。
楽曲からフレーズを抽出する方法は、特許文献1や特許第3307156号公報に示された方法などが公知であり、こういった方法により、楽曲をフレーズという小ブロックに分割することができる。図8は分割されたフレーズついて、閾値以上の振幅を持つ部分を黒いブロックで、そうでない部分を白いブロックで示している。
黒いブロックは特徴的な音が存在する区間であり、その長さが特徴的な音の時間長である。
特徴的な音の区間は、予め決めた時間長、T1、T2(T1<T2)によって、Zone1、Zone2、Zone3と3段階に分類する。黒いブロックの時間長が、T1未満の場合はZone1、T1以上T2未満の場合はZone2、T2以上の場合はZone3となる。
フレーズ検出手段101の動作後は、(表1)に示すテーブルが出来上がる。すなわち、phrase1は、順にZone1、Zone1、Zone1、Zone2の特徴音を含むブロックであり、phrase2は、同様にZone3、Zone1、Zone1、Zone1の順に特徴音を含むブロックとなる。検出の結果、phrase1とphrase3は、同一の区間の特徴音が、同一の並びで現れるので、同一にフレーズであると認知されることとなる。
Figure 2006101362
以下、動作パターンデータ割当て手段102における動作について、図9〜図11を用いて説明を加える。
図9は、基本動作の動きを表す絵コンテである。
Stillは、静止画を静止したまま表示する基本動作である。
SlideOutは、表示している静止画を表示フレームから引き抜くように動かす基本動作で、時間の経過と共に静止画の中心点も移動する。引き抜く方向は、360°いずれであっても構わない。逆に、SlideInは、静止画を表示フレーム内に挿入していく基本動作であり、SlideOut同様挿入する方向は、360°いずれであっても構わない。
ZoomInは、静止画を徐々に拡大表示する基本動作である。
Panは静止画を表示フレームよりも拡大した上で、表示フレームを動かすようことで表示可能な領域を動かす基本動作である。
Flipは、静止画を縮小表示したうえで、重心を中心として静止画を回転させる基本動作である。
WipeInは、静止画に掛けられたカバーを徐々に外していくような動作をする基本動作であって、SlideInと異なり、静止画の中心点は移動しない。もちろん、”カバーを外す”方向は、360°いずれであっても構わない。
BoxInは、表示された静止画全体を縮小表示する動作をする基本動作である。
ここに示した基本動作は、本発明による実施例1における基本動作の一例を示したものであって、これらがすべてではない。
なお、各基本動作には、Zoneを決定する時と同様に予め決められた時間T1、T2によって、(表2)に示す記号が付与されている。Stillを例に挙げると、記号はC1もしくはC2を選択可能で、これは表示する時間の長さが、T1未満であっても、T1以上T2未満であっても構わないことを意味している。
Figure 2006101362
図10は、動作パターンデータの一例を示したブロック図である。
動作パターンデータは、本発明による動画生成装置を使用するユーザーが作成するデータではないが、本装置を提供する者が装置と共に提供することが要求されるデータである。
動作パターンデータは、基本動作を組み合わせることによって、構成される。動作パターンデータは、ランダムに基本動作を組み合わせたものではなく、意味のある組み合わせによって一つ一つの動作パターンデータに意味をもたせることができる。また、ここでは、説明を簡単化するために4つの基本動作の順列による動作パターンデータのみを例示したが、順列する基本動作の数は、いくつであっても構わないのは当然である。
図10のパターン1を例に挙げると、Still→Still→Still→BoxOutであるので、3枚の写真を順に切り替えた後、最後の写真を縮小表示する動作パターンを示す。
動作パターンデータを定義した際に同時に(表3)に示す記号の配列を決定する。パターン1の場合は、最初の3つのStillについて、C1を選択し、最後のBoxOutは、C2を選択することによって、C1−C1−C1−C2の記号配列属性を持つデータとなる。
Figure 2006101362
図11は、動作パターンデータ割当て手段102の動作を示すフローチャート図である。まず、動作パターンデータ割当て手段102は、フレーズ検出部101が検出したフレーズ情報を読み出す(S1101)。次にフレーズ情報中の音(特徴的な音のみ)の並びを調べる(S1102)。音の並びをキーとして、表3のテーブルを検索し対応する動作パターンデータを選出する(S1103)。このとき、候補となる動作パターンデータが2つ以上ある場合には、それらの中からランダムに選択するルールであっても構わないし、同一のフレーズには毎回同じ動作パターンデータをマップするルールであっても構わない。そして、最後に、選出した動作パターンデータを時間軸上に配置して、シナリオスケルトンを構築していく。
表3を検索する際には、Zone1→C1、Zone2→C2、Zone3→C3と対応させ、配列の先頭からの一致度を比較することによって、フレーズにマッチする動作パターンデータを選択することが可能である。こういった文字列照合アルゴリズムは公知であり、Knuth、Prattおよびこの二人の他にMorrisが同時期に考案したKnuth−Morris−Pratt(KMP)法などが有名である。
(実施の形態2)
図2は、本発明の実施の形態2の動画生成装置の構成を示すブロック図である。図2において、図1と同じ構成要素については同じ符号を用い、説明を省略する。図2において、105は基本動作パラメータ生成手段であり、音楽特徴量抽出手段100によって抽出された音楽特徴量中の単一の音の特徴量に従って、基本動作の動きパラメータを生成する。
一般に、同じ動きであっても、動く距離とその距離を動く為に要する時間の長さによって、視聴者が受ける印象は変わり、シャープに感じたり、冗長に感じたりするものである。動きパラメータを音の特徴量によって変化させることよって、異なる動きを定義することが可能となるので、動きの種類が少ない場合でもバラエティに富んだマルチメディアコンテンツを生成することが可能となる。
図3は、基本動作パラメータ生成手段の動作シーケンスを示すフローチャート図である。
基本動作パラメータ生成手段105は、動きパターンデータを構成する基本動作を読み出す(S301)。基本動作は、WipeIn、SlideIn、Pan、FocusInなどの視覚効果であって、どこからどこまで動くかといった座標値、それには何ミリ秒かかるかといった時間、α値などのパラメータは未定義のものを言う。次に、基本動作に対応する音の特徴量を読み出す(S302)。そして、音の特徴量に基づいて、基本動作のパラメータを決定し(S303)、決定したパラメータをシナリオに書き出す(S304)。そして、動作パターンデータ内のすべての基本動作について終了したら(S305)、処理を終わる。
以下、基本動作のパラメータについて、図4〜5を用いて説明する。
図4に示すBoxInは、表示フレームと同等の大きさ(オリジナルサイズ)から、任意の大きさまで画像全体を縮小していく基本動作であり、距離と時間の2つのパラメータが必要である。距離は、表示フレームの座標値と縮小表示されるフレームの座標値によって決まる値であり、時間はその距離を移動するのに要する時間である。
図4中のグラフは、横軸に時間、縦軸に音量をとったグラフであり、音(a)は、t0−t2では、閾値以上の音量があり、t2−t3は閾値以下の音量である。t3は音の時間的な長さである。音(b)は、t0−t1では、閾値以上の音量があって、t1−t3は閾値以下の音量である。音(c)は、音(b)と同様に、t0−t1で閾値を超える音量があり、t1−t3では、閾値以下の音量である。また、音(a)、(c)の音量の最大値は、音(b)の音量の最大値よりも大きく、音(a)と音(c)の最大値は同じである。
これらの音の特長量を元に音量によって距離を決定し、閾値を下回るまでの時間をその距離を移動するために要する時間としてBoxInの動きパラメータを決定する。従って、音(a)と音(c)は音量の最大値が同値であるので、最終表示フレームの大きさは同じである(即ち、移動する距離は等しい)が、閾値を下回るまでの時間長が異なるので、最後の表示フレームの大きさに縮小するまでの時間が、それぞれt2、t1と異なることになる。また、音(b)は、音量の最大値が音(c)よりも小さいので、最終表示フレームの大きさは、WipeIn(b)の方がWipeIn(c)よりも大きいように決定する。
この結果、WipeIn(c)とWipeIn(a)を比較すると、最終表示フレームの大きさは同じであるが、そこへ至るまでの時間長が異なるので、視聴者にとっては、異なる演出のWipeInを見ることになり、WipeIn(c)の方がシャープな印象を受ける。同様に、WipeIn(c)とWipeIn(b)を比較しても、動いている時間長は同じであっても、最終表示フレームのサイズが異なる=動きの距離が異なることになり、やはり、異なる演出のWipeInを見ることとなる。
従って、音の特徴量によって、基本動作のパラメータを決定することによって、より多様な演出を表現できることになり、より質の高いコンテンツを生成することが可能となることは明白である。
図5に示すWipeInは、画像にカバーが掛けられて、全く表示されずに隠された状態から、徐々にカバーが外されて、最終的に全体が表示される基本動作であり、距離はデフォルトで決まっているので、それに要する時間がパラメータとなる。
図5中のグラフは、図4と同様のグラフであり、音(a)は、t0−t2で閾値以上の音量があり、t2−t3では閾値を下回る。音(b)は、t0−t1で閾値以上の音量があり、t1−t3ではそれを下回る。WipeInをマップした場合は、音量の最大値は関係なく、閾値を上回っている時間の長さを動きパラメータに反映する。WipeIn(a)は、t0−t2の時間で徐々に画像が現れ、t2−t3は静止している。WipeIn(b)は、t0−t1の時間で画像が現れ、t1−t3は静止している。両者を比較すると、同じ距離を動く基本動作であるが、WipeIn(b)の方が、動いている時間が短いので、同じWipeInという基本動作でありながら、視聴者が受ける印象が異なることは明らかである。
従って、BoxIn同様にWipeInであっても、音の特徴量を基本動作のパラメータ(ここでは時間)に反映させることによって、一つの基本動作を多様に見せることが可能となり、より多様なマルチメディアコンテンツを生成することができる。
(実施の形態3)
図6は、本発明の実施の形態3の動画生成装置の構成を示すブロック図である。図6において、図2と同じ構成要素については同じ符号を用い、説明を省略する。図6において、106は動作パターンデータ生成手段であり、フレーズ検出手段101の出力であるフレーズに対して、基本動作をマップしていき、その並びを一つの動作パターンデータとして生成する。生成した動作パターンデータは、動作パターンデータ保存手段107に保存し、再利用する。
一般に、同じフレーズには同じ動作パターンデータを割当てることによって、例えば、サビの部分を深く印象付けることが可能となり、マルチメディアコンテンツの出来の良さに繋がるものである。
以下、図7のフローチャート図を用いて、動作パターンデータの生成と保存、再利用について説明する。
動作パターンデータ生成手段106は、まず、フレーズ情報を読み出す(701)。次に、そのフレーズ情報によって、動作パターンデータ保存手段107を検索し、既に登録済みの動作パターンデータがないか調べる(702)。動作パターンデータがない場合は、フレーズを構成する音情報に基づいて、基本動作を時間軸上に並べ、動作パターンデータを構築する(703)。動作パターンデータは、フレーズと共にセットで、動作パターンデータ保存手段107に保存しておく(704)。再度同じフレーズが現れ、登録済みの動作パターンデータが見つかった場合は、それを読み出して割当てる(705)。
以上の動作によって、本発明によれば、予め動作パターンデータを持たない場合であっても、構築した動作パターンデータをフレーズとリンクして保存しておくことによって、楽曲中で同じフレーズが繰り返された場合には、同じ動きパターンデータをマップすることができる。従って、サビなどの繰り返し使用されるフレーズには同じパターンの動作を割当てることが可能となり、コンテンツにおける盛り上がり部分での印象を深くすることに繋がる。
本発明にかかる動画生成装置、並びにその方法は、静止画、音楽に基づいてマルチメディアコンテンツの自動生成に有用である。
本発明の実施の形態1における動画生成装置のブロック図 本発明の実施の形態2における動画生成装置のブロック図 本発明の実施の形態2における動画生成装置の基本動作パラメータ生成手段の動作を示すフローチャート 本発明の実施の形態2における音とBoxOut基本動作パラメータの関係を示すグラフと図 本発明の実施の形態2における音とWipeIn基本動作パラメータの関係を示すグラフと図 本発明の実施の形態3における動画生成装置のブロック図 本発明の実施の形態3における動画生成装置の動作パターンデータ生成装置の動作を示すフローチャート 本発明の実施の形態1におけるフレーズのブロック図 本発明の実施の形態1における基本動作の絵コンテを示す図 本発明の実施の形態1における基本動作の順列による動作パターンデータの一例を示すブロック図 本発明の実施の形態1における動作パターンデータ割当て手段の動きを説明するフローチャート
符号の説明
100 音楽特徴量抽出手段
101 フレーズ検出手段
102 動作パターンデータ割当て手段
103 シナリオ生成手段
104 シナリオ再生手段
105 基本動作パラメータ生成手段
106 動作パターンデータ生成手段
107 動作パターンデータ保存手段

Claims (6)

  1. 静止画と音楽を素材として、動画コンテンツを生成・再生する動画生成装置であって、
    音楽データから音楽特徴量を抽出する音楽特徴量抽出手段と、
    前記音楽特徴量に基づいて、音楽をフレーズ単位に分割して、フレーズ情報を生成するフレーズ検出手段と、
    前記フレーズに対して、前記フレーズ情報に基づいて、動作パターンデータを割当て、それを時系列に並べることによって、動画コンテンツのシナリオの雛型を生成する動作パターンデータ割当て手段と、
    前記シナリオの雛型内の動作パターンデータの夫々に対して、画像を割当て、シナリオを完成させるシナリオ生成手段と、
    前記シナリオを読み込み、実際に動画コンテンツを再生するシナリオ再生手段
    とを具備したことを特徴とする動画生成装置。
  2. 静止画と音楽を素材として、動画コンテンツを生成・再生する動画生成装置であって、
    音楽データから音楽特徴量を抽出する音楽特徴量抽出手段と、
    前記音楽特徴量に基づいて、音楽をフレーズ単位に分割して、フレーズ情報を生成するフレーズ検出手段と、
    前記フレーズに対して、前記フレーズ情報に基づいて動作パターンデータを割当て、それを時系列に並べることによって、動画コンテンツのシナリオの雛型を生成する動作パターンデータ割当て手段と、
    前記シナリオの雛型内の動作パターンデータの夫々に対して、前記音楽特徴量抽出手段が抽出した音楽特徴量の音特徴量に基づき、動作パラメータを生成する基本動作パラメータ生成手段と、
    前記シナリオの雛型内の動作パターンデータの夫々に対して、画像を割当て、シナリオを完成させるシナリオ生成手段と、
    前記シナリオを読み込み、動画コンテンツを再生するシナリオ生成手段
    とを具備したことを特徴とする動画生成装置。
  3. 音楽と静止画を素材として、動画コンテンツを生成する動画生成装置であって、
    音楽データから音楽特徴量を抽出する音楽特徴量抽出手段と、
    前記音楽特徴量に基づいて、音楽をフレーズ単位に分割し、各フレーズ情報を出力するフレーズ検出手段と、
    前記フレーズ情報に基づいて、フレーズに割当てる動作パターンデータを生成し、また、生成した動作パターンデータを時系列に並べることによって、動画コンテンツのシナリオの雛型を生成する動作パターンデータ生成手段と、
    前記動作パターンデータをフレーズに関連付けて保存する動作パターンデータ保存手段と、
    前記シナリオの雛型において、各フレーズの音特徴量に基づいて、フレーズに割当てられた動作パターンデータの動作パラメータを生成する基本動作パラメータ生成手段と、
    前記シナリオの雛型内の動作パターンデータの夫々に対して、画像を割当て、シナリオを完成させるシナリオ生成手段と、
    前記シナリオを読み込み、動画コンテンツを再生するシナリオ再生手段
    とを具備したことを特徴とする動画生成装置。
  4. 静止画と音楽を素材として、動画コンテンツを生成する方法であって、
    音楽データから音楽特徴量を抽出するステップと、
    前記音楽特徴量に基づいて、音楽をフレーズ単位に分割するステップと、
    前記フレーズに対して、動作パターンデータを割当て、それらを時系列に並べることによって、動画コンテンツのシナリオの雛型を生成するステップと、
    前記シナリオの雛型を構成する動作パターンデータの夫々に対して、画像を割当て、シナリオを完成させるステップと、
    完成したシナリオを読み込み、動画コンテンツを再生するステップ
    から成る動画生成方法。
  5. 静止画と音楽を素材として、動画コンテンツを生成する方法であって、
    音楽データから音楽特徴量を抽出するステップと、
    前記音楽特徴量に基づいて、音楽をフレーズ単位に分割するステップと、
    前記フレーズに対して、動作パターンデータを割当て、それらを時系列に並べることによって、動画コンテンツのシナリオの雛型を生成するステップと、
    前記シナリオの雛型に対して、前記音楽特徴量の音の特徴量に基づき、動作パラメータを生成するステップと、
    前記シナリオの雛型を構成する動作パターンデータの夫々に対して、画像を割当て、シナリオを完成させるステップと、
    前記シナリオを読み込み、動画コンテンツを再生するステップ
    とを含むことを特徴とする動画生成方法。
  6. 音楽と静止画を素材として動画コンテンツを生成する方法であって、
    音楽データから音楽特徴量を抽出するステップと、
    前記音楽特徴量に基づいて、音楽をフレーズ単位に分割し、各フレーズ情報を出力するステップと、
    前記フレーズ情報に基づいて、そのフレーズに割当てる動作パターンデータを生成し、また、生成した動作パターンデータを時系列に並べることによって、動画コンテンツのシナリオの雛型を生成するステップと、
    前記動作パターンデータをフレーズに関連付けて保存するステップと、
    前記シナリオの雛型において、各フレーズの音特徴量に基づいて、フレーズに割当てられた動作パターンデータの動作パラメータを生成するステップと、
    前記シナリオの雛型を構成する動作パターンデータの夫々に対して、画像を割当て、シナリオを完成させるステップと、
    前記シナリオを読み込み、動画コンテンツを再生するステップ
    とを含むことを特徴とする動画生成方法。
JP2004287016A 2004-09-30 2004-09-30 動画生成装置及びその方法 Pending JP2006101362A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004287016A JP2006101362A (ja) 2004-09-30 2004-09-30 動画生成装置及びその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004287016A JP2006101362A (ja) 2004-09-30 2004-09-30 動画生成装置及びその方法

Publications (1)

Publication Number Publication Date
JP2006101362A true JP2006101362A (ja) 2006-04-13

Family

ID=36240728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004287016A Pending JP2006101362A (ja) 2004-09-30 2004-09-30 動画生成装置及びその方法

Country Status (1)

Country Link
JP (1) JP2006101362A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008151966A (ja) * 2006-12-15 2008-07-03 Casio Comput Co Ltd 楽譜表示装置および楽譜表示処理プログラム
JP2010093741A (ja) * 2008-10-10 2010-04-22 Sony Corp 情報処理装置、プログラム、および情報処理方法
JP2011082689A (ja) * 2009-10-05 2011-04-21 Kawai Musical Instr Mfg Co Ltd 動画作成装置、コンピュータプログラム及び記憶媒体
JP2012049837A (ja) * 2010-08-27 2012-03-08 Casio Comput Co Ltd 画像表示装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008151966A (ja) * 2006-12-15 2008-07-03 Casio Comput Co Ltd 楽譜表示装置および楽譜表示処理プログラム
JP4678365B2 (ja) * 2006-12-15 2011-04-27 カシオ計算機株式会社 楽譜表示装置および楽譜表示処理プログラム
JP2010093741A (ja) * 2008-10-10 2010-04-22 Sony Corp 情報処理装置、プログラム、および情報処理方法
JP2011082689A (ja) * 2009-10-05 2011-04-21 Kawai Musical Instr Mfg Co Ltd 動画作成装置、コンピュータプログラム及び記憶媒体
JP2012049837A (ja) * 2010-08-27 2012-03-08 Casio Comput Co Ltd 画像表示装置

Similar Documents

Publication Publication Date Title
CN107124624B (zh) 视频数据生成的方法和装置
US7589727B2 (en) Method and apparatus for generating visual images based on musical compositions
Ryan Narration in various media
US7414186B2 (en) System and method of teaching musical notes
WO1998011529A1 (fr) Procede automatique de composition musicale
CN106898345A (zh) 语音合成方法及语音合成装置
Rogers The unification of the senses: Intermediality in video art-music
JP2006101362A (ja) 動画生成装置及びその方法
JP2006276550A (ja) カラオケ演奏装置
KR100972570B1 (ko) 음의 고저를 표현하는 자막 생성 방법 및 자막 표시 방법
Braguinski The resolution of sound: Understanding retro game audio beyond the ‘8-bit’horizon
Metzer Musical Decay: Luciano Berio's Rendering and John Cage's Europera 5
Perez Multichannel Audiovisual Composition Using Audiovisual Sampling, Synchronous Granular Synthesis and Pseudo-random Number Generator Algorithms
KR100540190B1 (ko) 노래반주기의 이미지가사 디스플레이방법
JP2006134036A (ja) スライド構造化装置
Marti Perez Multichannel audiovisual composition using audiovisual sampling, synchronous granular synthesis andpseudorandom number generator algorithms
Dean Widening unequal tempered microtonal pitch space for metaphoric and cognitive purposes with new prime number scales
JP2006154626A (ja) 画像提示装置、画像提示方法およびスライドショー提示装置
JP5141710B2 (ja) カラオケ装置、プログラム
Davies OF ART
Jutz Hitting where it hurts: absurdity as an artistic method
JP2013114088A (ja) 音響再生装置
KR101017167B1 (ko) 가라오케 장치
Ito et al. Audio-Visual Art Performance System Using Computer Video Output Based on Component Video to Audio Signal Conversion
Buchanan Behavior and Compositional Process in Georges Aperghis' Luna Park