JP2004354583A - 音楽生成装置および音楽生成方法 - Google Patents

音楽生成装置および音楽生成方法 Download PDF

Info

Publication number
JP2004354583A
JP2004354583A JP2003150730A JP2003150730A JP2004354583A JP 2004354583 A JP2004354583 A JP 2004354583A JP 2003150730 A JP2003150730 A JP 2003150730A JP 2003150730 A JP2003150730 A JP 2003150730A JP 2004354583 A JP2004354583 A JP 2004354583A
Authority
JP
Japan
Prior art keywords
waveform data
music
allocating
physical
sound effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003150730A
Other languages
English (en)
Inventor
Takuro Ikeda
卓郎 池田
Naoto Bizen
尚登 尾前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003150730A priority Critical patent/JP2004354583A/ja
Publication of JP2004354583A publication Critical patent/JP2004354583A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Gyroscopes (AREA)

Abstract

【課題】時間と共に変化する画像情報に対応させた音楽を作成して画像と音楽とのコラボレートを図り、新たな視聴スタイルを形成することを目的とする。
【解決手段】波形データを連続的に割り付けて音楽を生成する音楽生成装置であって、複数の波形データを2次記録部15に記録しておき、時間と共に変化する物理量をCPU10によって検出し、このCPU10によって検出された物理量に基づいて2次記録部15に記録された波形データを割り付けることによって音楽を生成する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、音楽生成装置等に関し、より詳しくは時間と共に変化する画像情報に対応させて音楽を生成する音楽生成装置等に関する。
【0002】
【従来の技術】
従来、音楽生成装置としては、例えば、所望の調を表す調情報と所望のコードを表すコード情報とを入力し、この入力された調情報とコード情報とに基づいてアベイラブル・ノート・スケールを検出し、検出されたアベイラブル・ノート・スケール中の音をメロディ音として選択することによりメロディ音を表すメロディ情報を生成して、コードとメロディとの融合感を表現した音楽の生成を行う技術が提案されている(例えば、特許文献1参照)。
【0003】
そして近年、画像記録技術の進歩とその利用方法の多様化に伴い、上記のような音楽生成装置を用いることによって画像情報に対応させた音声情報を生成することで、画像と音楽とを融合させた新たな視聴スタイルを形成する試みが行われている。
例えば、予め定められた大きさを持つ複数の画素群で構成されたデジタル化画像情報の各画素が持つ所定の量子化情報それぞれに対して所定のアルゴリズムを適用して、各画素の量子化情報を特定の音声情報に変換することによって、画像情報の一部若しくは全部を音声情報に変換し、画像情報に固有の音楽を創成する技術が存在する(例えば、特許文献2参照)。
【0004】
【特許文献1】
特開平11−344979号公報(第5−7頁、図9)
【特許文献2】
特開2001−350473号公報(第4−6頁、図4)
【0005】
【発明が解決しようとする課題】
ところで、近年一般的に普及したビデオレコーダ等の映像記録装置において、単に映像を撮ることに加えてその映像に対応した音楽が付加されれば、映像だけを撮る映像記録装置から音楽が融合された映像を撮る映像記録装置へと質の変化が起こり、映像に対応した音楽を聴くためにそれまで撮らなかったような映像を撮るようになったり、今までと同じように撮影しても、音楽が付加されることによって従来とは異なった映像として見えてくるといった、これまでにない効果を引き出すことが期待できる。
しかしながら、従来の音楽生成装置においては、例えば上記の特許文献1に記載された技術のように、時間と共に変化する画像情報に基づいて音楽を生成し、その画像に音楽を付加するという概念はなかった。また、例えば上記の特許文献2に記載された技術では、画像情報を音声情報に変換する方法を提示してはいるが、静止画像から音声情報に変換する技術であるために一画像に対して一楽曲を作成するにすぎず、動画情報のような時間と共に変化する画像情報に対してリアルタイムに音声情報を変化させ続ける変換を行って動画に対応した音楽を生成する技術は存在しなかった。
【0006】
そこで本発明は、このような技術的課題に基づいてなされたものであり、その目的とするところは、時間と共に変化する画像情報に対応させた音楽を作成して画像と音楽とのコラボレートを図り、新たな視聴スタイルを形成することにある。
【0007】
【課題を解決するための手段】
かかる目的のもと、本発明の音楽生成装置は、波形データを連続的に割り付けて音楽を生成する音楽生成装置であって、複数の波形データを波形データ記録手段に記録しておき、時間と共に変化する物理量を物理量検出手段によって検出し、この物理量検出手段によって検出された物理量に基づいて波形データ記録手段に記録された波形データを波形データ割り付け手段によって割り付けることによって音楽を生成することを特徴としている。ここで、物理量検出手段は、動画映像に関する画像データから物理量を検出することが可能である。また、連続して変化する静止画像に関する画像データから物理量を検出することも可能である。
【0008】
さらに、本発明の音楽生成装置は、波形データを連続的に割り付けて音楽を生成する音楽生成装置であって、波形データ記録手段に複数の波形データを記録しておき、時間と共に変化する画像データから物理特性抽出手段によって複数の異なる物理特性を抽出し、この物理特性抽出手段によって抽出された各物理特性を数値化手段によって数値化する。そして、数値化手段によって数値化された各物理特性に基づいて波形データ記録手段に記録された波形データを波形データ割り付け手段によって割り付け、波形データ割り付け手段によって割り付けられた各波形データを同期手段によって同期させることで音楽を生成することを特徴としている。
【0009】
ここで、波形データ記録手段は、異なる波形データから構成される複数の波形データファイルを記録したことを特徴とすることができる。特に、波形データ割り付け手段は、各物理特性毎に波形データ記録手段に記録された波形データファイルを対応付けておき、各物理特性毎に対応付けられた波形データファイルから波形データを割り付けることができる。さらには、波形データ割り付け手段は、各物理特性毎に対応付ける波形データファイルを選択可能に構成したことを特徴とすることもできる。
また、波形データ記録手段は、予め指定されたコード進行で構成された波形データを記録することができる。さらに、波形データ割り付け手段は、小節単位で波形データを割り付けることを特徴とすることもできる。特に、波形データ割り付け手段は、小節単位で波形データの割り付けを行わないことを選択することもできる。また、同期手段は、割り付けられた波形データを小節単位で同期させることを特徴とすることもできる。
【0010】
また、波形データ割り付け手段によって割り付けられた波形データに対してサウンドエフェクト処理を行うエフェクト手段をさらに備えたことを特徴とすることもできる。特に、エフェクト手段は、サウンドエフェクト処理を行う波形データを選択することが可能である。さらに、エフェクト手段は、ジャイロセンサを備え、このジャイロセンサの出力に基づいてサウンドエフェクト処理を行うことも可能である。
【0011】
また、本発明を音楽生成方法として捉え、時間と共に変化する画像データから複数の異なる物理特性を抽出する物理特性抽出ステップと、物理特性抽出ステップによって抽出された各物理特性を数値化する数値化ステップと、数値化ステップによって数値化された各物理特性に基づいて予め記録された波形データファイルの中から所定の波形データを割り付ける波形データ割り付けステップと、波形データ割り付けステップによって割り付けられた各波形データを同期させる同期ステップとを有することを特徴としている。ここで、波形データ割り付けステップによって割り付けられた波形データに対してサウンドエフェクト処理を行うエフェクトステップをさらに有することを特徴とすることができる。また、波形データ割り付けステップで割り付けられる波形データを記録した波形データファイルを選択する波形データファイル選択ステップをさらに有することを特徴とすることもできる。
【0012】
【発明の実施の形態】
以下、添付図面に示す実施の形態に基づいて本発明について詳細に説明する。
図1に示すものは、本実施の形態における音楽生成装置の全体構成を説明するブロック図である。図1に示すように、本実施の形態の音楽生成装置は、予め定められた制御プログラムに従ってデジタル演算処理を実行する演算処理部(CPU)10、CPU10の作業用メモリ等として用いられるRAM11、CPU10により実行される制御プログラム等が格納されるROM12、音楽生成装置の操作を行うためのキーボード等からなる操作入力部33とCPU10との間のデータの送受信を制御する入力インターフェース(入力I/F)13、マウス34とCPU10との間のデータの送受信を制御するマウスインターフェース(マウスI/F)14、所定の記録媒体から構成され、プログラム、およびサウンドデータや画像データ等が記憶されている波形データ記録手段の一例としての2次記録部15、各種の表示を行うディスプレイ等の表示装置36とCPU10との間のデータの送受信を制御する表示インターフェース(表示I/F)16、スピーカ37aへの音声信号の出力と、マイク37bからの音声データの入力を制御するサウンドインターフェース(サウンドI/F)17、ビデオカメラ38とCPU10との間のデータの送受信を制御する映像インターフェース(映像I/F)18、物体の傾きを検出するジャイロセンサ部39とCPU10との間のデータの送受信を制御するジャイロインターフェース(ジャイロI/F)19、鍵盤や音源ユニット等のMIDI(Musical Instrument Digital Interface)機器40を接続するためのMIDIインターフェース(MIDII/F)20、ネットワーク41等との通信を行う通信インターフェース(通信I/F)21を備えている。そして、CPU10、RAM11、ROM12、入力インターフェース13、マウスインターフェース14、2次記録部15、表示インターフェース16、サウンドインターフェース17、映像インターフェース18、ジャイロインターフェース19、MIDIインターフェース20、通信インターフェース21はバス30によって相互に接続されている。
【0013】
RAM11は、種々のデータを一時的に記憶しておくために使用される。このRAM11には、例えばバッファ、レジスタ、カウンタ、フラグ等が定義されている。そして、例えば画像情報を分解した際の光の3要素である色相、彩度、明度それぞれの平均化したレベルや、バックトラック、リード、サウンドエフェクトといった音に関する波形データ、さらには画像情報を管理するための画像管理データ等を記憶する。
また、ROM12は、CPU10により実行される制御プログラムや、CPU10が種々の処理に使用する固定データを記憶している。
【0014】
入力インターフェース13を介して接続される操作入力部33は、ユーザの操作を受けてCPU10にコマンドを伝達する装置部であり、生成中のサウンドに対して、後述するエフェクトの選択、エフェクトの対象となるトラックの選択、各種メディアから取得した曲の中からの選曲、音量調整等を行ったり、ユーザの意思により音楽生成処理をCPU10に指示する機能を備えている。その機能を実現するための手段として、キーボードやタッチスイッチ、さらにはジョグダイアル等のリモートコントローラ等を用いることができる。また、マイク等の音声入力装置、ICカードや磁気カードに記録されたデータを読み取るための記録カード読み取り装置を付加することもできる。
【0015】
マウスインターフェース14を介して接続されるマウス34は、表示装置36を構成するディスプレイ画面上の矢印(マウス・ポインタ)を移動させるための装置であり、ディスプレイ画面上から所望の画像データや音声データを選択したり、種々のコマンドをCPU10に伝達することができる。
【0016】
2次記録部15は、記録媒体として、ハードディスク、DVD−ROM、CD−ROM等を用いることができ、これらの記録媒体からデータを読み出すための駆動装置を備えている。また、この2次記録部15は、データの書き換えが可能なメモリーカード、DVD−RW(またはCD−RW)、またはBlu−rayディスク等を用いることもでき、その際にはこれらの記録媒体に対する情報の読み出し・書き込みを行う機構が備えられている。その他にも、CPU10が実行するプログラム、およびサウンドデータや画像データ等が記憶された各種記録媒体を用いることが可能である。
そして、本実施の形態の音楽生成装置の2次記録部15には、音楽生成に用いる波形データファイルが記録されている。波形データファイルとしては、例えばそれぞれ16小節のループで構成されるバックトラックパターンからなる5種類のバックトラックファイルと、8種類の波形データであるサウンドエフェクトパターンによって一つのファイルを構成したサウンドエフェクトファイルと、5種類の波形データであるリードパターンによって一つのファイルを構成したリードファイルとが用意されている。そしてこれらの7つの波形データファイル、すなわち5つのバックトラックファイルと1つのサウンドエフェクトファイルと1つのリードファイルとで構成される波形データファイルが一つの楽曲データファイルを形成しており、この楽曲データファイルを3組分保持している。これらの波形データファイルは、音楽生成装置の起動時にRAM11に送信される。
なお、波形データファイルであるバックトラックファイル、サウンドエフェクトファイル、リードファイル、および波形データファイルから構成される楽曲データファイルの全体は追加、削除、変更することができ、また波形データファイルは、波形データファイル単体または楽曲データファイル全体として、各種デジタルメディアや外部ネットワーク41から供給することや、入れ替えることも可能である。
【0017】
表示インターフェース16を介して接続される表示装置36は、液晶ディスプレイ等により構成されており、例えば選択されている楽曲データの種類やジャンル等を表示することができる。さらに各スピーカ37aの音量レベルやバランス等の種々の動作情報が表示される。
【0018】
サウンドインターフェース17には、スピーカ37aとマイク37bとが接続されている。サウンドインターフェース17からは、CPU10によって所定の処理が施されて出力される音声信号をスピーカ37aに送信する。スピーカ37aは、サウンドインターフェース17からの音声信号を音響信号に変換して出力する。
一方、マイク37bからは外部の環境音や歌声等が入力される。そして入力された外部の環境音や歌声等はCPU10によって波形データに変換され、2次記録部15に送信して、波形データファイルとして記憶しておくことができる。
【0019】
映像インターフェース18には、ビデオカメラ38が接続される。ビデオカメラ38は、映像を撮影し、また撮影された映像をデジタル画像データとしてDVD−ROMや磁気テープ等の記録媒体に記録する。そして映像インターフェース18は、ビデオカメラ38によりリアルタイムで撮影された画像データや、ビデオカメラ38の記録媒体に記録された画像データをCPU10に送信する。なお、映像インターフェース18には、ビデオデッキ等の映像記録装置を接続することもでき、映像記録装置の記録媒体に記録された画像データをCPU10に送信することもできる。
【0020】
ジャイロインターフェース19には、ジャイロセンサ部39が接続されている。ジャイロセンサ部39には、物体の角速度(1秒間に何度動いたか)を検知するジャイロセンサが配設され、ジャイロセンサは物体の傾き角度をアナログ信号として出力する。ジャイロセンサ部39は、このジャイロセンサから出力されたアナログ信号を内蔵したADコンバータでデジタル信号に変換する。ここで、ジャイロセンサ部39をビデオカメラ38に取り付けると、ジャイロセンサ部39はビデオカメラ38の前後左右の傾き角度をデジタル信号として出力することもできる。そして、このデジタル信号は、ジャイロインターフェース19を介してCPU10に送信される。
【0021】
MIDIインターフェース20は、鍵盤や音源ユニット、パソコン、さらには様々な楽器等のMIDI(Musical Instrument Digital Interface)機器40を接続して、相互に演奏データを送受信するために設けられたものである。
【0022】
通信インターフェース21は、他の機器やLAN(Local Area Network)、WAN(Wide Area Network)等のネットワーク等との通信を行う。この通信インターフェース21は、携帯電話やPHS等から接続される通信基地局経由での通信や、例えばIEEE802.11a/b/gのように、無線LANを利用した無線通信基地局経由での通信を行うことも可能なように構成することもできる。
【0023】
次に、CPU10の機能について説明する。
図2は、CPU10の機能の一例を説明するブロック図である。図2に示すように、まずCPU10は、ビデオカメラ38が撮影した映像に関するデジタル画像データをリアルタイムで映像インターフェース18を介して受信する。そして、第1段階として、このデジタル画像データから画像中央部の32×32ピクセルのサイズ分の画像データを抽出して、この抽出された画像データを色相(Hue)、彩度(Saturation)、明度(Value)の3要素に分解する。ここでは、CPU10は物理特性抽出手段の一つとして機能する。
さらに、第2段階として、分解された色相、彩度、明度のそれぞれをリアルタイムに数値化し、これらを連続した所定枚数の画像単位毎に平均化した値としての物理量を算出する。ここでは、CPU10は数値化手段、さらには物理量検出手段の一つとして機能する。
【0024】
ここで、色相、彩度、明度のそれぞれの数値化について述べる。色相は赤・黄・緑・青・紫といった色合いを表すが、色相を環状に配置し、スペクトルの両端である赤と紫とが滑らかにつながるようにした色相環上において赤を基準(0°)として反時計回りに0〜360°の範囲で指定された色相の角度値を色相値とする。また、彩度は色の鮮やかさの度合いを表し、彩度が高ければより鮮やかに、低ければ濁った色(グレー)になるが、所定の色相の中で最も彩度の高い純色を1.0、最も彩度の低いグレーを0と定義して、彩度値を0〜1.0の範囲で表す。さらに、明度は色の明暗、つまり明るさを表すが、明度が最大の白の場合を360、最も暗い黒の場合を0と定義して、明度値を0〜360の範囲で表す。
【0025】
本実施の形態の音楽生成装置においては、色相、彩度、明度には、予め波形データのうちのサウンドエフェクト、リード、バックトラックがそれぞれ対応付けられており、第3段階として、所定枚数の画像単位毎に算出された色相値、彩度値、明度値に基づいて、色相に対して8種類のサウンドエフェクトパターンの中から1つ、彩度に対して5種類のリードパターンファイルの中から1つ、明度に対して5種類のバックトラックファイルの中から1つがそれぞれ割り付けられる。そして、ビデオカメラ38で撮影された映像が進行するのと同期して色相値、彩度値、明度値も変化していくが、この変化する色相、彩度、明度に対応して、サウンドエフェクトパターン、リードパターン、バックトラックパターンも切り替わりながら割り付けられていく。ここでは、CPU10は、波形データ割り付け手段として機能する。
また、上述したように、2次記録部15にはサウンドエフェクトファイル、リードファイル、バックトラックファイルからなる楽曲データファイルを3組分保持していることから、第3段階において、保持している3組分の楽曲データファイルの中から所望の楽曲データファイルを選択することもできる。これによって、ユーザは所望の曲調を選ぶことができる。
【0026】
なお、色相、彩度、明度に対応して、サウンドエフェクト、リード、バックトラックをそれぞれ割り付けたが、第3段階において、サウンドエフェクト、リード、バックトラックのいずれか1つ又は複数を、音楽生成処理の動作中において一時的又は全期間において非選択に設定することも可能である。
また、色相に対してサウンドエフェクト、彩度に対してリード、明度に対してバックトラックを対応させたが、これらの組み合わせは任意であり、これに限定されるものではない。また、画像データを色相、彩度、明度の3要素に分解したが、この他に、例えば画像データを赤、緑、青の3原色に分解して、それぞれをサウンドエフェクト、リード、バックトラックに対応させたり、さらには画像データを輝度信号、輝度信号と赤色成分との色差信号、輝度信号と青色成分との色差信号に分解して、それぞれをサウンドエフェクト、リード、バックトラックに対応させることもできる。すなわち、画像データから物理量として抽出することができる複数の物理特性であれば、如何なる物理特性をも用いることができる。
さらに、この音楽生成装置では、マイク37bから環境音を採集し、画像データに基づいて、第3段階において重ね合わされた波形データにこの環境音を組み合わせて、音楽を形成することも可能である。
【0027】
そして、第4段階として、音楽的な破綻が生じないように、各波形データは、BPM(Beat Per Minute)を参照しながら小節単位で割り付けが行われるように同期処理が実行される。これによって、割り付けられたサウンドエフェクトパターン、リードパターン、バックトラックパターンは全部がタイミングを合わされて重なり合わされることによって、一つの音楽が構成され、映像に対応した音楽が形成される。
ここで、バックトラックを例にとって、波形データの構成と同期処理を説明する。図3は、バックトラックファイルの構成を示す図である。図3(a)は、コード進行に合わせてバックトラックファイルが構成された場合であり、図3(b)はコード進行が限定されずに構成された場合である。図3では、5種類のバックトラックファイルがそれぞれaトラック〜eトラックの5トラックとして構成され、それぞれのトラックには例えばベースやドラムス等によって異なったバックトラックパターンが記録されている。
そして図3(a)では、それぞれのトラックは、小節毎に予め設定されたコード進行、例えば、C→F→G→C→…に合わせたバックトラックパターンからなる16小節が記録されている。このように構成することで、小節毎にどのトラックが割り付けられるかにかかわらず、予め設定されたコード進行に従うことが可能となる。また図3(b)では、それぞれのトラックは、トラック毎に設定されたコード、例えば、aトラックはC、bトラックはF、…に合わせたバックトラックパターンからなる16小節が記録されている。このように構成することによって、小節毎にどのトラックが割り付けられるかによって、自由なコード進行が可能となる。
【0028】
図4は、小節毎のバックトラックパターンの同期処理を説明する図である。上述したように、バックトラックは明度値に対応して割り付けられる。従って、BPMを参照しながら小節同士の境界を把握し、図4(a)に示すように、小節の境界で明度値に対応して割り付けられたバックトラックファイルに該当するトラックへの切り替えを行う。図4(b)に示した例では、画像データにより変化する明度値に基づいて、aトラックの第1小節→bトラックの第2小節→eトラックの第3小節→cトラックの第4小節→…と小節毎にバックトラックファイルを切り替えていく場合を示している。
また、上述した楽曲データファイルを変更する場合においても、同様にBPMを参照しながら小節同士の境界を把握して、小節の境界で切り替えを行う。
【0029】
ここで、小節の境界においてトラックを切り替えるに際し、切り替え前の波形データと切り替え後の波形データとをシームレスに繋ぐため、BPMを参照しながら小節同士の境界を把握して、図5に示したように、小節の境界に設定された所定のクロスフェード領域において、切り替え前に割り付けられた波形データを徐々にフェードアウトし、切り替え後に割り付けられる波形データを徐々にフェードインするクロスフェードを行うように構成してもよい。
また、同期処理を行う小節の単位は任意に設定でき、例えば、リードは2小節毎に、バックトラックは1小節毎に割り付けるように設定することができる。サウンドエフェクトに関しては、サウンドエフェクトは雑然とした会話や拍手等のように旋律を持たない効果音であることから、任意のタイミングで割り付けるように設定することができる。
【0030】
次に、第1段階から第4段階に至る過程において、CPU10が行う処理について説明する。
まず、図6は、第1段階から第4段階に至る過程において、CPU10が行う処理の流れの全体を表すフローチャートの一例である。図6において、処理が開始されると、CPU10はビデオカメラ38によって撮影された映像に関するデジタル画像データを受け取り、このデジタル画像データから画像中央部の32×32ピクセルのサイズ分の画像データを抽出して、この抽出された画像データを色相(Hue)、彩度(Saturation)、明度(Value)の3要素に分解する。そして、分解された色相、彩度、明度のそれぞれをリアルタイムに数値化し、これを連続した所定枚数の画像単位に平均化した色相値、彩度値、明度値を算出する(S101)。次に、算出された色相値、彩度値、明度値に基づき、それぞれサウンドエフェクトパターン処理(S102)、リードパターン処理(S103)、バックトラックパターン処理(S104)を行い、色相値、彩度値、明度値に対応してサウンドエフェクトパターン、リードパターン、バックトラックパターンをそれぞれ割り付ける。その後、割り付けられたサウンドエフェクトパターン、リードパターン、バックトラックパターンを小節単位で切り替える同期処理を行う(S105)。これを繰り返し行うことで、サウンドエフェクト、リード、バックトラックが重なり合った音楽を形成する。
【0031】
図7は、CPU10が行うサウンドエフェクトパターン処理の流れを表すフローチャートの一例である。図7において、色相値(H)が288より大きい範囲では(S201)、サウンドエフェクトファイルの中の時間領域が45.881〜55.407に記録されたサウンドエフェクトパターンが割り付けられる(S208)。すなわち、サウンドエフェクトファイルは8種類のサウンドエフェクトパターンを一つの波形データとした構成を有し、それぞれのサウンドエフェクトパターンはアドレス領域として記録されている時間領域によって指定することができる。同様に、色相値(H)が270より大きく288以下の範囲では(S202)、時間領域が37.584〜44.881に記録されたサウンドエフェクトパターン(S209)、色相値(H)が216より大きく270以下の範囲では(S203)、時間領域が31.064〜36.584に記録されたサウンドエフェクトパターン(S210)、色相値(H)が198より大きく216以下の範囲では(S204)、時間領域が24.334〜30.064に記録されたサウンドエフェクトパターン(S211)、色相値(H)が144より大きく198以下の範囲では(S205)、時間領域が18.400〜23.334に記録されたサウンドエフェクトパターン(S212)、色相値(H)が126より大きく144以下の範囲では(S206)、時間領域が11.044〜17.400に記録されたサウンドエフェクトパターン(S213)、色相値(H)が54より大きく126以下の範囲では(S207)、時間領域が4.574〜10.044に記録されたサウンドエフェクトパターン(S214)、色相値(H)が54以下の範囲では(S207)、時間領域が0.0〜3.546に記録されたサウンドエフェクトパターン(S215)が割り付けられる。そして、現在割り付けられているサウンドエフェクトパターンが、新たに割り付けられるサウンドエフェクトパターンと異なっているかどうかを判断し(S216)、異なっている場合には、新たに割り付けられるサウンドエフェクトパターンに変更する(S217)。同一の場合には、現在割り付けられているサウンドエフェクトパターンをそのまま続行させる(S218)。
【0032】
図8は、CPU10が行うリードパターン処理の流れを表すフローチャートの一例である。図8において、彩度値(S)が0.5より大きい範囲では(S301)、リードファイルの中の時間領域が1.552から記録されたリードパターンが割り付けられる(S305)。すなわち、リードファイルは5種類のリードパターンを一つの波形データとした構成を有し、それぞれのリードパターンはアドレス領域として記録されている時間領域によって指定することができる。同様に、彩度値(S)が0.4より大きく0.5以下の範囲では(S302)、時間領域が49.000から記録されたリードパターン(S306)、彩度値(S)が0.3より大きく0.4以下の範囲では(S303)、時間領域が39.102から記録されたリードパターン(S307)、彩度値(S)が0.2より大きく0.3以下の範囲では(S304)、時間領域が20.540から記録されたリードパターン(S308)、彩度値(S)が0.2以下の範囲では(S304)、時間領域が1.552から記録されたリードパターン(S309)が割り付けられる。そして、現在割り付けられているリードパターンが、新たに割り付けられるリードパターンと異なっているかどうかを判断し(S310)、異なっている場合には、新たに割り付けられるリードパターンに変更する(S311)。同一の場合には、現在割り付けられているリードパターンをそのまま続行させる(S312)。
【0033】
図9は、CPU10が行うバックトラックパターン処理の流れを表すフローチャートの一例である。図9において、明度値(V)が200より大きい範囲では(S401)、バックトラックファイルSoundA5に記録されたバックトラックパターンが割り付けられる(S405)。すなわち、記録された5種類のバックトラックファイルの中から割り付けられるバックトラックファイルが選択される。同様に、明度値(V)が160より大きく200以下の範囲では(S402)、バックトラックファイルSoundA4に記録されたバックトラックパターン(S406)、明度値(V)が120より大きく160以下の範囲では(S403)、バックトラックファイルSoundA3に記録されたバックトラックパターン(S407)、明度値(V)が80より大きく120以下の範囲では(S404)、バックトラックファイルSoundA2に記録されたバックトラックパターン(S408)、明度値(V)が80以下の範囲では(S404)、バックトラックファイルSoundA1に記録されたバックトラックパターン(S409)が割り付けられる。そして、現在割り付けられているバックトラックパターンが、新たに割り付けられるリードパターンと異なっているかどうかを判断し(S410)、異なっている場合には、新たに割り付けられるバックトラックパターンに変更する(S411)。同一の場合には、現在割り付けられているバックトラックパターンをそのまま続行させる(S412)。
【0034】
図10は、CPU10が行う同期処理の流れを表すフローチャートの一例である。図10において、同期処理が開始されると、まずバックトラックパターンの割り付けが実行されたかどうかを判断する(S501)。バックトラックパターンの割り付けが実行された場合には、次の小節が割り付けられたバックトラックパターンに変化させてよい小節かどうかを判断する(S502)。変化させてよい小節の場合には、現在再生されているバックトラックパターンを次の小節では音量を0として、新たに割り付けられたバックトラックパターンを読み出して、その小節の頭からそのバックトラックパターンを再生する(S503)。変化させてはよくない小節の場合には、次の小節でも現在再生中のバックトラックパターンを続行する(S504)。
一方、ステップS501において、バックトラックパターンの割り付けが実行されていない場合には、ステップS502における次の小節が変化させてよい小節かどうかの判断を行わず、次の小節でも現在再生中のバックトラックパターンを続行する(S504)。
【0035】
次に、サウンドエフェクトパターンの割り付けが実行されたかどうかを判断する(S505)。サウンドエフェクトパターンの割り付けが実行された場合には、次の小節が割り付けられたサウンドエフェクトパターンに変化させてよい小節かどうかを判断する(S506)。変化させてよい小節の場合には、現在再生されているサウンドエフェクトパターンを次の小節では音量を0として、新たに割り付けられたサウンドエフェクトパターンを読み出して、その小節の頭からそのサウンドエフェクトパターンを再生する(S507)。変化させてはよくない小節の場合には、次の小節でも現在再生中のサウンドエフェクトパターンを続行する(S508)。
一方、ステップS505において、サウンドエフェクトパターンの割り付けが実行されていない場合には、ステップS506における次の小節が変化させてよい小節かどうかの判断を行わず、次の小節でも現在再生中のバックトラックパターンを続行する(S508)。
【0036】
次に、リードパターンの割り付けが実行されたかどうかを判断する(S509)。リードパターンの割り付けが実行された場合には、次の小節が割り付けられたリードパターンに変化させてよい小節かどうかを判断する(S510)。変化させてよい小節の場合には、現在再生されているリードパターンを次の小節では音量を0として、新たに割り付けられたリードパターンを読み出して、その小節の頭からそのリードパターンを再生する(S511)。変化させてはよくない小節の場合には、次の小節でも現在再生中のリードパターンを続行する(S512)。
一方、ステップS509において、リードパターンの割り付けが実行されていない場合には、ステップS510における次の小節が変化させてよい小節かどうかの判断を行わず、次の小節でも現在再生中のリードパターンを続行する(S512)。
【0037】
なお、ステップS502、ステップS506、およびステップS510で行う次の小節が変化させてよい小節かどうかの判断は、予め割り付けの切り替えを行う小節の単位を、バックトラック、サウンドエフェクト、リード毎に設定しておくことができる。また、サウンドエフェクトは旋律を持たない効果音であることから、任意のタイミングで割り付けるように設定することができるので、ステップS506における判断を行わない処理も可能である。
【0038】
さて、本実施の形態の音楽生成装置では、第1段階から第4段階に至る過程において、撮影された映像の画像データに対応してバックトラックパターン、リードパターン、サウンドエフェクトパターンが割り付けられ、それぞれが小節単位に同期処理が行われた後に、第5段階として、CPU10において各波形データに対してサウンドエフェクト処理を行うことも可能である。
まず、バックトラック、リード、サウンドエフェクトといった同期処理された波形データを音楽として出力するCPU10の機能を説明する。図11は、波形データを音楽として出力するCPU10の機能構成を説明するブロック図である。図11において、バックトラック、リード、サウンドエフェクトといった同期処理された波形データは、それぞれプリ処理部(Pre)50a、50b、50c、50dにおいて所定の音響処理が行なわれ、プリ処理部50a、50bで処理されたリード、サウンドエフェクトはバス70aを介してディレイ(Delay)部80a、コーラス部(Chorus)81a、リバーブ部(Reverb)82a等によって所望のシステムエフェクトが施される。またプリ処理部50c、50dで処理されたバックトラックはバス70bを介してディレイ(Delay)部80b、コーラス部(Chorus)81b、リバーブ部(Reverb)82b等によって所望のシステムエフェクトが施される。
所望のシステムエフェクトが施されたバックトラック、リード、サウンドエフェクトは、それぞれバス71a、71b、さらにはバス72を介してポスト処理部(Post)80に送信され、ポスト処理部80において所定の音響処理が行なわれた後、合成部(Mix)100に送られる。
【0039】
一方、マイク37bから環境音を採集し、この環境音に対して、入力信号に対し奇数チャンネルおよび偶数チャンネルへの振り分けを調整するパン部(PAN)91、入力信号の出力レベルを調整するボリューム部(VOL)92、入力信号の周波数特性を調整して音色を加工するイコライザ部(EQ)93、入力信号から音程を変化させるピッチシフタ部(PitchShifter)94による音響処理が行われた後、一部の出力信号はバス70aを介してディレイ部80a、コーラス部81a、リバーブ部82a等によって所望のシステムエフェクトが施され、バス71a、バス72を介してポスト処理部80に送信され、ポスト処理部80において所定の音響処理が行なわれる。
また、一部の出力信号は、直接出力される。さらに、一部の出力信号は、合成部100に送られる。
そして合成部100では、ポスト処理部80において所定の音響処理が行なわれたバックトラック、リード、サウンドエフェクト、環境音と、所定の音響処理が行われた環境音とを合成して出力する。
【0040】
ここで、CPU10の中の音響処理を行うプリ処理部50とポスト処理部80とについて述べる。図12は、プリ処理部50とポスト処理部80とを説明するブロック図である。図12(a)は、プリ処理部50の構成を示し、図12(b)はポスト処理部80の構成を示している。図12(a)に示すように、プリ処理部50は、ウェイブファイル形式で記録されている波形データを音声信号として出力するウェイブプリヤ部51、パン部(PAN)52、ボリューム部(VOL)53、イコライザ部(EQ)54、ピッチシフタ部(PitchShifter)55により構成されている。
また、図12(b)に示すように、ポスト処理部80は、イコライザ部81、ピッチシフタ部82、ボリューム部83により構成されている。
【0041】
ところで、本実施の形態の音楽生成装置では、ジャイロセンサ部39はビデオカメラ38と一体的に設置されている。そして、このジャイロセンサ部39は、ユーザがビデオカメラ38を操作した際の前後左右のビデオカメラ38の傾き角を検出し、検出された傾き角はデジタル信号に変換され、ジャイロインターフェース19を介してCPU10に送信される。
ここで、ジャイロセンサ部39はビデオカメラ38のレンズの光軸方向をx軸とし、水平面内でx軸と直交する方向をy軸となるように設置されている。そして、ジャイロセンサ部39は、水平面に対するx軸の傾き角データに関しては、x軸の傾き角が水平面よりも上を向ける程、プラス側に大きい値を出力し、水平面よりも下を向ける程、マイナス側に大きい値を出力するように設定されている。また、水平面内におけるy軸の傾き角データに関しては、y軸の傾き角が右側を向く程、プラス側に大きい値を出力し、y軸の傾き角が左側を向く程、マイナス側に大きい値を出力するように設定されている。
そしてCPU10は、ジャイロセンサ部39からのx軸またはy軸の傾き角データに基づいて、音響処理の際に、割り付けられた波形データに対してサウンドエフェクト処理を実行する。すなわち、CPU10はエフェクト手段として機能する。
【0042】
まず、ジャイロセンサ部39によって検出された傾き角データに基づいて、プリ処理部50のイコライザ部54、ポスト処理部80のイコライザ部81に対してサウンドエフェクト処理を行うことができる。図13は、プリ処理部50のイコライザ部54、ポスト処理部80のイコライザ部81に対してサウンドエフェクト処理を行う場合を説明する図である。図13(a)は、イコライザ部54およびイコライザ部81の構成を説明している。イコライザ部54、イコライザ部81には、カットオフ周波数以上の周波数をカットするハイカットフィルタ(HCF)61と、カットオフ周波数以下の周波数をカットするローカットフィルタ(LCF)62とが備えられている。そして、ハイカットフィルタ61とローカットフィルタ62とは、それぞれジャイロセンサ部39からの信号によりカットオフ周波数を変化させることができるように構成されている。
【0043】
CPU10は、水平面に対するx軸の傾き角データを参照し、図13(b)に示すように、ハイカットフィルタ61に対して、x軸の傾き角がプラス側に大きい値となる程、カットオフ周波数が小さくし、x軸の傾き角がマイナス値を示した場合には、カットオフ周波数は変化させないように制御する。これによって、ジャイロセンサ部39が設置されたビデオカメラ38のレンズが上を向くほど、カットされる高周波数帯が広がり、全体の音質は低音が強調されるという効果を生じさせることができる。
一方、CPU10は、図13(c)に示すように、ローカットフィルタ62に対しては、x軸の傾き角がマイナス側に大きい値となる程、カットオフ周波数が小さくなり、x軸の傾き角がプラス値を示した場合には、カットオフ周波数は変化させないように制御する。これによって、ジャイロセンサ部39が設置されたビデオカメラ38のレンズが下を向くほど、カットされる低周波数帯が狭くなり、低音域の多く含まれる重厚な音質を形成する効果を生じさせることができる。
【0044】
また、ジャイロセンサ部39によって検出された傾き角データに基づいて、プリ処理部50のパン部52に対してサウンドエフェクト処理を行うこともできる。図14は、パン部52に対してサウンドエフェクト処理を行う場合を説明する図である。図14(a)は、パン部52の構成を説明している。パン部52は、音声信号のうちの左チャンネル音声信号を乗算する左マルチプライヤ63と、右チャンネル音声信号を乗算する右マルチプライヤ64とが並列に構成され、左マルチプライヤ63と右マルチプライヤ64とは、それぞれジャイロセンサ部39からの信号によりゲインを変化させることができるように構成されている。
そして、CPU10は、水平面内におけるy軸の傾き角データを参照し、図14(b)に示すように、左マルチプライヤ63に対して、y軸の傾き角がマイナス側に大きい値となる程、ゲインを小さくし、y軸の傾き角がプラス値を示す場合にはゲインを変化させないように制御する。これによって、ジャイロセンサ部39が設置されたビデオカメラ38のレンズが左側を向くほど、左チャンネル出力のゲインが低下し、右チャンネル出力が強調される効果が得られる。
一方、CPU10は、図14(c)に示すように、右マルチプライヤ64に対しては、y軸の傾き角がプラス側に大きい値となる程、ゲインを小さくし、y軸の傾き角がマイナス値を示す場合にはゲインを変化させないように制御する。これによって、ジャイロセンサ部39が設置されたビデオカメラ38のレンズが右側を向くほど、右チャンネル出力のゲインが低下し、左チャンネル出力が強調される効果が得られる。
【0045】
さらに、ジャイロセンサ部39によって検出された傾き角データに基づいて、プリ処理部50のピッチシフタ部55、ポスト処理部80のピッチシフタ部82に対してサウンドエフェクト処理を行うこともできる。図15は、プリ処理部50のピッチシフタ部55、ポスト処理部80のピッチシフタ部82に対してサウンドエフェクト処理を行う場合を説明する図である。
CPU10は、水平面に対するx軸の傾き角データを参照し、図15(a)に示すように、ピッチシフタ部55、ピッチシフタ部82に対して、x軸の傾き角がプラス側に大きい値となる程、ピッチを直線的に高くなるように制御する。一方、x軸の傾き角がマイナス側に大きい値となる程、ピッチが直線的に低くなるように制御する。これによって、ジャイロセンサ部39が設置されたビデオカメラ38を上下に振ることによって、ピッチを変化させることができる。なお、水平面に対するx軸の傾き角が0°である点を中心に、所定の領域においてピッチを変化させない不感帯領域を設け、手ブレによる影響を排除している。
また、CPU10は、図15(b)に示すように、ピッチシフタ部55、ピッチシフタ部82に対して、x軸の傾き角がプラス側に大きい値となる程、ピッチがステップ的に高くなるように制御する。一方、x軸の傾き角がマイナス側に大きい値となる程、ピッチがステップ的に低くなるように制御する。これによっても、ジャイロセンサ部39が設置されたビデオカメラ38を上下に振ることによって、ピッチを変化させることができる。
【0046】
なお、本実施の形態では、ジャイロセンサ部39はビデオカメラ38に設置したが、ジャイロセンサ部39をビデオカメラ38から取り外し、ジャイロセンサ部39のみを動かすことにより、ビデオカメラ38の動きとは独立させて、積極的にサウンドエフェクトを施すことも可能である。
また、ジャイロセンサ部39によって検出された傾き角データに基づいて、ディレイ部80a、80b、コーラス部81a、81b、リバーブ部82a、82b等のシステムエフェクトに対して制御を行うことも可能である。
さらに、サウンドエフェクト処理の選択は任意に行うことができる。また、サウンドエフェクト、リード、バックトラックといった波形データに対して、個別にサウンドエフェクト処理の有無を選択することもできる。
さらにまた、本実施の形態では、サウンドエフェクト処理に際しジャイロセンサ部39によって検出された傾き角データを用いたが、その他の様々な物理量を用いることもできる。例えば、周辺環境の明るさ、温度、湿度、気圧等を検知し、これらの検出値に基づいてサウンドエフェクト処理を行うことも可能である。
【0047】
上述した第1段階から第4段階に至る過程において、撮影された映像の画像データに対応してバックトラックパターン、リードパターン、サウンドエフェクトパターンが割り付けられ、それぞれが小節単位に同期処理が行われた後に、第5段階として、各波形データに対してサウンドエフェクト処理が施されることによって、撮影された映像に対応した音楽が形成される。この形成された音楽は、第6段階として、撮影された映像と共に2次記録部15に記録される。
そして、2次記録部15から映像データおよび音楽データとを読み出すことによって、映像と共に、又は音楽のみを再生することができる。
【0048】
このように、本実施の形態によれば、撮影した映像に関する画像データから色相、彩度、明度等の異なる複数の物理特性を抽出して、それぞれの物理特性を数値化した物理量を算出する。そして数値化された各物理特性に対しバックトラック、リード、サウンドエフェクト等の音楽的構成要素を割り付け、これらを音楽的に同期させることによって、撮影した映像に対応した音楽を生成することができる。これによって、ノンリニアではあるが、音楽的に破綻のない音楽が創造でき、映像と融合した新たな音楽世界が形成できる。その結果として、映像に対応した音楽を聴くためにそれまで撮らなかったような映像を撮るようになったり、今までと同じように撮影しても、音楽が付加されることによって従来とは異なった映像として見えてくるといった、これまでにない効果を引き出すことが期待できる。
【0049】
また、音を聴きながら映像を撮ることにより、その音に撮影者側も合わせて撮るようになるため、撮影された映像にもリズムが生まれるという効果が得られる。さらに、編集したものでも、無編集のものでもない、撮影された映像をトリガーにした音が付加された映像を観るという新しい視聴スタイルが形成されるという効果も生じる。
特に、ビデオレコーダに取り付けたジャイロセンサにより音を変化させるといった新しいインタラクションも提示できるので、ビデオレコーダの更なる直感的な操作が可能となる。また、ビデオレコーダの動きをリンクさせた映像に合った音楽を作り出すといった効果も生まれる。
その他にも、従来、リニアに再生し、聴くことが常であった音楽のリスニングスタイルとは異なった、ノンリニア再生といった新しい音楽の聴き方が生まれ、また同時にノンリニアミュージックといったカテゴリーやそのための音作り等の新しい分野が開拓されることも期待できる。また、音を聴くことによって、どのような画像が撮影されているのか認識できるという効果も得られる。
【0050】
なお、本実施の形態では、撮影した映像に関する画像データから色相、彩度、明度を抽出し、色相、彩度、明度に対しそれぞれバックトラック、リード、サウンドエフェクト等の音楽的構成要素を割り付け、これらを音楽的に同期させることによって、撮影した映像に対応した音楽を生成したが、撮影した映像に代えてスライドショーを用いることも可能である。
【0051】
すなわち、2次記録部15に複数の静止画像データを記録しておき、この静止画像データを所定の時間間隔毎に順次再生していくに際して、連続的に再生される静止画像データから色相、彩度、明度の3要素を抽出する。さらに、抽出された色相、彩度、明度のそれぞれをリアルタイムに数値化する。そして、撮影した映像を用いる場合と同様に、色相、彩度、明度には、予め波形データのうちのサウンドエフェクト、リード、バックトラックをそれぞれ対応付けておき、再生される画像データから算出された色相値、彩度値、明度値に応じて、色相に対して8種類のサウンドエフェクトの中から1つ、彩度に対して5種類のリードの中から1つ、明度に対して5種類のバックトラックの中から1つをそれぞれ割り付ける。
【0052】
そして、音楽的な破綻が生じないように、サウンドエフェクト、リード、バックトラックの各波形データは、BPMを参照しながら小節単位で割り付けが切り替えられるように同期処理が行われる。これによって、割り付けられたサウンドエフェクト、リード、バックトラックは全部がタイミングを合わされて重なり合わされることによって、一つの音楽が構成され、画像に対応した音楽が形成される。
ここで、スライドショーを用いる場合には、画像を切り替えるタイミングとして、小節の区切りを用いるように設定することができる。すなわち、BPMを参照しながら小節の区切りを把握して、例えば2小節毎に画像を切り替えるように設定することができる。
撮影した映像に代えてスライドショーを用いる場合にも、連続的に再生される静止画像と音楽が融合した新たな音楽世界が形成できる。
【0053】
また、本実施の形態では、バックトラック、リード、サウンドエフェクト等の音楽的構成要素を割り付けるための物理量として、撮影した映像や連続した静止画像を用いるスライドショーといった時間と共に変化する画像データから抽出した物理量を用いたが、時間と共に変化する物理量であれば如何なる物理量も用いることが可能である。
【0054】
さらに、本実施の形態の音楽生成装置は、カメラ付コンピュータ、携帯電話、PDA(Personal Digital Assistant)、カメラ付ロボット等にも適用することができる。
さらに、撮影された映像から画像認識を行い、画像認識データに基づき警告音を作成する警報システムに適用することもできる。特に、撮影された映像から顔認識、形状認識を行い、個人の識別システム、物体の識別システムに適用することも可能である。
【0055】
【発明の効果】
以上説明したように、本発明によれば、時間と共に変化する画像情報に対応させた音楽を作成して画像と音楽とのコラボレートを図り、新たな視聴スタイルを形成することが可能となる。
【図面の簡単な説明】
【図1】本実施の形態の音楽生成装置の全体構成を説明するブロック図である。
【図2】CPUの機能の一例を説明するブロック図である。
【図3】バックトラックファイルの構成を示す図である。
【図4】小節毎のバックトラックパターンの同期処理を説明する図である。
【図5】クロスフェードを説明する図である。
【図6】第1段階から第4段階に至る過程において、CPUが行う処理の流れの全体を表すフローチャートの一例である。
【図7】CPUが行うサウンドエフェクトパターン処理の流れを表すフローチャートの一例である。
【図8】CPUが行うリードパターン処理の流れを表すフローチャートの一例である。
【図9】CPUが行うバックトラックパターン処理の流れを表すフローチャートの一例である。
【図10】CPUが行う同期処理の流れを表すフローチャートの一例である。
【図11】波形データを音楽として出力するCPUの機能構成を説明するブロック図である。
【図12】プリ処理部とポスト処理部とを説明するブロック図である。
【図13】プリ処理部とポスト処理部のイコライザ部に対してサウンドエフェクト処理を行う場合を説明する図である。
【図14】パン部に対してサウンドエフェクト処理を行う場合を説明する図である。
【図15】プリ処理部とポスト処理部のピッチシフタ部に対してサウンドエフェクト処理を行う場合を説明する図である。
【符号の説明】
10…演算処理部(CPU)、11…RAM、12…ROM、13…入力インターフェース(入力I/F)、14…マウスインターフェース(マウスI/F)、15…2次記録部、16…表示インターフェース(表示I/F)、17…サウンドインターフェース(サウンドI/F)、18…映像インターフェース(映像I/F)、19…ジャイロインターフェース(ジャイロI/F)、20…MIDIインターフェース(MIDII/F)、21…通信インターフェース(通信I/F)、33…操作入力部、34…マウス、37a…スピーカ、37b…マイク、38…ビデオカメラ、39…ジャイロセンサ部、40…MIDI機器、41…ネットワーク、50,50a,50b,50c,50d…プリ処理部(Pre)、51…ウェイブプリヤ部、52,91…パン部(PAN)、53,83,92…ボリューム部(VOL)、54,81,93…イコライザ部(EQ)、55,82,94…ピッチシフタ部(PitchShifter)、61…ハイカットフィルタ(HCF)、62…ローカットフィルタ(LCF)、63…左マルチプライヤ、64…右マルチプライヤ、70a,70b,71a,71b,72…バス、80a,80b…ディレイ(Delay)部、81a,81b…コーラス部(Chorus)、82a,82b…リバーブ部(Reverb)、80…ポスト処理部(Post)、100…合成部(Mix)

Claims (17)

  1. 波形データを連続的に割り付けて音楽を生成する音楽生成装置であって、
    複数の波形データを記録した波形データ記録手段と、
    時間と共に変化する物理量を検出する物理量検出手段と、
    前記物理量検出手段によって検出された前記物理量に基づいて前記波形データ記録手段に記録された前記波形データを割り付ける波形データ割り付け手段と
    を備えたことを特徴とする音楽生成装置。
  2. 前記物理量検出手段は、動画映像に関する画像データから前記物理量を検出することを特徴とする請求項1記載の音楽生成装置。
  3. 前記物理量検出手段は、連続して変化する静止画像に関する画像データから前記物理量を検出することを特徴とする請求項1記載の音楽生成装置。
  4. 波形データを連続的に割り付けて音楽を生成する音楽生成装置であって、
    複数の波形データを記録した波形データ記録手段と、
    時間と共に変化する画像データから複数の異なる物理特性を抽出する物理特性抽出手段と、
    前記物理特性抽出手段によって抽出された各物理特性を数値化する数値化手段と、
    前記数値化手段によって数値化された各物理特性に基づいて前記波形データ記録手段に記録された前記波形データを割り付ける波形データ割り付け手段と、
    前記波形データ割り付け手段によって割り付けられた前記各波形データを同期させる同期手段と
    を備えたことを特徴とする音楽生成装置。
  5. 前記波形データ記録手段は、異なる波形データから構成される複数の波形データファイルを記録したことを特徴とする請求項4記載の音楽生成装置。
  6. 前記波形データ割り付け手段は、前記各物理特性毎に前記波形データ記録手段に記録された前記波形データファイルを対応付け、当該波形データファイルから前記波形データを割り付けることを特徴とする請求項5記載の音楽生成装置。
  7. 前記波形データ割り付け手段は、前記各物理特性毎に対応付ける前記波形データファイルを選択可能に構成したことを特徴とする請求項6記載の音楽生成装置。
  8. 前記波形データ記録手段は、予め指定されたコード進行で構成された前記波形データを記録したことを特徴とする請求項4記載の音楽生成装置。
  9. 前記波形データ割り付け手段は、小節単位で前記波形データを割り付けることを特徴とする請求項4記載の音楽生成装置。
  10. 前記波形データ割り付け手段は、小節単位で前記波形データの割り付けを行わないことを選択できることを特徴とする請求項9記載の音楽生成装置。
  11. 前記同期手段は、割り付けられた前記波形データを小節単位で同期させることを特徴とする請求項4記載の音楽生成装置。
  12. 前記波形データ割り付け手段によって割り付けられた前記波形データに対してサウンドエフェクト処理を行うエフェクト手段をさらに備えたことを特徴とする請求項4記載の音楽生成装置。
  13. 前記エフェクト手段は、サウンドエフェクト処理を行う前記波形データを選択できることを特徴とする請求項12記載の音楽生成装置。
  14. 前記エフェクト手段は、ジャイロセンサを備え、当該ジャイロセンサの出力に基づいてサウンドエフェクト処理を行うことを特徴とする請求項12記載の音楽生成装置。
  15. 時間と共に変化する画像データから複数の異なる物理特性を抽出する物理特性抽出ステップと、
    前記物理特性抽出ステップによって抽出された各物理特性を数値化する数値化ステップと、
    前記数値化ステップによって数値化された各物理特性に基づいて予め記録された波形データファイルの中から所定の波形データを割り付ける波形データ割り付けステップと、
    前記波形データ割り付けステップによって割り付けられた前記各波形データを同期させる同期ステップと
    を有する音楽生成方法。
  16. 前記波形データ割り付けステップによって割り付けられた前記波形データに対してサウンドエフェクト処理を行うエフェクトステップをさらに有することを特徴とする請求項15記載の音楽生成方法。
  17. 前記波形データ割り付けステップで割り付けられる波形データを記録した前記波形データファイルを選択する波形データファイル選択ステップをさらに有することを特徴とする請求項15記載の音楽生成方法。
JP2003150730A 2003-05-28 2003-05-28 音楽生成装置および音楽生成方法 Pending JP2004354583A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003150730A JP2004354583A (ja) 2003-05-28 2003-05-28 音楽生成装置および音楽生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003150730A JP2004354583A (ja) 2003-05-28 2003-05-28 音楽生成装置および音楽生成方法

Publications (1)

Publication Number Publication Date
JP2004354583A true JP2004354583A (ja) 2004-12-16

Family

ID=34046456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003150730A Pending JP2004354583A (ja) 2003-05-28 2003-05-28 音楽生成装置および音楽生成方法

Country Status (1)

Country Link
JP (1) JP2004354583A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011056061A (ja) * 2009-09-10 2011-03-24 Nintendo Co Ltd 画像表示システムおよび照明装置
JP2011086437A (ja) * 2009-10-14 2011-04-28 Nintendo Co Ltd 画像表示システム、照明システム、情報処理装置、および制御プログラム
JP2011248067A (ja) * 2010-05-26 2011-12-08 Yamaha Corp 音楽生成装置
US8602891B2 (en) 2009-09-10 2013-12-10 Nintendo Co., Ltd. Image display system and illumination device
JP2014222661A (ja) * 2014-06-17 2014-11-27 任天堂株式会社 画像表示システム、照明システム、情報処理装置、および制御プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011056061A (ja) * 2009-09-10 2011-03-24 Nintendo Co Ltd 画像表示システムおよび照明装置
US8602891B2 (en) 2009-09-10 2013-12-10 Nintendo Co., Ltd. Image display system and illumination device
US8647198B2 (en) 2009-09-10 2014-02-11 Nintendo Co., Ltd. Image display system, illumination system, information processing device, and storage medium having control program stored therein
US8777741B2 (en) 2009-09-10 2014-07-15 Nintendo Co., Ltd. Illumination device
JP2011086437A (ja) * 2009-10-14 2011-04-28 Nintendo Co Ltd 画像表示システム、照明システム、情報処理装置、および制御プログラム
JP2011248067A (ja) * 2010-05-26 2011-12-08 Yamaha Corp 音楽生成装置
JP2014222661A (ja) * 2014-06-17 2014-11-27 任天堂株式会社 画像表示システム、照明システム、情報処理装置、および制御プログラム

Similar Documents

Publication Publication Date Title
US10681408B2 (en) Systems and methods for creating composite videos
EP1020843B1 (en) Automatic musical composition method
US9691429B2 (en) Systems and methods for creating music videos synchronized with an audio track
JP3516406B2 (ja) カラオケオーサリング装置
EP2116970A1 (en) Image selecting device, image selecting method and program
CN112805675A (zh) 非线性媒体片段捕获和编辑平台
JP4491700B2 (ja) 音響検索処理方法、音響情報検索装置、音響情報蓄積方法、音響情報蓄積装置および音響映像検索処理方法、音響映像情報検索装置、音響映像情報蓄積方法、音響映像情報蓄積装置
EP1132890B1 (en) Information retrieving/processing method, retrieving/processing device, storing method and storing device
CN103325131B (zh) 动画再现方法以及动画再现装置
JP5375897B2 (ja) 画像生成方法、画像生成装置及びプログラム
KR100748059B1 (ko) 실시간 다층 동영상 합성보드
KR20180080642A (ko) 음원과 동기화되는 동영상을 편집하는 방법
KR101414217B1 (ko) 실시간 영상합성 장치 및 그 방법
JP2004354583A (ja) 音楽生成装置および音楽生成方法
JP2008089849A (ja) リモート演奏システム
JP2015161710A (ja) カラオケ装置、及びカラオケ用プログラム
JP2014186177A (ja) 再生装置
JP2005252372A (ja) ダイジェスト映像作成装置及びダイジェスト映像作成方法
JP2010160358A (ja) 動画制御システム及び動画制御方法
JP2005033554A (ja) 画像再生システム及び画像再生プログラム、並びに画像再生方法
JP2015192299A (ja) 楽曲演奏装置及びプログラム
JP6110731B2 (ja) ジェスチャーによるコマンド入力識別システム
KR101975193B1 (ko) 자동 작곡 장치 및 컴퓨터 수행 가능한 자동 작곡 방법
JP5256682B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6651413B2 (ja) カラオケシステム