JP3601350B2 - 演奏画像情報作成装置および再生装置 - Google Patents

演奏画像情報作成装置および再生装置 Download PDF

Info

Publication number
JP3601350B2
JP3601350B2 JP07754799A JP7754799A JP3601350B2 JP 3601350 B2 JP3601350 B2 JP 3601350B2 JP 07754799 A JP07754799 A JP 07754799A JP 7754799 A JP7754799 A JP 7754799A JP 3601350 B2 JP3601350 B2 JP 3601350B2
Authority
JP
Japan
Prior art keywords
information
image
performance
creating
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP07754799A
Other languages
English (en)
Other versions
JP2000172869A (ja
Inventor
強 宮木
秀雄 鈴木
善政 磯崎
聡 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP07754799A priority Critical patent/JP3601350B2/ja
Priority to US09/400,573 priority patent/US6245982B1/en
Publication of JP2000172869A publication Critical patent/JP2000172869A/ja
Application granted granted Critical
Publication of JP3601350B2 publication Critical patent/JP3601350B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0016Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • G09B15/001Boards or like means for providing an indication of chords
    • G09B15/002Electrically operated systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/026Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays associated with a key or other user input device, e.g. key indicator lights
    • G10H2220/046Drumpad indicator, e.g. drumbeat strike indicator light on a drumpad or rim
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • G10H2230/321Spint cymbal, i.e. mimicking thin center-held gong-like instruments made of copper-based alloys, e.g. ride cymbal, china cymbal, sizzle cymbal, swish cymbal, zill, i.e. finger cymbals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/311MIDI transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、演奏情報および当該楽曲の演奏の様子を示す画像などの画像情報を作成、編集および再生することのできる演奏画像情報作成装置および再生装置に関する。
【0002】
【従来の技術】
従来より、パーソナルコンピュータなどの汎用コンピュータを用いて、楽曲に合わせて2次元画像やムービーを貼り付けていくマルチメディアオーサリングツールとも呼ばれるアプリケーションプログラムが知られている。
【0003】
【発明が解決しようとする課題】
上述したアプリケーションプログラムにおいては、楽曲とともに表示される画像としては、静止画あるいは2次元(2D)の画像データであり、3次元(3D)の画像を表示することはできなかった。
また、表示画像を編集するときに、楽曲の演奏に合わせて編集することは容易ではなかった。
さらに、表示する画像と演奏する楽曲とを完全に同期させることは困難であった。例えば、楽曲の演奏テンポを変更したときにその変更に表示画像を合わせることや、画像に視覚的効果を付与する場合に、該効果を演奏に同期して付与することは困難であった。
【0004】
そこで本発明は、楽曲の演奏とともに、その演奏の様子を示す画像情報を表示することができる演奏画像情報作成装置および再生装置を提供することを目的としている。
また、画像を楽曲に合わせて編集することのできる演奏画像情報作成装置および再生装置を提供することを目的としている。
さらに、画像を楽曲の演奏に同期して再生したり視覚的効果を付与することが容易に行うことのできる演奏画像情報作成装置および再生装置を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明の演奏画像情報作成装置は、楽曲の演奏とともに該楽曲の演奏の様子を示す画像を表示するための演奏画像情報を作成するための演奏画像情報作成装置であって、各楽器毎あるいは各パート毎にその代表的な複数の奏法における演奏者および楽器の細分化された動作の軌跡を記録した動作部品をそれぞれ格納する動作部品データベースを有し、演奏すべき楽曲の各パート毎に前記複数の奏法のうちいずれかの奏法を指定する手段と、演奏すべき楽曲の拍あるいは小節などの音楽的時間単位を単位とするタイムスケジュール上にその演奏情報および前記指定された奏法に対応する前記動作部品を指定する情報を配置した動作記述情報を作成する手段と、該動作記述情報と前記演奏情報とを含むシーケンス情報を作成する手段とを有するものである。
【0006】
また、本発明の他の演奏画像情報作成装置は、楽曲の演奏とともに該楽曲の演奏の様子を示す画像を表示するための演奏画像情報を作成するための演奏画像情報作成装置であって、各楽器毎あるいは各パート毎にその代表的な奏法における演奏者および楽器の細分化された動作の軌跡を表す動作波形、発音のタイミングを示す発音ポイントマーカーおよび消音のタイミングを示す消音ポイントマーカーを記録した動作部品を格納する動作部品データベースを有し、演奏すべき楽曲の拍あるいは小節などの音楽的時間単位を単位とするタイムスケジュール上にその演奏情報および奏法に対応する前記動作部品を指定する情報が配置された動作記述情報を作成する手段と、該動作記述情報と前記演奏情報とを含むシーケンス情報を作成する手段とを有するものである。
さらに、前記タイムスケジュール上に配置された動作部品の発音ポイントマーカー及び消音ポイントマーカーの位置をそれぞれ演奏情報における発音タイミング及び消音タイミングの位置に合わせる手段を有するものである。
【0007】
さらにまた、前記動作部品における動作波形の時間分解能は個々に設定可能とされているものである。
さらにまた、前記動作記述情報を作成する手段は、前記指定された動作部品を編集する機能を有し、編集結果を動作部品として前記動作部品データベースに格納することができるようになされているものである。
さらにまた、前記動作部品は、前記演奏者の体の各部あるいは前記楽器の各部毎の動作の軌跡を記録したものである。
さらにまた、前記タイムスケジュール上に前記画像における背景情報や光源情報などのシーン部品が配置されたシーン情報を作成する手段を有し、前記シーケンス情報は、前記演奏情報、前記動作記述情報および前記シーン情報を含むようになされているものである。
さらにまた、前記シーン部品として外部から入力される情報を表示することを指示する情報が含まれているものである。
【0008】
さらにまた、本発明の画像演奏情報再生装置は、演奏情報と該演奏情報に対応する楽曲の演奏の様子を示す画像を表示するための動作記述情報とを含むシーケンス情報に基づいて、当該演奏情報に対応する楽音を発生するとともにその演奏の様子を示す画像を表示する演奏画像再生装置であって、前記演奏情報に基づいて楽音を作成する楽音発生部と、前記動作記述情報に基づいて前記演奏情報に対応する演奏の様子を示す画像を作成する画像作成部と、各楽器毎あるいは各パート毎に、その代表的な奏法における演奏者および楽器の細分化された動作の軌跡を記録した動作部品データベースとを有し、前記動作部品はそれぞれ発音のタイミングを示す発音ポイントマーカーおよび消音のタイミングを示す消音ポイントマーカーを有し、前記画像作成部は、前記動作記述情報に基づいて前記動作部品データベースから読み出された前記動作部品を用いて前記画像を作成し、かつ、該読み出された動作部品が有する前記発音ポイントマーカーおよび消音ポイントマーカーに基づいて、前記演奏情報と前記画像との同期をとるようになされているものである。
さらにまた、前記画像作成部は、演奏のテンポに応じて、前記動作部品における発音動作に関する箇所以外の部分の動作速度を制御するようになされているものである。
さらにまた、前記画像作成部は、前記シーケンス情報に含まれている表示画像の寸法を指定する情報に基づいて、前記動作部品に含まれている演奏者および楽器の寸法を示す骨格データを補正して表示画像を作成するようになされているものである。
さらにまた、さらに、装置外部から画像情報を入力する入力手段と、前記画像作成部により作成された画像と前記入力手段からの画像とを合成する画像合成手段と、前記シーケンス情報に基づいて、前記画像作成部により作成された画像、前記入力手段からの画像あるいは前記合成手段により合成された画像に対して、演奏する楽曲の音楽的時間単位により規定されるタイミングで視覚的効果を付与する手段とを有するものである。
【0009】
【発明の実施の形態】
図1は、本発明の演奏画像情報作成装置および再生装置として動作する装置の構成の一例を示すブロック図である。この図において、1はこの装置全体の動作を制御する中央処理装置(CPU)、2はこの装置を制御する制御プログラムを記憶するプログラム記憶装置、3はこの装置を用いて作成されるシーケンスデータ(シーケンス情報)、各奏法における演奏動作の軌跡を部品化して格納した動作部品データベース、背景情報や光源情報などのシーン部品を格納したシーン部品データベース、その他の各種データを記憶するとともに作業領域として使用されるROMおよびRAMなどからなる記憶装置、4は鍵盤(キーボード)および操作パネルに設けられた各種の操作子からなる操作スイッチ群である。5は音源部であり、複数チャンネル分の楽音信号を生成する。この音源部は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式等どのような方式のものであってもよい。また、専用のハードウエアを用いて構成された音源回路に限られることはなく、DSPとマイクロプログラムを用いて構成された音源回路や、あるいは、CPUとソフトウエアのプログラムにより構成されたものであってもよい。なお、この音源部5には、生成された楽音に対してビブラートやリバーブなど各種のエフェクトを施すためのエフェクト処理部も含まれている。また、6は前記音源部5から出力される楽音を放音するためのサウンドシステムである。
【0010】
7は3D画像データを生成したり各種の視覚的効果などを付加したりするための画像演算装置(描画エンジン)、8は画像演算装置7により生成された3D画像や後述する編集用の画面などを表示する画像表示装置(グラフィックディスプレイ)である。なお、前記画像演算装置7を用いることなく、前記CPU1に画像処理を実行させるようにしてもよい。
また、9はハードディスク、フロッピーディスク、CD−ROM、MO、DVD等の外部記憶装置、10は外部のMIDI機器との通信を行うためのMIDIインターフェース回路である。
さらに、11は外部に接続されたモニタ12に前記演奏の様子を示す画像を表示するためのビデオインターフェース回路、13は装置外部から画像あるいは映像信号を入力するためのテレビカメラやVTRなどの画像・映像入力装置、14は前記各構成要素間のデータ伝送を行うためのバスである。
【0011】
このように構成された本発明においては、各楽器毎あるいは各パート毎に、その代表的な奏法における演奏者および楽器の細分化された動作の軌跡を記録した動作部品を格納した動作部品データベースを有している。そして、本発明の演奏画像情報作成装置は、演奏情報および指定された奏法に対応する動作部品を該動作部品データベースから読み出して、該動作部品に基づいてその楽曲の演奏の様子を示す動作記述情報を編集作成して、前記演奏情報と動作記述情報を有するシーケンス情報を出力する。また、本発明の演奏画像情報再生装置は、前記シーケンス情報に含まれている動作記述情報に基づいて前記動作部品データベースから対応する動作部品を読み出して対応する画像を生成し、該生成した画像および外部から入力される画像を、楽曲の演奏と同期して再生表示するものである。
【0012】
[動作部品データベース]
まず、前記動作部品データベースについて説明する。
この動作部品データベースは、様々な楽器毎あるいはパート毎に、その代表的な奏法における演奏者および楽器の動作の軌跡を、例えばモーションキャプチャーデータとして取り込み、演奏者の体の各部あるいは楽器の各部(以下、「部位」と呼ぶ)毎の動作軌跡をx,y,z軸方向に分解するとともに、発音および消音のタイミング(例えば、ドラムの場合には打点位置)を該取り込んだデータにマーキングしてデータベース化したものである。ここで、前記xyzの各軸方向に分解された動作軌跡を「動作波形」、また、細分化された演奏動作のデータを「動作部品」と呼ぶ。
【0013】
図2は、ドラムパートの動作部品の一例を示す図である。良く知られているように、ドラムの代表的な奏法には、ロール奏法(シングルストローク、ダブルストローク)、リムショット奏法(クローズドリムショット、オープンリムショット)、マレット奏法、ブラシ奏法などがあり、この図に示すように、各奏法による短い演奏パターン毎にそのパターン演奏時の演奏者および楽器の動作軌跡を示す動作波形、発音および消音のタイミングを示す発音および消音ポイントマーカーなどのデータにより各動作部品が構成されている。なお、この例に示したドラムパートにおいては、シンバル、スネアドラムおよびバスドラムなどの複数の楽器の動作波形を1つの動作部品としているが、ピアノやサックスといった楽器の場合には各楽器毎に動作部品を生成する。
【0014】
前記動作部品の作成方法について、図3のフローチャートを参照して説明する。まず、ステップS11において、特定の楽器にて特定の奏法で演奏者が演奏しているときの演奏者の動作および楽器の動作をモーションキャプチャーデータとして取得する。
図4の(a)はその様子を説明するための図であり、この図に示すように、演奏者の体の要部(四角で示した位置)に3Dデジタイザを装着し、前記特定の奏法で細分化された特定のパターンを演奏してもらい、そのときの演奏者の体の動きを記録する。なお、3Dデジタイザとしては、磁気的なものあるいは光学的なものなどが知られている。また、図4の(b)は、楽器の動作を記録する場合の例を示す図であり、この場合はシンバルの揺れ動作を記録する場合を示している。この場合には、四角で示した位置に取り付けた3つの3Dデジタイザによりモーションキャプチャリングを行う。
そして、ステップS12において、このようにして取得したモーションキャプチャーデータにおいて、各部位の中心点の軌跡をxyz座標系に分解し、各部位の移動状態及び位置を示す動作波形を取得する。このときに時間データも同時に記録してもよい。なお、前記シンバルの例においては、前記3点の中心位置Aの動作波形を部位の動作波形とし、3点はAと同一平面を構成するものとして扱う。また、対象となった演奏者あるいは楽器の寸法を示す骨格サイズ情報も記録する。
【0015】
次に、ステップS13に進み、発音の起こった位置(発音ポイント)および消音の位置(消音ポイント)の要所部位の座標およびその演奏開始からの経過時間を判別することができるようにマーカー(発音ポイントマーカーあるいは消音ポイントマーカーと呼ぶ)として記憶する。例えば、図4の(c)に示すフレーズの演奏である場合には、図中に示す3つの位置が発音ポイントとなり、それぞれの経過時間t,t’,t”が判別可能に記憶される。なお、この発音ポイントマーカーおよび消音ポイントマーカーは、前記取得した動作波形データ(x,y,z,t)の集合内で、発音および消音のタイミングを特定することができるようになっていれば、どのような形式のものであってもよい。
そして、ステップS14に進み、前述のようにして取得したデータと演奏された奏法との対応付けを行う。このとき、例えば、右腕、肩、肘、手首、指の各関節など、互いに密接な関係にある部位同士はまとめられセットパーツとして格納される。なお、操作者は、このセットパーツを任意に組み替えたり分解することが可能である。
【0016】
このようにして、再生時の位置の変更(演奏者および楽器の形状や大きさの変更)あるいは時間の変更(テンポの切り替え)に対応することができる形式のデータとしてデータベース化しておく。
例えば、ドラムに関する動作部品は、各キットをたたく動作からたたき終わるまでの動作が動作部品として格納される。例えば、シンバルではスティックを振り上げたときからシンバルを打ち、再びスティックを振り上げるまでが動作部品となる。ここで、スティックがシンバルに当たったときが発音ポイントとなる。また、消音ポイントについては、必ずしも設ける必要はないが、シンバルの振動が停止したタイミングを消音ポイントとすることもできる。
また、ピアノについては、各指(1本あるいは2本の組み合わせ)に対し、鍵盤を弾いているところから鍵盤を離すところまでの動作が動作部品となる。ここで、指が鍵盤に当ったタイミングが発音ポイントとなり、指が離鍵したタイミングが消音ポイントとなる。そして、それぞれ弾いているときの指の開き具合および残りの指の状態により複数のバリエーションを用意する。3本以上の指を使う代表的なコードに対してはそれを弾いている指の状態を指使いあるいは指の開き具合で複数のバリエーションを用意する。
なお、前記動作部品には、前述したxyz座標および時間、骨格サイズの各データおよび発音、消音ポイントマーカーの他に、各部位毎の移動速度や加速度などのデータも含ませるようにしてもよい。さらに、演奏者あるいは楽器の形状および質感に関するデータも記録する。
【0017】
[シーケンスデータの作成]
次に、前記シーケンスデータの作成処理について説明する。
図5は、シーケンスデータの作成処理を示すフローチャートである。この図に示すように、シーケンスデータの作成は、各パート毎のシーケンスデータの作成処理と作成された各パートのシーケンスデータを統合する全パートのシーケンスデータの作成処理とに大別される。
【0018】
図5の(a)は、各パート毎のシーケンスデータの作成処理のフローチャートである。
この各パート毎のシーケンスデータの作成処理が開始されると、まず、ステップS21の演奏情報の作成処理が行われる。この処理は、通常のシーケンスソフトにおいて行われる楽曲の作曲と同様の処理であり、これにより、このパートの演奏情報(MIDIデータ)が作成される。
【0019】
続いて、ステップS22に進み、前記ステップS21において作曲されたこのパートの楽曲の奏法を決定する。この決定は、前記演奏情報に対応する楽譜上で選択した領域毎に決定することができる。このパートが例えばキーボードパートであるときは、コード、運指情報および音量などの情報を入力する。また、ドラムパートの場合には、奏法の名前を入力する。
これらの情報により、前述した動作部品データベース20から対応付けられた動作部品が読み出されることとなるため、操作者が選択した楽器あるいはパートに応じて、前記動作部品データベース20から部位動作波形を検索するために必要な情報を入力するように指示を行う。
【0020】
この必要な情報が全て整うと、ステップS23に進み、前記動作部品データベース20から前記入力された演奏情報および奏法に対応した動作部品を選択して読み出し、編集の対象となる基本動作波形を作成し、その基本動作波形に基づいてその演奏の様子を示す3D画像を生成し、画面に表示する。まず、この楽器あるいはパートにあらかじめ初期設定されているプレーヤーが、前記楽曲の演奏情報内で指示されている音色情報に対応する楽器とともに表示される。
操作者は、基本動作波形のプレーヤーあるいは楽器が気に入らないときは、他のプレーヤーおよび楽器に変更することができる(ステップS24)。ただし、楽器に関しては当該楽曲内の指示情報が最優先とされている。例えば、指示情報がグランドピアノである場合には、グランドピアノのグラフィックを黒い色から木目調にしたり、透明に変更したりすることは可能であるが、カテゴリーが異なるアップライトピアノや他の楽器には変更することができないようにされている。なお、このときに、変更可能なプレーヤーおよび楽器の選択肢をその都度画面上に表示し、操作性を向上させるようにしてもよい。
【0021】
このようにして、プレーヤーおよび楽器が決定された後、操作者はこの基本動作波形を一通り再生し、それが気に入らないときには、その編集処理を行うこととなる。
すなわち、ステップS25に進み、各部位毎の動作波形の編集処理、各部位あるいはパーツの座標(位置)の変更、発音消音マーカーの位置の変更などの画像編集処理が行われる。また、前記ステップS24において気に入ったプレーヤーあるいは楽器が選択できなかったときも、このステップS25に進み、動作部品を直接読み出して編集することができる。
なお、この画像編集処理S25により編集された結果を、新たな動作部品として前記動作部品データベース20に格納し、部品の再利用を図ることができるようになされている。
【0022】
図6は、前記ステップS23〜25の処理を実行するときに前記表示装置8に表示される画像編集画面の例を示す図である。この図に示すように、この画像編集画面には、画像の再生巻き戻し処理を行う制御ボタンや編集対象となっている画像データのフレーム位置などを表示する制御ウインドウ30、演奏の様子を示す3Dグラフィック画像を表示する画像表示ウインドウ40、表示されているプレーヤーおよび楽器を部位単位で選択することができるように各部位をその階層構造とともに表示する部位選択情報ウインドウ50および動作部品のパーツあるいは部位毎のタイムスケジュールを表示するパーツ部位表示情報ウインドウ60の4つのウインドウが設けられている。
【0023】
ここで、前記制御ウインドウ30に設けられている制御ボタン31は先頭位置に復帰するボタン、32は1小節前に戻るボタン、33は逆方向再生ボタン、34は停止ボタン、35は順方向再生ボタン、36は1小節先に進むボタン、37は末尾位置に進むボタンである。操作者は、これらのボタンを操作することにより、前記画像表示ウインドウ40における当該3D画像情報の再生を制御することができる。
【0024】
前記画像表示ウインドウ40には、前記ステップS23において、操作者により選択された演奏者(プレーヤー)および楽器が表示される。このとき、初期情報として前述した骨格サイズデータ、形状および質感データが用いられる。操作者は、この画像表示ウインドウ40に表示されているプレーヤーおよび楽器の部位を選択してその位置をずらすことによりその位置の変更設定を行うことができる。また、前記部位選択情報ウインドウ50における部位表示情報を選択することによっても、前記選択を行うことが可能とされており、陰になるなどして、表示されている画像からは選択することが困難な部位については、前記部位選択情報により選択することにより前記画像表示ウインドウ40において選択可能な表示状態とすることができる。この位置の設定と同時に、動作波形の座標の変更処理も自動的に行われる。
【0025】
また、前記部位選択情報ウインドウ50には、この動作部品を構成する各部位がその階層構造とともに表示されており、操作者は、このウインドウに表示されている部位を選択することができるようになされている。図示する例においては、ドラムプレーヤーおよびドラムセットの各部位がそれぞれ階層的に表示されている。
【0026】
さらに、前記パーツ表示情報ウインドウ60には、そのパートの演奏情報を表示する領域61と各パーツのタイムスケジュールを表示する領域62が設けられている。
1曲分のそのパートの動作波形が作成されると、動作部品がセット化されたパーツ毎のタイムスケジュールを、例えば拍を単位時間として表示する。図中縦の破線は拍を示し、実線は小節の区切りを示している。各パーツの動作波形は、そのパートのタイムスケジュール内におけるその動作波形が用いられる位置に拍を単位として配置されている。
図6において、63はドラマーというパーツのタイムスケジュールを示しており、64および65はそれぞれ楽器に関するパーツの動作波形を示している。各動作波形は長方形で表示されており、その中に発音マーカーを含むものについては、その位置が右向きの三角で示されている。図示した例では、パーツ63に例えばスティックが含まれており、発音マーカーの位置が表示されていることが分かる。したがって、既に入力されている楽曲の演奏情報をパート別に表示し、発音、消音のタイミングを確認することができる。この発音、消音のタイミングに動作波形の発音マーカー、消音マーカーを合わせると楽音の発生、消音と画像における演奏の発音、消音動作を同期させることができる。
【0027】
また、各パーツの動作波形を示す長方形を選択し、その長さを変更することによりそのパーツの動作波形の再生レートを変更することができる。例えば、その長さを長くすることにより再生レートを少なくすることができる。なお、再生レートは、当該楽曲のテンポを変更した場合にも自動的に変更される。
さらに、各動作波形の長方形の内部には、両端が四角とされた直線が表示されており、この直線は、その動作波形の内の画像の再生時に使用される部分(実際に再生される部分)を表している。この直線の長さおよび位置を変更することにより、その動作波形の内の再生に使用される部分を選択することができる。なお、この直線の長さは、前記長方形の長さを変更したときに、その相対関係を保って変更される。
これらの長さの変更は、拍あるいは小節などの音楽的時間単位を単位として行われることとなる。
さらにまた、前記動作波形の長方形を選択することにより、そのパーツ内に含まれている各部位が前記画像表示ウインドウ40で選択可能とされる。これにより、各部位毎に動作波形を他のバリエーション候補に変更すること、および、動作波形自体の編集が可能となる。
【0028】
さらにまた、部位毎に使用フレーム数もモーションキャプチャーされたフレーム数を上限として変更可能である。これにより、細かく動作する部位についてはフレーム数を増加させ、あまり動作しない部位のフレーム数は減少させて演算の負荷を軽減させることができる。
図7に示すドラムパートの各部位の動作波形の合成を例にとって説明する。この図に示すように、ドラムパートには(a)指を除く人間の動作、(b)指の動作、(c)手持ち楽器(ドラムスティック)の動作、(d)据え置き楽器の動作、および(e)可動部の動作の5種類の動作波形が用いられる。このとき、(a)の人間の動作と(c)のスティックの動作はセットパーツとされており、フレーム数が大きくされている。また、(b)指の動作、(d)据え置き楽器の動作および(e)可動部動作は、高分解能を必要としないため、図示するようにフレーム数を減少させている。
【0029】
さらにまた、前記動作波形を直接編集することもできる。
図8は、この動作波形を直接編集する場合の様子を示す図である。ここでは、部位「頭(HeadA)」の動作波形を編集する場合を示している。前記部位選択情報ウインドウ50あるいは前記画像表示ウインドウ40において、編集したい部位HeadAを選択すると、その下位階層にある部位はHeadAの編集結果の影響を受けるため、前記部位選択情報ウインドウ50において、HeadAおよびその下位にある部位(図中の59)は、他の部位とは異なる形態(例えば、白抜き)で表示される。また、これに対応して、前記画像表示ウインドウ40に表示されている3D画像において、図中Bで示すように、該選択された部位およびその下位の階層にある部位(すなわち、選択された部位により拘束される関係にある部位)の領域が他の個所とは異なる表示形態(例えば、その領域の輝度が高くなる)で表示される。操作者が選択した個所をダブルクリック等により指定すると、図8に示す動作波形表示ウインドウ70が表示され、その部位の動作波形が表示される。この図に示した動作波形はHeadAのものであり、その下位の部位Sternum(胸骨)からHeadAへ向かう方向ベクトルのHeadAの初期座標位置に対する移動角度が示されている。図において、横軸はフレーム数、縦軸は角度を示しており、上からx軸、y軸およびz軸からの角度を表す3つのグラフが示されている。
【0030】
操作者が、前記画像表示ウインドウ40において編集したい部位の位置を変更させると、これに伴い、前記動作波形が自動的に変更される。また、逆に、前記動作波形表示ウインドウ70に表示されている動作波形を編集すると、これに合わせて画像表示ウインドウ40に表示されている3D画像が動作をする。
このようにして、前記動作波形を直接編集することも可能である。この動作波形の編集は、例えば、2種以上の動作を合成する場合等に、そのつなぎ目を平滑にするときなどに有効である。
【0031】
このようにして、動作波形を編集したのち、該編集した部位の動作波形に名称を付加して、前記動作波形データベース20に追加することができる。また、部位の動作波形は2種類以上を連続合成させたり、あるいは、分解させたりすることも可能であり、これらを新規にデータベースに追加することもできる。
さて、このようにしてこのパートの演奏の様子を示す動作ファイルが決定されると、その動作波形ファイル名、ポインタ(楽器情報、奏法)等が自動的に演奏情報に対応して記憶される。
【0032】
このようにして、各パート別のシーケンスデータが作成された後に、図5の(b)に示した全パートのシーケンスデータを統合し全体の調整を行う処理が実行される。この処理は、図9に示す全パートの編集用画面を用いて実行される。
この処理が開始されると、まず、ステップS31において、各パートのデータの貼り付け処理が行われる。この処理においては、各パートをそれぞれ指定し、タイムスケジュール上に楽音と画像とをともに配置していく。
図9において、80は全パートのタイムスケジュールを表示するウインドウであり、ステージに関するシーン情報を配置する領域81と各パートのデータを表示する領域82が設けられている。ここで、縦の点線は拍、実線は小節を表わしており、ここに各パート情報を配置することにより、当該楽曲1曲内での絶対的な小節、拍上に配置されることとなる。なお、前記図6および図8のパート別の編集画面においては、そのパートの開始点からの相対的な拍、小節が示されている。
【0033】
次に、ステップS32に進み、シーン情報の編集処理が行なわれる。前述のように、前記記憶装置3中にはシーン部品データベースが格納されており、このシーン部品データベース中には、背景情報、光源の情報、カメラ(視点)の情報など演奏ステージに関する画像を形成するための各種のシーン部品が格納されている。そこで、このステップS32において、前記シーン部品データベースから背景情報、カメラ(視点)の情報、光源の情報などのシーン部品を選択して、前記領域81の拍、小節に沿って貼り付ける。図9に示した例では、G0〜G2の3つのカメラ情報、G3およびG4の2つの背景情報およびG5の光源情報が、それぞれ、タイムスケジュール上に貼り付けられている。なお、これらのシーン部品は例えばVRML(Virtual Reality Modeling Language)により記述されている。
【0034】
また、テレビカメラやVTRなどの前記画像・映像入力装置13から入力される実写映像やコンピュータで作成したムービーファイルを取り込み、背景情報などとして使用するための制御情報もシーン部品として格納されている。この入力実写映像は、背景として表示したり、背景の一部として任意の表示領域上に表示することができる。また、例えば、青等の単一色をバックに撮影、あるいは、逆にコンピュータグラフィックスを生成し、バック以外の色のみを切り出して背景として画像に貼りつけたり、任意の透過率でCG画像と実写映像を合成する(クロマキー合成)こともできる。これにより、実写映像を背景に前記動作波形から生成した画像を合成したり、他の楽器パートの人間も風景(背景)として取り込めば、表示上でCGプレーヤーと一緒に演奏している光景を表示できる。
また、実写映像のみを表示するようにしてもよく、これにより、イントロや間奏中に実写映像を挿入して演奏効果を高めることも可能である。
この実写映像を取り込むための制御情報もシーン部品であるため、他のシーン部品と同様に、拍、小節などの音楽的な時間単位に沿ったタイムスケジュール上に貼り付けられる。
【0035】
さらに、前記シーン部品として画像に対するエフェクト処理を前記シーン部品とすることもできる。このシーン部品が前記タイムスケジュール上に貼り付けれれている場合は、前記実写映像と前記生成した画像を合成したモニタ上に描き出された画像の視点の切り替えや背景の切り替わり時においてフェードイン、フェードアウト、ワイプなどの処理をさせたり、表示画像の一部をモザイクにしたり、色調をセピア色にしたり、などの各種視覚的効果を付与することが可能となる。これらのエフェクト処理に関するシーン部品は、関数として前記シーン部品データベースに登録することができ、任意の処理を追加することができる。
【0036】
前述したパーツの場合と同様に、このシーン部品についても、前記領域81のタイムスケジュール上で選択しその長さを変化させる等の編集を行うことができる。また、貼り付けられたシーン情報を選択することにより、それぞれの詳細情報が表示され、その編集を行なうことも可能である。
このようにして完成した曲は、再生、巻き戻し、早送りなどを領域を定めて行なうことができる。また、曲名等を付与し、保存することができる。
【0037】
図10を参照して、このような複数のパートの情報を合成する場合について説明する。図10の(a)に示すように、グローバルなステージ座標系を設定し、この座標系内に各プレーヤー毎のパーソナル座標系およびプレーヤー毎の楽器あるいは骨格構造を持つ事物単位の座標系を設定する。なお、前記楽器および事物は、静止系と制動系とに分類し、制動系のものは可動部をその座標系の原点とする。これにより、グローバル座標系の中で自由に座標変更すなわち位置変更を行うことができる。例えば、ピアノの鍵盤の場合は、それぞれの鍵盤毎に可動する部分を原点とする座標系を設定して定義し、鍵盤の動作波形は1種類だけ用意しておけば、適用する鍵盤毎にその原点位置を移動させることによりデータの流用が可能となる。また、静止系の楽器や事物については、初期の動作を保持すればよい。また、事物、楽器などのうち、ドラムスティックやバイオリンなどプレーヤーの手持ちのものについては、プレーヤー毎のパーソナル座標系内に可動部を原点としてローカルな座標系を定義し、このローカル座標系上で動作部品の稼動を再現する。また、各パートのプレーヤーや楽器のサイズを変更した場合には、各部位毎に比を計算し、前記動作部品における骨格サイズを変更後のサイズに補正する。
【0038】
また、図10の(b)に示すように、各プレーヤーの動作パッケージは、そのプレーヤーの出す音と動作、すなわち、演奏情報と動作情報とが同期をとってパッケージ化されている。そして、各プレーヤーの動作パッケージをその先頭位置を合わせて配置する。このようにして、各プレーヤーおよび楽器の動作記述情報が統合され、全プレーヤーを含むシーケンス情報が作成される。
【0039】
[シーケンスファイルの構成]
図11は、このようにして作成されたシーケンス情報を含むシーケンスファイルの構成を示す図である。この図に示すように、シーケンスファイルは、(1)シーンファイル、(2)パーソナル初期情報ファイル、および、(3)パーソナル演奏記述ファイルの3つのファイルから構成されている。そして、(1)のシーンファイルは、このシーケンスファイルの全体に関する情報が含まれており、再生速度、視点および視野、光源、背景情報、前記外部からの画像情報の取り込みを指示する情報などのシーン情報、および、各パートのプレーヤーおよび楽器の座標系位置、寸法情報が含まれている。ここで、視点および視野、光源、背景情報などのシーン情報は、前記シーン部品データベースにおける当該シーン部品へのポインタ情報として保持するようにしてもよい。また、(2)のパーソナル初期情報ファイルは、各パート毎にそれぞれのプレーヤーおよび楽器の骨格データおよび形状、質感を決定する情報を含んでいる。さらに、(3)のパーソナル演奏記述ファイルは、各パート毎にそのパートの演奏情報ファイルと動作記述ファイル(動作記述情報)を含んでいる。ここで、演奏情報ファイルはMIDIデータ(SMF)形式とされており、また、動作記述ファイルは、前記動作部品データベース20に含まれている演奏者および楽器(道具)の動作波形データと前記発音、消音ポイントマーカーへのポインタ情報が含まれている。
【0040】
このように、本発明のシーケンスファイルは、動作記述ファイルとして画像情報自体ではなく動作部品データベースへアクセスするための情報を保持するようにしているため、シーケンスファイルのサイズを小さくすることができ、可搬性の良いものとなっている。
【0041】
[シーケンス情報の再生処理]
次に、図12のフローチャートを参照して、このようして作成されたシーケンスデータから当該楽曲の演奏と画像とを再生表示する処理について説明する。なお、前述したシーケンスデータ作成処理において、再生ボタンを操作したときにおいても同様の処理が実行される。
操作者が演奏しようとする曲を決定すると、前述のようにして作成された楽曲に対応するシーケンスファイルが格納されている曲データベース21などから当該楽曲のシーケンスファイル(再生データ)が選択される。ステップS41において、この選択された曲のシーケンスファイル(再生データ)が所定長ずつ読み出され、このデータに基づいてステップS42とS46の処理が実行される。
【0042】
ステップS46は、従来より知られている自動演奏処理と同様の処理であり、読み出された再生データに含まれている演奏情報に基づいて、キーオンイベント、コントロールチェンジなどの発音イベント、音源制御パラメータを作成する。このようにして作成された音源制御パラメータなどは、前記音源部5に入力され、対応する楽音が生成されて(ステップS47)、前記サウンドシステム6から出力される。
【0043】
一方、ステップS42では、前記読み出された再生データ(シーケンスファイル)中の動作記述ファイルに基づいて、前記動作部品データベース20から対応する各部位の動作波形データを読み出す。そして、ステップS43に進み、読み出された各部位の動作波形の座標位置の補正処理を行う。また、このときに、操作者により表示パートの選択あるいは視点位置の切り替えが行われた場合にはそれに応じた座標位置の補正処理を行う。具体的には、各部位の動作波形について、そのパートの再生レートに合うように必要ならば補間処理を行うなどして動作データを作成し、さらに、動作のつなぎ部分についてスプライン補間などにより補正を行う。そして、各部位の位置などに対応して、座標位置の転送、回転、拡大などの補正処理を行う。また、前記シーンファイルにおいて指定されているシーン部品をシーン部品データベース22から読み出して、シーン情報(ステージ情報)も生成する。
このようにして、このステップS23において、モデル位置が決定され、それに対応するようにアニメーションが決定される。
【0044】
このとき、前述したように動作部品データベース20に格納されている各動作部品には、時間軸に沿った座標データだけではなく発音、消音ポイントマーカーも含まれており、この発音ポイントマーカーおよび消音ポイントマーカーにより、各発音ポイントおよび消音ポイントの座標およびその動作波形の再生開始から発音、消音ポイントまでの時間あるいは速度を取得することができる。したがって、この発音、消音ポイントマーカーに基づいて、生成する映像と生成する楽音との同期を取るようにしている。
【0045】
すなわち、前記動作部品を作成したときのテンポ(基準テンポ)に対し演奏するテンポがk倍のテンポに変更されたときには、前記動作波形の再生開始から発音ポイントまで1/k倍の時間(速度であればk倍の速度)で到達するように、その動作波形の再生間隔が短くあるいは長くなるように動作波形読み出しの間引きをおこなったり、複数回同じ動作位置を読み出すなどのように制御すれば良い。また、移動時間あるいは移動速度が座標毎に用意されている場合、すなわち各部位がある座標から次の座標に移動するまでの時間あるいは速度の情報が動作部品中に含まれている場合には、それが時間のときには1/k倍、速度のときにはk倍にそれぞれ変更(補正)して制御すればよい。
【0046】
ところで、全ての動作について上述のように単純に時間軸を制御するだけでは、不自然な画像となる場合がある。例えば、テンポを半分にすると画像の動作速度が全体的に半分の速度となり、ドラムの演奏などの場合には、そっと叩くような画像となり、音量を抑えた演奏のように見えることとなってしまう。これを避けるためには、動作を開始してから発音ポイントまでの動作において、発音動作に関する個所(発音動作開始点から消音動作点まで)を認識できるようにしておき、発音動作開始点から消音動作点までの動作速度は、テンポを変更しても変更しないようにすればよい。
【0047】
また、前記音源制御パラメータ生成ステップS46において発生されるエンベロープやベロシティ等の音源制御パラメータを利用して、動作波形の修飾を行うようにしてもよい。例えば、当該動作部品がシンバルの揺れ動作であるときに、ベロシティあるいはトラックボリュームなどの楽音制御パラメータに基づき、ベロシティあるいはトラックボリュームが大きいときはシンバルの揺れを大きくし、逆に小さければ揺れも小さくするように動作波形を作成する。これにより、自然な演奏の様子を表示することができる。
【0048】
次に、ステップS44に進み、前記ステップS43により決定された情報を用いて画像生成処理(レンダリング)が実行される。すなわち、前記シーン情報および動作波形に基づいて、シーンの映像化が行われる。すなわち、前記シーン情報や動作波形に基づいて、各オブジェクトの頂点、法線についての3次元座標計算、照光と彩色、テクスチャー座標計算、ポリゴン形成、投影座標計算、視野クリッピング、ビットマップ作成、隠面・透過処理などの処理を行い、3Dアニメーション画像を生成し、フレームバッファに出力する。
このとき、予め作成しておいたプレーヤーや楽器のサイズと実際に表示するプレーヤーや楽器のサイズとが異なっているときには、各部位ごとに比を計算して前記座標情報を補正して骨格サイズの違いを補正する。
【0049】
また、前述のように、シーン情報として前記画像・映像入力装置13からの画像を取り込む制御信号が貼り付けられているときは、該シーン情報により指定されたタイミングで、前記画像・映像入力装置13から実写映像などを入力し、必要に応じて、画像生成処理により生成した画像と合成して出力する。
さらに、シーン情報に画像に対するエフェクト処理が含まれている場合には、ステップS45において、前記ステップS44において作成された画像に対し、視覚的な効果処理を施す。
以上のようにして、楽曲データに同期して、その演奏の状態を演奏に同期した画像で表示することができる。また、この出力をムービーデータとして保存することもできる。
【0050】
なお、以上においては、動作部品データベース20は、楽曲と奏法を入力することにより動作部品の候補が検索されて出力されるように対応付けられていたが、データベース中の動作部品に対応付けした新たな音楽表記号を定めておき、その表記ルール、記号を用いて譜面を作成すると画像も自動的に作画されるようにしてもよい。
【0051】
【発明の効果】
以上説明したように、本発明によれば、楽曲の演奏に同期してその演奏の様子を示す画像を表示させることが可能となり、楽音の演奏と同期した自然な画像を表示することができる。
また、楽曲の演奏の様子を示す画像の編集を容易に行うことができる。
さらに、外部から入力される実写画像を演奏と同期して表示すること、および、画像に対して演奏に同期したエフェクトを付加することができ、演奏効果を高めることができる。
さらにまた、動作部品をデータベース化しているため、複数の奏法や楽曲に対し動作部品を共通に使用することができるとともに、必要な部品をデータベースに追加していくことができる。したがって、効率的に画像を生成することが可能となる。
さらにまた、動作部品として動作波形とともに発音ポイントマーカー、消音ポイントマーカーを備えているために、テンポの変更等に対して共通の動作部品を使用することが可能となり、データベースのサイズを小さくすることが可能となる。
【図面の簡単な説明】
【図1】本発明の演奏画像情報作成装置および再生装置の一実施の形態の構成例を示すブロック図である。
【図2】動作部品データベースを説明するための図である。
【図3】動作部品の作成を説明するためのフローチャートである。
【図4】動作部品の作成について説明するための図である。
【図5】シーケンス情報作成処理のフローチャートである。
【図6】パート毎の画像編集画面の一例を示す図である。
【図7】複数の動作部品の合成について説明するための図である。
【図8】動作部品の編集画面の一例を示す図である。
【図9】全パートの画像編集画面の一例を示す図である。
【図10】複数のパートの情報の合成について説明するための図である。
【図11】シーケンスファイルの構成を示す図である。
【図12】シーケンス情報再生処理のフローチャートである。
【符号の説明】
1 CPU、2 プログラム記憶装置、3 記憶装置、4 操作スイッチ群、5音源部、6 サウンドシステム、7 画像演算装置、8 画像表示装置、9 外部記憶装置、10 MIDIインターフェース回路、11 ビデオインターフェース回路、12 モニタ、13 画像・映像入力装置、20 動作部品データベース、21 曲データベース、22 シーン部品データベース

Claims (12)

  1. 楽曲の演奏とともに該楽曲の演奏の様子を示す画像を表示するための演奏画像情報を作成するための演奏画像情報作成装置であって、
    各楽器毎あるいは各パート毎にその代表的な複数の奏法における演奏者および楽器の細分化された動作の軌跡を記録した動作部品をそれぞれ格納する動作部品データベースを有し、
    演奏すべき楽曲の各パート毎に前記複数の奏法のうちいずれかの奏法を指定する手段と、
    演奏すべき楽曲の拍あるいは小節などの音楽的時間単位を単位とするタイムスケジュール上にその演奏情報および前記指定された奏法に対応する前記動作部品を指定する情報を配置した動作記述情報を作成する手段と、
    該動作記述情報と前記演奏情報とを含むシーケンス情報を作成する手段と
    を有することを特徴とする演奏画像情報作成装置。
  2. 楽曲の演奏とともに該楽曲の演奏の様子を示す画像を表示するための演奏画像情報を作成するための演奏画像情報作成装置であって、
    各楽器毎あるいは各パート毎にその代表的な奏法における演奏者および楽器の細分化された動作の軌跡を表す動作波形、発音のタイミングを示す発音ポイントマーカーおよび消音のタイミングを示す消音ポイントマーカーを記録した動作部品を格納する動作部品データベースを有し、
    演奏すべき楽曲の拍あるいは小節などの音楽的時間単位を単位とするタイムスケジュール上にその演奏情報および奏法に対応する前記動作部品を指定する情報が配置された動作記述情報を作成する手段と、
    該動作記述情報と前記演奏情報とを含むシーケンス情報を作成する手段と
    を有することを特徴とする演奏画像情報作成装置。
  3. 前記タイムスケジュール上に配置された動作部品の発音ポイントマーカー及び消音ポイントマーカーの位置をそれぞれ演奏情報における発音タイミング及び消音タイミングの位置に合わせる手段を有することを特徴とする前記請求項2記載の演奏画像情報作成装置。
  4. 前記動作部品における動作波形の時間分解能は個々に設定可能とされていることを特徴とする前記請求項1又は2に記載の演奏画像情報作成装置。
  5. 前記動作記述情報を作成する手段は、前記指定された動作部品を編集する機能を有し、編集結果を動作部品として前記動作部品データベースに格納することができるようになされていることを特徴とする前記請求項1又は2に記載の演奏画像情報作成装置。
  6. 前記動作部品は、前記演奏者の体の各部あるいは前記楽器の各部毎の動作の軌跡を記録したものであることを特徴とする前記請求項1又は2に記載の演奏画像情報作成装置。
  7. 前記タイムスケジュール上に前記画像における背景情報や光源情報などのシーン部品が配置されたシーン情報を作成する手段を有し、
    前記シーケンス情報は、前記演奏情報、前記動作記述情報および前記シーン情報を含むことを特徴とする前記請求項1又は2に記載の演奏画像情報作成装置。
  8. 前記シーン部品として外部から入力される情報を表示することを指示する情報が含まれていることを特徴とする前記請求項7記載の演奏画像情報作成装置。
  9. 演奏情報と該演奏情報に対応する楽曲の演奏の様子を示す画像を表示するための動作記述情報とを含むシーケンス情報に基づいて、当該演奏情報に対応する楽音を発生するとともにその演奏の様子を示す画像を表示する演奏画像再生装置であって、
    前記演奏情報に基づいて楽音を作成する楽音発生部と、
    前記動作記述情報に基づいて前記演奏情報に対応する演奏の様子を示す画像を作成する画像作成部と、
    各楽器毎あるいは各パート毎に、その代表的な奏法における演奏者および楽器の細分化された動作の軌跡を記録した動作部品データベースとを有し、
    前記動作部品はそれぞれ発音のタイミングを示す発音ポイントマーカーおよび消音のタイミングを示す消音ポイントマーカーを有し、
    前記画像作成部は、前記動作記述情報に基づいて前記動作部品データベースから読み出された前記動作部品を用いて前記画像を作成し、かつ、該読み出された動作部品が有する前記発音ポイントマーカーおよび消音ポイントマーカーに基づいて、前記演奏情報と前記画像との同期をとる
    ことを特徴とする演奏画像情報再生装置。
  10. 前記画像作成部は、演奏のテンポに応じて、前記動作部品における発音動作に関する箇所以外の部分の動作速度を制御するようになされていることを特徴とする前記請求項9記載の演奏画像情報再生装置。
  11. 前記画像作成部は、前記シーケンス情報に含まれている表示画像の寸法を指定する情報に基づいて、前記動作部品に含まれている演奏者および楽器の寸法を示す骨格データを補正して表示画像を作成することを特徴とする前記請求項9記載の演奏画像情報再生装置。
  12. さらに、装置外部から画像情報を入力する入力手段と、
    前記画像作成部により作成された画像と前記入力手段からの画像とを合成する画像合成手段と、
    前記シーケンス情報に基づいて、前記画像作成部により作成された画像、前記入力手段からの画像あるいは前記合成手段により合成された画像に対して、演奏する楽曲の音楽的時間単位により規定されるタイミングで視覚的効果を付与する手段とを有することを特徴とする前記請求項9記載の演奏画像情報再生装置。
JP07754799A 1998-09-29 1999-03-23 演奏画像情報作成装置および再生装置 Expired - Fee Related JP3601350B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07754799A JP3601350B2 (ja) 1998-09-29 1999-03-23 演奏画像情報作成装置および再生装置
US09/400,573 US6245982B1 (en) 1998-09-29 1999-09-21 Performance image information creating and reproducing apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP27499698 1998-09-29
JP10-274996 1998-09-29
JP07754799A JP3601350B2 (ja) 1998-09-29 1999-03-23 演奏画像情報作成装置および再生装置

Publications (2)

Publication Number Publication Date
JP2000172869A JP2000172869A (ja) 2000-06-23
JP3601350B2 true JP3601350B2 (ja) 2004-12-15

Family

ID=26418623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07754799A Expired - Fee Related JP3601350B2 (ja) 1998-09-29 1999-03-23 演奏画像情報作成装置および再生装置

Country Status (2)

Country Link
US (1) US6245982B1 (ja)
JP (1) JP3601350B2 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3384314B2 (ja) * 1997-12-02 2003-03-10 ヤマハ株式会社 楽音応答画像生成システム、方法、装置、及び、そのための記録媒体
US6889374B1 (en) * 1998-10-23 2005-05-03 Autodesk, Inc. Using context prefixes that correspond to user input modes to control execution of scripting language
CN101383909B (zh) * 2000-01-26 2013-03-20 索尼公司 信息处理设备和信息处理方法
JP4660879B2 (ja) * 2000-04-27 2011-03-30 ソニー株式会社 情報提供装置および方法、並びにプログラム
JP2002133444A (ja) * 2000-10-20 2002-05-10 Matsushita Electric Ind Co Ltd 映像情報作成装置
US6731312B2 (en) * 2001-01-08 2004-05-04 Apple Computer, Inc. Media player interface
US6625600B2 (en) * 2001-04-12 2003-09-23 Telelogue, Inc. Method and apparatus for automatically processing a user's communication
US6388183B1 (en) * 2001-05-07 2002-05-14 Leh Labs, L.L.C. Virtual musical instruments with user selectable and controllable mapping of position input to sound output
JP3970102B2 (ja) * 2001-06-28 2007-09-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
DE10145360B4 (de) * 2001-09-14 2007-02-22 Jan Henrik Hansen Verfahren zur Umsetzung oder Aufzeichnung von Musik, Anwendung des Verfahrens und Anlagen hierfür
JP3849540B2 (ja) * 2002-02-19 2006-11-22 ヤマハ株式会社 画像制御装置
JP2003337956A (ja) * 2002-03-13 2003-11-28 Matsushita Electric Ind Co Ltd コンピュータグラフィックス・アニメーション装置及びコンピュータグラフィックス・アニメーション方法
US8737816B2 (en) * 2002-08-07 2014-05-27 Hollinbeck Mgmt. Gmbh, Llc System for selecting video tracks during playback of a media production
US7739584B2 (en) * 2002-08-08 2010-06-15 Zane Vella Electronic messaging synchronized to media presentation
US7009100B2 (en) * 2002-08-20 2006-03-07 Casio Computer Co., Ltd. Performance instruction apparatus and performance instruction program used in the performance instruction apparatus
EP1447790B1 (en) * 2003-01-14 2012-06-13 Yamaha Corporation Musical content utilizing apparatus
JP2004233698A (ja) * 2003-01-30 2004-08-19 Ricoh Co Ltd 音楽支援装置、音楽支援サーバ、音楽支援方法およびプログラム
US8027482B2 (en) * 2003-02-13 2011-09-27 Hollinbeck Mgmt. Gmbh, Llc DVD audio encoding using environmental audio tracks
US20040264917A1 (en) * 2003-06-25 2004-12-30 M/X Entertainment, Inc. Audio waveform cueing for enhanced visualizations during audio playback
JP2005044297A (ja) * 2003-07-25 2005-02-17 Sony Corp オーディオ再生方法及び装置
US7506267B2 (en) * 2003-12-23 2009-03-17 Intel Corporation Compose rate reduction for displays
JP2005241877A (ja) * 2004-02-25 2005-09-08 Yamaha Corp 運指指示装置およびプログラム
US8238721B2 (en) * 2004-02-27 2012-08-07 Hollinbeck Mgmt. Gmbh, Llc Scene changing in video playback devices including device-generated transitions
US8837921B2 (en) * 2004-02-27 2014-09-16 Hollinbeck Mgmt. Gmbh, Llc System for fast angle changing in video playback devices
US8165448B2 (en) * 2004-03-24 2012-04-24 Hollinbeck Mgmt. Gmbh, Llc System using multiple display screens for multiple video streams
US7441206B2 (en) * 2004-06-14 2008-10-21 Medical Simulation Corporation 3D visual effect creation system and method
US7189909B2 (en) * 2004-11-23 2007-03-13 Román Viñoly Camera assembly for finger board instruments
US7774707B2 (en) * 2004-12-01 2010-08-10 Creative Technology Ltd Method and apparatus for enabling a user to amend an audio file
US8045845B2 (en) * 2005-01-03 2011-10-25 Hollinbeck Mgmt. Gmbh, Llc System for holding a current track during playback of a multi-track media production
US7589727B2 (en) * 2005-01-18 2009-09-15 Haeker Eric P Method and apparatus for generating visual images based on musical compositions
US20060165377A1 (en) * 2005-01-26 2006-07-27 Von Wendt Thomas Method for reproducing video clips
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
JP4539639B2 (ja) * 2006-11-07 2010-09-08 ヤマハ株式会社 歌唱・演奏用装置及び歌唱・演奏用システム
JPWO2008129837A1 (ja) * 2007-03-27 2010-07-22 新世代株式会社 タイミング制御装置及びタイミング制御方法
US8017851B2 (en) * 2007-06-12 2011-09-13 Eyecue Vision Technologies Ltd. System and method for physically interactive music games
JP5361174B2 (ja) * 2007-11-30 2013-12-04 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
US8294015B2 (en) * 2008-06-20 2012-10-23 Randy Lawrence Canis Method and system for utilizing a gaming instrument controller
JP5386895B2 (ja) * 2008-09-11 2014-01-15 ヤマハ株式会社 音楽データ表示装置及びプログラム
US7696421B1 (en) * 2008-12-30 2010-04-13 Pangenuity, LLC Soprano steel pan set and associated methods
EP3260969B1 (en) 2009-09-22 2021-03-03 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
CN103377647B (zh) * 2012-04-24 2015-10-07 中国科学院声学研究所 一种基于音视频信息的自动音乐记谱方法及系统
WO2014137311A1 (en) 2013-03-04 2014-09-12 Empire Technology Development Llc Virtual instrument playing scheme
US9443498B2 (en) * 2013-04-04 2016-09-13 Golden Wish Llc Puppetmaster hands-free controlled music system
KR20150024650A (ko) * 2013-08-27 2015-03-09 삼성전자주식회사 전자 장치에서 사운드를 시각적으로 제공하기 위한 방법 및 장치
US9711118B2 (en) * 2016-06-16 2017-07-18 Tonatiuh Adrian Gimate-Welsh Music dissection and puzzle
JP6809112B2 (ja) * 2016-10-12 2021-01-06 ヤマハ株式会社 演奏システム、自動演奏方法およびプログラム
DK201970535A1 (en) 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
DK202070613A1 (en) 2020-02-14 2021-10-15 Apple Inc User interfaces for workout content
JP2023182939A (ja) * 2022-06-15 2023-12-27 ヤマハ株式会社 モデルデータ制御方法およびモデルデータ制御装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5159140A (en) 1987-09-11 1992-10-27 Yamaha Corporation Acoustic control apparatus for controlling musical tones based upon visual images
JP2995745B2 (ja) 1989-03-31 1999-12-27 ソニー株式会社 動き情報抽出装置
JP2958498B2 (ja) 1990-10-18 1999-10-06 カシオ計算機株式会社 自動伴奏装置
JPH0573048A (ja) 1991-09-17 1993-03-26 Casio Comput Co Ltd 自動演奏装置
US5890116A (en) * 1996-09-13 1999-03-30 Pfu Limited Conduct-along system

Also Published As

Publication number Publication date
US6245982B1 (en) 2001-06-12
JP2000172869A (ja) 2000-06-23

Similar Documents

Publication Publication Date Title
JP3601350B2 (ja) 演奏画像情報作成装置および再生装置
US6646644B1 (en) Tone and picture generator device
US7589727B2 (en) Method and apparatus for generating visual images based on musical compositions
US5890116A (en) Conduct-along system
JP5198766B2 (ja) テンポの変化に対応するメトロノーム及び拍の間隔の記録方法
JP5408205B2 (ja) 制御点設定方法、制御点設定装置及びプログラム
JP2013045334A (ja) 画像生成方法、画像生成装置及びプログラム
US7504572B2 (en) Sound generating method
JP3895014B2 (ja) 映像再生装置およびカラオケ装置
JP3770293B2 (ja) 演奏状態の視覚的表示方法および演奏状態の視覚的表示プログラムが記録された記録媒体
JPH0830807A (ja) 演奏連動型動画生成装置、音声連動型動画生成装置及びこれを利用したカラオケ装置
JP4062324B2 (ja) 動画再生装置及び動画再生方法
JP3716812B2 (ja) 動画再生装置及び動画再生方法
JP3700442B2 (ja) 奏法対応入力システム及びその記録媒体
JP2002175071A (ja) 演奏ガイド方法、演奏ガイド装置および記録媒体
JP2021140065A (ja) 処理システム、音響システム及びプログラム
JP2005321514A (ja) ゲーム装置および音程付効果音生成プログラムならびに方法
JP3654026B2 (ja) 奏法対応入力システム及びその記録媒体
JP3721822B2 (ja) 奏法対応入力システム
JP3117413B2 (ja) リアルタイム・マルチメディア・アート製作装置
JP3921817B2 (ja) 自動演奏装置およびフィンガリング記録装置
JPH117539A (ja) アニメーション作成装置およびアニメーション作成方法
JP3548825B2 (ja) 演奏動作表示装置、及び記録媒体
JP2003331310A (ja) 映像音声連動出力装置および方法
JP5919926B2 (ja) 画像生成方法、画像生成装置及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040325

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040715

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040913

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071001

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081001

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091001

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101001

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101001

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111001

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111001

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121001

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121001

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees