JP2017173631A - 自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法 - Google Patents

自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法 Download PDF

Info

Publication number
JP2017173631A
JP2017173631A JP2016060867A JP2016060867A JP2017173631A JP 2017173631 A JP2017173631 A JP 2017173631A JP 2016060867 A JP2016060867 A JP 2016060867A JP 2016060867 A JP2016060867 A JP 2016060867A JP 2017173631 A JP2017173631 A JP 2017173631A
Authority
JP
Japan
Prior art keywords
accompaniment
data
section
performance
element data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016060867A
Other languages
English (en)
Inventor
大地 渡邉
Daichi Watanabe
大地 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016060867A priority Critical patent/JP2017173631A/ja
Publication of JP2017173631A publication Critical patent/JP2017173631A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】専門の知識を必要とせず、かつユーザの演奏が妨げられることなく、ユーザの演奏に合わせて自然な自動伴奏を出力することが可能な自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法を提供する。【解決手段】曲構成データ取得部21は、曲の構成を表す曲構成データを取得する。指定部22は、複数の伴奏要素データを含む自動伴奏データの指定を受け付ける。演奏データ取得手段23は、ユーザによる曲の演奏を表す演奏データを取得する。盛り上がり度検出部24は、取得された演奏データに基づいて、曲の少なくとも一の区間でユーザによる演奏の盛り上がり度を検出する。伴奏要素決定部26は、取得された曲構成データおよび検出された盛り上がり度に基づいて、複数の伴奏要素データのうち当該一の区間の後の区間で使用すべき伴奏要素データを使用伴奏要素データに決定する。【選択図】図2

Description

本発明は、自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法に関する。
自動伴奏機能を備えた電子楽器では、複数の伴奏パターンデータを含む自動伴奏データを用いて、ユーザの演奏に合わせた自動伴奏を出力することができる。例えば、曲の構成を表す曲構成データに基づいて、曲の区間毎に使用すべき伴奏パターンデータが選択され、必要に応じて音高変換等が行われて出力伴奏データが生成される。特許文献1には、曲構成データに基づいて伴奏の音量を決定する技術が記載されている。
特開2000−155573号公報
しかしながら、上記のように曲構成データに基づいて出力伴奏データが生成される場合には、実際のユーザの演奏の盛り上がりが自動伴奏に反映されないので、必ずしもユーザの演奏に適した自動伴奏が出力されるとは限らない。一方、例えばユーザが所望の伴奏パターンデータを適宜選択することにより、ユーザの演奏と自動伴奏との相関性を高めることは可能であるが、その場合にはユーザに専門の知識が求められるとともに、煩雑な操作が必要となってユーザの演奏が妨げられる。
本発明の目的は、専門の知識を必要とせず、かつユーザの演奏が妨げられることなく、ユーザの演奏に合わせて自然な自動伴奏を出力することが可能な自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法を提供することである。
本発明に係る自動伴奏装置は、複数の区間を含む曲の構成を表す曲構成データを取得する曲構成データ取得手段と、複数の伴奏要素データを含む自動伴奏データの指定を受け付ける指定手段と、ユーザによる曲の演奏を表す演奏データを取得する演奏データ取得手段と、取得された演奏データに基づいて、曲の少なくとも一の区間でユーザによる演奏の盛り上がり度を検出する盛り上がり度検出手段と、取得された曲構成データおよび一の区間で検出された盛り上がり度に基づいて、複数の伴奏要素データのうち当該一の区間の後の区間で使用すべき伴奏要素データを使用伴奏要素データに決定する伴奏要素決定手段と、取得された曲構成データおよび決定された使用伴奏要素データに基づいて、後の区間で出力されるべき自動伴奏を表す出力伴奏データを生成する出力伴奏データ生成手段とを備える。
この自動伴奏装置においては、曲の少なくとも一の区間で検出された盛り上がり度に基づいて、指定された自動伴奏データに含まれる複数の伴奏要素データのうち後の区間で使用すべき伴奏要素データが決定されるので、ユーザが伴奏要素データについての専門的な知識を有していない場合でも、ユーザの演奏に応じた伴奏要素データが選択される。それにより、ユーザの演奏に合わせて自然な自動伴奏を出力することができる。また、ユーザが演奏中に伴奏要素データを切り替える操作を行う必要がないので、ユーザの演奏が妨げられない。
複数の伴奏要素データは複数のセクションのタイプに分類され、かつ各セクションのタイプの1または複数の伴奏要素データは1または複数のバリエーションにそれぞれ対応し、自動伴奏装置は、取得された演奏データに盛り上がり度の基準を設定する基準設定手段をさらに備え、伴奏要素決定手段は、曲構成データに基づいて各区間のセクションのタイプを決定し、検出された盛り上がり度および設定された基準に基づいて後の区間のバリエーションを決定し、決定した後の区間のセクションのタイプおよびバリエーションに対応する伴奏要素データを使用伴奏要素データに決定してもよい。
この場合、曲構成データに基づいて曲の各区間のセクションのタイプが決定され、検出された盛り上がり度および設定された基準に基づいて、上記後の区間のバリエーションが決定される。それにより、ユーザの操作を必要とせずに、各区間のセクションのタイプおよびバリエーションをユーザの演奏に応じて選択することができる。
盛り上がり度は、ユーザによる演奏の音量に対応し、自動伴奏装置は、検出された盛り上がり度および設定された基準に基づいて、ユーザによる演奏の音量と1または複数のバリエーションとの関係を表示する表示手段をさらに備えてもよい。
この場合、ユーザは、音量とバリエーションとの関係を確認しながら演奏を行うことができる。それにより、ユーザは、後の区間で所望のバリエーションが選択されるように演奏の音量を調整することができる。
本発明に係る自動伴奏プログラムは、複数の区間を含む曲の構成を表す曲構成データを取得するステップと、複数の伴奏要素データを含む自動伴奏データの指定を受け付けるステップと、ユーザによる曲の演奏を表す演奏データを取得するステップと、取得された演奏データに基づいて、曲の少なくとも一の区間でユーザによる演奏の盛り上がり度を検出するステップと、取得された曲構成データおよび一の区間で検出された盛り上がり度に基づいて、複数の伴奏要素データのうち当該一の区間の後の区間で使用すべき伴奏要素データを使用伴奏要素データに決定するステップと、取得された曲構成データおよび決定された使用伴奏要素データに基づいて、後の区間で出力されるべき自動伴奏を表す出力伴奏データを生成するステップとを、コンピュータに実行させる。
本発明に係る出力伴奏データ生成方法は、複数の区間を含む曲の構成を表す曲構成データを取得するステップと、複数の伴奏要素データを含む自動伴奏データの指定を受け付けるステップと、ユーザによる曲の演奏を表す演奏データを取得するステップと、取得された演奏データに基づいて、曲の少なくとも一の区間でユーザによる演奏の盛り上がり度を検出するステップと、取得された曲構成データおよび取得された一の区間で検出された盛り上がり度に基づいて、複数の伴奏要素データのうち当該一の区間の後の区間で使用すべき伴奏要素データを使用伴奏要素データに決定するステップと、取得された曲構成データおよび決定された使用伴奏要素データに基づいて、後の区間で出力されるべき自動伴奏を表す出力伴奏データを生成するステップとを含む。
この自動伴奏プログラムおよび出力伴奏データ生成方法によれば、ユーザが伴奏要素データについての専門的な知識を有していない場合でも、ユーザの演奏に応じた伴奏要素データが選択される。それにより、ユーザの演奏に合わせて自然な自動伴奏を出力することができる。また、ユーザが演奏中に伴奏要素データを切り替える操作を行う必要がないので、ユーザの演奏が妨げられない。
本発明によれば、専門の知識を必要とせず、かつユーザの演奏が妨げられることなく、ユーザの演奏に合わせて自然な自動伴奏を出力することが可能となる。
電子音楽装置の構成を示すブロック図である。 自動伴奏装置の機能的な構成を示すブロック図である。 自動伴奏データの例について説明するためのブロック図である。 伴奏要素データの決定について説明するための図である。 表示部による表示例を説明するための図である。 出力伴奏データ生成処理の一例を示すフローチャートである。 伴奏出力処理の一例を示すフローチャートである。 伴奏出力処理の一例を示すフローチャートである。 補助伴奏要素データについて説明するための図である。 補助伴奏要素データの使用例を示す図である。 補助伴奏要素データの使用例を示す図である。
以下、本発明の実施の形態に係る自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法について図面を用いて詳細に説明する。
(1)電子音楽装置の構成
図1は本発明の実施の形態に係る自動伴奏装置を含む電子音楽装置の構成を示すブロック図である。図1の電子音楽装置1によれば、ユーザは演奏および曲の制作等を行うことができる。また、電子音楽装置1は、ユーザの演奏に自動伴奏を付与する自動伴奏装置100を含む。
電子音楽装置1は、演奏データ入力部2、入力I/F(インタフェース)3、設定操作子4、検出回路5、表示部6および表示回路8を備える。演奏データ入力部2は、鍵盤等の音高指定操作子またはマイク等を含み、入力I/F3を介してバス19に接続される。ユーザの演奏操作に基づく演奏データが演奏データ入力部2により入力される。設定操作子4は、オンオフ操作されるスイッチ、回転操作されるロータリエンコーダ、またはスライド操作されるリニアエンコーダ等を含み、検出回路5を介してバス19に接続される。この設定操作子4は、音量の調整、電源のオンオフおよび各種設定を行うために用いられる。表示部6は、例えば液晶ディスプレイを含み、表示回路8を介してバス19に接続される。表示部6により、演奏または設定等に関する各種情報が表示される。表示部6がタッチパネルディスプレイにより構成されてもよい。
電子音楽装置1は、RAM(ランダムアクセスメモリ)9、ROM(リードオンリメモリ)10、CPU(中央演算処理装置)11、タイマ12および記憶装置13をさらに備える。RAM9、ROM10、CPU11および記憶装置13はバス19に接続され、タイマ12はCPU11に接続される。外部記憶装置15等の外部機器が通信I/F(インタフェース)14を介してバス19に接続されてもよい。RAM9、ROM10、CPU11およびタイマ12がコンピュータを構成する。
RAM9は、例えば揮発性メモリからなり、CPU11の作業領域として用いられるとともに、各種データを一時的に記憶する。ROM10は、例えば不揮発性メモリからなり、システムプログラム、自動伴奏プログラム等のコンピュータプログラムを記憶する。CPU11は、ROM10に記憶された自動伴奏プログラムをRAM9上で実行することにより後述する出力伴奏データ生成処理を行い、出力伴奏データを生成する。タイマ12は、現在時刻等の時間情報をCPU11に与える。
記憶装置13は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含み、一または複数の曲構成データを記憶する。各曲は、情景の流れに従って分割された複数の区間で表される。曲構成データは、このような複数の区間を含む曲の構成を表し、具体的には、曲の各区間の長さ(小節数または拍数)を表すとともに、各区間に対応するセクションのタイプを表す。セクションは、曲の進行上の役割を意味し、セクションのタイプとして、例えば、曲の先頭に挿入される「イントロ」、曲の本体部である「メイン」、小節または楽節のつなぎ目部分等に挿入される「フィルイン」、および曲の末尾に挿入される「エンディング」等がある。曲構成データは、他の付属データとともに各曲に対応付けて記憶されてもよい。他の付属データとしては、例えば、MIDI(Musical Instrument Digital Interface)データまたはオーディオデータからなる曲データ、歌詞データ、楽譜表示データ、コード進行データ、主旋律および各パートのガイド用データ、コメント(メモ)データ、ならびに推奨の伴奏スタイルおよび音色等がある。曲構成データは、曲のオーディオデータまたはMIDIデータ等を分析することによって自動的に生成されてもよく、電子楽譜からリハーサルマークおよびバーライン等の位置を検出することによって自動的に生成されてもよい。あるいは、ユーザが曲構成データを入力してもよい。
記憶装置13には、一または複数の自動伴奏データがさらに記憶される。各自動伴奏データは、複数の伴奏要素データを含む。自動伴奏データの詳細については後述する。上記の自動伴奏プログラムが記憶装置13に記憶されてもよい。外部記憶装置15は、記憶装置13と同様に、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含み、曲構成データ、自動伴奏データまたは自動伴奏プログラムを記憶してもよい。
本実施の形態における自動伴奏プログラムは、コンピュータが読み取り可能な記録媒体に格納された形態で提供され、ROM10または記憶装置13にインストールされてもよい。また、通信I/F14が通信網に接続されている場合、通信網に接続されたサーバから配信された自動伴奏プログラムがROM10または記憶装置13にインストールされてもよい。同様に、曲構成データまたは自動伴奏データが記憶媒体から取得されてもよく、通信網に接続されたサーバから取得されてもよい。
電子音楽装置1は、音源16、効果回路17およびサウンドシステム18をさらに備える。音源16および効果回路17はバス19に接続され、サウンドシステム18は効果回路17に接続される。音源16は、演奏データ入力部2から入力される演奏データまたはCPU11により生成される出力伴奏データ等に基づいて楽音信号を生成する。効果回路17は、音源16により生成される楽音信号に音響効果を付与する。
サウンドシステム18は、デジタルアナログ(D/A)変換回路、増幅器およびスピーカを含む。このサウンドシステム18は、音源16から効果回路17を通して与えられる楽音信号をアナログ音信号に変換し、アナログ音信号に基づく音を発生する。それにより、楽音信号が再生される。電子音楽装置1において、主として演奏データ入力部2、表示部6、RAM9、ROM10、CPU11および記憶装置13が自動伴奏装置100を構成する。
(2)自動伴奏装置の機能的な構成
図2は本発明の実施の形態に係る自動伴奏装置100の機能的な構成を示すブロック図である。図2に示すように、自動伴奏装置100は、曲構成データ取得部21、指定部22、演奏データ取得部23、盛り上がり度検出部24、基準設定部25、伴奏要素決定部26、出力伴奏データ生成部27、表示部28、基本情報取得部29、開始終了検出部30および出力部31を含む。
曲構成データ取得部21は、ユーザにより演奏されるべき曲(以下、演奏曲と呼ぶ。)の曲構成データを取得する。指定部22は、後述の自動伴奏データの指定を受け付ける。演奏データ取得部23は、図1の演奏データ入力部2により入力される演奏データを取得する。
盛り上がり度検出部24は、取得された演奏データに基づいて、演奏曲の少なくとも一の区間で、ユーザによる演奏の盛り上がり度を検出する。盛り上がり度は、例えばユーザによる演奏の音量(ベロシティ)に対応する。基準設定部25は、取得された演奏データに対する盛り上がり度の基準(以下、盛り上がり基準と呼ぶ。)を設定する。盛り上がり基準は、例えば盛り上がり度のしきい値である。
伴奏要素決定部26は、取得された曲構成データ、検出された盛り上がり度および設定された盛り上がり基準に基づいて、指定された自動伴奏データに含まれる複数の伴奏要素データのうち使用すべき伴奏要素データ(以下、使用伴奏要素データと呼ぶ。)を決定する。本実施の形態では、演奏曲の各区間で盛り上がり度が検出され、検出された盛り上がり度に基づいて次の区間の使用伴奏要素データが決定される。すなわち、一の区間の盛り上がり度に基づいて次の区間の使用伴奏要素データが決定され、当該次の区間の盛り上がり度に基づいてさらに次の区間の使用伴奏要素データが決定される。このようにして、最初の区間以外の各区間の使用伴奏要素データが決定される。
後述のように、各伴奏要素データは、いずれかのセクションのタイプに分類されるとともに、いずれかのバリエーションに対応する。本実施の形態では、各区間で検出された盛り上がり度に基づいて、次の区間のセクションのタイプおよびバリエーションが決定され、決定されたセクションのタイプおよびバリエーションに対応する伴奏要素データが当該次の区間の使用伴奏要素データに決定される。
出力伴奏データ生成部27は、取得された曲構成データおよび決定された使用伴奏要素データに基づいて、出力されるべき自動伴奏を表す出力伴奏データを生成する。表示部28は、検出された盛り上がり度および設定される盛り上がり基準に基づいて、盛り上がり度(例えば音量)と複数のバリエーションとの関係を表示する。
基本情報取得部29は、自動伴奏に関する基本情報を取得し、伴奏要素決定部26に与える。基本情報は、例えば、演奏テンポ、音量(ボリューム)、「フィルイン」セクションの挿入の有無、および盛り上がり度の検出周期等を含み、例えばユーザが図1の設定操作子4を操作して入力することにより取得される。開始終了検出部30は、自動伴奏の開始および終了を検出し、伴奏要素決定部26に与える。例えば、図1の設定操作子4としてスタートボタンおよびストップボタンが設けられる。スタートボタンが押下されると、自動伴奏の開始が検出され、ストップボタンが押下されると、自動伴奏の終了が検出される。また、ユーザによる演奏の開始および終了が自動伴奏の開始および終了として検出されてもよい。あるいは、ユーザの演奏および自動伴奏に加えて演奏曲の歌唱音または他の伴奏音等が出力される場合に、その出力の開始および停止が自動伴奏の開始および終了として検出されてもよい。出力部31は、取得された演奏データ、および生成された出力伴奏データを図1の音源16およびサウンドシステム18に出力する。それにより、演奏音および伴奏音がそれぞれ発生される。
(3)自動伴奏データ
図3は自動伴奏データの例について説明するためのブロック図である。図3に示すように、ジャズ、ロック、クラシック等のカテゴリー毎に1または複数の自動伴奏データADが用意される。このようなカテゴリーは階層的に設けられてもよい。例えばジャズの下位のカテゴリーとしてビックバンドおよびモダンジャズ等が設けられ、ロックの下位のカテゴリーとしてハードロックおよびプログレッシブロック等が設けられてもよい。各自動伴奏データADは、複数のセクションのタイプに分類された複数の伴奏要素データIA,IB,MA,MB・・・を含む。
各セクションのタイプに分類される1または複数の伴奏要素データは、雰囲気または盛り上がり度の異なる1または複数のバリエーションに対応する。本例において、「イントロ」セクション、「メイン」セクションおよび「エンディング」セクションは、それぞれアルファベット“I”、“M”、“F”および“E”で表される。また、「イントロ」セクション、「メイン」セクションおよび「エンディング」セクションのバリエーションは、雰囲気または盛り上がり度に応じてアルファベット“A”(普通(静か))、“B”(少し派手)、“C”(派手)、および “D”(かなり派手)等で表される。
「フィルイン」セクションは、他のセクション間のつなぎとして用いられるので、そのバリエーションは、前後のセクションの雰囲気または盛り上がり度の変化に対応した2つのアルファベットの組み合わせで表される。例えば、“AC”は、「静か」から「派手」への変化に対応する。この場合、直前のセクションのバリエーションが“A”であり、直後のセクションのバリエーションが“C”であることが自然であるが、バリエーションの選択は任意であるので、前後のセクションのバリエーションが“A”および“C”でない場合でも、「フィルイン」セクションのバリエーションとして“AC”を指定することは可能である。
各伴奏要素データは、セクションのタイプを表すアルファベットとバリエーションを表すアルファベットとの組み合わせにより表される。例えば、伴奏要素データMAのセクションのタイプは「メイン」であり、バリエーションは“A”である。また、伴奏要素データFABのセクションのタイプは「フィルイン」であり、バリエーションは“AB”である。
各伴奏要素データは、ベーストラックおよびフレーズトラック等の複数のトラック(伴奏パート)の伴奏パターンデータを含むとともに、基準コード情報および音高変換規則(音高変換テーブル情報、音域、コード変更時の再発音規則等)を含む。伴奏パターンデータは、MIDI形式の音符列またはオーディオ形式のフレーズデータであり、基準コード情報および音高変換規則に基づいて任意の音高に変換することができる。したがって、複数の伴奏パターンデータを用いて、演奏曲に対応する出力伴奏データを生成することができる。
例えば、ユーザは図1の設定操作子4を操作して、予め登録された複数の曲から所望の曲を選択することによって一の曲構成データを指定するとともに、複数のカテゴリーから所望のカテゴリーを選択しかつそのカテゴリーに対応する一の自動伴奏データADを指定する。指定された曲構成データおよび自動伴奏データADに基づいて出力伴奏データが生成され、自動伴奏が出力される。
(4)伴奏要素データの決定
図4は、伴奏要素データの決定について説明するための図である。図4には、曲の区間R1,R2,R3に関して、曲構成データにより表されるセクションのタイプ(以下、基本セクションタイプと呼ぶ。)、伴奏要素データのセクションのタイプ、バリエーション、伴奏要素データ、および盛り上がり度の変化が示される。図4において、横軸は時間軸である。時点t1で区間R1が開始し、時点t2で区間R1が終了するとともに区間R2が開始し、時点t3で区間R2が終了するとともに区間R3が開始する。区間R1〜R3の基本セクションタイプはいずれも「メイン」である。
本例では、基本情報として設定された検出周期(例えば20ms周期)で盛り上がり度の算出タイミングが到来する。算出タイミングにおいて、例えば、一定時間内に入力された演奏データに基づいて、ベロシティの積算値または平均値が盛り上がり度として算出される。ベロシティは、MIDI規格において音量(音の強弱)を表す。算出された盛り上がり度に対して、ノイズ除去処理、平滑化、またはユーザの打鍵の強さによる補正等が行われてもよい。
曲の各区間の終了時点において、盛り上がり度および予め定められた盛り上がり基準に基づいて、次の区間の基本セクションタイプに対応するバリエーション(以下、基本バリエーションと呼ぶ。)が決定される。図4の例において、盛り上がり基準はしきい値TH1,TH2,TH3である。
区間R1の終了時点t2においては、盛り上がり度がしきい値TH1よりも低い。この場合、次の区間R2の基本バリエーションが“A”に決定される。区間R2の終了時点t3においては、盛り上がり度がしきい値TH2以上であってしきい値TH3よりも低い。この場合、次の区間R3の基本バリエーションが“C”に決定される。
本例では、基本情報として、「フィルイン」セクションを挿入するか否かが予め設定される。「フィルイン」セクションを挿入する場合、各区間の予め定められたフィルイン挿入タイミングにおいて、伴奏要素データのセクションのタイプが、基本セクションタイプから「フィルイン」に切り替えられる。図4の例において、フィルイン挿入タイミングは、各区間の終了時点よりも時間taだけ前である。
区間R1のフィルイン挿入タイミング(時点t1a)において、伴奏要素データのセクションのタイプが、区間R1の基本セクションタイプである「メイン」から「フィルイン」に切り替えられる。その後、区間R2の開始時点t2において、伴奏要素データのセクションのタイプが、区間R2の基本セクションタイプである「メイン」に切り替えられる。同様に、区間R2のフィルイン挿入タイミング(時点t2a)において、伴奏要素データのセクションのタイプが「メイン」から「フィルイン」に切り替えられ、区間R3の開始時点t3で伴奏要素データのセクションのタイプが「メイン」に切り替えられる。
「フィルイン」セクションのバリエーションは、フィルイン挿入タイミングの直前の基本バリエーション、およびフィルイン挿入タイミングで暫定的に決定される次の区間の基本バリエーションに基づいて決定される。時点t1aにおいては、直前の基本バリエーションが“A”である。また、時点t1aでの盛り上がり度はしきい値TH1よりも低いので、次の区間の基本バリエーションが暫定的に “A”に決定される。これにより、時点t1aで挿入されるべき「フィルイン」セクションのバリエーションが“AA”に決定される。時点t2aにおいては、直前の基本バリエーションが“A”である。また、時点t2aでの盛り上がり度はしきい値TH2以上であってしきい値TH3より低いので、次の区間の基本バリエーションが暫定的に“C”に決定される。これにより、時点t2aで挿入されるべき「フィルイン」セクションのバリエーションが “AC”に決定される。
このようにして、各区間の基本バリエーションおよび「フィルイン」セクションのバリエーションが決定される。曲構成データにより表される基本セクションタイプおよび決定された基本バリエーション、ならびに「フィルイン」セクションのバリエーションに基づいて、使用伴奏要素データが決定される。図4の例では、区間R1の時点t1から時点t1aまでの使用伴奏要素データが“MA”に決定され、時点t1aから時点2までの使用伴奏要素データが“FAA”に決定される。また、区間R2の時点t2から時点t2aまでの使用伴奏要素データが“MA”に決定され、時点t2aから時点3までの使用伴奏要素データが“FAC”に決定される。また、区間R3の開始時点t3の使用伴奏要素データが“MC”に決定される。
「フィルイン」セクションの挿入条件が任意に設定可能であってもよい。例えば、基本バリエーションが切り替わる場合にのみフィルインが挿入されてもよい。その場合、図4の区間R1,R2の基本バリエーションは同じであるので、区間R1に「フィルイン」セクションは挿入されない。一方、区間R2,R3の基本バリエーションは異なるので、区間R2のフィルイン挿入タイミングで「フィルイン」セクションが挿入される。
「イントロ」セクションおよび「エンディング」セクションにおいても同様に、各区間で検出された盛り上がり度に基づいて次の区間のバリエーションが決定されてもよい。この場合、セクションのタイプ毎に異なる盛り上がり基準が設定されることが好ましい。
本例では、区間の切り替わりと同時に使用伴奏要素データが次の区間の基本セクションタイプおよび基本バリエーションに対応する伴奏要素データに切り替わる。この場合、曲の情景の変化のタイミングと自動伴奏の変化のタイミングとが一致するので、自動伴奏が自然に変化し、ユーザおよび聴者にとって違和感が生じにくい。なお、使用伴奏要素データの切り替わりのタイミングが区間の切り替わりのタイミングと厳密に一致していなくてもよく、例えば処理の遅延等によって使用伴奏要素データの切り替わりのタイミングが区間の切り替わりのタイミングから微小時間(例えば1拍以下)だけずれていてもよい。
各区間の終了時点での盛り上がり度ではなく、他の時点での盛り上がり度に基づいて次の区間の使用伴奏要素データが決定されてもよい。例えば、各区間の終了時点よりも一定時間前の盛り上がり度、または各区間のフィルイン挿入タイミングにおける盛り上がり度に基づいて、次の区間の使用伴奏要素データが決定されてもよい。
(5)表示例
図5は、図1の表示部6による表示例を説明するための図である。図5には、「メイン」セクションの演奏時における表示部6の画面6aが示される。画面6aの横軸は、時間に対応し、縦軸は、盛り上がり度に対応する。画面6aの左端に、指標B1,B2,B3,B4が縦方向に並ぶように表示される。指標B1〜B4は、「メイン」セクションのバリエーション“A”、“B”、“C”および“D”に対応する盛り上がり度の範囲をそれぞれ表す。指標B1〜B4の右側に、演奏の盛り上がり度の経時的変化を表す実線L1が表示される。画面6aには、現時点を基準とする一定時間内の盛り上がり度の変化が実線L1として表示される。実線L1の右端の縦方向における位置が現時点での盛り上がり度に相当する。
本例において、次の区間のバリエーションは、各区間の終了時点における盛り上がり度に基づいて決定される。そのため、各区間の終了時点において、実線L1の右端が指標B1,B2,B3,B4により表される範囲のうちのいずれの範囲内に位置するかによって次の区間のバリエーションが決定される。図5においては、実線L1の右端が、指標B2によって表される範囲内に位置するため、現時点が区間の終了時点である場合、次の区間のバリエーションが“B”に決定される。現時点での盛り上がり度が指標B1〜B4のいずれの範囲にあるかを容易に認識することができるように、該当の指標の表示形態が変化(例えば点灯または点滅)されてもよい。
これにより、ユーザは、現時点での盛り上がり度がいずれのバリエーションに対応する範囲にあるかを認識することができる。また、ユーザは、次の区間で所望のバリエーションが選択されるように演奏の盛り上がり度(例えば音量)を調整することができる。
ユーザが区間の終了時点を把握することができるように、区間の終了時点が到来するまでの時間、またはその時間に対応する記号もしくは図形等が画面6a上に表示されてもよい。また、図5の例では、「メイン」セクションのバリエーションに対応する指標B1〜B4が示されるが、他のセクションの演奏時には、そのセクションのタイプのバリエーションに対応する指標が表示されてもよい。
また、実線L1が表示されずに、現時点での盛り上がり度に対応するバリエーションのみが明示されてもよい。例えば、指標B1〜B4のみが表示されかつ上記のように現時点での盛り上がり度に対応する指標の表示形態が変化されてもよく、あるいは現時点での盛り上がり度に対応するバリエーションを表すアルファベットのみが表示されてもよい。
(6)出力伴奏データ生成処理
図6は、図2の各機能部による出力伴奏データ生成処理の一例を示すフローチャートである。図6の出力伴奏データ生成処理は、図1のCPU11がROM10または記憶装置13に記憶された自動伴奏プログラムを実行することに行われる。本例では、演奏曲における現時点での位置を表す「現在位置」、現時点で位置する区間の基本セクションタイプを表す「現在のセクションタイプ」、現時点で位置する区間の基本バリエーションを表す「現在のバリエーション」、次の区間の基本バリエーションを表す「次のバリエーション」、現時点で選択されるべき伴奏要素データを表す「現在の伴奏要素データ」、および現時点で位置する区間から次の区間に切り替わるタイミングを表す「次の切替タイミング」が図1の記憶装置13にそれぞれ記憶されている。出力伴奏データ生成処理の開始時には、これらの情報が例えば前回の伴奏生成処理の終了時の状態に保持されている。
ユーザは、図2の設定操作子4を操作して、曲構成データおよび自動伴奏データADを指定する。図2の曲構成データ取得部21は、曲構成データの指定を受け付け(ステップS1)、指定部22は、自動伴奏データADの指定を受け付ける(ステップS2)。また、ユーザは、図2の設定操作子4を操作して、基本情報を入力する。それにより、基本情報取得部29は、基本情報を取得する(ステップS3)。曲構成データは、各演奏曲に対応して予め生成された、あるいは自動生成されたものであってもよいし、演奏曲とは無関係に4小節あるいは8小節単位等の固定長の区間を表すものであってもよい。ステップS1では、演奏曲に対応する曲構成データおよび所定の区間長のいずれかを選択可能であってもよい。所定の区間長が選択された場合は、その所定の区間長毎に曲構成(情景)が変化すると仮定される。ステップS1〜S3においては、予めデフォルトが決まっていてもよい。
次に、伴奏要素決定部26は、「現在位置」を更新する(ステップS4)。例えば、曲の先頭位置に「現在位置」が更新される。ユーザは、図2の設定操作子4を操作することにより、「現在位置」を変更することができる。次に、伴奏要素決定部26は、指定された曲構成データおよび「現在位置」に基づいて、「現在のセクションタイプ」を更新する(ステップS5)。具体的には、「現在位置」がいずれの区間に含まれるか特定され、特定された区間の基本セクションタイプに「現在のセクションタイプ」が更新される。
次に、伴奏要素決定部26は、指定された曲構成データおよび「現在位置」に基づいて、「次の切替タイミング」を更新する(ステップS6)。具体的には、「現在位置」が含まれる区間の終了時点に「次の切替タイミング」が更新される。次に、伴奏要素決定部26は、「現在のバリエーション」および「次のバリエーション」をそれぞれ規定のバリエーションに更新する(ステップS7)。規定のバリエーションは例えば“A”である。次に、伴奏要素決定部26は、「現在の伴奏要素データ」を「現在のセクションタイプ」および「現在のバリエーション」に対応する伴奏要素データに更新する(ステップS8)。次に、開始終了検出部30は、自動伴奏の開始を検出したか否かを判定する(ステップS9)。
自動伴奏の開始が検出されるまで、開始終了検出部30は、ステップS9を繰り返す。自動伴奏の開始が検出されると、出力伴奏データ生成部27は、図1のタイマ12を起動する(ステップS10)。次に、主として盛り上がり度検出部24、伴奏要素決定部26および出力伴奏データ生成部27が、伴奏出力処理を行う(ステップS11)。伴奏出力処理については後述する。伴奏出力処理が終了すると、出力伴奏データ生成部27は、タイマ12を停止するとともに(ステップS12)、音の発生を停止する消音処理を行う(ステップS13)。これにより、出力伴奏データ生成処理が終了する。
図7および図8は、伴奏出力処理の一例を示すフローチャートである。図7に示すように、まず、出力伴奏データ生成部27が、「現在の伴奏要素データ」に基づいて出力伴奏データを生成し、出力部31が、生成された出力伴奏データを出力する(ステップS21)。これにより、図1のサウンドシステム18が自動伴奏音を発生する。次に、開始終了検出部30は、自動伴奏の終了を検出したか否かを判定する(ステップS22)。
自動伴奏の停止が検出されていない場合、演奏データ取得部23は、ユーザの演奏操作を受け付けたか否かを判定する(ステップS23)。ユーザが図1の演奏データ入力部2を操作すると、演奏操作が受け付けられる。演奏操作が受け付けられていない場合、以下のステップS24,S25がスキップされる。演奏操作が受け付けられた場合、演奏データ取得部23は、演奏操作に基づいて演奏データを取得し、出力部31が、取得された演奏データを出力する(ステップS24)。これにより、図1のサウンドシステム18がユーザの演奏音を発生する。次に、盛り上がり度検出部24が、取得された演奏データから、盛り上がり度を算出するための盛り上がり度算出情報を検出する(ステップS25)。盛り上がり度算出情報は、例えばその時点でのベロシティであり、次の盛り上がり度の算出タイミングまで蓄積される。
次に、盛り上がり度検出部24が、取得された基本情報および図1のタイマ12からの時間情報に基づいて、盛り上がり度の算出タイミングが到来したか否かを判定する(ステップS26)。盛り上がり度の算出タイミングは、例えば基本情報として設定される検出周期で到来する。盛り上がり度の算出タイミングが到来していない場合、以下のステップS27、S28がスキップされる。盛り上がり度の算出タイミングが到来した場合、盛り上がり度検出部24が、蓄積された盛り上がり度算出情報に基づいて盛り上がり度を算出し、伴奏要素決定部26が、算出された盛り上がり度および予め設定された盛り上がり基準に基づいて次の区間の基本バリエーションを暫定的に決定し、「次のバリエーション」を決定された基本バリエーションに更新する(ステップS27)。次に、表示部28が、「次のバリエーション」を図1の表示部6に表示する(ステップS28)。
次に、伴奏要素決定部26は、取得された基本情報に基づいて、「フィルイン」セクションを挿入するか否かを判定する(図8のステップS29)。「フィルイン」セクションを挿入する場合、伴奏要素決定部26は、その時点で「フィルイン」セクションに対応する自動伴奏が出力中であるか否かを判定する(ステップS30)。フィルインに対応する自動伴奏が出力されていない場合、伴奏要素決定部26は、図1のタイマ12からの時間情報に基づいて、フィルイン挿入タイミングが到来したか否かを判定する(ステップS31)。フィルイン挿入タイミングは、例えば「次の切替タイミング」よりも一定時間だけ前である。
フィルイン挿入タイミングが到来していない場合、伴奏要素決定部26は、図7のステップS21に戻る。フィルイン挿入タイミングが到来した場合、伴奏要素決定部26は、「現在のバリエーション」および「次のバリエーション」に基づいて、挿入すべき「フィルイン」セクションのバリエーションを決定する(ステップS32)。例えば、「現在のバリエーション」が“A”であり、「次のバリエーション」が“C”である場合、挿入すべき「フィルイン」セクションのバリエーションは“AC”である。次に、伴奏要素決定部26は、「現在の伴奏要素データ」を決定されたバリエーションに対応する「フィルイン」セクションの伴奏要素データに更新し(ステップS33)、図7のステップS21に戻る。
ステップS29で「フィルイン」セクションを挿入しない場合、またはステップS30で「フィルイン」セクションに対応する自動伴奏が出力中である場合、伴奏要素決定部26は、図1のタイマ12からの時間情報に基づいて、「次の切替タイミング」が到来したか否かを判定する(ステップS34)。「次の切替タイミング」が到来していない場合、伴奏要素決定部26は、図7のステップS21に戻る。
「次の切替タイミング」が到来した場合、伴奏要素決定部26は、図6のステップS5と同様にして、曲構成データおよび「現在位置」に基づいて、「現在のセクションタイプ」を更新する(ステップS35)。次に、伴奏要素決定部26は、図6のステップS6と同様にして、曲構成データおよび「現在位置」に基づいて、「次の切替タイミング」を特定する(ステップS36)。次に、伴奏要素決定部26は、「現在のバリエーション」を「次のバリエーション」として記憶されるバリエーションに更新する(ステップS37)。次に、伴奏要素決定部26は、「現在の伴奏要素データ」を「現在のセクションタイプ」および「現在のバリエーション」に対応する伴奏要素データに更新し(ステップS38)、ステップS21に戻る。
ステップS21〜S38が繰り返されることにより、検出された盛り上がり度に応じて「次のバリエーション」が適宜更新され(ステップS27)、「次の切替タイミング」が到来する毎に「現在のセクションのタイプ」、「現在のバリエーション」および「現在の伴奏要素データ」が更新される(ステップS35,S37,S38)。また、フィルイン挿入タイミングが到来する毎に「現在の伴奏要素データ」が更新される(ステップS33)。このようにして更新された「現在伴奏要素データ」に基づいて出力伴奏データが継続的に生成および出力されることにより、曲構成データおよびユーザによる演奏の盛り上がり度に応じた自動伴奏が継続的に出力される。
(7)実施の形態の効果
本実施の形態に係る自動伴奏装置100においては、曲の各区間で検出された盛り上がり度に基づいて次の区間で使用すべき伴奏要素データが決定されるので、ユーザが伴奏要素データについての知識を十分に有していない場合でも、ユーザの演奏に応じた適切な伴奏要素データが選択される。それにより、ユーザの演奏に合わせて自然な自動伴奏を出力することができる。また、ユーザが演奏中に伴奏要素データを切り替える操作を行う必要がないので、ユーザの演奏が妨げられない。
また、本実施の形態では、曲構成データに基づいて各区間の基本セクションタイプが決定され、検出された盛り上がり度および設定された盛り上がり基準に基づいて、各区間の基本バリエーション、および挿入される「フィルイン」セクションのバリエーションが決定される。それにより、ユーザの操作を必要とせずに、種々のセクションのバリエーションを適切に選択することができる。
(8)他の実施の形態
(a)少なくともの一部の伴奏要素データとして補助伴奏要素データが用いられてもよい。図9は、補助伴奏要素データについて説明するための図である。図9の例では、「メイン」セクションの伴奏要素データMA,MB,MC,MDに対応する補助伴奏要素データMA’,MB’,MC’,MD’が用いられる。伴奏要素データMA’,MB’,MC’,MD’のバリエーションは、伴奏要素データMA,MB,MC,MDのバリエーションと同じく、 “A”、“B”、“C”および“D”である。以下、伴奏要素データMA,MB,MC,MDを基本伴奏要素データと呼ぶ。各基本伴奏要素データとそれに対応する補助伴奏要素データとの類似性は、各基本伴奏要素データと他の基本伴奏要素データとの類似性よりも高い。例えば、共通の自動伴奏データADの「メイン」セクションにおいて、基本伴奏要素データMAと基本伴奏要素データMBとの類似性よりも、基本伴奏要素データMAと補助伴奏要素データMA’との類似性、および基本伴奏要素データMBと補助伴奏要素データMB’との類似性の方が高い。
図10および図11は、補助伴奏要素データの使用例を示す図である。図10の例において、区間R11,R12,R13,R14,R15のセクションのタイプはいずれも「メイン」である。また、演奏の盛り上がり度に基づいて、区間R11,R12,R13,R14,R15のバリエーションがそれぞれ“A”、“A”、“B”、“B”および“B”に決定される。「フィルイン」セクションは挿入されない。
本例では、連続する複数の区間でセクションのタイプおよびバリエーションが同じである場合、基本伴奏要素データと補助伴奏要素データとが交互に用いられる。具体的には、区間R11に基本伴奏要素データMAが用いられ、区間R12に補助伴奏要素データMA’が用いられる。また、区間R13,R15に基本伴奏要素データMBが用いられ、区間R14に補助伴奏要素データMB’が用いられる。これにより、セクションのタイプおよびバリエーションが一定であっても、自動伴奏に変化が加わるので、ユーザおよび聴者の情感の低下が抑制される。
図11の例において、区間R21,R22のセクションのタイプはいずれも「メイン」である。また、演奏の盛り上がり度に基づいて、区間R21,R22のバリエーションがそれぞれ“B”および“C”に決定される。「フィルイン」セクションは挿入されない。
本例では、一の区間において、演奏の盛り上がり度に基づいて、基本伴奏要素データと補助伴奏要素データとが切り替えられる。例えば、しきい値TH1,TH2の間に補助しきい値TH1’が設定され、しきい値TH2,TH3の間に補助しきい値TH2’が設定される。各区間の中間位置に補助切替タイミングが設定され、補助切替タイミングでの盛り上がり度に基づいて、基本伴奏要素データと補助伴奏要素データとが切り替えられる。補助切替タイミングは、例えば各区間の開始時点から時間tbだけ経過した時点である。
区間R21の開始時点t21においては、盛り上がり度がしきい値TH1以上であって補助しきい値TH1’よりも低く、補助切替タイミングである時点t21aにおいては、盛り上がり度が補助しきい値TH1’以上であってしきい値TH2より低い。この場合、時点t21から時点t21aまでの範囲で基本伴奏要素データMBが用いられ、時点t21aから時点t22までの範囲で補助伴奏要素データMB’が用いられる。
一方、区間R22の開始時点t22においては、盛り上がり度が補助しきい値TH2’以上であってしきい値TH3より低く、補助切替タイミングである時点t22aにおいては、盛り上がり度がしきい値TH2以上であって補助しきい値TH2’よりも低い。この場合、時点t22から時点t22aまでの範囲で補助伴奏要素データMC’が用いられ、時点t22aから時点t23までの範囲で基本伴奏要素データMCが用いられる。
本例においても、自動伴奏に変化が加わるので、ユーザおよび聴者の情感の低下が抑制される。また、演奏の盛り上がり度に応じて基本伴奏要素データと補助伴奏要素データとが切り替えられるので、ユーザの演奏と自動伴奏と間で相関性および即興性が高まる。それにより、ユーザおよび聴者の情感を効果的に高めることができる。
なお、図10の例において、基本伴奏要素データと補助伴奏要素データとが交互に用いられる代わりに、図11の例のように、盛り上がり度に応じて基本伴奏要素データと補助伴奏要素データとが切り替えられてもよい。また、図11の例において、盛り上がり度に応じて基本伴奏要素データと補助伴奏要素データとが切り替えられる代わりに、図10の例のように本伴奏要素データと補助伴奏要素データとが交互に用いられてもよい。あるいは、基本伴奏要素データおよび補助伴奏要素データの選択条件をユーザが設定可能であってもよい。また、各基本伴奏要素データに対して、2つ以上の補助伴奏要素データが用いられてもよい。他のセクションについても同様に、補助伴奏要素データが用いられてもよい。
(b)上記実施の形態では、各区間で継続的に盛り上がり度が検出されつつ、特定の時点(例えば終了時点)で検出された盛り上がり度に基づいて、次の区間の伴奏要素データが決定されるが、本発明はこれに限らない。例えば、各区間の上記特定の時点でのみ盛り上がり度が検出されてもよい。あるいは、各区間で継続的に検出された盛り上がり度の平均値または積算値等が算出され、その算出値に基づいて次の区間の伴奏要素データが決定されてもよい。
(c)上記実施の形態では、曲の一の区間で検出された盛り上がり度に基づいて当該一の区間の次の区間の伴奏要素データが決定されるが、一の区間で検出された盛り上がり度に基づいて次の区間よりも後の区間の伴奏要素データが決定されてもよい。また、曲の全ての区間で盛り上がり度が検出されるのではなく、一部の区間でのみ盛り上がり度が検出されてもよく、検出された盛り上がり度に基づいて一部の区間の伴奏要素データのみが決定されてもよい。例えば、「メイン」セクションに対応する区間においては、盛り上がり度に基づいて伴奏要素データが決定され、他の区間においては、予め定められたまたはユーザにより指定された伴奏要素データが用いられてもよい。
(d)セクションのタイプおよびバリエーションは上記の例に限定されず、例えば、「メイン」セクションの代わりに、「Aメロ」セクション、「Bメロ」セクションおよび「サビ」セクション等が用いられてもよい。また、盛り上がり度として、音量(ベロシティ)の代わりにまたは音量に加えて、一定拍内における音の数等の他の条件が用いられてもよい。例えば、音数が多いと、ユーザが演奏を盛り上げているつもりでも、各音を大きくする(強く弾く)ことが難しくなり、音量(ベロシティ)が相対的に小さくなる。このような場合には、音量および音数の両方に基づいて盛り上がり度を算出することが好ましい。
(e)自動伴奏装置100は、電子音楽装置1に限らず、パーソナルコンピュータまたはスマートデバイス(smart device)等の他の電子機器に適用されてもよい。
(9)請求項の各構成要素と実施の形態の各部との対応
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。
上記実施の形態では、曲構成データ取得部21が曲構成データ取得手段の例であり、指定部22が指定手段の例であり、演奏データ取得部23が演奏データ取得手段の例であり、盛り上がり度検出部24が盛り上がり度検出手段の例であり、が伴奏要素決定手段の例であり、出力伴奏データ生成部27が出力伴奏データ生成手段の例であり、基準設定部25が基準設定手段の例であり、表示部28が表示手段の例である。
本発明は、自動伴奏機能を備えた電子音楽装置等に有効に利用することができる。
1…電子音楽装置,9…RAM,10…ROM,11…CPU,12…タイマ,13…記憶装置,16…音源,17…効果回路,18…サウンドシステム,21…曲構成データ取得部,22…指定部,23…演奏データ取得部,24…盛り上がり度検出部,25…基準設定部,26…伴奏要素決定部,27…出力伴奏データ生成部,28…表示部,29…基本情報取得部,30…開始終了検出部,31…出力部

Claims (5)

  1. 複数の区間を含む曲の構成を表す曲構成データを取得する曲構成データ取得手段と、
    複数の伴奏要素データを含む自動伴奏データの指定を受け付ける指定手段と、
    ユーザによる前記曲の演奏を表す演奏データを取得する演奏データ取得手段と、
    取得された演奏データに基づいて、前記曲の少なくとも一の区間でユーザによる演奏の盛り上がり度を検出する盛り上がり度検出手段と、
    取得された曲構成データおよび前記一の区間で検出された盛り上がり度に基づいて、前記複数の伴奏要素データのうち当該一の区間の後の区間で使用すべき伴奏要素データを使用伴奏要素データに決定する伴奏要素決定手段と、
    取得された曲構成データおよび決定された使用伴奏要素データに基づいて、前記後の区間で出力されるべき自動伴奏を表す出力伴奏データを生成する出力伴奏データ生成手段とを備える、自動伴奏装置。
  2. 前記複数の伴奏要素データは複数のセクションのタイプに分類され、かつ各セクションのタイプの1または複数の伴奏要素データは1または複数のバリエーションにそれぞれ対応し、
    前記取得された演奏データに盛り上がり度の基準を設定する基準設定手段をさらに備え、
    前記伴奏要素決定手段は、前記曲構成データに基づいて各区間の前記セクションのタイプを決定し、前記検出された盛り上がり度および設定された基準に基づいて前記後の区間の前記バリエーションを決定し、決定した前記後の区間のセクションのタイプおよびバリエーションに対応する伴奏要素データを前記使用伴奏要素データに決定する、請求項1記載の自動伴奏装置。
  3. 前記盛り上がり度は、ユーザによる演奏の音量に対応し、
    前記検出された盛り上がり度および前記設定された基準に基づいて、ユーザによる演奏の音量と前記1または複数のバリエーションとの関係を表示する表示手段をさらに備える、請求項2記載の自動伴奏装置。
  4. 複数の区間を含む曲の構成を表す曲構成データを取得するステップと、
    複数の伴奏要素データを含む自動伴奏データの指定を受け付けるステップと、
    ユーザによる前記曲の演奏を表す演奏データを取得するステップと、
    取得された演奏データに基づいて、前記曲の少なくとも一の区間でユーザによる演奏の盛り上がり度を検出するステップと、
    取得された曲構成データおよび前記一の区間で検出された盛り上がり度に基づいて、前記複数の伴奏要素データのうち当該一の区間の後の区間で使用すべき伴奏要素データを使用伴奏要素データに決定するステップと、
    取得された曲構成データおよび決定された使用伴奏要素データに基づいて、前記後の区間で出力されるべき自動伴奏を表す出力伴奏データを生成するステップとを、
    コンピュータに実行させる、自動伴奏プログラム。
  5. 複数の区間を含む曲の構成を表す曲構成データを取得するステップと、
    複数の伴奏要素データを含む自動伴奏データの指定を受け付けるステップと、
    ユーザによる前記曲の演奏を表す演奏データを取得するステップと、
    取得された演奏データに基づいて、前記曲の少なくとも一の区間でユーザによる演奏の盛り上がり度を検出するステップと、
    取得された曲構成データおよび取得された前記一の区間で検出された盛り上がり度に基づいて、前記複数の伴奏要素データのうち当該一の区間の後の区間で使用すべき伴奏要素データを使用伴奏要素データに決定するステップと、
    取得された曲構成データおよび決定された使用伴奏要素データに基づいて、前記後の区間で出力されるべき自動伴奏を表す出力伴奏データを生成するステップとを含む、出力伴奏データ生成方法。
JP2016060867A 2016-03-24 2016-03-24 自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法 Pending JP2017173631A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016060867A JP2017173631A (ja) 2016-03-24 2016-03-24 自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016060867A JP2017173631A (ja) 2016-03-24 2016-03-24 自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法

Publications (1)

Publication Number Publication Date
JP2017173631A true JP2017173631A (ja) 2017-09-28

Family

ID=59971057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016060867A Pending JP2017173631A (ja) 2016-03-24 2016-03-24 自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法

Country Status (1)

Country Link
JP (1) JP2017173631A (ja)

Similar Documents

Publication Publication Date Title
JP3598598B2 (ja) カラオケ装置
JP2014194536A (ja) コード検出装置およびコード検出方法を実現するためのプログラム
JP6583320B2 (ja) 自動伴奏装置、自動伴奏プログラムおよび伴奏データ生成方法
JP2007140165A (ja) カラオケ装置およびカラオケ装置用プログラム
JP4218066B2 (ja) カラオケ装置およびカラオケ装置用プログラム
JP6803294B2 (ja) カラオケ装置
JP2007334202A (ja) カラオケ装置
JP6177027B2 (ja) 歌唱採点システム
JP2017173631A (ja) 自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法
JP2017173655A (ja) 音評価装置および音評価方法
JP4218064B2 (ja) カラオケ装置およびカラオケ装置用プログラム
JP6728847B2 (ja) 自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法
JP6144592B2 (ja) 歌唱採点システム
JP6144593B2 (ja) 歌唱採点システム
JP6631429B2 (ja) 自動伴奏装置、伴奏データ生成プログラムおよび伴奏データ生成方法
JP6631428B2 (ja) 自動伴奏装置、伴奏データ生成プログラムおよび伴奏データ生成方法
JP2019028407A (ja) ハーモニー教習装置、ハーモニー教習方法およびハーモニー教習プログラム
JP6842356B2 (ja) カラオケ装置
JP2011197564A (ja) 電子音楽装置及びプログラム
JP6427439B2 (ja) カラオケ装置
JP4033146B2 (ja) カラオケ装置
JP6421044B2 (ja) カラオケ装置
JP2007163618A (ja) 伴奏表示装置及びプログラム
JP6412793B2 (ja) カラオケ装置
JP2023047611A (ja) カラオケ装置