JP6520162B2 - 伴奏教習装置および伴奏教習プログラム - Google Patents

伴奏教習装置および伴奏教習プログラム Download PDF

Info

Publication number
JP6520162B2
JP6520162B2 JP2015020055A JP2015020055A JP6520162B2 JP 6520162 B2 JP6520162 B2 JP 6520162B2 JP 2015020055 A JP2015020055 A JP 2015020055A JP 2015020055 A JP2015020055 A JP 2015020055A JP 6520162 B2 JP6520162 B2 JP 6520162B2
Authority
JP
Japan
Prior art keywords
accompaniment
information
user
automatic
tempo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015020055A
Other languages
English (en)
Other versions
JP2016142967A (ja
Inventor
栄里子 鈴木
栄里子 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015020055A priority Critical patent/JP6520162B2/ja
Publication of JP2016142967A publication Critical patent/JP2016142967A/ja
Application granted granted Critical
Publication of JP6520162B2 publication Critical patent/JP6520162B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、楽曲の伴奏を教習するための伴奏教習装置および伴奏教習プログラムに関する。
特許文献1には、自動演奏データを用いて楽曲の一部のパートの楽譜を表示する技術が記載されている。自動演奏データは、複数パートに関する演奏情報を含む。ユーザは、複数パートのうち楽譜を表示すべきパートを選択する。それにより、選択されたパートの楽譜が自動演奏データに基づいて表示される。また、ユーザは、伴奏データの自動生成を選択することができる。この場合、自動生成された伴奏データに基づいて、伴奏パートの楽譜が表示される。
特開2005−202204号公報
上記技術では、MIDI(Musical Instrument Digital Interface)形式等の特定の形式の自動演奏データを用意する必要がある。また、楽譜を表示すべきパートを適切に選択するためには、楽曲のパート構成をユーザが把握しておくことが求められる。それにより、ユーザの負担が大きくなる。
本発明の目的は、ユーザに負担を強いることなく、ユーザが自動伴奏に合わせて違和感なく自らの伴奏を行うことが可能な伴奏教習装置および伴奏教習プログラムを提供することである。
第1の発明に係る伴奏教習装置は、楽曲の音響信号を取得する音響信号取得手段と、取得された音響信号から楽曲におけるコード進行を表すコード情報を抽出するコード情報抽出手段と、抽出されたコード情報に基づいて、ユーザによる伴奏を構成する各音の高さおよび時間軸上の位置を表すユーザ伴奏情報を生成するユーザ伴奏情報生成手段と、ユーザによる伴奏のテンポを表すユーザテンポ情報を取得するユーザテンポ情報取得手段と、取得されたユーザテンポ情報および生成されたユーザ伴奏情報に基づいて、ユーザによる伴奏を構成する各音を演奏すべきタイミングを提示する演奏タイミング提示手段と、自動伴奏のための伴奏パターンを表す伴奏パターンデータを選択するための伴奏パターンデータ選択手段と、自動伴奏のテンポを表す自動テンポ情報を取得する自動テンポ情報取得手段と、選択された伴奏パターンデータおよび抽出されたコード情報に基づいて、楽曲の自動伴奏を表す自動伴奏情報を生成する自動伴奏情報生成手段と、生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで自動伴奏を出力する出力手段とを備え、自動伴奏情報生成手段は、伴奏パターンデータにより表される各音の高さをコード情報により表される各コードに適合するように修正することにより自動伴奏情報を生成する。
この伴奏教習装置においては、楽曲の音響信号から抽出されたコード情報に基づいてユーザ伴奏情報が生成され、そのユーザ伴奏情報に基づいて伴奏を構成する各音を演奏すべきタイミングが提示される。それにより、ユーザは、伴奏を構成する各音を演奏すべきタイミングを容易に認識することができるので、効率良く伴奏を習熟することができる。また、共通のコード情報に基づいてユーザ伴奏情報および自動伴奏情報がそれぞれ生成される。それにより、ユーザは、出力される自動伴奏に合わせて、違和感なく自らの伴奏を行うことができる。
演奏タイミング提示手段は、それぞれ異なる音高に対応する複数の演奏操作子のうち、ユーザによる伴奏を構成する各音の高さに対応する演奏操作子を選択的に提示することにより、ユーザによる伴奏を構成する各音を演奏すべきタイミングを提示してもよい。
この場合、ユーザは、提示のタイミングに従って各演奏操作子を操作することにより楽曲の伴奏を行うことができるので、効率良く伴奏を習熟することができる。
伴奏教習装置は、生成されたユーザ伴奏情報に基づいて、ユーザによる伴奏の楽譜を表示する楽譜表示手段をさらに備え、演奏タイミング提示手段は、表示されたユーザによる伴奏の楽譜においてユーザによる伴奏を構成する各音を演奏すべきタイミングを提示してもよい。
第2の発明に係る伴奏教習装置は、楽曲の音響信号を取得する音響信号取得手段と、取得された音響信号から楽曲におけるコード進行を表すコード情報を抽出するコード情報抽出手段と、抽出されたコード情報に基づいて、楽曲のユーザによる伴奏を表すユーザ伴奏情報を生成するユーザ伴奏情報生成手段と、生成されたユーザ伴奏情報に基づいて、ユーザによる伴奏の楽譜を表示する楽譜表示手段と、自動伴奏のための伴奏パターンを表す伴奏パターンデータを選択するための伴奏パターンデータ選択手段と、自動伴奏のテンポを表す自動テンポ情報を取得する自動テンポ情報取得手段と、選択された伴奏パターンデータおよび抽出されたコード情報に基づいて、楽曲の自動伴奏を表す自動伴奏情報を生成する自動伴奏情報生成手段と、生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで自動伴奏を出力する出力手段とを備え、自動伴奏情報生成手段は、伴奏パターンデータにより表される各音の高さをコード情報により表される各コードに適合するように修正することにより自動伴奏情報を生成する。
この伴奏教習装置においては、楽曲の音響信号から抽出されたコード情報に基づいてユーザ伴奏情報が生成され、そのユーザ伴奏情報に基づいて伴奏の楽譜が表示されるので、ユーザに負担を強いることなく、所望の楽曲の伴奏の楽譜が得られる。また、共通のコード情報に基づいてユーザ伴奏情報および自動伴奏情報がそれぞれ生成される。それにより、ユーザは、出力される自動伴奏に合わせて、違和感なく自らの伴奏を行うことができる。
伴奏教習装置は、生成されたユーザ伴奏情報および生成された自動伴奏情報に基づいて、自動伴奏の音量を調整する音量調整手段をさらに備えてもよい。
伴奏教習装置は、ユーザによる伴奏の態様を伴奏タイプとして設定するための伴奏タイプ設定手段をさらに備え、ユーザ伴奏情報生成手段は、抽出されたコード情報および設定された伴奏タイプに基づいて、楽曲のユーザによる伴奏を表すユーザ伴奏情報を生成してもよい。この場合、伴奏の態様が伴奏タイプとして設定されるので、ユーザは所望の態様で楽曲の伴奏を行うことができる。
第3の発明に係る伴奏教習プログラムは、楽曲の音響信号を取得するステップと、取得された音響信号から楽曲におけるコード進行を表すコード情報を抽出するステップと、抽出されたコード情報に基づいて、ユーザによる伴奏を構成する各音の高さおよび時間軸上の位置を表すユーザ伴奏情報を生成するステップと、抽出されたコード情報に基づいて、ユーザによる伴奏を構成する各音の高さおよび時間軸上の位置を表すユーザ伴奏情報を生成するステップと、ユーザによる伴奏のテンポを表すユーザテンポ情報を取得するステップと、取得されたユーザテンポ情報および生成されたユーザ伴奏情報に基づいて、ユーザによる伴奏を構成する各音を演奏すべきタイミングを提示するステップと、自動伴奏のための伴奏パターンを表す伴奏パターンデータを選択するステップと、自動伴奏のテンポを表す自動テンポ情報を取得するステップと、選択された伴奏パターンデータおよび抽出されたコード情報に基づいて、楽曲の自動伴奏を表す自動伴奏情報を生成するステップと、生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで自動伴奏を出力するステップとを、コンピュータに実行させ、自動伴奏情報を生成するステップは、伴奏パターンデータにより表される各音の高さをコード情報により表される各コードに適合するように修正することにより自動伴奏情報を生成することを含む。
第4の発明に係る伴奏教習プログラムは、楽曲の音響信号を取得するステップと、取得された音響信号から楽曲におけるコード進行を表すコード情報を抽出するステップと、抽出されたコード情報に基づいて、楽曲のユーザによる伴奏を表すユーザ伴奏情報を生成するステップと、生成されたユーザ伴奏情報に基づいて、ユーザによる伴奏の楽譜を表示するステップと、自動伴奏のための伴奏パターンを表す伴奏パターンデータを選択するステップと、自動伴奏のテンポを表す自動テンポ情報を取得するステップと、選択された伴奏パターンデータおよび抽出されたコード情報に基づいて、楽曲の自動伴奏を表す自動伴奏情報を生成するステップと、生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで自動伴奏を出力するステップとを、コンピュータに実行させ、自動伴奏情報を生成するステップは、伴奏パターンデータにより表される各音の高さをコード情報により表される各コードに適合するように修正することにより自動伴奏情報を生成することを含む。
本発明によれば、ユーザに負担を強いることなく、ユーザは自動伴奏に合わせて違和感なく自らの伴奏を行うことができる
伴奏教習装置の機能的な構成を示すブロック図である。 伴奏教習装置のハードウエア構成の一例を示すブロック図である。 伴奏タイプ設定画面の一例を示す図である。 ユーザ伴奏情報の生成について説明するための模式図である。 自動伴奏の音量調整例について説明するための図である。 楽譜表示装置における楽譜表示処理の例を示すフローチャートである。 電子楽器における自動伴奏処理の例を示すフローチャートである。 電子楽器における自動伴奏処理の例を示すフローチャートである。
以下、本発明の実施の形態に係る伴奏教習装置および伴奏教習プログラムについて図面を用いて詳細に説明する。
(1)伴奏教習装置の機能的構成
図1は、伴奏教習装置の機能的な構成を示すブロック図である。図1の例では、伴奏教習装置50が、楽譜表示装置1および電子楽器2を含む。楽譜表示装置1は、音響信号取得部11、コード情報抽出部12、伴奏タイプ設定部13、ユーザ伴奏情報生成部14、楽譜表示部15、演奏箇所提示部16およびテンポ情報取得部17を含む。
音響信号取得部11は、楽曲を表す音響信号を取得する。音響信号は、例えばオーディオデータである。コード情報抽出部12は、取得された音響信号からコード進行を表すコード情報を抽出する。コード進行とは、時間軸上における1または複数のコードの並びを意味する。コード情報は、拍点等の楽曲における時間位置を表す情報を含んでもよい。コード情報の抽出には、例えば、Masataka Goto et al.“SONGLE: A WEB SERVICE FOR ACTIVE MUSIC LISTENING IMPROVED BY USER CONTRIBUTIONS(ISMIR 2011)”等に記載される技術を用いることができる。
伴奏タイプ設定部13は、ユーザによる伴奏の態様を表す伴奏タイプを設定する。伴奏タイプの詳細については後述する。以下、ユーザによる伴奏をユーザ伴奏と呼び、そのユーザ伴奏に含まれる音をユーザ伴奏音と呼ぶ。ユーザ伴奏情報生成部14は、抽出されたコード情報および設定された伴奏タイプに基づいて、ユーザ伴奏を表すユーザ伴奏情報を生成する。ユーザ伴奏情報は、伴奏に用いられる楽器を表す情報を含む。ユーザ伴奏情報の詳細については後述する。楽譜表示部15は、生成されたユーザ伴奏情報に基づいて楽譜画像データを生成し、その楽譜画像データに基づいてユーザ伴奏の楽譜(以下、伴奏楽譜と呼ぶ)を表示する。伴奏楽譜は、音の並びを表す種々の形態を含み、五線譜に限らず、タブ譜等の種々の楽器に対応する楽譜であってもよく、ピアノロール画面であってもよく、音名または階名を表すテキスト等であってもよい。
演奏箇所提示部16は、伴奏楽譜において現時点で演奏すべき箇所を提示する。例えば、演奏すべき箇所を示す縦線等のポインタが伴奏楽譜上に表示される。または、演奏すべき小節を含む一定範囲の背景が、他の範囲の背景と異なる色で表示されてもよく、演奏すべき箇所の音符の表示態様が他の箇所と異なるように変化されてもよい。あるいは、演奏すべき箇所に対応する伴奏楽譜の部分のみが選択的に表示されてもよい。テンポ情報取得部17は、ユーザ伴奏のテンポを表すユーザテンポ情報を取得する。例えば、ユーザがユーザ伴奏のテンポを入力することによりユーザテンポ情報が取得される。あるいは、音響信号から楽曲のテンポがユーザ伴奏のテンポとして抽出されることにより、ユーザテンポ情報が取得されてもよい。ユーザテンポ情報および後述の自動テンポ情報により表されるテンポは、楽曲の全体で一定であってもよく、楽曲の途中で変化してもよい。
電子楽器2は、伴奏パターンデータ選択部21、自動伴奏情報生成部22、自動伴奏音量調整部23、テンポ情報取得部24、自動伴奏出力部25、鍵盤ガイド部26、提示条件設定部27およびを含む。伴奏パターンデータ選択部21は、伴奏パターンデータを選択する。伴奏パターンデータの詳細については後述する。自動伴奏情報生成部22は、選択された伴奏パターンデータおよび抽出されたコード情報に基づいて、自動伴奏を表す自動伴奏情報を生成する。自動伴奏音量調整部23は、自動伴奏における各伴奏パートの音量を調整する。
テンポ情報取得部24は、自動伴奏のテンポを表す自動テンポ情報を取得する。例えば、ユーザが自動伴奏のテンポを入力することにより自動テンポ情報が取得される。あるいは、楽譜表示装置1から電子楽器2にユーザテンポ情報が与えられ、そのユーザテンポ情報が自動テンポ情報として取得されてもよい。自動伴奏出力部25は、生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで自動伴奏を出力する。鍵盤ガイド部26は、ユーザ伴奏情報に基づいて、現時点で演奏すべき鍵盤をガイドする。例えば、鍵盤ガイド部26は、該当の鍵盤の近傍に設けられた発光ダイオードを点灯させることにより、演奏すべき鍵盤をガイドする。提示条件設定部27は、鍵盤のガイドのオンオフを表す提示条件を設定する。また、楽譜表示装置1のユーザ伴奏情報生成部14により生成されたユーザ伴奏情報に基づいて、ユーザ伴奏が自動的に出力されてもよい。その場合、提示条件が、ユーザ伴奏の自動出力のオンオフおよび音量等を含んでもよい。
(2)伴奏教習装置のハードウエア構成
図2は、伴奏教習装置50のハードウエア構成の一例を示すブロック図である。本例において、楽譜表示装置1はタブレット端末であり、電子楽器2は、電子ピアノ等の鍵盤楽器である。楽譜表示装置1として、タブレット端末の代わりに、パーソナルコンピュータまたはスマートフォンが用いられてもよい。また、電子楽器2として、鍵盤楽器の代わりに、ギター等の他の楽器が用いられてもよい。
楽譜表示装置1は、タッチパネルディスプレイ101、検出回路102および表示回路103を備える。タッチパネルディスプレイ101は、検出回路102および表示回路103を介してバス100に接続される。タッチパネルディスプレイ101に上記の伴奏楽譜および他の種々の情報が表示される。ユーザは、タッチパネルディスプレイ101を操作することにより種々の動作を指示することができる。
楽譜表示装置1は、RAM(ランダムアクセスメモリ)111、ROM(リードオンリメモリ)112、CPU(中央演算処理装置)113、記憶装置114および通信I/F(インターフェース)115をさらに備える。RAM111、ROM112、CPU113、記憶装置114および通信I/F115はそれぞれバス100に接続される。RAM111は、例えば揮発性メモリからなり、CPU113の作業領域として用いられるとともに、種々のデータを一時的に記憶する。ROM112は、例えば不揮発性メモリからなり、システムプログラムおよび楽譜表示プログラム等のコンピュータプログラムを記憶する。CPU113がコンピュータプログラムを実行することにより、図1の楽譜表示装置1の各機能が実現される。
記憶装置114は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含む。この記憶装置114には、上記の音響信号、コード情報、テンポ情報、ユーザ伴奏情報および楽譜画像データ等が記憶される。また、上記の楽譜表示プログラムが記憶装置114に記憶されてもよい。通信I/F115は、電子楽器2に接続される。通信I/F115を介して、電子楽器2に対する種々のデータの送受信が行われる。また、通信I/F115が通信網に接続されてもよい。
なお、楽譜表示プログラムは、コンピュータが読み取り可能な記録媒体に格納された形態で提供され、ROM112または記憶装置114にインストールされてもよい。また、通信I/F115が通信網に接続されている場合、通信網に接続されたサーバから配信された楽譜表示プログラムがROM112または記憶装置114にインストールされてもよい。
電子楽器2は、演奏操作子201、設定操作子202、表示部203、検出回路204,205および表示回路206を備える。演奏操作子201は、複数の鍵盤を含み、検出回路204を介してバス200に接続される。設定操作子202は、オンオフ操作されるスイッチ、回転操作されるロータリエンコーダ、またはスライド操作されるリニアエンコーダ等を含み、検出回路205を介してバス200に接続される。表示部203は、表示回路206を介してバス200に接続される。
電子楽器2は、RAM211、ROM212、CPU213、タイマ213a、記憶装置214および通信I/F215をさらに備える。RAM211、ROM212、CPU213、記憶装置214および通信I/F215はそれぞれバス200に接続され、タイマ213aはCPU213に接続される。RAM211は、例えば揮発性メモリからなり、CPU213の作業領域として用いられるとともに、種々のデータを一時的に記憶する。ROM212は、例えば不揮発性メモリからなり、システムプログラムおよび自動伴奏プログラム等のコンピュータプログラムを記憶する。CPU213がコンピュータプログラムを実行することにより、図1の電子楽器2の各機能が実現される。
記憶装置214は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含む。この記憶装置214には、上記の複数の伴奏パターンデータおよび自動伴奏情報等が記憶される。上記の自動伴奏プログラムが記憶装置214に記憶されてもよい。通信I/F215は、楽譜表示装置1に接続される。通信I/F215を介して、楽譜表示装置1に対する種々のデータの送受信が行われる。また、通信I/F215が通信網に接続されてもよい。
電子楽器2は、音源221、効果回路222およびサウンドシステム223をさらに備える。音源221および効果回路222はバス200に接続され、サウンドシステム223は効果回路222に接続される。音源221は、記憶装置214に記憶される自動伴奏情報等に基づいて楽音信号を生成する。効果回路222は、音源221により生成される楽音信号に音響効果を付与する。サウンドシステム223は、デジタルアナログ(D/A)変換回路、増幅器およびスピーカを含む。このサウンドシステム223は、音源221から効果回路222を通して与えられる楽音信号をアナログ音信号に変換し、アナログ音信号に基づく音を発生する。
(3)伴奏タイプの設定
図1の伴奏タイプ設定部13による伴奏タイプの設定について説明する。図2のタッチパネルディスプレイ101には、伴奏タイプを設定するための伴奏タイプ設定画面が表示される。伴奏タイプ設定画面上におけるユーザの操作に基づいて、伴奏タイプが設定される。この場合、楽曲の全体に対して共通の伴奏タイプが設定されてもよく、楽曲の部分毎に異なる伴奏タイプが設定されてもよい。図3は、伴奏タイプ設定画面の一例を示す図である。図3の伴奏タイプ設定画面30は、奏法選択領域31、音符長さ選択領域32、コードベース音域設定領域33、OKボタン34およびキャンセルボタン35を含む。
奏法選択領域31においては、各コードの奏法(演奏方法)が選択される。図3の例では、奏法として、「アルペジオ」または「コード弾き」のいずれかが選択される。「アルペジオ」とは、コードの構成音を分散的に演奏することを意味する。「コード弾き」とは、コードの構成音を同時に演奏することを意味する。なお、「アルペジオ」および「コード弾き」に限らず、他の奏法が選択可能であってもよい。また、複数種類の奏法の組み合わせが選択可能であってもよい。
音符長さ選択領域32においては、一音の長さ(以下、音符長さと呼ぶ)が選択される。音符長さは、小節単位で表されてもよく、拍単位で表されてもよく、または2分音符もしくは4分音符等の音符の種類で表されてもよい。コードベース音域設定領域33においては、コードのベース音(以下、コードベースと呼ぶ)を配置すべき音域が設定される。コードベースは、コードのルート音(1度の音)、または分数コード(オンコード)において指定されたベース音(以下、オンベースと呼ぶ)である。図3の例では、コードベースを配置すべき音域が、“G♯2”から“G3”までの間に設定される。“G♯”および“G”は音名を表し、“2”および“3”は、オクタープの高さを表す。“C3”が、大譜表の中央の“C(ド)”(ト音記号の五線とヘ音記号の五線との間に位置する“C”)に相当する。音名および数値によって音高が表される代わりに、数値のみ(例えば、MIDI(Musical Instrument Digital Interface)規格のノートナンバーである“0”〜“127”)によって音高が表されてもよい。音高をMIDI規格のノードナンバーで表す場合、“C3”が“60”となり、図3の“G♯2”が“56”となり、“G3”が“67”となる。以下、必要に応じて、MIDI規格のノートナンバーを括弧書きで示す。
また、奏法として「アルペジオ」が選択される場合、コードの構成音の度数の演奏すべき順序が任意に設定されてもよい。この場合、オンベースとしてルート音以外が指定されると、設定された順序が自動的に変換されてもよい。例えば、演奏すべき順序が「1度→5度→3度→5度」のときにオンベースとして5度の音が指定された場合、コードが第二転回形となり、演奏すべき順序が「5度→3度→1度→3度」に変換される。また、オンベースとして3度の音が選択された場合、コードが第一転回形となり、演奏すべき順序が「3度→1度→5度→1度」に変換される。このように、音高の変化のパターンが維持されるように、コードの構成音を用いて伴奏の各音高が決定される。本例では、音高の変化のパターンとして、第1音がコードベースであり、第2音が第1音よりも5度または6度高く、第3音が第2音よりも3度または4度低く、第4音が第2音と等しい、また、奏法として「コード弾き」が選択される場合、オープンボイシングおよびクローズボイシング等のボイシングの種類が選択可能であってもよい。オンコードの場合には、対応する転回形で伴奏の各音高が決定される。
(4)ユーザ伴奏情報の生成
図1のユーザ伴奏情報生成部14によるユーザ伴奏情報の生成について説明する。図4は、ユーザ伴奏情報の生成について説明するための模式図である。図4においては、ユーザ伴奏情報が五線譜で表される。図4(a)には、コード情報として抽出されるコードの例が示され、図4(b)および図4(c)には、図4(a)のコードから生成されるユーザ伴奏情報の例がそれぞれ示される。図4(a)の例では、第1小節のコードが『C』(Cmaj)であり、第2小節のコードが『FonC』(Fmaj on C)である。拍子は4分の4である。
図4(b)の例では、伴奏タイプとして、奏法が「アルペジオ」であり、音符長さが「8分音符」である。また、コードの構成音の演奏すべき順序が「1度→5度→3度→5度」に設定される。この場合、第1小節の『C』においては、設定されたコードベースの音域に従い、8分音符で“C3(60)”、“G3(67)”、“E3(64)”および“G3(67)”が順にかつ繰り返し表される。また、第2小節の『FonC』においては、コードベースが5度の音(“C”)となるため、コードの構成音の演奏すべき順序が「5度→3度→1度→3度」に変換される。この場合、設定されたコードベースの音域に従い、8分音符で“C3(60)”、“A3(69)”、“F3(65)”および“A3(69)”が順にかつ繰り返し表される。
図4(c)の例では、伴奏タイプとして、奏法が「コード弾き」であり、音符長さが「1拍」(4分音符)である。この場合、第1小節『C』においては、設定されたコードベースの音域に従い、“C3(60)”、“E3(64)”および“G3(67)”の4分音符で構成される和音が拍毎に繰り返し表され、第2小節『FonC』においては、設定されたコードベースの音域に従い、“C3(60)”、“F3(65)”および“A3(69)”の4分音符で構成される和音が拍毎に繰り返し表される。
このように、音響信号から抽出されたコード情報および設定された伴奏タイプに基づいて、ユーザ伴奏情報が生成される。そのユーザ伴奏情報に基づいて、伴奏楽譜が表示される。この場合、音響信号として容易に入手可能なオーディオデータを用いることができる。また、オーディオデータに実際に含まれるパート構成等をユーザが把握する必要がない。そのため、ユーザは、所望の楽曲のオーディオデータを用意するだけでよい。したがって、ユーザに負担を強いることなく、所望の楽曲の伴奏楽譜が容易に得られる。
(5)自動伴奏情報の生成および音量調整
電子楽器2の記憶装置214には、種々の音楽カテゴリーにそれぞれ対応する複数の伴奏パターンデータが記憶される。各伴奏パターンデータは、複数の伴奏パートにより構成されてもよい。所望の音楽カテゴリーに対応する伴奏パターンデータが選択されるとともに、コード進行が決定されると、伴奏パート毎に、選択された伴奏パターンデータにより表される各音の高さが、決定されたコード進行に適合するように修正され、自動伴奏情報が生成される。その自動伴奏情報に基づいて、所望の音楽カテゴリーの自動伴奏が出力される。
上記のように、図1の自動伴奏情報生成部22は、コード情報抽出部12により抽出されたコード情報に基づいて、自動伴奏情報を生成する。この場合、ユーザ伴奏情報と自動伴奏情報とが共通のコード進行に基づいて生成されるので、ユーザ伴奏と自動伴奏との協和性が高い。そのため、ユーザは、自動伴奏に合わせて自らの伴奏を違和感なく行うことができる。
各伴奏パターンデータは、対応する音楽カテゴリーに適したテンポを表す推奨テンポ情報を含んでもよい。ユーザが、伴奏パターンデータに基づく自動伴奏に合わせて伴奏を行う場合、推奨テンポ情報および上記の自動テンポ情報のいずれかを任意に選択可能であってもよい。この場合、選択されたテンポ情報が表すテンポで自動伴奏が出力される。
図1の自動伴奏音量調整部23は、ユーザ伴奏情報生成部14により生成されたユーザ伴奏情報に基づいて、自動伴奏の音量を伴奏パート単位で調整する。図5は、自動伴奏の伴奏パート単位での音量調整例について説明するための図である。図5(a)に示すように、ユーザ伴奏の楽器はピアノである。また、図5(b)に示すように、選択された伴奏パターンデータは、自動伴奏の伴奏パートとして、ギター、ベース、ピアノ、ストリングスおよびドラムを含む。ユーザ伴奏および自動伴奏の各伴奏パートには音量が設定される。
上記伴奏パターンデータに基づいて自動伴奏が出力されつつユーザが実際に伴奏を行うと、自動伴奏のピアノの音とユーザの伴奏のピアノの音とが混在し、ユーザは自らの伴奏の音を認識しにくくなる。そこで、図5(b)の例のように、自動伴奏のピアノの音量が“0”(ミュート)に調整されると、自動伴奏からピアノの音が消去されるので、ユーザは、自らの伴奏によるピアノの音を認識しやすくなる。自動伴奏の伴奏パート単位での音量調整の有無は、任意に選択可能であってもよい。また、ユーザ伴奏が自動出力される等の条件が満たされる場合にのみ、自動伴奏の伴奏パート単位での音量調整が行われてもよい。
図5の例では、自動伴奏のいずれかの伴奏パートの(音色を表す)楽器がユーザ伴奏の(音色を表す)楽器と同じ場合に、該当する伴奏パートの音量が0に調整されるが、ユーザによる伴奏の音と自動伴奏の音との識別が容易になる程度に、該当の伴奏パートの音量が小さく調整されてもよい。また、自動伴奏の各伴奏パートの楽器がユーザ伴奏の楽器と異なる場合であっても、自動伴奏がユーザによる伴奏の妨げとなる可能性がある場合には、自動伴奏の音量調整が行われてもよい。例えば、自動伴奏情報により表されるいずれかの伴奏パートのリズムが、ユーザ伴奏情報により表される伴奏のリズムと一致または類似する場合、その伴奏パートの音量が0または小さく調整されてもよい。具体例として、ユーザ伴奏の楽器(音色)がピアノでありかつ奏法がアルペジオであるときに、自動伴奏がギターパートのアルペジオを含む場合、音色は異なっていてもリズムが類似することがある。その場合、ユーザが自らの伴奏を聴き取りにくくなるおそれがあるので、類似するリズムの伴奏パート(この場合、ギターパート)の自動伴奏の音量を小さくするまたはミュートすることにより、ユーザは、自らの伴奏を聴き取りやすくなり、伴奏を行いやすくなる。
(6)伴奏教習処理
本実施の形態に係る伴奏教習装置50においては、伴奏教習プログラムが実行されることにより、伴奏教習処理が行われる。伴奏教習プログラムは、楽譜表示プログラムおよび自動伴奏プログラムを含み、伴奏教習処理は、楽譜表示処理および自動伴奏処理を含む。図2の楽譜表示装置1において、CPU113がROM112または記憶装置114に記憶される楽譜表示プログラムを実行することにより、楽譜表示処理が行われ、図2の電子楽器2において、CPU213がROM212または記憶装置214に記憶される自動伴奏プログラムを実行することにより、自動伴奏処理が行われる。
(6−1)楽譜表示処理
図6は、楽譜表示処理の例を示すフローチャートである。まず、CPU113は、音響信号を取得し(ステップS1)、取得された音響信号からコード情報およびテンポ情報を抽出する(ステップS2)。音響信号は、図2の記憶装置114に予め記憶されていてもよく、通信I/F115を介して外部から与えられてもよい。あるいは、外部の音がマイクを介して入力されることにより音響信号が取得されてもよい。
次に、CPU113は、ユーザによるタッチパネルディスプレイ101の操作に基づいて、伴奏タイプを設定する(ステップS3)。次に、CPU113は、ステップS1で取得された音響信号およびステップS3で決定された伴奏タイプに基づいて、ユーザ伴奏情報を生成する(ステップS4)。次に、CPU113は、生成されたユーザ伴奏情報に基づいて楽譜画像データを生成し(ステップS5)、生成された楽譜画像データに基づいてタッチパネルディスプレイ101に伴奏楽譜を表示する(ステップS6)。この場合、楽曲の長さ等に基づいて、伴奏楽譜の全体が表示されてもよく、または伴奏楽譜の一部のみが表示されてもよい。
次に、CPU113は、楽譜表示装置1が電子楽器2と接続されているか否かを判定する(ステップS7)。例えば、アクティブセンシングの受信状態に基づいて楽譜表示装置1と電子楽器2との接続状態の判定が行われる。楽譜表示装置1が電子楽器2と接続されていない場合、CPU113は、楽譜表示処理を終了する。楽譜表示装置1が電子楽器2と接続されている場合、CPU113は、ステップS2で抽出されたコード情報およびステップS4で生成されたユーザ伴奏情報が電子楽器2に既に送信されているか否かを判定する(ステップS8)。コード情報およびユーザ伴奏情報が送信されていない場合、CPU113は、通信I/F115を介して電子楽器2にコード情報およびユーザ伴奏情報を一括で送信する(ステップS9)。また、コード情報およびユーザ伴奏情報とともにユーザテンポ情報が電子楽器2に送信されてもよい。この場合、電子楽器2において、ユーザテンポ情報を自動テンポ情報として用いて自動伴奏および鍵盤のガイドを行うことができる。
次に、CPU113は、電子楽器2が上記コード情報に基づく自動伴奏を行っているか否かを判定する(ステップS10)。例えば、電子楽器2の動作状態を表すMIDIメッセージが所定の時間間隔で電子楽器2から楽譜表示装置1に送信される。CPU113は、電子楽器2からのMIDIメッセージに基づいて、ステップS10および後述のステップS13の判定を行う。電子楽器2がコード情報に基づく自動伴奏を行っていない場合、CPU113は、楽譜表示処理を終了する。電子楽器2がコード情報に基づく自動伴奏を行っている場合、CPU113は、電子楽器2による自動伴奏に追従するように、伴奏楽譜において現時点で演奏すべき箇所を提示する(ステップS11)。例えば、上記のように、演奏すべき箇所を示すポインタが伴奏楽譜上に表示されてもよく、演奏すべき箇所の背景の色が変化されてもよく、演奏すべき箇所のみが選択的に表示されてもよい。
次に、CPU113は、ユーザ伴奏情報に基づいてその時点でユーザが演奏すべき音高を特定し、その音高を通信I/F115を介して電子楽器2に送信する(ステップS12)。なお、電子楽器2において、ステップS9で送信されたユーザ伴奏情報に基づいてその時点で演奏すべき音高を特定することが可能であれば、ステップS12は省略されてもよい。次に、CPU113は、電子楽器2の自動伴奏が終了したか否かを判定する(ステップS13)。電子楽器2の自動伴奏が終了していない場合、CPU113は、ステップS7に戻る。電子楽器2の自動伴奏が終了するとCPU113は、楽譜表示処理を終了する。
(6−2)自動伴奏処理
図7および図8は、自動伴奏処理の例を示すフローチャートである。図7に示すように、まず、CPU213は、通信I/F215を介して楽譜表示装置1からのコード情報およびユーザ伴奏情報を取得する(ステップS21)。次に、CPU213は、ユーザによる設定操作子202の操作に基づいて、提示条件を設定する(ステップS22)。次に、CPU213は、ユーザによる設定操作子202の操作に基づいて、伴奏パターンデータを選択する(ステップS23)。次に、CPU213は、ステップS21で取得されたユーザ伴奏情報に基づいて、決定された伴奏パターンデータに含まれる複数の伴奏パートのうち、音量調整すべき伴奏パートを決定する(ステップS24)。なお、自動伴奏の音量調整が行われない場合には、ステップS24は省略される。
次に、CPU213は、自動伴奏の開始の指示があるか否かを判定する(ステップS25)。例えば、ユーザが、設定操作子202に含まれる「スタート」ボタンを操作することにより、自動伴奏の開始が指示される。自動伴奏の開始の指示がない場合、CPU213は、ステップS27に進む。自動伴奏の開始の指示がある場合、CPU213は、タイマ213aを起動するとともに、RUNフラグをオンに設定する(ステップS26)。これにより、自動伴奏が開始される。続いて、ステップS27において、CPU213は、自動伴奏の終了の指示があるか否かを判定する。例えば、ユーザが、設定操作子202に含まれる「STOP」ボタンを操作する、または楽曲の最後まで自動伴奏が行われることにより、自動伴奏の終了が指示される。自動伴奏の終了の指示がない場合、CPU213は、図8のステップS29に進む。自動伴奏の終了の指示がある場合、CPU213は、タイマ213aを停止するとともに、RUNフラグをオフに設定する(ステップS28)。これにより、自動伴奏が停止される。
ステップS29において、CPU213は、RUNフラグがオンであるか否かを判定する。RUNフラグがオフである場合、CPU213は、ステップS37に進む。RUNフラグがオンである場合、CPU213は、ステップS21で取得されたコード情報、およびタイマ213aにより得られる時間情報に基づいて、現時点におけるコードを特定する(ステップS30)。次に、CPU213は、決定された伴奏パターンデータおよび特定されたコードに基づいて、現時点で出力すべき自動伴奏音を表す楽音信号を自動伴奏情報として生成し、生成された楽音信号に基づいて自動伴奏音を出力させる(ステップS31)。具体的には、伴奏パターンデータから現時点に対応する音(音符情報)が抽出され、その音の高さが特定されたコードに適合するように修正される。これにより、現時点で出力すべき音を表す楽音信号が生成される。なお、ステップS24で決定された音量調整すべき伴奏パートに関しては、生成された楽音信号の音量調整が行われる。また、音量調整の内容がミュートである場合には、該当の伴奏パートの楽音信号は生成されない。
次に、CPU213は、現時点で演奏すべきユーザ伴奏の音高を取得する(ステップS32)。この場合、図6のステップS12で楽譜表示装置1から送信される音高が通信I/F215を介して該当の音高として取得されてもよく、ステップS21で取得されたユーザ伴奏情報に基づいて該当の音高が特定されてもよい。次に、CPU213は、ステップS22で設定された提示条件に基づいて、鍵盤のガイドを行うか否かを判定する(ステップS33)。鍵盤のガイドが行われる場合、CPU213は、ステップS35に進む。鍵盤のガイドが行われない場合、CPU213は、ステップS32で取得された音高に対応する鍵盤のガイドを行い(ステップS34)、ステップS35に進む。ステップS35において、CPU213は、ステップS22で設定された提示条件に基づいて、ユーザ伴奏の自動出力を行うか否かを判定する(ステップS35)。ユーザ伴奏の自動出力が行われない場合、CPU213は、ステップS37に進む。ユーザ伴奏の自動出力が行われる場合、CPU213は、ステップS32で特定された音高の音を表す楽音信号を生成し、その楽音信号に基づいてユーザ伴奏音を出力させ(ステップS36)、ステップS37に進む。
ステップS37において、CPU213は、RUNフラグがオフであるか否かを判定する。RUNフラグがオンである場合、CPU213は、ステップS27に戻る。RUNフラグがオフである場合、CPU213は、自動伴奏処理を継続するか否かを判定し(ステップS38)、継続する場合には図7のステップS22に戻り、継続しない場合には自動伴奏処理を終了する。
(7)効果
本実施の形態に係る伴奏教習装置50においては、楽曲の音響信号から抽出されたコード情報および設定された伴奏タイプに基づいて、ユーザ伴奏情報が生成され、そのユーザ伴奏情報に基づいて伴奏楽譜が表示される。この場合、音響信号として容易に入手可能なオーディオデータを用いることができる。また、オーディオデータに実際に含まれるパート構成等をユーザが把握する必要がない。そのため、ユーザは、所望の楽曲のオーディオデータを用意するだけでよい。したがって、ユーザに負担を強いることなく、所望の楽曲の伴奏の楽譜が得られる。また、伴奏の態様が伴奏タイプとして設定されるので、ユーザは所望の態様で楽曲の伴奏を行うことができる。
また、本実施の形態では、ユーザテンポ情報およびユーザ伴奏情報に基づいて、伴奏楽譜において現時点で演奏すべき箇所が提示されるとともに、現時点で演奏すべき鍵盤がガイドされる。それにより、ユーザが効率良く伴奏を習熟することができる。また、ユーザが、基のオーディオデータにおけるテンポの変化に合わせて伴奏を練習することもできる。
また、本実施の形態では、選択された伴奏パターンデータおよび抽出されたコード情報に基づいて、自動伴奏情報が生成され、その自動伴奏情報に基づいて自動伴奏が出力される。この場合、共通のコード情報に基づいてユーザ伴奏情報および自動伴奏情報がそれぞれ生成されるので、ユーザは、出力される自動伴奏に合わせて、違和感なく自らの伴奏を行うことができる。さらに、ユーザは、自ら選択した所望の音楽カテゴリーに対応する伴奏パターンで楽曲のコード進行を確認することができる。
(8)他の実施の形態
上記実施の形態では、楽譜表示装置1と電子楽器2とが別体であるが、電子楽器2に楽譜表示装置1の機能が搭載されてもよい。また、上記実施の形態では、音響信号としてオーディオデータが用いられるが、音響信号としてMIDI(Musical Instrument Digital Interface)データ等の他の形式のデータが用いられてもよい。
(9)請求項の各構成要素と実施の形態の各部との対応
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。
上記実施の形態では、音響信号取得部11が音響信号取得手段の例であり、コード情報抽出部12がコード情報抽出手段の例であり、伴奏タイプ設定部13が伴奏タイプ設定手段の例であり、ユーザ伴奏情報生成部14がユーザ伴奏情報生成手段の例であり、楽譜表示部15が楽譜表示手段の例である。また、テンポ情報取得部17がユーザテンポ情報取得手段の例であり、演奏箇所提示部16および鍵盤ガイド部26が演奏タイミング提示手段の例であり、鍵盤が演奏操作子の例であり、伴奏パターンデータ選択部21が伴奏パターンデータ選択手段の例であり、テンポ情報取得部24が自動テンポ情報取得手段の例であり、自動伴奏情報生成部22が自動伴奏情報生成手段の例であり、自動伴奏出力部25が出力手段の例であり、自動伴奏音量調整部23が音量調整手段の例である。
(10)参考形態
本参考形態に係る伴奏教習装置は、楽曲の音響信号を取得する音響信号取得手段と、取得された音響信号から楽曲におけるコード進行を表すコード情報を抽出するコード情報抽出手段と、ユーザによる伴奏の態様を伴奏タイプとして設定するための伴奏タイプ設定手段と、抽出されたコード情報および設定された伴奏タイプに基づいて、楽曲のユーザによる伴奏を表すユーザ伴奏情報を生成するユーザ伴奏情報生成手段と、生成されたユーザ伴奏情報に基づいて、伴奏の楽譜を表示する楽譜表示手段とを備える。
本参考形態に係る伴奏教習プログラムは、楽曲の音響信号を取得するステップと、取得された音響信号から楽曲におけるコード進行を表すコード情報を抽出するステップと、ユーザによる伴奏の態様を伴奏タイプとして設定するステップと、抽出されたコード情報および設定された伴奏タイプに基づいて、楽曲のユーザによる伴奏を表すユーザ伴奏情報を生成するステップと、生成されたユーザ伴奏情報に基づいて、伴奏の楽譜を表示するステップとを、コンピュータに実行させる。
この伴奏教習装置においては、楽曲の音響信号から抽出されたコード情報および設定された伴奏タイプに基づいてユーザ伴奏情報が生成され、そのユーザ伴奏情報に基づいて伴奏の楽譜が表示されるので、ユーザに負担を強いることなく、所望の楽曲の伴奏の楽譜が得られる。また、伴奏の態様が伴奏タイプとして設定されるので、ユーザは所望の態様で楽曲の伴奏を行うことができる。
ユーザ伴奏情報は、ユーザによる伴奏を構成する各音の高さおよび時間軸上の位置を表し、伴奏教習装置は、ユーザによる伴奏のテンポを表すユーザテンポ情報を取得するユーザテンポ情報取得手段と、取得されたユーザテンポ情報および生成されたユーザ伴奏情報に基づいて、伴奏を構成する各音を演奏すべきタイミングを提示する演奏タイミング提示手段をさらに備えてもよい。
この場合、ユーザは、伴奏の楽譜を視認しつつ伴奏を構成する各音を演奏すべきタイミングを容易に認識することができるので、効率良く伴奏を習熟することができる。
演奏タイミング提示手段は、それぞれ異なる音高に対応する複数の演奏操作子のうち、伴奏を構成する各音の高さに対応する演奏操作子を選択的に提示することにより、伴奏を構成する各音を演奏すべきタイミングを提示してもよい。
この場合、ユーザは、提示のタイミングに従って各演奏操作子を操作することにより楽曲の伴奏を行うことができるので、効率良く伴奏を習熟することができる。
伴奏教習装置は、自動伴奏のための伴奏パターンを表す伴奏パターンデータを選択するための伴奏パターンデータ選択手段と、自動伴奏のテンポを表す自動テンポ情報を取得する自動テンポ情報取得手段と、選択された伴奏パターンデータおよび抽出されたコード情報に基づいて、楽曲の自動伴奏を表す自動伴奏情報を生成する自動伴奏情報生成手段と、生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで自動伴奏を出力する出力手段とをさらに備え、自動伴奏情報生成手段は、伴奏パターンデータにより表される各音の高さをコード情報により表される各コードに適合するように修正することにより自動伴奏情報を生成してもよい。
この場合、共通のコード情報に基づいてユーザ伴奏情報および自動伴奏情報がそれぞれ生成されるので、ユーザは、出力される自動伴奏に合わせて、違和感なく自らの伴奏を行うことができる。
本発明は、楽曲の伴奏の教習に有効に利用可能である。
1…楽譜表示装置、2…電子楽器、11…音響信号取得部、12…コード情報抽出部、13…伴奏タイプ設定部、14…ユーザ伴奏情報生成部、15…楽譜表示部、16…演奏箇所提示部、17…テンポ情報取得部、21…伴奏パターンデータ選択部、22…自動伴奏情報生成部、23…自動伴奏音量調整部、24…テンポ情報取得部、25…自動伴奏出力部、26…鍵盤ガイド部、27…提示条件設定部、50…伴奏教習装置

Claims (8)

  1. 楽曲の音響信号を取得する音響信号取得手段と、
    取得された音響信号から前記楽曲におけるコード進行を表すコード情報を抽出するコード情報抽出手段と、
    出されたコード情報に基づいて、ユーザによる伴奏を構成する各音の高さおよび時間軸上の位置を表すユーザ伴奏情報を生成するユーザ伴奏情報生成手段と、
    前記ユーザによる伴奏のテンポを表すユーザテンポ情報を取得するユーザテンポ情報取得手段と、
    取得されたユーザテンポ情報および前記生成されたユーザ伴奏情報に基づいて、前記ユーザによる伴奏を構成する各音を演奏すべきタイミングを提示する演奏タイミング提示手段と、
    自動伴奏のための伴奏パターンを表す伴奏パターンデータを選択するための伴奏パターンデータ選択手段と、
    前記自動伴奏のテンポを表す自動テンポ情報を取得する自動テンポ情報取得手段と、
    選択された伴奏パターンデータおよび前記抽出されたコード情報に基づいて、前記楽曲の自動伴奏を表す自動伴奏情報を生成する自動伴奏情報生成手段と、
    生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで前記自動伴奏を出力する出力手段とを備え、
    前記自動伴奏情報生成手段は、前記伴奏パターンデータにより表される各音の高さを前記コード情報により表される各コードに適合するように修正することにより前記自動伴奏情報を生成する、伴奏教習装置。
  2. 前記演奏タイミング提示手段は、それぞれ異なる音高に対応する複数の演奏操作子のうち、前記ユーザによる伴奏を構成する各音の高さに対応する演奏操作子を選択的に提示することにより、前記ユーザによる伴奏を構成する各音を演奏すべきタイミングを提示する、請求項記載の伴奏教習装置。
  3. 生成されたユーザ伴奏情報に基づいて、前記ユーザによる伴奏の楽譜を表示する楽譜表示手段をさらに備え、
    前記演奏タイミング提示手段は、表示された前記ユーザによる伴奏の楽譜において前記ユーザによる伴奏を構成する各音を演奏すべきタイミングを提示する、請求項1または2記載の伴奏教習装置。
  4. 楽曲の音響信号を取得する音響信号取得手段と、
    取得された音響信号から前記楽曲におけるコード進行を表すコード情報を抽出するコード情報抽出手段と、
    抽出されたコード情報に基づいて、前記楽曲のユーザによる伴奏を表すユーザ伴奏情報を生成するユーザ伴奏情報生成手段と、
    生成されたユーザ伴奏情報に基づいて、前記ユーザによる伴奏の楽譜を表示する楽譜表示手段と、
    自動伴奏のための伴奏パターンを表す伴奏パターンデータを選択するための伴奏パターンデータ選択手段と、
    前記自動伴奏のテンポを表す自動テンポ情報を取得する自動テンポ情報取得手段と、
    選択された伴奏パターンデータおよび前記抽出されたコード情報に基づいて、前記楽曲の自動伴奏を表す自動伴奏情報を生成する自動伴奏情報生成手段と、
    生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで前記自動伴奏を出力する出力手段とを備え、
    前記自動伴奏情報生成手段は、前記伴奏パターンデータにより表される各音の高さを前記コード情報により表される各コードに適合するように修正することにより前記自動伴奏情報を生成する、伴奏教習装置。
  5. 生成されたユーザ伴奏情報および生成された自動伴奏情報に基づいて、前記自動伴奏の音量を調整する音量調整手段をさらに備える、請求項1〜4のいずれか一項に記載の伴奏教習装置。
  6. ユーザによる伴奏の態様を伴奏タイプとして設定するための伴奏タイプ設定手段をさらに備え、
    前記ユーザ伴奏情報生成手段は、前記抽出されたコード情報および設定された伴奏タイプに基づいて、前記楽曲のユーザによる伴奏を表す前記ユーザ伴奏情報を生成する、請求項1〜5のいずれか一項に記載の伴奏教習装置。
  7. 楽曲の音響信号を取得するステップと、
    取得された音響信号から前記楽曲におけるコード進行を表すコード情報を抽出するステップと、
    出されたコード情報に基づいて、ユーザによる伴奏を構成する各音の高さおよび時間軸上の位置を表すユーザ伴奏情報を生成するステップと、
    抽出されたコード情報に基づいて、ユーザによる伴奏を構成する各音の高さおよび時間軸上の位置を表すユーザ伴奏情報を生成するステップと、
    前記ユーザによる伴奏のテンポを表すユーザテンポ情報を取得するステップと、
    取得されたユーザテンポ情報および前記生成されたユーザ伴奏情報に基づいて、前記ユーザによる伴奏を構成する各音を演奏すべきタイミングを提示するステップと、
    自動伴奏のための伴奏パターンを表す伴奏パターンデータを選択するステップと、
    前記自動伴奏のテンポを表す自動テンポ情報を取得するステップと、
    選択された伴奏パターンデータおよび前記抽出されたコード情報に基づいて、前記楽曲の自動伴奏を表す自動伴奏情報を生成するステップと、
    生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで前記自動伴奏を出力するステップとを、コンピュータに実行させ、
    前記自動伴奏情報を生成するステップは、前記伴奏パターンデータにより表される各音の高さを前記コード情報により表される各コードに適合するように修正することにより前記自動伴奏情報を生成することを含む、伴奏教習プログラム。
  8. 楽曲の音響信号を取得するステップと、
    取得された音響信号から前記楽曲におけるコード進行を表すコード情報を抽出するステップと、
    抽出されたコード情報に基づいて、前記楽曲のユーザによる伴奏を表すユーザ伴奏情報を生成するステップと、
    生成されたユーザ伴奏情報に基づいて、前記ユーザによる伴奏の楽譜を表示するステップと
    自動伴奏のための伴奏パターンを表す伴奏パターンデータを選択するステップと、
    前記自動伴奏のテンポを表す自動テンポ情報を取得するステップと、
    選択された伴奏パターンデータおよび前記抽出されたコード情報に基づいて、前記楽曲の自動伴奏を表す自動伴奏情報を生成するステップと、
    生成された自動伴奏情報に基づいて、取得された自動テンポ情報により表されるテンポで前記自動伴奏を出力するステップとを、コンピュータに実行させ、
    前記自動伴奏情報を生成するステップは、前記伴奏パターンデータにより表される各音の高さを前記コード情報により表される各コードに適合するように修正することにより前記自動伴奏情報を生成することを含む、伴奏教習プログラム。
JP2015020055A 2015-02-04 2015-02-04 伴奏教習装置および伴奏教習プログラム Active JP6520162B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015020055A JP6520162B2 (ja) 2015-02-04 2015-02-04 伴奏教習装置および伴奏教習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015020055A JP6520162B2 (ja) 2015-02-04 2015-02-04 伴奏教習装置および伴奏教習プログラム

Publications (2)

Publication Number Publication Date
JP2016142967A JP2016142967A (ja) 2016-08-08
JP6520162B2 true JP6520162B2 (ja) 2019-05-29

Family

ID=56570408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015020055A Active JP6520162B2 (ja) 2015-02-04 2015-02-04 伴奏教習装置および伴奏教習プログラム

Country Status (1)

Country Link
JP (1) JP6520162B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6953746B2 (ja) * 2017-03-02 2021-10-27 ヤマハ株式会社 電子音響装置および音色設定方法
CN112825244B (zh) * 2019-11-21 2024-04-12 阿里巴巴集团控股有限公司 配乐音频生成方法和装置
CN111508454B (zh) * 2020-04-09 2023-12-26 百度在线网络技术(北京)有限公司 乐谱的处理方法、装置、电子设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3156299B2 (ja) * 1991-10-05 2001-04-16 カシオ計算機株式会社 和音データ生成装置、伴奏音データ生成装置、および楽音発生装置
JP2001242859A (ja) * 1999-12-21 2001-09-07 Casio Comput Co Ltd 自動伴奏装置および自動伴奏方法
JP3719151B2 (ja) * 2001-03-09 2005-11-24 ヤマハ株式会社 演奏パターン処理装置、処理プログラム記録媒体及びデータ記録媒体
JP3873914B2 (ja) * 2003-03-11 2007-01-31 ヤマハ株式会社 演奏練習装置及びプログラム
JP4483304B2 (ja) * 2004-01-16 2010-06-16 ヤマハ株式会社 楽譜表示プログラム及び楽譜表示装置
JP4735969B2 (ja) * 2005-12-12 2011-07-27 ヤマハ株式会社 伴奏表示装置及びプログラム
JP6168649B2 (ja) * 2013-03-28 2017-07-26 株式会社河合楽器製作所 コード検出装置及びプログラム

Also Published As

Publication number Publication date
JP2016142967A (ja) 2016-08-08

Similar Documents

Publication Publication Date Title
JP4752425B2 (ja) 合奏システム
JP6493543B2 (ja) 演奏補助装置及び方法
WO2018159830A1 (ja) 演奏支援装置及び方法
JP4274272B2 (ja) アルペジオ演奏装置
JP5040927B2 (ja) 演奏教習装置及びプログラム
JP2006243102A (ja) 演奏補助装置及び演奏補助プログラム
JP6520162B2 (ja) 伴奏教習装置および伴奏教習プログラム
JP4692189B2 (ja) 合奏システム
JP2020056938A (ja) 演奏情報表示装置及び演奏情報表示方法、演奏情報表示プログラム、並びに、電子楽器
EP2866222A1 (en) Display of the tones of an automated selection for parts of a music chord harmony out of multiple keyboard input tones.
JP4483304B2 (ja) 楽譜表示プログラム及び楽譜表示装置
JP5061926B2 (ja) 電子音楽装置及び演奏データ編集表示プログラム
JP4614307B2 (ja) 演奏データ処理装置及びプログラム
US9747879B2 (en) Storage medium, tone generation assigning apparatus and tone generation assigning method
JP5969421B2 (ja) 楽器音出力装置及び楽器音出力プログラム
JPWO2019026325A1 (ja) 差分提示装置、差分提示方法および差分提示プログラム
JP6953746B2 (ja) 電子音響装置および音色設定方法
WO2018159829A1 (ja) 演奏支援装置及び方法
JP2019028407A (ja) ハーモニー教習装置、ハーモニー教習方法およびハーモニー教習プログラム
WO2022172732A1 (ja) 情報処理システム、電子楽器、情報処理方法および機械学習システム
JP6597533B2 (ja) 波形データ選択装置および波形データ選択方法
JP2021170073A (ja) 弦楽器擬似音発生プログラム、および弦楽器擬似音発生装置
JP4067007B2 (ja) アルペジオ演奏装置及びプログラム
JP2021099459A (ja) プログラム、方法、電子機器、及び演奏データ表示システム
JP2021099457A (ja) プログラム、電子機器、方法、および演奏データ表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R151 Written notification of patent or utility model registration

Ref document number: 6520162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151