JP4658133B2 - 楽曲再生装置および楽曲再生方法 - Google Patents

楽曲再生装置および楽曲再生方法 Download PDF

Info

Publication number
JP4658133B2
JP4658133B2 JP2007538700A JP2007538700A JP4658133B2 JP 4658133 B2 JP4658133 B2 JP 4658133B2 JP 2007538700 A JP2007538700 A JP 2007538700A JP 2007538700 A JP2007538700 A JP 2007538700A JP 4658133 B2 JP4658133 B2 JP 4658133B2
Authority
JP
Japan
Prior art keywords
music
sound
chord
additional sound
additional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007538700A
Other languages
English (en)
Other versions
JPWO2007040068A1 (ja
Inventor
光男 安士
雅俊 柳平
岳彦 塩田
真一 莪山
晴夫 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2007040068A1 publication Critical patent/JPWO2007040068A1/ja
Application granted granted Critical
Publication of JP4658133B2 publication Critical patent/JP4658133B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Emergency Alarm Devices (AREA)

Description

技術分野
[0001]
この発明は、和音を含む楽曲を再生する楽曲再生装置および楽曲再生方法に関する。ただし、この発明の利用は、上述の楽曲再生装置および楽曲再生方法に限らない。
背景技術
[0002]
音楽の再生機器は、様々な環境で使用されている。たとえば、車両内部で車載音楽機器として使用することにより、運転中に音楽を再生するものがある。このような形で音楽を再生する場合、たとえば運転中の場合、音楽を聴きながら眠くなってしまう場合がある。これに対し、従来の楽曲を再生する装置には、スピーカを切り替えることにより音楽の音像位置を変化させて覚醒効果を得るものがある。すなわち、音像制御装置に複数のスピーカを接続しておく。そして、CDプレーヤからアンプを経て、音像制御装置から、出力先のスピーカを順番に切り替えながら、音楽を再生する。このスピーカの切り替えにより覚醒効果を得ている(たとえば、特許文献1参照。)。
[0003]
特許文献1:特開平8−198058号公報
発明の開示
発明が解決しようとする課題
[0004]
しかしながら、スピーカの切り替えにより音楽信号を切り替える場合、音楽が細切れに聴こえてしまう。このように音楽を細切れにすることにより、覚醒効果を持つのであるが、断続的な音楽信号の切り替えは不快感を生じやすい。特に、実際には眠くなっていないときには不快に感じられ、覚醒効果を持たせたいだけのために、音楽環境を損なってしまうという問題が一例として挙げられる。
課題を解決するための手段
[0005]
請求項1の発明にかかる楽曲再生装置は、再生される楽曲の和音進行を抽出する抽出手段と、前記抽出手段によって抽出された和音進行が変化するタイミングを検出する検出手段と、前記楽曲に付加音を合成して再生し、前記検出手段によって検出されたタイミングに合わせて前記付加音の音像を変化させる付加音再生手段と、を備えることを特徴とする。
[0006]
また、請求項8の発明にかかる楽曲再生方法は、再生される楽曲の和音進行を抽出する抽出工程と、前記抽出工程によって抽出された和音進行が変化するタイミングを検出する検出工程と、前記楽曲に付加音を合成して再生し、前記検出工程によって検出されたタイミングに合わせて前記付加音の音像を変化させる付加音再生工程と、を含むことを特徴とする。
【図面の簡単な説明】
[0007]
[図1]図1は、この発明の実施の形態にかかる楽曲再生装置の機能的構成を示すブロック図である。
[図2]図2は、この発明の実施の形態にかかる楽曲再生方法の処理を示すフローチャートである。
[図3]図3は、この発明の実施例にかかる楽曲再生装置を説明するブロック図である。
[図4]図4は、合成音を利用者に向けて出力する状況を説明する説明図である。
[図5]図5は、利用者後方にスピーカを配置した場合を説明する説明図である。
[図6]図6は、この実施例の楽曲再生処理を説明するフローチャートである。
[図7]図7は、ピッチを変更した付加音を再生する楽曲再生装置を説明するブロック図である。
[図8]図8は、ピッチを変更した付加音を再生する楽曲再生処理を説明するフローチャートである。
[図9]図9は、付加音の音像を変更して再生する楽曲再生装置を説明するブロック図である。
[図10]図10は、付加音の音像を変更して再生する楽曲再生処理を説明するフローチャートである。
[図11]図11は、付加音の音像を変更して分散和音として再生する楽曲再生装置を説明するブロック図である。
[図12]図12は、ピッチを変更した付加音を再生する楽曲再生処理を説明するフローチャートである。
[図13]図13は、検知した眠気に応じて付加音を再生する楽曲再生装置を説明するブロック図である。
【図14】図14は、検知した眠気に応じて付加音を再生する楽曲再生処理を説明するフローチャートである。
【図15】図15は、付加音設定処理を説明するフローチャートである。
【図16】図16は、周波数誤差検出動作を説明するフローチャートである。
【図17】図17は、和音解析動作の本処理を説明するフローチャートである。
【図18】図18は、帯域データの12音に対する強度レベルの第1の例を示す説明図である。
【図19】図19は、帯域データの12音に対する強度レベルの第2の例を示す説明図である。
【図20】図20は、4音からなる和音に対する3音からなる和音への変換を説明する説明図である。
【図21】図21は、和音解析動作の後処理を説明するフローチャートである。
【図22】図22は、平滑化処理前の和音候補の時間変化を説明する説明図である。
【図23】図23は、平滑化処理後の和音候補の時間変化を説明する説明図である。
【図24】図24は、入れ替え処理後の和音候補の時間変化を説明する説明図である。
【図25】図25は、和音進行楽曲データの作成方法およびフォーマットを説明する説明図である。
【符号の説明】
【0008】
101 抽出部
102 タイミング検出部
103 付加音再生部
301 和音進行抽出部
302 タイミング検出部
303 付加音再生部
304 付加音発生部
305 ミキサ
306 アンプ
307 スピーカ
【発明を実施するための最良の形態】
【0009】
以下に添付図面を参照して、この発明にかかる楽曲再生装置および楽曲再生方法の好適な実施の形態を詳細に説明する。
【0010】
図1は、この発明の実施の形態にかかる楽曲再生装置の機能的構成を示すブロック図である。この実施の形態の楽曲再生装置は、抽出部101、タイミング検出部102、付加音再生部103により構成されている。
【0011】
抽出部101は、再生される楽曲の和音進行を抽出する。タイミング検出部102は、前記抽出部101によって抽出された和音進行が変化するタイミングを検出する。付加音再生部103は、タイミング検出部102によって検出されたタイミングに合わせて、楽曲に付加音を合成して再生する。また、付加音再生部103は、付加音の音像を変化させて再生することもできる。また、付加音再生部103は、付加音を構成する音を、分散和音として再生することもできる。
【0012】
なお、抽出部101によって抽出された和音進行に対応して、付加音のピッチを変更して付加音を生成しておき、そして、付加音再生部103が、生成された付加音を前記楽曲に合成して再生することもできる。
【0013】
また、眠気の状態を検知し、検知された眠気の状態によって付加音の再生を制御することもできる。たとえば、付加音再生部103は、眠気が発生したことが検知された場合、前記付加音の再生を開始することもできる。また、付加音再生部103は、眠気が強くなったことが検知された場合、付加音の周波数特性を変更することもできる。また、付加音再生部103は、眠気が強くなったことが検知された場合、付加音の音像の移動量を変化させることもできる。
【0014】
図2は、この発明の実施の形態にかかる楽曲再生方法の処理を示すフローチャートである。まず、抽出部101は、再生される楽曲の和音進行を抽出する。(ステップS201)。次に、タイミング検出部102は、前記抽出部101によって抽出された和音進行が変化するタイミングを検出する(ステップS202)。次に、付加音再生部103は、タイミング検出部102によって検出されたタイミングに合わせて、楽曲に付加音を合成して再生する(ステップS203)。
【0015】
以上説明した実施の形態により、楽曲に合わせた音を、和音進行の変化に応じて、楽曲に付加音を合成して再生することができる。そして、覚醒効果の高い音を同時に出力することができる。それにより、快適な音刺激で覚醒効果を得ることができるので、音楽を聴いている環境で、覚醒維持効果を得ることができる。
【実施例】
【0016】
図3は、この発明の実施例にかかる楽曲再生装置を説明するブロック図である。この楽曲再生装置は、和音進行抽出部301、タイミング検出部302、付加音再生部303、付加音発生部304、ミキサ305、アンプ306、スピーカ307によって構成される。なお、この楽曲再生装置は、CPU、ROMおよびRAMを含む構成にすることができる。和音進行抽出部301、タイミング検出部302、付加音再生部303、付加音再生部304は、ROMに書き込まれたプログラムを、RAMをワークエリアとして使用して、CPUが実行することにより実現することができる。この楽曲再生装置により、音楽を聴いている環境で、覚醒維持効果を得る。
【0017】
和音進行抽出部301は、楽曲300を読み出して、楽曲300に含まれる和音の進行を抽出する。楽曲300中には和音と和音でない部分が含まれるので、楽曲300のうち、和音部分は和音進行抽出部301で処理し、和音以外の部分はミキサ305に入力される。
【0018】
タイミング検出部302は、和音進行抽出部301で抽出された和音進行が変化するポイントを検出する。たとえば、ある時点まで和音が継続して鳴っていて、その時点から別の和音を鳴らすとき、その時点で和音進行が変化するので、その時点を和音進行が変化するポイントとして検出する。
【0019】
付加音再生部303は、タイミング検出部302で和音進行の変化が検出されたタイミングで、付加音を再生する。再生する付加音は、ミキサ305に出力する。また、付加音発生部304は、付加音を発生させて付加音再生部303に出力する。付加音再生部303は、付加音発生部304で発生された付加音を再生する。
【0020】
ミキサ305は、楽曲300の和音進行以外の部分と付加音再生部303から出力された付加音を混合してアンプ306に出力する。アンプ306では入力された楽曲を増幅して出力する。そしてアンプ306はスピーカ307に楽曲300を出力し、スピーカ307から楽曲300が再生される。
【0021】
図4は、合成音を利用者に向けて出力する状況を説明する説明図である。まず、音楽401の楽曲を解析し、和音とメロディーを調べる。そして、和音進行に合わせた付加音を生成して付加音を和音に合成して合成音とし、右耳側に出力する音を合成音402、左耳側に出力する音を合成音403として出力する。
【0022】
合成音402および合成音403は、和音進行の変化が検出されたタイミングで作成される。つまり、和音を構成する各音を、解析されたタイミングに従って再生し、その再生音を、左耳と右耳にそれぞれ適切に割り当てる。そして、和音進行が変化するタイミングで付加音を発生し、合成音402および合成音403を生成して、スピーカ404から出力する。一方、楽曲300のうち、和音進行抽出部302で抽出されなかった部分は、前方スピーカ405より出力される。
【0023】
そのために、音楽401を解析し、和音進行を抽出する。そして、和音進行の変化に合わせて、合成音402および合成音403を出力する。付加音は、アルペジオ(分散和音。その名のとおり、ある和音を分散して出す)等の装飾音とすることができる。すなわち、「ポロロン」といった、音楽に合わせた音とすることもできる。
【0024】
それにより、快適な音刺激で覚醒効果を得る心地よい環境で、音楽を損なうことなく覚醒効果の高い音を出力するので、心地よい環境で眠気解消が可能である。また、あらゆる音楽を用いることが出来るので、利用者は飽きることなく覚醒効果が得られる。なお、音源の種類を自由に選択できても良い。
【0025】
なお、音源の種類は、様々なものから自由に選択しても良い。また、付加する音源の出現頻度を変えても良い。覚醒水準に合わせて、頻度、種類、音量、音像位置を変えても良い。背景音の音像の位置を音楽のタイミングに合わせて変えても良い。また、音の音量、位相、f特、拡がり感等を変えても良い。
【0026】
図5は、利用者後方にスピーカを配置した場合を説明する説明図である。図3および図4では、楽曲に付加音を合成して再生する場合について説明したが、この付加音の音像を変化させて再生する場合について説明する。音像を変化させて再生する場合の構成は後述する。
【0027】
利用者501に対して、スピーカ502が左後方に、スピーカ503が右後方に置かれている。そして、スピーカ502からは音楽504が、スピーカ503からは音楽505が出力される。この音楽504および音楽505の音量のバランスを変化させることにより、利用者501が受ける音像の位置を変化させることができる。
【0028】
たとえば、音楽504および音楽505の音量を変化させて音像を変化させることにより、方向506に示すように、利用者501の後方で、前後に音像を移動させることができる。また、方向507に示すように、利用者501の後方で、左右に音像を移動させることができる。また、方向508に示すように、時計回りまたは反時計回りに回転するように音像を移動させることができる。
【0029】
図6は、この実施例の楽曲再生処理を説明するフローチャートである。音楽の再生を開始した状態で、一連の処理を開始する。まず、付加音再生部303および付加音発生部304において、付加音設定をする(ステップS601)。たとえば、付加音として「ポローン」という音を設定する。次に、音楽が終了したか否かを判定する(ステップS602)。音楽が終了した場合(ステップS602:Yes)、一連の処理を終了する。音楽が終了していない場合(ステップS602:No)、和音進行を抽出する(ステップS603)。具体的には、音楽の時系列データを周波数解析し、和音の変化を調べることにより和音進行を調べる。
【0030】
次に、和音進行に変化があったか否かを判定する(ステップS604)。変化がなかったと判定された場合(ステップS604:No)、ステップS603に戻る。変化があったと判定された場合(ステップS604:Yes)、楽曲と付加音を合成する(ステップS605)。たとえば、「ポローン」という音などの設定された音を楽曲に合成する。合成された楽曲は、スピーカ307を通して再生される。そして、一連の処理を終了する。
【0031】
なお、利用者が自らの感覚で、操作パネルから入力し、入力したタイミングに基づいて音源処理してもよい。たとえば、入力用のスイッチを設け、利用者は楽曲に合わせて指などでスイッチを叩くこともできる。スイッチが叩かれる毎に覚醒音である付加音を発生し、てもとの楽曲に合成する。楽曲再生装置は、生体センサの出力に応じて動作させてもよい。例えば、ハンドル部より心拍情報を検出し、眠くなると覚醒音を出しても良い。
【0032】
この場合、楽曲のテンポを自発的に楽しむ趣向のある使用者にとっては、楽器を演奏するごとく楽曲に参加できるので、楽しみが増すとともに脳が活性化されるので、より覚醒効果を得られるという効果がある。また、慣れの効果が生じないので、眠くなりにくい。
【0033】
また、付加する音源の出現頻度を変えても良い。覚醒水準に合わせて、頻度、種類、音量、音像位置を変えても良い。また、覚醒音の音色や音像の位置および移動方法を特別に変化させてもよい。従来の警告とは異なり、運転者に不快感を与えることなく、安全な両手保持運転を教示する効果がある。覚醒音は音源の種類、タイミングを眠気の程度に応じて頻度を増しても良い。
【0034】
図7は、ピッチを変更した付加音を再生する楽曲再生装置を説明するブロック図である。この楽曲再生装置は、和音進行抽出部701、タイミング検出部702、付加音発生部703、音源ピッチ変更部704、付加音再生部705、ミキサ706、アンプ707、スピーカ708によって構成される。なお、この楽曲再生装置は、CPU、ROMおよびRAMを含む構成にすることができる。付加音発生部703、音源ピッチ変更部704、付加音再生部705は、ROMに書き込まれたプログラムを、RAMをワークエリアとして使用して、CPUが実行することにより実現することができる。
【0035】
和音進行抽出部701は、楽曲700を読み出して、楽曲700に含まれる和音の進行を抽出する。楽曲700中には和音と和音でない部分が含まれるので、楽曲700のうち、和音部分は和音進行抽出部701で処理し、和音以外の部分はミキサ706に入力される。
【0036】
タイミング検出部702は、和音進行抽出部701で抽出された和音進行が変化するポイントを検出する。たとえば、ある時点まで和音が継続して鳴っていて、その時点から別の和音を鳴らすとき、その時点で和音進行が変化するので、その時点を和音進行が変化するポイントとして検出する。
【0037】
付加音発生部703は、付加音を発生させる。音源ピッチ変更部704は、付加音発生部703で発生された付加音のピッチを変更させる。音源ピッチ変更部704でピッチを変更された付加音は付加音再生部705に送られ、付加音再生部705は、タイミング検出部302で和音進行の変化が検出されたタイミングで、送られた付加音を再生してミキサ706に入力する。
【0038】
ミキサ706は、楽曲700の和音進行以外の部分と付加音再生部705から出力された付加音を混合してアンプ707に出力する。アンプ707では入力された楽曲を増幅して出力する。そしてアンプ707はスピーカ708に楽曲700を出力し、スピーカ708から楽曲700が再生される。
【0039】
図8は、ピッチを変更した付加音を再生する楽曲再生処理を説明するフローチャートである。音楽の再生を開始した状態で、一連の処理を開始する。ここで、音楽が終了したか否かを判定する(ステップS801)。音楽が終了した場合(ステップS801:Yes)、一連の処理を終了する。音楽が終了していない場合(ステップS801:No)、和音進行を抽出する(ステップS802)。具体的には、音楽の時系列データを周波数解析し、和音の変化を調べることにより和音進行を調べる。
【0040】
次に、和音進行に変化があったか否かを判定する(ステップS803)。変化がなかったと判定された場合(ステップS803:No)、ステップS802に戻る。変化があったと判定された場合(ステップS803:Yes)、和音に応じて音源のピッチを変える(ステップS804)。具体的には、設定した音を和音の周波数の平均の高さに応じてピッチを変えることにより、周波数を変更する。そして、楽曲と付加音を合成する(ステップS805)。この合成された楽曲は、スピーカ708を通して再生される。そして、一連の処理を終了する。
【0041】
図9は、付加音の音像を変更して再生する楽曲再生装置を説明するブロック図である。この楽曲再生装置は、和音進行抽出部901、タイミング検出部902、付加音再生部903、付加音発生部904、音像位置設定部905、ミキサ906、アンプ907、スピーカ908によって構成される。なお、この楽曲再生装置は、CPU、ROMおよびRAMを含む構成にすることができる。和音進行抽出部901、タイミング検出部902、付加音再生部903、付加音再生部904は、ROMに書き込まれたプログラムを、RAMをワークエリアとして使用して、CPUが実行することにより実現することができる。
【0042】
和音進行抽出部901は、楽曲900を読み出して、楽曲900に含まれる和音の進行を抽出する。楽曲900中には和音と和音でない部分が含まれるので、楽曲900のうち、和音部分は和音進行抽出部901で処理し、和音以外の部分はミキサ906に入力される。
【0043】
タイミング検出部902は、和音進行抽出部901で抽出された和音進行が変化するポイントを検出する。たとえば、ある時点まで和音が継続して鳴っていて、その時点から別の和音を鳴らすとき、その時点で和音進行が変化するので、その時点を和音進行が変化するポイントとして検出する。
【0044】
付加音再生部903は、タイミング検出部902で和音進行の変化が検出されたタイミングで、付加音を再生する。再生する付加音は、ミキサ906に出力する。また、付加音発生部904は、付加音を発生させて付加音再生部903に出力する。付加音再生部903は、付加音発生部904で発生された付加音を再生する。
【0045】
音像位置設定部905は、付加音の音像位置を設定する。音像位置の設定を変化させることにより、付加音の音像位置を変化させる。音像位置が移動するので、聴き手に対して音が移動しているように音を再生することが出来る。音像位置は、図5に示したように変化させることができる。音像位置を設定された付加音は、ミキサ906に出力される。
【0046】
ミキサ906は、楽曲900の和音進行以外の部分と付加音再生部903から出力された付加音を混合してアンプ907に出力する。アンプ907では入力された楽曲を増幅して出力する。そしてアンプ907はスピーカ908に楽曲900を出力し、スピーカ908から楽曲900が再生される。
【0047】
図10は、付加音の音像を変更して再生する楽曲再生処理を説明するフローチャートである。音楽の再生を開始した状態で、一連の処理を開始する。ここで、音楽が終了したか否かを判定する(ステップS1001)。音楽が終了した場合(ステップS1001:Yes)、一連の処理を終了する。音楽が終了していない場合(ステップS1001:No)、和音進行を抽出する(ステップS1002)。具体的には、音楽の時系列データを周波数解析し、和音の変化を調べることにより和音進行を調べる。
【0048】
次に、和音進行に変化があったか否かを判定する(ステップS1003)。変化がなかったと判定された場合(ステップS1003:No)、ステップS1002に戻る。変化があったと判定された場合(ステップS1003:Yes)、付加音の音像を移動する(ステップS1004)。たとえば、設定された音の音像位置を右から左に移動させる。そして、楽曲と付加音を合成する(ステップS1005)。合成された楽曲は、スピーカ908を通して再生される。そしてステップS1001に戻る。
【0049】
図11は、付加音の音像を変更して分散和音として再生する楽曲再生装置を説明するブロック図である。この楽曲再生装置は、和音進行抽出部1101、タイミング検出部1102、音源ピッチ変更部1103、音源発生部1104、音像位置変更部1105、音源分散再生部1106、ミキサ1107、アンプ1108、スピーカ1109によって構成される。
【0050】
なお、この楽曲再生装置は、CPU、ROMおよびRAMを含む構成にすることができる。和音進行抽出部1101、タイミング検出部1102、音源ピッチ変更部1103、音源発生部1104、音像位置変更部1105、付加音分散再生部1106は、ROMに書き込まれたプログラムを、RAMをワークエリアとして使用して、CPUが実行することにより実現することができる。
【0051】
和音進行抽出部1101は、楽曲1100を読み出して、楽曲1100に含まれる和音の進行を抽出する。楽曲1100中には和音と和音でない部分が含まれるので、楽曲1100のうち、和音部分は和音進行抽出部1101で処理し、和音以外の部分はミキサ1107に入力される。
【0052】
タイミング検出部1102は、和音進行抽出部1101で抽出された和音進行が変化するポイントを検出する。たとえば、ある時点まで和音が継続して鳴っていて、その時点から別の和音を鳴らすとき、その時点で和音進行が変化するので、その時点を和音進行が変化するポイントとして検出する。
【0053】
音源発生部1104は、付加音を発生させる。音源ピッチ変更部1103は、音源発生部1104で発生された付加音のピッチを変更させる。音源ピッチ変更部1103でピッチを変更された付加音は音像位置変更部1105に送られる。
【0054】
音像位置変更部1105は、付加音の音像位置を変更する。音像位置の設定を変化させることにより、付加音の音像位置を変化させる。音像位置が移動するので、聴き手に対して音が移動しているように音を再生することが出来る。付加音分散再生部1106は、タイミング検出部1102で和音進行の変化が検出されたタイミングで、送られた付加音を分散和音の形で再生してミキサ1107に出力される。
【0055】
ミキサ1107は、楽曲1100の和音進行以外の部分と付加音分散再生部1106から出力された付加音を混合してアンプ1108に出力する。アンプ1108では入力された楽曲を増幅して出力する。そしてアンプ1108はスピーカ1109に楽曲1100を出力し、スピーカ1109から楽曲1100が再生される。
【0056】
図12は、ピッチを変更した付加音を再生する楽曲再生処理を説明するフローチャートである。音楽の再生を開始した状態で、一連の処理を開始する。ここで、音楽が終了したか否かを判定する(ステップS1201)。音楽が終了した場合(ステップS1201:Yes)、一連の処理を終了する。音楽が終了していない場合(ステップS1201:No)、和音進行を抽出する(ステップS1202)。具体的には、音楽の時系列データを周波数解析し、和音の変化を調べることにより和音進行を調べる。
【0057】
次に、和音進行に変化があったか否かを判定する(ステップS1203)。変化がなかったと判定された場合(ステップS1203:No)、ステップS1202に戻る。変化があったと判定された場合(ステップS1203:Yes)、付加音のピッチを変更する(ステップS1204)。そして、付加音の音像を移動する(ステップS1205)。
【0058】
そして、付加音を分散再生する(ステップS1206)。たとえば、和音を構成する「ドミソ」などの音を、一度に再生するのではなくそれぞれ順番に再生する。そして、楽曲と付加音を合成する(ステップS1207)。合成された楽曲は、スピーカ1109を通して再生される。そして、ステップS1201に戻る。
【0059】
図13は、検知した眠気に応じて付加音を再生する楽曲再生装置を説明するブロック図である。この楽曲再生装置は、和音進行抽出部1301、付加音周波数特性変更部1302、付加音発生部1303、眠気センサ1304、タイミング検出部1305、付加音再生部1306、音像位置設定部1307、ミキサ1308、アンプ1309、スピーカ1310によって構成される。
【0060】
なお、この楽曲再生装置は、CPU、ROMおよびRAMを含む構成にすることができる。和音進行抽出部1301、タイミング検出部1305、付加音再生部1306、音像位置設定部1307は、ROMに書き込まれたプログラムを、RAMをワークエリアとして使用して、CPUが実行することにより実現することができる。
【0061】
和音進行抽出部1301は、楽曲1300を読み出して、楽曲1300に含まれる和音の進行を抽出する。楽曲1300中には和音と和音でない部分が含まれるので、楽曲1300のうち、和音部分は和音進行抽出部1301で処理し、和音以外の部分はミキサ1308に入力される。
【0062】
付加音周波数特性変更部1302は、付加音の周波数特性を変更する。たとえば、聴き手の眠気が強くなった場合に、低域や高域の音を強くするなど、付加音の周波数特性を変更する。周波数特性を変更させた付加音は、付加音再生部1306に出力される。また、付加音発生部1303は、付加音を発生させて付加音周波数特性変更部1302に出力する。眠気センサ1304は、眠気の状態を検知するセンサである。検出された眠気の状態は、付加音周波数特性変更部1302および音像位置設定部1307に出力される。
【0063】
タイミング検出部1305は、和音進行抽出部1301で抽出された和音進行が変化するポイントを検出する。たとえば、ある時点まで和音が継続して鳴っていて、その時点から別の和音を鳴らすとき、その時点で和音進行が変化するので、その時点を和音進行が変化するポイントとして検出する。付加音再生部1306は、タイミング検出部1305で和音進行の変化が検出されたタイミングで、付加音を再生する。再生する付加音は、音像位置設定部1307に出力する。
【0064】
音像位置設定部1307は、付加音の音像位置を設定する。音像位置の設定を変化させることにより、付加音の音像位置を変化させる。音像位置が移動するので、聴き手に対して音が移動しているように音を再生することが出来る。音像位置を設定された付加音は、ミキサ1308に出力される。
【0065】
ミキサ1308は、楽曲1300の和音進行以外の部分と付加音再生部1306から出力された付加音を混合してアンプ1309に出力する。アンプ1309では入力された楽曲を増幅して出力する。そしてアンプ1309はスピーカ1310に楽曲1300を出力し、スピーカ1310から楽曲1300が再生される。
【0066】
図14は、検知した眠気に応じて付加音を再生する楽曲再生処理を説明するフローチャートである。音楽の再生を開始した状態で、一連の処理を開始する。ここで、眠気が発生したか否かを判定する(ステップS1401)。眠気が発生していない場合(ステップS1401:No)、再びステップS1401を繰り返す。眠気が発生した場合(ステップS1401:Yes)、和音進行を抽出する(ステップS1402)。
【0067】
次に、和音進行に変化があったか否かを判定する(ステップS1403)。変化がなかったと判定された場合(ステップS1403:No)、ステップS1401に戻る。変化があったと判定された場合(ステップS1403:Yes)、図15に示す付加音設定処理を実行する(ステップS1404)。そして、楽曲と付加音を合成する(ステップS1405)。合成された楽曲は、スピーカ1310を通して再生される。そして、ステップS1401に戻る。
【0068】
図15は、付加音設定処理を説明するフローチャートである。ステップS1404において付加音設定処理に移行した場合、まず、検知された眠気が強いか否かを判定する(ステップS1501)。眠気が強いと判定された場合(ステップS1501:Yes)、付加音の音源について、低音を増強する(ステップS1502)。次に、付加音の音像移動を大きくする(ステップS1503)。そして、ステップS1506に進む。
【0069】
また、検知された眠気が強くないと判定された場合(ステップS1501:No)、付加音の音源について、周波数特性をノーマル(フラット)の状態にする(ステップS1504)。そして、付加音の音像移動をノーマルの状態にする(ステップS1505)。そして、ステップS1506に進む。
【0070】
そして、楽曲と付加音を合成する(ステップS1506)。付加音を合成した合成音を作成されたので、図14に示した、ステップS1404の付加音設定処理を終了し、ステップS1405に戻る。
【0071】
以上の説明において、和音進行が変化したときに付加音を加えた合成音を生成することにより、覚醒効果を発生させる処理について説明した。ここで、この和音進行の変化を抽出する仕組みについて、さらに詳細に説明する。
【0072】
図16は、周波数誤差検出動作を説明するフローチャートである。和音解析動作としては、前処理、本処理および後処理がある。周波数誤差検出動作は、このうちの前処理に相当する。まず、時間変数Tおよび帯域データF(N)を0に、変数Nの範囲を−3〜3に初期設定する(ステップS1)。次に、入力ディジタル信号に対してフーリエ変換によって0.2秒間隔で周波数変換することによって周波数情報f(T)を得る(ステップS2)。
【0073】
次に、今回のf(T)、前回のf(T−1)及び前々回のf(T−2)を用いて移動平均処理する(ステップS3)。この移動平均処理では、0.6秒以内では和音が変化することが少ないという仮定で過去2回分の周波数情報が用いられる。移動平均処理は次式によって演算される。f(T)=(f(T)+f(T−1)/2.0+f(T−2)/3.0)/3.0…式(1)。
【0074】
ステップS3の実行後、変数Nを−3に設定し(ステップS4)、その変数Nは4より小であるか否かが判別される(ステップS5)。N<4の場合には(ステップS5:Yes)、移動平均処理後の周波数情報f(T)から周波数成分f1(T)〜f5(T)が各々抽出される(ステップS6)。
【0075】
周波数成分f1(T)〜f5(T)は、(110.0+2×N)Hzを基本周波数とした5オクターブ分の平均律の12音のものである。12音はA,A#,B,C,C#,D,D#,E,F,F#,G,G#である。A音を1.0とした場合の、12音及び1オクターブ高いA音各々の周波数比は、次の通りとする。f1(T)はA音を(110.0+2×N)Hzとし、f2(T)はA音を2×(110.0+2×N)Hzとし、f3(T)はA音を4×(110.0+2×N)Hzとし、f4(T)はA音を8×(110.0+2×N)Hzとし、f5(T)はA音を16×(110.0+2×N)Hzとする。
【0076】
次に、周波数成分f1(T)〜f5(T)を1オクターブ分の帯域データF’(T)に変換する(ステップS7)。帯域データF’(T)は、F’(T)=f1(T)×5+f2(T)×4+f3(T)×3+f4(T)×2+f5(T)…式(2)、の如く表される。すなわち、周波数成分f1(T)〜f5(T)各々は個別に重み付けされた後、加算される。1オクターブ分の帯域データF’(T)は、帯域データF(N)に加算される(ステップS8)。その後、変数Nには1を加算し(ステップS9)、ステップS5を再度実行する。ステップS6〜S9の動作は、ステップS5においてNが4より小、すなわち−3〜+3の範囲であると判別される限り繰り返す。これによって音成分F(N)は−3〜+3の範囲の音程誤差を含む1オクターブ分の周波数成分となる。
【0077】
ステップS5においてN≧4と判別された場合には(ステップS5:No)、変数Tが所定値Mより大きいか否かが判別される(ステップS10)。T>Mの場合には(ステップS10:Yes)、変数Tに1が加算され(ステップS11)、ステップS2が再度実行される。そして、M回分の周波数変換による周波数情報f(T)に対して変数N毎の帯域データF(N)が算出される。
【0078】
ステップS10においてT≦Mと判別された場合には(ステップS10:No)、変数N毎の1オクターブ分の帯域データF(N)のうちの各周波数成分の総和が最大となるF(N)が検出され、その検出F(N)のNが誤差値Xとして設定される(ステップS12)。この前処理によって誤差値Xを求めることによって、オーケストラの演奏音等の楽曲音全体の音程が平均律と一定の差をもっている場合に、それを補償して後述の和音解析の本処理を行うことができる。
【0079】
図17は、和音解析動作の本処理を説明するフローチャートである。前処理の周波数誤差検出動作の終了後、和音解析動作の本処理を実行する。なお、誤差値Xが既に分かっている場合やその誤差を無視できる場合には、前処理は省略しても良い。本処理では楽曲全部について和音解析するために、楽曲の最初の部分から処理するものとする。
【0080】
まず、入力ディジタル信号に対してフーリエ変換によって周波数変換を0.2秒間隔で行うことによって周波数情報f(T)が得られる(ステップS21)。そして、今回のf(T)、前回のf(T−1)及び前々回のf(T−2)を用いて移動平均処理が行われる(ステップS22)。ステップS21及びS22は上記したステップS2及びS3と同様に実行される。
【0081】
ステップS22の実行後、移動平均処理後の周波数情報f(T)から周波数成分f1(T)〜f5(T)が各々抽出される(ステップS23)。上記したステップS6と同様に、周波数成分f1(T)〜f5(T)は、(110.0+2×N)Hzを基本周波数とした5オクターブ分の平均律の12音A,A#,B,C,C#,D,D#,E,F,F#,G,G#である。f1(T)はA音を(110.0+2×N)Hzとし、f2(T)はA音を2×(110.0+2×N)Hzとし、f3(T)はA音を4×(110.0+2×N)Hzとし、f4(T)はA音を8×(110.0+2×N)Hzとし、f5(T)はA音を16×(110.0+2×N)Hzとしている。ここで、NはステップS16で設定されたXである。
【0082】
ステップS23の実行後、周波数成分f1(T)〜f5(T)は1オクターブ分の帯域データF’(T)に変換される(ステップS24)。このステップS24も上記のステップS7と同様に式(2)を用いて実行される。帯域データF’(T)は各音成分を含む。
【0083】
ステップS24の実行後、帯域データF’(T)中の各音成分のうちの強度レベルが大きいものから6音が候補として選択され(ステップS25)、その6音候補から2つの和音M1,M2が作成される(ステップS26)。候補の6音のうちから1つの音を根音(ルート)として3音からなる和音が作成される。すなわち6C3通りの組み合わせの和音が考慮される。各和音を構成する3音のレベルが加算され、その加算結果の値が最大となった和音が第1和音候補M1とされ、加算結果の値が2番目に大きい和音が第2和音候補M2とされる。
【0084】
図18は、帯域データの12音に対する強度レベルの第1の例を示す説明図である。帯域データF’(T)の各音成分が図18に示される成分をもつ場合には、ステップS25ではA,E,C,G,B,Dの6音が選択される。その6音A,E,C,G,B,Dのうちの3音から作成される3和音は、(音A,C,E)からなる和音Am、(音C,E,G)からなる和音C、(音E,B,G)からなる和音Em、(音G,B,D)からなる和音G、……の如くである。和音Am(音A,C,E)の合計強度レベルは12、和音C(音C,E,G)の合計強度レベルは9、和音Em(音E,B,G)の合計強度レベルは7、和音G(音G,B,D)の合計強度レベルは4である。よって、ステップS26では和音Amの合計強度レベル12が最大となるので、第1和音候補M1として和音Amが設定され、和音Cの合計強度レベル9が2番目に大きいので、第2和音候補M2として和音Cが設定される。
【0085】
図19は、帯域データの12音に対する強度レベルの第2の例を示す説明図である。帯域データF’(T)の各音成分が図19に示される成分をもつ場合には、ステップS25ではC,G,A,E,B,Dの6音が選択される。その6音C,G,A,E,B,Dのうちの3音から作成される3和音は、(音C,E,G)からなる和音C、(音A,C,E)からなる和音Am、(音E,B,G)からなる和音Em、(音G,B,D)からなる和音G、……の如くである。和音C(音C,E,G)の合計強度レベルは11、和音Am(音A,C,E)の合計強度レベルは10、和音Em(音E,B,G)の合計強度レベルは7、和音G(音G,B,D)の合計強度レベルは6である。よって、ステップS26では和音Cの合計強度レベル11が最大となるので、第1和音候補M1として和音Cが設定され、和音Amの合計強度レベル10が2番目に大きいので、第2和音候補M2として和音Amが設定される。
【0086】
図20は、4音からなる和音に対する3音からなる和音への変換を説明する説明図である。和音を構成する音は3音に限らず、セブンスやディミニッシュセブンス等の4音もある。4音からなる和音に対しては図20に示すように3音からなる2つ以上の和音に分類されるとしている。よって、4音からなる和音に対しても3音からなる和音と同様に、帯域データF’(T)の各音成分の強度レベルに応じて2つの和音候補を設定することができる。
【0087】
ステップS26の実行後、ステップS26において設定された和音候補数があるか否かが判別される(ステップS27)。ステップS26では少なくとも3つの音を選択するだけの強度レベルに差がない場合には和音候補が全く設定されないことになるので、ステップS27の判別が行われる。和音候補数>0である場合には(ステップS27:Yes)、更に、その和音候補数が1より大であるか否かが判別される(ステップS28)。
【0088】
ステップS27において和音候補数=0と判別された場合には(ステップS27:No)、前回T−1(約0.2秒前)の本処理において設定された和音候補M1,M2が今回の和音候補M1,M2として設定される(ステップS29)。ステップS28において和音候補数=1と判別された場合には(ステップS28:No)今回のステップS26の実行では第1和音候補M1だけが設定されたので、第2和音候補M2は第1和音候補M1と同一の和音に設定される(ステップS30)。
【0089】
ステップS28において和音候補数>1と判別された場合には(ステップS28:Yes)、今回のステップS26の実行では第1及び第2和音候補M1,M2の両方が設定されたので、時刻、第1及び第2和音候補M1,M2が記憶される(ステップS31)。このとき、時刻、第1和音候補M1、第2和音候補M2が1組となって記憶される。時刻は0.2秒毎に増加するTで表される本処理実行回数である。そのTの順に第1及び第2和音候補M1,M2が記憶される。
【0090】
具体的には、各和音候補を1バイトで記憶させるために、基本音(根音)とその属性との組み合わせが用いられる。基本音には平均律の12音が用いられ、属性にはメジャー{4,3}、マイナー{3,4}、セブンス候補{4,6}及びディミニッシュセブンス(dim7)候補{3,3}の和音の種類が用いられる。
【0091】
{ }内は半音を1とした場合の3音の差である。本来、セブンス候補は{4,3,3}及びディミニッシュセブンス(dim7)候補{3,3,3}であるが、3音で示すために上記のように表示している。ステップS31はステップS29又はS30を実行した場合にもその直後に実行される。
【0092】
ステップS31の実行後、楽曲が終了したか否かが判別される(ステップS32)。例えば、ディジタルオーディオ信号の入力がなくなった場合、あるいは楽曲の終了を示す操作入力があった場合には楽曲が終了したと判断される。これによって、楽曲意が終了したと判別された場合(ステップS32:Yes)、本処理が終了する。楽曲の終了が判断されるまでは(ステップS32:No)、変数Tに1が加算され(ステップS33)、ステップS21が再度実行される。ステップS21は上記したように0.2秒間隔で実行され、前回の実行時から0.2秒が経過して再度実行される。
【0093】
図21は、和音解析動作の後処理を説明するフローチャートである。まず、全ての第1及び第2和音候補を、M1(0)〜M1(R)およびM2(0)〜M2(R)として読み出す(ステップS41)。0は開始時刻であり、開始時刻の第1及び第2和音候補がM1(0)及びM2(0)である。Rは最終時刻であり、最終時刻の第1及び第2和音候補がM1(R)及びM2(R)である。読み出された第1和音候補M1(0)〜M1(R)及び第2和音候補M2(0)〜M2(R)について平滑化処理する(ステップS42)。この平滑化処理は和音の変化時点とは関係なく0.2秒間隔で和音候補を検出したことにより和音候補に含まれるノイズによる誤差を除去するために行われる。
【0094】
平滑化後、第1及び第2和音候補M1(0)〜M1(R)およびM2(0)〜M2(R)の入れ替え処理が行う(ステップS43)。一般的に0.6秒のような短い期間には和音が変化する可能性は低い。しかしながら、信号入力段の周波数特性及び信号入力時のノイズによって帯域データF’(T)中の各音成分の周波数が変動することによって第1及び第2和音候補が0.6秒以内に入れ替わることが起きることがあり、これに対処するために入れ替え処理を実行する。
【0095】
図22は、平滑化処理前の和音候補の時間変化を説明する説明図である。ステップS41において読み出された第1和音候補M1(0)〜M1(R)及び第2和音候補M2(0)〜M2(R)の各和音が、例えば、図22に示すように時間経過と共に変化する場合を例に挙げて説明する。そして、ステップS42の平滑化処理を行うことによって図23に示すように修正される。
【0096】
図23は、平滑化処理後の和音候補の時間変化を説明する説明図である。更に、ステップS43の和音の入れ替え処理を行うことによって第1及び第2和音候補の和音の変化は図24に示すように修正される。図24は、入れ替え処理後の和音候補の時間変化を説明する説明図である。なお、図22〜図24は和音の時間変化を折れ線グラフとして示しており、縦軸は和音の種類に対応した位置となっている。
【0097】
ステップS43の和音の入れ替え処理後の第1和音候補M1(0)〜M1(R)のうちの和音が変化した時点tの和音M1(t)及び第2和音候補M2(0)〜M2(R)のうちの和音が変化した時点tの和音M2(t)が各々検出され(ステップS44)、その検出された時点t(4バイト)及び和音(4バイト)が第1及び第2和音候補毎に記憶される(ステップS45)。ステップS45で記憶される1楽曲分のデータが和音進行楽曲データである。
【0098】
図25は、和音進行楽曲データの作成方法およびフォーマットを説明する説明図である。ここに示されるように、ステップS43の和音の入れ替え処理後の第1和音候補および第2和音候補の和音が、図25(a)に示すように時間経過と共に変化する場合には、変化時点の時刻と和音とがデータとして抽出される。図25(b)が第1和音候補の変化時点のデータ内容であり、F,G,D,B♭,Fが和音であり、それらは16進データとして0x08,0x0A,0x05,0x01,0x08と表される。変化時点tの時刻はT1(0),T1(1),T1(2),T1(3),T1(4)である。また、図25(c)が第2和音候補の変化時点のデータ内容であり、C,B♭,F#m,B♭,Cが和音であり、それらは16進データとして0x03,0x01,0x29,0x01,0x03と表される。変化時点tの時刻はT2(0),T2(1),T2(2),T2(3),T2(4)である。
【0099】
以上のように説明した和音解析処理により楽曲の第1・第2和音列が確定し、これを用いて、和音の進行を抽出することが出来るので、和音進行の変化を検出することができる。このときに付加音を合成して楽曲を再生することにより、上述の覚醒効果を得ることができる。
【0100】
以上のように説明した実施例によれば、このように和音進行の変化に応じて、楽曲に付加音を合成して再生することができる。そして、覚醒効果の高い音を同時に出力することができる。それにより、快適な音刺激で覚醒効果を得ることができるので、音楽を聴いている環境で、覚醒維持効果を得ることができる。したがって、音楽を損なうことなく覚醒効果の高い音を出力することができるので、心地よい環境で眠気解消が可能である。あらゆる音楽を用いることが出来るので、利用者は飽きることなく覚醒効果が得られる。付加する合成音は、和音進行が変化するタイミングで再生されるので、不快感を最小化して心地よく緊張感が得られる。
【0101】
また、心地よい環境で、音楽を損なうことなく覚醒効果の高い音を、音像位置を変えて出力することにより、心地よい環境で眠気解消することができる。また、音像位置を変化させ、また移動させることで覚醒効果が高まる。また、合成音の変化および音像位置の変化には、あらゆる音楽を用いることが出来るので、利用者は飽きることなく覚醒効果を得ることができる。
【0102】
この楽曲再生装置は、運転中の眠気防止だけでなく、家庭用として使用することにより、自宅で勉強する子供の眠気を防止することもできる。また、公共機関の電車、バスにも良い。この他、好きな音楽を聴きながら眠気解消できるので、楽曲再生装置の付加機能として広い分野で利用できる。

Claims (7)

  1. 再生される楽曲の和音進行を抽出する抽出手段と、
    前記抽出手段によって抽出された和音進行が変化するタイミングを検出する検出手段と、
    前記楽曲に付加音を合成して再生し、前記検出手段によって検出されたタイミングに合わせて前記付加音の音像を変化させる付加音再生手段と、
    を備えることを特徴とする楽曲再生装置。
  2. 前記抽出手段によって抽出された和音進行に対応して、ピッチを変更して前記付加音を生成する付加音生成手段を備え、前記付加音再生手段は、前記付加音生成手段によって生成された付加音を前記楽曲に合成して再生することを特徴とする請求項1に記載の楽曲再生装置。
  3. 前記付加音再生手段は、前記付加音を構成する音を、分散和音として再生することを特徴とする請求項1に記載の楽曲再生装置。
  4. 眠気の状態を検知する検知手段を備え、前記付加音再生手段は、前記検知手段によって眠気が発生したことが検知された場合、前記付加音の再生を開始することを特徴とする請求項1に記載の楽曲再生装置。
  5. 眠気の状態を検知する検知手段を備え、前記付加音再生手段は、前記検知手段によって眠気が強くなったことが検知された場合、前記付加音の周波数特性を変更することを特徴とする請求項1に記載の楽曲再生装置。
  6. 眠気の状態を検知する検知手段を備え、前記付加音再生手段は、前記検知手段によって眠気が強くなったことが検知された場合、前記付加音の音像の移動量を変化させることを特徴とする請求項1、2および4のいずれか一つに記載の楽曲再生装置。
  7. 再生される楽曲の和音進行を抽出する抽出工程と、
    前記抽出工程によって抽出された和音進行が変化するタイミングを検出する検出工程と、
    前記楽曲に付加音を合成して再生し、前記検出工程によって検出されたタイミングに合わせて前記付加音の音像を変化させる付加音再生工程と、
    を含むことを特徴とする楽曲再生方法。
JP2007538700A 2005-09-30 2006-09-25 楽曲再生装置および楽曲再生方法 Expired - Fee Related JP4658133B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005287562 2005-09-30
JP2005287562 2005-09-30
PCT/JP2006/318914 WO2007040068A1 (ja) 2005-09-30 2006-09-25 楽曲再生装置および楽曲再生方法

Publications (2)

Publication Number Publication Date
JPWO2007040068A1 JPWO2007040068A1 (ja) 2009-04-16
JP4658133B2 true JP4658133B2 (ja) 2011-03-23

Family

ID=37906111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007538700A Expired - Fee Related JP4658133B2 (ja) 2005-09-30 2006-09-25 楽曲再生装置および楽曲再生方法

Country Status (3)

Country Link
US (1) US7834261B2 (ja)
JP (1) JP4658133B2 (ja)
WO (1) WO2007040068A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186622A (ja) * 2010-03-05 2011-09-22 Denso Corp 覚醒支援装置
JP6845153B2 (ja) * 2015-11-19 2021-03-17 シャープ株式会社 出力音生成装置、出力音生成方法、及びプログラム
JP6720797B2 (ja) * 2016-09-21 2020-07-08 ヤマハ株式会社 演奏教習装置、演奏教習プログラム、および演奏教習方法
US10714065B2 (en) * 2018-06-08 2020-07-14 Mixed In Key Llc Apparatus, method, and computer-readable medium for generating musical pieces

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11109985A (ja) * 1997-10-03 1999-04-23 Toyota Motor Corp オーディオ装置及び覚醒維持方法
JPH11133990A (ja) * 1997-10-31 1999-05-21 Yamaha Corp 音声信号または楽音信号の処理装置および音声信号または楽音信号の処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001188541A (ja) * 1999-12-28 2001-07-10 Casio Comput Co Ltd 自動伴奏装置、及び記録媒体
JP2002041048A (ja) * 2000-07-28 2002-02-08 Kawai Musical Instr Mfg Co Ltd 電子楽器
JP2002229561A (ja) * 2001-02-02 2002-08-16 Yamaha Corp 自動アレンジ装置及び方法
JP2004045902A (ja) * 2002-07-15 2004-02-12 Kawai Musical Instr Mfg Co Ltd 電子楽器
JP2004147283A (ja) * 2002-08-27 2004-05-20 Yamaha Corp 音像定位装置、音像定位方法、サウンドデータ配信システム、サウンドデータ配信方法およびプログラム
JP2004254750A (ja) * 2003-02-24 2004-09-16 Nissan Motor Co Ltd カーオーディオシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2583809B2 (ja) * 1991-03-06 1997-02-19 株式会社河合楽器製作所 電子楽器
US5302777A (en) * 1991-06-29 1994-04-12 Casio Computer Co., Ltd. Music apparatus for determining tonality from chord progression for improved accompaniment
US5440756A (en) * 1992-09-28 1995-08-08 Larson; Bruce E. Apparatus and method for real-time extraction and display of musical chord sequences from an audio signal
US5641928A (en) * 1993-07-07 1997-06-24 Yamaha Corporation Musical instrument having a chord detecting function
JP3129623B2 (ja) 1995-01-25 2001-01-31 マツダ株式会社 覚醒維持装置
US5973253A (en) * 1996-10-08 1999-10-26 Roland Kabushiki Kaisha Electronic musical instrument for conducting an arpeggio performance of a stringed instrument
JP3398554B2 (ja) * 1996-11-15 2003-04-21 株式会社河合楽器製作所 自動アルペジオ演奏装置
JP3829439B2 (ja) * 1997-10-22 2006-10-04 ヤマハ株式会社 アルペジオ発音装置およびアルペジオ発音を制御するためのプログラムを記録したコンピュータ読み取り可能な媒体
JP2000066675A (ja) * 1998-08-19 2000-03-03 Yamaha Corp 自動演奏装置及びそのための記憶媒体
JP3536709B2 (ja) * 1999-03-01 2004-06-14 ヤマハ株式会社 付加音発生装置
US6057502A (en) * 1999-03-30 2000-05-02 Yamaha Corporation Apparatus and method for recognizing musical chords
JP2002023747A (ja) * 2000-07-07 2002-01-25 Yamaha Corp 自動作曲方法と装置及び記録媒体

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11109985A (ja) * 1997-10-03 1999-04-23 Toyota Motor Corp オーディオ装置及び覚醒維持方法
JPH11133990A (ja) * 1997-10-31 1999-05-21 Yamaha Corp 音声信号または楽音信号の処理装置および音声信号または楽音信号の処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001188541A (ja) * 1999-12-28 2001-07-10 Casio Comput Co Ltd 自動伴奏装置、及び記録媒体
JP2002041048A (ja) * 2000-07-28 2002-02-08 Kawai Musical Instr Mfg Co Ltd 電子楽器
JP2002229561A (ja) * 2001-02-02 2002-08-16 Yamaha Corp 自動アレンジ装置及び方法
JP2004045902A (ja) * 2002-07-15 2004-02-12 Kawai Musical Instr Mfg Co Ltd 電子楽器
JP2004147283A (ja) * 2002-08-27 2004-05-20 Yamaha Corp 音像定位装置、音像定位方法、サウンドデータ配信システム、サウンドデータ配信方法およびプログラム
JP2004254750A (ja) * 2003-02-24 2004-09-16 Nissan Motor Co Ltd カーオーディオシステム

Also Published As

Publication number Publication date
US7834261B2 (en) 2010-11-16
US20090293706A1 (en) 2009-12-03
JPWO2007040068A1 (ja) 2009-04-16
WO2007040068A1 (ja) 2007-04-12

Similar Documents

Publication Publication Date Title
KR100646697B1 (ko) 자동적인 음악 생성 방법 및 시스템
JP4658133B2 (ja) 楽曲再生装置および楽曲再生方法
JP2001215979A (ja) カラオケ装置
JP3861381B2 (ja) カラオケ装置
JP7367835B2 (ja) 録音再生装置、録音再生装置の制御方法及び制御プログラム並びに電子楽器
JP4211388B2 (ja) カラオケ装置
Leydon The soft-focus sound: Reverb as a gendered attribute in mid-century mood music
CN113838446B (zh) 电子乐器、伴奏音指示方法以及伴奏音自动生成装置
JP5486456B2 (ja) カラオケシステム
JP2797648B2 (ja) カラオケ装置
US20170229113A1 (en) Environmental sound generating apparatus, environmental sound generating system using the apparatus, environmental sound generating program, sound environment forming method and storage medium
US20080000345A1 (en) Apparatus and method for interactive
JP2007057727A (ja) 楽音再生機能付き電子打楽器拡声装置
JP3812510B2 (ja) 演奏データ処理方法および楽音信号合成方法
JPH11167392A (ja) カラオケ再生装置、通信カラオケシステム、およびカラオケプログラムを記録した読み取り可能な記録媒体
JP4244338B2 (ja) 音出力制御装置、楽曲再生装置、音出力制御方法、そのプログラム、および、そのプログラムを記録した記録媒体
WO2024034117A1 (ja) 音声データ処理装置、音声データ処理方法およびプログラム
JP7117229B2 (ja) カラオケ装置
JP3812509B2 (ja) 演奏データ処理方法および楽音信号合成方法
JPH08146977A (ja) カラオケ装置
JP2548723Y2 (ja) 楽音再生装置
JP3547396B2 (ja) スキャット入力式合奏システムを備えたカラオケ装置
JP3166670B2 (ja) カラオケ装置および自動演奏装置
JPH10171475A (ja) カラオケ装置
JP2016057389A (ja) コード決定装置及びコード決定プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4658133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees