JP2016183988A - 音楽生成装置 - Google Patents

音楽生成装置 Download PDF

Info

Publication number
JP2016183988A
JP2016183988A JP2015062707A JP2015062707A JP2016183988A JP 2016183988 A JP2016183988 A JP 2016183988A JP 2015062707 A JP2015062707 A JP 2015062707A JP 2015062707 A JP2015062707 A JP 2015062707A JP 2016183988 A JP2016183988 A JP 2016183988A
Authority
JP
Japan
Prior art keywords
music
music information
sensor
detection sensor
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015062707A
Other languages
English (en)
Other versions
JP6575101B2 (ja
Inventor
英人 嶋田
Hideto Shimada
英人 嶋田
宇田 尚典
Naonori Uda
尚典 宇田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2015062707A priority Critical patent/JP6575101B2/ja
Publication of JP2016183988A publication Critical patent/JP2016183988A/ja
Application granted granted Critical
Publication of JP6575101B2 publication Critical patent/JP6575101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】煩わしさを感じさせることなく、車両の外部環境及び外部環境における対象の存在を音楽により搭乗者に知らせることができる音楽生成装置を提供する。【解決手段】車両の外部環境に応じた音楽を生成する音楽生成装置30は、車両の外部環境の状況に応じた信号を出力する環境検出センサの出力信号に基づいて曲を表す音楽情報を生成する。車両の外部環境に対象が存在することを表す信号を出力する対象検出センサの出力信号に基づいて、効果音を表す音楽情報を生成する音楽情報生成手段46と、曲を表す音楽情報と効果音を表す音楽情報とを合成した音楽情報を、車両の外部環境に応じた音楽として生成する音楽情報合成手段48と、を含む。【選択図】図5

Description

本発明は車両の外部環境に応じた音楽を生成する音楽生成装置に関する。
対象物や状況に応じて音楽を生成する技術が種々開発されている。例えば、非特許文献1に記載の技術では、木の電圧を取得しその情報を基に音楽を生成する。非特許文献2に記載の技術では、鉄道の窓からの風景(車窓)をカメラで解釈することにより音楽を生成する。非特許文献3に記載の技術では、GPS情報、車のスピード、エンジン回転数などの車の状況から音楽を生成することで、運転しているものの気分に合わせて自動的に音楽が生成される。また、特許文献1には、センサ信号をAD変換器でデジタル値に変換し、その情報を基に作曲データ(MIDI信号)に変換する音響構成装置が記載されている。
特許第3381074号公報
http://forestsymphony.ycam.jp/info/# http://gigazine.net/news/20110202_sound_tracks_jmaf2010/ http://www.volkswagen.co.uk/playtheroad
しかしながら、車両の外部環境に応じて音楽を生成する技術は従来ない。非特許文献3に記載の技術は、車の状況から音楽を生成しているのであって、車両の外部環境に応じて音楽を生成するものではない。特許文献1に記載の音響構成装置は、外部環境に応じて音楽を生成する技術ではあるが、外部環境から常に信号が取得できる環境検出センサを用いるものに過ぎない。
一方、車両の搭乗者が運転する時に重点的に認知するのは、対向車両、人物、建物など障害物である。このため、車両には障害物を検出する対象検出センサが種々設置されている。対象検出センサによれば、外部環境に対象が存在する場合にだけ信号が取得される。したがって、対象検出センサにより取得した信号に基づいて音楽を生成した場合、外部環境に対象が存在するときにしか音楽が生成されない。
本発明は上記事情に鑑みなされたものであり、本発明の目的は、煩わしさを感じさせることなく、車両の外部環境及び外部環境における対象の存在を音楽により搭乗者に知らせることができる音楽生成装置を提供することにある。
上記目的を達成するために請求項1に係る発明は、車両の外部環境に応じた音楽を生成する音楽生成装置であって、前記車両の外部環境の状況に応じた信号を出力する環境検出センサの出力信号に基づいて曲を表す音楽情報を生成し、前記車両の外部環境に対象が存在することを表す信号を出力する対象検出センサの出力信号に基づいて効果音を表す音楽情報を生成する音楽情報生成手段と、前記曲を表す音楽情報と前記効果音を表す音楽情報とを合成した音楽情報を、前記車両の外部環境に応じた音楽として生成する音楽情報合成手段と、を含む、音楽生成装置である。
請求項2に係る発明は、前記音楽情報生成手段は、前記環境検出センサの出力信号が示す値が予め定めた閾値以上の場合に、当該出力信号から曲を表す音楽情報を生成し、前記対象検出センサの出力信号が示す値が予め定めた閾値以上の場合に、当該出力信号から効果音を表す音楽情報を生成する、請求項1に記載の音楽生成装置である。
請求項3に係る発明は、前記環境検出センサ及び前記対象検出センサの少なくとも一方のセンサの反応が増加する場合に、前記音楽情報生成手段によって生成される前記曲を表す音楽情報の構成要素及び前記効果音を表す音楽情報の構成要素を変化させる曲調変更手段を更に備えた、請求項1または請求項2に記載の音楽生成装置である。
請求項4に係る発明は、前記曲調変更手段が、前記センサの反応の増加を表す物理量が予め定めた閾値以上の場合に、前記音楽情報生成手段によって生成される前記曲を表す音楽情報の構成要素及び前記効果音を表す音楽情報の構成要素を変化させる、請求項3に記載の音楽生成装置である。
請求項5に係る発明は、前記環境検出センサにより出発地から目的地までの経路上における車両の位置が検出できる場合に、前記曲調変更手段が、前記車両から前記目的地までの距離に応じて、前記音楽情報生成手段によって生成される前記曲を表す音楽情報の構成要素及び前記効果音を表す音楽情報の構成要素を変化させる、請求項3に記載の音楽生成装置である。
請求項6に係る発明は、前記曲を表す音楽情報、前記効果音を表す音楽情報、及び前記合成した音楽情報の各々が、MIDIファイル形式の情報である、請求項1から請求項5までのいずれか1項に記載の音楽生成装置である。
本発明の音楽生成装置によれば、煩わしさを感じさせることなく、車両の外部環境及び外部環境における対象の存在を音楽により搭乗者に知らせることができる。
本発明の実施の形態に係る音楽生成装置の全体構成の一例を示すブロック図である。 センサの構成の一例を示すブロック図である。 音楽出力部の構成の一例を示すブロック図である。 音楽情報生成部のハードウエア構成の一例を示す図である。 音楽情報生成部の詳細構成の一例を示すブロック図である。 (A)及び(B)はセンサ機能の相違を説明する模式図である。 各種センサの車両への搭載例を示す模式図である。 (A)は実験1での外部環境の写真であり、(B)及び(C)は実験1の結果であるセンサ波形を示すグラフである。 (A)は実験2の外部環境の写真であり、(B)及び(C)は実験2の結果であるセンサ波形を示すグラフである。 「音楽生成処理」の手順の一例を示すフローチャートである。 「音楽生成処理」の手順の他の一例を示すフローチャートである。 (A)〜(D)はセンサの反応が増加したか否かを判定する手法の一例を説明する図である
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。
<音楽生成装置>
(全体構成)
まず、本実施の形態に係る音楽生成装置の全体構成について説明する。
図1は本発明の実施の形態に係る音楽生成装置の全体構成の一例を示すブロック図である。本実施の形態に係る音楽生成装置は、車両の外部環境に応じた音楽を生成する音楽生成装置である。図1に示すように、音楽生成装置10は、環境検出センサ20、対象検出センサ20、音楽情報生成部30、及び音楽出力部60を備えている。環境検出センサ20及び対象検出センサ20の各々は、音楽情報生成部30に電気的に接続されており、音楽情報生成部30に出力信号を出力する。また、音楽情報生成部30は、音楽出力部60に電気的に接続されており、音楽出力部60に音楽情報を出力する。
環境検出センサ20は、車両の外部環境の状況に応じた信号を出力するセンサであり、外部環境から常に信号が取得できる。これに対して、対象検出センサ20は、車両の外部環境に対象(対向車両、人物、建物など障害物)が存在することを表す信号を出力するセンサであり、外部環境に対象が存在する場合にだけ信号が取得される。音楽情報生成部30は、環境検出センサ20の出力信号に基づいて曲を表す音楽情報を生成し、対象検出センサ20の出力信号に基づいて効果音を表す音楽情報を生成する。
そして、効果音を表す音楽情報が生成された場合に、曲を表す音楽情報と効果音を表す音楽情報とを合成して、合成した音楽を表す音楽情報を生成して、音楽出力部60に出力する。音楽出力部60は、入力された音楽情報に基づいて音楽を演奏する。なお、音楽情報生成部30の詳細な構成については後述する。
音楽には、メロディ(旋律)、ハーモニー(和声)、リズム(律動)の三要素がある。また、音には、高さ(周波数)、大きさ(音圧レベル)、音色(周波数成分)の三要素がある。本実施の形態における「曲」とは、音楽の三要素のうち、「音」の高さが時間と共に変化するメロディと、「音」の時間的な長さが一定の規律で変化するリズムとを、少なくとも含むものである。
なお、図1に示す例では、1個の環境検出センサ20と1個の対象検出センサ20とを備える例について説明したが、センサの個数は2個に限定されるものではない。複数の環境検出センサを備えていてもよく。複数の対象検出センサを備えていてもよい。なお、環境検出センサ20と対象検出センサ20とを区別する必要が無い場合は、センサ20と総称する。
(センサ)
次に、センサの概略構成について説明する
図2はセンサの構成の一例を示すブロック図である。図2に示すように、センサ20は、検出部22、A/D変換部24、処理部26、及び送信部28を備えている。A/D変換部24、処理部26、及び送信部28は、検出部22側から記載した順序で電気的に接続されている。環境検出センサ20の検出部22は、前方を撮像した前方画像を表す画像信号等のアナログ信号をA/D変換部24に出力する。対象検出センサ20の検出部22は、電磁波等の特定の物理量を検出し、検出した物理量に応じたアナログ信号をA/D変換部24に出力する。
A/D変換部24は、入力されたアナログ信号をデジタル信号に変換して、処理部26に出力する。処理部26は、入力されたデジタル信号に対して増幅処理やフィルタリング処理等を行い、波形整形されたデジタル信号を送信部28に出力する。送信部28は、入力されたデジタル信号を、音楽情報生成部30に送信する。即ち、波形整形されたデジタル信号を、センサ20の出力信号として、音楽情報生成部30に出力する。
(音楽出力部)
次に、音楽出力部の構成について説明する。
図3は音楽出力部の構成の一例を示すブロック図である。図3に示すように、音楽出力部60は、D/A変換部62、増幅部64、及びスピーカ66を備えている。D/A変換部62、増幅部64、及びスピーカ66は、音楽情報の入力側から記載した順序で電気的に接続されている。
音楽情報生成部30は、合成した音楽を表す音楽情報を、デジタル信号として音楽出力部60に出力する。入力されたデジタル信号は、D/A変換部62によりアナログ信号に変換され、増幅部64により増幅されて、スピーカ66に出力される。スピーカ66は、入力されたアナログ信号を応じて音を発生させる。これにより、音楽出力部60では、入力された音楽情報に基づいて、車両の外部環境に応じた音楽が演奏される。
(音楽情報生成部)
次に、音楽情報生成部について説明する。
図4は音楽情報生成部のハードウエア構成の一例を示す図である。図4に示すように、音楽情報生成部30は、各種制御及び各種演算を行うコンピュータとして構成されている。即ち、音楽情報生成部30は、CPU30A、ROM30B、RAM30C、不揮発性メモリ30D、及び入出力インターフェース(I/O)30Eを備えている。CPU30A、ROM30B、RAM30C、不揮発性メモリ30D、及びI/O30Eの各々は、バス30Fを介して接続されている。
本実施の形態では、ROM30Bには、後述する「音楽生成処理」を実行するための制御プログラムが記憶されている。また、「MIDI信号変換用のソフトウエア」や、「MIDI信号から音楽情報を生成するソフトウエア」も、ROM30Bに記憶されている。これらのMIDI用ソフトウエアとして、汎用のソフトウエアを用いてもよい。CPU30Aは、ROM30Bに記憶されたプログラムを読み出し、RAM30Cをワークエリアとして使用してプログラムを実行する。なお、ここでは、ソフトウエアはプログラムと同義である。
MIDI(Musical Instrument Digital Interface)とは、音楽情報をデジタル信号で通信するための国際規格である。MIDI信号とは、MIDI規格の情報であり、標準的なMIDIファイル形式(SMF:Standard MIDI File Format)の情報である。「MIDI信号変換用のソフトウエア」では、音の基本振動数を「ノートナンバー」、音圧レベルを「ベロシティレベル」、音色を「楽器名を表すナンバー」、時間変化を「ノートオン/ノートオフ」を表すデータに各々変換している。
また、「MIDI信号から音楽情報を生成するソフトウエア」では、MIDI信号のノートナンバーに音源を割り当てると共に、音源に付随する表現に関する各種パラメータを設定、変更する。例えば、環境検出センサである画像センサからの出力信号から得られたMIDI信号について、ノートナンバー0〜87をピアノの88鍵盤の音階に割り当ててもよい。また、波形データのある範囲を繰り返し再生するループ、音源の時間変化を示すエンベロープ、各音源の音量変化の設定、音の鮮明度の変化をカットオフ周波数の設定により行うフィルタの設定、音像定位、音の強弱を表すベロシティ、及び同時に発音させる音源の選択等、各種のパラメータを設定、変更してもよい。
音楽情報生成部30には、I/O30Eを介して、上記のセンサ20や音楽出力部60に加えて、搭乗者等の操作を受け付ける操作部32、搭乗者に各種情報を表示する表示部34、及び通信回線を介して外部装置と通信を行うためのインターフェースである通信部36の各部が接続されている。音楽情報生成部30は、センサ20から出力信号を受け取り、音楽出力部60に音楽情報を出力する。また、CPU30Aは、音楽出力部60、操作部32、表示部34、及び通信部36の各部を制御する。なお、情報の授受は通信部36を介して行うこともできる。
なお、音楽情報生成部30には、各種ドライブが接続されていてもよい。各種ドライブは、フレキシブルディスク、光磁気ディスク、CD−ROMなどのコンピュータ読み取り可能な可搬性の記録媒体からデータを読み込んだり、記録媒体に対してデータを書き込んだりする装置である。各種ドライブを備える場合には、可搬性の記録媒体に制御プログラムを記録しておいて、これを対応するドライブで読み込んで実行してもよい。
次に、音楽情報生成部を機能面から説明する。
図5は音楽情報生成部の構成の一例を示す機能ブロック図である。図5に示すように、音楽情報生成部30は、メモリ40、閾値判定部42、MIDI変換部44、音楽情報生成部46、音楽情報合成部48、曲調変更判定部50、及び曲調変更部52を備えている。
センサ20からはデジタルの出力信号が出力されている。音楽情報生成部30は、予め定めた周波数(例えば、30Hz〜60Hz)でサンプリングを行い、センサ20からの出力信号を取得する。メモリ40は、サンプリングした出力信号を一時的に保持する。デジタルの出力信号は、センサ20の出力電圧を時間ごとにデジタル値で表したものである。以下、出力信号の表す値を「センサ20の出力値」という。出力信号の表す値(センサの出力値)は、サンプリング時間内での平均値、最大値等の代表値とすることができる。
また、メモリ40は、環境検出センサ20からの出力信号と対象検出センサ20からの出力信号の各々を、閾値判定部42、MIDI変換部44、及び曲調変更判定部50の各部に出力する。メモリ40は、センサ20からの出力信号を、取得した順序で各部に出力する。
閾値判定部42は、センサ20の出力値が、予め定めた閾値以上か否かを判定し、判定結果をMIDI変換部44に通知する。なお、判定手法については後述する。MIDI変換部44は、センサ20の出力値が閾値以上という結果を受け取ると、センサ20からの出力信号をMIDI信号に変換する。そして、MIDI変換部44は、得られたMIDI信号を、音楽情報生成部46、及び曲調変更部52の各部に出力する。音楽情報生成部46は、MIDI信号を受け取ると、MIDI信号から音楽情報を生成する。
ここで、出力信号が環境検出センサ20からの信号である場合には、MIDI変換部44は曲用のMIDI信号を生成し、音楽情報生成部46は曲用のMIDI信号から曲を表す音楽情報を生成する。一方、出力信号が対象検出センサ20からの信号である場合には、MIDI変換部44は効果音用のMIDI信号を生成し、音楽情報生成部46は効果音用のMIDI信号から効果音を表す音楽情報を生成する。曲を表す音楽情報は、常に生成されるが、効果音を表す音楽情報は、外部環境に対象が存在する場合にだけ生成される。
音楽情報生成部46は、曲を表す音楽情報と効果音を表す音楽情報とを、音楽情報合成部48に出力する。音楽情報合成部48は、曲を表す音楽情報と効果音を表す音楽情報とを合成し、車両の外部環境に応じた音楽を表す音楽情報を生成する。なお、効果音を表す音楽情報が無い場合は、曲を表す音楽情報が、車両の外部環境に応じた音楽を表す音楽情報となる。そして、音楽情報合成部48は、得られた音楽情報を音楽出力部60に出力する。
曲調変更判定部50は、センサ20の出力値から、曲調変更条件を充足しているか否かを判定し、判定結果を曲調変更部52に通知する。なお、曲調変更条件、判定手法については後述する。曲調変更部52は、曲調変更条件を充足しているという結果を受け取ると、MIDI変換部44から得られたMIDI信号を、曲調が変化するように変換する。そして、変換したMIDI信号を、音楽情報生成部46に出力する。音楽情報生成部46は、変換されたMIDI信号を受け取ると、変換されたMIDI信号から音楽情報を生成する。
例えば、曲調には、マイナー調、メジャー調、クラシック風、ボサノバ風、日本風、琉球風、アラビック風等がある。曲調の変化とは、楽器(音色)の割り当て、スケール(音の高さの間隔)、コード進行(2音以上の音の重なり)、リズム等の構成要素を変更することである。MIDI信号においてこれ等の構成要素を変更することで曲調が変化する。効果音用のMIDI信号においても、弦楽器から打楽器に変更する等、楽器の割り当てを変更することによって曲調が変化する。
曲調変更条件としては、センサの反応の増加が挙げられる。例えば、景色等の外部環境が大幅に変化すると環境検出センサ20の反応が増加する。また、外部環境に対象(対向車両、人物、建物など障害物)が出現すると対象検出センサ20の反応が増加する。センサの反応量が閾値以上になったら効果音を発生させる等、センサの反応の増加に応じて曲調を変化させることで、対象の存在の有無を含め外部環境の変化が表現される。
また、カーナビゲーション・システムを搭載した車両においては、曲調変更条件として、目的地までの距離が挙げられる。カーナビゲーション・システムは、一般に、人工衛星からの電波を受信して車両の位置を取得するGPSを含み、位置センサとして環境検出センサ20の1つと位置づけられる。
カーナビゲーション・システムによれば、地図情報等を参照して、出発地Aから目的地Bまでの経路上における車両の位置から、目的地Bまでの距離が測定できる。例えば、目的地Bまでの距離が閾値以下になったら効果音を発生させる等、目的地Bまでの距離に応じて曲調を変化させることで、「もうすぐ目的地Bに着く」といった期待感の盛り上がり等、物語性が表現される。
<センサの機能>
次に、センサの機能について説明する。
図6(A)及び(B)はセンサ機能の相違を説明する模式図である。本実施の形態では、環境検出センサ20と対象検出センサ20という2種類のセンサを用いる。図6(A)に示すように、環境検出センサ20は、検出範囲が広いので、外部環境から常に信号が取得できる。しかしながら、外部環境に対象が存在する場合でも、対象を検知するのが難しい。一方、図6(B)に示すように、対象検出センサ20は、指向性が高く検出範囲が狭いので、外部環境に対象が存在する場合にだけ信号が取得される。
上述した通り、車両には障害物を検出する対象検出センサが種々設置されているが、対象検出センサにより取得した信号に基づいて音楽を生成した場合、外部環境に対象が存在する場合にしか音楽が生成されない。
本実施の形態では、環境検出センサの出力信号に基づいて曲を表す音楽情報を生成し、対象検出センサの出力信号に基づいて効果音を表す音楽情報を生成し、曲を表す音楽情報と効果音を表す音楽情報とを合成して、車両の外部環境に応じた音楽を表す音楽情報を生成するので、常に音楽が生成される。付言すれば、効果音は音楽を演奏するのに必須の要素ではない。対象(対向車両、人物、建物など障害物)の出現等のイベント発生時に、効果音を発生させて、搭乗者にイベントの発生を認識させる。
環境検出センサ20としては、カメラ等の画像センサ、光センサ、放射温度計等の温度センサ、GPSを含むカーナビゲーション・システム等の位置センサなどがある。対象検出センサ20としては、レーダ等の電磁波センサ、ドップラー効果を検出するドップラーセンサ、加速度センサ等がある。例えば、MIDI信号変換時に、曲を表す音楽情報を生成するために、画像センサにはハープ、光センサには尺八、温度センサにはピアノなどの楽器音源を割り当ててもよい。また、効果音を表す音楽情報を生成するために、電磁波センサにはトライアングル、ドップラーセンサにはティンパニーなどの楽器音源を割り当ててもよい。
(検出実験)
次に、外部環境に対するセンサの反応を観察する実験について説明する
図7は各種センサの車両への搭載例を示す模式図である。図7に示すように、実験では、「環境検出センサ」として、搭乗者の目の位置にウエブカメラ(画像センサ)を設置した。また、「対象検出センサ」として、フロント側の車内に5GHzの電磁場センサと10GHzのドップラーセンサとを設置し、フロント側の車外に24GHzのドップラーセンサを設置した。なお、5GHzの電磁場センサは車内をセンシングしている。
5GHzの電磁場センサとしては、特開2014−137347号公報の図3に示す回路構成のセンサを用いた。10GHzのドップラーセンサとしては、検出部及びA/D変換部として機能する浅草技研社製の製品名「DX-XBAND」に、処理部としてFM復調回路を取り付けたセンサを用いた。24GHzのドップラーセンサとしては、検出部及びA/D変換部として機能するイノセント社製の製品名「IPM-165」に、処理部としてFM復調回路を取り付けたセンサを用いた。なお、通信部については説明を省略する。
図8(A)は実験1での外部環境の写真であり、図8(B)及び(C)は実験1の結果であるセンサ波形を示すグラフである。図8(A)に示すように実験1の外部環境には対象(対向車両、人物、建物)が存在しない。図8(B)に示すウエブカメラのRGB出力を見ると、縦軸に示す色の強さは、横軸に示す時間に対して旋律を描くように緩やかに変化している。また、図8(C)に示す各種センサの出力値を見ると、5GHzの電磁場センサの反応(●印で表す)だけが増加し、縦軸に示す電圧値が横軸に示す時間に対して激しく変動している。これに対し、10GHzドップラーセンサの反応(△印で表す)と24GHzのドップラーセンサの反応(×印で表す)は少ない。
図9(A)は実験2での外部環境の写真であり、図9(B)及び(C)は実験2の結果であるセンサ波形を示すグラフである。図8(A)に示すように実験2の外部環境には対象が多数存在する。図9(B)に示すウエブカメラのRGB出力を見ると、縦軸に示す色の強さは、横軸に示す時間に対して旋律を描くように緩やかに変化している。また、図9(C)に示す各種センサの出力値を見ると、10GHzのドップラーセンサの反応(△印で表す)と24GHzのドップラーセンサの反応(×印で表す)が増加している。特に、24GHzのドップラーセンサの反応(×印で表す)は、縦軸に示す電圧値が横軸に示す時間に対して激しく変動している。これに対し、電磁場センサの反応(●印で表す)は少ない。
実験1及び実験2の結果から、環境検出センサは外部環境から常に信号が取得でき、環境検出センサの出力信号に基づいて、常に曲を表す音楽情報を生成できることが分かる。また、対象検出センサは、外部環境に対象が存在する場合にだけ信号が取得され、対象検出センサの出力信号に基づいて、イベントの発生を知らせる効果音を表す音楽情報を生成できることが分かる。また、外部環境に対象が存在すると、対象が存在しない場合に比べてセンサの反応が増加することが分かる。
<音楽生成処理>
次に、音楽情報生成部30のCPU30Aにより実行される「音楽生成処理」について説明する。「音楽生成処理」は、操作部32を介して搭乗者からの開始指示があると開始される。図10は「音楽生成処理」の手順の一例を示すフローチャートである。
まず、ステップ100で、センサからの出力信号を取得(サンプリング)したか否かを判定する。出力信号を取得した場合は、ステップ102に進み、出力信号を取得していない場合は、ステップ100に戻り判定を繰り返す。次に、ステップ102で、取得した信号が環境検出センサからの出力信号か否かを判定する。
環境検出センサからの出力信号である場合は、ステップ104に進む。環境検出センサからの出力信号でない場合は、対象検出センサからの出力信号であるため、ステップ118に進む。この通り、図10に示すフローチャートには、環境検出センサの出力信号から曲を表す音楽を生成する第1のラインと、対象検出センサの出力信号から効果音を表す音楽を生成する第2のラインとがある。環境検出センサからの出力信号と対象検出センサからの出力信号とは、略同時に取得され並列に処理される。
次に、ステップ104で、今回サンプリングした出力信号が表す出力値と、前回サンプリングした出力信号の出力値との差分を算出する。なお、2つの出力信号は、同じ環境検出センサからの出力信号である。次に、ステップ106で、算出した差分が予め定めた閾値X以上か否かを閾値判定する。閾値X以上である場合はステップ108に進み、閾値X未満である場合はステップ110に進む。
次に、ステップ108では、MIDI信号を変化させる。一方、ステップ110では、MIDI信号を変化させない。即ち、出力値の差分が閾値以上の場合は、今回サンプリングした出力信号を曲用のMIDI信号に変換するが、出力値の差分が閾値未満の場合は、前回サンプリングした出力信号から生成した曲用のMIDI信号を続けて使用する。これにより、常時、音楽が演奏される。なお、変換後のMIDI信号は何れかの記憶部に記憶され、必要に応じて読み出されて使用される。
また、ステップ106の閾値判定と並行して、ステップ112で、環境検出センサからの出力信号に基づいて、曲調変更条件を充足するか否かを判定する。曲調変更条件を充足する場合は、ステップ114とステップ128に進み、各ステップで曲調を変化させる。例えば、ステップ114では、曲用のMIDI信号の構成要素を変更することで曲調を変化させ、ステップ128では、効果音用のMIDI信号の構成要素を変更することで曲調を変化させる。
後述する通り、ステップ126で曲調変更条件を充足する場合にも、ステップ114で曲調を変化させる。即ち、効果音を表す音楽を生成する第2のラインにおける判定結果が、曲を表す音楽を生成する第1のラインにおける処理に影響を及ぼす。一方、ステップ112及びステップ126の両方で曲調変更条件を充足しない場合は、ステップ117に進み、ステップ117で、曲調を変化させない旨を通知する。
次に、ステップ116で、曲用のMIDI信号から曲を表す音楽情報を生成する。ステップ114で曲調を変化させる場合は、構成要素が変更された変換後の曲用MIDI信号から曲を表す音楽情報を生成する。一方、曲調を変化させない旨を通知を受けた場合は、構成要素が変更されていない曲用MIDI信号から曲を表す音楽情報を生成する。なお、ステップ104からステップ116までが第1のラインである。
一方、ステップ102で、対象検出センサからの出力信号であると判定した場合は、ステップ118で、今回サンプリングした出力信号が表す出力値と、前回サンプリングした出力信号の出力値との差分を算出する。なお、2つの出力信号は、同じ対象検出センサからの出力信号である。次に、ステップ120で、算出した差分が予め定めた閾値Y以上か否かを閾値判定する。閾値Y以上である場合はステップ122に進み、閾値Y未満である場合はステップ124に進む。
次に、ステップ122では、MIDI信号を変化させる。一方、ステップ124では、効果音を表す音楽情報を生成しない旨の通知を行う。即ち、出力値の差分が閾値以上の場合は、今回サンプリングした出力信号を効果音用のMIDI信号に変換するが、出力値の差分が閾値未満の場合は、ノイズとして処理し、効果音を表す音楽情報を生成しない旨の通知だけを行う。これにより、外部環境において対象の存在を検出した場合にだけ効果音が発生する。
また、ステップ120の閾値判定と並行して、ステップ126で、対象検出センサからの出力信号に基づいて、曲調変更条件を充足するか否かを判定する。曲調変更条件を充足する場合は、ステップ114とステップ128に進み、各ステップで曲調を変化させる。
上記の通り、ステップ112で曲調変更条件を充足する場合にも、ステップ128で曲調を変化させる。即ち、曲を表す音楽を生成する第1のラインにおける判定結果が、効果音を表す音楽を生成する第2のラインにおける処理に影響を及ぼす。一方、ステップ112及びステップ126の両方で曲調変更条件を充足しない場合は、ステップ117に進み、ステップ117で、曲調を変化させない旨を通知する。
次に、ステップ130で、効果音用のMIDI信号から効果音を表す音楽情報を生成する。ステップ128で曲調を変化させる場合は、構成要素が変更された変換後の効果音用MIDI信号から効果音を表す音楽情報を生成する。一方、曲調を変化させない旨を通知を受けた場合は、構成要素が変更されていない効果音用MIDI信号から効果音を表す音楽情報を生成する。なお、ステップ118からステップ130までが第2のラインである。
次に、ステップ132で、曲を表す音楽情報と効果音を表す音楽情報とを合成して、車両の外部環境に応じた音楽を表す音楽情報を生成する。対象検出センサの出力値の差分が閾値未満の場合は、ステップ124で、効果音を表す音楽情報を生成しない旨が通知されている。この場合には、曲を表す音楽情報が、車両の外部環境に応じた音楽を表す音楽情報となる。
次に、ステップ134で、得られた音楽情報を音楽出力部に出力する。次に、ステップ136で、搭乗者からの停止指示があったか否かを判定する。停止指示があればルーチンを終了し、停止指示が無ければステップ100に戻って、ステップ100からステップ136までの手順を繰り返す。
なお、上記の図10、図11に示す例では、2つの出力信号が同じセンサからの出力信号であることを前提として、今回サンプリングした出力信号が表す出力値と前回サンプリングした出力信号の出力値との差分を算出し、算出した差分に基づいて閾値判定する例について説明したが、今回サンプリングした出力信号が表す出力値に基づいて閾値判定してもよい。出力値の差分に基づいて閾値判定する方が、リズムの変化に富む音楽を生成することができる。
(曲調変更条件の充足判定)
ここで、図12(A)〜(D)を参照して、曲調変更条件がセンサの反応の増加である場合の条件充足判定手法について説明する。図12(A)に示すように、センサの出力信号は、センサの出力値の時間変化として得られる。例えば、図9(C)に示す実験2の結果からも分かるように、外部環境に多数の対象が存在するとセンサの反応が増加する。
図12(B)に示すように、センサの出力信号を積分処理することで、センサの反応量の時間変化に変換できる。図12(C)に示すように、ここで、センサの反応量に対して閾値Zを予め定める。そして、センサの反応量が予め定めた閾値Z以上の場合に、センサの反応が増加した(曲調変更条件を充足した)と閾値判定することができる。
なお、曲調の変化が頻繁に起こらないように、時間についても閾値Tを予め定めてもよい。そして、センサの反応量が予め定めた閾値Z以上の状態が、予め定めた閾値T以上の時間続く場合に、センサの反応が増加した(曲調変更条件を充足した)と時間判定してもよい。
<変形例>
なお、上記各実施の形態で説明した音楽生成装置の構成は一例であり、本発明の主旨を逸脱しない範囲内においてその構成を変更してもよいことは言うまでもない。
例えば、上記の実施の形態では、MIDI信号変換を行うか否かの判定のために閾値X及び閾値Yを定め、曲調変更条件を充足するか否かの判定のために閾値Z及び閾値Tを予め定めているが、閾値X、閾値Y、閾値Z、及び閾値Tの各値は、音楽の演奏が円滑に行われるように、音楽の演奏状況に応じて適宜定めればよい。
また、上記の実施の形態では、図10に示すように、環境検出センサの出力信号に基づいて曲調を変化させるか否かを判定すると共に、対象検出センサの出力信号に基づいて曲調を変化させるか否かを判定しているが、図11に示すように、対象検出センサの反応の増加に応じて曲調を変化させる等、対象検出センサの出力信号に基づいて曲調を変化させるか否かを判定するだけにしてもよい。
具体的には、曲を表す音楽を生成する第1のラインにおいては、図10のステップ112の曲調変更条件を充足するか否かを判定する手順を省略する。そして、効果音を表す音楽を生成する第2のラインにおいては、ステップ126で曲調変更条件を充足するか否かを判定し、曲調変更条件を充足しない場合は、ステップ117に進み、ステップ117で、曲調を変化させない旨を通知する。
曲調を変化させない旨を通知を受けた場合は、第1のラインのステップ116で、構成要素が変更されていない曲用MIDI信号から曲を表す音楽情報を生成すると共に、第2のラインのステップ130で、構成要素が変更されていない効果音用MIDI信号から効果音を表す音楽情報を生成する。なお、その他の手順は図10と同じであるため説明を省略する。
また、上記の実施の形態では、MIDI信号を変換することで曲調を変化させているが、リズムの変更の場合は、センサのダイナミックレンジ、センサ特性、出力信号のサンプリング速度、プログラム処理速度を変更するなどしてもよい。
10 音楽生成装置
20 センサ
20 環境検出センサ
20 対象検出センサ
22 検出部
24 A/D変換部
26 処理部
28 送信部
30 音楽情報生成部
32 操作部
34 表示部
36 通信部
40 メモリ
42 閾値判定部
44 MIDI変換部
46 音楽情報生成部
48 音楽情報合成部
50 曲調変更判定部
52 曲調変更部
60 音楽出力部
62 変換部
64 増幅部
66 スピーカ

Claims (6)

  1. 車両の外部環境に応じた音楽を生成する音楽生成装置であって、
    前記車両の外部環境の状況に応じた信号を出力する環境検出センサの出力信号に基づいて曲を表す音楽情報を生成し、前記車両の外部環境に対象が存在することを表す信号を出力する対象検出センサの出力信号に基づいて効果音を表す音楽情報を生成する音楽情報生成手段と、
    前記曲を表す音楽情報と前記効果音を表す音楽情報とを合成した音楽情報を、前記車両の外部環境に応じた音楽として生成する音楽情報合成手段と、
    を含む、音楽生成装置。
  2. 前記音楽情報生成手段は、前記環境検出センサの出力信号が示す値が予め定めた閾値以上の場合に、当該出力信号から曲を表す音楽情報を生成し、前記対象検出センサの出力信号が示す値が予め定めた閾値以上の場合に、当該出力信号から効果音を表す音楽情報を生成する、請求項1に記載の音楽生成装置。
  3. 前記環境検出センサ及び前記対象検出センサの少なくとも一方のセンサの反応が増加する場合に、前記音楽情報生成手段によって生成される前記曲を表す音楽情報の構成要素及び前記効果音を表す音楽情報の構成要素を変化させる曲調変更手段を更に備えた、請求項1または請求項2に記載の音楽生成装置。
  4. 前記曲調変更手段が、前記センサの反応の増加を表す物理量が予め定めた閾値以上の場合に、前記音楽情報生成手段によって生成される前記曲を表す音楽情報の構成要素及び前記効果音を表す音楽情報の構成要素を変化させる、請求項3に記載の音楽生成装置。
  5. 前記環境検出センサにより出発地から目的地までの経路上における車両の位置が検出できる場合に、前記曲調変更手段が、前記車両から前記目的地までの距離に応じて、前記音楽情報生成手段によって生成される前記曲を表す音楽情報の構成要素及び前記効果音を表す音楽情報の構成要素を変化させる、請求項3に記載の音楽生成装置。
  6. 前記曲を表す音楽情報、前記効果音を表す音楽情報、及び前記合成した音楽情報の各々が、MIDIファイル形式の情報である、請求項1から請求項5までのいずれか1項に記載の音楽生成装置。
JP2015062707A 2015-03-25 2015-03-25 音楽生成装置 Active JP6575101B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015062707A JP6575101B2 (ja) 2015-03-25 2015-03-25 音楽生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015062707A JP6575101B2 (ja) 2015-03-25 2015-03-25 音楽生成装置

Publications (2)

Publication Number Publication Date
JP2016183988A true JP2016183988A (ja) 2016-10-20
JP6575101B2 JP6575101B2 (ja) 2019-09-18

Family

ID=57243011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015062707A Active JP6575101B2 (ja) 2015-03-25 2015-03-25 音楽生成装置

Country Status (1)

Country Link
JP (1) JP6575101B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019020638A (ja) * 2017-07-20 2019-02-07 株式会社豊田中央研究所 音生成装置、音生成制御プログラム
KR20220122841A (ko) * 2021-02-26 2022-09-05 이화여자대학교 산학협력단 스트레처블 디스플레이를 사용하여 자동차에서 증강 현실을 제공하는 방법, 이를 수행하기 위한 기록 매체 및 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102877A (ja) * 1992-09-21 1994-04-15 Sony Corp 音響構成装置
JPH11208370A (ja) * 1998-01-23 1999-08-03 Nissan Motor Co Ltd 車両走行支援装置
JP2006069288A (ja) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd 車載音楽生成装置及び車載エンタテイメントシステム
JP2006235201A (ja) * 2005-02-24 2006-09-07 Nippon Telegr & Teleph Corp <Ntt> 楽音コンテンツ構成方法と装置および楽音コンテンツ構成プログラムと記録媒体
JP2006251054A (ja) * 2005-03-08 2006-09-21 Yamaha Corp 楽音制御装置
JP2007161056A (ja) * 2005-12-13 2007-06-28 Nissan Motor Co Ltd 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
JP2007219393A (ja) * 2006-02-20 2007-08-30 Doshisha 画像から音楽を生成する音楽生成装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102877A (ja) * 1992-09-21 1994-04-15 Sony Corp 音響構成装置
JPH11208370A (ja) * 1998-01-23 1999-08-03 Nissan Motor Co Ltd 車両走行支援装置
JP2006069288A (ja) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd 車載音楽生成装置及び車載エンタテイメントシステム
JP2006235201A (ja) * 2005-02-24 2006-09-07 Nippon Telegr & Teleph Corp <Ntt> 楽音コンテンツ構成方法と装置および楽音コンテンツ構成プログラムと記録媒体
JP2006251054A (ja) * 2005-03-08 2006-09-21 Yamaha Corp 楽音制御装置
JP2007161056A (ja) * 2005-12-13 2007-06-28 Nissan Motor Co Ltd 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
JP2007219393A (ja) * 2006-02-20 2007-08-30 Doshisha 画像から音楽を生成する音楽生成装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019020638A (ja) * 2017-07-20 2019-02-07 株式会社豊田中央研究所 音生成装置、音生成制御プログラム
KR20220122841A (ko) * 2021-02-26 2022-09-05 이화여자대학교 산학협력단 스트레처블 디스플레이를 사용하여 자동차에서 증강 현실을 제공하는 방법, 이를 수행하기 위한 기록 매체 및 장치
KR102540574B1 (ko) * 2021-02-26 2023-06-08 이화여자대학교 산학협력단 스트레처블 디스플레이를 사용하여 자동차에서 증강 현실을 제공하는 방법, 이를 수행하기 위한 기록 매체 및 장치

Also Published As

Publication number Publication date
JP6575101B2 (ja) 2019-09-18

Similar Documents

Publication Publication Date Title
JP4672474B2 (ja) 自動採譜装置及びプログラム
JP2006264390A (ja) 車両の警報音装置
US11138961B2 (en) Sound output device and non-transitory computer-readable storage medium
JP6690181B2 (ja) 楽音評価装置及び評価基準生成装置
JP6575101B2 (ja) 音楽生成装置
US8525006B2 (en) Input device and recording medium with program recorded therein
JP2021032972A (ja) 車両用音生成装置
JP5309459B2 (ja) ビート検出装置
JP7024864B2 (ja) 信号処理装置、プログラムおよび音源
JP6645480B2 (ja) 音生成装置、音生成制御プログラム
JP6398960B2 (ja) 音楽再生装置及びプログラム
JP4839967B2 (ja) 指導装置及びプログラム
JP6035112B2 (ja) シャウト技法による歌唱を評価する音声評価装置
JP2020126176A (ja) 音楽生成装置及びプログラム
JP6753250B2 (ja) 楽音生成装置、楽音生成方法、電子楽器、及びプログラム
JP2017215382A (ja) 電子鍵盤楽器
WO2019176029A1 (ja) 音検出装置
JP4244338B2 (ja) 音出力制御装置、楽曲再生装置、音出力制御方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP5151603B2 (ja) 電子楽器
JP2019049609A (ja) 音楽生成装置及びプログラム
JP6119422B2 (ja) 情報処理装置及び楽器
JP4159961B2 (ja) カラオケ装置
JP5669646B2 (ja) 演奏評価装置、電子楽器及びプログラム
JP5953743B2 (ja) 音声合成装置及びプログラム
JP2016109920A (ja) 情報提供装置、情報提供システム、情報提供方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190805

R150 Certificate of patent or registration of utility model

Ref document number: 6575101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150