JP5109397B2 - Musical sound generating apparatus and musical sound generating method for vehicle - Google Patents

Musical sound generating apparatus and musical sound generating method for vehicle Download PDF

Info

Publication number
JP5109397B2
JP5109397B2 JP2007036673A JP2007036673A JP5109397B2 JP 5109397 B2 JP5109397 B2 JP 5109397B2 JP 2007036673 A JP2007036673 A JP 2007036673A JP 2007036673 A JP2007036673 A JP 2007036673A JP 5109397 B2 JP5109397 B2 JP 5109397B2
Authority
JP
Japan
Prior art keywords
music
vehicle
music data
data storage
storage means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007036673A
Other languages
Japanese (ja)
Other versions
JP2008201166A (en
Inventor
善政 磯崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2007036673A priority Critical patent/JP5109397B2/en
Priority to EP07023346A priority patent/EP1930875A3/en
Priority to KR1020070124366A priority patent/KR100922458B1/en
Priority to US11/950,033 priority patent/US7528316B2/en
Publication of JP2008201166A publication Critical patent/JP2008201166A/en
Application granted granted Critical
Publication of JP5109397B2 publication Critical patent/JP5109397B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両用楽音発生装置及び楽音発生方法に関する。   The present invention relates to a musical tone generator for a vehicle and a musical tone generation method.

従来、自動車などの車両が乗員に対して発生する音には、エンジンなどの車両の機構部が発生する機械音、車両がある一定以上のスピードを超えた場合の警報音、右左折を行う場合のウインカー音、衝突する恐れのある物が接近してきた場合の警報音等がある。また、乗員が車両内で音楽CDやラジオ放送を聞くためのオーディオ装置が一般的に利用されている。   Conventionally, the sounds generated by vehicles such as automobiles to passengers are mechanical sounds generated by vehicle mechanisms such as engines, warning sounds when the vehicle exceeds a certain speed, and when turning left and right Blinker sound, warning sound when an object that may collide approaches. Also, audio devices are generally used for passengers to listen to music CDs and radio broadcasts in the vehicle.

しかしながら、既存のオーディオ装置による音楽CD(Compact Disk)の再生等では、車両の状態や乗員の運転操作とは無関係に楽曲が流れるため、家庭で鑑賞する場合と何ら変わりなく、車両ならではの楽曲を楽しむものではなかった。
つまり、車両状態全般を音で表現する総合的なシステムはこれまでに無く、運転者は視覚と車両の機構部が発生する機械音と警報音とに基づいて車両を運転している。
However, when playing a music CD (Compact Disk) using an existing audio device, the music flows regardless of the state of the vehicle and the driving operation of the passengers. It was not something to enjoy.
In other words, there has never been a comprehensive system that expresses the overall vehicle state with sound, and the driver is driving the vehicle based on vision, mechanical sounds generated by the vehicle mechanism, and alarm sounds.

このような状況の中、自動車の運転状態に応じて音を制御する従来技術として、エンジン回転数によってオーディオ装置の音量等を制御する技術が開示されている(特許文献1参照)。
特開2003−309891号公報
Under such circumstances, as a conventional technique for controlling the sound according to the driving state of the automobile, a technique for controlling the volume of the audio device by the engine speed is disclosed (see Patent Document 1).
JP 2003-309891 A

しかしながら、上述した従来技術によっても、エンジン回転数に応じてオーディオ装置の音量等が変化するだけであるため車両状態に応じて全く異なる楽曲を発生させることは困難であり、乗員が車両状態に応じて楽しめる楽曲を提供することはできないという問題がある。   However, even with the above-described prior art, it is difficult to generate completely different music depending on the vehicle state because only the volume of the audio device changes according to the engine speed, and the occupant can There is a problem that it is not possible to provide music that can be enjoyed.

本発明は、このような事情に鑑みてなされたもので、車両運転状態に応じて再生するべき楽曲データを選択することにより運転状態の変化に応じて再生する楽曲を変化させることができる車両用楽音発生装置及び楽音発生方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and for a vehicle that can change the music to be reproduced in accordance with the change in the driving state by selecting the music data to be reproduced in accordance with the vehicle driving state. An object is to provide a musical sound generating device and a musical sound generating method.

本発明は、楽曲データを記憶する楽曲データ記憶手段と、前記楽曲データの所定の音楽要素パラメータに基づいて、前記楽曲データの複数の再生区間を決定する再生位置決定手段と、前記再生区間の所定の音楽要素パラメータを分析して、前記再生区間それぞれの音楽要素パラメータを前記楽曲データに関係付けて前記楽曲データ記憶手段に記憶する分析手段と、車両の運転状態の各々と音楽要素パラメータの各々とが関係付けられて記憶された再生ルールデータ記憶手段と、前記楽曲データ記憶手段に記憶された前記楽曲データに基づいて楽曲を再生する楽曲再生手段と、車両の運転状態を検知する車両状態検知手段と、前記再生ルールデータ記憶手段を参照して、前記車両状態検知手段により検知された前記車両の運転状態に関係付けられた前記音楽要素パラメータを求め、予め前記楽曲データ記憶手段から選択されている楽曲データにおいて、前記求めた音楽要素パラメータの条件を満たす再生区間を指定し、前記楽曲再生手段に該再生区間を再生させる制御手段とを備えたことを特徴とする。 The present invention provides music data storage means for storing music data, reproduction position determination means for determining a plurality of reproduction sections of the music data based on predetermined music element parameters of the music data, and predetermined reproduction sections. by analyzing the musical element parameter, each of the analysis means and, respectively the music element parameters of the operating state of the vehicle that stores the music element parameters of each of the playback section in the music data storage means in association with the music data Doo and playback rule data storage means stored with associated includes a music reproducing means for reproducing the music based on the music data stored in the music data storage unit, vehicle state detection for detecting a driving state of the vehicle Means and the reproduction rule data storage means, and is related to the driving state of the vehicle detected by the vehicle state detecting means. Obtains the music element parameters, the music data being selected in advance from the music data storage unit, specifies the playback sections that meet the conditions of the obtained musical element parameter, the regeneration zone to the music reproducing unit And a control means for reproducing.

本発明は、前記車両の環境状態を検知する環境状態検知手段を更に備え、前記制御手段は、前記環境状態検知手段により検知した前記車両の環境状態に応じて前記楽曲再生手段に再生させる楽曲データを前記楽曲データ記憶手段から選択することを特徴とする。   The present invention further includes environmental state detection means for detecting an environmental state of the vehicle, and the control means reproduces music data to be reproduced by the music reproduction means according to the environmental state of the vehicle detected by the environmental state detection means. Is selected from the music data storage means.

本発明は、前記音楽要素パラメータは、ピッチ、音量、テンポ及び音色のいずれかあるいはそれらの組み合わせであることを特徴とする。   The present invention is characterized in that the music element parameter is any one of pitch, volume, tempo and tone color, or a combination thereof.

本発明は、楽曲データを記憶する楽曲データ記憶手段と、車両の運転状態の各々と音楽要素パラメータの各々とが関係付けられて記憶された再生ルールデータ記憶手段と、前記楽曲データ記憶手段に記憶された前記楽曲データに基づいて楽曲を再生する楽曲再生手段と、車両の運転状態を検知する車両状態検知手段とを備えた車両用楽音発生装置における楽音発生方法であって、前記楽曲データの所定の音楽要素パラメータに基づいて、前記楽曲データの複数の再生区間を決定する再生位置決定ステップと、前記再生区間の所定の音楽要素パラメータを分析して、前記再生区間それぞれの音楽要素パラメータを前記楽曲データに関係付けて前記楽曲データ記憶手段に記憶する分析ステップと、前記再生ルールデータ記憶手段を参照して、前記車両状態検知手段により検知された前記車両の運転状態に関係付けられた前記音楽要素パラメータを求め、予め前記楽曲データ記憶手段から選択されている楽曲データにおいて、前記求めた音楽要素パラメータの条件を満たす再生区間を指定し、前記楽曲再生手段に該再生区間を再生させる制御ステップとを有することを特徴とする。 The present invention includes a music data storage means for storing music data, a reproduction rule data storage means and is stored in associated each respective and music element parameters of the operating state of the vehicle, in the music data storage unit A musical sound generating method in a musical sound generating device for a vehicle, comprising: a music reproducing means for reproducing a music based on the stored music data; and a vehicle state detecting means for detecting a driving state of the vehicle. Based on a predetermined music element parameter, a reproduction position determining step for determining a plurality of reproduction sections of the music data, analyzing a predetermined music element parameter of the reproduction section, and determining a music element parameter for each of the reproduction sections With reference to the analysis step of storing the music data in the music data storage means in association with the music data, the reproduction rule data storage means, Obtains the music element parameters associated with the operating condition of the vehicle detected by the two-state detecting device, the music data being selected in advance from the music data storage unit, satisfy the conditions of the musical element parameters obtained It specifies to playback section, and having a control step of reproducing the reproducing section in the music reproducing unit.

本発明によれば、楽曲データの音楽要素パラメータを分析して、楽曲データを複数のフレーズ(再生区間)に分割するとともに、分割したフレーズの音楽要素パラメータを分析して、各フレーズデータの特徴を示す情報として記憶しておき、検知された車両の運転状態に応じて適切なフレーズを選択して再生するようにしたため、車両運転状態に応じて楽曲を変化させる自律再生を行うことができる。また、予め再生データを作成したり用意する必要がなく、既に所有している楽曲データを使用して、車両の運転状態に応じた楽音を自律的に再生することが可能になるという効果が得られる。   According to the present invention, the music element parameters of music data are analyzed to divide the music data into a plurality of phrases (playback sections), and the music element parameters of the divided phrases are analyzed to determine the characteristics of each phrase data. Since it is memorize | stored as the information to show and it selects and reproduces | regenerates an appropriate phrase according to the driving | running state of the detected vehicle, the autonomous reproduction | regeneration which changes a music according to a vehicle driving | running state can be performed. In addition, there is no need to prepare or prepare playback data in advance, and it is possible to autonomously play back the musical sound according to the driving state of the vehicle using the music data already owned. It is done.

以下、本発明の一実施形態による車両用楽音発生装置を図面を参照して説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、楽音発生装置の処理動作を統括して制御する制御部である。符号2は、使用者が楽音発生装置の設定操作や新たな楽曲データの入手操作等を行う操作部であり、必要に応じて、画面の表示内容を見ながら操作を行うために表示装置を備えている。符号3は、楽曲データに基づいて楽曲を再生する楽曲再生部であり、再生した楽曲を音としてスピーカ4から発音させる。楽曲再生部3及びスピーカ4は、車両に備えているカーオーディオ装置を利用するようにしてもよい。符号5は、楽曲データを取得するために、移動通信を用いて楽曲配信サーバ等に接続して情報通信を行う通信部である。符号6は、音楽CDに記録されている楽曲データを読み取るCD読取装置である。CD読取装置6は、車両に備えているカーオーディオ装置を利用するようにしてもよい。符号7は、通信部5及びCD読取装置6を制御部1に接続するためのインタフェース(以下、I/Fと称する)である。   Hereinafter, a musical tone generator for a vehicle according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a control unit that controls the overall processing operation of the musical tone generator. Reference numeral 2 denotes an operation unit for a user to perform a setting operation of a musical sound generating device, an operation of obtaining new music data, and the like, and a display device is provided for performing an operation while viewing the display content of the screen as necessary. ing. Reference numeral 3 denotes a music reproducing unit that reproduces music based on music data, and causes the reproduced music to be generated from the speaker 4 as sound. The music reproducing unit 3 and the speaker 4 may use a car audio device provided in the vehicle. Reference numeral 5 denotes a communication unit that performs information communication by connecting to a music distribution server or the like using mobile communication in order to acquire music data. Reference numeral 6 denotes a CD reader for reading music data recorded on a music CD. The CD reading device 6 may use a car audio device provided in the vehicle. Reference numeral 7 denotes an interface (hereinafter referred to as I / F) for connecting the communication unit 5 and the CD reader 6 to the control unit 1.

符号8は、楽曲再生部3において再生するべき楽曲データが記憶される楽曲データベースである。符号10は、車両の運転状態や周囲の環境状況に応じて、再生するべきフレーズを選択する再生ルール情報が予め記憶されている再生ルールベースである。ここでいうフレーズとは、1つの楽曲データを短い区間に分割することにより得られる旋律の自然な一区切りの楽音データである。符号11は、車両の運転状態(車速、エンジン回転数、アクセル開度、ブレーキ操作状態、シフト状態など)を検知する車両状態検知部であり、例えばセンサなどから成る。車両状態検知部11は、新たにセンサを設けるのではなく、車両を制御するために、車両に予め備えられている各センサの出力を入力するようにしてもよい。符号12は、車両の環境状態(車両位置、時間、天気など)を検知する環境状態検知部であり、例えば、GPS(Global Positioning System)、タイマ、センサなどから成る。   Reference numeral 8 denotes a music database in which music data to be reproduced by the music reproducing unit 3 is stored. Reference numeral 10 denotes a reproduction rule base in which reproduction rule information for selecting a phrase to be reproduced is stored in advance according to the driving state of the vehicle and the surrounding environmental conditions. The phrase here refers to natural musical data of a single melody obtained by dividing one piece of music data into short sections. Reference numeral 11 denotes a vehicle state detection unit that detects a driving state of the vehicle (vehicle speed, engine speed, accelerator opening, brake operation state, shift state, etc.), and includes, for example, a sensor. The vehicle state detection unit 11 may input an output of each sensor provided in advance in the vehicle in order to control the vehicle instead of newly providing a sensor. Reference numeral 12 denotes an environmental state detection unit that detects an environmental state (vehicle position, time, weather, etc.) of the vehicle, and includes, for example, a GPS (Global Positioning System), a timer, a sensor, and the like.

ここで、以下の説明において用いる用語について定義する。「ピッチ」とは、音高のことであり、例えばピッチが高い・低いと表現する。「音量」とは、音の大きさ(強さ)のことであり、例えば、音量が大きい・小さいと表現する。「テンポ」とは、演奏速度のことであり、例えば、テンポが速い・遅いと表現する。「音色」とは、音の特徴を示すものであり、例えば、音のスペクトル分析の結果、所定の周波数帯域に音声信号がどの程度存在するかにより示されるものとする。   Here, terms used in the following description are defined. “Pitch” refers to the pitch, and is expressed as, for example, high or low pitch. “Volume” refers to the loudness (intensity) of a sound, and for example, it is expressed that the volume is large or small. “Tempo” is a performance speed, for example, expressed as fast / slow tempo. “Tone” indicates the characteristics of a sound, and for example, it is indicated by how much an audio signal exists in a predetermined frequency band as a result of sound spectrum analysis.

これら「ピッチ」、「音量」、「テンポ」及び「音色」は、音楽要素パラメータと呼び、各パラメータは、レベル1〜3で表現する。レベル1は、パラメータの値が大きいこと意味し、レベル3はパラメータの値が小さいことを意味する。レベル2は、レベル1とレベル3の中間値を意味する。例えば、ピッチであれば、第1のしきい値を超える音高をレベル1、第2のしきい値より小さい音高をレベル3、第1のしきい値と第2のしきい値との間の音高をレベル2とする。   These “pitch”, “volume”, “tempo” and “tone” are called music element parameters, and each parameter is expressed by levels 1 to 3. Level 1 means that the parameter value is large, and level 3 means that the parameter value is small. Level 2 means an intermediate value between level 1 and level 3. For example, in the case of a pitch, a pitch exceeding the first threshold is set to level 1, a pitch smaller than the second threshold is set to level 3, and the first threshold and the second threshold are set. The pitch between them is level 2.

次に、図3を参照して、図1に示す楽曲データベース8のテーブル構造を説明する。楽曲データベース8は、楽曲データを記憶する楽曲データテーブル81と、各楽曲データ毎に、複数のフレーズの特徴(ピッチ、音量、テンポ、音色)が定義されたフレーズ特徴テーブル82と、各楽曲データ毎に、複数のフレーズの開始・終了位置が定義されたフレーズ位置テーブル83とからなる。楽曲データテーブル81は、楽曲再生部3において再生することが可能なフォーマットの楽曲データに対して楽曲識別名が関係付けられるとともに、楽曲データ全体の特徴を4つの音楽要素パラメータで定義されている。例えば、「M01」という楽曲識別名が付与された楽曲データは、楽曲の先頭から終わりまでの平均ピッチがレベル1、平均音量がレベル3、平均テンポがレベル2、平均音色がレベル3であることを示している。すなわち、「M01」という楽曲は、全体的に低い音高で、標準的なテンポであるが、音量が大きいという特徴を有する楽曲であることを示している。また、音色レベルは、所定の周波数帯域に存在する音声信号の量によってレベル分けされるものであるが、これによって演奏されている楽器の種類が間接的に示されるものである。   Next, the table structure of the music database 8 shown in FIG. 1 will be described with reference to FIG. The music database 8 includes a music data table 81 for storing music data, a phrase characteristic table 82 in which characteristics of a plurality of phrases (pitch, volume, tempo, timbre) are defined for each music data, and each music data. And a phrase position table 83 in which start / end positions of a plurality of phrases are defined. In the music data table 81, a music identification name is associated with music data in a format that can be reproduced by the music reproducing unit 3, and characteristics of the entire music data are defined by four music element parameters. For example, for music data to which the music identification name “M01” is assigned, the average pitch from the beginning to the end of the music is level 1, the average volume is level 3, the average tempo is level 2, and the average tone is level 3. Is shown. That is, the music “M01” has a low pitch and a standard tempo as a whole, but has a characteristic that the volume is high. Further, the timbre level is classified according to the amount of audio signals existing in a predetermined frequency band, but indirectly indicates the type of musical instrument being played.

フレーズ特徴テーブル82は、「M01」という楽曲が、A〜Eの5つのフレーズに分割され、それぞれのフレーズの音楽要素パラメータが定義されている。例えば、フレーズAは、フレーズA内の平均ピッチがレベル2、平均音量がレベル3、平均テンポがレベル3、平均音色がレベル3であることを示している。このフレーズ特徴テーブル82は、図3に図示していないが、楽曲「M02」、「M03」についても同様に定義されるテーブルが関係付けられている。   In the phrase feature table 82, the song “M01” is divided into five phrases A to E, and music element parameters of each phrase are defined. For example, phrase A indicates that the average pitch in phrase A is level 2, the average volume is level 3, the average tempo is level 3, and the average tone color is level 3. Although this phrase feature table 82 is not shown in FIG. 3, tables similarly defined for the music “M02” and “M03” are related.

フレーズ位置テーブル83は、フレーズA〜Eのそれぞれについて、楽曲「M01」上の位置が、開始位置と終了位置で定義される。例えば、フレーズAは、楽曲の初めからマーク1まであり、フレーズEは、マーク4から楽曲の終わりまでであることを示している。楽曲データ上にマークを付与するマーキング動作については後述する。   In the phrase position table 83, for each of the phrases A to E, the position on the music “M01” is defined by a start position and an end position. For example, the phrase A is from the beginning of the music to the mark 1 and the phrase E is from the mark 4 to the end of the music. The marking operation for adding a mark on the music data will be described later.

次に、図4及び図5を参照して、図1に示す再生ルールベース10のテーブル構造を説明する。再生ルールベース10は、楽曲選択ルールテーブル101とフレーズ選択ルールテーブル102とから構成する。初めに、図4を参照して、楽曲選択ルールテーブル101から説明する。楽曲選択ルールテーブル101は、場所を特定する情報毎(海周辺、山間部、市街地等)に、天気情報(はれ、くもり、あめ)と時刻情報(午前、午後)とで特定される環境状態に対して再生するべき楽曲の特徴を示す音楽要素パラメータが予め定義されている。例えば、車両位置が海周辺であり、時刻が午前であり、天気がはれの場合、ピッチがレベル2、音量がレベル2、テンポがレベル3、音色がレベル2である特徴を有する楽曲を選択して再生するべきであることが定義されている。   Next, the table structure of the reproduction rule base 10 shown in FIG. 1 will be described with reference to FIGS. The reproduction rule base 10 includes a music selection rule table 101 and a phrase selection rule table 102. First, the music selection rule table 101 will be described with reference to FIG. The music selection rule table 101 is an environmental state specified by weather information (flare, cloudy, candy) and time information (morning, afternoon) for each piece of information (around the sea, mountainous area, urban area, etc.) specifying the place. Music element parameters indicating the characteristics of the music to be reproduced are defined in advance. For example, if the vehicle position is around the sea, the time is in the morning, and the weather is clear, the music having the characteristics that the pitch is level 2, the volume is level 2, the tempo is level 3, and the tone is level 2 is selected. It is defined that it should be played.

図5に示すフレーズ選択ルールテーブル102は、車両の運転状態毎(アイドリング、発進、等速巡航、加速、減速、・・・、停止)に、再生するべきフレーズの特徴を示す音楽要素パラメータが予め定義されている。ここで、各運転状態とは、車両の速度やエンジン回転数、各種操作の有無等により所定のルールにより決められるものとする。例えば、運転状態がアイドリングある場合、ピッチがレベル1、音量がレベル2、テンポがレベル1、音色がレベル2である特徴を有するフレーズを選択して再生するべきであることが定義されている。   In the phrase selection rule table 102 shown in FIG. 5, the music element parameters indicating the characteristics of the phrase to be reproduced are previously stored for each driving state of the vehicle (idling, starting, constant speed cruise, acceleration, deceleration,..., Stop). Is defined. Here, each driving state is determined by a predetermined rule depending on the speed of the vehicle, the engine speed, the presence / absence of various operations, and the like. For example, when the driving state is idling, it is defined that a phrase having the characteristics that the pitch is level 1, the volume is level 2, the tempo is level 1, and the timbre is level 2 should be selected and reproduced.

次に、図1に示す車両用楽音発生装置の動作を説明する。初めに、新たな楽曲データを入手する動作を説明する。使用者は、操作部2を使用して、新たな楽曲データの取り込みを行う指示の操作を行う。そして、使用者は、CD読取装置6に音楽用CDを挿入して、楽曲データの取り込みを指示する操作を行う。CD読取装置6は、挿入されたCDに記録されている楽曲データを読み込み、I/F7を介して制御部1へ出力する。これを受けて、制御部1は、CD読取装置6から出力される楽曲データを分析して、楽曲全体の音楽要素パラメータ(ピッチ、音量、テンポ、音色)を求め、この楽曲データに対して一意となる楽曲識別名を付与して、楽曲データベース8の楽曲データテーブル81に楽曲データとともに書き込む。楽曲識別名を挿入されたCDから読み取ることができる場合は、この読み取った楽曲識別名を使用するようにしてもよい。   Next, the operation of the musical tone generator for a vehicle shown in FIG. 1 will be described. First, an operation for obtaining new music data will be described. The user uses the operation unit 2 to operate an instruction to import new music data. Then, the user performs an operation of inserting a music CD into the CD reader 6 and instructing to take in music data. The CD reader 6 reads music data recorded on the inserted CD and outputs it to the control unit 1 via the I / F 7. In response to this, the control unit 1 analyzes the music data output from the CD reader 6 to obtain music element parameters (pitch, volume, tempo, timbre) of the entire music, and is unique to this music data. The music identification name is given, and is written in the music data table 81 of the music database 8 together with the music data. When the music identification name can be read from the inserted CD, the read music identification name may be used.

また、楽曲データを通信を用いて楽曲配信サーバから入手する場合、使用者は、操作部2を使用して、新たな楽曲データを配信サーバから取り込む指示の操作を行う。これを受けて、通信部5は、所定の楽曲配信サーバに接続し、所望の楽曲データをダウンロードする。通信部5は、このダウンロードした楽曲データをI/F7を介して制御部1へ出力する。これを受けて、制御部1は、通信部5から出力される楽曲データを分析して、楽曲全体の音楽要素パラメータ(ピッチ、音量、テンポ、音色)を求め、この楽曲データに予め付与されている楽曲識別名を使用して、楽曲データベース8の楽曲データテーブル81に楽曲データとともに書き込む。これらの動作によって、楽曲データベース8には新たな楽曲データが記憶されたことになる。楽曲データテーブル81の楽曲データフィールドに記憶される楽曲データのヘッダ部分には、楽曲データフォーマット、楽曲ジャンルを識別可能な情報が含まれる。   When acquiring music data from a music distribution server using communication, the user uses the operation unit 2 to perform an operation of instructing to acquire new music data from the distribution server. In response to this, the communication unit 5 connects to a predetermined music distribution server and downloads desired music data. The communication unit 5 outputs the downloaded music data to the control unit 1 via the I / F 7. In response to this, the control unit 1 analyzes the music data output from the communication unit 5 to obtain music element parameters (pitch, volume, tempo, timbre) of the entire music, and is given to the music data in advance. Is written together with the music data in the music data table 81 of the music database 8 using the existing music identification name. With these operations, new music data is stored in the music database 8. The header portion of the music data stored in the music data field of the music data table 81 includes information that can identify the music data format and the music genre.

次に、図2を参照して、図1に示す車両用楽音発生装置において、楽曲データに対してマークを付与する動作と運転状態に応じたフレーズの再生を行う動作を説明する。まず、楽音発生装置の電源がONになると、制御部1は、楽曲データベース8を参照して、新たな楽曲データが入手されたか(マークが付与されていない楽曲データが存在するか)を判定し(ステップS1)、新たな楽曲データが入手されていれば、マーキング処理を行う(ステップS2)。新しい楽曲データが入手されていない場合は、ステップS4へ移行する。マーキング処理を行う場合、制御部1は、楽曲データテーブル81から楽曲データを読み出し、この楽曲データに含まれる楽曲ジャンル情報を抽出する。   Next, with reference to FIG. 2, the operation | movement which performs the reproduction | regeneration of the phrase according to the operation | movement which provides a mark with respect to music data, and a driving | running state in the musical sound generator for vehicles shown in FIG. 1 is demonstrated. First, when the musical sound generator is turned on, the control unit 1 refers to the music database 8 to determine whether new music data has been obtained (whether there is music data to which no mark is attached). (Step S1) If new music data is obtained, a marking process is performed (Step S2). If new music data is not obtained, the process proceeds to step S4. When performing the marking process, the control unit 1 reads music data from the music data table 81 and extracts music genre information included in the music data.

次に、制御部1は、新たに入手された楽曲データを楽曲データベース8から読み出し、内部に保持する。そして、制御部1は、読み出した楽曲データの4つの音楽要素パラメータに基づいて、マーキングを行う。図6は、楽曲データベース8から読み出した楽曲データの一例を示す図である。制御部1は、ピッチ、音量、テンポ及び音色の4つの音楽要素パラメータを分析して、予め決められたしきい値によって、マーク位置を求める。例えば、図6では、ピッチの変化率や音量の変化率等を予め決められたしきい値と比較することで、マーク1〜4の4つのマーク位置(5つのフレーズ)が求められる。また、マーキングを行う際に、4つの音楽要素のパラメータそれぞれに重み付けをしておき、この重み付けに基づいて、マーキング位置の決定を行うようにしてもよい。例えば、図6に示す各マーク1〜4について、マーク1は、音量に重みを付けてしきい値との比較を行ったり、マーク4はテンポに重みを付けてしきい値との比較を行なうことにより、予め楽曲ジャンル別に想定されているマーク位置の精度を向上させることができる。こうすることで、例えば、静かなフレーズ、盛り上がりのあるフレーズ、特定の楽器が入ったフレーズ等の特徴のあるフレーズに分割される。   Next, the control unit 1 reads out the newly obtained music data from the music database 8 and holds it inside. And the control part 1 performs marking based on the four music element parameters of the read music data. FIG. 6 is a diagram illustrating an example of music data read from the music database 8. The control unit 1 analyzes four music element parameters such as pitch, volume, tempo, and tone color, and obtains a mark position based on a predetermined threshold value. For example, in FIG. 6, four mark positions (five phrases) of the marks 1 to 4 are obtained by comparing the rate of change in pitch, the rate of change in volume, and the like with predetermined threshold values. Further, when marking is performed, the parameters of the four music elements may be weighted, and the marking position may be determined based on the weighting. For example, for each of the marks 1 to 4 shown in FIG. 6, the mark 1 weights the volume and compares it with a threshold value, and the mark 4 weights the tempo and compares it with a threshold value. Thus, it is possible to improve the accuracy of the mark position assumed in advance for each music genre. In this way, for example, the phrase is divided into distinctive phrases such as a quiet phrase, a lively phrase, and a phrase containing a specific instrument.

次に、制御部1は、求めたマークの位置をフレーズ位置テーブル83に記憶する。マーク情報は、例えば、先頭からの再生時間で特定される位置情報である。これにより、図3に示すフレーズ位置テーブル83内に各フレーズの境界を示すマーク位置が記憶されたことになる。続いて、制御部1は、複数のフレーズに分割した後、それぞれのフレーズについて、4つの音楽要素パラメータを分析し、得られた各レベル値をフレーズ特徴テーブル82に記憶する(ステップS3)。これにより、図3に示すフレーズ特徴テーブル82内に各フレーズの特徴を示す音楽要素パラメータが記憶されたことになる。図2に示すステップS2、S3の処理(マーキング処理)は、以下に説明する楽音再生処理と必ずしも同時に行う必要はなく、楽曲再生部3において楽曲の再生が行われていないタイミングで実行すればよい。   Next, the control unit 1 stores the obtained mark position in the phrase position table 83. The mark information is, for example, position information specified by the playback time from the beginning. As a result, the mark position indicating the boundary of each phrase is stored in the phrase position table 83 shown in FIG. Subsequently, after dividing the phrase into a plurality of phrases, the control unit 1 analyzes the four music element parameters for each phrase, and stores the obtained level values in the phrase feature table 82 (step S3). As a result, the music element parameters indicating the characteristics of each phrase are stored in the phrase characteristics table 82 shown in FIG. The processing (marking processing) of steps S2 and S3 shown in FIG. 2 is not necessarily performed at the same time as the musical sound reproduction processing described below, and may be performed at a timing when the music reproduction unit 3 does not reproduce the music. .

一方、エンジンがオンになると、制御部1は、環境状態検知部12が検知した車両の環境状態(車両位置、時間、天気など)を読み込み、検知結果をチェックする(ステップS4)。そして、制御部1はステップS4におけるチェック動作が最初の環境状態のチェックであるか否かを判定する(ステップS5)。最初のチェックでなかった場合(ステップS5;No)、前回のチェックから環境状態に変化があり、楽曲データの変更が必要であるか否かを判定する(ステップS6)。   On the other hand, when the engine is turned on, the control unit 1 reads the environmental state (vehicle position, time, weather, etc.) of the vehicle detected by the environmental state detection unit 12 and checks the detection result (step S4). Then, the control unit 1 determines whether or not the check operation in step S4 is a first environmental state check (step S5). If it is not the first check (step S5; No), it is determined whether there is a change in the environmental state from the previous check and it is necessary to change the music data (step S6).

最初のチェックであった場合(ステップS5;Yes)、または前回のチェックから車両の環境状態に変化があり、楽曲データの変更が必要である場合(ステップS6;Yes)、制御部1は検知された車両の環境状態に応じて最適な楽曲データを楽曲データベース8から選択して楽曲再生部3へ設定し(ステップS7)、その後ステップS8の処理へ移行する。最適な楽曲データの選択は、まず図4に示す楽曲選択ルールテーブル101を参照して、検知した車両位置、天気、時刻の情報に合致する楽曲の特徴を示す4つの音楽要素パラメータを読み出す。そして、楽曲データテーブル81を参照して、楽曲選択ルールテーブル101から読み出した音楽要素パラメータと同一の音楽要素パラメータが記憶されている、または最も近い値の音楽要素パラメータが記憶されている楽曲を選択する。これにより、車両の環境状態に応じた最適な楽曲を選択することができる。   If it is the first check (step S5; Yes), or if the environmental condition of the vehicle has changed since the previous check and the music data needs to be changed (step S6; Yes), the control unit 1 is detected. According to the environmental state of the vehicle, the optimal music data is selected from the music database 8 and set in the music playback unit 3 (step S7), and then the process proceeds to step S8. For selection of optimum music data, first, the music selection parameter table 101 shown in FIG. 4 is referred to, and four music element parameters indicating the characteristics of the music matching the detected vehicle position, weather, and time information are read out. Then, with reference to the music data table 81, a music piece in which the same music element parameter as the music element parameter read from the music selection rule table 101 is stored or the music element parameter having the closest value is stored is selected. To do. Thereby, the optimal music according to the environmental condition of the vehicle can be selected.

一方、車両の環境状態をチェックした結果、楽曲データの変更の必要がなかった場合(ステップS6;No)、ステップS8の処理に移行する。   On the other hand, as a result of checking the environmental state of the vehicle, if there is no need to change the music data (step S6; No), the process proceeds to step S8.

次に、制御部1は、車両状態検知部11が検知した車両の運転状態(車速、エンジン回転数、アクセル開度、ブレーキ操作状態、シフト状態など)を読み込み、検知結果をチェックする(ステップS8)。そして、制御部1はステップS8における車両の運転状態のチェックが最初のチェックであるか判定する(ステップS9)。最初のチェックでなかった場合(ステップS9;No)、その車両の運転状態をチェックした結果、直前の車両の運転状態と、今回のチェック時の車両の運転状態に変化があり、再生するべきフレーズを変更する必要があるか否かを判定する(ステップS10)。   Next, the control unit 1 reads the vehicle driving state (vehicle speed, engine speed, accelerator opening, brake operation state, shift state, etc.) detected by the vehicle state detection unit 11 and checks the detection result (step S8). ). And the control part 1 determines whether the check of the driving | running state of the vehicle in step S8 is the first check (step S9). If it is not the first check (step S9; No), the driving state of the vehicle is checked. As a result, there is a change in the driving state of the vehicle immediately before and the driving state of the vehicle at the time of the current check. It is determined whether or not it is necessary to change (step S10).

最初のチェックであった場合(ステップS9;Yes)、または車両の運転状態をチェックした結果、前回のチェックから車両の運転状態に変化があった場合(ステップS10;Yes)、制御部1は、再生するべきフレーズを選択して決定する(ステップS11)。再生するべきフレーズの選択は、まず図5に示すフレーズ選択ルールテーブル102を参照して、検知した車両の運転状態に合致するフレーズの特徴を示す4つの音楽要素パラメータを読み出す。そして、フレーズ特徴テーブル82を参照して、フレーズ選択ルールテーブル102から読み出した音楽要素パラメータと同一の音楽要素パラメータが記憶されている、または最も近い値の音楽要素パラメータが記憶されているフレーズを選択する。これにより、車両の運転状態に応じた最適なフレーズを選択することができる。   When it is the first check (step S9; Yes), or when the driving state of the vehicle has changed from the previous check as a result of checking the driving state of the vehicle (step S10; Yes), the control unit 1 A phrase to be reproduced is selected and determined (step S11). To select a phrase to be reproduced, first, referring to the phrase selection rule table 102 shown in FIG. 5, four music element parameters indicating the characteristics of the phrase that matches the detected driving state of the vehicle are read out. Then, referring to the phrase feature table 82, a phrase in which the same music element parameter as the music element parameter read from the phrase selection rule table 102 is stored or the music element parameter having the closest value is stored is selected. To do. Thereby, the optimal phrase according to the driving | running state of a vehicle can be selected.

続いて、制御部1は、フレーズ位置テーブル83から、先に選択した再生するべきフレーズの開始位置と終了位置の情報を読み出す。そして、この開始位置と終了位置の情報に基づいて、楽曲データテーブル81から再生するべきフレーズのフレーズデータを読み出して、楽曲再生部3に対して出力する。これを受けて、楽曲再生部3は、制御部1から出力されたフレーズデータを再生し、スピーカ4が車両の運転状態に応じた楽曲(フレーズ)を発音する(ステップS12)。   Subsequently, the control unit 1 reads from the phrase position table 83 information on the start position and the end position of the phrase to be reproduced that has been selected previously. Then, based on the information of the start position and the end position, the phrase data of the phrase to be reproduced is read from the music data table 81 and output to the music reproducing unit 3. Receiving this, the music reproducing unit 3 reproduces the phrase data output from the control unit 1, and the speaker 4 generates a music (phrase) corresponding to the driving state of the vehicle (step S12).

一方、前回のチェックから車両の運転状態に変化がなかった場合(ステップS10;No)、楽曲再生部3は直前に再生していたフレーズデータに基づく再生動作を継続し、フレーズデータの終了の位置に達した場合は制御部1から出力されたフレーズデータの再生を繰り返し行う。   On the other hand, when the driving state of the vehicle has not changed since the previous check (step S10; No), the music playback unit 3 continues the playback operation based on the phrase data played back immediately before, and the position of the end of the phrase data When the number reaches, the phrase data output from the control unit 1 is repeatedly reproduced.

次に、制御部1は楽音発生装置の電源がオフか判定し(ステップS13)、オフでなかった場合(ステップS13;No)、ステップS1の処理へ移行する。オフであった場合(ステップS13;Yes)、制御部1は楽曲再生部3を制御してフレーズデータの再生を停止する。   Next, the control unit 1 determines whether the power of the musical tone generator is off (step S13), and if not (step S13; No), the process proceeds to step S1. When it is OFF (step S13; Yes), the control part 1 controls the music reproduction part 3, and stops reproduction | regeneration of phrase data.

なお、上述した処理を制御部1に実行させるためのプログラムは、制御部1の有する図示しない記憶領域に格納されている。   Note that a program for causing the control unit 1 to execute the above-described processing is stored in a storage area (not shown) of the control unit 1.

また、所定時間以上車両の運転状態に変化がなかった場合、再生するべきフレーズデータを所定の時間繰り返し再生させるが、さらに、繰り返し再生の時間が所定時間を超えた場合は、他のフレーズデータを改めて選択するようにして、同じフレーズデータが長時間繰り返し再生されることを防止するようにしてもよい。また、別の楽曲データを選択し直して、新たなフレーズデータを選択するようにしてもよい。また、エンジンON後のアイドリングまたは発進のような運転(ドライブ)の初期に相当する車両の運転状態の時には、楽曲の最初のフレーズ(例えばイントロ)を選択し、減速または停止ような運転(ドライブ)の終期に相当する車両の運転状態の時には楽曲の最後のフレーズ(エンディング)を選択するようにしてもよい。   If the driving state of the vehicle has not changed for a predetermined time or longer, the phrase data to be reproduced is repeatedly reproduced for a predetermined time. If the repeated reproduction time exceeds the predetermined time, another phrase data is reproduced. It may be selected again to prevent the same phrase data from being repeatedly reproduced for a long time. Also, another piece of music data may be selected again to select new phrase data. In addition, when the vehicle is in an operating state corresponding to the initial stage of driving (driving) such as idling or starting after the engine is turned on, the first phrase (for example, intro) of the music is selected and driving (driving) such as deceleration or stopping. The last phrase (ending) of the music may be selected when the vehicle is in the driving state corresponding to the end of.

また、図5に示すフレーズ選択ルールテーブル102に記憶されている車両の運転状態に加え、前照灯の点灯、方向指示器の操作、ワイパーの操作等のイベントが発生した場合に再生するべきフレーズの特徴を示す音楽要素パラメータが記憶されていてもよい。   In addition to the driving state of the vehicle stored in the phrase selection rule table 102 shown in FIG. 5, the phrase to be played when an event such as lighting of a headlamp, operation of a direction indicator, or operation of a wiper occurs. Music element parameters indicating the characteristics of the above may be stored.

楽曲データは音楽用CD等の市販されている楽曲データ、または、様々なフレーズを1つの楽曲データとしてまとめた本車両用楽音発生装置専用の楽曲データであってもよい。また、楽曲データのフォーマット形式は、例えばMIDI(Musical Instrument Digital Interface)規格のシーケンスデータ、またはオーディオデータである。   The music data may be commercially available music data such as a music CD, or music data dedicated to the musical tone generator for the vehicle in which various phrases are collected as one music data. The format of the music data is, for example, MIDI (Musical Instrument Digital Interface) standard sequence data or audio data.

このように、楽曲データの音楽要素パラメータを分析して、各楽曲データの特徴を示す情報として記憶しておくとともに、楽曲データを複数のフレーズに分割し、分割したフレーズの音楽要素パラメータを分析して、各フレーズデータの特徴を示す情報として記憶しておき、車両の環境状態に応じて適切な楽曲データを選択し、車両の運転状態に応じて適切なフレーズを選択して再生するようにしたため、車両の運転状態や環境状態に応じて楽曲を変化させる自律再生を行うことができる。また、予め再生データを作成したり用意する必要がなく、既に所有している楽曲データを使用して、車両の運転状態及び環境状態に応じた楽音を自律的に再生することが可能となる。例えば、アクセルを踏み込んで加速を行う場合、楽曲データの中で盛り上がりのあるフレーズを再生し、一定速度で巡航している場合、穏やかなフレーズを再生することが可能となる。   In this way, the music element parameters of the music data are analyzed and stored as information indicating the characteristics of each music data, and the music data is divided into a plurality of phrases, and the music element parameters of the divided phrases are analyzed. Because it is stored as information indicating the characteristics of each phrase data, appropriate music data is selected according to the environmental condition of the vehicle, and an appropriate phrase is selected and reproduced according to the driving state of the vehicle. Autonomous reproduction can be performed in which music is changed according to the driving state and environmental state of the vehicle. In addition, it is not necessary to prepare or prepare reproduction data in advance, and it is possible to autonomously reproduce musical sounds according to the driving state and environmental state of the vehicle using the music data already owned. For example, when acceleration is performed by depressing the accelerator, a phrase that is excited in music data is reproduced, and a calm phrase can be reproduced when cruising at a constant speed.

このため、乗員が飽きることなく、車両を走行させて楽曲を発生させることを楽しめる世界観を作ることができる。また、車両の運転状態が常に変化のある楽曲で表現されるため、車両がどの様な運転状態にあるか常時把握できる。また、車両用楽音発生装置の発生する楽曲が楽しめるものであるため、車両の運転がより充実したものになり、様々な付加情報が楽曲と共に乗員に伝達され、快適に運転できる。さらに、車両の運転状態が変化しない場合であっても自律的に楽曲が変化するので、乗員は飽きずに楽曲を鑑賞する事ができる。   Therefore, it is possible to create a world view in which passengers can enjoy driving and generating music without getting tired. In addition, since the driving state of the vehicle is always expressed as a musical piece with changes, it is possible to always know what driving state the vehicle is in. In addition, since the music generated by the musical tone generator for the vehicle can be enjoyed, the driving of the vehicle is further enhanced, and various additional information is transmitted to the occupant along with the music so that the driver can drive comfortably. Furthermore, since the music changes autonomously even when the driving state of the vehicle does not change, the passenger can appreciate the music without getting tired.

本発明の一実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of this invention. 図1に示す装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the apparatus shown in FIG. 図1に示す楽曲データベース8のテーブル構造を示す説明図である。It is explanatory drawing which shows the table structure of the music database 8 shown in FIG. 図1に示す再生ルールベース10のテーブル構造を示す説明図である。It is explanatory drawing which shows the table structure of the reproduction | regeneration rule base 10 shown in FIG. 図1に示す再生ルールベース10のテーブル構造を示す説明図である。It is explanatory drawing which shows the table structure of the reproduction | regeneration rule base 10 shown in FIG. 楽曲データに対してマーキングした一例を示す説明図である。It is explanatory drawing which shows an example marked with respect to music data.

符号の説明Explanation of symbols

1・・・制御部、2・・・操作部、3・・・楽曲再生部、4・・・スピーカ、5・・・通信部、6・・・CD読取装置、7・・・I/F(インタフェース)、8・・・楽曲データベース、10・・・再生ルールベース、11・・・車両状態検知部、12・・・環境状態検知部   DESCRIPTION OF SYMBOLS 1 ... Control part, 2 ... Operation part, 3 ... Music reproduction part, 4 ... Speaker, 5 ... Communication part, 6 ... CD reader, 7 ... I / F (Interface), 8 ... music database, 10 ... reproduction rule base, 11 ... vehicle state detection unit, 12 ... environmental state detection unit

Claims (4)

楽曲データを記憶する楽曲データ記憶手段と、
前記楽曲データの所定の音楽要素パラメータに基づいて、前記楽曲データの複数の再生区間を決定する再生位置決定手段と、
前記再生区間の所定の音楽要素パラメータを分析して、前記再生区間それぞれの音楽要素パラメータを前記楽曲データに関係付けて前記楽曲データ記憶手段に記憶する分析手段と、
車両の運転状態の各々と音楽要素パラメータの各々とが関係付けられて記憶された再生ルールデータ記憶手段と、
前記楽曲データ記憶手段に記憶された前記楽曲データに基づいて楽曲を再生する楽曲再生手段と、
車両の運転状態を検知する車両状態検知手段と、
前記再生ルールデータ記憶手段を参照して、前記車両状態検知手段により検知された前記車両の運転状態に関係付けられた前記音楽要素パラメータを求め、予め前記楽曲データ記憶手段から選択されている楽曲データにおいて、前記求めた音楽要素パラメータの条件を満たす再生区間を指定し、前記楽曲再生手段に該再生区間を再生させる制御手段と
を備えたことを特徴とする車両用楽音発生装置。
Music data storage means for storing music data;
Playback position determination means for determining a plurality of playback sections of the music data based on predetermined music element parameters of the music data;
Analyzing means for analyzing predetermined music element parameters of the playback section and storing the music element parameters of each of the playback sections in the music data storage means in association with the music data;
A reproduction rule data storage means and each respective the music element parameters of the operating state of the vehicle is stored in associated,
Music playback means for playing back music based on the music data stored in the music data storage means;
Vehicle state detection means for detecting the driving state of the vehicle;
Referring to the reproduction rule data storage means, the music element parameter related to the driving state of the vehicle detected by the vehicle state detection means is obtained, and the music data previously selected from the music data storage means in specifies the playback sections that meet the conditions of the obtained musical element parameter, the vehicular tone generating apparatus characterized by comprising a control means for reproducing the reproduction section to said music reproducing means.
前記車両の環境状態を検知する環境状態検知手段を更に備え、
前記制御手段は、前記環境状態検知手段により検知した前記車両の環境状態に応じて前記楽曲再生手段に再生させる楽曲データを前記楽曲データ記憶手段から選択することを特徴とする請求項1に記載の車両用楽音発生装置。
An environmental condition detecting means for detecting an environmental condition of the vehicle;
2. The control unit according to claim 1, wherein the control unit selects music data to be played back by the music playback unit from the music data storage unit according to the environmental state of the vehicle detected by the environmental state detection unit. A musical sound generator for vehicles.
前記音楽要素パラメータは、ピッチ、音量、テンポ及び音色のいずれかあるいはそれらの組み合わせであることを特徴とする請求項1または2に記載の車両用楽音発生装置。   3. The musical tone generator for a vehicle according to claim 1, wherein the music element parameter is any one of pitch, volume, tempo, and timbre, or a combination thereof. 楽曲データを記憶する楽曲データ記憶手段と、車両の運転状態の各々と音楽要素パラメータの各々とが関係付けられて記憶された再生ルールデータ記憶手段と、前記楽曲データ記憶手段に記憶された前記楽曲データに基づいて楽曲を再生する楽曲再生手段と、車両の運転状態を検知する車両状態検知手段とを備えた車両用楽音発生装置における楽音発生方法であって、
前記楽曲データの所定の音楽要素パラメータに基づいて、前記楽曲データの複数の再生区間を決定する再生位置決定ステップと、
前記再生区間の所定の音楽要素パラメータを分析して、前記再生区間それぞれの音楽要素パラメータを前記楽曲データに関係付けて前記楽曲データ記憶手段に記憶する分析ステップと、
前記再生ルールデータ記憶手段を参照して、前記車両状態検知手段により検知された前記車両の運転状態に関係付けられた前記音楽要素パラメータを求め、予め前記楽曲データ記憶手段から選択されている楽曲データにおいて、前記求めた音楽要素パラメータの条件を満たす再生区間を指定し、前記楽曲再生手段に該再生区間を再生させる制御ステップと
を有することを特徴とする楽音発生方法。
A music data storage means for storing music data, a reproduction rule data storage means and is stored in associated each respective and music element parameters of the operating state of the vehicle, the stored in the music data storage unit A musical sound generating method in a musical sound generating device for a vehicle, comprising: music reproducing means for reproducing music based on music data; and vehicle state detecting means for detecting the driving state of the vehicle,
A playback position determining step for determining a plurality of playback sections of the music data based on predetermined music element parameters of the music data;
Analyzing the predetermined music element parameters of the playback section, and storing the music element parameters of each of the playback sections in the music data storage means in association with the music data;
Referring to the reproduction rule data storage means, the music element parameter related to the driving state of the vehicle detected by the vehicle state detection means is obtained, and the music data previously selected from the music data storage means in specifies the playback sections that meet the conditions of the obtained musical element parameter, the musical sound generating method characterized by a control step of reproducing the reproducing section in the music reproducing unit.
JP2007036673A 2006-12-06 2007-02-16 Musical sound generating apparatus and musical sound generating method for vehicle Expired - Fee Related JP5109397B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007036673A JP5109397B2 (en) 2007-02-16 2007-02-16 Musical sound generating apparatus and musical sound generating method for vehicle
EP07023346A EP1930875A3 (en) 2006-12-06 2007-12-03 Musical sound generating vehicular apparatus, musical sound generating method and program
KR1020070124366A KR100922458B1 (en) 2006-12-06 2007-12-03 Musical sound generating vehicular apparatus, musical sound generating method and computer readable recording medium having program
US11/950,033 US7528316B2 (en) 2006-12-06 2007-12-04 Musical sound generating vehicular apparatus, musical sound generating method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007036673A JP5109397B2 (en) 2007-02-16 2007-02-16 Musical sound generating apparatus and musical sound generating method for vehicle

Publications (2)

Publication Number Publication Date
JP2008201166A JP2008201166A (en) 2008-09-04
JP5109397B2 true JP5109397B2 (en) 2012-12-26

Family

ID=39779111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007036673A Expired - Fee Related JP5109397B2 (en) 2006-12-06 2007-02-16 Musical sound generating apparatus and musical sound generating method for vehicle

Country Status (1)

Country Link
JP (1) JP5109397B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016066912A (en) * 2014-09-25 2016-04-28 本田技研工業株式会社 Vehicle music generation device, vehicle music generation method, and vehicle music generation program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001354071A (en) * 2000-06-13 2001-12-25 Mazda Motor Corp Audio equipment for moving body
JP2004090724A (en) * 2002-08-30 2004-03-25 Pioneer Electronic Corp Play back control system for moving body, its method, and its program and recording medium recording it
JP2005280580A (en) * 2004-03-30 2005-10-13 Toshiba Corp Control device of on-vehicle acoustic instrument

Also Published As

Publication number Publication date
JP2008201166A (en) 2008-09-04

Similar Documents

Publication Publication Date Title
KR100922458B1 (en) Musical sound generating vehicular apparatus, musical sound generating method and computer readable recording medium having program
US10250960B2 (en) Sound reproduction device including auditory scenario simulation
JP2008203338A (en) Musical sound generating apparatus and musical sound generation method
US11628767B2 (en) Method of playing virtual after-burn sound in electric vehicle
US11514884B2 (en) Driving sound library, apparatus for generating driving sound library and vehicle comprising driving sound library
US9305534B2 (en) Audio system for a motor vehicle
JP5109397B2 (en) Musical sound generating apparatus and musical sound generating method for vehicle
JP4797960B2 (en) Musical sound reproducing device for vehicle, musical sound reproducing method for vehicle, and program
WO2009139022A1 (en) Audio output device and program
JP2008071058A (en) Device, method and program for reproducing sound
JP4984861B2 (en) Musical sound generator for vehicle and program
JP2006277220A (en) Content reproduction device, content selection program, and content reproduction method
JP2007261526A (en) Vehicle control device and information communication system
JP2009043353A (en) Title giving device, title giving method, title giving program, and recording medium
JP2005135519A (en) Music reproducing unit
JP2004348895A (en) Onboard reproducing device and its control method, and control program and recording medium
JP2010225235A (en) On-vehicle sound reproducing apparatus and sound reproducing method
EP1727145A1 (en) Audio information output device, audio information output method, and audio information output program
JP2006069288A (en) On-vehicle music producing device, and on-vehicle entertainment system
JP4793243B2 (en) Music playback device, music playback method, and program
US20230410774A1 (en) Dynamic sounds from automotive inputs
JP6858567B2 (en) Information output device and information output method
JP2006103520A (en) Navigation device and information terminal with audio replay function, audio data replaying method, audio date replay setting method
JP2021018323A (en) Information providing device, information providing method, and program
JP2019002963A (en) Music generation device for vehicle and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5109397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees