JP2019020638A - Sound generation device, sound generation control program - Google Patents

Sound generation device, sound generation control program Download PDF

Info

Publication number
JP2019020638A
JP2019020638A JP2017140571A JP2017140571A JP2019020638A JP 2019020638 A JP2019020638 A JP 2019020638A JP 2017140571 A JP2017140571 A JP 2017140571A JP 2017140571 A JP2017140571 A JP 2017140571A JP 2019020638 A JP2019020638 A JP 2019020638A
Authority
JP
Japan
Prior art keywords
sound
vehicle
complexity parameter
degree
sound generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017140571A
Other languages
Japanese (ja)
Other versions
JP6645480B2 (en
Inventor
宇田 尚典
Naonori Uda
尚典 宇田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2017140571A priority Critical patent/JP6645480B2/en
Publication of JP2019020638A publication Critical patent/JP2019020638A/en
Application granted granted Critical
Publication of JP6645480B2 publication Critical patent/JP6645480B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To make a sound generation device and a sound generation control program have a relationship between surrounding environment during driving and sound, and a function as a reminder function to the output sound when a driver drives.SOLUTION: A complexity parameter 1 is information for monitoring the degree of change in the entire image captured by an image capturing unit 16 during traveling of a vehicle. A complexity parameter 2 is information for intensively monitoring the degree of change in the right and left ends of the travelling direction of the vehicle. Weights 1 to 4 set in a sound information file 1 to a sound information file 4 correspond to the distance from each sound information file to a control coordinate point, and weighting is executed. A complexity parameter 3 is information for monitoring the presence or absence of an obstacle being present in the vicinity of the vehicle. If the vehicle is within the parking lot premises, the road is narrow, a telegraph pole and a vending machine are installed protruding to the road side, and the road is narrow and the human traffic is high, the risk is high and the amplification factor is increased (increase the output volume).SELECTED DRAWING: Figure 9

Description

本発明は、車両の走行中に運転者に注意を喚起する音生成装置、音生成制御プログラムに関する。   The present invention relates to a sound generation device and a sound generation control program for alerting a driver while a vehicle is traveling.

従来、レーシングゲームやドライブシュミレータ等において、臨場感を高めるために、或いは、電気自動車で実際の走行状態に応じたエンジン音を発生させるために、エンジン模擬音を生成するエンジン模擬音生成装置が提案されている。   Conventionally, an engine simulation sound generating device that generates engine simulation sound has been proposed to enhance the sense of presence in a racing game, a drive simulator, or the like, or to generate an engine sound corresponding to an actual running state in an electric vehicle. Has been.

特許文献1には、エンジン音の予め定めた時間内での音圧波形データを回転速度およびアクセル操作量に割付けて形成したマップに基づき、エンジン模擬音を発生させることが記載されている。   Patent Document 1 describes that engine simulation sound is generated based on a map formed by assigning sound pressure waveform data of engine sound within a predetermined time to a rotational speed and an accelerator operation amount.

また、特許文献2には、運転操作量とエンジン回転速度をパラメータとしてエンジン運転状態を複数の範囲に分け、各範囲の略中央状態で録音したエンジン音のそれぞれを、クランク軸が1燃料サイクル分回転する時間に相当する長さの音圧波形の単位で、エンジン音のデジタルデータとして記憶し、運転操作量とエンジン回転速度の入力に応じた運転状態範囲のエンジン音データを繰り返し発音させることが記載されている。   In Patent Document 2, the engine operating state is divided into a plurality of ranges using the driving operation amount and the engine rotation speed as parameters, and engine sounds recorded in a substantially central state of each range are recorded for one fuel cycle on the crankshaft. Stored as engine sound digital data in units of a sound pressure waveform with a length corresponding to the rotation time, and repeatedly sounding engine sound data in the driving state range according to the input of the operation amount and engine speed Have been described.

上記特許文献1及び特許文献2を含め、従来の車両等における音生成装置では、車両等の走行に関する音として、エンジン回転数とアクセル操作量との二次元パラメータ(二次元座標)の四隅に相当するエンジン音のサンプルを準備しておき、検出したエンジン回転数とアクセル操作量に応じた座標点の音を補完して出力するものである。   In the sound generation device for conventional vehicles including Patent Document 1 and Patent Document 2 described above, the sound related to traveling of the vehicle or the like corresponds to the four corners of the two-dimensional parameters (two-dimensional coordinates) of the engine speed and the accelerator operation amount. A sample of the engine sound to be prepared is prepared, and the sound at the coordinate point corresponding to the detected engine speed and accelerator operation amount is complemented and output.

補完の手段は、エンジン回転数及びアクセル操作量によって音の再生速度を変化させる。また、エンジン回転数及びアクセル操作量に応じた重みを設定し、音量を変化させる。   The complementing means changes the sound reproduction speed according to the engine speed and the accelerator operation amount. Further, a weight corresponding to the engine speed and the accelerator operation amount is set, and the sound volume is changed.

一方、特許文献3には、周囲環境に応じて自動作曲することが記載されている。すなわち、特許文献3では、複数のパートが同時に鳴ることで音楽を生成している。それぞれのパートの音は、映像や電波センサ等の反応に応じて鳴るようになっている。   On the other hand, Japanese Patent Application Laid-Open No. H10-33095 describes that the music piece is automatically operated according to the surrounding environment. That is, in Patent Document 3, music is generated by simultaneously playing a plurality of parts. The sound of each part sounds according to the reaction of the image or the radio wave sensor.

また、特許文献4には、危険判定部によって速度センサからの信号に基づいて、運転の危険性を判定し、生成する音楽における音のスケール、音楽において鳴らす和音、楽器の音を鳴らすタイミング、楽器の演奏速度の少なくとも1つを変更することが記載されている。   Further, in Patent Document 4, a risk determination unit determines a driving risk based on a signal from a speed sensor, generates a sound scale in music to be generated, a chord to sound in music, a timing to sound an instrument, a musical instrument It is described to change at least one of the performance speeds.

なお、参考として、楽曲データと車両状態の検出結果を利用して音楽を発生する車両用音楽発生装置が開示されている(特許文献5)。   For reference, a vehicle music generator that generates music using music data and vehicle state detection results is disclosed (Patent Document 5).

さらに、参考として、モニタに表示される監視対象から入力される外部信号に基づいて、監視対象の変化を音楽の変化に変換することで、監視作業を聴覚にも反映させる信号監視用音楽演奏装置が開示されている(特許文献6)。   Further, as a reference, a signal performance music performance device that reflects the monitoring work to the auditory sense by converting the change of the monitoring target into the change of music based on the external signal input from the monitoring target displayed on the monitor. Is disclosed (Patent Document 6).

また、参考として、外部環境や人の生体情報を使って自動再生する音響構成装置が開示されている(特許文献7参照)。   As a reference, an acoustic component apparatus that automatically reproduces using external environment or human biological information is disclosed (see Patent Document 7).

特開2000−1142号公報JP 2000-1142 A 特開2000−10576号公報JP 2000-10576 A 特開2016−183988号公報JP, 2006-183988, A 特開2016−102863号公報Japanese Patent Laid-Open No. 2006-102863 特許第4984861号公報Japanese Patent No. 4984861 特許第4458581号公報Japanese Patent No. 4458581 特許第3381074号公報Japanese Patent No. 3381074

例えば、静粛性の高い車両では車室内のエンジン音を極力遮断する構造をとっている。また、電気自動車では、そもそも車両の駆動源がエンジンからモータ等に遷移する中、エンジン音は存在しない。例えば、音の出力対象を、車両の周囲を歩行している人や自転車で走行している人とし、当該人に対して注意喚起するという目的では有効であるが、静粛性の高い車両及び電気自動車を運転している運転者にとっては、走行中の耳障りとなる可能性がある。   For example, a vehicle with high quietness has a structure that blocks engine noise in the passenger compartment as much as possible. In an electric vehicle, engine sound does not exist while the drive source of the vehicle is changed from an engine to a motor or the like. For example, the sound output target is effective for the purpose of calling attention to a person walking around a vehicle or a person traveling on a bicycle. For a driver who is driving a car, there is a possibility that it may be annoying while driving.

一方、運転者は、車両の安全運転の一環として、周囲の環境の様子を認識したいという要求がある。   On the other hand, as a part of safe driving of the vehicle, there is a demand for the driver to recognize the surrounding environment.

しかしながら、車両の操作状態をパラメータとした音発生技術は存在するが、運転中の周囲環境と音との関連性は考慮されていない。   However, although there is a sound generation technique using the operation state of the vehicle as a parameter, the relationship between the ambient environment during driving and the sound is not considered.

本発明は上記事実を考慮し、運転中の周囲環境と音との関連性を持たせ、出力される音に運転者が運転するときの注意喚起機能として機能を持たせることができる音生成装置、音生成制御プログラムを得ることが目的である。   In consideration of the above facts, the present invention has a relationship between sound and the surrounding environment during driving, and a sound generation device capable of providing a function as a warning function when the driver drives the output sound. The object is to obtain a sound generation control program.

本発明の音生成装置は、車両の走行中において、当該車両の周囲環境情報、及び、乗員の身体状況情報の少なくとも一方を含む環境パラメータを取得する取得手段と、前記取得手段で取得した前記環境パラメータに応じた音を生成する音生成手段と、乗員に対して、前記音生成手段によって生成された音を出力する出力手段と、を有している。   The sound generation device of the present invention includes an acquisition unit that acquires environmental parameters including at least one of ambient environment information of the vehicle and physical condition information of an occupant while the vehicle is traveling, and the environment acquired by the acquisition unit Sound generating means for generating a sound corresponding to the parameter; and output means for outputting the sound generated by the sound generating means to the occupant.

本発明によれば、取得手段は、車両の走行中において、当該車両の周囲環境情報、及び、乗員の身体状況情報の少なくとも一方を含む環境パラメータを取得する。音生成手段は、取得手段で取得した前記環境パラメータに応じた音を生成し、出力手段は、乗員に対して、音生成手段によって生成された音を出力する。   According to the present invention, the acquisition means acquires environmental parameters including at least one of ambient environment information of the vehicle and occupant's physical condition information while the vehicle is traveling. The sound generation unit generates a sound according to the environmental parameter acquired by the acquisition unit, and the output unit outputs the sound generated by the sound generation unit to the occupant.

ここで、音生成手段では、取得手段で取得した環境パラメータに基づいて、音を生成している。言い換えれば、車両の走行のために操作状態に基づくパラメータではない。   Here, the sound generation means generates sound based on the environmental parameters acquired by the acquisition means. In other words, it is not a parameter based on the operation state for traveling of the vehicle.

すなわち、本発明では、例えば、車両の周囲環境情報によって注意喚起するための音を生成しているため、当該生成された音の出力によって、車両の周囲環境を把握することができ、運転に配慮することができる。   That is, in the present invention, for example, a sound for alerting is generated based on the surrounding environment information of the vehicle, so that the surrounding environment of the vehicle can be grasped by the output of the generated sound, and driving is considered. can do.

本発明において、前記取得手段が、当該車両の周囲環境情報の複雑さを表す複雑さパラメータを、前記環境パラメータとして取得することを特徴としている。   In the present invention, the acquisition unit acquires a complexity parameter representing the complexity of the surrounding environment information of the vehicle as the environment parameter.

環境パラメータにより、車両の周囲環境情報の複雑さを表す複雑さを表現することができる(複雑さパラメータ)。   The environment parameter can express the complexity representing the complexity of the surrounding environment information of the vehicle (complexity parameter).

本発明において、前記取得手段が、前記車両に取り付けられ、少なくとも走行中の前方画像を撮像する撮像手段を備え、前記撮像手段で撮像した画像を解析して、前記車両の周囲環境情報を取得することを特徴とする。   In the present invention, the acquisition unit includes an imaging unit that is attached to the vehicle and captures at least a forward image during traveling, and analyzes the image captured by the imaging unit to acquire ambient environment information of the vehicle. It is characterized by that.

周囲環境を取得する情報源として、車両の走行中の前方画像を撮像する。車両の走行において、最も重要な前方画像から、様々な周囲環境を取得することができる。   As an information source for acquiring the surrounding environment, a front image while the vehicle is traveling is captured. In traveling of the vehicle, various surrounding environments can be acquired from the most important front image.

本発明において、前記車両の周囲環境情報として、前記撮像手段で撮像された前方画像の全体の変化度合いである第1の複雑さパラメータと、前記前方画像の内の車両側部に特化した変化度合いである第2の複雑さパラメータと、を演算する第1の演算手段をさらに有し、前記音生成手段では、前記第1の演算手段で演算された第1の複雑さパラメータと第2の複雑さパラメータ2のバランスに基づいて、生成する音を変更することを特徴とする。   In the present invention, as the surrounding environment information of the vehicle, a first complexity parameter that is a degree of change of the entire front image captured by the imaging unit, and a change specific to the vehicle side portion of the front image. And a first calculation means for calculating a second complexity parameter that is a degree, and the sound generation means includes a first complexity parameter calculated by the first calculation means and a second complexity parameter. The sound to be generated is changed based on the balance of the complexity parameter 2.

車両の周囲環境情報として、第1の複雑さパラメータと第2の複雑さパラメータを演算する。   As the surrounding environment information of the vehicle, a first complexity parameter and a second complexity parameter are calculated.

第1の複雑さパラメータは、撮像手段で撮像された前方画像の全体の変化度合いである。また、第2の複雑さパラメータは、前方画像の内の車両側部に特化した変化度合いである。   The first complexity parameter is the degree of change of the entire front image captured by the imaging unit. Further, the second complexity parameter is a degree of change specialized for the vehicle side portion in the front image.

変更手段では、第1の複雑さパラメータと第2の複雑さパラメータ2のバランスに基づいて、音生成手段による音の生成を変更する。異なる要素のバランスで音が変化するため、二次元的な拡がりで報知形態を異ならせることができる。   The changing means changes the sound generation by the sound generating means based on the balance between the first complexity parameter and the second complexity parameter 2. Since the sound changes depending on the balance of different elements, the notification form can be varied by two-dimensional expansion.

本発明において、前記車両の周囲環境情報として、前記撮像手段で撮像された前方画像から、車両に対して予め定めた距離以内に存在する障害物の変化度合いを示す第3の複雑さパラメータを演算する第2の演算手段をさらに有し、前記音生成手段では、前記第2の演算手段で演算された第3の複雑さパラメータと、車両の速度との関係に基づいて、生成する音を変更することを特徴とする。   In the present invention, as a surrounding environment information of the vehicle, a third complexity parameter indicating a degree of change of an obstacle existing within a predetermined distance from the vehicle is calculated from a front image captured by the imaging unit. The sound generation means changes the sound to be generated based on the relationship between the third complexity parameter calculated by the second calculation means and the vehicle speed. It is characterized by doing.

前記車両の周囲環境情報として、第3の複雑さパラメータを演算する。第3の複雑さパラメータは、撮像手段で撮像された前方画像から、車両に対して予め定めた距離以内に存在する障害物の変化度合いである。   A third complexity parameter is calculated as the ambient environment information of the vehicle. The third complexity parameter is a degree of change of an obstacle existing within a predetermined distance from the front image captured by the imaging unit with respect to the vehicle.

変更手段では、第3の複雑さパラメータと、車両の速度との関係に基づいて、生成する音を変更する。音の変更は、音量を含む。例えば、予め定めた距離以内に障害物が多く存在し、かつ車両の速度が遅い状況が認識可能であり、この状況は、人通りの多い狭い道路等が考えられ、一例として音量増大は、より注意喚起を強調する契機となり得る。   The changing means changes the sound to be generated based on the relationship between the third complexity parameter and the vehicle speed. The sound change includes the volume. For example, it is possible to recognize a situation where there are many obstacles within a predetermined distance and the speed of the vehicle is slow, and this situation can be considered a narrow road with many people, etc. It can be an opportunity to emphasize attention.

本発明において、前記音生成手段が、予め記憶された複数の音を読み出して音を生成する、或いは、前記撮像手段で撮像された画像に基づいて自動作曲した複数の音から音を生成し、前記環境パラメータに基づく、音の変更が、複数の音の合成度合いを調整することを特徴とする。   In the present invention, the sound generation means generates a sound by reading a plurality of sounds stored in advance, or generates a sound from a plurality of sounds that are automatically tuned based on an image captured by the imaging means, The sound change based on the environmental parameter adjusts the degree of synthesis of a plurality of sounds.

聴覚を通じて注意喚起を認識することができるため、視覚を通じた注意喚起に比べて運転中の視線の変更を軽減することができる。   Since attention can be recognized through hearing, a change in line of sight while driving can be reduced as compared with visual attention.

本発明の音生成装置は、車両に取り付けられ、少なくとも走行中の前方画像を撮像する撮像手段と、予め記憶された複数の音を読み出して合成音を生成する、或いは、前記撮像手段で撮像された画像に基づいて自動作曲した複数の音から合成音を生成する音生成手段と、前記撮像手段で撮像された前方画像の全体の変化度合いである第1の複雑さパラメータと、前記前方画像の内の車両側部に特化した変化度合いである第2の複雑さパラメータと、を演算する第1の演算手段と、前記撮像手段で撮像された前方画像から、車両に対して予め定めた距離以内に存在する障害物の変化度合いを示す第3の複雑さパラメータを演算する第2の演算手段と、前記第1の演算手段で演算された第1の複雑さパラメータと第2の複雑さパラメータ2のバランスに基づいて、前記音生成手段により合成される複数の音の合成度合いを変更する第1の変更手段と、前記第2の演算手段で演算された第3の複雑さパラメータと、車両の速度との関係に基づいて、前記音生成手段により生成される合成音の音量を変更する第2の変更手段と、乗員に対して、前記音生成手段によって生成された音を出力する出力手段と、を有している。   The sound generation device of the present invention is attached to a vehicle and captures at least a forward image while traveling, and generates a synthesized sound by reading a plurality of prestored sounds, or is captured by the imaging unit. Sound generating means for generating a synthesized sound from a plurality of sounds that are automatically tuned based on the obtained image, a first complexity parameter that is a degree of change of the entire front image captured by the imaging means, A first calculation unit that calculates a second complexity parameter that is a degree of change specialized for the vehicle side portion, and a predetermined distance from the front image captured by the imaging unit with respect to the vehicle A second calculation means for calculating a third complexity parameter indicating a degree of change of an obstacle existing within the first complexity parameter, and a first complexity parameter and a second complexity parameter calculated by the first calculation means. Two roses A first changing means for changing the degree of synthesis of a plurality of sounds synthesized by the sound generating means, a third complexity parameter calculated by the second calculating means, and a vehicle speed A second changing means for changing the volume of the synthesized sound generated by the sound generating means, and an output means for outputting the sound generated by the sound generating means to the occupant, have.

本発明によれば、第1の演算手段では、撮像手段で撮像された前方画像の全体の変化度合いである第1の複雑さパラメータと、前記前方画像の内の車両側部に特化した変化度合いである第2の複雑さパラメータと、を演算し、両者のバランスに基づいて、前記音生成手段により生成される音を変更する(第1の変更手段)。   According to the present invention, in the first calculation means, the first complexity parameter, which is the degree of change in the entire front image captured by the imaging means, and the change specific to the vehicle side portion in the front image. A second complexity parameter, which is a degree, is calculated, and the sound generated by the sound generating means is changed based on a balance between the two (first changing means).

また、第2の演算手段では、撮像手段で撮像された前方画像から、車両に対して予め定めた距離以内に存在する障害物の変化度合いを示す第3の複雑さパラメータを演算し、当該第3の複雑さパラメータと、車両の速度との関係に基づいて、音生成手段により生成される音を変更する(第2の変更手段)。   The second computing means computes a third complexity parameter indicating the degree of change of the obstacle existing within a predetermined distance from the vehicle from the front image taken by the imaging means, The sound generated by the sound generating means is changed based on the relationship between the complexity parameter 3 and the speed of the vehicle (second changing means).

一例として、第1の変更が音色や合成バランス、リズム等であるのに対し、第2の変更手段が、第1の変更手段で出力される音を音量とする。   As an example, while the first change is a timbre, synthesis balance, rhythm, etc., the second change means uses the sound output by the first change means as the volume.

生成された音が出力されることで、周囲環境の変化が音の変化として表され、別の場所はどのような変化があるという関心を誘うことができる。   By outputting the generated sound, a change in the surrounding environment is expressed as a change in the sound, and it is possible to attract the interest that there is a change in another place.

例えば、周りに何も無い田園地帯での走行では、音は比較的静かになり、ビルが多い都会での走行は複数の音が混じったり、音量が大きくなる、といった変更で、周囲の状況を音で表現することができる。   For example, when driving in the countryside where there is nothing around, the sound will be relatively quiet, and when driving in a city with many buildings, multiple sounds will be mixed or the volume will be increased. It can be expressed with sound.

また、周囲環境に応じて音が変化することで、注意散漫になりがちな単調な運転を回避することができる。   In addition, since the sound changes according to the surrounding environment, it is possible to avoid monotonous driving that tends to be distracting.

さらに、音の変化によって、感覚的に周囲状況が把握でき、視線を運転に集中させることができる。   Furthermore, the surrounding situation can be grasped sensuously by the change of sound, and the line of sight can be concentrated on driving.

本発明の音生成制御プログラムは、コンピュータに、予め記憶された複数の音を読み出して合成音を生成する、或いは、撮像手段で撮像された画像に基づいて自動作曲した複数の音から合成音を生成し、前記撮像手段で撮像された前方画像の全体の変化度合いである第1の複雑さパラメータと、前記前方画像の内の車両側部に特化した変化度合いである第2の複雑さパラメータと、を演算し、前記撮像手段で撮像された前方画像から、車両に対して予め定めた距離以内に存在する障害物の変化度合いを示す第3の複雑さパラメータを演算し、演算された第1の複雑さパラメータと第2の複雑さパラメータ2のバランスに基づいて、合成される複数の音の合成度合いを変更し、演算された第3の複雑さパラメータと、車両の速度との関係に基づいて、生成される合成音の音量を変更する、ことを実行させることを特徴とする。   The sound generation control program of the present invention reads a plurality of sounds stored in advance in a computer to generate a synthesized sound, or generates a synthesized sound from a plurality of sounds that are automatically composed based on an image captured by an imaging means. A first complexity parameter that is the degree of change of the entire front image that is generated and imaged by the imaging means, and a second complexity parameter that is a degree of change specific to the vehicle side portion of the front image And a third complexity parameter indicating the degree of change of an obstacle existing within a predetermined distance from the vehicle is calculated from the front image captured by the imaging unit, and the calculated first The degree of synthesis of a plurality of sounds to be synthesized is changed based on the balance between the complexity parameter 1 and the second complexity parameter 2, and the relationship between the calculated third complexity parameter and the vehicle speed is changed. Base Te, change the volume of the generated synthesized speech, characterized in that to perform the.

以上説明した如く本発明では、運転中の周囲環境と音との関連性を持たせ、出力される音に運転者が運転するときの注意喚起機能として機能を持たせることができる。   As described above, according to the present invention, it is possible to provide a relationship between the surrounding environment during driving and sound, and to provide a function as a warning function when the driver drives the output sound.

本実施の形態に係る音生成制御装置の概略図である。It is the schematic of the sound production | generation control apparatus which concerns on this Embodiment. 制御プログラムに基づきRAMで実行される音生成制御装置での音生成処理及び再生処理をブロック化して示す機能ブロック図である。It is a functional block diagram which blocks and shows the sound production | generation process and reproduction | regeneration processing in the sound production | generation control apparatus performed with RAM based on a control program. 撮像ユニットで撮像した画像であり、(A)は複雑さパラメータ1を得るための画像の正面図、(B)複雑さパラメータ2を得るための画像の正面図、(C)は図3(B)で分割した画像コマを特定する番号の配列図である。FIGS. 3A and 3B are images captured by an imaging unit, where FIG. 3A is a front view of an image for obtaining complexity parameter 1, FIG. 3B is a front view of an image for obtaining complexity parameter 2, and FIG. ) Is an array diagram of numbers for specifying the image frames divided in (4). 制御座標点の重みを決定するための複雑さパラメータ1−複雑さパラメータ2特性図である。It is a complexity parameter 1-complexity parameter 2 characteristic view for determining the weight of a control coordinate point. 音情報ファイル毎の重み設定の一覧を示す特性図である。It is a characteristic figure which shows the list of the weight setting for every sound information file. 運転中の危険度を導出するための速度−複雑さパラメータ3特性図である。It is a speed-complexity parameter 3 characteristic view for deriving the risk during operation. 図6で導出される危険度と増幅率との関係を示す特性図である。FIG. 7 is a characteristic diagram showing the relationship between the degree of risk derived in FIG. 6 and the amplification factor. IGオン時に起動する本実施の形態に係る音生成制御ルーチンを示すフローチャートである。It is a flowchart which shows the sound production | generation control routine based on this Embodiment started when IG is ON. 、図8のフローチャートに基づき実行される音生成制御において、情報(信号)処理の遷移状態を示す流れ図である。FIG. 9 is a flowchart showing a transition state of information (signal) processing in sound generation control executed based on the flowchart of FIG. 8. 本実施の形態の変形例に係り、自動作曲プログラムを適用した場合の情報(信号)処理の遷移状態を示す流れ図である。It is a flowchart which shows the transition state of the information (signal) process at the time of applying the automatic music program concerning the modification of this Embodiment.

図1には、本発明の注意喚起制御装置としての音生成制御装置10の概略図が示されている。   FIG. 1 shows a schematic diagram of a sound generation control device 10 as an attention control device of the present invention.

図1に示される如く、音生成制御装置10は、各種制御及び各種演算を行うマイクロコンピュータ12を備える。マイクロコンピュータ12は、CPU12A、RAM12B、ROM12C、入出力部(I/O)12D、及びこれらを接続するデータバスやコントロールバス等のバス12Eを備えている。   As shown in FIG. 1, the sound generation control device 10 includes a microcomputer 12 that performs various controls and various calculations. The microcomputer 12 includes a CPU 12A, a RAM 12B, a ROM 12C, an input / output unit (I / O) 12D, and a bus 12E such as a data bus and a control bus for connecting them.

I/O12Dには、不揮発性メモリとしてハードディスク14が接続されている。なお、I/O12Dには、USBメモリ、SDメモリ等、他の不揮発性メモリが、図示しないI/Fを介して接続されるようにしてもよい。   A hard disk 14 is connected to the I / O 12D as a nonvolatile memory. Note that another non-volatile memory such as a USB memory or an SD memory may be connected to the I / O 12D via an I / F (not shown).

また、I/O12Dは、入力系デバイスとして撮像ユニット16が接続されている。撮像ユニット16は、本実施の形態では、車両の前方を撮像するカメラで構成されている。なお、撮像ユニット16として適用されるカメラは、本実施の形態の音生成制御装置10の専用であってもよいし、運転中の死角領域等をカバーするための既存の車載カメラであってもよく、少なくとも、車両の走行中の前方を撮像した画像情報が取得できればよい。   The I / O 12D is connected to an imaging unit 16 as an input system device. In the present embodiment, the imaging unit 16 is configured by a camera that images the front of the vehicle. The camera applied as the imaging unit 16 may be dedicated to the sound generation control device 10 of the present embodiment, or may be an existing in-vehicle camera for covering a blind spot area or the like during driving. It suffices that at least image information obtained by imaging the front of the vehicle while traveling is acquired.

撮像ユニット16は、所謂一般的なカメラによる色や階調で表現する画像のみならず、赤外線による温度差を表現する画像や、ソナー(超音波)による対象物までの距離を表現する画像を含むことを意味する。   The imaging unit 16 includes not only an image expressed by colors and gradations by a so-called general camera, but also an image expressing a temperature difference by infrared rays and an image expressing a distance to an object by sonar (ultrasound). Means that.

I/O12Dには、出力系デバイスとして、ドライバ18を介してスピーカ20が接続されている。本実施の形態に係る音生成制御装置10では、車両の走行中の周囲環境に応じた音が選択され、スピーカ20から出力されるようになっている(詳細後述)。スピーカ20は、本実施の形態の音生成制御装置10の専用であってもよいし、車両に搭載されたオーディオ機器に付属するスピーカを流用してもよい。   A speaker 20 is connected to the I / O 12D via a driver 18 as an output system device. In the sound generation control device 10 according to the present embodiment, a sound corresponding to the surrounding environment during travel of the vehicle is selected and output from the speaker 20 (details will be described later). The speaker 20 may be dedicated to the sound generation control device 10 of the present embodiment, or may be a speaker attached to an audio device mounted on the vehicle.

ここで、ROM12Cには、音生成制御のための、音生成処理及び音再生処理を実行するための制御プログラムが記憶されている。CPU12Aは、ROM12Cに記憶された制御プログラムを読み出し、例えば、RAM12Bをワークエリアとして使用して制御プログラムを実行する。なお、ここでは、ソフトウエアは制御プログラムと同義である。   Here, the ROM 12C stores a control program for executing sound generation processing and sound reproduction processing for sound generation control. The CPU 12A reads the control program stored in the ROM 12C, and executes the control program using, for example, the RAM 12B as a work area. Here, software is synonymous with control program.

図2は、制御プログラムに基づきRAM12Bで実行される音生成制御装置10での音生成処理及び再生処理をブロック化して示す機能ブロック図である。なお、この図2に示すブロックは、音生成制御装置10のハード構成を限定するものではない。   FIG. 2 is a functional block diagram showing in block form the sound generation processing and reproduction processing in the sound generation control device 10 executed by the RAM 12B based on the control program. Note that the block shown in FIG. 2 does not limit the hardware configuration of the sound generation control device 10.

撮像ユニット16は、画像取得部22に接続されている。画像取得部22には、例えば、車両の走行状態を示す信号(例えば、イグニッション(IG)信号等)が入力されており、IG信号がオンしたことを認識した時点で、撮像ユニット16から画像情報を取得する。   The imaging unit 16 is connected to the image acquisition unit 22. For example, a signal indicating the running state of the vehicle (for example, an ignition (IG) signal or the like) is input to the image acquisition unit 22, and image information from the imaging unit 16 is recognized when the IG signal is turned on. To get.

画像取得部22は、音情報ファイル読出部24及び画像解析部26に接続されている。   The image acquisition unit 22 is connected to the sound information file reading unit 24 and the image analysis unit 26.

画像取得部22は、IG信号の入力を契機として、音情報ファイル読出部24に対して、音情報ファイルの読み出しを指示する指示信号を出力する。音情報ファイル読出部24では、指示信号の入力を受けて、音情報ファイル記憶部28から音情報ファイルを読み出し、再生部30へ出力する。   The image acquisition unit 22 outputs an instruction signal instructing the sound information file reading unit 24 to read the sound information file with the input of the IG signal. In response to the input of the instruction signal, the sound information file reading unit 24 reads the sound information file from the sound information file storage unit 28 and outputs it to the reproduction unit 30.

音情報ファイル記憶部28には、予め4種類の音情報ファイル1〜音情報ファイル4(図4、図9参照)が記憶されている。本実施の形態では、音情報ファイル1〜音情報ファイル4の種類として、自然(川、風、虫等)を表現する音、季節の風物詩(お祭り、花火等)を表現する音、及び、楽器音等が挙げられる。   In the sound information file storage unit 28, four types of sound information files 1 to 4 (see FIGS. 4 and 9) are stored in advance. In the present embodiment, as the types of the sound information file 1 to the sound information file 4, sounds expressing nature (rivers, winds, insects, etc.), sounds expressing seasonal features (festivals, fireworks, etc.), and musical instruments Sound and so on.

音情報ファイル1〜音情報ファイル4、必ずしも同一の音の種類から選択しなくてもよいが、本実施の形態では、例えば、自然を表現する音に特化し、音情報ファイル1に清流音、音情報ファイル2に風の音、音情報ファイル3に虫の音、及び音情報ファイル4に雷鳴といったように、同一種類の音から異なる音色が記憶されている。   The sound information file 1 to the sound information file 4 do not necessarily have to be selected from the same sound type, but in the present embodiment, for example, the sound information file 1 includes a clear stream sound, Different sound colors are stored from the same type of sound, such as wind sound in the sound information file 2, sound of insects in the sound information file 3, and thunder in the sound information file 4.

再生部30では、デフォルトとして、全ての種類の音色を、それぞれ予め定めた周期、予め定めた音量で再生し、ドライバ18を介してスピーカ20から出力する。   In the reproducing unit 30, as a default, all kinds of timbres are reproduced with a predetermined period and a predetermined volume, and output from the speaker 20 via the driver 18.

一方、図2に示される如く、画像取得部22に接続された画像解析部26では、撮像した画像情報を解析する。   On the other hand, as shown in FIG. 2, the image analysis unit 26 connected to the image acquisition unit 22 analyzes the captured image information.

画像解析部26では、基本処理として、撮像した画像をグレースケール化してエッジ検出を実行する。   In the image analysis unit 26, as a basic process, the captured image is converted into a gray scale and edge detection is executed.

グレースケール化は、例えば、2値化処理した白黒データであってもよいし、濃度データ(例えば、8ビット階調データ等)であってもよい。なお、白黒データの方が、濃度データよりも情報量が少ない分、変化度合いの精度は劣るが、解析処理速度を短くすることができる。本実施の形態では、白黒データを用いるが、撮像する条件(地域、時間帯等)によって、選択するようにしてもよい。   The gray scale conversion may be, for example, binarized black and white data or density data (for example, 8-bit gradation data). Note that black and white data has a smaller amount of information than density data, so the accuracy of the degree of change is inferior, but the analysis processing speed can be shortened. In the present embodiment, black and white data is used, but it may be selected depending on the imaging conditions (region, time zone, etc.).

画像解析部26は、複雑さパラメータ生成部32に接続されている。複雑さパラメータ生成部32では、環境パラメータとしての、複雑さパラメータ1、複雑さパラメータ2、及び複雑さパラメータ3を抽出するための情報を生成する。   The image analysis unit 26 is connected to the complexity parameter generation unit 32. The complexity parameter generation unit 32 generates information for extracting the complexity parameter 1, the complexity parameter 2, and the complexity parameter 3 as environment parameters.

(複雑さパラメータ1)
複雑さパラメータ生成部32で生成される複雑さパラメータ1は、画像全体の変化の度合いを監視する情報である。
(Complexity parameter 1)
The complexity parameter 1 generated by the complexity parameter generation unit 32 is information for monitoring the degree of change of the entire image.

複雑さパラメータ1の生成に際し、基本処理として生成した白黒データを取得し(図3(A)参照)、時間的に前後する画像情報の差(の絶対値)を演算し(差分演算)、車両の走行(移動)に応じて、当該差分演算を数十回(例えば、60回程度)繰り返したときの平均値を演算する。この複雑さパラメータ1によって、車両の走行中において撮像された画像全体の変化を認識することができる。   When generating the complexity parameter 1, the black and white data generated as a basic process is acquired (see FIG. 3A), and the difference (absolute value) of the temporal and backward image information is calculated (difference calculation). The average value when the difference calculation is repeated several tens of times (for example, about 60 times) is calculated according to the travel (movement). With this complexity parameter 1, it is possible to recognize a change in the entire image captured while the vehicle is traveling.

この複雑さパラメータ1は、重み決定部34へ送出される。   The complexity parameter 1 is sent to the weight determination unit 34.

(複雑さパラメータ2)
複雑さパラメータ生成部32で生成される複雑さパラメータ2は、車両の走行方向の左右端の変化の度合いを重点的に監視する情報である。
(Complexity parameter 2)
The complexity parameter 2 generated by the complexity parameter generation unit 32 is information for mainly monitoring the degree of change in the left and right ends of the traveling direction of the vehicle.

複雑さパラメータ2の生成に際し、基本処理として生成した白黒データ(絶対値)を取得し、取得した白黒データの画像を複数の画像コマに分割する。例えば、図3(C)に示される如く、横9×縦5に分割し、各画像コマに対して、左上から右下にかけて番号を付与する。   When generating the complexity parameter 2, monochrome data (absolute value) generated as basic processing is acquired, and the acquired monochrome data image is divided into a plurality of image frames. For example, as shown in FIG. 3C, the image is divided into 9 × 5, and numbers are assigned to the respective image frames from the upper left to the lower right.

分割した画像コマの中から、車両の左右に相当する画像コマである、図3(B)のNo.21とNo.26との差の絶対値の平均値、及びNo.25とNo.30との差の絶対値の平均値を抽出する。そして、No.21とNo.26との差の絶対値の平均値、及びNo.25とNo.30との差の絶対値の平均値とを演算し(平均値演算)、車両の走行(移動)に応じて、当該平均値演算を数十回(例えば、40回程度)繰り返したときの平均値を演算する。   Among the divided image frames, No. 1 in FIG. 21 and no. 26, the average absolute value of the difference from No. 26, and No. 26 25 and No. An average value of absolute values of differences from 30 is extracted. And No. 21 and no. 26, the average absolute value of the difference from No. 26, and No. 26 25 and No. The average value when the average value of the absolute value of the difference from 30 is calculated (average value calculation), and the average value calculation is repeated several tens of times (for example, about 40 times) according to the running (movement) of the vehicle. Calculate the value.

この複雑さパラメータ2によって、車両の走行中において、特に側方の変化を認識することができる。複雑さパラメータ2は、重み決定部34へ送出される。   With this complexity parameter 2, it is possible to recognize changes in the side especially during the running of the vehicle. The complexity parameter 2 is sent to the weight determination unit 34.

(複雑さパラメータ1、2による重み付け)
図2に示される如く、重み決定部34は、4種類の音情報ファイル(音情報ファイル1〜音情報ファイル4)に対して、複雑さパラメータ1及び複雑さパラメータ2に基づき、それぞれ重み付けを行う。
(Weighting by complexity parameters 1 and 2)
As shown in FIG. 2, the weight determination unit 34 weights the four types of sound information files (sound information file 1 to sound information file 4) based on the complexity parameter 1 and the complexity parameter 2, respectively. .

図4は、複雑さパラメータ1を横軸、複雑さパラメータ2を縦軸とした場合の、撮像ユニット16で撮像された画像の現在の制御座標点(x,y)を特定するための特性図である。すなわち、制御座標点は、複雑さパラメータ1と複雑さパラメータ2とのバランスで決まるようになっている。   FIG. 4 is a characteristic diagram for specifying the current control coordinate point (x, y) of the image captured by the imaging unit 16 when the complexity parameter 1 is on the horizontal axis and the complexity parameter 2 is on the vertical axis. It is. That is, the control coordinate point is determined by the balance between the complexity parameter 1 and the complexity parameter 2.

前記音情報ファイル1〜音情報ファイル4は、図4の特性図の4隅にそれぞれ位置している。音情報ファイル1〜音情報ファイル4に設定される重み1〜重み4は、各音情報ファイル(音情報ファイル1〜音情報ファイル4)から制御座標点(x,y)までの距離に対応している。   The sound information file 1 to sound information file 4 are located at the four corners of the characteristic diagram of FIG. The weights 1 to 4 set in the sound information file 1 to the sound information file 4 correspond to the distance from each sound information file (sound information file 1 to sound information file 4) to the control coordinate point (x, y). ing.

音情報ファイル1は、複雑さパラメータ1が最小、複雑さパラメータが最小の位置に配置されている(xmin,ymin)。図5に示される如く、音情報ファイル1は、複雑さパラメータ1が小さいほど重みが強く、複雑さパラメータ2が小さいほど重みが強い特性である。   The sound information file 1 is arranged at a position where the complexity parameter 1 is minimum and the complexity parameter is minimum (xmin, ymin). As shown in FIG. 5, the sound information file 1 has a characteristic that the weight is stronger as the complexity parameter 1 is smaller, and the weight is stronger as the complexity parameter 2 is smaller.

音情報ファイル2は、複雑さパラメータ1が最小、複雑さパラメータが最大の位置に配置されている(xmin,ymax)。図5に示される如く、音情報ファイル2は、複雑さパラメータ1が小さいほど重みが強く、複雑さパラメータ2が大きいほど重みが強い特性である。   The sound information file 2 is arranged at a position where the complexity parameter 1 is minimum and the complexity parameter is maximum (xmin, ymax). As shown in FIG. 5, the sound information file 2 has a characteristic that the weight is stronger as the complexity parameter 1 is smaller, and the weight is stronger as the complexity parameter 2 is larger.

音情報ファイル3は、複雑さパラメータ1が最大、複雑さパラメータが最大の位置に配置されている(xmax,ymax)。図5に示される如く、音情報ファイル3は、複雑さパラメータ1が大きいほど重みが強く、複雑さパラメータ2が大きいほど重みが強い特性である。   The sound information file 3 is arranged at a position where the complexity parameter 1 is maximum and the complexity parameter is maximum (xmax, ymax). As shown in FIG. 5, the sound information file 3 has a characteristic that the weight is stronger as the complexity parameter 1 is larger, and the weight is stronger as the complexity parameter 2 is larger.

音情報ファイル4は、複雑さパラメータ1が最大、複雑さパラメータが最小の位置に配置されている(xmax,ymin)。図5に示される如く、音情報ファイル4は、複雑さパラメータ1が大きいほど重みが強く、複雑さパラメータ2が小さいほど重みが強い特性である。   The sound information file 4 is arranged at a position where the complexity parameter 1 is maximum and the complexity parameter is minimum (xmax, ymin). As shown in FIG. 5, the sound information file 4 has a characteristic that the weight is stronger as the complexity parameter 1 is larger, and the weight is stronger as the complexity parameter 2 is smaller.

図2に示される如く、重み決定部34は、重み調整部36に接続され、決定された重み情報を重み調整部36へ送出する。重み調整部36では、再生部30で再生される、音情報ファイル1〜音情報ファイル4に対して、重み決定された重み情報に基づいて重み付けを実行する。これにより、音情報ファイル1〜音情報ファイル4は、複雑さパラメータ1及び複雑さパラメータ2に基づいて、出力時の強調度合い(周期、音量等)が変化して出力される。   As shown in FIG. 2, the weight determination unit 34 is connected to the weight adjustment unit 36 and sends the determined weight information to the weight adjustment unit 36. The weight adjustment unit 36 performs weighting on the sound information file 1 to the sound information file 4 reproduced by the reproduction unit 30 based on the weight information determined for the weight. Thus, the sound information file 1 to the sound information file 4 are output with the degree of emphasis (period, volume, etc.) at the time of output being changed based on the complexity parameter 1 and the complexity parameter 2.

例えば、複雑さパラメータ1及び複雑さパラメータ2のそれぞれの値が小さい場合は、音情報ファイル1が最も重みが強く、強調される。   For example, when the values of the complexity parameter 1 and the complexity parameter 2 are small, the sound information file 1 has the strongest weight and is emphasized.

(複雑さパラメータ3)
複雑さパラメータ生成部32で生成される複雑さパラメータ3は、車両の近傍に存在する障害物の有無を監視する情報である。
(Complexity parameter 3)
The complexity parameter 3 generated by the complexity parameter generation unit 32 is information for monitoring the presence or absence of an obstacle present in the vicinity of the vehicle.

複雑さパラメータ3の生成に際し、速度−複雑さパラメータ3の特性曲線の基準線A(図6参照)を設定する。   When generating the complexity parameter 3, the reference line A (see FIG. 6) of the characteristic curve of the speed-complexity parameter 3 is set.

図6に示す基準線Aは、車両の速度に対して複雑さパラメータ3が、直線的に変化すると仮定した場合の特性曲線であり、基準線Aと実際の特性曲線との差が、車両の近傍に存在する障害物の有無を監視する情報となる。   The reference line A shown in FIG. 6 is a characteristic curve when it is assumed that the complexity parameter 3 changes linearly with respect to the vehicle speed. The difference between the reference line A and the actual characteristic curve is This is information for monitoring the presence or absence of obstacles in the vicinity.

例えば、車両が障害物の少ない道路を走行しているときは、実際の速度−複雑さパラメータ3特性曲線は、特性曲線Bとなり、前記基準線Aを超える要素はない。   For example, when the vehicle is traveling on a road with few obstacles, the actual speed-complexity parameter 3 characteristic curve becomes the characteristic curve B, and there is no element exceeding the reference line A.

一方、障害物の多い道路を走行しているときは、実際の速度−複雑さパラメータ3特性曲線は、特性曲線Cとなり、前記基準線Aを超える要素が存在する(図6の斜線領域D参照)。この斜線領域Dが発生する状況としては、車両が駐車場の敷地内である、道路が狭くかつ電信柱や自動販売機が道路側に突出して設置される、及び、人通りが多い場合等が挙げられる。   On the other hand, when traveling on a road with many obstacles, the actual speed-complexity parameter 3 characteristic curve becomes the characteristic curve C, and there are elements exceeding the reference line A (see the hatched area D in FIG. 6). ). The situation where the hatched area D occurs is when the vehicle is in a parking lot site, the road is narrow and a telegraph pole or a vending machine protrudes on the road side, and there is a lot of traffic. Can be mentioned.

複雑さパラメータ生成部32で生成された複雑さパラメータ3は、危険度判定部38へ送出される。危険度判定部38は、前記図6の斜線領域Dが発生しているか否かを監視することで、現在の車両の危険度を判定する。なお、運転中の危険度が高い状況は、上記に限定されるものではない。   The complexity parameter 3 generated by the complexity parameter generation unit 32 is sent to the risk determination unit 38. The risk determination unit 38 determines the current vehicle risk by monitoring whether or not the hatched area D in FIG. 6 has occurred. The situation where the degree of risk during driving is high is not limited to the above.

図2に示される如く、危険度判定部38は、ゲイン調整部40に接続されている。ゲイン調整部40は、再生部30に接続されている。すなわち、危険度判定部38において、危険度を示す数値がゲイン調整部40に送出されると、ゲイン調整部40では、図7に示される如く、危険度−ゲイン(ここでは、音量)特性図に基づき、ゲイン調整量が特定される。再生部30では、特定されたゲイン調整量に基づき、音情報ファイル1〜音情報ファイル4の合成音のゲイン(増幅率)を調整する。   As shown in FIG. 2, the risk determination unit 38 is connected to the gain adjustment unit 40. The gain adjustment unit 40 is connected to the reproduction unit 30. That is, when the risk level determination unit 38 sends a numerical value indicating the risk level to the gain adjustment unit 40, the gain adjustment unit 40 displays a risk level-gain (here, volume) characteristic diagram as shown in FIG. Based on the above, the gain adjustment amount is specified. The reproduction unit 30 adjusts the gain (amplification factor) of the synthesized sound of the sound information file 1 to the sound information file 4 based on the specified gain adjustment amount.

例えば、車両が、道路が狭く、かつ電信柱や自動販売機が道路側に突出して設置されていたり、人通りが多い場所を走行している場合は、デフォルトの音量よりも大きくすることで、注意喚起を図るようになっている。なお、本実施の形態では、ゲインを音量としているが、例えば、再生ピッチ量(危険度が高い場合は再生ピッチを上げる)、音階(危険度が高いときは音階を上げる)等を調整するようにしてもよい。   For example, if the vehicle has a narrow road and telegraph poles and vending machines are installed on the road side, or if you are traveling in a busy area, you can increase the volume higher than the default volume. It is designed to call attention. In this embodiment, the gain is set as the volume, but for example, the playback pitch amount (increases the playback pitch when the degree of danger is high), the scale (increases the scale when the degree of danger is high), and the like are adjusted. It may be.

以下に、本実施の形態の作用を説明する。   The operation of the present embodiment will be described below.

図8は、IGオン時に起動する本実施の形態に係る音生成制御ルーチンを示すフローチャートである。また、図9は、図8のフローチャートに基づき実行される音生成制御において、情報(信号)処理の遷移状態を示す流れ図である。   FIG. 8 is a flowchart showing a sound generation control routine according to the present embodiment that is activated when the IG is turned on. FIG. 9 is a flowchart showing a transition state of information (signal) processing in the sound generation control executed based on the flowchart of FIG.

図8に示される如く、IGがオンになると、ステップ100において、撮像ユニット16が起動して、撮像を開始する。   As shown in FIG. 8, when the IG is turned on, in step 100, the imaging unit 16 is activated to start imaging.

次のステップ102では、音情報ファイル記憶部28に記憶されている、音情報ファイル1〜音情報ファイル4を読み出し、次いで、ステップ104へ移行して、再生処理を開始する。すなわち、ステップ102で読み出した音情報ファイル1〜音情報ファイル4の音源を合成してスピーカから繰り返し出力する。   In the next step 102, the sound information file 1 to the sound information file 4 stored in the sound information file storage unit 28 are read out, and then the process proceeds to step 104 to start the reproduction process. That is, the sound sources of the sound information file 1 to the sound information file 4 read in step 102 are synthesized and repeatedly output from the speaker.

次のステップ106では、撮像ユニット16で撮像した画像を解析する。本実施の形態では、撮像した画像をグレースケール化(白黒データ)し、エッジ検出を実行する(図3参照)。   In the next step 106, the image picked up by the image pickup unit 16 is analyzed. In the present embodiment, the captured image is converted to gray scale (monochrome data), and edge detection is performed (see FIG. 3).

次のステップ108では、画像解析された情報から、複雑さパラメータ1を演算する。   In the next step 108, the complexity parameter 1 is calculated from the image-analyzed information.

すなわち、複雑さパラメータ1は、白黒データに基づいて、時間的に前後する画像情報の差の絶対値を演算し、車両の走行に応じて、差分演算を繰り返したときの平均値を演算する。   That is, the complexity parameter 1 calculates the absolute value of the difference between the temporal and backward image information based on the black and white data, and calculates the average value when the difference calculation is repeated according to the running of the vehicle.

次のステップ110では、画像解析された情報から、複雑さパラメータ2を演算する。   In the next step 110, the complexity parameter 2 is calculated from the image-analyzed information.

すなわち、複雑さパラメータ2は、白黒データの画像を複数の画像コマに分割(例えば、横9×縦5)した画像コマの中から、車両の左右に相当する画像コマの差の絶対値の平均値を演算し、車両の走行に応じて、平均値演算を繰り返したときの平均値を演算する。   That is, the complexity parameter 2 is the average of the absolute values of the difference between the image frames corresponding to the left and right of the vehicle from among the image frames obtained by dividing the black and white data image into a plurality of image frames (for example, 9 × 5) The value is calculated, and the average value when the average value calculation is repeated is calculated according to the running of the vehicle.

次のステップ112では、ステップ108で得た複雑さパラメータ1、及びステップ110で得た複雑さパラメータ2に基づいて、重みを決定する。重みは、制御座標点(x,y)の位置と、音情報ファイルの座標点との距離に応じて決定される(図4及び図5参照)。   In the next step 112, the weight is determined based on the complexity parameter 1 obtained in step 108 and the complexity parameter 2 obtained in step 110. The weight is determined according to the distance between the position of the control coordinate point (x, y) and the coordinate point of the sound information file (see FIGS. 4 and 5).

次のステップ114では、決定した重みに基づき、各音情報ファイル1〜音情報ファイル4に対して重み付け処理を実行し、ステップ116へ移行する。   In the next step 114, weighting processing is executed on each of the sound information files 1 to 4 based on the determined weight, and the process proceeds to step 116.

ステップ116では、画像解析された情報から、複雑さパラメータ3を演算する。   In step 116, the complexity parameter 3 is calculated from the image-analyzed information.

すなわち、複雑さパラメータ3は、車両の近傍に存在する障害物の有無を監視する情報であり、障害物の多い道路を走行しているときの速度−複雑さパラメータ3特性曲線(図FFF参照)において、基準線Aを超える領域(斜線領域D)が存在するか否かを判定する情報となる。   That is, the complexity parameter 3 is information for monitoring the presence or absence of an obstacle present in the vicinity of the vehicle, and the speed-complexity parameter 3 characteristic curve when traveling on a road with many obstacles (see FIG. FFF). In FIG. 5, the information is used to determine whether or not there is an area exceeding the reference line A (hatched area D).

図6の特性曲線Cの場合は、運転中の危険度が高いことを意味する。具体的な状況は以下のとおりである。   In the case of the characteristic curve C in FIG. 6, it means that the degree of danger during driving is high. The specific situation is as follows.

(状況1)車両が駐車場の敷地内である。   (Situation 1) The vehicle is in the parking lot site.

(状況2)道路が狭く、かつ電信柱や自動販売機が道路側に突出して設置されている。   (Situation 2) The road is narrow, and telephone poles and vending machines are installed on the road.

(状況3)道路が狭く、かつ人通りが多い。   (Situation 3) The road is narrow and there are many people.

なお、運転中の危険度が高い状況は、上記状況1〜3に限定されるものではない。   In addition, the situation where the degree of risk during driving is high is not limited to the above-described situations 1 to 3.

次のステップ118では、ステップ116で演算した複雑さパラメータ3によって決まる斜線領域D(図6参照)の大きさ(面積、最大値等)に基づき、ゲイン(増幅率)を決定し、次いで、ステップ120へ移行してゲイン調整処理を実行する。このゲイン調整処理により、危険度が高ければ高いほど、スピーカから流れる音量が大きくなったり、音情報ファイルの再生ピッチが速まるといった、運転者に注意喚起する変化を持たせる。   In the next step 118, a gain (amplification factor) is determined based on the size (area, maximum value, etc.) of the hatched region D (see FIG. 6) determined by the complexity parameter 3 calculated in step 116, and then the step The process proceeds to 120 to execute gain adjustment processing. By this gain adjustment process, the higher the degree of danger, the greater the volume that flows from the speaker, or the faster the playback pitch of the sound information file is, the change that alerts the driver.

次のステップ122では、IGがオフになったか否かを判断し、否定判定された場合は、ステップ106へ戻り、上記工程を繰り返す。また、ステップ122で肯定判定された場合は、音生成制御を終了するべく、ステップ124へ移行して、撮像及び音再生を停止し、このルーチンは終了する。   In the next step 122, it is determined whether or not IG is turned off. If a negative determination is made, the process returns to step 106 and the above steps are repeated. If the determination in step 122 is affirmative, the process proceeds to step 124 to stop the sound generation control, and the imaging and sound reproduction are stopped, and this routine ends.

(変形例)
なお、本実施の形態では、予め音情報ファイル記憶部28(図2参照)に、4種類の音情報ファイル1〜音情報ファイル4を記憶しておき、この音情報ファイル記憶部28から音情報ファイル1〜音情報ファイル4を読み出して、再生する構成とした。
(Modification)
In the present embodiment, four types of sound information files 1 to 4 are stored in advance in the sound information file storage unit 28 (see FIG. 2), and the sound information file storage unit 28 stores the sound information. The file 1 to the sound information file 4 are read and reproduced.

これに対して、変形例では、4種類の音情報ファイルとして、自動作曲ファイル1〜自動作曲ファイル4を適用した。   On the other hand, in the modification, the automatic music file 1 to the automatic music file 4 are applied as four types of sound information files.

自動作曲ファイル1〜自動作曲ファイル4は、撮像ユニット16で撮像した画像情報に基づいて、自動作曲プログラムを実行することで、都度作曲される。   The automatic composition file 1 to the automatic composition file 4 are composed each time by executing the automatic composition program based on the image information captured by the imaging unit 16.

自動作曲プログラムは、図1のROM12Cに記憶され、CPU12Aで実行される。   The automatic composition program is stored in the ROM 12C of FIG. 1 and executed by the CPU 12A.

本実施の形態では、ROM12Cに、「MIDI(Musical Instrument Digital Interface)信号変換用のソフトウエア」や、「MIDI信号から音楽情報を生成するソフトウエア」が記憶されている。   In the present embodiment, ROM 12C stores “MIDI (Musical Instrument Digital Interface) signal conversion software” and “software for generating music information from MIDI signals”.

MIDIとは、音楽情報をデジタル信号で通信するための国際規格である。MIDI信号とは、MIDI規格の情報であり、標準的なMIDIファイル形式(SMF:Standard MIDI File Format)の情報である。「MIDI信号変換用のソフトウエア」では、音の基本振動数を「ノートナンバー」、音圧レベルを「ベロシティレベル」、音色を「楽器名を表すナンバー」、時間変化を「ノートオン/ノートオフ」を表すデータに各々変換している。   MIDI is an international standard for communicating music information with digital signals. The MIDI signal is information on the MIDI standard and information on a standard MIDI file format (SMF). In “MIDI signal conversion software”, the basic frequency of sound is “note number”, sound pressure level is “velocity level”, tone is “number indicating instrument name”, time change is “note on / note off” Are respectively converted into data representing "."

より具体的には、自動作曲ファイル1〜自動作曲ファイル4には、基準の音となる楽器の音源、例えば、ピアノ、ギター、バイオリン、トランペット等の音源が設定されている。   More specifically, the automatic music file 1 to the automatic music file 4 are set with a sound source of a musical instrument serving as a reference sound, for example, a sound source such as a piano, a guitar, a violin, and a trumpet.

撮像ユニット16で撮像した画像情報は、RGBに色分解され、それぞれの明るさ(濃度)情報を取得する。   Image information picked up by the image pickup unit 16 is color-separated into RGB, and respective brightness (density) information is acquired.

この各色の明るさ情報に基づいて、メロディ(旋律)、ハーモニー(和声)、リズム(律動)の曲の三要素、高さ(周波数)、大きさ(音圧レベル)、音色(周波数成分)の音の三要素を、それぞれ調整し、作曲する。   Based on the brightness information of each color, the three elements of the melody (melody), harmony (harmonic), rhythm (rhythm) song, height (frequency), magnitude (sound pressure level), timbre (frequency component) Each of the three elements of the sound is adjusted and composed.

なお、出願人らは、撮像ユニット16の撮像情報(カメラ画像)から音を作る自動作曲について、出願している(一例として、特開2017−102863号公報)。   Note that the applicants have filed an application for an automatic song that creates sound from imaging information (camera image) of the imaging unit 16 (Japanese Patent Laid-Open No. 2017-102863 as an example).

図10は、本実施の形態の変形例に係る、音生成制御において、情報(信号)処理の遷移状態を示す流れ図である。   FIG. 10 is a flowchart showing a transition state of information (signal) processing in sound generation control according to a modification of the present embodiment.

自動作曲プログラムでは、撮像ユニット16で撮像した撮像情報が入力されると、自動作曲を実行し、自動作曲ファイル1〜自動作曲ファイル4を作成する。この自動作曲ファイル1〜自動作曲ファイル4を、図9に示す音情報ファイル1〜音情報ファイル4に置き換えることで、この変形例は、図8にIGオン時起動音生成制御ルーチンの処理の流れと同等の流れによって処理される。   In the automatic composition program, when the imaging information imaged by the imaging unit 16 is input, the automatic music composition is executed, and the automatic music composition files 1 to 4 are created. By replacing the automatic music file 1 to the automatic music file 4 with the sound information file 1 to the sound information file 4 shown in FIG. 9, this modified example is shown in FIG. It is processed by the same flow.

すなわち、複雑さパラメータ1と複雑さパラメータ2とによって、自動作曲ファイル1〜自動作曲ファイル4の再生時の重みが調整され、かつ、複雑さパラメータ3によって、自動作曲ファイル1〜自動作曲ファイル4の再生時のゲインが調整され、本実施の形態と同等の効果を奏することができる。   That is, the weights at the time of reproduction of the automatic music file 1 to the automatic music file 4 are adjusted by the complexity parameter 1 and the complexity parameter 2, and the automatic music file 1 to the automatic music file 4 are adjusted by the complexity parameter 3. The gain at the time of reproduction is adjusted, and the same effect as this embodiment can be obtained.

なお、本実施の形態(変形例を含む)では、撮像ユニット16による撮像情報に基づいて、複雑さパラメータ1〜複雑さパラメータ3を得るようにしたが、撮像ユニット16に加え、或いは、撮像ユニット16に代えて、運転者の身体状態(心拍数、血流値、眼球の動き等)を監視して、複雑さパラメータ1〜複雑さパラメータ3を得るようにしてもよい。   In the present embodiment (including modifications), the complexity parameter 1 to the complexity parameter 3 are obtained based on the imaging information from the imaging unit 16, but in addition to the imaging unit 16 or the imaging unit Instead of 16, the driver's physical condition (heart rate, blood flow value, eyeball movement, etc.) may be monitored to obtain complexity parameter 1 to complexity parameter 3.

また、運転者に限らず、乗員の身体状態(乳児の有無、睡眠中等)を監視して、複雑さパラメータ1〜複雑さパラメータ3を補正してもよい。例えば、乳児がいたり、睡眠中の乗員のいる車室内では、音の変化度合いを緩やかにしたり、音のピッチを遅くしたりする等の調整を行うようにしてもよい。   Further, not only the driver but also the occupant's physical condition (presence of infants, sleeping, etc.) may be monitored to correct the complexity parameter 1 to the complexity parameter 3. For example, in a passenger compartment where an infant is present or a sleeping passenger is present, adjustments such as a moderate change in sound or a slow pitch of sound may be made.

さらに、本実施の形態(変形例を含む)では、複雑さパラメータ1〜複雑さパラメータ3に基づき、スピーカからの出力音を変化させるようにしたが、出力対象は、音に加え、車両に搭載されるアンビエント照明の制御に関連付けるようにしてもよい。   Furthermore, in the present embodiment (including modifications), the output sound from the speaker is changed based on the complexity parameter 1 to the complexity parameter 3, but the output target is mounted on the vehicle in addition to the sound. It may be related to the control of ambient lighting.

10 音生成制御装置
12 マイクロコンピュータ(音生成手段、第1の演算手段、第2の演算手段、第1の変更手段、第2の変更手段)
12A CPU
12B RAM
12C ROM
12D 入出力部(I/O)
12E バス
14 ハードディスク
16 撮像ユニット(取得手段)
18 ドライバ
20 スピーカ(出力手段)
22 画像取得部
24 音情報ファイル読出部
26 画像解析部
28 音情報ファイル記憶部
30 再生部
32 複雑さパラメータ生成部
34 重み決定部
36 重み調整部
38 危険度判定部
40 ゲイン調整部
10 sound generation control device 12 microcomputer (sound generation means, first calculation means, second calculation means, first change means, second change means)
12A CPU
12B RAM
12C ROM
12D input / output unit (I / O)
12E bus 14 hard disk 16 imaging unit (acquisition means)
18 Driver 20 Speaker (output means)
DESCRIPTION OF SYMBOLS 22 Image acquisition part 24 Sound information file reading part 26 Image analysis part 28 Sound information file memory | storage part 30 Playback part 32 Complexity parameter production | generation part 34 Weight determination part 36 Weight adjustment part 38 Risk determination part 40 Gain adjustment part

Claims (8)

車両の走行中において、当該車両の周囲環境情報、及び、乗員の身体状況情報の少なくとも一方を含む環境パラメータを取得する取得手段と、
前記取得手段で取得した前記環境パラメータに応じた音を生成する音生成手段と、
乗員に対して、前記音生成手段によって生成された音を出力する出力手段と、
を有する音生成装置。
An acquisition means for acquiring environmental parameters including at least one of the surrounding environment information of the vehicle and the physical condition information of the occupant during traveling of the vehicle;
Sound generation means for generating sound according to the environmental parameter acquired by the acquisition means;
Output means for outputting a sound generated by the sound generation means to an occupant;
A sound generation device having
前記取得手段が、当該車両の周囲環境情報の複雑さを表す複雑さパラメータを、前記環境パラメータとして取得することを特徴とする請求項1記載の音生成装置。   The sound generation apparatus according to claim 1, wherein the acquisition unit acquires a complexity parameter representing complexity of ambient environment information of the vehicle as the environment parameter. 前記取得手段が、
前記車両に取り付けられ、少なくとも走行中の前方画像を撮像する撮像手段を備え、
前記撮像手段で撮像した画像を解析して、前記車両の周囲環境情報を取得することを特徴とする請求項1又は2記載の音生成装置。
The acquisition means is
An image pickup means that is attached to the vehicle and picks up at least a forward image during traveling,
The sound generation apparatus according to claim 1, wherein an image captured by the imaging unit is analyzed to obtain ambient environment information of the vehicle.
前記車両の周囲環境情報として、前記撮像手段で撮像された前方画像の全体の変化度合いである第1の複雑さパラメータと、前記前方画像の内の車両側部に特化した変化度合いである第2の複雑さパラメータと、を演算する第1の演算手段をさらに有し、
前記音生成手段では、前記第1の演算手段で演算された第1の複雑さパラメータと第2の複雑さパラメータ2のバランスに基づいて、生成する音を変更することを特徴とする請求項3記載の音生成装置。
As the surrounding environment information of the vehicle, a first complexity parameter that is a degree of change of the entire front image captured by the imaging unit, and a degree of change that is specific to the vehicle side portion of the front image. A first computing means for computing two complexity parameters;
The sound generation means changes a sound to be generated based on a balance between the first complexity parameter and the second complexity parameter 2 calculated by the first calculation means. The sound generator described.
前記車両の周囲環境情報として、前記撮像手段で撮像された前方画像から、車両に対して予め定めた距離以内に存在する障害物の変化度合いを示す第3の複雑さパラメータを演算する第2の演算手段をさらに有し、
前記音生成手段では、前記第2の演算手段で演算された第3の複雑さパラメータと、車両の速度との関係に基づいて、生成する音を変更することを特徴とする請求項3又は請求項4記載の音生成装置。
A second complexity parameter for calculating a third complexity parameter indicating a degree of change of an obstacle existing within a predetermined distance with respect to the vehicle from a front image captured by the imaging unit as the ambient environment information of the vehicle; Further having a computing means,
The sound generation means changes the sound to be generated based on the relationship between the third complexity parameter calculated by the second calculation means and the speed of the vehicle. Item 5. The sound generation device according to Item 4.
前記音生成手段が、予め記憶された複数の音を読み出して音を生成する、或いは、前記撮像手段で撮像された画像に基づいて自動作曲した複数の音から音を生成し、
前記環境パラメータに基づく、音の変更が、複数の音の合成度合いを調整することを特徴とする請求項3〜請求項5の何れか1項記載の音生成装置。
The sound generation means reads a plurality of sounds stored in advance and generates a sound, or generates a sound from a plurality of sounds that are automatically composed based on an image captured by the imaging means,
The sound generation apparatus according to claim 3, wherein the sound change based on the environmental parameter adjusts the synthesis degree of a plurality of sounds.
車両に取り付けられ、少なくとも走行中の前方画像を撮像する撮像手段と、
予め記憶された複数の音を読み出して合成音を生成する、或いは、前記撮像手段で撮像された画像に基づいて自動作曲した複数の音から合成音を生成する音生成手段と、
前記撮像手段で撮像された前方画像の全体の変化度合いである第1の複雑さパラメータと、前記前方画像の内の車両側部に特化した変化度合いである第2の複雑さパラメータと、を演算する第1の演算手段と、
前記撮像手段で撮像された前方画像から、車両に対して予め定めた距離以内に存在する障害物の変化度合いを示す第3の複雑さパラメータを演算する第2の演算手段と、
前記第1の演算手段で演算された第1の複雑さパラメータと第2の複雑さパラメータ2のバランスに基づいて、前記音生成手段により合成される複数の音の合成度合いを変更する第1の変更手段と、
前記第2の演算手段で演算された第3の複雑さパラメータと、車両の速度との関係に基づいて、前記音生成手段により生成される合成音の音量を変更する第2の変更手段と、
乗員に対して、前記音生成手段によって生成された音を出力する出力手段と、
を有する音生成装置。
An imaging means attached to the vehicle and capturing at least a forward image during traveling;
Sound generation means for generating a synthesized sound by reading a plurality of sounds stored in advance, or for generating a synthesized sound from a plurality of sounds that are automatically composed based on an image captured by the imaging means;
A first complexity parameter that is a degree of change of the entire front image captured by the imaging means, and a second complexity parameter that is a degree of change specialized for the vehicle side portion of the front image. First computing means for computing;
Second computing means for computing a third complexity parameter indicating a degree of change of an obstacle existing within a predetermined distance from the vehicle from a front image captured by the imaging means;
A first degree of synthesis of a plurality of sounds synthesized by the sound generation unit is changed based on a balance between the first complexity parameter and the second complexity parameter 2 calculated by the first calculation unit. Change means,
Second changing means for changing the volume of the synthesized sound generated by the sound generating means based on the relationship between the third complexity parameter calculated by the second calculating means and the speed of the vehicle;
Output means for outputting a sound generated by the sound generation means to an occupant;
A sound generation device having
コンピュータに、
予め記憶された複数の音を読み出して合成音を生成する、或いは、撮像手段で撮像された画像に基づいて自動作曲した複数の音から合成音を生成し、
前記撮像手段で撮像された前方画像の全体の変化度合いである第1の複雑さパラメータと、前記前方画像の内の車両側部に特化した変化度合いである第2の複雑さパラメータと、を演算し、
前記撮像手段で撮像された前方画像から、車両に対して予め定めた距離以内に存在する障害物の変化度合いを示す第3の複雑さパラメータを演算し、
演算された第1の複雑さパラメータと第2の複雑さパラメータ2のバランスに基づいて、合成される複数の音の合成度合いを変更し、
演算された第3の複雑さパラメータと、車両の速度との関係に基づいて、生成される合成音の音量を変更する、
ことを実行させるための音生成制御プログラム。
On the computer,
Read out a plurality of sounds stored in advance to generate a synthesized sound, or generate a synthesized sound from a plurality of sounds that are automatically tuned based on an image captured by the imaging means,
A first complexity parameter that is a degree of change of the entire front image captured by the imaging means, and a second complexity parameter that is a degree of change specialized for the vehicle side portion of the front image. Operate,
A third complexity parameter indicating a degree of change of an obstacle existing within a predetermined distance from the vehicle is calculated from a front image captured by the imaging unit,
Based on the balance between the calculated first complexity parameter and second complexity parameter 2, the degree of synthesis of a plurality of sounds to be synthesized is changed,
Changing the volume of the synthesized sound to be generated based on the relationship between the calculated third complexity parameter and the vehicle speed;
A sound generation control program for executing this.
JP2017140571A 2017-07-20 2017-07-20 Sound generation device, sound generation control program Active JP6645480B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017140571A JP6645480B2 (en) 2017-07-20 2017-07-20 Sound generation device, sound generation control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017140571A JP6645480B2 (en) 2017-07-20 2017-07-20 Sound generation device, sound generation control program

Publications (2)

Publication Number Publication Date
JP2019020638A true JP2019020638A (en) 2019-02-07
JP6645480B2 JP6645480B2 (en) 2020-02-14

Family

ID=65352897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017140571A Active JP6645480B2 (en) 2017-07-20 2017-07-20 Sound generation device, sound generation control program

Country Status (1)

Country Link
JP (1) JP6645480B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020127545A (en) * 2019-02-07 2020-08-27 京楽産業.株式会社 Game machine
JP2020127546A (en) * 2019-02-07 2020-08-27 京楽産業.株式会社 Game machine

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983277A (en) * 1995-09-18 1997-03-28 Fujitsu Ten Ltd Sound volume adjustment device
JP2005189301A (en) * 2003-12-24 2005-07-14 Pioneer Electronic Corp Information control device, its system, its method, its program, recording medium with the program recorded thereon and travel supporting apparatus
JP2006098359A (en) * 2004-09-30 2006-04-13 Denso Corp Obstacle detector
JP2016109920A (en) * 2014-12-08 2016-06-20 株式会社豊田中央研究所 Information provision device, information provision system, and information provision method and program
JP2016183988A (en) * 2015-03-25 2016-10-20 株式会社豊田中央研究所 Music generation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983277A (en) * 1995-09-18 1997-03-28 Fujitsu Ten Ltd Sound volume adjustment device
JP2005189301A (en) * 2003-12-24 2005-07-14 Pioneer Electronic Corp Information control device, its system, its method, its program, recording medium with the program recorded thereon and travel supporting apparatus
JP2006098359A (en) * 2004-09-30 2006-04-13 Denso Corp Obstacle detector
JP2016109920A (en) * 2014-12-08 2016-06-20 株式会社豊田中央研究所 Information provision device, information provision system, and information provision method and program
JP2016183988A (en) * 2015-03-25 2016-10-20 株式会社豊田中央研究所 Music generation device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020127545A (en) * 2019-02-07 2020-08-27 京楽産業.株式会社 Game machine
JP2020127546A (en) * 2019-02-07 2020-08-27 京楽産業.株式会社 Game machine

Also Published As

Publication number Publication date
JP6645480B2 (en) 2020-02-14

Similar Documents

Publication Publication Date Title
KR102383461B1 (en) Engine Sound Color Control Method based on Engine Dynamic Characteristic with Artificial Intelligence and Vehicle thereof
KR100275799B1 (en) Soung constituting apparatus
JP4888386B2 (en) Engine sound processing device
JP4771647B2 (en) Equipment for acoustically improving the environment
JP2006264390A (en) Acoustic alarming device of vehicle
KR101744716B1 (en) Vehicle And Control Method Thereof
CN110831811B (en) Electric carrier and method for playing audio signal related to same
JPH0732948A (en) Antificial running sound generating device for electric vehicle
JP6645480B2 (en) Sound generation device, sound generation control program
JP3287230B2 (en) Chorus effect imparting device
US20230053899A1 (en) Music generation device, music generation method, and recording medium
KR101804772B1 (en) Sound control apparatus, vehicle and method of controlling thereof
CN108735189A (en) Reset sound providing apparatus
JP2008096487A (en) Engine sound modification device
JP7454119B2 (en) Vehicle sound generator
JP6575101B2 (en) Music generator
JP6398960B2 (en) Music playback apparatus and program
CN109640228B (en) Data processing method and electronic equipment
KR20070094207A (en) Method and apparatus for converting image into sound
JP2005001596A (en) Horn device and horn sound generating method
JP2020042167A (en) Music generation device and music generation program
TWI657437B (en) Electric vehicle and method for playing, generating associated audio signals
US20080000345A1 (en) Apparatus and method for interactive
EP3821427B1 (en) Method for generating an audio signal, in particular for active control of the sound of the engine of a land vehicle, and corresponding apparatus
JP2008094328A (en) Engine sound processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191223

R150 Certificate of patent or registration of utility model

Ref document number: 6645480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150