JP2012059203A - Specific audio recognition apparatus and specific audio recognition method - Google Patents
Specific audio recognition apparatus and specific audio recognition method Download PDFInfo
- Publication number
- JP2012059203A JP2012059203A JP2010204440A JP2010204440A JP2012059203A JP 2012059203 A JP2012059203 A JP 2012059203A JP 2010204440 A JP2010204440 A JP 2010204440A JP 2010204440 A JP2010204440 A JP 2010204440A JP 2012059203 A JP2012059203 A JP 2012059203A
- Authority
- JP
- Japan
- Prior art keywords
- data
- unit
- emergency vehicle
- sound
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、緊急車両のサイレン音等、ある地理的領域に固有な音声が検出された場合、その旨を報知する特定音声認識装置および特定音声認識方法に関する。 The present invention relates to a specific voice recognition device and a specific voice recognition method for notifying that when a voice unique to a certain geographical area such as a siren sound of an emergency vehicle is detected.
近年の道路交通法においては、緊急自動車(消防用自動車、救急用自動車その他の政令で定める自動車)がサイレン等を吹鳴しながら接近してきたときは、車両は、道路の左側に寄って、これに進路を譲らなければならない。また、交差点又はその附近においては、車両は、交差点を避けて、道路の左側(或いは、必要な場合は右側)に寄って一時停止しなければならない、と定められている。なお、ここで、緊急自動車とは、当該緊急用務のため、政令で定めるところにより、運転中のものをいう。以下、緊急自動車を緊急車両とも称することとする。 According to the Road Traffic Law in recent years, when an emergency car (fire-fighting car, emergency car, or other car specified by a government ordinance) approaches while blowing a siren or the like, the vehicle approaches the left side of the road. You have to give way. In addition, at or near the intersection, it is stipulated that the vehicle must stop at the left side of the road (or the right side if necessary), avoiding the intersection. Here, the emergency vehicle means a vehicle in operation for the emergency service as defined by a Cabinet Order. Hereinafter, the emergency vehicle is also referred to as an emergency vehicle.
しかし、自家用車などで車両内のオーディオ機器等による音量が大きな場合、或いは、車両内外の騒音が大きな場合には、車両外の緊急車両のサイレン音を聞き逃す場合もありうる状態となり、車両の運転者が適切な行動をとれないこともあり得る。 However, if the volume of audio equipment inside the vehicle is high in a private vehicle, etc., or if the noise inside or outside the vehicle is high, the siren sound of an emergency vehicle outside the vehicle may be missed. The driver may not be able to take appropriate actions.
そこで、緊急車両のサイレン音を聞き逃さないようにするための一つの手法を提案しているものがある(例えば、特許文献1参照。)。 In view of this, there has been proposed one technique for preventing the siren sound of an emergency vehicle from being missed (see, for example, Patent Document 1).
上述した特許文献1「車外音導入装置」には、以下の記載がなされている。
The following description is made in the above-described
すなわち、車両の上面、後面及び左右外側面にそれぞれ車外音を収集する複数のマイクロホンが取り付けられている。そして、各マイクロホンから収集された車外音がマイクロコンピュータにより選別され、アンプにより増幅される。増幅された車外音は、それぞれマイクロホンの取り付け位置に対応して車両内に設置されているスピーカから車室内に放出されるように構成されている。このことにより、車両の運転者にとって有益な車外音を運転者が確実に聞き取ることができるようになる、としている。 In other words, a plurality of microphones for collecting outside sounds are attached to the upper surface, rear surface, and left and right outer surfaces of the vehicle. The vehicle exterior sound collected from each microphone is selected by a microcomputer and amplified by an amplifier. The amplified vehicle exterior sound is configured to be emitted into the vehicle interior from a speaker installed in the vehicle corresponding to the microphone mounting position. As a result, the driver can surely hear the sound outside the vehicle useful for the driver of the vehicle.
また、窓を閉め切ってカーステレオ等の音量を高くして聞いている場合にも、緊急自動車接近の状況を運転者に知らせる、ようにしているものもある(例えば、特許文献2参照。)。 Further, even when listening with the sound of a car stereo or the like being closed with the window closed, the driver is informed of the state of emergency vehicle approach (see, for example, Patent Document 2).
上述した特許文献2「緊急車両検知警報装置および位置表示装置」には、以下の記載がなされている。
The following description is made in
すなわち、マイクロホンの信号が緊急車両認識装置に入力され、緊急車両認識装置は緊急車両のサイレン音を検知し信号を表示コントローラと音声コントローラに出力する。表示コントローラは緊急車両認識装置から信号が入力したときは、内蔵する映像信号発生装置から警報画面の映像信号を発生させディスプレイに警報画面を表示させる。音声コントローラは内蔵する音声合成装置から警報のアナウンスを発生させてスピーカを駆動する、としている。 That is, the microphone signal is input to the emergency vehicle recognition device, and the emergency vehicle recognition device detects the siren sound of the emergency vehicle and outputs the signal to the display controller and the voice controller. When a signal is input from the emergency vehicle recognition device, the display controller generates a video signal of a warning screen from the built-in video signal generation device and displays the warning screen on the display. The voice controller generates an alarm announcement from the built-in voice synthesizer and drives the speaker.
上述した特許文献1、2に記載の手法においては、車外のマイクロホンにより収集された車外音が、事前に車両内の記憶手段に登録された緊急車両のサイレン音などの音声と一致するかの比較を行う。そして、一致した場合、緊急車両が接近していると認識し、車内の画面やスピーカで、運転者に報知するようになっている。特許文献2においては、車両内の記憶手段に登録された緊急車両のサイレン音などの音声は、消防用自動車、救急用自動車、警察関係自動車(パトカー、など)などに分かれて記憶されている。
In the methods described in
しかし、緊急車両のサイレン音などの音声データは、自治体などにより異なる場合があるにも拘らず、上述した特許文献1、2においては、このことが考慮されていない、という課題を有している。
However, although the voice data such as the siren sound of the emergency vehicle may vary depending on the local government or the like, the above-described
すなわち、モーターサイレンを使用する消防用自動車などの場合、サイレン音の周波数は連続して所定の時間の間で変化するようになっている。そして、使用する周波数の目安は、250〜850Hz程度となっている場合が多い。また、交差点等を通過するときに鳴らす場合のサイレンの周波数は900Hz程度となっている。なお、モーターサイレンとは、モーターで羽を回して音を出す仕組みのサイレンであるが、近年においては、モーターサイレンの音を電子音で代替するようにしている場合もある。 That is, in the case of a fire-fighting vehicle using a motor siren, the frequency of the siren sound is continuously changed during a predetermined time. And the standard of the frequency to be used is often about 250 to 850 Hz. Moreover, the frequency of the siren when it rings when passing an intersection etc. is about 900 Hz. Note that the motor siren is a siren that makes a sound by rotating its wings with a motor. However, in recent years, the sound of the motor siren may be replaced with an electronic sound.
そして、サイレン音の周波数の変化の程度や、音の継続時間などに関しては、目安が示されているだけであるため、自治体毎に異なるサイレン音を使用する場合があり得るものとなっている。 And since only the standard is shown about the grade of the change of the frequency of a siren sound, the duration of a sound, etc., it becomes possible to use a different siren sound for each local government.
本発明は上述した課題を解決するためになされたものである。従って、本発明の目的は、
自治体などの地理的領域毎に、当該地理的領域で使用されている領域固有音声データ(サイレン音など)が異なっている場合であっても、取得した周辺の音声が特定の地理的領域の領域固有音声に一致するかを判定することを可能とし、一致する場合には、その旨を車両内に報知することを可能とする、特定音声認識装置および特定音声認識方法、を提供することにある。
The present invention has been made to solve the above-described problems. Therefore, the object of the present invention is to
Even if the area-specific voice data (siren sounds, etc.) used in the geographical area is different for each geographical area such as a local government, the acquired surrounding voice is the area of the specific geographical area. To provide a specific speech recognition device and a specific speech recognition method that make it possible to determine whether or not the voice matches the specific voice and, if the voice matches, notify the vehicle of that fact. .
上記の目的を達成するため、本発明の特定音声認識装置は、入力される周辺の音声を一定時間長の単位で取得し、デジタル音声データとして出力する音声取得部と、入力される所定の信号に基づき、自らの現在位置を算出して出力する現在位置生成部と、所定の地理的領域でのみ聞かれる領域固有音声を前記一定時間長以上の単位で前記地理的領域に対応付けて記憶する領域固有音声記憶部と、前記現在位置生成部から入力される前記現在位置が属する前記地理的領域である特定地理的領域を示す情報を出力する現在位置認識特定部と、入力される前記特定地理的領域につき前記領域固有音声記憶部から抽出した前記領域固有音声と、前記音声取得部から入力される前記デジタル音声データを比較し、両者が一致すると判定した場合、その旨を報知する報知信号を出力する音声認識結果報知部と
を含む。
In order to achieve the above object, a specific speech recognition apparatus according to the present invention acquires a peripheral sound to be input in a unit of a predetermined time length and outputs it as digital sound data, and a predetermined signal to be input Based on the current position generation unit that calculates and outputs its current position, and stores area-specific speech that is heard only in a predetermined geographical area in association with the geographical area in units of the predetermined time length or more. A region-specific voice storage unit; a current position recognition specifying unit that outputs information indicating a specific geographical region that is the geographical region to which the current position belongs, input from the current position generation unit; and the input specific geography If the region specific sound extracted from the region specific sound storage unit for each target region is compared with the digital sound data input from the sound acquisition unit, and it is determined that both match, And it outputs a notification signal for notifying includes a speech recognition result notification unit.
また、本発明の特定音声認識方法は、周辺の音声を一定時間長の単位でアナログ音声データとして取得し、前記アナログ音声データをA/D変換によってデジタル音声データに変換し、一定時間間隔で複数のGPS衛星が送出する電波を受信し、受信した電波情報に基づき、現在位置を算出し、前記現在位置に基づき、現在位置近傍の複数の自治体を特定し、前記特定した複数の自治体が用いている複数の緊急車両音声データを抽出し、前記デジタル音声データが、前記現在位置近傍の複数の自治体の複数の緊急車両音声データの何れかと一致するかを判定し、一致すると判定した場合、緊急車両が近づいている旨を音声、メッセージデータ、或いは画像データにより出力し、報知する。 Also, the specific speech recognition method of the present invention acquires peripheral speech as analog speech data in a unit of a certain time length, converts the analog speech data into digital speech data by A / D conversion, and a plurality of them at regular time intervals. Receiving the radio wave transmitted from the GPS satellite, calculating the current position based on the received radio wave information, identifying a plurality of local governments in the vicinity of the current position based on the current position, and using the identified plurality of local governments A plurality of emergency vehicle voice data is extracted, and if the digital voice data matches any of a plurality of emergency vehicle voice data of a plurality of local governments in the vicinity of the current position. Is output and notified by voice, message data, or image data.
本発明によれば、地理的領域(自治体など)毎に当該地理的領域が使用している領域固有音声(緊急車両の吹鳴するサイレン音など)が異なっている場合であっても、取得した周辺の音声が特定の地理的領域の領域固有音声に一致するかを判定できる。そして、一致する場合、その旨を車両内に報知することが可能となる。 According to the present invention, even if the region-specific voice (such as a siren sounded by an emergency vehicle) used by the geographical region is different for each geographical region (such as a local government), the acquired surroundings Can be determined to match the region-specific speech of a particular geographic region. And when it corresponds, it becomes possible to alert | report to that effect in a vehicle.
次に、本発明の実施形態について図面を参照して説明する。
[第1の実施形態]
Next, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
図1は、本発明の特定音声認識装置の第1の実施形態を示すブロック図である。 FIG. 1 is a block diagram showing a first embodiment of the specific speech recognition apparatus of the present invention.
図1に示す特定音声認識装置100は、音声取得部2と、現在位置生成部4と、領域固有音声記憶部6を含んでいる。また、特定音声認識装置100は、現在位置認識特定部3−2と、音声認識結果報知部3−6を含んでいる。
A specific speech recognition apparatus 100 shown in FIG. 1 includes a
音声取得部2は、特定音声認識装置100を搭載する車両の周辺の音声を、一定時間長の単位で取得し、デジタル音声データとして音声認識結果報知部3−6へ出力する。
The
現在位置生成部4は、GPS衛星から受信する電波信号に基づき、特定音声認識装置100の現在位置を算出し、現在位置認識特定部3−2へ出力する。
The current
領域固有音声記憶部6は、自治体などの特定の地理的領域でのみ聞かれる緊急車両の吹鳴するサイレン音などを、領域固有音声として記憶する。なお、前記の領域固有音声は、前記の地理的領域と対応付けを行って記憶する。
The area specific
現在位置認識特定部3−2は、現在位置生成部4から入力された現在位置が、前記の地理的領域の内の何れに位置するかを特定し、特定地理的領域の情報として音声認識結果報知部3−6へ出力する。
The current position recognition specifying unit 3-2 specifies where the current position input from the current
音声認識結果報知部3−6は、現在位置認識特定部3−2から入力した特定地理的領域に基づき、領域固有音声記憶部6を検索し、特定地理的領域に対応する領域固有音声を抽出する。そして、抽出した領域固有音声と、音声取得部2から入力したデジタル音声データを比較する。比較の結果、両者が一致する場合、特定音声認識装置100を搭載する車両に、緊急車両が近づいているものと判断する。そして、緊急車両が近づいている旨を報知する報知信号を、特定音声認識装置100を搭載する車両内に出力する。
The speech recognition result notifying unit 3-6 searches the region specific
以上説明したように、本実施形態の特定音声認識装置100は、入力される周辺の音声を一定時間長の単位で取得し、デジタル音声データとして出力する音声取得部2を含んでいる。
As described above, the specific speech recognition apparatus 100 according to the present embodiment includes the
また、入力される所定の信号に基づき、自らの現在位置を算出して出力する現在位置生成部4を含んでいる。
Further, it includes a
さらに、所定の地理的領域でのみ聞かれる領域固有音声を前記一定時間長以上の単位で前記地理的領域に対応付けて記憶する領域固有音声記憶部6を含んでいる。
Furthermore, a region-specific
また、前記現在位置生成部4から入力される前記現在位置が属する前記地理的領域である特定地理的領域を示す情報を出力する現在位置認識特定部3−2を含んでいる。
Moreover, the present position recognition specific | specification part 3-2 which outputs the information which shows the specific geographical area which is the said geographical area to which the said present position belongs input from the said present position production |
さらに、入力される前記特定地理的領域につき前記領域固有音声記憶部6から抽出した前記領域固有音声と、前記音声取得部2から入力される前記デジタル音声データを比較する音声認識結果報知部3−6を含んでいる。また、前記音声認識結果報知部3−6は、前記領域固有音声と前記デジタル音声データの両者が一致すると判定した場合、その旨を報知する報知信号を出力する、ようになっている。
Furthermore, the speech recognition result notifying unit 3- compares the region specific speech extracted from the region specific
従って、本実施形態によれば、地理的領域(自治体など)毎に当該地理的領域が使用している領域固有音声(緊急車両の吹鳴するサイレン音など)が異なっている場合であっても、取得した周辺の音声が特定の地理的領域の領域固有音声に一致するかを判定できる。そして、一致する場合、その旨を車両内に報知することが可能となる。
[第2の実施形態]
図2は、本発明の特定音声認識装置の第2の実施形態を示すブロック図である。
Therefore, according to the present embodiment, even if the region specific sound (such as a siren sounded by an emergency vehicle) used by the geographical region is different for each geographical region (such as a local government), It can be determined whether the acquired surrounding voice matches the area specific voice of a specific geographical area. And when it corresponds, it becomes possible to alert | report to that effect in a vehicle.
[Second Embodiment]
FIG. 2 is a block diagram showing a second embodiment of the specific speech recognition apparatus of the present invention.
図2に示す特定音声認識装置100は、図1の音声取得部2に相当するマイク10と、音声データ抽出部20と、を含んでいる。また、制御部30を含んでいる。
A specific speech recognition apparatus 100 shown in FIG. 2 includes a
さらに、図1の現在位置生成部4に相当するGPS(Global Positioning System:全地球測位システム)受信部40を含んでいる。
Furthermore, a GPS (Global Positioning System) receiving
また、図1の領域固有音声記憶部6に相当する制御部30に接続された緊急車両音声データ記憶部60を含んでいる。
Moreover, the emergency vehicle audio | voice
さらに、特定音声認識装置100は、図1の現在位置認識特定部3−2に相当する制御部30に接続された地図データ記憶部50と、制御部30に含まれる現在位置特定部32と、を含んでいる。
Furthermore, the specific speech recognition apparatus 100 includes a map
また、図1の音声認識結果報知部3−6に相当する緊急車両音声データ選択部34と、警報音認識部36を含んでいる。さらに、特定音声認識装置100は、制御部30に接続される警報出力部70を含んでいる。
Moreover, the emergency vehicle audio | voice
マイク10は、特定音声認識装置100を搭載する車両の外部に設置され、マイク10周辺の音声を取得し、音声データ抽出部20に送出する。
The
音声データ抽出部20は、マイク10から送出されたアナログ音声データをデジタル音声データに変換し、制御部30に送出する。
The voice
GPS受信部40は、GPS衛星からの電波を受信し、特定音声認識装置100の現在位置データを、例えば、緯度、経度のデータとして算出し、制御部30に送出する。
The
地図データ記憶部50は、例えば、日本全土の地図データを、緯度、経度のデータと共に記憶しており、さらに、当該緯度、経度の地点が日本のどの自治体(□□県、○○市、△△町、など)に属しているかの情報も記憶している。
The map
緊急車両音声データ記憶部60は、自治体毎に、当該自治体の緊急車両が吹鳴するサイレン音などの緊急車両音声データを記憶している。緊急車両の種類は、例えば、消防用自動車、救急用自動車、パトロールカー、などに分け、緊急車両音声データ記憶部60は、緊急車両の種類毎の緊急車両音声データを記憶している。なお、本実施形態における緊急車両の音声データは、音声波形の情報を、時間、周波数、強度の3次元で表現したソナグラム(sonagram:声紋)の形で記憶されているものとする。ソナグラムの詳細については、第3の実施形態において後述する。
The emergency vehicle voice
制御部30の現在位置特定部32は、GPS受信部40から特定音声認識装置100の現在位置データを受信する。そして、現在位置特定部32は、受信した現在位置データが、どの自治体の中の位置に相当するかについて、地図データ記憶部50を参照して特定する。なお、現在位置特定部32は、特定した自治体の近辺の他の2〜3の自治体も特定する。これは、特定音声認識装置100が、或る自治体の境界あたりに位置している場合、現在位置データが示す自治体の緊急車両の他に、当該自治体の近辺の他の自治体の緊急車両の緊急車両音声データを取得する場合も有り得ることを考慮したためである。現在位置特定部32は、現在位置特定部32が特定した複数の自治体の情報を、緊急車両音声データ選択部34に送出する。
The current
制御部30の緊急車両音声データ選択部34は、現在位置特定部32から受信した複数の自治体の情報に基づき、当該複数の自治体の緊急車両の緊急車両音声データを、緊急車両音声データ記憶部60から抽出し、警報音認識部36に送出する。
The emergency vehicle voice
制御部30の警報音認識部36は、音声データ抽出部20から受信したデジタル音声データを、先ず、ソナグラムの形の3次元データに変換する(以降、受信ソナグラムデータと称するものとする)。次に、受信ソナグラムデータと、緊急車両音声データ選択部34から受信した複数の自治体の緊急車両の緊急車両音声データ(ソナグラムの形になっている)とを比較する。緊急車両音声データ選択部34から受信した複数の自治体の緊急車両音声データの何れかが、受信ソナグラムデータと一致した場合、その受信ソナグラムデータは緊急車両が吹鳴している音声データであると判断する。そして、緊急車両の緊急車両音声データであると判断した場合、警報音認識部36は、緊急車両が近づいている旨を、警報出力部70に送出する。
The alarm
警報出力部70は、緊急車両が特定音声認識装置100に近づいている旨を、音声、メッセージデータ、或いは画像データにより出力し、報知する。
The
次に、図3を参照して、本実施形態の動作について説明する。 Next, the operation of the present embodiment will be described with reference to FIG.
図3は、本実施形態の動作を説明するシーケンス図である。 FIG. 3 is a sequence diagram for explaining the operation of the present embodiment.
図3において、特定音声認識装置100のマイク10は、マイク10周辺の音声を一定時間長の単位で取得し、音声データ抽出部20に送出する(図3のステップS1)。その後、次の時間長の音声を取得するためステップS1を繰り返す。
In FIG. 3, the
音声データ抽出部20は、マイク10から送出されたアナログ音声データをデジタル音声データに変換(A/D変換:Analogue to Digital Conversion)する(ステップS2)。そして、変換したデジタル音声データを制御部30に送出する。
The audio
一方、特定音声認識装置100のGPS受信部40は、一定時間間隔で、複数のGPS衛星が送出する電波を受信し、受信した電波情報に基づき、特定音声認識装置100の現在位置を算出する(ステップS3)。そして、算出した現在位置の情報を制御部30に送出する。その後、次の時間間隔でのGPS衛星からの電波を受信するため、ステップS3を繰り返す。
On the other hand, the
GPS受信部40から現在位置を受信した制御部30は、受信した現在位置が、どの自治体の中の位置に相当するかについて、図2に示した地図データ記憶部50を参照して特定する。さらに、制御部30は、特定した自治体の近辺の他の2〜3の自治体も特定する(ステップS4)。
The
次に、制御部30は、特定した複数の自治体が用いている緊急車両音声データを、図2に示した緊急車両音声データ記憶部60から抽出する(ステップS5)。ここで抽出した緊急車両音声データの数は、複数の自治体における複数の緊急車両の種類分有り、かつ、緊急車両音声データはソナグラムの形の3次元データとなっている。
Next, the
一方、制御部30は、音声データ抽出部20から受信したデジタル音声データを、先ず、
ソナグラムの形の3次元データに変換する(受信ソナグラムデータと称している)。
On the other hand, the
It is converted into three-dimensional data in the form of sonagram (referred to as received sonagram data).
次に、制御部30は、受信ソナグラムデータが、ステップS5で抽出した複数の自治体の複数の緊急車両音声データ(これらもソナグラムで表されるデータとなっている)の何れかと一致するかを比較する(ステップS6)。そして、制御部30は、受信ソナグラムデータが、ステップS5で抽出した複数の自治体の複数の緊急車両音声データの何れかと一致するかを判定する(ステップS7)。一致の判定は、ソナグラムで表されたデータ同士のパターンマッチングにより行うと良い。
Next, the
ここで、受信ソナグラムデータが、ステップS5で抽出した複数の自治体の複数の緊急車両音声データの何れかと一致すると判定した場合(ステップS7で「一致」)、制御部30は、緊急車両が近づいているものと判断する。そして、緊急車両が近づいている旨を、特定音声認識装置100の警報出力部70に通知する。警報出力部70は、緊急車両が近づいている旨を、音声、メッセージデータ、或いは画像データにより出力し、報知する(ステップS8)。そして、特定音声認識装置100の利用者がこの報知に気づき、報知の停止操作(例えば、図示しない報知停止釦の押下など)を行った場合、警報出力部70は警報の報知を停止し、もとの初期状態に戻る。
Here, when it is determined that the received sonagram data matches any of a plurality of emergency vehicle voice data of a plurality of municipalities extracted in step S5 (“match” in step S7), the
ステップS7で、受信ソナグラムデータが、ステップS5で抽出した複数の自治体の複数の緊急車両音声データの何れとも一致しない場合(ステップS7で「不一致」)、制御部30は、何もせず、もとの初期状態に戻る。
In step S7, when the received sonagram data does not match any of the plurality of emergency vehicle audio data of the plurality of local governments extracted in step S5 (“mismatch” in step S7), the
以上、本発明の第2の実施形態の動作について説明した。 The operation of the second embodiment of the present invention has been described above.
以上説明したように、本実施形態の特定音声認識装置100は、周辺の音声を一定時間長の単位で取得するマイク10と、前記マイク10が取得したアナログ音声データをA/D変換しデジタル音声データとして制御部30に送出する音声データ抽出部20と、を含んでいる。
As described above, the specific speech recognition apparatus 100 according to the present embodiment performs A / D conversion on the analog audio data acquired by the
また、一定時間間隔で複数のGPS衛星が送出する電波を受信し、受信した電波情報に基づき、現在位置を算出して前記制御部30に送出するGPS受信部40と、を含んでいる。
And a
さらに、前記制御部30に接続され、自治体毎に、当該自治体の緊急車両が吹鳴するサイレン音などの緊急車両音声データを記憶する緊急車両音声データ記憶部60と、を含んでいる。
Furthermore, it includes an emergency vehicle voice
また、前記制御部に接続され、地図データを記憶する地図データ記憶部50を含んでいる。
Moreover, the map
さらに、前記制御部30に含まれ、前記GPS受信部40から受信した現在位置に基づき、現在位置近傍の複数の自治体を、前記地図データ記憶部50を参照して特定する現在位置特定部32、を含んでいる。
Furthermore, a current
また、前記制御部30に含まれ、前記現在位置特定部が特定した複数の自治体が用いている緊急車両音声データを、前記緊急車両音声データ記憶部60から抽出する緊急車両音声データ選択部34と、を含んでいる。
The emergency vehicle voice
さらに、前記音声データ抽出部20から受信したデジタル音声データが、前記緊急車両音声データ選択部34が抽出した複数の自治体の複数の緊急車両音声データの何れかと一致するかを判定する警報音認識部36を含んでいる。そして、前記警報音認識部36は、一致すると判定した場合、緊急車両が近づいている旨を前記制御部30に接続された警報出力部70に通知する。
Further, an alarm sound recognition unit that determines whether the digital sound data received from the sound
そして、前記警報出力部70は、緊急車両が近づいている旨を、音声、メッセージデータ、或いは画像データにより出力し、報知する、ようになっている。
The
従って、本実施形態によれば、自治体毎に、当該自治体が使用している緊急車両音声データ(サイレン音など)が異なっている場合であっても、車両外の音声データが緊急車両の吹鳴する緊急車両音声データに一致するかを判定できる。そして、一致する場合には、緊急車両が近づいている旨を車両内に報知することが可能となる。
[第3の実施形態]
次に、図2に示した第2の実施形態をさらに具体化した本発明による第3の実施形態について説明する。
Therefore, according to the present embodiment, even when the emergency vehicle voice data (siren sound etc.) used by the local government is different for each local government, the voice data outside the vehicle is blown by the emergency vehicle. It can be determined whether or not it matches the emergency vehicle voice data. And when it corresponds, it becomes possible to alert | report in the vehicle that the emergency vehicle is approaching.
[Third embodiment]
Next, a third embodiment according to the present invention that further embodies the second embodiment shown in FIG. 2 will be described.
図4は、本発明の特定音声認識装置の第3の実施形態を示すブロック図である。図4は、図2に示した特定音声認識装置についてさらに詳細に説明するブロック図である。従って、図4において、図2の構成要素に対応するものは同一の参照数字または符号を付し、その説明を極力省略するものとする。 FIG. 4 is a block diagram showing a third embodiment of the specific speech recognition apparatus of the present invention. FIG. 4 is a block diagram for explaining the specific speech recognition apparatus shown in FIG. 2 in more detail. Therefore, in FIG. 4, the same reference numerals or symbols are assigned to the components corresponding to those in FIG. 2, and the description thereof is omitted as much as possible.
図4に示す特定音声認識装置100は、図2と同様に、マイク10と、音声データ抽出部20と、制御部30と、GPS受信部40を含んでいる。また、特定音声認識装置100は、制御部30に接続された地図データ記憶部50と、緊急車両音声データ記憶部60と、警報出力部70を含んでいる。
The specific speech recognition apparatus 100 shown in FIG. 4 includes a
マイク10は、マイク10周辺の音声を取得し、音声データ抽出部20に送出する。マイク10は、特定音声認識装置100を搭載する車両の外部で、かつ、外部の音声データを取得しやすい場所に設置されているものとする。
The
音声データ抽出部20は、アンプ(amplifier)22と、バンドパスフィルタ(Band Pass Filter)24と、A/Dコンバータ(Analogue to Digital Converter:A/D変換器)26とを含んでいる。
The audio
アンプ22は、マイク10から送出されたアナログ音声データを増幅し、バンドパスフィルタ24に送出する。
The
バンドパスフィルタ24は、通常、必要な範囲の周波数のみ通し、他の周波数は通さないフィルタ回路である。本実施形態のバンドパスフィルタ24は、緊急車両が吹鳴するサイレン音の周波数範囲(例えば、250〜900Hz)のみの音声データを通すものとし、
当該音声データをA/Dコンバータ26に送出する。
The band-
The audio data is sent to the A /
A/Dコンバータ26は、バンドパスフィルタ24から受信したアナログの音声データをデジタル音声データに変換し、制御部30に送出する。
The A /
制御部30は、特定音声認識装置100の演算処理を行うCPU(Central Processing Unit:中央処理装置)37を含んでいる。また、制御部30は、CPU37を動作させるプログラムや、緊急車両接近警告画像データ、緊急車両接近警メッセージデータ等を記憶するROM(Read Only Memory:ロム)38を含んでいる。ROM38に記憶されCPU37を動作させるプログラムとしては、第2の実施形態で説明した現在位置特定部32、緊急車両音声データ選択部34、及び、警報音認識部36の機能を実行するプログラムも含まれている。
The
さらに、制御部30は、CPU37のワークエリアとして各種のデータを記憶するRAM(Random Access Memory:ラム)39を含んでいる。
Further, the
GPS受信部40は、GPS衛星からの電波を受信するGPSアンテナ42と、GPSアンテナ42から受信した電波に基づいて、特定音声認識装置100の現在位置データを、例えば、緯度、経度のデータとして算出するGPSレシーバ44を含んでいる。GPSレシーバ44は、算出した現在位置データを制御部30に送出する。
The
地図データ記憶部50は、例えば、日本全土の地図データを、緯度、経度のデータと共に記憶する地図データ52を含んでいる。地図データ52は、さらに、当該緯度、経度の地点が日本のどの自治体(□□県、○○市、△△町、など)に属しているかの情報も記憶している。
The map
緊急車両音声データ記憶部60は、自治体毎に、当該自治体の緊急車両が吹鳴するサイレン音などの緊急車両音声データを記憶する緊急車両音声データ62を含んでいる。緊急車両音声データ62は、緊急車両の種類として、例えば、消防用自動車、救急用自動車、パトロールカー、などに分けてそれぞれの音声データを記憶している。なお、本実施形態における緊急車両の音声データは、音声波形の情報を、時間、周波数、強度の3次元で表現したソナグラムの形で記憶されているものとする。
The emergency vehicle audio
ここで、図5、図6、図7、図8を参照して、本実施形態で使用するソナグラムについて説明しておく。 Here, with reference to FIG. 5, FIG. 6, FIG. 7, and FIG. 8, the sonagram used in this embodiment will be described.
図5は、音声データ抽出部20のA/Dコンバータ26が、制御部30に送出したデジタル音声データの波形の一例を示す図である。制御部30のCPU37はこのデジタル音声データをRAM39に記憶させる。図5に示すデジタル音声データは、一定時間の間隔に区切っておくものとし、各一定時間を「T1」〜「Tn」として表す。そして、CPU37はこのデジタル音声データを以下の手順でソナグラムの形のデータに変換する。
FIG. 5 is a diagram showing an example of the waveform of the digital audio data sent from the A /
すなわち、CPU37は、RAM39に記憶したデジタル音声データ(図5)を、一定時間「T1」〜「Tn」毎にフーリエ変換し、周波数毎のパワースペクトルの波形データを求める。図6は、例えば、一定時間「T1」における周波数毎のパワースペクトルの波形データの一例を示す図である。図6に示す波形データの周波数の範囲は、本実施形態の場合には、例えば、250〜900Hz(バンドパスフィルタ24でフィルタリングしたため)である。なお、フーリエ変換には、FFT(Fast Fourier Transform:高速フーリエ変換)を使用すれば、高速処理が可能となり、好都合である。
That is, the
次に、周波数毎のパワースペクトルの波形データ(図6)について、図6の中程に示す閾値200を越える周波数を求め、周波数と時間との対応データを求め、図7のような形でRAM39に記憶させる。ここで、図6は、前述したように、一定時間「T1」における周波数毎のパワースペクトルの波形データを示している。そして、図6の閾値200は、パワー、すなわち、各周波数の強度を、閾値200の上側(強度が強い)か下側(強度が弱い)かの2値に分類するための値となっている。閾値200の上側にある周波数を「1」で表し、閾値200の下側にある周波数を「0」で表せば、図7の最下行(「T1」時間の行601)のように、周波数「f1」〜「fm」(図7の641〜64m列)のデータとして示すことが出来る。
Next, with respect to the waveform data (FIG. 6) of the power spectrum for each frequency, the frequency exceeding the
一定時間「T2」〜「Tn」についても、図6と同様に、周波数毎のパワースペクトルの波形データを求める。そして、上記と同様に、それぞれ「閾値」の上側か下側かを「1」と「0」で表せば、図7の602行(「T2」時間の行)〜60n行(「Tn」時間の行)のような、周波数「f1」〜「fm」(図7の641〜64m列)のデータとして示すことが出来る。
Similarly to FIG. 6, the waveform data of the power spectrum for each frequency is obtained for the fixed times “T2” to “Tn”. Similarly to the above, if “1” and “0” represent the upper side or the lower side of the “threshold value”, the 602 row (“T2” time row) to the 60n row (“Tn” time) in FIG. The data of the frequencies “f1” to “fm” (
つまり、図7においては、図5に示したデジタル音声データを、時間(「T1」〜「Tn」)
、周波数(「f1」〜「fm」)、強度(「1」又は「0」)で表現したものである。従って、図7は、ソナグラムパターンデータのデータ形式の一例を示す図となっている。
That is, in FIG. 7, the digital audio data shown in FIG. 5 is converted into time (“T1” to “Tn”).
, Frequency (“f1” to “fm”) and intensity (“1” or “0”). Accordingly, FIG. 7 shows an example of the data format of the sonagram pattern data.
なお、図6に示した閾値200は、その値を変更可能なように構成しておくものとする。このように構成することにより、周波数毎の強度として表す値を、周囲の状況(騒音の大きさなど)に応じて変更することが可能となる。また、上記においては、閾値200を1つだけ設定し、強度を2値に分類する、として説明したが、これを、4値や8値など複数の強度に分類できよう、複数の閾値を設定できるようにしておいても良い。このように構成することにより、図7のソナグラムパターンデータ(第一例)600に示した強度を、2値だけでなく、4値や8値に変更し、より詳細なソナグラムのデータを得ることが可能となる。
Note that the
また、図8は、ソナグラムのパターンデータの表示例の一例を示す図であり、ソナグラムパターンデータ(第二例)700と称するものとする。つまり、図7に示した「1」の部分を、図8の「斜線部」として表し、図7の「0」の部分を、図8の「空白部」として表したものである。ソナグラムのパターンデータとしては、図7、図8の何れを用いても良い。しかし、後述するパターンマッチングの方法によっては、図7、図8の何れが適しているか異なる場合もあるため、図7、図8の何れかでパターンマッチングを行えるように構成しておくと良い。 FIG. 8 is a diagram illustrating an example of display of sonagram pattern data, and is referred to as sonagram pattern data (second example) 700. That is, the “1” portion shown in FIG. 7 is represented as “shaded portion” in FIG. 8, and the “0” portion in FIG. 7 is represented as “blank portion” in FIG. As the sonagram pattern data, either FIG. 7 or FIG. 8 may be used. However, depending on the pattern matching method to be described later, which of FIGS. 7 and 8 is suitable may be different. Therefore, it is preferable that the pattern matching can be performed in either of FIGS.
図4に戻り、特定音声認識装置100の警報出力部70は、ディスプレイ72とスピーカ74を含んでいる。そして、制御部30のCPU37から送出された、緊急車両が特定音声認識装置100に近づいている旨につき、メッセージデータ、或いは、画像データをディスプレイ72により出力し、報知する。また、緊急車両が特定音声認識装置100に近づいている旨につき、スピーカ74から音声で出力し、報知する。
Returning to FIG. 4, the
次に、図9を参照して、第3の実施形態の動作について説明する。 Next, the operation of the third embodiment will be described with reference to FIG.
本発明の第3の実施形態は、図2に示した特定音声認識装置100の機能構成を、図4に示すようなハードウェア構成として図示表現を変更したものである。従って、図9に示す動作は、図3に示した動作とほぼ同一であり、図9において図3に示す動作には同一の参照数字又は符号を付し、その説明を極力省略するものとする。 In the third embodiment of the present invention, the functional configuration of the specific speech recognition apparatus 100 shown in FIG. 2 is changed to a hardware representation as shown in FIG. Accordingly, the operation shown in FIG. 9 is almost the same as the operation shown in FIG. 3. In FIG. 9, the operation shown in FIG. 3 is denoted by the same reference numeral or symbol, and the description thereof is omitted as much as possible. .
図9は、第3の実施形態の動作を説明するシーケンス図である。 FIG. 9 is a sequence diagram for explaining the operation of the third embodiment.
図9において、特定音声認識装置100のマイク10は、マイク10周辺の音声を一定時間長の単位で取得し、音声データ抽出部20に送出する(図9のステップS1)。その後、次の時間長の音声を取得するためステップS1を繰り返す。
In FIG. 9, the
音声データ抽出部20は、マイク10から送出されたアナログ音声データをアンプ22で増幅し、バンドパスフィルタ24に送出する。バンドパスフィルタ24は、緊急車両が吹鳴するサイレン音の周波数範囲(例えば、250〜900Hz)のみの音声データを通し、A/Dコンバータ26に送出する。A/Dコンバータ26は、バンドパスフィルタ24から受信したアナログ音声データをデジタル音声データに変換する(ステップS2−1)。そして、変換したデジタル音声データを制御部30に送出する。
The audio
一方、特定音声認識装置100のGPS受信部40は、一定時間間隔で、複数のGPS衛星が送出する電波をGPSアンテナ42で受信する。そして、GPSアンテナ42で受信した電波情報に基づき、GPSレシーバ44は、特定音声認識装置100の現在位置を算出する(ステップS3−1)。そして、算出した現在位置の情報を制御部30に送出する。その後、次の時間間隔でのGPS衛星からの電波を受信するため、ステップS3−1を繰り返す。
On the other hand, the
GPS受信部40のGPSレシーバ44から現在位置を受信した制御部30のCPU37は、現在位置特定部(図2の現在位置特定部32)のプログラムを実行させる。そして、CPU37は受信した現在位置が、どの自治体の中の位置に相当するかについて、図4に示した地図データ記憶部50の地図データ52を参照して特定する。さらに、CPU37は、特定した自治体の近辺の他の2〜3の自治体も特定する(ステップS4−1)。
The
次に、制御部30のCPU37は、緊急車両音声データ選択部(図2の緊急車両音声データ選択部34)のプログラムを実行させる。そして、ステップS4−1で特定した複数の自治体が用いている緊急車両音声データを、図4に示した緊急車両音声データ記憶部60の緊急車両音声データ62から抽出する(ステップS5−1)。ここで抽出した緊急車両音声データの数は、複数の自治体における複数の緊急車両の種類分有り、かつ、緊急車両音声データはソナグラムの形の3次元データとなっている。
Next, the
一方、制御部30のCPU37は、音声データ抽出部20のA/Dコンバータ26からデジタル音声データを受信すると、警報音認識部(図2の警報音認識部36)のプログラムを実行させる。そして、CPU37は先ず、デジタル音声データをソナグラムの形の3次元データに変換し(受信ソナグラムデータと称している)、RAM39に記憶させる。次に、CPU37は、受信ソナグラムデータが、ステップS5−1で抽出した複数の自治体の複数の緊急車両音声データの何れかと一致するかを比較する(ステップS6−1)。そして、CPU37は、受信ソナグラムデータが、ステップS5−1で抽出した複数の自治体の複数の緊急車両音声データの何れかと一致するかを判定する(ステップS7−1)。一致の判定は、ソナグラムで表されたデータ同士のパターンマッチングにより行う。
On the other hand, when the
図9のステップS7−1における判定で、受信ソナグラムデータが、ステップS5−1で抽出した複数の自治体の複数の緊急車両音声データの何れかと一致すると判定した場合(ステップS7−1で「一致」)、制御部30のCPU37は、緊急車両が近づいているものと判断する。そして、緊急車両が近づいている旨の緊急車両接近警告画像データ、緊急車両接近警告メッセージデータ等を、ROM38から読み出し、特定音声認識装置100の警報出力部70に通知する。警報出力部70は、緊急車両が近づいている旨を、画像データ、或いはメッセージデータによりディスプレイ72に出力し、報知する。又は、緊急車両が近づいている旨を、スピーカ74からメッセージデータとして音声で出力し、報知する(ステップS8−1)。そして、特定音声認識装置100の利用者がこの報知に気づき、報知の停止操作(例えば、図示しない報知停止釦の押下など)を行った場合、警報出力部70は警報の報知を停止し、もとの初期状態に戻る。
When it is determined in step S7-1 in FIG. 9 that the received sonogram data matches any of a plurality of emergency vehicle voice data of a plurality of local governments extracted in step S5-1 (“match” in step S7-1). ), The
ステップS7−1で、受信ソナグラムデータが、ステップS5−1で抽出した複数の自治体の複数の緊急車両音声データの何れとも一致しない場合(ステップS7−1で「不一致」)、制御部30のCPU37は、何もせず、もとの初期状態に戻る。
In step S7-1, when the received sonagram data does not match any of the plurality of emergency vehicle audio data of the plurality of local governments extracted in step S5-1 (“mismatch” in step S7-1), the
以上、本発明の第3の実施形態の動作について説明した。 The operation of the third embodiment of the present invention has been described above.
前述したように、本発明の第3の実施形態は、図2に示した第2の実施形態の特定音声認識装置の機能構成を、図4に示したようなハードウェア構成として詳細化したものである。従って、以下において第3の実施形態の全体の機能説明は省略し、第3の実施形態に特有の箇所に関してのみ説明するものとする。 As described above, in the third embodiment of the present invention, the functional configuration of the specific speech recognition apparatus of the second embodiment shown in FIG. 2 is detailed as a hardware configuration as shown in FIG. It is. Therefore, in the following, description of the overall function of the third embodiment will be omitted, and only the parts specific to the third embodiment will be described.
以上説明したように、本実施形態の特定音声認識装置100の音声データ抽出部20は、アンプ22とバンドパスフィルタ24とA/Dコンバータ26を含んでいる。そして、バンドパスフィルタ24は、緊急車両が吹鳴するサイレン音の周波数範囲のみの音声データを通すようになっている。
As described above, the voice
また、特定音声認識装置100の制御部30に接続される地図データ記憶部50は、緯度、経度のデータと共に、当該緯度、経度の地点がどの自治体に属しているかの情報も併せて表現する地図データ52を含んでいる。
In addition, the map
さらに、特定音声認識装置100の制御部30に接続される緊急車両音声データ記憶部60は、自治体毎に、当該自治体の緊急車両が吹鳴する緊急車両音声データをソナグラムの形で記憶する緊急車両音声データ62を含んでいる。
Furthermore, the emergency vehicle voice
また、制御部30に含まれるCPU37は、ROM38に記憶されている現在位置特定部プログラム、緊急車両音声データ選択部プログラム、警報音認識部プログラムなどを実行させ、以下に示す動作を行う。
In addition, the
すなわち、CPU37は、GPS受信部40のGPSレシーバ44から現在位置を受信した場合、受信した現在位置が、どの自治体の中の位置に相当するかについて、地図データ記憶部50の地図データ52を参照して特定する。また、CPU37は、特定した自治体の近辺の他の2〜3の自治体も特定する。
That is, when the
次に、CPU37は、特定した複数の自治体が用いている緊急車両音声データを、緊急車両音声データ記憶部60の緊急車両音声データ62から、抽出する。ここで抽出した緊急車両音声データの数は、複数の自治体における複数の緊急車両の種類分有り、かつ、緊急車両音声データはソナグラムの形の3次元データとなっている。
Next, the
一方、CPU37は、音声データ抽出部20のA/Dコンバータ26からデジタル音声データを受信すると、先ず、デジタル音声データをソナグラムの形の3次元データに変換する(受信ソナグラムデータと称している)。次に、CPU37は、受信ソナグラムデータが、現在位置近辺の複数の自治体の複数の緊急車両音声データ(これらもソナグラムで表されるデータとなっている)の何れかと一致するかを判定する。一致の判定は、ソナグラムで表されたデータ同士のパターンマッチングにより行う。
On the other hand, when the
そして、CPU37は、受信ソナグラムデータが、現在位置近辺の複数の自治体の複数の緊急車両音声データの何れかと一致すると判定した場合、緊急車両が近づいている旨を制御部30に接続された警報出力部70に通知する。
When the
そして、CPU37から緊急車両が近づいている旨の通知を受けた場合、警報出力部70は、緊急車両が近づいている旨を、画像データ、メッセージデータ、或いは音声により、ディスプレイ72やスピーカ74により出力し、報知する、ようになっている。
When the
従って、本実施形態によれば、自治体毎に、当該自治体が使用している緊急車両音声データ(サイレン音など)が異なっている場合であっても、車両外の音声データが緊急車両の吹鳴する緊急車両音声データに一致するかを判定できる。そして、一致する場合には、緊急車両が近づいている旨を車両内に報知することが可能となる。 Therefore, according to the present embodiment, even when the emergency vehicle voice data (siren sound etc.) used by the local government is different for each local government, the voice data outside the vehicle is blown by the emergency vehicle. It can be determined whether or not it matches the emergency vehicle voice data. And when it corresponds, it becomes possible to alert | report in the vehicle that the emergency vehicle is approaching.
また、バンドパスフィルタ24により、緊急車両が吹鳴する周波数範囲の音声データのみを抽出可能となり、受信した音声データを効率よくソナグラムに変換できる。
Further, the band-
さらに、緊急車両音声データ62には、全自治体の緊急車両が吹鳴する音声データが多数記憶されているが、特定音声認識装置100を搭載する車両の現在位置近傍のいくつかの自治体の緊急車両音声データだけを抽出できる。従って、ソナグラムのデータ形のパターンマッチングの回数を大幅に削減可能となる。
[第4の実施形態]
次に、図4に示した第3の実施形態の構成要素の一部を、カーナビゲーションシステムに代替させるよう構成した本発明の第4の実施形態について説明する。
Further, the emergency
[Fourth Embodiment]
Next, a description will be given of a fourth embodiment of the present invention in which some of the components of the third embodiment shown in FIG. 4 are replaced with a car navigation system.
図10は、本発明の特定音声認識装置の第4の実施形態を示すブロック図である。なお、図10において図4の構成要素に対応するものは同一の参照数字または符号を付し、その説明を極力省略するものとする。 FIG. 10 is a block diagram showing a fourth embodiment of the specific speech recognition apparatus of the present invention. 10 that correspond to the components in FIG. 4 are denoted by the same reference numerals or symbols, and the description thereof is omitted as much as possible.
図10に示す特定音声認識装置100−1は、マイク10と、音声データ抽出部20と、制御部30と、制御部30に接続された緊急車両音声データ記憶部60を含んでいる。
A specific voice recognition device 100-1 shown in FIG. 10 includes a
マイク10は、図4と同様であり、マイク10周辺の音声を取得し、音声データ抽出部20に送出する。マイク10は、特定音声認識装置100−1を搭載する車両の外部で、かつ、外部の音声データを取得しやすい場所に設置されているものとする。
The
音声データ抽出部20は、図4と同様であり、アンプ22と、バンドパスフィルタ24と、A/Dコンバータ26とを含んでいる。そして、各構成要素の機能も図4で示したと同様であるため、これ以上の説明は省略する。
The audio
制御部30は、特定音声認識装置100−1の演算処理を行うCPU37−1を含んでいる。また、制御部30は、CPU37−1を動作させるプログラム等を記憶するROM38−1を含んでいる。ROM38−1に記憶されCPU37−1を動作させるプログラムとしては、第2の実施形態で説明した緊急車両音声データ選択部34、警報音認識部36の機能を実行するプログラムも含まれている。
The
さらに、制御部30は、CPU37−1のワークエリアとして各種のデータを記憶するRAM39−1を含んでいる。
Furthermore, the
また、制御部30に接続される緊急車両音声データ記憶部60は、図4と同様であり、自治体毎に、当該自治体の緊急車両が吹鳴するサイレン音などの緊急車両音声データを記憶する緊急車両音声データ62を含んでいる。そして、緊急車両音声データ62は、図4と同様に、緊急車両の音声データをソナグラムの形で記憶している。
Moreover, the emergency vehicle audio | voice
また、図10に示す特定音声認識装置100−1は、カーナビゲーションシステム80を含んでいる。 10 includes a car navigation system 80. The specific speech recognition apparatus 100-1 shown in FIG.
カーナビゲーションシステム80は、GPS受信部40−1と、カーナビゲーションシステム80の演算処理を行うCPU82を含み、CPU82に接続される地図データ記憶部50−1を含んでいる。
The car navigation system 80 includes a GPS receiver 40-1 and a
GPS受信部40−1は、GPS衛星からの電波を受信するGPSアンテナ42−1を含んでいる。また、GPSアンテナ42−1から受信した電波に基づいて、特定音声認識装置100−1の現在位置データを、例えば、緯度、経度のデータとして算出するGPSレシーバ44−1を含んでいる。GPSレシーバ44−1は、算出した現在位置データをCPU82に送出する。
The GPS receiver 40-1 includes a GPS antenna 42-1 that receives radio waves from GPS satellites. Moreover, the GPS receiver 44-1 which calculates the present position data of the specific speech recognition apparatus 100-1 as, for example, latitude and longitude data based on the radio wave received from the GPS antenna 42-1 is included. The GPS receiver 44-1 sends the calculated current position data to the
CPU82には、CPU82を動作させるプログラムや、緊急車両接近警告画像データ、緊急車両接近警告メッセージデータ等を記憶するROM84と、CPU82のワークエリアとして各種のデータを記憶するRAM86が接続されている。ROM84に記憶されCPU82を動作させるプログラムとしては、カーナビゲーションの機能や、第2の実施形態で説明した現在位置特定部32の機能を実行するプログラムも含まれている。
The
また、CPU82には、カーナビゲーションを行うためのディスプレイ72−1や、音声を出力するスピーカ74−1も接続されている。
The
地図データ記憶部50−1は、例えば、日本全土の地図データを、緯度、経度のデータと共に記憶する地図データ52−1を含んでいる。地図データ52−1は、さらに、当該緯度、経度の地点が日本のどの自治体(□□県、○○市、△△町、など)に属しているかの情報も記憶している。 The map data storage unit 50-1 includes, for example, map data 52-1 for storing map data for the whole of Japan together with latitude and longitude data. The map data 52-1 further stores information on which local government in Japan (□□ prefecture, XX city, △ Δ town, etc.) the latitude and longitude points belong to.
なお、上述したCPU37−1と、カーナビゲーションシステム80のCPU82は図示しないバス(bus)で接続されており、各種情報の送受信を相互に行うことが可能となっている。
The CPU 37-1 described above and the
次に、図11を参照して、第4の実施形態の動作について説明する。 Next, the operation of the fourth embodiment will be described with reference to FIG.
本発明の第4の実施形態は、図4に示した第3の実施形態の構成要素の一部を、カーナビゲーションシステムに代替させるよう構成したものである。従って、図11に示す動作は、図9に示した動作とほぼ同一であり、図11において図9に示す動作には同一の参照数字又は符号を付し、その説明を極力省略するものとする。 In the fourth embodiment of the present invention, a part of the components of the third embodiment shown in FIG. 4 is replaced with a car navigation system. Therefore, the operation shown in FIG. 11 is almost the same as the operation shown in FIG. 9. In FIG. 11, the operation shown in FIG. 9 is given the same reference numeral or symbol, and the description thereof is omitted as much as possible. .
図11は、第3実施形態の動作を説明するシーケンス図である。 FIG. 11 is a sequence diagram for explaining the operation of the third embodiment.
図11において、特定音声認識装置100−1のマイク10は、マイク10周辺の音声を一定時間長の単位で取得し、音声データ抽出部20に送出する(図11のステップS1)。その後、次の時間長の音声を取得するためステップS1を繰り返す。
In FIG. 11, the
音声データ抽出部20は、マイク10から送出されたアナログ音声データをアンプ22で増幅し、バンドパスフィルタ24に送出する。バンドパスフィルタ24は、緊急車両が吹鳴するサイレン音の周波数範囲(例えば、250〜900Hz)のみの音声データを通し、A/Dコンバータ26に送出する。A/Dコンバータ26は、バンドパスフィルタ24から受信したアナログ音声データをデジタル音声データに変換する(ステップS2−1)。そして、変換したデジタル音声データを制御部30に送出する。
The audio
一方、特定音声認識装置100−1のカーナビゲーションシステム80のGPS受信部40−1は、一定時間間隔で、複数のGPS衛星が送出する電波をGPSアンテナ42−1で受信する。そして、GPSアンテナ42−1で受信した電波情報に基づき、GPSレシーバ44−1は、特定音声認識装置100−1の現在位置を算出する(ステップS3−2)。そして、算出した現在位置の情報をCPU82に送出する。その後、次の時間間隔でのGPS衛星からの電波を受信するため、ステップS3−2を繰り返す。
On the other hand, the GPS receiving unit 40-1 of the car navigation system 80 of the specific speech recognition apparatus 100-1 receives the radio waves transmitted from the plurality of GPS satellites by the GPS antenna 42-1 at regular time intervals. Then, based on the radio wave information received by the GPS antenna 42-1, the GPS receiver 44-1 calculates the current position of the specific speech recognition device 100-1 (step S3-2). Then, the calculated current position information is sent to the
GPS受信部40−1のGPSレシーバ44−1から現在位置を受信したカーナビゲーションシステム80のCPU82は、現在位置特定部(図2の現在位置特定部32)のプログラムを実行させる。そして、CPU82は受信した現在位置が、どの自治体の中の位置に相当するかについて、図10に示した地図データ記憶部50−1の地図データ52−1を参照して特定する。さらに、CPU82は、特定した自治体の近辺の他の2〜3の自治体も特定する(ステップS4−2)。そして、CPU82は、特定した複数の自治体の情報を、制御部30のCPU37−1に送出する。
The
CPU82から、特定した複数の自治体情報を受信したCPU37−1は、緊急車両音声データ選択部(図2の緊急車両音声データ選択部34)のプログラムを実行させる。そして、ステップS4−2で特定した複数の自治体が用いている緊急車両音声データを、図10に示した緊急車両音声データ記憶部60の緊急車両音声データ62から抽出する(ステップS5−2)。ここで抽出した緊急車両音声データの数は、複数の自治体における複数の緊急車両の種類分有り、かつ、緊急車両音声データはソナグラムの形の3次元データとなっている。
The CPU 37-1 that has received the specified plurality of local government information from the
また、制御部30のCPU37−1は、音声データ抽出部20のA/Dコンバータ26からデジタル音声データを受信すると、警報音認識部(図2の警報音認識部36)のプログラムを実行させる。そして、CPU37−1は先ず、デジタル音声データをソナグラムの形の3次元データに変換し(受信ソナグラムデータと称している)、RAM39−1に記憶させる。次に、CPU37−1は、受信ソナグラムデータが、ステップS5−2で抽出した複数の自治体の複数の緊急車両音声データの何れかと一致するかを比較する(ステップS6−2)。そして、CPU37−1は、受信ソナグラムデータが、ステップS5−2で抽出した複数の自治体の複数の緊急車両音声データの何れかと一致するかを判定する(ステップS7−2)。一致の判定は、ソナグラムで表されたデータ同士のパターンマッチングにより行う。CPU37−1は、判定結果(「一致」、又は、「不一致」)をカーナビゲーションシステム80のCPU82に返送する。
When the CPU 37-1 of the
カーナビゲーションシステム80のCPU82は、判定結果が「一致」又は「不一致」を判定する(ステップS71−2)。
The
図11のステップS71−2における判定結果が、「一致」である場合(ステップS71−2で「一致」)、カーナビゲーションシステム80のCPU82は、緊急車両が近づいているものと判断する。そして、緊急車両が近づいている旨の緊急車両接近警告画像データ、緊急車両接近警告メッセージデータ等を、ROM84から読み出し、ディスプレイ72−1、スピーカ74−1に通知する。ディスプレイ72−1は、緊急車両が近づいている旨を、画像データとして出力し、報知する。同時に/又は、スピーカ74−1は、緊急車両が近づいている旨を、音声で出力し、報知する(ステップS8−2)。そして、特定音声認識装置100−1の利用者がこの報知に気づき、報知の停止操作を行った場合、ディスプレイ72−1やスピーカ74−1は報知を停止し、もとの状態に戻る。
When the determination result in step S71-2 in FIG. 11 is “match” (“match” in step S71-2), the
ステップS71−2における判定結果が「不一致」(ステップS71−2「不一致」)、の場合、カーナビゲーションシステム80のCPU82は、何もせず、もとの状態に戻る。
When the determination result in step S71-2 is “mismatch” (step S71-2 “mismatch”), the
以上、本発明の第4の実施形態の動作について説明した。 The operation of the fourth embodiment of the present invention has been described above.
前述したように、本発明の第4の実施形態は、図4に示した第3の実施形態の構成要素の一部を、カーナビゲーションシステム80に代替させるように構成したものである。 As described above, the fourth embodiment of the present invention is configured so that the car navigation system 80 replaces some of the components of the third embodiment shown in FIG.
従って、本実施形態によれば、第3の実施形態におけると同様の、以下のような効果を奏することができる。 Therefore, according to the present embodiment, the following effects similar to those in the third embodiment can be obtained.
すなわち、自治体毎に、当該自治体が使用している緊急車両音声データ(サイレン音など)が異なっている場合であっても、車両外の音声データが緊急車両の吹鳴する緊急車両音声データに一致するかを判定できる。そして、一致する場合には、緊急車両が近づいている旨を車両内に報知することが可能となる。 That is, even if the emergency vehicle audio data (siren sound, etc.) used by the local government is different for each local government, the audio data outside the vehicle matches the emergency vehicle audio data generated by the emergency vehicle. Can be determined. And when it corresponds, it becomes possible to alert | report in the vehicle that the emergency vehicle is approaching.
また、バンドパスフィルタ24により、緊急車両が吹鳴する周波数範囲の音声データのみを抽出可能となり、受信した音声データを効率よくソナグラムに変換できる。
Further, the band-
さらに、緊急車両音声データ62には、全自治体の緊急車両が吹鳴する音声データが多数記憶されているが、特定音声認識装置100−1を搭載する車両の現在位置近傍のいくつかの自治体の緊急車両音声データだけを抽出できる。従って、ソナグラムのデータ形のパターンマッチングの回数を大幅に削減可能となる。
Further, the emergency
加えて、第4の実施形態によれば、既存のカーナビゲーションシステム80を利用するようにしているため、特定音声認識装置100−1のコスト低減を図ることが可能となる。 In addition, according to the fourth embodiment, since the existing car navigation system 80 is used, the cost of the specific speech recognition apparatus 100-1 can be reduced.
以上の各実施形態では、領域固有音声として主に緊急車両の吹鳴するサイレン音を例として説明してきたが、これに限られない。上記各実施形態は、地理的領域に固有な音声について適用可能である。また、地理的領域として自治体を代表的な例として説明してきたが、これに限られない。領域固有音声が聞かれる範囲として予め定められていれば、これを地理的領域とみなして各実施形態を適用することができる。
In each of the above embodiments, the siren sound that the emergency vehicle blows mainly has been described as an example of the region-specific sound, but the present invention is not limited to this. Each of the above embodiments can be applied to speech unique to a geographical region. Moreover, although the local government was demonstrated as a representative example as a geographical area, it is not restricted to this. If the area-specific voice is heard in advance, it can be regarded as a geographical area and each embodiment can be applied.
2 音声取得部
3−2 現在位置認識特定部
3−6 音声認識結果報知部
4 現在位置生成部
6 領域固有音声記憶部
10 マイク
20 音声データ抽出部
22 アンプ
24 バンドパスフィルタ
26 A/Dコンバータ
30 制御部
32 現在位置特定部
34 緊急車両音声データ選択部
36 警報音認識部
37 CPU
37−1 CPU
38 ROM
38−1 ROM
39 RAM
39−1 RAM
40 GPS受信部
40−1 GPS受信部
42 GPSアンテナ
42−1 GPSアンテナ
44 GPSレシーバ
44−1 GPSレシーバ
50 地図データ記憶部
50−1 地図データ記憶部
52 地図データ
52−1 地図データ
60 緊急車両音声データ記憶部
62 緊急車両音声データ
70 警報出力部
72 ディスプレイ
72−1 ディスプレイ
74 スピーカ
74−1 スピーカ
80 カーナビゲーションシステム
82 CPU
84 ROM
86 RAM
100 特定音声認識装置
100−1 特定音声認識装置
600 ソナグラムパターンデータ(第一例)
700 ソナグラムパターンデータ(第二例)
2 Voice acquisition unit 3-2 Current position recognition specifying unit 3-6 Voice recognition
37-1 CPU
38 ROM
38-1 ROM
39 RAM
39-1 RAM
40 GPS receiver 40-1 GPS receiver 42 GPS antenna 42-1
84 ROM
86 RAM
100 specific speech recognition device 100-1 specific speech recognition device 600 sonagram pattern data (first example)
700 sonagram pattern data (second example)
Claims (8)
入力される所定の信号に基づき、自らの現在位置を算出して出力する現在位置生成部と、
所定の地理的領域でのみ聞かれる領域固有音声を前記一定時間長以上の単位で前記地理的領域に対応付けて記憶する領域固有音声記憶部と、
前記現在位置生成部から入力される前記現在位置が属する前記地理的領域である特定地理的領域を示す情報を出力する現在位置認識特定部と、
入力される前記特定地理的領域につき前記領域固有音声記憶部から抽出した前記領域固有音声と、前記音声取得部から入力される前記デジタル音声データを比較し、両者が一致すると判定した場合、その旨を報知する報知信号を出力する音声認識結果報知部と
を含むことを特徴とする特定音声認識装置。 An audio acquisition unit that acquires input peripheral audio in units of a certain time length and outputs it as digital audio data;
Based on a predetermined signal that is input, a current position generation unit that calculates and outputs its current position;
A region-specific speech storage unit that stores region-specific speech heard only in a predetermined geographical region in association with the geographical region in units of the predetermined time length or more;
A current position recognition specifying unit that outputs information indicating a specific geographical area to which the current position belongs, which is input from the current position generating unit;
If the region specific voice extracted from the region specific voice storage unit for the specific geographical region to be input is compared with the digital voice data input from the voice acquisition unit, and it is determined that both match, A specific speech recognition apparatus comprising: a speech recognition result notifying unit that outputs a notification signal for notifying the user.
前記マイクが取得したアナログ音声データをA/D変換しデジタル音声データとして制御部に送出する音声データ抽出部とを含み、
前記現在位置生成部は、一定時間間隔で複数のGPS衛星が送出する電波を受信し、受信した電波情報に基づき、現在位置を算出して前記制御部に送出するGPS受信部を含み、
前記領域固有音声記憶部は、前記制御部に接続され、自治体毎に、当該自治体の緊急車両が吹鳴するサイレン音などの緊急車両音声データを記憶する緊急車両音声データ記憶部、を含み、
前記現在位置認識特定部は、前記制御部に接続され、地図データを記憶する地図データ記憶部と、前記制御部に含まれ、前記GPS受信部から受信した現在位置に基づき、現在位置近傍の複数の自治体を、前記地図データ記憶部を参照して特定する現在位置特定部とを含み、
前記音声認識結果報知部は、前記制御部に含まれ、前記現在位置特定部が特定した複数の自治体が用いている緊急車両音声データを、前記緊急車両音声データ記憶部から抽出する緊急車両音声データ選択部と、
前記制御部に含まれ、前記音声データ抽出部から受信したデジタル音声データが、前記緊急車両音声データ選択部が抽出した複数の自治体の複数の緊急車両音声データの何れかと一致するかを判定し、一致すると判定した場合、緊急車両が近づいている旨を前記制御部に接続された警報出力部に通知する警報音認識部と、を含み、
前記警報出力部は、前記警報音認識部からの通知が有った場合、緊急車両が近づいている旨を、音声、メッセージデータ、或いは画像データにより出力し、報知する、
ことを特徴とする請求項1に記載の特定音声認識装置。 The voice acquisition unit is configured to acquire a peripheral voice in a unit of a predetermined time length;
An audio data extraction unit that A / D-converts analog audio data acquired by the microphone and sends it to the control unit as digital audio data;
The current position generation unit includes a GPS reception unit that receives radio waves transmitted by a plurality of GPS satellites at regular time intervals, calculates a current position based on the received radio wave information, and transmits the current position to the control unit,
The area-specific voice storage unit is connected to the control unit, and includes, for each municipality, an emergency vehicle voice data storage unit that stores emergency vehicle voice data such as a siren sound that the emergency vehicle of the municipality blows.
The current position recognition specifying unit is connected to the control unit, and includes a map data storage unit for storing map data, and a plurality of near the current position based on the current position received from the GPS receiving unit. A current position specifying unit that specifies the local government with reference to the map data storage unit,
The voice recognition result notifying unit is included in the control unit, and emergency vehicle voice data for extracting emergency vehicle voice data used by a plurality of local governments specified by the current position specifying unit from the emergency vehicle voice data storage unit A selection section;
The digital voice data included in the control unit and received from the voice data extraction unit is determined to match any of a plurality of emergency vehicle voice data of a plurality of local governments extracted by the emergency vehicle voice data selection unit, An alarm sound recognizing unit for notifying an alarm output unit connected to the control unit that an emergency vehicle is approaching,
The warning output unit, when notified from the warning sound recognition unit, outputs and informs that an emergency vehicle is approaching by voice, message data, or image data,
The specific speech recognition apparatus according to claim 1.
ことを特徴とする請求項2に記載の特定音声認識装置。 The voice data extraction unit includes a band-pass filter, and the band-pass filter extracts only voice data in a frequency range of emergency vehicle voice data such as a siren sound generated by a local emergency vehicle.
The specific speech recognition apparatus according to claim 2.
前記警報音認識部は、前記音声データ抽出部から受信したデジタル音声データをソナグラムの形の音声データに変換した後、前記緊急車両音声データ選択部が抽出した複数の自治体の複数の緊急車両音声データの何れかと一致するかをパターンマッチングにより判定する、
ことを特徴とする請求項2或いは請求項3の何れかに記載の特定音声認識装置。 The audio data stored in the emergency vehicle audio data storage unit is audio data in the form of a sonogram,
The warning sound recognizing unit converts the digital sound data received from the sound data extracting unit into sound data in the form of a sonogram, and then a plurality of emergency vehicle sound data of a plurality of local governments extracted by the emergency vehicle sound data selecting unit. It is determined by pattern matching whether it matches any of
The specific speech recognition apparatus according to claim 2, wherein the specific speech recognition apparatus is provided.
ことを特徴とする、請求項2から請求項4の何れかに記載の特定音声認識装置。 The map data is mounted on a car navigation system, and the car navigation system executes the functions of the GPS receiver, the current position specifying unit, and the alarm output unit.
The specific speech recognition apparatus according to any one of claims 2 to 4, wherein the specific speech recognition apparatus is characterized.
前記アナログ音声データをA/D変換によってデジタル音声データに変換し、
一定時間間隔で複数のGPS衛星が送出する電波を受信し、受信した電波情報に基づき、現在位置を算出し、
前記現在位置に基づき、現在位置近傍の複数の自治体を特定し、
前記特定した複数の自治体が用いている複数の緊急車両音声データを抽出し、
前記デジタル音声データが、前記現在位置近傍の複数の自治体の複数の緊急車両音声データの何れかと一致するかを判定し、一致すると判定した場合、緊急車両が近づいている旨を音声、メッセージデータ、或いは画像データにより出力し、報知する、
ことを特徴とする特定音声認識方法。 Acquire surrounding audio as analog audio data in units of a certain length of time,
Converting the analog audio data into digital audio data by A / D conversion;
Receive radio waves sent by multiple GPS satellites at regular time intervals, calculate the current position based on the received radio wave information,
Based on the current location, identify a plurality of local governments near the current location,
Extracting a plurality of emergency vehicle voice data used by the plurality of specified local governments,
It is determined whether the digital voice data matches any of a plurality of emergency vehicle voice data of a plurality of local governments in the vicinity of the current position, and if determined to match, voice, message data indicating that an emergency vehicle is approaching, Alternatively, output and notify by image data,
A specific speech recognition method characterized by the above.
ことを特徴とする請求項6に記載の特定音声認識方法。 The A / D conversion is performed after extracting only the voice data in the frequency range of the emergency vehicle voice data such as sirens sounded by the emergency vehicle of the local government from the analog voice data.
The specific speech recognition method according to claim 6.
前記デジタル音声データをソナグラムの形の音声データに変換した後、前記現在位置近傍の複数の自治体の複数の緊急車両音声データの何れかと一致するかをパターンマッチングにより判定する、
ことを特徴とする請求項6或いは請求項7の何れかに記載の特定音声認識方法。 The emergency vehicle sound data is sound data in the form of a sonagram;
After converting the digital voice data into voice data in the form of a sonogram, it is determined by pattern matching whether it matches any of a plurality of emergency vehicle voice data of a plurality of local governments in the vicinity of the current position.
The specific speech recognition method according to claim 6, wherein the specific speech recognition method is provided.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010204440A JP5211124B2 (en) | 2010-09-13 | 2010-09-13 | Specific speech recognition apparatus and specific speech recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010204440A JP5211124B2 (en) | 2010-09-13 | 2010-09-13 | Specific speech recognition apparatus and specific speech recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012059203A true JP2012059203A (en) | 2012-03-22 |
JP5211124B2 JP5211124B2 (en) | 2013-06-12 |
Family
ID=46056185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010204440A Active JP5211124B2 (en) | 2010-09-13 | 2010-09-13 | Specific speech recognition apparatus and specific speech recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5211124B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015111264A1 (en) * | 2014-01-24 | 2015-07-30 | 株式会社ニコン | Electronic device |
CN105608812A (en) * | 2016-03-01 | 2016-05-25 | 汉得利(常州)电子股份有限公司 | Waterproof vehicle audio alarm device having self protection circuit |
JP2020509703A (en) * | 2017-03-01 | 2020-03-26 | ソルターレ インコーポレイテッド | System and method for detecting a target sound |
JP2022032243A (en) * | 2020-08-11 | 2022-02-25 | 株式会社Jvcケンウッド | Notification control device and notification system |
WO2023243279A1 (en) * | 2022-06-15 | 2023-12-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Remote monitoring device, remote monitoring method, remote monitoring program, remote monitoring system, and device |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0511789A (en) * | 1991-07-04 | 1993-01-22 | Sasaki Denki Seisakusho:Kk | Electronic siren device |
JPH06245289A (en) * | 1993-02-17 | 1994-09-02 | Fujitsu Ten Ltd | On-vehicle electronic device |
JPH06325291A (en) * | 1991-02-28 | 1994-11-25 | Kenwood Corp | Emergency vehicle detection alarm device and position display device |
JP2003004521A (en) * | 2001-06-27 | 2003-01-08 | Kenwood Corp | Identification device for sound outside vehicle |
JP2003329475A (en) * | 2002-05-13 | 2003-11-19 | Denso Corp | On-vehicle navigation system |
JP2004069960A (en) * | 2002-08-06 | 2004-03-04 | Patoraito:Kk | Siren apparatus for emergency vehicle |
JP2004170301A (en) * | 2002-11-21 | 2004-06-17 | Alpine Electronics Inc | On-vehicle navigation system |
JP2006210976A (en) * | 2005-01-25 | 2006-08-10 | Rion Co Ltd | Method and device for automatically detecting warning sound and hearing-aid employing it |
JP2006268824A (en) * | 2005-02-28 | 2006-10-05 | Welfare Kk | Specific sound identifying method of alarm sound or the like, specific sound identifying device, and specific sound identifying system in moving vehicle |
JP2008084004A (en) * | 2006-09-27 | 2008-04-10 | Mazda Motor Corp | Vehicle driving support system |
JP2009080661A (en) * | 2007-09-26 | 2009-04-16 | Cellstar Kogyo Kk | Receiving device for road traffic information |
-
2010
- 2010-09-13 JP JP2010204440A patent/JP5211124B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06325291A (en) * | 1991-02-28 | 1994-11-25 | Kenwood Corp | Emergency vehicle detection alarm device and position display device |
JPH0511789A (en) * | 1991-07-04 | 1993-01-22 | Sasaki Denki Seisakusho:Kk | Electronic siren device |
JPH06245289A (en) * | 1993-02-17 | 1994-09-02 | Fujitsu Ten Ltd | On-vehicle electronic device |
JP2003004521A (en) * | 2001-06-27 | 2003-01-08 | Kenwood Corp | Identification device for sound outside vehicle |
JP2003329475A (en) * | 2002-05-13 | 2003-11-19 | Denso Corp | On-vehicle navigation system |
JP2004069960A (en) * | 2002-08-06 | 2004-03-04 | Patoraito:Kk | Siren apparatus for emergency vehicle |
JP2004170301A (en) * | 2002-11-21 | 2004-06-17 | Alpine Electronics Inc | On-vehicle navigation system |
JP2006210976A (en) * | 2005-01-25 | 2006-08-10 | Rion Co Ltd | Method and device for automatically detecting warning sound and hearing-aid employing it |
JP2006268824A (en) * | 2005-02-28 | 2006-10-05 | Welfare Kk | Specific sound identifying method of alarm sound or the like, specific sound identifying device, and specific sound identifying system in moving vehicle |
JP2008084004A (en) * | 2006-09-27 | 2008-04-10 | Mazda Motor Corp | Vehicle driving support system |
JP2009080661A (en) * | 2007-09-26 | 2009-04-16 | Cellstar Kogyo Kk | Receiving device for road traffic information |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015111264A1 (en) * | 2014-01-24 | 2015-07-30 | 株式会社ニコン | Electronic device |
CN105608812A (en) * | 2016-03-01 | 2016-05-25 | 汉得利(常州)电子股份有限公司 | Waterproof vehicle audio alarm device having self protection circuit |
JP2020509703A (en) * | 2017-03-01 | 2020-03-26 | ソルターレ インコーポレイテッド | System and method for detecting a target sound |
JP2022032243A (en) * | 2020-08-11 | 2022-02-25 | 株式会社Jvcケンウッド | Notification control device and notification system |
JP7456326B2 (en) | 2020-08-11 | 2024-03-27 | 株式会社Jvcケンウッド | Notification control device and notification system |
WO2023243279A1 (en) * | 2022-06-15 | 2023-12-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Remote monitoring device, remote monitoring method, remote monitoring program, remote monitoring system, and device |
Also Published As
Publication number | Publication date |
---|---|
JP5211124B2 (en) | 2013-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10351148B2 (en) | System and method for sound direction detection in a vehicle | |
US9602937B2 (en) | Method and apparatus to provide surroundings awareness using sound recognition | |
KR102710789B1 (en) | An apparatus and method for providing visualization information of a rear vehicle | |
JP5211124B2 (en) | Specific speech recognition apparatus and specific speech recognition method | |
CN107985225B (en) | Method for providing sound tracking information, sound tracking apparatus and vehicle having the same | |
JP2007050724A (en) | Vehicle exterior warning sound notifying device | |
CN108082107B (en) | Information prompting method, device and computer readable storage medium | |
CN105761532B (en) | Dynamic voice reminding method and onboard system | |
US10720897B2 (en) | Processing device, server device, output method, and non-transitory storage medium | |
US20220363261A1 (en) | System and method for acoustic detection of emergency sirens | |
KR20160044363A (en) | Apparatus and Method for recognizing horn using sound signal process | |
TW201719541A (en) | Method and system of analyzing and predicting high-risk road section by means of driving behavior utilizing an on-board unit to collect a driver's driving trajectory for analyzing bad driving behaviors and therefore learn a high-risk road section | |
US20050004797A1 (en) | Method for identifying specific sounds | |
CN111785057A (en) | Method and device for prompting emergency and vehicle | |
JP2015001776A (en) | Driving support device | |
JP5769830B2 (en) | Sound generator | |
JP2014116648A (en) | Sound source direction display device, sound source direction display method, sound source direction transmission method, and sound source direction display program | |
JP2002245588A6 (en) | Emergency vehicle priority passage support system | |
JP2015230287A (en) | Notification system and notification device | |
EP4044619A1 (en) | Systems and methods for selectively providing audio alerts | |
KR101702612B1 (en) | vehicle-safety assistance system for auditory disabled | |
JP2015032155A (en) | Voice notification system | |
EP3670266A1 (en) | Vehicle sound generating apparatus and method of generating sound in a vehicle | |
CN202615565U (en) | Vehicle-mounted road accident automatic alarming device | |
KR101842612B1 (en) | Method and apparatus for recognizing target sound using deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130225 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5211124 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |