JP2008309865A - Voice recognition device and voice recognition method - Google Patents

Voice recognition device and voice recognition method Download PDF

Info

Publication number
JP2008309865A
JP2008309865A JP2007155213A JP2007155213A JP2008309865A JP 2008309865 A JP2008309865 A JP 2008309865A JP 2007155213 A JP2007155213 A JP 2007155213A JP 2007155213 A JP2007155213 A JP 2007155213A JP 2008309865 A JP2008309865 A JP 2008309865A
Authority
JP
Japan
Prior art keywords
vocabulary
position information
speech recognition
vehicle
spoken
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007155213A
Other languages
Japanese (ja)
Inventor
Toshio Kitahara
俊夫 北原
Shigefumi Kirino
成史 桐野
Osamu Iwata
收 岩田
Kentaro Koga
健太郎 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2007155213A priority Critical patent/JP2008309865A/en
Publication of JP2008309865A publication Critical patent/JP2008309865A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent that uttering to outside of a vehicle is incorrectly recognized as uttering to an in-vehicle device, by separating the uttering to the in-vehicle device from the uttering to outside of the vehicle. <P>SOLUTION: In the voice recognition device 10, a voice recognition processing section 13a uses a specified area dictionary 12b and an outside specified area dictionary 12c, and recognizes voice by determining whether or not an uttered vocabulary is included in the dictionaries, and performs command conversion. A command after the command conversion is output to a car navigation device 20 by a command output processing section 13c. Furthermore, the voice recognition processing section 13a determines whether or not a current position of a vehicle 1 is included in the specified area information 12a based on a GPS position information obtained from the car navigation device 20. When it is determined that it is included, only the outside specified area dictionary 12c is used so that voice recognition of the uttered vocabulary which is assumed to be uttered in the specified area may not be performed. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両の搭乗者によって発話された語彙が語彙記憶手段に記憶されている音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識する音声認識手段と、該音声認識手段によって音声認識された結果をコマンドへ変換して車載装置へと受け渡すコマンド変換手段とを有する音声認識装置および該音声認識装置を使用した音声認識方法に関し、特に、車載装置に対する発話と、車両外部への発話とを区別し、車両外部への発話を車載装置への発話として誤認識することを防止する音声認識装置および音声認識方法に関する。   The present invention provides speech recognition means for speech recognition of a vocabulary spoken by determining whether or not a vocabulary spoken by a vehicle occupant is included in a speech recognition target vocabulary stored in the vocabulary storage means. The present invention relates to a voice recognition device having a command conversion means for converting a result of voice recognition by the voice recognition means into a command and passing it to a vehicle-mounted device, and a voice recognition method using the voice recognition device. The present invention relates to a speech recognition apparatus and a speech recognition method that distinguish between utterances and utterances to the outside of the vehicle and prevent erroneous recognition of utterances to the outside of the vehicle as utterances to an in-vehicle device.

近年、利用者の音声を認識する技術の実現に向けて、各種考案がなされている。利用者の音声を認識することができれば、利用者は各種機器の操作を音声によって実行することが可能であり、特に車載装置では運転者による手動操作の運転への影響が懸念されることから音声操作技術の実用化が切望されている。   In recent years, various ideas have been made for realizing a technology for recognizing a user's voice. If the user's voice can be recognized, it is possible for the user to perform various device operations by voice. Especially, in-vehicle devices are concerned about the influence of manual operation by the driver on the driving. The practical application of operation technology is eagerly desired.

ところで、現在では、車両の音声認識機能を搭載した車載装置は、トークスイッチを押下した後に発話された特定のコマンドを認識する仕様となっている。このトークスイッチを使用することによって、車載装置は、特定のコマンドをより的確に認識することが可能となる。   By the way, at present, an in-vehicle device equipped with a vehicle voice recognition function has a specification for recognizing a specific command uttered after pressing a talk switch. By using this talk switch, the in-vehicle device can recognize a specific command more accurately.

しかし、このトークスイッチを押下する押下操作が、運転者に運転操作以外の負荷を与える要因となるため、トークスイッチを使用しない常時音声認識が将来的には主流となってくることが予想される。   However, since the pressing operation of pressing the talk switch causes a load on the driver other than the driving operation, continuous voice recognition without using the talk switch is expected to become mainstream in the future. .

このトークスイッチを使用しない常時音声認識においては、運転者の発話が車載装置に対するものであるか否かを明確に認識する必要がある。このために、例えば、特許文献1には、音声認識のための語彙パターンを車両位置情報に関連付けて登録し、音声認識の際に、音声認識処理をおこなうとともに車両位置情報に基づいて認識語彙の妥当性を判定するようにして、音声認識の精度を向上させる従来技術が開示されている。   In the continuous voice recognition without using the talk switch, it is necessary to clearly recognize whether or not the driver's utterance is for the in-vehicle device. For this purpose, for example, in Patent Document 1, a vocabulary pattern for speech recognition is registered in association with vehicle position information, and at the time of speech recognition, speech recognition processing is performed and a recognition vocabulary based on the vehicle location information is registered. Conventional techniques for improving the accuracy of speech recognition by determining validity are disclosed.

また、特許文献2〜4には、特定のキーワードまたは無音部分が認識されると発話の音声認識を開始するようにし、音声認識のための辞書の容量を低減するとともに、音声認識の精度を向上させる従来技術が開示されている。   Further, in Patent Documents 2 to 4, when a specific keyword or silent part is recognized, speech recognition of an utterance is started, the capacity of a dictionary for speech recognition is reduced, and accuracy of speech recognition is improved. The prior art is disclosed.

また、特許文献5には、発話者の姿勢を認識し、この認識された発話者の姿勢から当該発話が車載装置に対するものであるか否かを認識し、音声認識の精度を向上させる従来技術が開示されている。   Patent Document 5 discloses a conventional technique for recognizing a speaker's posture, recognizing whether or not the utterance is directed to a vehicle-mounted device from the recognized speaker's posture, and improving the accuracy of speech recognition. Is disclosed.

また、特許文献6には、車両が走行中の際の音声認識に使用する認識辞書と、車両が停車中の際の音声認識に使用する辞書とを区別し、車両が走行中であるか停車中であるかによってこれらの辞書を切り替えて使用することによって、音声認識の精度を向上させる従来技術が開示されている。   Patent Document 6 distinguishes between a recognition dictionary used for voice recognition when the vehicle is running and a dictionary used for voice recognition when the vehicle is stopped, and whether the vehicle is running or stopped. Conventional techniques for improving the accuracy of speech recognition by switching these dictionaries depending on whether they are in the middle or the like are disclosed.

WO2003/088209明細書WO2003 / 088209 specification 特開2002−132290号公報JP 2002-132290 A 特開2003−228392号公報JP 2003-228392 A 特開2004−341033号公報Japanese Patent Laid-Open No. 2004-341033 特開2000−267695号公報JP 2000-267695 A 特開平2−193198号公報Japanese Unexamined Patent Publication No. 2-193198

しかしながら、上記特許文献1〜6に代表される従来技術では、同一の発話語彙であって、車載装置に対する発話である場合と、車両外部への発話である場合との双方のケースがある場合に、これらを区別することができず、車両外部への発話を車載装置への発話として誤認識してしまい、音声認識の精度を低下させてしまうおそれがあった。   However, in the conventional techniques represented by the above-mentioned Patent Documents 1 to 6, there are cases where the utterance is the same vocabulary and both the utterance to the in-vehicle device and the utterance to the outside of the vehicle. These cannot be distinguished from each other, and the utterance to the outside of the vehicle is misrecognized as the utterance to the in-vehicle device, which may reduce the accuracy of voice recognition.

本発明は、上記問題点(課題)を解消するためになされたものであって、車載装置に対する発話と、車両外部への発話とを区別し、車両外部への発話を車載装置への発話として誤認識することを防止する音声認識装置および音声認識方法を提供することを目的とする。   The present invention has been made to solve the above problems (problems), and distinguishes between an utterance to an in-vehicle device and an utterance to the outside of the vehicle, and an utterance to the outside of the vehicle as an utterance to the in-vehicle device. It is an object of the present invention to provide a voice recognition device and a voice recognition method that prevent erroneous recognition.

上述した問題を解決し、目的を達成するため、本発明は、車両の搭乗者によって発話された語彙が語彙記憶手段に記憶されている音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識する音声認識手段と、該音声認識手段によって音声認識された結果をコマンドへ変換して車載装置へと受け渡すコマンド変換手段とを有する音声認識装置であって、前記語彙記憶手段は、前記音声認識対象語彙のうち特定地点で前記搭乗者が発話すると想定される音声認識対象語彙を、該特定地点に対応する位置情報に対応付けて記憶する特定地点語彙記憶手段と、前記特定地点語彙記憶手段に記憶される語彙以外の前記音声認識対象語彙を記憶する特定地点外語彙記憶手段とを含むことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention determines whether a vocabulary spoken by a vehicle occupant is included in a speech recognition target vocabulary stored in a vocabulary storage means. A speech recognition apparatus comprising: speech recognition means for recognizing the spoken vocabulary; and command conversion means for converting a result of speech recognition by the speech recognition means into a command and transferring it to a vehicle-mounted device, The vocabulary storage means is a specific point vocabulary storage means for storing the speech recognition target vocabulary that the passenger is supposed to utter at a specific point in the voice recognition target vocabulary in association with the position information corresponding to the specific point. And a vocabulary storage device outside the specific location for storing the speech recognition target vocabulary other than the vocabulary stored in the specific location vocabulary storage device.

また、本発明は、上記発明において、前記特定地点と該特定地点に対応する位置情報とを対応付けて記憶する位置情報記憶手段と、前記車両が位置する位置情報が前記位置情報記憶手段に含まれるか否かを判定する位置情報判定手段とをさらに有することを特徴とする。   Further, in the present invention according to the above-described invention, the position information storage unit that stores the specific point and the position information corresponding to the specific point in association with each other, and the position information storage unit includes the position information where the vehicle is positioned. It is further characterized by further comprising position information determination means for determining whether or not to be performed.

また、本発明は、上記発明において、前記音声認識手段は、前記位置情報判定手段によって前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定された場合に、前記搭乗者によって発話された語彙が前記特定地点外語彙記憶手段に記憶されている前記音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識し、前記位置情報判定手段によって前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定されなかった場合に、前記搭乗者によって発話された語彙が前記特定地点語彙記憶手段および前記特定地点外語彙記憶手段に記憶されている前記音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識することを特徴とする。   Also, in the present invention according to the above invention, the voice recognition means utters the passenger when the position information determination means determines that the position information storage means includes the position information where the vehicle is located. The spoken vocabulary is voice-recognized by determining whether or not the determined vocabulary is included in the speech recognition target vocabulary stored in the off-specific vocabulary storage unit, and the vehicle is detected by the position information determination unit When it is not determined that the position information storing means includes the position information storage means, the vocabulary spoken by the passenger is stored in the specific point vocabulary storage means and the specific point outside vocabulary storage means. The spoken vocabulary is recognized by speech by determining whether or not it is included in the speech recognition target vocabulary.

また、本発明は、上記発明において、前記コマンド変換手段は、前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定された場合に、前記音声認識手段によって前記搭乗者による前記発話された語彙が前記特定地点語彙記憶手段に記憶されている前記音声認識対象語彙に含まれると判定されたとき、該音声認識手段によって音声認識された結果をコマンドへ変換して車載装置へと受け渡すことをキャンセルすることを特徴とする。   Also, in the present invention according to the above invention, the command conversion means determines that the utterance by the passenger is made by the voice recognition means when the position information storage means determines that the position information where the vehicle is located is included in the position information storage means. When the determined vocabulary is determined to be included in the speech recognition target vocabulary stored in the specific point vocabulary storage means, the result of speech recognition by the speech recognition means is converted into a command and received by the in-vehicle device. It is characterized by canceling the passing.

また、本発明は、上記発明において、前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定された場合に、前記音声認識手段によって前記搭乗者による前記発話された語彙が前記特定地点語彙記憶手段に記憶されている前記音声認識対象語彙に含まれると判定されなかったとき、該発話された語彙を該位置情報に対応する前記特定地点に対応付けて前記特定地点語彙記憶手段に登録する認識語彙登録手段をさらに有することを特徴とする。   In the present invention, in the above invention, when it is determined that the position information storage means includes the position information where the vehicle is located, the vocabulary spoken by the passenger by the voice recognition means is the specified When it is not determined that the vocabulary is included in the speech recognition target vocabulary stored in the point vocabulary storage unit, the spoken vocabulary is associated with the specific point corresponding to the position information in the specific point vocabulary storage unit. It further has a recognition vocabulary registration means for registration.

また、本発明は、上記発明において、前記搭乗者による前記発話された語彙の発話方向が前記車載装置方向であるか否かを判定する発話方向判定手段をさらに有し、前記位置情報判定手段は、前記発話方向判定手段によって前記搭乗者による前記発話された語彙の発話方向が前記車載装置方向でないと判定された場合にのみ、前記車両が位置する位置情報が前記位置情報記憶手段に含まれるか否かを判定することを特徴とする。   Further, the present invention according to the above-mentioned invention further comprises speech direction determination means for determining whether or not the utterance direction of the vocabulary spoken by the passenger is the in-vehicle device direction, and the position information determination means is Whether the position information storage means includes the position information of the vehicle only when the utterance direction determination means determines that the utterance direction of the vocabulary spoken by the passenger is not the in-vehicle device direction. It is characterized by determining whether or not.

また、本発明は、車両の搭乗者によって発話された語彙が音声認識辞書に記憶されている音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識する音声認識工程と、該音声認識工程によって音声認識された結果をコマンドへ変換して車載装置へと受け渡すコマンド変換工程とを含む音声認識方法であって、前記音声認識辞書は、前記音声認識対象語彙のうち特定地点で前記搭乗者が発話すると想定される音声認識対象語彙を、該特定地点に対応する位置情報に対応付けて記憶する特定地点語彙辞書と、前記特定地点語彙辞書に記憶される語彙以外の前記音声認識対象語彙を記憶する特定地点外語彙辞書とを含み、前記音声認識工程は、前記車両が位置する位置情報が特定地点に対応する位置情報か否かを判定する位置情報判定工程によって前記車両が位置する位置情報が前記特定地点に対応する位置情報であると判定された場合に、前記搭乗者によって発話された語彙が前記特定地点外語彙辞書に記憶されている前記音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識し、前記位置情報判定工程によって前記車両が位置する位置情報が前記特定地点に対応する位置情報であると判定されなかった場合に、前記搭乗者によって発話された語彙が前記特定地点語彙辞書および前記特定地点外語彙辞書に記憶されている前記音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識することを特徴とする。   The present invention also provides speech recognition for speech recognition of a vocabulary spoken by determining whether a vocabulary spoken by a vehicle occupant is included in a speech recognition target vocabulary stored in a speech recognition dictionary. And a command conversion step of converting a result of speech recognition in the speech recognition step into a command and transferring it to the in-vehicle device, wherein the speech recognition dictionary is a dictionary of the speech recognition target vocabulary. Among them, a specific point vocabulary dictionary that stores a speech recognition target vocabulary that the passenger is supposed to utter at a specific point in association with position information corresponding to the specific point, and a vocabulary other than the vocabulary stored in the specific point vocabulary dictionary A vocabulary dictionary outside the specific location that stores the speech recognition target vocabulary, and the speech recognition step determines whether the location information where the vehicle is located is location information corresponding to the specific location. When the position information determining step determines that the position information where the vehicle is located is position information corresponding to the specific location, the vocabulary spoken by the passenger is stored in the vocabulary outside the specific location. The spoken vocabulary is voice-recognized by determining whether or not the vocabulary is included in the speech recognition target vocabulary, and the position information where the vehicle is located is the position information corresponding to the specific point in the position information determining step. If it is not determined that the vocabulary spoken by the passenger is included in the speech recognition target vocabulary stored in the specific location vocabulary dictionary and the specific location vocabulary dictionary, The vocabulary spoken is recognized by voice.

また、本発明は、上記発明において、前記コマンド変換工程は、前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定された場合に、前記音声認識工程によって前記搭乗者による前記発話された語彙が前記特定地点語彙辞書に記憶されている前記音声認識対象語彙に含まれると判定されたとき、該音声認識工程によって音声認識された結果をコマンドへ変換して車載装置へと受け渡すことをキャンセルすることを特徴とする。   Further, in the present invention according to the above invention, in the command conversion step, when it is determined that position information where the vehicle is located is included in the position information storage unit, the utterance by the passenger is performed by the voice recognition step. When it is determined that the recognized vocabulary is included in the speech recognition target vocabulary stored in the specific point vocabulary dictionary, the result of speech recognition by the speech recognition process is converted into a command and transferred to the in-vehicle device. It is characterized by canceling.

本発明によれば、語彙記憶手段が特定地点語彙記憶手段と特定地点外語彙記憶手段とを含むので、音声認識手段がこれらを使い分けて、車両の搭乗者によって車外へ向けて発話された語彙を音声認識することが可能になるという効果を奏する。   According to the present invention, the vocabulary storage means includes the specific-point vocabulary storage means and the specific-point vocabulary storage means, so that the voice recognition means properly uses these words that are spoken out of the vehicle by the vehicle occupant. There is an effect that voice recognition is possible.

また、本発明によれば、車両が位置する位置情報に基づき該車両が位置する地点が特定地点であるか否かを判定することが可能になるという効果を奏する。   In addition, according to the present invention, it is possible to determine whether or not the point where the vehicle is located is a specific point based on the position information where the vehicle is located.

また、本発明によれば、車両が特定地点に位置する場合に特定地点外語彙記憶手段を使用して音声認識し、車両が特定地点に位置しない場合に特定地点語彙記憶手段を使用して音声認識するので、車両が特定地点に位置する場合に特定地点語彙記憶手段に含まれる認識対象語彙の認識をおこなわず、誤った音声認識による車載装置への誤指令を防止することが可能になるという効果を奏する。   Further, according to the present invention, when the vehicle is located at a specific point, voice recognition is performed using the non-specific point vocabulary storage unit, and when the vehicle is not located at the specific point, the specific point vocabulary storage unit is used for voice recognition. Because it recognizes, when the vehicle is located at a specific point, the recognition target vocabulary included in the specific point vocabulary storage means is not recognized, and it becomes possible to prevent an erroneous command to the in-vehicle device due to erroneous voice recognition. There is an effect.

また、本発明によれば、車両が特定地点に位置する場合に特定地点語彙記憶手段を使用して音声認識し、搭乗者による発話された語彙が該特定地点語彙記憶手段に含まれる場合に音声認識結果をコマンドへ変換して車載装置へ受け渡すことをキャンセルするので、車両が特定地点に位置する場合に特定地点語彙記憶手段に含まれる認識対象語彙に基づいて車載装置を制御しないようにし、誤った音声認識による車載装置への誤指令を防止することが可能になるという効果を奏する。   Further, according to the present invention, when the vehicle is located at a specific point, voice recognition is performed using the specific point vocabulary storage means, and the vocabulary spoken by the passenger is included in the specific point vocabulary storage means. Since the recognition result is converted into a command and the transfer to the in-vehicle device is canceled, when the vehicle is located at a specific point, the in-vehicle device is not controlled based on the recognition target vocabulary included in the specific point vocabulary storage means, There is an effect that it is possible to prevent an erroneous command to the in-vehicle device due to erroneous voice recognition.

また、本発明によれば、車両が特定地点に位置する場合に音声認識された語彙が特定地点語彙記憶手段に含まれない場合に、該語彙を特定地点語彙記憶手段に登録するので、特定地点語彙記憶手段の登録語彙を自動的に増加させ、車外への発話の認識精度を向上させることが可能になるという効果を奏する。   Further, according to the present invention, when the vocabulary recognized by speech when the vehicle is located at a specific point is not included in the specific point vocabulary storage means, the vocabulary is registered in the specific point vocabulary storage means. The registered vocabulary in the vocabulary storage means is automatically increased, and the recognition accuracy of utterances outside the vehicle can be improved.

また、本発明によれば、発話方向が車載装置方向でない場合にのみ車両が位置する位置が特定地点であるか否かを判定するので、明らかに車載装置方向へ発話された発話語彙はすべて音声認識させることが可能になるという効果を奏する。   In addition, according to the present invention, it is determined whether or not the position where the vehicle is located is a specific point only when the utterance direction is not the in-vehicle device direction. There is an effect that it can be recognized.

以下に添付図面を参照し、本発明の音声認識装置および音声認識方法に係る実施例を詳細に説明する。   Exemplary embodiments according to a speech recognition apparatus and speech recognition method of the present invention will be described below in detail with reference to the accompanying drawings.

先ず、実施例にかかる音声認識装置の構成について説明する。図1は、実施例にかかる音声認識装置の構成を示す機能ブロック図である。同図に示すように、車両1において、CAN(Controller Area Network)2を介して、実施例にかかる音声認識装置10と、GPS(Global Positioning System)から車両の現在の位置情報を取得して音声認識装置10へと受け渡し、かつ音声認識された発話内容に基づくコマンドによる制御対象であるカーナビゲーション装置20とが接続されている。   First, the configuration of the speech recognition apparatus according to the embodiment will be described. FIG. 1 is a functional block diagram illustrating the configuration of the speech recognition apparatus according to the embodiment. As shown in the figure, in the vehicle 1, the current position information of the vehicle is acquired from the voice recognition device 10 according to the embodiment and the GPS (Global Positioning System) via the CAN (Controller Area Network) 2, and the voice is obtained. A car navigation device 20 that is a control target based on a command based on the utterance content that is delivered to the recognition device 10 and voice-recognized is connected.

音声認識装置10は、所定の表示画面を有するディスプレイ装置などの表示手段である表示部11aと、音声を発するスピーカー装置などの音声発生手段である音声発生部11bと、揮発性または不揮発性の記憶手段である記憶部12と、制御部13とを有する。また、音声認識装置10には、外部から検知した音声データを音声認識装置10へと入力するマイク14が接続されている。マイク14は、指向性を有するステレオマイクであるため、検知した音声の発生方向を特定することが可能である。   The voice recognition device 10 includes a display unit 11a that is a display unit such as a display device having a predetermined display screen, a voice generation unit 11b that is a voice generation unit such as a speaker device that emits voice, and a volatile or nonvolatile memory. It has the memory | storage part 12 and the control part 13 which are means. The voice recognition device 10 is connected to a microphone 14 that inputs voice data detected from the outside to the voice recognition device 10. Since the microphone 14 is a stereo microphone having directivity, the direction in which the detected sound is generated can be specified.

記憶部12は、特定エリア情報12aと、特定エリア辞書12bと、特定エリア外辞書12cとを格納している。これらは、所定のテーブルとして記憶部12に格納されている。特定エリア情報12aは、そのテーブル例を図2に示すように、GPSの経度および緯度情報であるGPS位置情報に記憶されている位置情報に車両1の現在の位置情報がヒットする場合に、その位置情報に対応する住所、当該車両1の位置が属するカテゴリ、当該車両1の位置が属する特定エリア名称を取得することが可能なテーブルである。   The storage unit 12 stores specific area information 12a, a specific area dictionary 12b, and a non-specific area dictionary 12c. These are stored in the storage unit 12 as a predetermined table. The specific area information 12a is obtained when the current position information of the vehicle 1 hits the position information stored in the GPS position information, which is GPS longitude and latitude information, as shown in FIG. It is a table which can acquire the address corresponding to position information, the category to which the position of the vehicle 1 belongs, and the specific area name to which the position of the vehicle 1 belongs.

特定エリア辞書12bは、そのテーブル例を図3に示すように、特定エリアにおいて、車両1の搭乗者によって発話されると想定される、カーナビゲーション装置20を音声制御するためのコマンドに対応する音声認識対象語彙に該当する語彙を、特定エリア名称ごとに記憶する辞書である。この辞書に記憶される発話想定語彙は、特定エリアにおいて車両1の搭乗者によって発話される可能性のある音声認識対象語彙であるが、該特定エリアにおいては音声認識させてカーナビゲーション装置20を制御する意図に基づかず、通常の発話として、特に車外への発話として認識されるべき語彙である。   As shown in FIG. 3, the specific area dictionary 12b has a voice corresponding to a command for voice control of the car navigation device 20 that is assumed to be spoken by a passenger of the vehicle 1 in the specific area. This is a dictionary that stores a vocabulary corresponding to a recognition target vocabulary for each specific area name. The utterance assumption vocabulary stored in this dictionary is a vocabulary subject to speech recognition that may be uttered by a passenger of the vehicle 1 in a specific area, and the car navigation device 20 is controlled by performing speech recognition in the specific area. It is a vocabulary that should be recognized as a normal utterance, particularly as an utterance outside the vehicle, without being based on the intention to do.

特定エリア外辞書12cは、カーナビゲーション装置20を制御するために音声認識されて該カーナビゲーション装置20へと受け渡されるコマンドへ変換されるべき音声認識対象語彙のうち、特定エリア辞書12bに登録されていない全ての語彙を記憶する辞書である。   The specific area outside dictionary 12c is registered in the specific area dictionary 12b among the speech recognition target vocabulary to be converted into a command that is voice-recognized and passed to the car-navigation device 20 in order to control the car navigation device 20. It is a dictionary that stores all vocabulary that is not.

制御部13は、音声認識装置10の全体制御をつかさどるが、特に実施例に関連する特徴的な機能構成としては、音声認識処理部13aと、発話方向判定処理部13bと、コマンド出力処理部13cとを有する。その他の機能構成については省略している。   The control unit 13 is responsible for overall control of the voice recognition device 10. As a characteristic functional configuration particularly related to the embodiment, the voice recognition processing unit 13 a, the speech direction determination processing unit 13 b, and the command output processing unit 13 c are used. And have. Other functional configurations are omitted.

音声認識処理部13aは、車両1の搭乗者によって発話された語彙がマイク14によって検知されると、その検知された発話語彙をひとまず受け付けて一時記憶しておく。そして、車両1の位置が特定エリアであるか否か、車両1の搭乗者の発話方向がカーナビゲーション装置20方向であるか否かの判定結果に応じて、発話語彙を音声認識処理する。なお、単に音声認識と呼ぶ場合は、検知された発話語彙が特定エリア情報12aまたは特定エリア辞書12bに含まれていると判定された場合を示し、音声認識処理は、音声認識を試みる処理である。   When the vocabulary spoken by the passenger of the vehicle 1 is detected by the microphone 14, the speech recognition processing unit 13 a accepts the detected utterance vocabulary for a while and temporarily stores it. The speech vocabulary is subjected to voice recognition processing according to the determination result of whether the position of the vehicle 1 is in the specific area and whether the utterance direction of the passenger of the vehicle 1 is the direction of the car navigation device 20. Note that the term “speech recognition” simply refers to a case where it is determined that the detected utterance vocabulary is included in the specific area information 12a or the specific area dictionary 12b, and the speech recognition process is a process of attempting speech recognition. .

発話方向判定処理部13bは、マイク14によって検知された車両1の搭乗者による発話語彙の発話方向がカーナビゲーション装置20へと向かっているか否かを判定する。発話方向がカーナビゲーション装置20へと向かっていると判定される場合に、音声認識処理部13aは、特定エリア辞書12bおよび特定エリア外辞書12cを使用し、該発話語彙がこれらの辞書に含まれているか否かを判定することによって音声認識し、コマンド変換をおこなう。このコマンド変換されたコマンドは、コマンド出力処理部13cによってカーナビゲーション装置20へと出力される。   The utterance direction determination processing unit 13 b determines whether or not the utterance direction of the utterance vocabulary by the passenger of the vehicle 1 detected by the microphone 14 is directed toward the car navigation device 20. When it is determined that the utterance direction is toward the car navigation device 20, the speech recognition processing unit 13a uses the specific area dictionary 12b and the non-specific area dictionary 12c, and the utterance vocabulary is included in these dictionaries. The voice is recognized by determining whether or not it is, and command conversion is performed. The command converted command is output to the car navigation device 20 by the command output processing unit 13c.

一方、車両1の搭乗者による発話語彙の発話方向がカーナビゲーション装置20へと向かっていると判定されない場合に、音声認識処理部13aは、カーナビゲーション装置20から取得されるGPS位置情報に基づき、車両1の現在の位置が特定エリア情報12aに含まれるか否かを判定し、含まれると判定される場合に、特定エリア外辞書12cのみを使用して、特定エリアで発話されると想定される発話語彙が音声認識されないようにする。これによって、特定エリアにおいて誤った音声認識による車載装置への誤指令を防止することができる。   On the other hand, when it is not determined that the utterance direction of the utterance vocabulary by the passenger of the vehicle 1 is toward the car navigation device 20, the speech recognition processing unit 13a is based on the GPS position information acquired from the car navigation device 20, When it is determined whether or not the current position of the vehicle 1 is included in the specific area information 12a and is determined to be included, it is assumed that the utterance is made in the specific area using only the specific area outside dictionary 12c. Utterance vocabulary is not recognized. Thereby, it is possible to prevent an erroneous command to the in-vehicle device due to erroneous voice recognition in the specific area.

あるいは、音声認識処理部13aは、特定エリア辞書12bおよび特定エリア外辞書12cを使用して音声認識をおこなうことを前提とする。発話方向判定処理部13bによって発話方向がカーナビゲーション装置20へと向かっていると判定されない場合に、音声認識処理部13aは、カーナビゲーション装置20から取得されるGPS位置情報に基づき、車両1の現在の位置が特定エリア情報12aに含まれるか否かを判定する。このとき、車両1の現在の位置が特定エリア情報12aに含まれると判定される場合に、さらに音声認識処理部13aによって車両1の搭乗者による発話語彙が特定エリア辞書12bに含まれると判定された場合には、コマンド出力処理部13cは、音声認識処理部13aによる音声認識結果のコマンドを、カーナビゲーション装置20へと出力することをキャンセルする。これによって、誤った音声認識による車載装置への誤指令を防止することが可能になる。   Alternatively, it is assumed that the voice recognition processing unit 13a performs voice recognition using the specific area dictionary 12b and the specific area outside dictionary 12c. If the utterance direction determination processing unit 13b does not determine that the utterance direction is toward the car navigation device 20, the voice recognition processing unit 13a is based on the GPS position information acquired from the car navigation device 20, and Is determined to be included in the specific area information 12a. At this time, when it is determined that the current position of the vehicle 1 is included in the specific area information 12a, the speech recognition processing unit 13a further determines that the utterance vocabulary by the passenger of the vehicle 1 is included in the specific area dictionary 12b. In the case where the command is received, the command output processing unit 13c cancels the output of the voice recognition result command by the voice recognition processing unit 13a to the car navigation device 20. This makes it possible to prevent erroneous commands to the in-vehicle device due to incorrect voice recognition.

なお、音声認識処理部13aは、発話方向判定処理部13bによって発話方向がカーナビゲーション装置20へと向かっていると判定されない場合に、音声認識処理部13aによってカーナビゲーション装置20から取得されるGPS位置情報に基づき、車両1の現在の位置が特定エリア情報12aに含まれると判定される場合に、さらに音声認識処理部13aによって車両1の搭乗者による発話語彙が特定エリア辞書12bに含まれないと判定されるとき、当該発話語彙を特定エリア辞書12bに登録することとしてもよい。これによって、車両1が特定エリアに位置するときに発話された語彙を自動的に特定エリア辞書12bに登録することが可能になり、特定エリアでの発話語彙の音声認識において誤認識を防ぎ、認識精度を向上させることが可能になる。   Note that the speech recognition processing unit 13a determines the GPS position acquired from the car navigation device 20 by the speech recognition processing unit 13a when the speech direction determination processing unit 13b does not determine that the speech direction is toward the car navigation device 20. When it is determined that the current position of the vehicle 1 is included in the specific area information 12a based on the information, the speech recognition processing unit 13a does not include the utterance vocabulary by the passenger of the vehicle 1 in the specific area dictionary 12b. When determined, the utterance vocabulary may be registered in the specific area dictionary 12b. As a result, the vocabulary spoken when the vehicle 1 is located in the specific area can be automatically registered in the specific area dictionary 12b, and erroneous recognition is prevented and recognized in speech recognition of the spoken vocabulary in the specific area. The accuracy can be improved.

次に、実施例の音声認識処理について説明する。図4は、実施例の音声認識処理手順を示すフローチャートである。同図に示すように、先ず、音声認識処理部13aは、マイク14からの音声情報の入力を受け付ける(ステップS101)。続いて、音声認識処理部13aは、カーナビゲーション装置20からの位置情報の入力を受け付ける(ステップS102)。   Next, the speech recognition process of an Example is demonstrated. FIG. 4 is a flowchart illustrating a speech recognition processing procedure according to the embodiment. As shown in the figure, first, the voice recognition processing unit 13a receives input of voice information from the microphone 14 (step S101). Subsequently, the voice recognition processing unit 13a receives an input of position information from the car navigation device 20 (step S102).

続いて、発話方向判定処理部13bは、発話方向はカーナビゲーション装置20の方向であるか否かを判定する(ステップS103)。発話方向がカーナビゲーション装置20の方向であると判定される場合に(ステップS103肯定)、ステップS104へ移る。一方、発話方向がカーナビゲーション装置20の方向であると判定されない場合に(ステップS103否定)、ステップS105へ移る。   Subsequently, the speech direction determination processing unit 13b determines whether or not the speech direction is a direction of the car navigation device 20 (step S103). When it is determined that the utterance direction is the direction of the car navigation device 20 (Yes at Step S103), the process proceeds to Step S104. On the other hand, when it is not determined that the utterance direction is the direction of the car navigation device 20 (No at Step S103), the process proceeds to Step S105.

ステップS104では、音声認識処理部13aは、音声認識のために特定エリア辞書12bおよび特定エリア外辞書12cを使用するよう設定する。   In step S104, the voice recognition processing unit 13a sets to use the specific area dictionary 12b and the specific area outside dictionary 12c for voice recognition.

ステップS105では、音声認識処理部13aは、カーナビゲーション装置20から取得されるGPS位置情報に基づき車両1の現在の位置が特定エリアであるか否かを判定する。車両1の現在の位置が特定エリアであると判定される場合に(ステップS105肯定)、ステップS106へ移り、車両1の現在の位置が特定エリアであると判定されない場合に(ステップS105否定)、ステップS104へ移る。   In step S105, the voice recognition processing unit 13a determines whether or not the current position of the vehicle 1 is a specific area based on the GPS position information acquired from the car navigation device 20. When it is determined that the current position of the vehicle 1 is a specific area (Yes at Step S105), the process proceeds to Step S106, and when it is not determined that the current position of the vehicle 1 is a specific area (No at Step S105), Control goes to step S104.

ステップS106では、音声認識処理部13aは、音声認識のために特定エリア辞書12bを除外し、特定エリア外辞書12cのみを使用するよう設定する。   In step S106, the voice recognition processing unit 13a excludes the specific area dictionary 12b for voice recognition and sets to use only the non-specific area dictionary 12c.

次に、その他の実施例の音声認識処理について説明する。図5は、その他の実施例の音声認識処理手順を示すフローチャートである。同図に示すように、先ず、音声認識処理部13aは、音声認識のために特定エリア辞書12bおよび特定エリア外辞書12cを使用するよう設定する(ステップS111)。続いて、音声認識処理部13aは、マイク14からの音声情報の入力を受け付ける(ステップS112)。続いて、音声認識処理部13aは、カーナビゲーション装置20からの位置情報の入力を受け付ける(ステップS113)。   Next, speech recognition processing according to another embodiment will be described. FIG. 5 is a flowchart showing a voice recognition processing procedure according to another embodiment. As shown in the figure, first, the voice recognition processing unit 13a sets to use the specific area dictionary 12b and the specific area outside dictionary 12c for voice recognition (step S111). Subsequently, the voice recognition processing unit 13a receives input of voice information from the microphone 14 (step S112). Subsequently, the voice recognition processing unit 13a receives an input of position information from the car navigation device 20 (step S113).

続いて、発話方向判定処理部13bは、発話方向はカーナビゲーション装置20の方向であるか否かを判定する(ステップS114)。発話方向がカーナビゲーション装置20の方向であると判定される場合に(ステップS114肯定)、当該音声認識処理は終了する。一方、発話方向がカーナビゲーション装置20の方向であると判定されない場合に(ステップS114否定)、ステップS115へ移る。   Subsequently, the speech direction determination processing unit 13b determines whether or not the speech direction is a direction of the car navigation device 20 (step S114). When it is determined that the utterance direction is the direction of the car navigation device 20 (Yes in step S114), the voice recognition process ends. On the other hand, when it is not determined that the utterance direction is the direction of the car navigation device 20 (No in step S114), the process proceeds to step S115.

ステップS115では、音声認識処理部13aは、カーナビゲーション装置20から取得されるGPS位置情報に基づき車両1の現在の位置が特定エリアであるか否かを判定する。車両1の現在の位置が特定エリアであると判定される場合に(ステップS115肯定)、ステップS116へ移り、車両1の現在の位置が特定エリアであると判定されない場合に(ステップS115否定)、当該音声認識処理は終了する。   In step S115, the voice recognition processing unit 13a determines whether or not the current position of the vehicle 1 is a specific area based on the GPS position information acquired from the car navigation device 20. When it is determined that the current position of the vehicle 1 is a specific area (Yes at Step S115), the process proceeds to Step S116, and when it is not determined that the current position of the vehicle 1 is a specific area (No at Step S115), The voice recognition process ends.

ステップS116では、音声認識処理部13aによる発話語彙が特定エリア辞書12bの語彙に含まれる場合には、コマンド出力処理部13cは、音声認識処理部13aによる音声認識結果のコマンドを、カーナビゲーション装置20へと出力することをキャンセルする。これによって、誤った音声認識による車載装置への誤指令を防止することが可能になる。   In step S116, when the utterance vocabulary by the speech recognition processing unit 13a is included in the vocabulary of the specific area dictionary 12b, the command output processing unit 13c sends the command of the speech recognition result by the speech recognition processing unit 13a to the car navigation device 20. Canceling output to. This makes it possible to prevent erroneous commands to the in-vehicle device due to incorrect voice recognition.

次に、実施例の認識語彙登録処理について説明する。図6は、実施例の認識語彙登録処理手順を示すフローチャートである。図6の認識語彙登録処理手順は、図5に示したその他の実施例の音声認識処理手順とステップ番号が同一である処理は処理内容が同一である。その一方で、図6の認識語彙登録処理手順は、図5に示したその他の実施例の音声認識処理手順のステップS115の次に判定処理であるステップS115aが挿入され、その判定結果が肯定の場合にステップS116へ移り、判定結果が否定の場合にステップS116aへと移る。   Next, the recognition vocabulary registration process of an Example is demonstrated. FIG. 6 is a flowchart illustrating a recognized vocabulary registration processing procedure according to the embodiment. The recognition vocabulary registration processing procedure of FIG. 6 is the same as the speech recognition processing procedure of the other embodiment shown in FIG. On the other hand, in the recognition vocabulary registration processing procedure of FIG. 6, step S115a which is a determination processing is inserted after step S115 of the speech recognition processing procedure of the other embodiment shown in FIG. 5, and the determination result is affirmative. If the determination result is negative, the process proceeds to step S116a.

ステップS115aでは、音声認識処理部13aは、特定エリア辞書12bに、音声認識された発話語彙の登録が存在するか否かを判定する。特定エリア辞書12bに、音声認識された発話語彙の登録が存在すると判定される場合に(ステップS115a肯定)、コマンド出力処理部13cは、音声認識処理部13aによる音声認識結果のコマンドを、カーナビゲーション装置20へと出力することをキャンセルする(ステップS116)。一方、特定エリア辞書12bに、音声認識された発話語彙の登録が存在すると判定されない場合に(ステップS115a否定)、音声認識された語彙を特定エリア辞書12bに登録する(ステップS116a)。以上の処理によって、特定エリア語彙辞書12bの登録語彙を自動的に増加させ、車外への発話の認識精度を向上させることが可能になる。   In step S115a, the speech recognition processing unit 13a determines whether or not there is a registered speech vocabulary that has been speech-recognized in the specific area dictionary 12b. When it is determined that there is a registered speech utterance vocabulary in the specific area dictionary 12b (Yes in step S115a), the command output processing unit 13c uses the command of the speech recognition result by the speech recognition processing unit 13a as a car navigation system. The output to the apparatus 20 is canceled (step S116). On the other hand, if it is not determined that the speech-recognized utterance vocabulary is registered in the specific area dictionary 12b (No in step S115a), the speech-recognized vocabulary is registered in the specific area dictionary 12b (step S116a). Through the above processing, the registered vocabulary of the specific area vocabulary dictionary 12b can be automatically increased, and the recognition accuracy of utterances outside the vehicle can be improved.

以上、本発明の実施例を説明したが、本発明は、これに限られるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施例で実施されてもよいものである。また、実施例に記載した効果は、これに限定されるものではない。   As mentioned above, although the Example of this invention was described, this invention is not limited to this, In the range of the technical idea described in the claim, even if it implements in a various different Example, it is. It ’s good. Moreover, the effect described in the Example is not limited to this.

また、上記実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記実施例で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, information including various data and parameters shown in the above embodiment can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Each component of each illustrated device is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)(またはMPU(Micro Processing Unit)、MCU(Micro Controller Unit)などのマイクロ・コンピュータ)および当該CPU(またはMPU、MCUなどのマイクロ・コンピュータ)にて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されてもよい。   Furthermore, each or all of the processing functions performed in each device are entirely or partially a CPU (Central Processing Unit) (or a microcomputer such as an MPU (Micro Processing Unit) or MCU (Micro Controller Unit)) and It may be realized by a program that is analyzed and executed by the CPU (or a microcomputer such as MPU or MCU), or may be realized as hardware by wired logic.

本発明は、車載装置に対する発話と、車両外部への発話とを区別し、車両外部への発話を車載装置への発話として誤認識することを防止したい場合に有用である。   The present invention is useful when it is desired to distinguish between an utterance to the in-vehicle device and an utterance to the outside of the vehicle and to prevent erroneous recognition of the utterance to the outside of the vehicle as an utterance to the on-vehicle device.

実施例にかかる音声認識装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the speech recognition apparatus concerning an Example. 特定地点位置情報記憶テーブルの例を示す図である。It is a figure which shows the example of a specific point position information storage table. 特定地点発話語彙テーブルの例を示す図である。It is a figure which shows the example of a specific point utterance vocabulary table. 実施例の音声認識処理手順を示すフローチャートである。It is a flowchart which shows the speech recognition process sequence of an Example. その他の実施例の音声認識処理手順を示すフローチャートである。It is a flowchart which shows the speech recognition process sequence of another Example. 実施例の認識語彙登録処理手順を示すフローチャートである。It is a flowchart which shows the recognition vocabulary registration process sequence of an Example.

符号の説明Explanation of symbols

1 車両
10 音声認識装置
11a 表示部
11b 音声発生部
12 記憶部
12a 特定エリア情報
12b 特定エリア辞書
12c 特定エリア外辞書
13 制御部
13a 音声認識処理部
13b 発話方向判定処理部
13c コマンド出力処理部
14 マイク
20 カーナビゲーション装置
DESCRIPTION OF SYMBOLS 1 Vehicle 10 Voice recognition apparatus 11a Display part 11b Voice generation part 12 Storage part 12a Specific area information 12b Specific area dictionary 12c Non-specific area dictionary 13 Control part 13a Speech recognition process part 13b Speech direction determination process part 13c Command output process part 14 Microphone 20 Car navigation system

Claims (8)

車両の搭乗者によって発話された語彙が語彙記憶手段に記憶されている音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識する音声認識手段と、該音声認識手段によって音声認識された結果をコマンドへ変換して車載装置へと受け渡すコマンド変換手段とを有する音声認識装置であって、
前記語彙記憶手段は、前記音声認識対象語彙のうち特定地点で前記搭乗者が発話すると想定される音声認識対象語彙を、該特定地点に対応する位置情報に対応付けて記憶する特定地点語彙記憶手段と、前記特定地点語彙記憶手段に記憶される語彙以外の前記音声認識対象語彙を記憶する特定地点外語彙記憶手段とを含むことを特徴とする音声認識装置。
Speech recognition means for recognizing the spoken vocabulary by determining whether or not a vocabulary spoken by a passenger of the vehicle is included in a speech recognition target vocabulary stored in the vocabulary storage means; and the speech recognition A speech recognition device having command conversion means for converting a result of speech recognition by the means into a command and passing it to the in-vehicle device,
The vocabulary storage means stores the speech recognition target vocabulary that is assumed to be spoken by the passenger at a specific location in the speech recognition target vocabulary in association with the position information corresponding to the specific location. And a non-specific point vocabulary storage unit for storing the speech recognition target vocabulary other than the vocabulary stored in the specific point vocabulary storage unit.
前記特定地点と該特定地点に対応する位置情報とを対応付けて記憶する位置情報記憶手段と、
前記車両が位置する位置情報が前記位置情報記憶手段に含まれるか否かを判定する位置情報判定手段と
をさらに有することを特徴とする請求項1に記載の音声認識装置。
Position information storage means for storing the specific point and position information corresponding to the specific point in association with each other;
The voice recognition device according to claim 1, further comprising: position information determination means for determining whether or not position information on which the vehicle is located is included in the position information storage means.
前記音声認識手段は、前記位置情報判定手段によって前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定された場合に、前記搭乗者によって発話された語彙が前記特定地点外語彙記憶手段に記憶されている前記音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識し、前記位置情報判定手段によって前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定されなかった場合に、前記搭乗者によって発話された語彙が前記特定地点語彙記憶手段および前記特定地点外語彙記憶手段に記憶されている前記音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識することを特徴とする請求項2に記載の音声認識装置。   The speech recognition means stores the vocabulary spoken by the passenger when the position information determination means determines that the position information where the vehicle is located is included in the position information storage means. The spoken vocabulary is voice-recognized by determining whether it is included in the speech recognition target vocabulary stored in the means, and the position information determining means stores the position information where the vehicle is located in the position information storage Whether or not a vocabulary spoken by the passenger is included in the speech recognition target vocabulary stored in the specific point vocabulary storage unit and the non-specific point vocabulary storage unit when it is not determined to be included in the unit The speech recognition apparatus according to claim 2, wherein the spoken vocabulary is recognized by speech by determining whether or not the speech is spoken. 前記コマンド変換手段は、前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定された場合に、前記音声認識手段によって前記搭乗者による前記発話された語彙が前記特定地点語彙記憶手段に記憶されている前記音声認識対象語彙に含まれると判定されたとき、該音声認識手段によって音声認識された結果をコマンドへ変換して車載装置へと受け渡すことをキャンセルすることを特徴とする請求項2または3に記載の音声認識装置。   When it is determined that the position information storage means includes the position information where the vehicle is located, the command conversion means converts the vocabulary spoken by the passenger by the voice recognition means into the specific point vocabulary storage means. When it is determined that the vocabulary is included in the speech recognition target vocabulary stored in the memory, the result of speech recognition performed by the speech recognition means is converted into a command and transferred to the in-vehicle device is canceled. The speech recognition apparatus according to claim 2 or 3. 前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定された場合に、前記音声認識手段によって前記搭乗者による前記発話された語彙が前記特定地点語彙記憶手段に記憶されている前記音声認識対象語彙に含まれると判定されなかったとき、該発話された語彙を該位置情報に対応する前記特定地点に対応付けて前記特定地点語彙記憶手段に登録する認識語彙登録手段をさらに有することを特徴とする請求項4に記載の音声認識装置。   When it is determined that the position information storage means includes the position information where the vehicle is located, the vocabulary spoken by the passenger by the voice recognition means is stored in the specific point vocabulary storage means A recognition vocabulary registration unit that registers the spoken vocabulary in the specific point vocabulary storage unit in association with the specific point corresponding to the position information when it is not determined to be included in the speech recognition target vocabulary; The voice recognition device according to claim 4. 前記搭乗者による前記発話された語彙の発話方向が前記車載装置方向であるか否かを判定する発話方向判定手段をさらに有し、
前記位置情報判定手段は、前記発話方向判定手段によって前記搭乗者による前記発話された語彙の発話方向が前記車載装置方向でないと判定された場合にのみ、前記車両が位置する位置情報が前記位置情報記憶手段に含まれるか否かを判定することを特徴とする請求項2〜5のいずれか一つに記載の音声認識装置。
Utterance direction determination means for determining whether the utterance direction of the spoken vocabulary by the passenger is the in-vehicle device direction;
The position information determination means determines that the position information of the vehicle is the position information only when the utterance direction determination means determines that the utterance direction of the spoken vocabulary by the passenger is not the in-vehicle device direction. 6. The speech recognition apparatus according to claim 2, wherein it is determined whether or not it is included in a storage unit.
車両の搭乗者によって発話された語彙が音声認識辞書に記憶されている音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識する音声認識工程と、該音声認識工程によって音声認識された結果をコマンドへ変換して車載装置へと受け渡すコマンド変換工程とを含む音声認識方法であって、
前記音声認識辞書は、前記音声認識対象語彙のうち特定地点で前記搭乗者が発話すると想定される音声認識対象語彙を、該特定地点に対応する位置情報に対応付けて記憶する特定地点語彙辞書と、前記特定地点語彙辞書に記憶される語彙以外の前記音声認識対象語彙を記憶する特定地点外語彙辞書とを含み、
前記音声認識工程は、前記車両が位置する位置情報が特定地点に対応する位置情報か否かを判定する位置情報判定工程によって前記車両が位置する位置情報が前記特定地点に対応する位置情報であると判定された場合に、前記搭乗者によって発話された語彙が前記特定地点外語彙辞書に記憶されている前記音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識し、前記位置情報判定工程によって前記車両が位置する位置情報が前記特定地点に対応する位置情報であると判定されなかった場合に、前記搭乗者によって発話された語彙が前記特定地点語彙辞書および前記特定地点外語彙辞書に記憶されている前記音声認識対象語彙に含まれるか否かを判定することによって該発話された語彙を音声認識することを特徴とする音声認識方法。
A speech recognition step for recognizing the spoken vocabulary by determining whether or not a vocabulary spoken by a vehicle occupant is included in a speech recognition target vocabulary stored in the speech recognition dictionary; and the speech recognition A voice recognition method including a command conversion step of converting a result of voice recognition by the step into a command and transferring it to the in-vehicle device,
The voice recognition dictionary is a specific point vocabulary dictionary that stores a voice recognition target vocabulary that the passenger is supposed to utter at a specific point in the voice recognition target vocabulary in association with position information corresponding to the specific point. A vocabulary dictionary outside the specific point that stores the speech recognition target vocabulary other than the vocabulary stored in the specific point vocabulary dictionary,
In the voice recognition step, the position information where the vehicle is located by the position information determination step for determining whether the position information where the vehicle is located is position information corresponding to the specific point is position information corresponding to the specific point. The vocabulary spoken by the passenger is included in the speech recognition target vocabulary stored in the off-site vocabulary dictionary to determine whether the spoken vocabulary The vocabulary spoken by the passenger when the position information determining step recognizes that the position information where the vehicle is located is not the position information corresponding to the specific point, and the specific point vocabulary dictionary and Speech recognition of the spoken vocabulary by determining whether it is included in the speech recognition target vocabulary stored in the vocabulary outside the specific location Speech recognition method according to claim.
前記コマンド変換工程は、前記車両が位置する位置情報が前記位置情報記憶手段に含まれると判定された場合に、前記音声認識工程によって前記搭乗者による前記発話された語彙が前記特定地点語彙辞書に記憶されている前記音声認識対象語彙に含まれると判定されたとき、該音声認識工程によって音声認識された結果をコマンドへ変換して車載装置へと受け渡すことをキャンセルすることを特徴とする請求項7に記載の音声認識方法。   In the command conversion step, when it is determined that the position information storage means includes the position information where the vehicle is located, the vocabulary spoken by the passenger in the voice recognition step is added to the specific point vocabulary dictionary. When it is determined that the vocabulary is included in the stored speech recognition target vocabulary, the result of speech recognition by the speech recognition step is converted into a command and the transfer to the in-vehicle device is canceled. Item 8. The speech recognition method according to Item 7.
JP2007155213A 2007-06-12 2007-06-12 Voice recognition device and voice recognition method Pending JP2008309865A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007155213A JP2008309865A (en) 2007-06-12 2007-06-12 Voice recognition device and voice recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007155213A JP2008309865A (en) 2007-06-12 2007-06-12 Voice recognition device and voice recognition method

Publications (1)

Publication Number Publication Date
JP2008309865A true JP2008309865A (en) 2008-12-25

Family

ID=40237551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007155213A Pending JP2008309865A (en) 2007-06-12 2007-06-12 Voice recognition device and voice recognition method

Country Status (1)

Country Link
JP (1) JP2008309865A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015167076A1 (en) * 2014-04-30 2015-11-05 현대엠엔소프트 주식회사 Voice recognition-based navigation system control method and navigation system
WO2016175443A1 (en) * 2015-04-30 2016-11-03 주식회사 아마다스 Method and apparatus for information search using voice recognition

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0497400A (en) * 1990-08-16 1992-03-30 Fujitsu Ten Ltd Voice recognition device
JPH08179790A (en) * 1994-12-21 1996-07-12 Oki Electric Ind Co Ltd Speech recognizing device
JPH08320697A (en) * 1995-05-23 1996-12-03 Hitachi Ltd Speech recognition device
JP2000020089A (en) * 1998-07-07 2000-01-21 Matsushita Electric Ind Co Ltd Speed recognition method and apparatus therefor as well as voice control system
JP2003021530A (en) * 2001-07-09 2003-01-24 Matsushita Electric Ind Co Ltd Search method and device for in-area facility by voice
JP2003084795A (en) * 2001-09-10 2003-03-19 Kenwood Corp On-vehicle voice recognition system
JP2004163458A (en) * 2002-11-08 2004-06-10 Sony Corp Speech recognition apparatus
JP2005227686A (en) * 2004-02-16 2005-08-25 Sharp Corp Speech recognizer, speech recognition program and recording medium
JP2006023444A (en) * 2004-07-07 2006-01-26 Nissan Motor Co Ltd Speech dialog system
JP2006064810A (en) * 2004-08-25 2006-03-09 Nissan Motor Co Ltd Navigation device
JP2006330577A (en) * 2005-05-30 2006-12-07 Alpine Electronics Inc Device and method for speech recognition

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0497400A (en) * 1990-08-16 1992-03-30 Fujitsu Ten Ltd Voice recognition device
JPH08179790A (en) * 1994-12-21 1996-07-12 Oki Electric Ind Co Ltd Speech recognizing device
JPH08320697A (en) * 1995-05-23 1996-12-03 Hitachi Ltd Speech recognition device
JP2000020089A (en) * 1998-07-07 2000-01-21 Matsushita Electric Ind Co Ltd Speed recognition method and apparatus therefor as well as voice control system
JP2003021530A (en) * 2001-07-09 2003-01-24 Matsushita Electric Ind Co Ltd Search method and device for in-area facility by voice
JP2003084795A (en) * 2001-09-10 2003-03-19 Kenwood Corp On-vehicle voice recognition system
JP2004163458A (en) * 2002-11-08 2004-06-10 Sony Corp Speech recognition apparatus
JP2005227686A (en) * 2004-02-16 2005-08-25 Sharp Corp Speech recognizer, speech recognition program and recording medium
JP2006023444A (en) * 2004-07-07 2006-01-26 Nissan Motor Co Ltd Speech dialog system
JP2006064810A (en) * 2004-08-25 2006-03-09 Nissan Motor Co Ltd Navigation device
JP2006330577A (en) * 2005-05-30 2006-12-07 Alpine Electronics Inc Device and method for speech recognition

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015167076A1 (en) * 2014-04-30 2015-11-05 현대엠엔소프트 주식회사 Voice recognition-based navigation system control method and navigation system
WO2016175443A1 (en) * 2015-04-30 2016-11-03 주식회사 아마다스 Method and apparatus for information search using voice recognition
US10403277B2 (en) 2015-04-30 2019-09-03 Amadas Co., Ltd. Method and apparatus for information search using voice recognition

Similar Documents

Publication Publication Date Title
US8005681B2 (en) Speech dialog control module
US8010359B2 (en) Speech recognition system, speech recognition method and storage medium
US20160039356A1 (en) Establishing microphone zones in a vehicle
US20130253933A1 (en) Voice recognition device and navigation device
WO2017081960A1 (en) Voice recognition control system
US20170229120A1 (en) Motor vehicle operating device with a correction strategy for voice recognition
JP2009020423A (en) Speech recognition device and speech recognition method
JP2004506971A (en) Voice input / output control method
CA2894117A1 (en) Audio command intent determination system and method
JP2017090612A (en) Voice recognition control system
JP2010156825A (en) Voice output device
WO2018167949A1 (en) In-car call control device, in-car call system and in-car call control method
JP6459330B2 (en) Speech recognition apparatus, speech recognition method, and speech recognition program
CN111199735A (en) Vehicle-mounted device and voice recognition method
JP2001013994A (en) Device and method to voice control equipment for plural riders and vehicle
JP2018116130A (en) In-vehicle voice processing unit and in-vehicle voice processing method
JP4770374B2 (en) Voice recognition device
JP2008309865A (en) Voice recognition device and voice recognition method
JP2008046299A (en) Speech recognition apparatus
JP2018116206A (en) Voice recognition device, voice recognition method and voice recognition system
JP2004301875A (en) Speech recognition device
JP2004184803A (en) Speech recognition device for vehicle
JP7192561B2 (en) Audio output device and audio output method
US20150039312A1 (en) Controlling speech dialog using an additional sensor
JP2019212168A (en) Speech recognition system and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120306