JP2015129794A - Voice recognition apparatus - Google Patents

Voice recognition apparatus Download PDF

Info

Publication number
JP2015129794A
JP2015129794A JP2014000265A JP2014000265A JP2015129794A JP 2015129794 A JP2015129794 A JP 2015129794A JP 2014000265 A JP2014000265 A JP 2014000265A JP 2014000265 A JP2014000265 A JP 2014000265A JP 2015129794 A JP2015129794 A JP 2015129794A
Authority
JP
Japan
Prior art keywords
speech
phrase
vehicle
recognized
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014000265A
Other languages
Japanese (ja)
Other versions
JP6314478B2 (en
Inventor
直頼 丹澤
Tadanori Tanzawa
直頼 丹澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014000265A priority Critical patent/JP6314478B2/en
Publication of JP2015129794A publication Critical patent/JP2015129794A/en
Application granted granted Critical
Publication of JP6314478B2 publication Critical patent/JP6314478B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce erroneous function execution caused by a conversation with the surroundings or a monologue of an operator.SOLUTION: It is analyzed whether or not a voice-recognized speech production phrase is finished in the form of indeclinable stop or in an imperative form of a verb (21-23), and a function corresponding to the voice-recognized speech production phrase is executed on condition that the voice-recognized speech production phrase is finished in the form of indeclinable stop or an imperative form of a verb as the result of the analysis.

Description

本発明は、ユーザが発話した発話フレーズを音声認識する音声認識装置に関するものである。   The present invention relates to a speech recognition apparatus that recognizes speech phrases spoken by a user.

この種の装置として、ユーザの音声を常時入力し、予め登録された操作コマンドの一致/不一致を常時照合し、一致する操作コマンドを認識したときに機能を実行するようにしたものがある(例えば、特許文献1参照)。   As this type of device, there is one in which a user's voice is constantly input, matching / non-matching of operation commands registered in advance is always checked, and a function is executed when a matching operation command is recognized (for example, , See Patent Document 1).

特開平2001−51694号公報JP-A-2001-51694

しかしながら、上記特許文献1に記載された装置は、例えば、周囲との会話に含まれる発話フレーズや、ユーザの独り言に含まれる発話フレーズが、予め登録された操作コマンドと一致してしまうと、登録された操作コマンドが発話されたものと誤って判断されてしまう。この場合、誤って判断された操作コマンドに応じた機能がユーザの意に反して実行されてしまうといった問題がある。   However, the device described in Patent Document 1 is registered when, for example, an utterance phrase included in a conversation with a surrounding person or an utterance phrase included in a user's monologue matches an operation command registered in advance. It is erroneously determined that the operated command is spoken. In this case, there is a problem that a function corresponding to the operation command that is erroneously determined is executed against the user's will.

本発明は上記問題に鑑みたもので、周囲との会話や運転者の独り言による誤った機能実行を低減することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to reduce erroneous execution of functions due to conversation with the surroundings or driver's monologue.

上記目的を達成するため、請求項1に記載の発明は、ユーザが発話した発話フレーズを音声認識し、この音声認識により音声認識された発話フレーズが予め定められた登録されたフレーズと一致した場合に音声認識された発話フレーズに応じた機能を実行する音声認識装置であって、音声認識された発話フレーズが体言止めまたは動詞の命令形で終わるものとなっているか否かを解析する解析手段と、解析手段の解析結果が、音声認識された発話したフレーズが体言止めまたは動詞の命令形で終わるものとなっていることを条件として、音声認識された発話フレーズに応じた機能を実行する機能実行手段と、を備えたことを特徴としている。   In order to achieve the above object, the invention according to claim 1 recognizes an utterance phrase spoken by a user by voice, and the utterance phrase recognized by voice recognition by this voice recognition matches a predetermined registered phrase. A speech recognition device that performs a function corresponding to a speech phrase that has been speech-recognized, and that analyzes whether the speech phrase that has been speech-recognized ends with a verbal stop or verb command form; Execute the function corresponding to the speech-recognized utterance phrase, provided that the analysis result of the analysis means is that the speech-recognized utterance phrase ends with a verbal stop or verb command form Means.

このような構成によれば、音声認識された発話フレーズが体言止めまたは動詞の命令形で終わるものとなっているか否かを解析し、この解析の結果が、音声認識された発話したフレーズが体言止めまたは動詞の命令形で終わるものとなっていることを条件として、音声認識された発話フレーズに応じた機能が実行されるようになっており、例えば、周囲との会話や運転者の独り言に多くみられるような発話フレーズが形容詞で終わるような場合には、音声認識された発話フレーズに応じた機能が実行されないので、周囲との会話や運転者の独り言による誤った機能実行を低減することができる。   According to such a configuration, it is analyzed whether or not a speech-recognized utterance phrase ends with a verbal stop or verb command form, and the result of this analysis is a speech-recognized utterance phrase A function corresponding to a speech-recognized utterance phrase is executed on the condition that it ends with a stop or verb command form.For example, in a conversation with the surroundings or a driver's monologue When a common utterance phrase ends with an adjective, the function corresponding to the speech-recognized utterance phrase is not executed, so that the wrong function execution due to conversation with the surroundings or the driver's monologue is reduced. Can do.

本発明の一実施形態に係る音声認識装置の構成を示す図である。It is a figure which shows the structure of the speech recognition apparatus which concerns on one Embodiment of this invention. 制御装置のフローチャートである。It is a flowchart of a control apparatus. 音声コントローラのフローチャートである。It is a flowchart of a voice controller.

本発明の一実施形態に係る音声認識装置の構成を図1に示す。本音声認識装置は、車両に搭載されるナビゲーション装置として構成されている。本ナビゲーション装置は、制御装置10、音声コントローラ20、音響分析部21、音声認識部22および文法解析部23を備えている。制御装置10には、車両の各座席(運転席、助手席、後部座席等)の座面の圧力を検出する圧力センサ(図示せず)から検知信号が入力されるようになっている。また、音響分析部21には、車室内の音声を集音するマイク30が接続されている。   The configuration of a speech recognition apparatus according to an embodiment of the present invention is shown in FIG. The voice recognition device is configured as a navigation device mounted on a vehicle. The navigation device includes a control device 10, a voice controller 20, an acoustic analysis unit 21, a voice recognition unit 22, and a grammar analysis unit 23. A detection signal is input to the control device 10 from a pressure sensor (not shown) that detects the pressure of the seating surface of each seat (driver's seat, front passenger seat, rear seat, etc.) of the vehicle. The acoustic analysis unit 21 is connected to a microphone 30 that collects sound in the passenger compartment.

制御装置10は、CPU、RAM、ROM、フラッシュメモリ、I/O等を備えたコンピュータとして構成されており、CPUはROMに記憶されたプログラムに従って各種処理を実施する。   The control device 10 is configured as a computer including a CPU, a RAM, a ROM, a flash memory, an I / O, and the like. The CPU performs various processes according to a program stored in the ROM.

なお、図1中には示してないが、制御装置10には、車両の現在位置を特定するための位置検出器(車速センサ、ジャイロスコープ、GPS受信機)、地図テータを入力するための地図データ入力器、楽曲再生やラジオを受信するオーディオ機器、車室内の温度を快適な温度の調整するための車両用空調装置、無線通信網を介して外部機器と通信を行うための通信装置、液晶等のディスプレイを有する表示部、音声を出力するためのスピーカ等が接続されている。   Although not shown in FIG. 1, a map for inputting a position detector (vehicle speed sensor, gyroscope, GPS receiver) for specifying the current position of the vehicle, and map data to the control device 10. Data input device, audio equipment for music playback and radio reception, vehicle air conditioner for comfortable adjustment of vehicle interior temperature, communication device for communicating with external devices via wireless communication network, liquid crystal A display unit having a display such as a speaker, a speaker for outputting sound, and the like are connected.

制御装置10は、車両の現在位置を特定するための位置検出器(車速センサ、ジャイロスコープ、GPS受信機)より入力される現在位置を特定するための信号に基づいて現在位置を特定する現在位置特定処理、車両の周辺の地図上に現在位置マークを重ねた画像を表示部に表示させる地図表示処理、ユーザ操作に応じてオーディオ機器に楽曲再生やラジオの受信を指示するオーディオ機器制御処理、ユーザ操作に応じて車両用空調装置を制御する車両用空調装置制御処理、通信装置を介した通信制御処理等を実施する。   The control device 10 specifies the current position based on a signal for specifying the current position input from a position detector (vehicle speed sensor, gyroscope, GPS receiver) for specifying the current position of the vehicle. Specific processing, map display processing for displaying an image with the current position mark superimposed on a map around the vehicle on the display unit, audio device control processing for instructing audio device to play music or receive radio according to user operation, user A vehicle air conditioner control process for controlling the vehicle air conditioner according to the operation, a communication control process via the communication apparatus, and the like are performed.

音声コントローラ20は、制御装置10からの指示に従い、音響分析部21、音声認識部22および文法解析部23を制御する。音声コントローラ20は、CPU、RAM、ROM、フラッシュメモリ、I/O等を備えたコンピュータとして構成されており、CPUはROMに記憶されたプログラムに従って各種処理を実施する。   The voice controller 20 controls the acoustic analysis unit 21, the voice recognition unit 22, and the grammar analysis unit 23 in accordance with instructions from the control device 10. The audio controller 20 is configured as a computer including a CPU, RAM, ROM, flash memory, I / O, and the like, and the CPU performs various processes according to programs stored in the ROM.

音響分析部21は、マイク30より継続的に音声データを取り込み、この音声データを順次音響分析して音響的特徴量を抽出し、この音響分析によって得られた音響的特徴量時系列データを、いくつかの区間に分割し、分割した結果を分析結果として音声コントローラ20へ通知する。   The acoustic analysis unit 21 continuously captures voice data from the microphone 30, sequentially analyzes the voice data to extract acoustic feature amounts, and obtains the acoustic feature amount time-series data obtained by the acoustic analysis, Dividing into several sections, the divided result is notified to the voice controller 20 as an analysis result.

音声認識部22は、音声コントローラ20を介して音響分析部21の分析結果を取得し、この分析結果に基づいて乗員が発話した発話フレーズの認識処理を行う。すなわち、音声認識部22は、音響分析部21により分割された各区間が辞書データとして格納されたどの単語に対応しているかを判定することで入力音声中の単語系列を認識し、認識した結果を音声コントローラ20へ通知する。   The voice recognition unit 22 acquires the analysis result of the acoustic analysis unit 21 via the voice controller 20, and performs processing for recognizing an utterance phrase spoken by the occupant based on the analysis result. That is, the speech recognition unit 22 recognizes a word sequence in the input speech by determining which word stored as dictionary data corresponds to each section divided by the acoustic analysis unit 21, and results of recognition. To the voice controller 20.

文法解析部23は、音声コントローラ20を介して音声認識部22の認識結果を取得し、この認識結果に基づいて、乗員が発話した発話フレーズの文法の解析処理を行う。すなわち、文法解析部23は、音声認識部22により認識された入力音声中の単語系列を、各品詞に分解するとともに、乗員が発話した発話フレーズが体言止めもしくは命令形であるか否かを解析し、解析した結果を音声コントローラ20へ通知する。   The grammar analysis unit 23 acquires the recognition result of the voice recognition unit 22 via the voice controller 20, and performs grammar analysis processing of the utterance phrase uttered by the occupant based on the recognition result. That is, the grammar analysis unit 23 decomposes the word sequence in the input speech recognized by the speech recognition unit 22 into parts of speech, and analyzes whether the utterance phrase uttered by the occupant is a body stop or command form. Then, the analyzed result is notified to the voice controller 20.

本ナビゲーション装置は、ユーザが発話した発話フレーズを常時音声認識し、この常時音声認識により音声認識された発話フレーズが予め定められた登録されたフレーズと一致した場合に音声認識された発話フレーズに応じた機能を実行する処理を行う。   This navigation device always recognizes a speech phrase spoken by the user, and responds to the speech phrase recognized when the speech phrase recognized by the continuous speech recognition matches a predetermined registered phrase. Process to execute the function.

また、本実施形態におけるナビゲーション装置は、音声認識された発話フレーズが体言止めまたは動詞の命令形で終わるものとなっているか否かを解析し、この解析の結果が、音声認識された発話したフレーズが体言止めまたは動詞の命令形で終わるものとなっていることを条件として、音声認識された発話フレーズに応じた機能を実行する処理を行う。   Further, the navigation device according to the present embodiment analyzes whether or not the speech-recognized utterance phrase ends with a verbal stop or verb command form, and the result of this analysis is the speech-recognized utterance phrase. On the condition that the sentence ends with a verbal stop or verb command form, a process for executing a function corresponding to the speech-recognized utterance phrase is performed.

次に、本ナビゲーション装置の制御装置10と音声コントローラ20の処理について説明する。図2に、制御装置10のフローチャートを示す。また、図3に、音声コントローラ20のフローチャートを示す。   Next, processing of the control device 10 and the voice controller 20 of the navigation device will be described. FIG. 2 shows a flowchart of the control device 10. FIG. 3 shows a flowchart of the voice controller 20.

本ナビゲーション装置は、車両のイグニッションスイッチがオン状態になると動作状態となり、制御装置10は、図2に示す処理を実施し、音声コントローラ20は、図3に示す処理を実施する。   The navigation device is in an operational state when the ignition switch of the vehicle is turned on, the control device 10 performs the process shown in FIG. 2, and the voice controller 20 performs the process shown in FIG.

まず、制御装置10は、図2に示すように、車両情報を取得する(S100)。本実施形態では、車両の各座席(運転席、助手席、後部座席等)に設けられた圧力センサからの検知信号を車両情報として取得する。   First, the control apparatus 10 acquires vehicle information as shown in FIG. 2 (S100). In this embodiment, the detection signal from the pressure sensor provided in each seat (driver's seat, front passenger seat, rear seat, etc.) of the vehicle is acquired as vehicle information.

次に、車両に同乗者が存在するか否かを判定する(S102)。具体的には、車両の各座席(運転席、助手席、後部座席等)に設けられた圧力センサの検知信号に基づいて運転席以外の座席に乗員が存在するか否かを判定する。   Next, it is determined whether or not a passenger is present in the vehicle (S102). Specifically, it is determined whether a passenger is present in a seat other than the driver seat based on a detection signal of a pressure sensor provided in each seat of the vehicle (driver seat, passenger seat, rear seat, etc.).

ここで、車両の運転席以外の座席に同乗者が乗車している場合、S102の判定はNOとなり、次に、制御装置10から音声コントローラ20へ音声認識の開始指示が通知される(S104)。   Here, if a passenger is in a seat other than the driver's seat of the vehicle, the determination in S102 is NO, and then the voice recognition start instruction is notified from the control device 10 to the voice controller 20 (S104). .

一方、音声コントローラ20は、図3に示すように、まず、制御装置10より音声認識の開始指示を受信したか否かを判定する(S200)。制御装置10より音声認識の開始指示が受信されない場合、S200の判定はNOとなり、S200の判定が繰り返し実施される。   On the other hand, as shown in FIG. 3, the voice controller 20 first determines whether or not a voice recognition start instruction has been received from the control device 10 (S200). When a voice recognition start instruction is not received from the control device 10, the determination in S200 is NO, and the determination in S200 is repeatedly performed.

そして、制御装置10からの音声認識の開始指示が音声コントローラ20に通知されると、S200の判定はYESとなり、音声コントローラ20は、音響分析部21に音声取り込みを指示する(S202)。   Then, when the voice controller 20 is notified of the voice recognition start instruction from the control device 10, the determination in S200 is YES, and the voice controller 20 instructs the acoustic analysis unit 21 to capture voice (S202).

音響分析部21は、この音声コントローラ20からの指示に応じて、マイク30より継続的に音声データを取り込み、この音声データを順次音響分析して音響的特徴量を抽出し、この音響分析によって得られた音響的特徴量時系列データを、いくつかの区間に分割し、分割した結果を分析結果として音声コントローラ20へ通知する。なお、音響分析部21は、音声データを順次音響分析して、無音状態が一定期間以上継続すると、乗員の一連の発話フレーズが終了したものとみなし、乗員の発話フレーズ単位で、分析結果を音声コントローラ20へ通知する。   The acoustic analysis unit 21 continuously captures voice data from the microphone 30 in accordance with an instruction from the voice controller 20, and sequentially analyzes the voice data to extract an acoustic feature amount. The obtained acoustic feature amount time-series data is divided into several sections, and the divided result is notified to the voice controller 20 as an analysis result. The acoustic analysis unit 21 sequentially analyzes the audio data, and if the silent state continues for a certain period or longer, the acoustic analysis unit 21 considers that a series of utterance phrases of the occupant has been completed, and the analysis result is uttered in units of occupant utterance phrases. Notify the controller 20.

次に、音声コントローラ20は、音響分析部21からの分析結果を受信したか否かを判定する(S204)。ここで、音響分析部21からの分析結果が音声コントローラ20により受信されない場合、S204の判定はNOとなり、S204の判定が繰り返し実施される。   Next, the voice controller 20 determines whether or not the analysis result from the acoustic analysis unit 21 has been received (S204). Here, when the analysis result from the acoustic analysis unit 21 is not received by the voice controller 20, the determination in S204 is NO, and the determination in S204 is repeatedly performed.

そして、音響分析部21からの分析結果が音声コントローラ20により受信されると、S204の判定はYESとなり、音声コントローラ20は、音声認識部22に、音声認識の開始を指示する(S206)。具体的には、音響分析部21による分析結果とともに、音声認識の開始を指示するコマンドを音声認識部22に送信する。   When the analysis result from the acoustic analysis unit 21 is received by the voice controller 20, the determination in S204 is YES, and the voice controller 20 instructs the voice recognition unit 22 to start voice recognition (S206). Specifically, a command for instructing the start of voice recognition is transmitted to the voice recognition unit 22 together with the analysis result by the acoustic analysis unit 21.

音声認識部22は、この音声コントローラ20からの指示に応じて、音響分析部21による分析結果に基づき、乗員が発話した発話フレーズの認識処理を行う。すなわち、音声認識部22は、音響分析部21により分割された各区間が辞書データとして格納されたどの単語に対応しているかを判定することで入力音声中の単語系列を認識し、認識した結果を認識結果として音声コントローラ20へ通知する。   In response to an instruction from the voice controller 20, the voice recognition unit 22 performs a process of recognizing an utterance phrase uttered by an occupant based on an analysis result by the acoustic analysis unit 21. That is, the speech recognition unit 22 recognizes a word sequence in the input speech by determining which word stored as dictionary data corresponds to each section divided by the acoustic analysis unit 21, and results of recognition. To the voice controller 20 as a recognition result.

次に、音声コントローラ20は、音声認識部22からの認識結果を受信したか否かを判定する(S208)。ここで、音声認識部22からの認識結果が音声コントローラ20により受信されない場合、S208の判定はNOとなり、S208の判定が繰り返し実施される。   Next, the voice controller 20 determines whether or not the recognition result from the voice recognition unit 22 has been received (S208). Here, when the recognition result from the voice recognition unit 22 is not received by the voice controller 20, the determination in S208 is NO, and the determination in S208 is repeatedly performed.

そして、音声認識部22からの認識結果が音声コントローラ20により受信されると、S208の判定はYESとなり、音声コントローラ20は、文法解析部23に文法解析を指示する(S210)。具体的には、音響分析部21による分析結果とともに、文法解析を指示するコマンドを文法解析部23に送信する。   When the recognition result from the voice recognition unit 22 is received by the voice controller 20, the determination in S208 is YES, and the voice controller 20 instructs the grammar analysis unit 23 to perform grammar analysis (S210). Specifically, a command for instructing grammar analysis is transmitted to the grammar analysis unit 23 together with the analysis result by the acoustic analysis unit 21.

文法解析部23は、この音声コントローラ20からの指示に応じて、音声認識部22による認識結果に基づき、乗員が発話した発話フレーズの文法の解析処理を行う。すなわち、文法解析部23は、形態素解析を行い、音声認識部22により認識された入力音声中の単語系列における各単語の品詞を特定し、乗員が発話した発話フレーズが名詞で終わる場合には発話フレーズは体言止めであると解析し、乗員が発話した発話フレーズが動詞の命令形で終わる場合には発話フレーズは命令形であると解析し、解析した結果を音声コントローラ20へ通知する。   The grammar analysis unit 23 performs grammar analysis processing of the utterance phrase uttered by the occupant based on the recognition result by the voice recognition unit 22 in accordance with an instruction from the voice controller 20. That is, the grammar analysis unit 23 performs morphological analysis, specifies the part of speech of each word in the word sequence in the input speech recognized by the speech recognition unit 22, and the utterance when the utterance phrase uttered by the occupant ends with a noun The phrase is analyzed as a body stop, and when the utterance phrase uttered by the occupant ends with the verb command form, the utterance phrase is analyzed as a command form, and the analysis result is notified to the voice controller 20.

例えば、「近くのコンビニ」という発話フレーズの場合、「近く(形容詞)_の(助詞)_コンビニ(名詞)」に分解される。この場合、発話フレーズが名詞である「コンビニ」で終わるので、発話フレーズは体言止めであると解析される。   For example, in the case of an utterance phrase “near convenience store”, it is decomposed into “near (adjective) _ (particle) _convenience store (noun)”. In this case, since the utterance phrase ends with “convenience store” which is a noun, the utterance phrase is analyzed to be a body stop.

また、「ミュージック」という発話フレーズの場合、発話フレーズをこれ以上分解できず、「ミュージック」は名詞であるため、発話フレーズは体言止めであると解析される。   Also, in the case of the utterance phrase “music”, the utterance phrase cannot be further decomposed, and “music” is a noun, and therefore, the utterance phrase is analyzed as a body stop.

また、「エアコンの温度上げて」という発話フレーズの場合、「エアコン(名詞)_の(助詞)_温度(名詞)_上げて(動詞)」に分解される。この場合も、発話フレーズが動詞の命令形である「上げて」で終わるので、発話フレーズは命令形であると解析される。   In addition, in the case of the utterance phrase “raise the temperature of the air conditioner”, it is broken down into “air conditioner (noun) _no (particle) _temperature (noun) _raise (verb)”. Also in this case, since the utterance phrase ends with the verb command form “raise”, the utterance phrase is analyzed as the command form.

また、「FMかけて」という発話フレーズの場合、「FM(名詞)_かけて(動詞)」に分解される。この場合も、発話フレーズが動詞の命令形である「かけて」で終わるので、発話フレーズは命令形であると解析される。   Also, in the case of an utterance phrase “over FM”, it is broken down into “FM (noun) _over (verb)”. Also in this case, since the utterance phrase ends with “verb”, which is an instruction form of a verb, the utterance phrase is analyzed as an instruction form.

また、「Aさんに電話して」という発話フレーズの場合、「Aさん(名詞)_に(助詞)_電話して(動詞)」に分解される。この場合も、発話フレーズが動詞の命令形である「電話して」で終わるので、発話フレーズは命令形であると解析される。   Also, in the case of the utterance phrase “call Mr. A”, it is decomposed into “Mr. A (noun) _ (particle) _call me (verb)”. Also in this case, since the utterance phrase ends with “call” which is the verb command form, the utterance phrase is analyzed as the command form.

しかし、「前の車危ない」という発話フレーズの場合、「前(名詞)_の(助詞)_車(名詞)_危ない(形容詞)」に分解される。この場合、発話フレーズが形容詞である「危ない」で終わるので、発話フレーズは体言止めでも命令形でもないと解析される。   However, in the case of the utterance phrase “previous car dangerous”, it is decomposed into “pre (noun) _no (particle) _car (noun) _dangerous (adjective)”. In this case, since the utterance phrase ends with the adjective “dangerous”, it is analyzed that the utterance phrase is neither a verbal stop nor a command form.

また、「隣の音うるさい」という発話フレーズの場合、「隣(名詞)_の(助詞)_音(名詞)_うるさい(形容詞)」に分解される。この場合も、発話フレーズが形容詞である「うるさい」で終わるので、発話フレーズは体言止めでも命令形でもないと解析される。   Also, in the case of the utterance phrase “neighboring sound noisy”, it is broken down into “neighboring (noun) _no (particle) _sound (noun) _noisy (adjective)”. Also in this case, since the utterance phrase ends with the adjective “noisy”, it is analyzed that the utterance phrase is neither a verbal stop nor a command form.

また、「雨が激しい」という発話フレーズの場合、「雨(名詞)_が(助詞)_激しい(形容詞)」に分解される。この場合も、発話フレーズが形容詞である「激しい」で終わるので、発話フレーズは体言止めでも命令形でもないと解析される。   In the case of an utterance phrase “rain is heavy”, “rain (noun) _ is (particle) _heavy (adjective)”. Also in this case, since the utterance phrase ends with the adjective “violent”, it is analyzed that the utterance phrase is neither a verbal stop nor a command form.

次に、音声コントローラ20は、文法解析部23からの解析結果を受信したか否かを判定する(S212)。ここで、文法解析部23からの解析結果が音声コントローラ20により受信されない場合、S208の判定はNOとなり、S212の判定が繰り返し実施される。   Next, the voice controller 20 determines whether or not the analysis result from the grammar analysis unit 23 has been received (S212). Here, when the analysis result from the grammar analysis unit 23 is not received by the voice controller 20, the determination in S208 is NO and the determination in S212 is repeatedly performed.

そして、文法解析部23からの解析結果が音声コントローラ20により受信されると、S212の判定はYESとなり、音声コントローラ20は、文法解析部23からの解析結果に基づいて発話フレーズが体言止めもしくは命令形であるか否かを判定する(S214)。   When the analysis result from the grammar analysis unit 23 is received by the voice controller 20, the determination in S212 is YES, and the voice controller 20 determines whether the utterance phrase is a body stop or command based on the analysis result from the grammar analysis unit 23. It is determined whether or not it is a shape (S214).

ここで、文法解析部23からの解析結果に基づいて発話フレーズが体言止めもしくは命令形であると判定された場合、S214の判定はYESとなり、音声コントローラ20は、制御装置10へ認識結果を採用する旨の通知を行う(S216)。具体的には、音声認識部22により認識された結果とともに、認識結果の採用を指示するコマンドを制御装置10へ送信する。   Here, when it is determined based on the analysis result from the grammar analysis unit 23 that the utterance phrase is body stop or command form, the determination in S214 is YES, and the voice controller 20 adopts the recognition result to the control device 10. A notification to this effect is sent (S216). Specifically, a command instructing the adoption of the recognition result is transmitted to the control device 10 together with the result recognized by the voice recognition unit 22.

また、文法解析部23からの解析結果に基づいて発話フレーズが体言止めでも、命令形でもないと判定された場合、S214の判定はNOとなり、音声コントローラ20は、制御装置10へ認識結果を棄却する旨の通知を行う(S218)。具体的には、音声認識部22の認識結果を採用しないように指示するコマンドを制御装置10へ送信する。   If it is determined that the utterance phrase is neither body speech nor command based on the analysis result from the grammar analysis unit 23, the determination in S214 is NO and the voice controller 20 rejects the recognition result to the control device 10. A notification to this effect is sent (S218). Specifically, a command for instructing not to adopt the recognition result of the voice recognition unit 22 is transmitted to the control device 10.

また、制御装置10は、図2に示したように、S104にて、音声コントローラ20へ音声認識の開始指示を通知した後、音声コントローラ20から認識結果を採用する旨の通知を受信したか否かを判定する(S106)。   Further, as shown in FIG. 2, the control device 10 notifies the voice controller 20 of a voice recognition start instruction in S <b> 104 and then receives a notification from the voice controller 20 to adopt the recognition result. Is determined (S106).

ここで、音声コントローラ20から送信された認識結果の採用を指示するコマンドが音声コントローラ20により受信された場合、S106の判定はYESとなり、音声コントローラ20は、音声認識部22の認識結果に応じた機能を実行する(S108)。   Here, when the voice controller 20 receives a command instructing the adoption of the recognition result transmitted from the voice controller 20, the determination in S106 is YES, and the voice controller 20 responds to the recognition result of the voice recognition unit 22. The function is executed (S108).

すなわち、「近くのコンビニ」、「ミュージック」、「エアコンの温度上げて」、「FMかけて」「Aさんに電話して」といった発話フレーズのように、文法解析部23により発話フレーズが体言止めもしくは命令形であると解析されたものについては、音声認識された発話フレーズに応じた機能が実行される。   In other words, the grammar analysis unit 23 stops speaking the utterance phrase like utterance phrases such as “Nearby convenience store”, “Music”, “Raise the temperature of the air conditioner”, “Call FM” and “Call Mr. A”. Alternatively, with respect to what is analyzed as being in the command form, a function corresponding to the speech phrase that has been voice-recognized is executed.

また、音声コントローラ20から送信された認識結果を採用しないように指示するコマンドが音声コントローラ20により受信された場合には、S106の判定はNOとなり、音声コントローラ20は、音声認識部22の認識結果に応じた機能を実行することなく、S106へ戻る。   When the voice controller 20 receives a command that instructs not to adopt the recognition result transmitted from the voice controller 20, the determination in S106 is NO and the voice controller 20 recognizes the recognition result of the voice recognition unit 22. The process returns to S106 without executing the function corresponding to.

すなわち、「前の車危ない」、「隣の音うるさい」、「雨が激しい」といった発話フレーズのように、文法解析部23により発話フレーズが体言止めでも命令形でもないと解析されたものについては音声認識された発話フレーズに応じた機能は実行されない。   In other words, for utterance phrases such as “previous car dangerous”, “adjacent sound annoyance”, and “rainy”, the grammar analysis unit 23 analyzes that the utterance phrase is neither body stop nor command form. The function corresponding to the utterance phrase recognized by voice is not executed.

なお、車両の運転席以外の座席に同乗者が乗車していない場合には、S102の判定はYESとなり、制御装置10は、音声コントローラ20へ音声認識の開始指示を送信することなく、本処理を終了する。したがって、音声認識された発話フレーズに応じた機能が実行されない。   If the passenger is not in a seat other than the driver's seat of the vehicle, the determination in S102 is YES, and the control device 10 performs this processing without transmitting a voice recognition start instruction to the voice controller 20. Exit. Therefore, the function corresponding to the speech-recognized utterance phrase is not executed.

上記した構成によれば、本ナビゲーション装置は、音声認識された発話フレーズが体言止めまたは動詞の命令形で終わるものとなっているか否かを解析し、この解析の結果が、音声認識された発話したフレーズが体言止めまたは動詞の命令形で終わるものとなっていることを条件として、音声認識された発話フレーズに応じた機能を実行するようになっており、例えば、周囲との会話や運転者の独り言に多くみられるような発話フレーズが形容詞で終わるような場合には、音声認識された発話フレーズに応じた機能が実行されないので、周囲との会話や運転者の独り言による誤った機能実行を低減することができる。   According to the above configuration, the navigation device analyzes whether or not the speech-recognized utterance phrase ends with a verbal stop or verb command form, and the result of this analysis is the speech-recognized utterance. On the condition that the completed phrase ends with a verbal stop or verb command form, for example, conversation with the surroundings or driver If an utterance phrase that often appears in a single word of a word ends with an adjective, the function according to the spoken phrase that was recognized by the voice is not executed. Can be reduced.

また、本ナビゲーション装置は、音声認識された発話フレーズが体言止めまたは動詞の命令形で終わるものとなっているか否かを解析する際に、音声認識された発話フレーズを品詞に分け、音声認識された発話フレーズの最後の品詞が名詞または動詞の命令形であるときに、音声認識された発話フレーズが体言止めまたは動詞の命令形で終わるものと解析することができる。   In addition, when analyzing whether a speech-recognized utterance phrase ends with a verbal stop or verb command form, this navigation device divides the speech-recognized utterance phrase into parts of speech and is recognized as speech. When the last part of speech of a spoken phrase is a noun or verb command form, it can be analyzed that the speech recognized speech phrase ends with a verbal stop or verb command form.

また、本ナビゲーション装置は、車両の各座席の座面の圧力を検出する圧力センサから検知信号を、車両に同乗者が存在するか否かを判定するための車両情報として取得し、この車両情報に基づいて車両に同乗者が存在するか否かを判定し、車両に同乗者が存在しないと判定された場合、音声認識された発話フレーズに応じた機能を実行しないようになっているので、周囲との会話による誤った機能実行をより低減することができる。   Further, the navigation device acquires a detection signal from a pressure sensor that detects the pressure of the seating surface of each seat of the vehicle as vehicle information for determining whether or not a passenger is present in the vehicle. It is determined whether or not a passenger is present in the vehicle based on the above, and when it is determined that there is no passenger in the vehicle, the function according to the speech-recognized utterance phrase is not executed. It is possible to further reduce erroneous function execution due to conversation with surroundings.

なお、本発明は上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲内で、以下のように種々変形可能である。   The present invention is not limited to the above-described embodiment, and various modifications can be made as follows without departing from the spirit of the present invention.

例えば、上記実施形態では、車両の各座席(運転席、助手席、後部座席等)に設けられた圧力センサからの検知信号に基づいて運転席以外の座席に同乗者がいるか否かを判定するようにしたが、例えば、車両の各ドアの開閉状態を検出するドア開センサにより検出される信号に基づいて運転席以外の座席に同乗者がいるか否かを判定するようにしてもよい。具体的には、車両のドアの施錠が解除されてから車両が走行を開始するまでの間に、運転席のドアと運転席以外のドアが開閉したことがドア開センサにより検出された場合には運転席以外の座席に同乗者がいると判定することができ、車両のドアの施錠が解除されてから車両が走行を開始するまでの間に、運転席のドアが開閉したことがドア開センサにより検出されたにもかかわらず、運転席以外のドアが開閉していないことがドア開センサにより検出された場合には運転席以外の座席に同乗者がいないと判定することができる。   For example, in the above embodiment, it is determined whether there is a passenger in a seat other than the driver's seat based on a detection signal from a pressure sensor provided in each seat of the vehicle (driver's seat, front passenger seat, rear seat, etc.). However, for example, it may be determined whether there is a passenger in a seat other than the driver's seat based on a signal detected by a door opening sensor that detects the open / closed state of each door of the vehicle. Specifically, when the door opening sensor detects that the door of the driver's seat and the door other than the driver's seat have been opened and closed between the time when the door of the vehicle is unlocked and the time when the vehicle starts to travel. It can be determined that there is a passenger in a seat other than the driver's seat, and that the door of the driver's seat has been opened and closed between the time the vehicle door is unlocked and the time the vehicle starts to run. If it is detected by the door opening sensor that the door other than the driver's seat is not opened / closed even though it is detected by the sensor, it can be determined that there is no passenger in the seat other than the driver's seat.

また、上記実施形態では、本音声認識装置を車両に搭載されるナビゲーション装置として構成したが、車両に搭載されるものに限定されるものではなく、例えば、スマートフォン、携帯電話、携帯型情報端末等を用いて構成することもできる。このような携帯型の端末を用いて構成する場合、車両に同乗者が存在するか否かを判定するための車両情報を車両側から無線送信させ、携帯型の端末は、この車両情報を受信して取得するようにするのが好ましい。   Moreover, in the said embodiment, although this voice recognition apparatus was comprised as a navigation apparatus mounted in a vehicle, it is not limited to what is mounted in a vehicle, For example, a smart phone, a mobile telephone, a portable information terminal, etc. Can also be used. When configured using such a portable terminal, vehicle information for determining whether or not a passenger is present in the vehicle is wirelessly transmitted from the vehicle side, and the portable terminal receives the vehicle information. It is preferable to obtain it.

なお、上記実施形態における構成と特許請求の範囲の構成との対応関係について説明すると、音響分析部21、音声認識部22および文法解析部23が解析手段に相当し、S214、S216、S218、S106およびS108が機能実行手段に相当し、S100が車両情報取得手段に相当し、S102が同乗者判定手段に相当する。   The correspondence relationship between the configuration of the above embodiment and the configuration of the claims will be described. The acoustic analysis unit 21, the speech recognition unit 22, and the grammar analysis unit 23 correspond to analysis means, and S214, S216, S218, and S106. And S108 correspond to function execution means, S100 corresponds to vehicle information acquisition means, and S102 corresponds to passenger determination means.

10 制御装置
20 音声コントローラ
21 音響分析部
22 音声認識部
23 文法解析部
30 マイク
DESCRIPTION OF SYMBOLS 10 Control apparatus 20 Voice controller 21 Acoustic analysis part 22 Speech recognition part 23 Grammar analysis part 30 Microphone

Claims (4)

ユーザが発話した発話フレーズを音声認識し、この音声認識により音声認識された発話フレーズが予め定められた登録されたフレーズと一致した場合に前記音声認識された発話フレーズに応じた機能を実行する音声認識装置であって、
前記音声認識された発話フレーズが体言止めまたは動詞の命令形で終わるものとなっているか否かを解析する解析手段と、
前記解析手段の解析結果が、前記音声認識された発話したフレーズが体言止めまたは動詞の命令形で終わるものとなっていることを条件として、前記音声認識された発話フレーズに応じた機能を実行する機能実行手段と、を備えたことを特徴とする音声認識装置。
Speech that recognizes a speech phrase spoken by the user and performs a function corresponding to the speech phrase that has been speech-recognized when the speech phrase recognized by speech recognition matches a predetermined registered phrase A recognition device,
Analyzing means for analyzing whether the speech-recognized utterance phrase ends with a verbal stop or verb command form;
The analysis result of the analyzing means executes a function corresponding to the speech-recognized utterance phrase on the condition that the speech-recognized uttered phrase ends with a verbal stop or verb command form. A speech recognition apparatus comprising: a function executing unit;
前記解析手段は、前記音声認識された発話フレーズを品詞に分け、前記音声認識された発話フレーズの最後の品詞が名詞または動詞の命令形であるときに、前記音声認識された発話フレーズが体言止めまたは動詞の命令形で終わるものと解析することを特徴とする請求項1に記載の音声認識装置。   The analysis means divides the speech-recognized utterance phrase into parts of speech, and when the last part-of-speech of the speech-recognized utterance phrase is a noun or verb command form, The speech recognition apparatus according to claim 1, wherein the speech recognition apparatus analyzes that the command ends with a verb command form. 車両に同乗者が存在するか否かを判定するための車両情報を取得する車両情報取得手段と、
前記車両情報取得手段により取得された前記車両情報に基づいて前記車両に同乗者が存在するか否かを判定する同乗者判定手段を備え、
前記同乗者判定手段により前記車両に同乗者が存在しないと判定された場合、前記機能実行手段は、前記音声認識された発話フレーズに応じた機能を実行しないことを特徴とする請求項1または2に記載の音声認識装置。
Vehicle information acquisition means for acquiring vehicle information for determining whether or not a passenger is present in the vehicle;
Passenger determination means for determining whether a passenger exists in the vehicle based on the vehicle information acquired by the vehicle information acquisition means,
3. The function execution unit does not execute a function corresponding to the speech-recognized utterance phrase when it is determined by the passenger determination unit that no passenger exists in the vehicle. The speech recognition apparatus described in 1.
前記車両に同乗者が存在するか否かを判定するための車両情報は、車両の各座席の座面の圧力を検出する圧力センサから検知信号であることを特徴とする請求項3に記載の音声認識装置。   The vehicle information for determining whether or not a passenger is present in the vehicle is a detection signal from a pressure sensor that detects a pressure of a seating surface of each seat of the vehicle. Voice recognition device.
JP2014000265A 2014-01-06 2014-01-06 Voice recognition device Active JP6314478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014000265A JP6314478B2 (en) 2014-01-06 2014-01-06 Voice recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014000265A JP6314478B2 (en) 2014-01-06 2014-01-06 Voice recognition device

Publications (2)

Publication Number Publication Date
JP2015129794A true JP2015129794A (en) 2015-07-16
JP6314478B2 JP6314478B2 (en) 2018-04-25

Family

ID=53760577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014000265A Active JP6314478B2 (en) 2014-01-06 2014-01-06 Voice recognition device

Country Status (1)

Country Link
JP (1) JP6314478B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06135289A (en) * 1992-06-18 1994-05-17 Ricoh Co Ltd Onboard voice recognizing device
JP2008250236A (en) * 2007-03-30 2008-10-16 Fujitsu Ten Ltd Speech recognition device and speech recognition method
JP2009025538A (en) * 2007-07-19 2009-02-05 Nissan Motor Co Ltd Voice interactive device
JP2010217318A (en) * 2009-03-13 2010-09-30 Equos Research Co Ltd Passenger search device and passenger search program
WO2015029304A1 (en) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Speech recognition method and speech recognition device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06135289A (en) * 1992-06-18 1994-05-17 Ricoh Co Ltd Onboard voice recognizing device
JP2008250236A (en) * 2007-03-30 2008-10-16 Fujitsu Ten Ltd Speech recognition device and speech recognition method
JP2009025538A (en) * 2007-07-19 2009-02-05 Nissan Motor Co Ltd Voice interactive device
JP2010217318A (en) * 2009-03-13 2010-09-30 Equos Research Co Ltd Passenger search device and passenger search program
WO2015029304A1 (en) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Speech recognition method and speech recognition device

Also Published As

Publication number Publication date
JP6314478B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
US10485049B1 (en) Wireless device connection handover
CN106796786B (en) Speech recognition system
US9230538B2 (en) Voice recognition device and navigation device
US10490207B1 (en) Automated speech recognition using a dynamically adjustable listening timeout
US10721661B2 (en) Wireless device connection handover
JP6227209B2 (en) In-vehicle voice recognition device and in-vehicle device
US20160039356A1 (en) Establishing microphone zones in a vehicle
JP5077107B2 (en) Vehicle drinking detection device and vehicle drinking detection method
CN110027409B (en) Vehicle control device, vehicle control method, and computer-readable recording medium
US9473094B2 (en) Automatically controlling the loudness of voice prompts
JP2006208460A (en) Equipment controller of voice recognition type and vehicle
US10276180B2 (en) Audio command adaptive processing system and method
JP6459330B2 (en) Speech recognition apparatus, speech recognition method, and speech recognition program
JP2008203296A (en) Speech recognition device and navigation device
US20120197643A1 (en) Mapping obstruent speech energy to lower frequencies
JP2018116130A (en) In-vehicle voice processing unit and in-vehicle voice processing method
JP6314478B2 (en) Voice recognition device
JP4478146B2 (en) Speech recognition system, speech recognition method and program thereof
JP5556529B2 (en) In-vehicle speech recognition device
JP2018116206A (en) Voice recognition device, voice recognition method and voice recognition system
JP5376072B1 (en) In-vehicle information system and speech recognition adaptation method
JP7172120B2 (en) Speech recognition device and speech recognition method
JP7242873B2 (en) Speech recognition assistance device and speech recognition assistance method
EP2760019B1 (en) Dynamic audio processing parameters with automatic speech recognition
JP2008309865A (en) Voice recognition device and voice recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180312

R151 Written notification of patent or utility model registration

Ref document number: 6314478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151