JP2006195576A - Onboard voice recognizer - Google Patents

Onboard voice recognizer Download PDF

Info

Publication number
JP2006195576A
JP2006195576A JP2005004360A JP2005004360A JP2006195576A JP 2006195576 A JP2006195576 A JP 2006195576A JP 2005004360 A JP2005004360 A JP 2005004360A JP 2005004360 A JP2005004360 A JP 2005004360A JP 2006195576 A JP2006195576 A JP 2006195576A
Authority
JP
Japan
Prior art keywords
display
identification character
condition
speech recognition
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005004360A
Other languages
Japanese (ja)
Other versions
JP4466379B2 (en
Inventor
Masaaki Ichihara
雅明 市原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005004360A priority Critical patent/JP4466379B2/en
Publication of JP2006195576A publication Critical patent/JP2006195576A/en
Application granted granted Critical
Publication of JP4466379B2 publication Critical patent/JP4466379B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a voice recognizer capable of providing a highly convenient search function. <P>SOLUTION: This onboard voice recognizer 10 is provided with a voice recognizing means 20 for conducting voice recognition processing for a speech detected in a cabin, a display control means 30 for displaying respective identification character sequences included in the speech within individual display areas separated discriminatably each other on a touch panel type display 44, and for detecting a touch operation of a user in each display area on the touch panel type display, and a retrieval system 70 for retrieving information within a database according to a prescribed retrieval condition, based on each identification character sequence displayed on the touch panel type display. The condition where the identification character sequence displayed within the display area is taken into consideration as an exclusion condition in the retrieval condition is formed in response to the prescribed touch operation onto the display area on the touch panel type display. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、音声認識を用いて検索を行う車載音声認識装置に関する。   The present invention relates to an in-vehicle speech recognition apparatus that performs a search using speech recognition.

従来から、音声認識時に順位の低い認識結果を予備的な認識候補(誤認識候補)として記憶しておき、順位の高い認識結果を表示し、順位の高い認識結果に対してユーザから誤認識の指摘があった場合に当該予備的な認識候補の中から所望の認識結果をユーザに選択させることができるようにした技術が知られている(例えば、特許文献1参照)。この従来技術では、ユーザが表示画面に表示されたファンクションキーを操作すると、予備的な認識候補(誤認識候補)が表示画面に列挙され、その中からユーザが所望の認識結果を選択できるので、ユーザは再度発話する必要が無くなる。
特開2000−259178号公報
Conventionally, a recognition result with a low rank is stored as a preliminary recognition candidate (misrecognition candidate) at the time of speech recognition, a recognition result with a high rank is displayed, and a recognition result with a high rank is recognized by the user. A technique is known that allows a user to select a desired recognition result from the preliminary recognition candidates when there is an indication (see, for example, Patent Document 1). In this prior art, when the user operates a function key displayed on the display screen, preliminary recognition candidates (misrecognition candidates) are listed on the display screen, and the user can select a desired recognition result from among them. The user does not need to speak again.
JP 2000-259178 A

ところで、車両に搭載されるこの種の音声認識装置は、ナビゲーション装置の目的地検索設定機能と結びつくことができる。例えばこの付近のハンバーガー屋に行きたいユーザは、「ハンバーガー」と発声し、音声認識装置に“ハンバーガー”を認識させ、検索ボタンを操作する。この場合、音声認識装置は、現在の車両位置と所定の地図データに基づいて周辺のハンバーガー屋を検索し、ディスプレイに検索結果を一斉に表示する。   By the way, this type of voice recognition device mounted on a vehicle can be combined with the destination search setting function of the navigation device. For example, a user who wants to go to a nearby hamburger shop says “hamburger”, causes the voice recognition device to recognize “hamburger”, and operates the search button. In this case, the voice recognition device searches for a surrounding hamburger shop based on the current vehicle position and predetermined map data, and simultaneously displays the search results on the display.

ここで、ユーザは、同じハンバーガー屋であっても、“ABCバーガー(店名)”以外のハンバーガー屋に行きたい場合や、“DCEバーガーハウス(店名)”若しくは“FGHバーガー(店名)”に行きたい場合がありうる。   Here, even if the user wants to go to a hamburger shop other than “ABC burger (store name)”, or wants to go to “DCE burger house (store name)” or “FGH burger (store name)”, even at the same hamburger shop There may be cases.

しかしながら、上述のような従来的な音声認識装置では、膨大となり得る検索結果(多数のハンバーガー屋のリスト)の中から所望の“ハンバーガー屋”(例えば“ABCバーガー”以外のハンバーガー屋)をユーザが自ら探して選択しなければならず、利便性やユーザフレンドリ性の観点から不十分な一面があった。   However, in the conventional speech recognition apparatus as described above, a user can obtain a desired “hamburger shop” (for example, a hamburger shop other than “ABC burger”) from search results (a list of many hamburger shops) that can be enormous. There was one aspect that was insufficient from the viewpoint of convenience and user friendliness.

一方、現時点で車両に搭載可能な音声認識装置では、検索結果の絞込みを音声認識により行おうにも、音声認識精度上の問題で、“以外の”や“ではなく”といった排他条件や“または”や“若しくは”といったOR条件を音声認識することが困難な現状である。   On the other hand, in a voice recognition device that can be installed in a vehicle at present, even if the search result is narrowed down by voice recognition, an exclusive condition such as “other than” or “not” or “or” Currently, it is difficult to recognize the OR condition such as “or” or “or”.

そこで、本発明は、高い音声識別能力を有さなくても利便性の高い検索機能を提供できる音声認識装置の提供を目的とする。   Accordingly, an object of the present invention is to provide a speech recognition apparatus that can provide a highly convenient search function without having a high speech identification capability.

上記課題を解決するため、本発明の一局面によれば、車内で検出される発話に対して音声認識処理を行う音声認識手段と、
タッチパネル式ディスプレイ上に、前記発話に含まれる各識別文字列を、互いに区別可能な別々の表示領域内にそれぞれ表示すると共に、タッチパネル式ディスプレイ上の各表示領域に対するユーザのタッチ操作を検出する表示制御手段と、
タッチパネル式ディスプレイ上に表示された各識別文字列に基づいて、所定の検索条件に従ってデータベース内における情報検索を行う検索システムとを備え、
タッチパネル式ディスプレイ上の前記表示領域に対する所定のタッチ操作に応じて、該表示領域内に表示されている識別文字列が、前記検索条件において排他条件として考慮される状態が形成されることを特徴とする、車載音声認識装置が提供される。
In order to solve the above-described problem, according to one aspect of the present invention, a voice recognition unit that performs voice recognition processing on an utterance detected in a vehicle;
Display control for displaying each identification character string included in the utterance in a separate display area distinguishable from each other on the touch panel display and detecting a user's touch operation on each display area on the touch panel display Means,
A search system for searching information in the database according to a predetermined search condition based on each identification character string displayed on the touch panel display;
According to a predetermined touch operation on the display area on the touch panel display, a state is formed in which the identification character string displayed in the display area is considered as an exclusive condition in the search condition. An in-vehicle speech recognition device is provided.

本局面において、タッチパネル式ディスプレイ上の前記表示領域に対するタッチ操作回数に応じて、
(1)該表示領域内に表示されている識別文字列が、前記検索条件において他の識別文字列に対してAND条件として考慮される第1の状態、
(2)該識別文字列が前記検索条件においてなんら考慮されない第2の状態、及び、
(3)該識別文字列が前記検索条件において排他条件として考慮される第3の状態の何れかが形成されてよい。
In this aspect, according to the number of touch operations for the display area on the touch panel display,
(1) a first state in which an identification character string displayed in the display area is considered as an AND condition with respect to another identification character string in the search condition;
(2) a second state in which the identification character string is not considered in the search condition; and
(3) Any of the third states in which the identification character string is considered as an exclusion condition in the search condition may be formed.

また、前記表示制御手段は、タッチパネル式ディスプレイ上の前記表示領域に対するタッチ操作態様に応じて、該表示領域内に表示されている識別文字列の表示状態を変化させるものであってよい。前記音声認識手段は、「または」「および」「以外」「ではなく」のような検索条件に関わる単語を識別しないものであってよい。   Further, the display control means may change a display state of the identification character string displayed in the display area according to a touch operation mode with respect to the display area on the touch panel display. The voice recognition means may not identify a word related to a search condition such as “or” “and” “other than” “not”.

また、前記表示領域のうちの所定の2つ以上の前記表示領域内に表示されている2つ以上の識別文字列は、前記検索条件において他の識別文字列に対してOR条件として考慮されてよい。前記所定の2つ以上の表示領域は、他の表示領域に対して区別可能な方向に配列されてよい。前記表示制御手段は、前記所定の2つ以上の表示領域には、前記識別文字列のうち同種の識別文字列を表示するものであってよい。   Further, two or more identification character strings displayed in two or more predetermined display areas of the display areas are considered as OR conditions with respect to other identification character strings in the search condition. Good. The two or more predetermined display areas may be arranged in a direction distinguishable from other display areas. The display control means may display the same kind of identification character string among the identification character strings in the two or more predetermined display areas.

また、前記各表示領域内に表示されている各識別文字列間が、前記検索条件においてAND条件で互いに結ばれるように初期設定される場合、
所定の隣接する2つの表示領域毎に、1つの操作領域が割り当てられ、
前記1つの操作領域に対するタッチ操作に応じて、該1つの操作領域に係る2つの表示領域内に表示されている2つの識別文字列間の前記検索条件における結びつきが、AND条件からOR条件に切り換えられてよい。この場合において、ユーザが未確定の目的地を確定していくのに適した第1モードでは、前記第1の状態、第2の状態又は第3の状態が選択的に形成されるのに対して、ユーザが確定している目的地を発話して音声認識させるのに適した第2モードでは、前記第1の状態又は第2の状態しか形成されないこととしてよい。また、前記2つのモード間は、ユーザによるスイッチ操作、若しくは、前記発話に含まれる特定のキーワードに応じて切り換えられてよい。前記第2モードでは、前記音声認識手段は、地図関連用語のみを含む認識辞書に基づいて音声識別を行うものであってよい。
Further, when each identification character string displayed in each display area is initially set to be connected to each other by an AND condition in the search condition,
One operation area is assigned to every two adjacent display areas,
In response to a touch operation on the one operation area, the connection in the search condition between two identification character strings displayed in the two display areas related to the one operation area is switched from the AND condition to the OR condition. May be. In this case, in the first mode suitable for the user to confirm the uncertain destination, the first state, the second state, or the third state is selectively formed. Thus, in the second mode suitable for uttering and recognizing the destination determined by the user, only the first state or the second state may be formed. The two modes may be switched according to a switch operation by a user or a specific keyword included in the utterance. In the second mode, the voice recognition means may perform voice identification based on a recognition dictionary including only map-related terms.

本発明によれば、高い音声識別能力を有さなくても利便性の高い検索機能を提供できる音声認識装置を得ることができる。   According to the present invention, it is possible to obtain a voice recognition apparatus that can provide a convenient search function without having a high voice identification capability.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明による車載音声認識装置の一実施例を示すシステム構成図である。本実施例の音声認識装置10は、音声認識エンジン20を搭載したマイクロコンピューターからなる。音声認識エンジン20は、前処理部22、特徴量抽出部24、音響モデル処理/マッチング部26、及び、言語モデル処理/マッチング部28を備える。   FIG. 1 is a system configuration diagram showing an embodiment of an in-vehicle speech recognition apparatus according to the present invention. The speech recognition apparatus 10 according to the present embodiment includes a microcomputer equipped with a speech recognition engine 20. The speech recognition engine 20 includes a preprocessing unit 22, a feature amount extraction unit 24, an acoustic model processing / matching unit 26, and a language model processing / matching unit 28.

音声認識装置10は、車室内の音(音声)を拾うマイク40を備える。マイク40により検出された音声は、前処理部22にて増幅、ノイズ除去などの所定処理を受けて、特徴量抽出部24に送られる。特徴量抽出部24では、検出された音声信号(発話データ)から特徴量が抽出され、次いで、音響モデル処理/マッチング部26及び言語モデル処理/マッチング部28を介して、認識候補が決定される。尚、本発明は、音声認識処理の詳細を特定するものでなく、如何なる音声認識技術に基づくものであってもよい。   The voice recognition device 10 includes a microphone 40 that picks up sound (voice) in the passenger compartment. The sound detected by the microphone 40 is subjected to predetermined processing such as amplification and noise removal in the preprocessing unit 22 and is sent to the feature amount extraction unit 24. In the feature quantity extraction unit 24, feature quantities are extracted from the detected speech signal (utterance data), and then recognition candidates are determined via the acoustic model processing / matching unit 26 and the language model processing / matching unit 28. . Note that the present invention does not specify the details of the voice recognition processing, and may be based on any voice recognition technology.

音声認識装置10は、更に、ユーザとの対話を制御する対話制御部30を備える。上述の音声認識エンジン20にて得られた認識候補(音声認識エンジン20の認識結果)は、文字データとして対話制御部30に入力される。対話制御部30は、後述の如く、車内に配設されるディスプレイ44に、音声認識エンジン20の認識結果を表示する。また、対話制御部30は、車内に配設されるスピーカ42から、音声認識エンジン20の認識結果を音声合成部32を介して音声出力してもよい。   The speech recognition apparatus 10 further includes a dialogue control unit 30 that controls dialogue with the user. The recognition candidates (recognition results of the speech recognition engine 20) obtained by the speech recognition engine 20 are input to the dialogue control unit 30 as character data. As will be described later, the dialogue control unit 30 displays the recognition result of the voice recognition engine 20 on the display 44 disposed in the vehicle. Further, the dialogue control unit 30 may output the recognition result of the voice recognition engine 20 through the voice synthesizing unit 32 from the speaker 42 provided in the vehicle.

ディスプレイ44は、ユーザがタッチ操作することで各種入力が可能なタッチパネル式ディスプレイである。対話制御部30は、タッチパネル式ディスプレイ44上の各表示領域(後述するキーワード枠90等)に対するユーザのタッチ操作を検出する手段を備え、グラフィカルユーザーインターフェースを介した対話入力が実現される態様で画面制御を行う。   The display 44 is a touch panel display that allows various inputs by a user's touch operation. The dialogue control unit 30 includes means for detecting a user's touch operation on each display area (a keyword frame 90 or the like described later) on the touch panel display 44, and displays a screen in a manner in which dialogue input via a graphical user interface is realized. Take control.

対話制御部30には、検索システム70が接続される。対話制御部30は、後述の如く、タッチパネル式ディスプレイ44を介して検索システム70に対する検索指示等をユーザから受け付けると共に、タッチパネル式ディスプレイ44上に検索システム70による検索結果を表示する。   A search system 70 is connected to the dialog control unit 30. As will be described later, the dialogue control unit 30 receives a search instruction or the like for the search system 70 from the user via the touch panel display 44 and displays the search result by the search system 70 on the touch panel display 44.

検索システム70は、地名や施設、それらの位置やジャンルなど各種情報を格納した地図データベース72を備える。検索システム70は、以下詳説する如く、地図データベース72の中から、タッチパネル式ディスプレイ44を介してユーザが設定した検索条件に従って、適切な情報を検索・抽出する機能を有する。   The search system 70 includes a map database 72 that stores various information such as place names, facilities, their positions, and genres. The search system 70 has a function of searching and extracting appropriate information from the map database 72 according to the search conditions set by the user via the touch panel display 44, as will be described in detail below.

例えば、ユーザが、近くのハンバーガー屋に行きたい場合に、マイク40に向かって「ハンバーガー」と発声すると、対話制御部30は、音声認識エンジン20の認識結果として“ハンバーガー”をディスプレイ44上に表示する。この際、ユーザが、例えばタッチパネル式ディスプレイ44上の検索スイッチ86(図3参照)にタッチすると、対話制御部30は、検索システム70により地図データベース72の中からカテゴリ[ハンバーガー屋]に属するレストラン情報を抽出する。対話制御部30は、検索システム70が抽出したレストラン情報を、ディスプレイ44上に表示する。そして、ユーザは、ディスプレイ44上に表示されたレストラン情報の中から所望のハンバーガー屋を目的地として選択・設定する。この結果、対話制御部30は、検索システム70により当該ハンバーガー屋までのルート検索を実行し、この検索ルートをディスプレイ44上に地図と共に表示させる。基本的には、このような対話の流れで目的地設定からルート案内開始までが進む。   For example, when the user wants to go to a nearby hamburger shop and speaks “hamburger” toward the microphone 40, the dialogue control unit 30 displays “hamburger” on the display 44 as a recognition result of the speech recognition engine 20. To do. At this time, when the user touches, for example, the search switch 86 (see FIG. 3) on the touch panel display 44, the dialog control unit 30 uses the search system 70 to search for restaurant information belonging to the category [hamburger shop] from the map database 72. To extract. The dialogue control unit 30 displays the restaurant information extracted by the search system 70 on the display 44. Then, the user selects / sets a desired hamburger shop from the restaurant information displayed on the display 44 as a destination. As a result, the dialogue control unit 30 performs a route search to the burger shop by the search system 70 and displays the search route on the display 44 together with the map. Basically, the process from the destination setting to the start of route guidance proceeds through such a flow of dialogue.

ところで、一般的に、ディスプレイ44上に表示できる情報量には限りがあり、また、膨大な情報を表示するのは却って不便であるので、該当する情報量(先の例ではカテゴリ[ハンバーガー屋]に属するレストラン情報)が所定量以上ある場合には、情報の絞込みのための検索条件を追加する必要が生ずる。   By the way, in general, the amount of information that can be displayed on the display 44 is limited, and since it is inconvenient to display a large amount of information, the corresponding information amount (category [hamburger shop] in the previous example) When there is a predetermined amount or more of restaurant information belonging to (2), it is necessary to add a search condition for narrowing down the information.

しかしながら、上述の如く音声認識により検索条件を入力する構成では、キーボードなどを用いてパーソナルコンピューター上で行う検索システムとは異なり、複雑な検索条件の入力が困難である。従って、検索条件の絞込みとしては、例えば地域に関する条件をアンド条件として加えたり、更なる詳細な条件(例えば、先の例では店名)に変更したりすることが一般的である。   However, in a configuration in which search conditions are input by voice recognition as described above, it is difficult to input complicated search conditions, unlike a search system that uses a keyboard or the like on a personal computer. Therefore, for narrowing down the search conditions, for example, it is common to add conditions related to the area as AND conditions, or to change to more detailed conditions (for example, store names in the previous example).

これに対して、本実施例では、以下詳説する如く、音声認識による入力を主体としつつ、非常に簡易なスイッチ操作を補助的に用いることで、多様な検索条件の絞込みの設定を可能とする。   On the other hand, in the present embodiment, as described in detail below, it is possible to set various search conditions to be narrowed down by using a very simple switch operation while mainly inputting by voice recognition. .

図2は、本実施例の音声認識装置10により実行される特徴的な処理の流れを示すフローチャートである。本例では、ユーザが豊田市内で“ABCバーガー(店名)”以外のハンバーガー屋に行きたい場合を想定する。   FIG. 2 is a flowchart showing a flow of characteristic processing executed by the speech recognition apparatus 10 of the present embodiment. In this example, it is assumed that the user wants to go to a hamburger shop other than “ABC burger (store name)” in Toyota city.

先ず、ステップ100として、音声認識装置10は、例えばイグニッションスイッチがオンとなった際に起動され、ユーザの発話に対する待ち受け状態となる。尚、音声認識装置10は、所定の条件が成立した場合のみ(例えば、所定のボタンが操作された場合のみ)、マイク40により検出された音声に対して上述の音声認識処理を実行するように構成されていてよい。   First, as step 100, the speech recognition apparatus 10 is activated when, for example, an ignition switch is turned on, and enters a standby state for a user's utterance. Note that the voice recognition device 10 performs the above-described voice recognition processing on the voice detected by the microphone 40 only when a predetermined condition is satisfied (for example, only when a predetermined button is operated). It may be configured.

ユーザの発話があると、音声認識装置10は、音声認識処理を実行して認識結果をディスプレイ44上に表示する(ステップ110)。この際、ユーザが「ハンバーガーが食べたいんだけど、ABCバーガーはなしにして。できれば豊田市がいいなー」と発話し、音声認識装置10が、キーワード候補(識別文字列)として“ハンブルグ”、“ABCバーガー”及び“豊田市”を認識したとする。この場合、ディスプレイ44上には、図3に示すように、認識結果が、各種の機能スイッチ80と共に、キーワード枠90内に表示される。   When the user utters, the speech recognition apparatus 10 executes speech recognition processing and displays the recognition result on the display 44 (step 110). At this time, the user says, “I want to eat a hamburger, but no ABC burger. If possible, I would like Toyota City”, and the speech recognition device 10 uses “Hamburg”, “ABC” as keyword candidates (identification character strings). Suppose you recognize "Burger" and "Toyota City". In this case, the recognition result is displayed on the display 44 in the keyword frame 90 together with various function switches 80, as shown in FIG.

キーワード枠90は、キーワード毎に設けられる。即ち、ある発話データにおいてi個のキーワードが確認される場合、i個のキーワード枠90(i=1,2,…)が用意される。尚、1つのキーワードに対して複数のキーワード候補が認識される認識エンジンの場合、最も信頼度の高いキーワード候補がキーワード枠90内に表示される。 The keyword frame 90 is provided for each keyword. That is, when i keywords are confirmed in a certain utterance data, i keyword frames 90 i (i = 1, 2,...) Are prepared. In the case of a recognition engine that recognizes a plurality of keyword candidates for one keyword, the keyword candidate with the highest reliability is displayed in the keyword frame 90.

本実施例のキーワード枠90は、キーワード候補を表示するだけでなく、当該キーワード候補に係る検索条件を決定するためのタッチスイッチとしての機能も有する。即ち、キーワード枠90は、それに対するユーザの操作態様によって検索条件が変わるように構成されている。   The keyword frame 90 of this embodiment not only displays keyword candidates, but also has a function as a touch switch for determining search conditions related to the keyword candidates. That is, the keyword frame 90 is configured such that the search condition changes depending on the user's operation mode for the keyword frame 90.

対話制御部30は、上述の如くディスプレイ44上のキーワード枠90内に各認識結果を表示した後、ステップ120として、ユーザからの更なる入力を待機する状態に入る。   After displaying each recognition result in the keyword frame 90 on the display 44 as described above, the dialog control unit 30 enters a state of waiting for further input from the user as step 120.

この際、対話制御部30は、キーワード枠90に対するユーザのタッチ回数Sに基づいて、キーワード枠90内のキーワード候補の検索条件を判断する。ここで、タッチ回数Sは初期値が0であり、一回タッチする毎に1ずつ増え、3回タッチすると0に戻るように設定される。即ち、初期値S=0(S=S+1)であり、S=3のときS=0となる。これは、各キーワード枠90に対してそれぞれ付与される。即ち、キーワード枠90に係るタッチ回数はS(i)である。 At this time, the dialogue control unit 30 determines the search condition for the keyword candidate in the keyword frame 90 based on the number of times S the user touches the keyword frame 90. Here, the initial value of the number of touches S is 0, and is set to increase by 1 for each touch and return to 0 when touched three times. That is, the initial value S = 0 (S = S + 1), and when S = 3, S = 0. This is given to each keyword frame 90 i . That is, the number of touches related to the keyword frame 90 i is S (i).

本例の対話制御部30は、キーワード枠90に対するユーザのタッチ回数S(i)に応じて、当該キーワード枠90の検索条件を判断するだけでなく、当該キーワード枠90の表示状態をも変化させる。 Dialogue control unit 30 of this embodiment, depending on the number of touches user S (i) for the keyword frame 90 i, not only to determine the search conditions of the keyword frame 90 i, the display state of the keyword frame 90 i Also change.

例えば、キーワード枠90に対して1回タッチすると(S(i)=1)、対話制御部30は、図3に示すように、キーワード枠90の色を初期状態に比して薄くする(ステップ130)。これは、当該キーワード枠90内のキーワード候補が検索条件から除外されることを意味する。即ち、本例では、ユーザは、“ハンバーガー”の誤認識結果である“ハンブルグ”に係るキーワード枠90(i=1)に1回タッチすることで、“ハンブルグ”をキーワード候補から外すことができる。 For example, when the keyword frame 90 i is touched once (S (i) = 1), the dialogue control unit 30 makes the color of the keyword frame 90 i lighter than the initial state, as shown in FIG. (Step 130). This means that keyword candidates in the keyword frame 90 i are excluded from the search conditions. That is, in this example, the user can remove “Hamburg” from the keyword candidates by touching the keyword frame 90 i (i = 1) related to “Hamburg”, which is the erroneous recognition result of “Hamburger” once. it can.

また、キーワード枠90に対して2回タッチすると(S(i)=2)、対話制御部30は、図3に示すように、キーワード枠90内のキーワード候補の横に“×”なる表示を生成する(ステップ140)。これは、当該キーワード枠90内のキーワード候補が排除条件であることを意味する。即ち、本例では、ユーザは、“ABCバーガー” に係るキーワード枠90(i=3)に2回タッチすることで、“ABCバーガー”を排除条件として設定することができる。 When the keyword frame 90 i is touched twice (S (i) = 2), the dialogue control unit 30 becomes “x” next to the keyword candidate in the keyword frame 90 i as shown in FIG. A display is generated (step 140). This means that the keyword candidates in the keyword frame 90 i are exclusion conditions. That is, in this example, the user can set “ABC burger” as an exclusion condition by touching the keyword frame 90 i (i = 3) related to “ABC burger” twice.

尚、キーワード枠90に対して3回タッチすると(S(i)=3=0)、対話制御部30は、キーワード枠90の表示状態を初期状態に戻す(ステップ150)。 If the keyword frame 90 i is touched three times (S (i) = 3 = 0), the dialogue control unit 30 returns the display state of the keyword frame 90 i to the initial state (step 150).

このように本実施例では、ユーザは、キーワード枠90の表示状態を一目するだけで当該キーワード枠90内のキーワード候補に係る検索条件が容易に判断できる。尚、キーワード枠90の表示状態の変化態様は、表示の明度や輝度を変化させるのみならず付加表示の重畳や点滅などの強調表示等々多種多様であり、本発明は、上記の変化態様に限られることない。 Thus, in this embodiment, the user may search condition by simply glance display state of the keyword frame 90 i according to the keyword candidate of the keyword frame within 90 i can be easily determined. The change state of the display state of the keyword frame 90 i is not limited to changing the brightness and brightness of the display, but also variously, such as emphasis display such as superimposition and blinking of additional display. Not limited.

尚、先の例において、除外された“ハンブルグ”に代えて“ハンバーガー”をキーワード枠90内に入れるため、ユーザは、ディスプレイ44上の再認識スイッチ84にタッチしてよい。この場合、音声認識エンジン20は、対話制御部30からの指令に応じて、“ハンブルグ”を認識辞書から除外して、バッファ内に格納しておいた発話データに対して再度認識処理を実行してもよい。或いは、音声認識エンジン20が初めから複数の候補を出力しうる構成では、再認識スイッチ84に操作に応答して、“ハンブルグ”の次候補としてメモリに格納されていた“ハンバーガー”がキーワード枠90内に表示されうる。 Incidentally, in the previous example, to add "hamburger" in place of the excluded "Hamburg" in the keyword frame 90 1, the user may touch the re-recognition switch 84 on the display 44. In this case, the speech recognition engine 20 executes “recognition processing” again on the speech data stored in the buffer, excluding “Hamburg” from the recognition dictionary in response to a command from the dialogue control unit 30. May be. Alternatively, in a configuration in which the speech recognition engine 20 can output a plurality of candidates from the beginning, the “hamburger” stored in the memory as the next candidate for “Hamburg” is displayed in the keyword frame 90 in response to the operation of the re-recognition switch 84. 1 can be displayed.

また、本例では、その他の機能スイッチ80として、リセットスイッチ88が用意されている。リセットスイッチ88が操作されると(ステップ160)、対話制御部30は、全てのキーワード枠90の表示状態を初期状態に戻し、それに伴い、全てのキーワード枠90のタッチ回数S(i)が初期値0に戻される。尚、その後、もしユーザにより再度発話が実行されると、上記ステップ100からの処理が再度実行されることになる。 In this example, a reset switch 88 is prepared as the other function switch 80. When the reset switch 88 is operated (step 160), the dialog control section 30 returns the display state of all keywords frame 90 i to an initial state, accordingly, number of touches all keywords frame 90 i S (i) Is returned to the initial value 0. After that, if the user speaks again, the processing from step 100 will be performed again.

上述のようなユーザによる検索条件設定操作が完了すると、ユーザは、ディスプレイ44上の検索スイッチ86にタッチすることになる。検索スイッチ86が操作されると(ステップ170)、対話制御部30による指令に基づいて検索システム70による検索が実行される。この際、検索システム70は、上述のようなキーワード枠90内の各キーワード候補の検索条件に従って(即ち、S(i)の値に従って)、検索を実行する。先の例では、キーワード枠90内に“ハンバーガー”が入れ直されたとして、検索システム70は、ユーザの望みどおり、“豊田市”という地域で“ABCバーガー”以外のハンバーガー屋を地図データベース72の中から検索・抽出することになる。或いは、先の例のように、“ABCバーガー”からハンバーガー屋が推定できる場合には、キーワード枠90のタッチ回数S(1)=1の場合でも(即ち“ハンブルグ”をキーワード候補から外すだけで)、“豊田市”という地域で“ABCバーガー”以外のハンバーガー屋が適切に検索・抽出されうる。尚、この検索の際、通常通り、キーワード枠90内の各キーワード候補間はAND条件で結ばれているとみなされている。 When the search condition setting operation by the user as described above is completed, the user touches the search switch 86 on the display 44. When the search switch 86 is operated (step 170), the search by the search system 70 is executed based on a command from the dialogue control unit 30. At this time, the search system 70 executes a search according to the search condition of each keyword candidate in the keyword frame 90 i as described above (that is, according to the value of S (i)). In the previous example, as has been cycled the "hamburger" in the keyword frame 90 within the 1, the search system 70, as desired by the user, map a hamburger shop other than "ABC Burger" in the area of "Toyota City" database 72 Search and extract from. Or, as in the previous example, in the case from the "ABC Burger" can hamburger shop is estimated, even if the keyword frame 90 1 of touch number of times S (1) = 1 (ie, "Hamburg" only removed from the keyword candidate In other words, a hamburger store other than “ABC Burger” can be properly searched and extracted in the area of “Toyota City”. In this search, it is considered that each keyword candidate in the keyword frame 90 i is connected by an AND condition as usual.

このように本実施例によれば、上述の如く簡易なスイッチ操作で排他条件を設定できるので、検索条件の絞込み方法の選択肢が広がり、ユーザの希望に合った検索条件の設定が可能となり、音声認識による検索システムの利便性が向上する。   As described above, according to the present embodiment, the exclusion condition can be set by a simple switch operation as described above, so that the selection method of the search condition narrows down and the search condition can be set according to the user's desire. The convenience of the search system by recognition is improved.

また、上述の如く排他条件を簡易なスイッチ操作で設定可能とすることで、“以外の”や“ではなく”といった排他条件を音声認識させる必要が無くなる。これに伴い、ユーザの発話データに対して、認識の困難な助詞や接続詞などを認識対象(即ちキーワード)から外し、住所、ジャンル、名詞などの特定ワードのみを認識対象とすることが可能となる。この結果、音声認識エンジン20に非常に高い認識能力を要求することなく、高精度の認識結果を得ることが可能となる。   In addition, by making it possible to set the exclusion condition with a simple switch operation as described above, it is not necessary to recognize the exclusion condition such as “other than” or “not”. Along with this, it is possible to remove particles and conjunctions that are difficult to recognize from the recognition target (that is, keywords) from the user's utterance data, and target only specific words such as addresses, genres, and nouns. . As a result, it is possible to obtain a highly accurate recognition result without requiring the speech recognition engine 20 to have a very high recognition capability.

尚、本実施例において、検索スイッチ86のようなキーワード枠90以外の機能スイッチ80の操作は、音声入力により代替されても良い。これにより、ユーザによる手による操作を可能な限り減らし、音声入力の利便性を高めても良い。 In this embodiment, the operation of the function switch 80 other than the keyword frame 90 i such as the search switch 86 may be replaced by voice input. Thereby, the manual operation by the user may be reduced as much as possible, and the convenience of voice input may be improved.

図4は、本発明のその他の実施例による検索条件設定態様の説明図であり、ディスプレイ44上の表示画面を示す(図3と同様の表示画面)。本例では、ユーザが豊田市内で“DCEバーガーハウス(店名)”若しくは“FGHバーガー(店名)”に行きたい場合を想定する。   FIG. 4 is an explanatory diagram of a search condition setting mode according to another embodiment of the present invention, and shows a display screen on the display 44 (display screen similar to FIG. 3). In this example, it is assumed that the user wants to go to “DCE Burger House (Store Name)” or “FGH Burger (Store Name)” in Toyota City.

この場合、ユーザは例えば「ハンバーガーが食べたいんだけど、DCEバーガーハウスかFGHバーガーに行きたい気分。豊田市限定で探して」と発話する。これに対して、音声認識装置10が、キーワード候補として“ハンバーガー”、“DCEバーガーハウス”、“FGHバーガー”及び“豊田市”を適切に認識できたとする。   In this case, the user says, for example, “I want to eat a hamburger but I feel like going to DCE Burger House or FGH Burger. In contrast, it is assumed that the speech recognition apparatus 10 can appropriately recognize “hamburger”, “DCE burger house”, “FGH burger”, and “Toyota City” as keyword candidates.

本実施例の対話制御部30は、図4に示すように、“DCEバーガーハウス”及び“FGHバーガー”を同類のキーワード候補とし、ディスプレイ44上に横並びで並列的に配設されたキーワード枠90内にこれらの同類のキーワード候補を表示する。尚、説明上、これらの同類のキーワード候補が表示されるキーワード枠90を「同類キーワード枠90」と称する。但し、同類キーワード枠90は、キーワード枠90としての機能も上述の実施例と同様に有している。即ち、同類キーワード枠90を含むそれぞれのキーワード枠90は、そのタッチ回数に応じて排他条件の設定や認識辞書からのキーワード候補の削除が可能である。   As shown in FIG. 4, the dialogue control unit 30 of the present embodiment uses “DCE burger house” and “FGH burger” as similar keyword candidates, and is arranged side by side on the display 44 in a keyword frame 90. These similar keyword candidates are displayed. For the sake of explanation, the keyword frame 90 in which these similar keyword candidates are displayed is referred to as a “similar keyword frame 90”. However, the similar keyword frame 90 also has a function as the keyword frame 90 as in the above-described embodiment. That is, each of the keyword frames 90 including the similar keyword frame 90 can set an exclusion condition or delete a keyword candidate from the recognition dictionary according to the number of touches.

隣接する同類キーワード枠90間には、図4に示すように、反転スイッチ89が設けられる。反転スイッチ89は、初期状態(デフォルト)で検索条件がOR条件であり、それに対するユーザの操作態様によって検索条件がAND条件に反転するように構成されている。   As shown in FIG. 4, a reversing switch 89 is provided between adjacent similar keyword frames 90. The inversion switch 89 is configured so that the search condition is an OR condition in the initial state (default), and the search condition is inverted to an AND condition depending on the user's operation mode.

対話制御部30は、隣接する2つの同類キーワード枠90間の検索条件を、その間の反転スイッチ89に対するユーザのタッチ回数Gに基づいて、判断する。ここで、タッチ回数Gは初期値が0であり、一回タッチする毎に1ずつ増え、2回タッチすると0に戻るように設定される。また、各反転スイッチ89は、各キーワード枠90と同様、互いに独立して操作される。 The dialogue control unit 30 determines a search condition between two adjacent similar keyword frames 90 based on the number of times G of the user touches the reverse switch 89 between them. Here, the initial value of the number of touches G is 0, and is set to be incremented by 1 for each touch and to return to 0 when touched twice. In addition, each reversing switch 89 is operated independently from each other like each keyword frame 90 i .

対話制御部30は、反転スイッチ89に対するユーザのタッチ回数Gに応じて、当該反転スイッチ89の検索条件を判断するだけでなく、当該反転スイッチ89の表示状態をも変化させる。例えば、初期状態(G=0)の反転スイッチ89には、“OR”なる表示がなされ、反転状態(G=1)の反転スイッチ89には、“AND”なる表示がなされてよい。   The dialogue control unit 30 not only determines the search condition of the reversing switch 89 but also changes the display state of the reversing switch 89 according to the number of times G the user touches the reversing switch 89. For example, the reversing switch 89 in the initial state (G = 0) may be displayed as “OR”, and the reversing switch 89 in the reversed state (G = 1) may be displayed as “AND”.

先の例では、ユーザは、特に反転スイッチ89を操作することなく、ディスプレイ44上の検索スイッチ86にタッチして、検索を開始させることができる。検索スイッチ86が操作されると、対話制御部30による指令に基づいて検索システム70による検索が実行される。この際、検索システム70は、上述のようなキーワード枠90内の各キーワード候補の検索条件(即ち、S(i)の値)と反転スイッチ89の検索条件(即ち、Gの値)とに従って、検索を実行する。従って、先の例では、“DCEバーガーハウス”及び“FGHバーガー”を入れる2つの同類キーワード枠90間の反転スイッチ89がOR条件で結ばれているので、検索システム70は、ユーザの望みどおり、“豊田市”という地域で“DCEバーガーハウス”または“FGHバーガー”という名のハンバーガー屋を地図データベース72の中から検索・抽出することになる。尚、この検索の際、同類キーワード枠90内のキーワード候補と、キーワード枠90内の各キーワード候補とはAND条件で結ばれているとみなされている。 In the above example, the user can start the search by touching the search switch 86 on the display 44 without particularly operating the reverse switch 89. When the search switch 86 is operated, a search by the search system 70 is executed based on a command from the dialogue control unit 30. At this time, the search system 70 follows the search conditions (that is, the value of S (i)) of each keyword candidate in the keyword frame 90 i as described above and the search conditions (that is, the value of G) of the inversion switch 89. , Perform a search. Therefore, in the previous example, the reversing switch 89 between the two similar keyword frames 90 into which “DCE burger house” and “FGH burger” are inserted is connected by the OR condition. A hamburger shop named “DCE Burger House” or “FGH Burger” in the area “Toyota City” is searched and extracted from the map database 72. In this search, it is considered that the keyword candidates in the similar keyword frame 90 and the keyword candidates in the keyword frame 90 i are connected by the AND condition.

このように本実施例によれば、上述の如く簡易なスイッチ操作で複数のキーワード候補間をOR条件又はAND条件で結びつけることができるので、検索条件の絞込み方法の選択肢が広がり、ユーザの希望に合った検索条件の設定が可能となり、音声認識による検索システムの利便性が向上する。   As described above, according to the present embodiment, since a plurality of keyword candidates can be linked with an OR condition or an AND condition by a simple switch operation as described above, the options for narrowing down the search condition are widened and the user's wish can be obtained. Search conditions that match can be set, and the convenience of the search system based on voice recognition is improved.

尚、本実施例において、同類キーワード枠90内のキーワード候補と、キーワード枠90内の各キーワード候補と入れ替え可能とされてよい。例えば、先の例で、“FGHバーガー”が通常のキーワード枠90内に誤って表示された場合には、ユーザが、例えば入れ替えスイッチ82を操作した後に、“FGHバーガー”が入っているキーワード枠90にタッチする。これに応答して、対話制御部30は、当該キーワード枠90内のキーワード候補(即ち“FGHバーガー”)を同類キーワード枠90内に移してよい。或いは、ユーザが、“FGHバーガー”が入っているキーワード枠90を長押しすることで、これに応答して、対話制御部30が、当該キーワード枠90自体を同類キーワード枠90に変化させてよい。この場合、対話制御部30は、これら2つの同類キーワード枠90に係る検索条件を決定するための反転スイッチ89を適切な位置に表示してよい。 In the present embodiment, the keyword candidates in the similar keyword frame 90 and the keyword candidates in the keyword frame 90 i may be interchanged. For example, in the above example, when “FGH burger” is displayed in the normal keyword frame 90 by mistake, the keyword frame containing “FGH burger” after the user operates the switch 82, for example. Touch 90. In response to this, the dialogue control unit 30 may move the keyword candidates in the keyword frame 90 (that is, “FGH burger”) into the similar keyword frame 90. Alternatively, when the user presses and holds the keyword frame 90 containing “FGH burger”, the dialogue control unit 30 may change the keyword frame 90 itself to the similar keyword frame 90 in response to this. . In this case, the dialogue control unit 30 may display the reverse switch 89 for determining the search condition related to these two similar keyword frames 90 at an appropriate position.

以上説明した各実施例は、特に、ユーザが当初決まった目的地が無く、対話式で目的地を設定していく場合に好適である。従って、本実施例の音声認識装置10は、対話型で目的地を設定する対話型設定モードと、通常的な目的地設定モードとで選択的に動作可能であってよい。これは、後者の目的地設定モードでは、当初から決まった目的地があるときは、ユーザが単にその目的地を発声するだけなので、上述のような各種検索条件の絞込みの必要性が乏しく、むしろ認識対象を地図関連の用語(地名)に絞る方が認識精度の観点から有用であるからである。従って、目的地設定モードでは、上述のような図3や図4に示す態様でない別の態様の表示制御・識別辞書が採用されてもよい。例えば、目的地設定モードでは、キーワード枠90は、それに対するタッチの有無に応じて認識辞書からのキーワード候補の削除のみが可能とされてよい。また、目的地設定モードでは、1つのキーワードに対して複数のキーワード候補が認識された場合、ユーザがキーワード枠90の操作で選択・除外できるように、複数のキーワード候補がキーワード枠90内に表示されてもよい。   Each of the embodiments described above is particularly suitable when the user does not have an initially determined destination and interactively sets the destination. Therefore, the speech recognition apparatus 10 of the present embodiment may be selectively operable in an interactive setting mode in which a destination is set interactively and a normal destination setting mode. In the latter destination setting mode, when there is a destination decided from the beginning, the user simply utters the destination, so there is little need for narrowing down the various search conditions as described above. This is because it is more useful from the viewpoint of recognition accuracy to narrow down the recognition target to map-related terms (place names). Therefore, in the destination setting mode, a display control / identification dictionary of another mode other than the mode shown in FIGS. 3 and 4 as described above may be employed. For example, in the destination setting mode, the keyword frame 90 may only be able to delete keyword candidates from the recognition dictionary depending on whether or not there is a touch on the keyword frame 90. In the destination setting mode, when a plurality of keyword candidates are recognized for one keyword, the plurality of keyword candidates are displayed in the keyword frame 90 so that the user can select / exclude them by operating the keyword frame 90. May be.

尚、これら2つのモード間(対話型設定モードと目的地設定モード)の切換は、ユーザによるスイッチ操作により実現されてもよいが、ユーザの会話や発話に対する識別結果に基づいてユーザの意図を推定することで自動切換えにより実現されてもよい。後者の場合、例えば、特定のキーワードに基づいてユーザの目的地が既に決まっているか、現在検討中かを判断してもよい。   Switching between these two modes (interactive setting mode and destination setting mode) may be realized by a switch operation by the user, but the user's intention is estimated based on the identification result of the user's conversation or utterance. This may be realized by automatic switching. In the latter case, for example, it may be determined whether the user's destination has already been determined based on a specific keyword or is currently under consideration.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述した各実施例では、キーワード枠90に対するタッチ回数に応じて検索条件が変化させているが、長押しなどの他のタッチ操作態様に応じて変化させてもよい。   For example, in each of the embodiments described above, the search condition is changed according to the number of times the keyword frame 90 is touched, but may be changed according to another touch operation mode such as a long press.

また、上述した各実施例において、ディスプレイ44上の表示画面におけるキーワード枠90や数や配置、反転スイッチ89の位置や配置は種々の変更が可能である。例えば、図4の破線で示すように、デフォルトでAND条件を示す反転スイッチ89bが縦列のキーワード枠90間に設定されてもよい。   Further, in each of the above-described embodiments, various changes can be made to the keyword frame 90, the number and arrangement thereof, and the position and arrangement of the reversing switch 89 on the display screen on the display 44. For example, as indicated by a broken line in FIG. 4, an inversion switch 89 b indicating an AND condition by default may be set between the keyword frames 90 in the column.

また、上述した各実施例は、主に目的地設定までの処理に関するものであったが、目的地設定後の案内ルート検索・選択時にも適用可能である。例えば、対話制御部30は、案内ルート検索時、“高速道路”との音声認識結果に応答して、高速道路を利用するルートを希望するか否かをユーザに問うためのタッチスイッチを表示させても良い。この場合、ユーザが当該タッチスイッチを操作した場合には、高速道路を利用しない案内ルートのみを検索するようにしてよい。   In addition, each of the embodiments described above mainly relates to the processing up to the destination setting, but can also be applied to the search / selection of the guidance route after the destination setting. For example, when searching for a guidance route, the dialogue control unit 30 displays a touch switch for asking the user whether or not he wants a route using the highway in response to the voice recognition result “highway”. May be. In this case, when the user operates the touch switch, only the guidance route that does not use the expressway may be searched.

また、上述した各実施例においては、地域に関する条件(先の例では豊田市)が付与されていない場合には、検索システム70は、車両の現在位置に対して所定エリア内における情報のみを抽出するものであってもよい。この場合、車両の現在位置は、GPS(Global Positioning System)受信機、ビーコン受信機及びFM多重受信機や、車速センサやジャイロセンサ等の各種センサに基づいて検出されて良い。   Further, in each of the above-described embodiments, when the condition regarding the region (Toyota City in the previous example) is not given, the search system 70 extracts only the information in the predetermined area with respect to the current position of the vehicle. You may do. In this case, the current position of the vehicle may be detected based on various sensors such as a GPS (Global Positioning System) receiver, a beacon receiver, an FM multiplex receiver, a vehicle speed sensor, and a gyro sensor.

また、上述した各実施例において、対話制御部30は、キーワード枠90に対するユーザのタッチ操作に応じて、スピーカ42を介して音声出力を行ってもよい。例えば「排他条件」といったように、設定変更された検索条件を音声出力させてよい。 Further, in each embodiment described above, the dialog control section 30, in accordance with a touch operation of a user on the keyword frame 90 i, may be carried out audio output via the speaker 42. For example, search conditions whose settings have been changed may be output as voices such as “exclusive conditions”.

また、上述からも明らかなように、上述した各実施例において、音声認識装置10その他構成要素は、全て若しくはその一部がナビゲーション装置に組み込まれて具現化されてよい。例えば、ディスプレイ44や地図データベース72は、ナビゲーション装置が通常的に備えるディスプレイや地図データであってよい。   Further, as is clear from the above, in each of the above-described embodiments, the voice recognition device 10 and other components may be embodied by incorporating all or part of them into the navigation device. For example, the display 44 or the map database 72 may be a display or map data normally provided in the navigation device.

本発明による車載音声認識装置の一実施例を示すシステム構成図である。1 is a system configuration diagram showing an embodiment of a vehicle-mounted speech recognition apparatus according to the present invention. 本実施例の音声認識装置10により実行される特徴的な処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the characteristic process performed by the speech recognition apparatus 10 of a present Example. 本発明の一実施例によるディスプレイ44上の表示画面を示す図である。It is a figure which shows the display screen on the display 44 by one Example of this invention. 本発明のその他の一実施例によるディスプレイ44上の表示画面を示す図である。It is a figure which shows the display screen on the display 44 by other one Example of this invention.

符号の説明Explanation of symbols

10 音声認識装置
20 音声認識エンジン
22 前処理部
24 特徴量抽出部
26 音響モデル処理/マッチング部
28 言語モデル処理/マッチング部
30 対話制御部
40 マイク
42 スピーカ
44 ディスプレイ
70 検索システム
72 地図データベース
80 機能スイッチ
84 再認識スイッチ
86 検索スイッチ
88 リセットスイッチ
89 反転スイッチ
90 キーワード枠
DESCRIPTION OF SYMBOLS 10 Speech recognition apparatus 20 Speech recognition engine 22 Pre-processing part 24 Feature-value extraction part 26 Acoustic model processing / matching part 28 Language model processing / matching part 30 Dialogue control part 40 Microphone 42 Speaker 44 Display 70 Search system 72 Map database 80 Function switch 84 Re-recognition switch 86 Search switch 88 Reset switch 89 Reverse switch 90 Keyword frame

Claims (11)

車内で検出される発話に対して音声認識処理を行う音声認識手段と、
タッチパネル式ディスプレイ上に、前記発話に含まれる各識別文字列を、互いに区別可能な別々の表示領域内にそれぞれ表示すると共に、タッチパネル式ディスプレイ上の各表示領域に対するユーザのタッチ操作を検出する表示制御手段と、
タッチパネル式ディスプレイ上に表示された各識別文字列に基づいて、所定の検索条件に従ってデータベース内における情報検索を行う検索システムとを備え、
タッチパネル式ディスプレイ上の前記表示領域に対する所定のタッチ操作に応じて、該表示領域内に表示されている識別文字列が、前記検索条件において排他条件として考慮される状態が形成されることを特徴とする、車載音声認識装置。
Speech recognition means for performing speech recognition processing on utterances detected in the vehicle;
Display control for displaying each identification character string included in the utterance in a separate display area distinguishable from each other on the touch panel display and detecting a user's touch operation on each display area on the touch panel display Means,
A search system for searching information in the database according to a predetermined search condition based on each identification character string displayed on the touch panel display;
According to a predetermined touch operation on the display area on the touch panel display, a state is formed in which the identification character string displayed in the display area is considered as an exclusive condition in the search condition. A vehicle-mounted speech recognition device.
タッチパネル式ディスプレイ上の前記表示領域に対するタッチ操作回数に応じて、
(1)該表示領域内に表示されている識別文字列が、前記検索条件において他の識別文字列に対してAND条件として考慮される第1の状態、
(2)該識別文字列が前記検索条件においてなんら考慮されない第2の状態、及び、
(3)該識別文字列が前記検索条件において排他条件として考慮される第3の状態の何れかが形成される、請求項1に記載の車載音声認識装置。
According to the number of touch operations for the display area on the touch panel display,
(1) a first state in which an identification character string displayed in the display area is considered as an AND condition with respect to another identification character string in the search condition;
(2) a second state in which the identification character string is not considered in the search condition; and
(3) The vehicle-mounted speech recognition apparatus according to claim 1, wherein any one of a third state in which the identification character string is considered as an exclusion condition in the search condition is formed.
前記表示制御手段は、タッチパネル式ディスプレイ上の前記表示領域に対するタッチ操作態様に応じて、該表示領域内に表示されている識別文字列の表示状態を変化させる、請求項1に記載の車載音声認識装置。   The in-vehicle voice recognition according to claim 1, wherein the display control means changes a display state of an identification character string displayed in the display area according to a touch operation mode with respect to the display area on a touch panel display. apparatus. 前記音声認識手段は、「または」「および」「以外」「ではなく」のような検索条件に関わる単語を識別しない、請求項1に記載の車載音声認識装置。   The in-vehicle speech recognition device according to claim 1, wherein the speech recognition means does not identify a word related to a search condition such as “or” “and” “other than” “not”. 前記表示領域のうちの所定の2つ以上の前記表示領域内に表示されている2つ以上の識別文字列は、前記検索条件において他の識別文字列に対してOR条件として考慮される、請求項1に記載の車載音声認識装置。   Two or more identification character strings displayed in two or more predetermined display areas in the display area are considered as OR conditions for other identification character strings in the search condition. The vehicle-mounted speech recognition apparatus according to Item 1. 前記所定の2つ以上の表示領域は、他の表示領域に対して区別可能な方向に配列される、請求項5に記載の車載音声認識装置。   The in-vehicle voice recognition device according to claim 5, wherein the two or more predetermined display areas are arranged in a direction distinguishable with respect to other display areas. 前記表示制御手段は、前記所定の2つ以上の表示領域には、前記識別文字列のうち同種の識別文字列を表示する、請求項5に記載の車載音声認識装置。   The in-vehicle voice recognition device according to claim 5, wherein the display control means displays the same kind of identification character string among the identification character strings in the two or more predetermined display areas. 前記各表示領域内に表示されている各識別文字列間が、前記検索条件においてAND条件で互いに結ばれるように初期設定される請求項1に記載の車載音声認識装置において、
所定の隣接する2つの表示領域毎に、1つの操作領域が割り当てられ、
前記1つの操作領域に対するタッチ操作に応じて、該1つの操作領域に係る2つの表示領域内に表示されている2つの識別文字列間の前記検索条件における結びつきが、AND条件からOR条件に切り換えられる、車載音声認識装置。
The in-vehicle speech recognition apparatus according to claim 1, wherein each identification character string displayed in each display area is initially set to be connected to each other by an AND condition in the search condition.
One operation area is assigned to every two adjacent display areas,
In response to a touch operation on the one operation area, the connection in the search condition between two identification character strings displayed in the two display areas related to the one operation area is switched from the AND condition to the OR condition. A vehicle-mounted speech recognition device.
請求項2に記載の車載音声認識装置において、
ユーザが未確定の目的地を確定していくのに適した第1モードでは、前記第1の状態、第2の状態又は第3の状態が選択的に形成されるのに対して、
ユーザが確定している目的地を発話して音声認識させるのに適した第2モードでは、前記第1の状態又は第2の状態しか形成されない、車載音声認識装置。
The in-vehicle speech recognition device according to claim 2,
In the first mode suitable for the user to confirm the undecided destination, the first state, the second state, or the third state is selectively formed,
The in-vehicle speech recognition apparatus, in which only the first state or the second state is formed in the second mode suitable for speech recognition by uttering a destination determined by the user.
前記2つのモード間は、ユーザによるスイッチ操作、若しくは、前記発話に含まれる特定のキーワードに応じて切り換えられる、請求項9に記載の車載音声認識装置。   The vehicle-mounted speech recognition apparatus according to claim 9, wherein switching between the two modes is performed according to a switch operation by a user or a specific keyword included in the utterance. 前記第2モードでは、前記音声認識手段は、地図関連用語のみを含む認識辞書に基づいて音声識別を行う、請求項9に記載の車載音声認識装置。   The in-vehicle voice recognition device according to claim 9, wherein in the second mode, the voice recognition means performs voice identification based on a recognition dictionary including only map-related terms.
JP2005004360A 2005-01-11 2005-01-11 In-vehicle speech recognition device Expired - Fee Related JP4466379B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005004360A JP4466379B2 (en) 2005-01-11 2005-01-11 In-vehicle speech recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005004360A JP4466379B2 (en) 2005-01-11 2005-01-11 In-vehicle speech recognition device

Publications (2)

Publication Number Publication Date
JP2006195576A true JP2006195576A (en) 2006-07-27
JP4466379B2 JP4466379B2 (en) 2010-05-26

Family

ID=36801637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005004360A Expired - Fee Related JP4466379B2 (en) 2005-01-11 2005-01-11 In-vehicle speech recognition device

Country Status (1)

Country Link
JP (1) JP4466379B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140316A (en) * 2007-12-07 2009-06-25 Aisin Aw Co Ltd Search device, navigation device and search program
JP2009145992A (en) * 2007-12-11 2009-07-02 Internatl Business Mach Corp <Ibm> Method, device and program for supporting creation of search expression using a plurality of words
JP2010176421A (en) * 2009-01-29 2010-08-12 Canon Inc Data retrieval device, method of controlling the same, and computer program
JP2010276869A (en) * 2009-05-28 2010-12-09 Funai Electric Co Ltd Telephone set adaptable to automatic translation and telephone system adaptable to automatic translation
JP2012022251A (en) * 2010-07-16 2012-02-02 Mitsubishi Electric Corp Speech retrieval interface device and speech input retrieval method
JP5705312B2 (en) * 2011-05-20 2015-04-22 三菱電機株式会社 Information equipment
WO2015194106A1 (en) * 2014-06-19 2015-12-23 株式会社デンソー Destination determination device for vehicle and destination determination system for vehicle
JP2016024378A (en) * 2014-07-22 2016-02-08 Necパーソナルコンピュータ株式会社 Information processor, control method and program thereof
JP2018510407A (en) * 2015-07-28 2018-04-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Q & A information processing method, apparatus, storage medium and apparatus
KR20200066582A (en) * 2018-11-30 2020-06-10 엘지전자 주식회사 Vehicle control device and vehicle control method
JP2021111226A (en) * 2020-01-14 2021-08-02 東芝テック株式会社 Program and information processing system

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140316A (en) * 2007-12-07 2009-06-25 Aisin Aw Co Ltd Search device, navigation device and search program
JP2009145992A (en) * 2007-12-11 2009-07-02 Internatl Business Mach Corp <Ibm> Method, device and program for supporting creation of search expression using a plurality of words
JP2010176421A (en) * 2009-01-29 2010-08-12 Canon Inc Data retrieval device, method of controlling the same, and computer program
JP2010276869A (en) * 2009-05-28 2010-12-09 Funai Electric Co Ltd Telephone set adaptable to automatic translation and telephone system adaptable to automatic translation
JP2012022251A (en) * 2010-07-16 2012-02-02 Mitsubishi Electric Corp Speech retrieval interface device and speech input retrieval method
JP5705312B2 (en) * 2011-05-20 2015-04-22 三菱電機株式会社 Information equipment
WO2015194106A1 (en) * 2014-06-19 2015-12-23 株式会社デンソー Destination determination device for vehicle and destination determination system for vehicle
JP2016004538A (en) * 2014-06-19 2016-01-12 株式会社デンソー Vehicle destination determination device and vehicle destination determination system
US10048079B2 (en) 2014-06-19 2018-08-14 Denso Corporation Destination determination device for vehicle and destination determination system for vehicle
JP2016024378A (en) * 2014-07-22 2016-02-08 Necパーソナルコンピュータ株式会社 Information processor, control method and program thereof
JP2018510407A (en) * 2015-07-28 2018-04-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Q & A information processing method, apparatus, storage medium and apparatus
KR20200066582A (en) * 2018-11-30 2020-06-10 엘지전자 주식회사 Vehicle control device and vehicle control method
KR102192146B1 (en) * 2018-11-30 2020-12-16 엘지전자 주식회사 Vehicle control device and vehicle control method
JP2021111226A (en) * 2020-01-14 2021-08-02 東芝テック株式会社 Program and information processing system
JP7469050B2 (en) 2020-01-14 2024-04-16 東芝テック株式会社 Program and information processing system

Also Published As

Publication number Publication date
JP4466379B2 (en) 2010-05-26

Similar Documents

Publication Publication Date Title
JP4466379B2 (en) In-vehicle speech recognition device
JP4736982B2 (en) Operation control device, program
US9123327B2 (en) Voice recognition apparatus for recognizing a command portion and a data portion of a voice input
JPH11175568A (en) Input system
JP2008242462A (en) Multilingual non-native speech recognition
JP2010139826A (en) Voice recognition system
KR101063607B1 (en) Navigation system having a name search function using voice recognition and its method
JP5364412B2 (en) Search device
JP5217838B2 (en) In-vehicle device operating device and in-vehicle device operating method
JP2009230068A (en) Voice recognition device and navigation system
JP4262837B2 (en) Navigation method using voice recognition function
JP2002350163A (en) Navigation device
JP5455355B2 (en) Speech recognition apparatus and program
JP2000338993A (en) Voice recognition device and navigation system using this device
JP3624698B2 (en) Voice recognition device, navigation system and vending system using the device
JP3296783B2 (en) In-vehicle navigation device and voice recognition method
KR100677711B1 (en) Voice recognition apparatus, storage medium and navigation apparatus
JP3700533B2 (en) Speech recognition apparatus and processing system
JP3759313B2 (en) Car navigation system
JPH09114487A (en) Device and method for speech recognition, device and method for navigation, and automobile
JPH09114491A (en) Device and method for speech recognition, device and method for navigation, and automobile
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program
JP2002108389A (en) Method and device for retrieving and extracting individual&#39;s name by speech, and on-vehicle navigation device
JP4645708B2 (en) Code recognition device and route search device
US20240214332A1 (en) Chatbot service providing method and chatbot service providing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees