JP2011164538A - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP2011164538A
JP2011164538A JP2010030303A JP2010030303A JP2011164538A JP 2011164538 A JP2011164538 A JP 2011164538A JP 2010030303 A JP2010030303 A JP 2010030303A JP 2010030303 A JP2010030303 A JP 2010030303A JP 2011164538 A JP2011164538 A JP 2011164538A
Authority
JP
Japan
Prior art keywords
language
information
navigation
voice
languages
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010030303A
Other languages
Japanese (ja)
Other versions
JP5535676B2 (en
Inventor
Takeshi Kurosawa
武史 黒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2010030303A priority Critical patent/JP5535676B2/en
Publication of JP2011164538A publication Critical patent/JP2011164538A/en
Application granted granted Critical
Publication of JP5535676B2 publication Critical patent/JP5535676B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a "navigation device" capable of easily determining that voice recognition is not possible by language which is used for displaying navigation information. <P>SOLUTION: The navigation device capable of displaying the navigation information by any of a plurality of predetermined languages on a display unit, and capable of performing voice recognition together with display of the navigation information, for one or more languages included in the plurality of languages, includes: a determination means (S16) for determining whether or not, voice of the language of the navigation information displayed in the display unit is recognized; and a notification means (S18) for outputting predetermined information, when it is determined that the voice of the language of the navigation information displayed in the display unit, can not be recognized, by the determination means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、予め定められた複数の言語のいずれかにてナビゲーション情報を表示部に表示可能で、前記複数の言語に含まれる一または複数の言語については、前記ナビゲーション情報の表示とともに、音声認識が可能となるナビゲーション装置に関する。   The present invention is capable of displaying navigation information on a display unit in any one of a plurality of predetermined languages. For one or a plurality of languages included in the plurality of languages, voice recognition is performed together with the display of the navigation information. The present invention relates to a navigation device capable of

従来、音声認識技術を用いてユーザと対話を行いつつ各種処理を実行する音声対話装置が提案されている(特許文献1参照)。この音声対話装置では、文字等を画面表示させるために用いられる表示用データの作成に使用される表示用言語で作成された処理用データにもとづいて音声対話処理(音声認識処理を含む)を実行するようにしている。このように、文字等の情報を表示画面に表示させるとともにその表示される文字の言語の音声を認識する技術(音声認識技術)を、例えば、車載用のナビゲーション装置に適用した場合、地図情報(道路名、建物名、標識の文字等)や経路案等のナビゲーション情報がある言語(例えば、日本語)で表示画面に表示される状態において、ナビゲーションについての操作情報等をその言語の音声にて入力することができるようになる。   2. Description of the Related Art Conventionally, there has been proposed a voice interaction apparatus that executes various processes while interacting with a user using a voice recognition technology (see Patent Document 1). In this voice interactive device, voice interactive processing (including voice recognition processing) is executed based on processing data created in a display language used to create display data used to display characters and the like on the screen. Like to do. In this way, when a technology (speech recognition technology) for displaying information such as characters on the display screen and recognizing speech of the language of the displayed characters is applied to, for example, an in-vehicle navigation device, map information ( In a state where navigation information such as road names, building names, sign characters, etc.) and route plans etc. are displayed on the display screen in a language (for example, Japanese), navigation operation information, etc. is spoken in that language. You will be able to enter.

このようなナビゲーション装置によれば、乗員は、操作ボタン等を手によって操作することなく、操作情報等の必要な情報を、音声にて入力することが可能となることから、車両の運転に集中することができ、より安全な車両走行が可能になる。   According to such a navigation device, the occupant can input necessary information such as operation information by voice without operating the operation buttons and the like by hand, and therefore concentrates on driving the vehicle. This makes it possible to drive the vehicle more safely.

特開2004−29457号公報JP 2004-29457 A

ところで、使用言語の異なる複数の国(例えば、EU諸国)で使用されることが想定されるナビゲーション装置では、ナビゲーション情報の表示を予め定められた複数の言語にて可能となるようにし、ユーザが実際に使用する言語をその複数の言語から選択できるようにすることが考えられる。その場合、更に、音声認識エンジンを異なる複数の言語について用意し、ユーザが表示に用いられる言語に合わせて音声認識の言語を選択切換えできるようにすることも考えられる。しかし、ナビゲーション装置において複数の言語のナビゲーション情報の表示を可能にすることに比べて、複数の異なる言語についての音声認識エンジン(ソフトウエアにて構成される)を用意することは、技術的にも、コスト的にも難しい。このため、ナビゲーション情報をできるだけ多くの言語にて表示可能にすることを望む場合には、一部の言語については、音声認識の対象から外されることになる。   By the way, in a navigation device that is assumed to be used in a plurality of countries with different languages (for example, EU countries), navigation information can be displayed in a plurality of predetermined languages, and the user can It is conceivable that the language to be actually used can be selected from the plurality of languages. In that case, it is also conceivable that voice recognition engines are prepared for a plurality of different languages so that the user can selectively switch the voice recognition language according to the language used for display. However, it is technically possible to provide a speech recognition engine (configured by software) for a plurality of different languages as compared to enabling navigation information in a plurality of languages to be displayed in the navigation device. Also difficult in terms of cost. For this reason, when it is desired that navigation information can be displayed in as many languages as possible, some languages are excluded from the target of speech recognition.

このようにナビゲーション情報の表示が可能となる複数の言語のうちの一部について音声認識のできないナビゲーション装置では、その音声認識できない言語にてナビゲーション情報が表示されている状態で、ユーザがその表示に用いられる言語が音声認識可能であると思い込んで発声しても、その発声に係る情報が認識されることはない。この場合、ユーザは、ナビゲーション装置が故障している、あるいは、自分の発声の仕方が悪い等と思い込んでしまう場合がある。   Thus, in a navigation device that cannot recognize speech for a part of a plurality of languages in which navigation information can be displayed, the navigation information is displayed in a language that cannot be recognized by the user. Even if the user speaks assuming that the language to be used can be recognized, the information related to the speech is not recognized. In this case, the user may assume that the navigation device is out of order or that his / her way of speaking is bad.

本発明は、このような事情に鑑みてなされたもので、ナビゲーション情報の表示に用いられている言語での音声認識が可能でないことを容易に判断することができるナビゲーション装置を提供するものである。   The present invention has been made in view of such circumstances, and provides a navigation device that can easily determine that speech recognition in a language used for displaying navigation information is not possible. .

本発明に係るナビゲーション装置は、予め定められた複数の言語のいずれかにてナビゲーション情報を表示部に表示可能で、前記複数の言語に含まれる一または複数の言語については、前記ナビゲーション情報の表示とともに、音声認識が可能となるナビゲーション装置であって、前記表示部に表示されるナビゲーション情報の言語の音声が認識可能か否かを判定する判定手段と、前記判定手段によって、前記表示部に表示されるナビゲーション情報の言語の音声が認識可能ではないと判定されたときに、所定の情報を出力する報知手段とを有する構成となる。   The navigation device according to the present invention is capable of displaying navigation information on a display unit in any one of a plurality of predetermined languages. For one or a plurality of languages included in the plurality of languages, the navigation information is displayed. In addition, the navigation device is capable of voice recognition, and includes a determination unit that determines whether or not speech in the language of the navigation information displayed on the display unit can be recognized, and the determination unit displays the voice on the display unit. And a notification unit that outputs predetermined information when it is determined that the speech of the language of the navigation information is not recognizable.

このような構成により、音声が認識できない言語にてナビゲーション情報が表示部に表示されている場合、報知手段により所定の情報が出力される。   With such a configuration, when the navigation information is displayed on the display unit in a language in which speech cannot be recognized, predetermined information is output by the notification unit.

前記所定の情報は、音声が認識できない言語にてナビゲーション情報が表示されていることに関連付けられ得る情報であれば特に限定されず、視覚、聴覚、触覚及び嗅覚のいずれかの感覚にてユーザが認識できるものであればよい。   The predetermined information is not particularly limited as long as it is information that can be associated with navigation information being displayed in a language in which speech cannot be recognized, and the user can sense the sense of vision, hearing, touch, or smell. Anything can be recognized.

本発明に係るナビゲーション装置において、前記報知手段は、前記所定の情報を音声として出力するように構成することができる。   In the navigation device according to the present invention, the notification means can be configured to output the predetermined information as a voice.

このような構成により、車両を運転しているユーザは、車両の前方から目を離すことなく、報知手段により出力される所定の情報を認識することができるようになる。   With such a configuration, the user driving the vehicle can recognize the predetermined information output by the notification means without taking his eyes from the front of the vehicle.

また、本発明に係るナビゲーション装置において、前記ナビゲーション情報の表示可能な前記複数の言語のうち、前記音声認識可能な言語以外の言語で前記所定の情報を表す音声情報を記憶する記憶手段を有し、前記報知手段は、前記記憶手段に記憶された前記ナビゲーション情報を表示する言語と同じ言語の前記音声情報に基づいて、前記所定の情報を音声として出力するように構成することができる。   The navigation device according to the present invention further includes storage means for storing voice information representing the predetermined information in a language other than the voice recognizable language among the plurality of languages in which the navigation information can be displayed. The notification unit may be configured to output the predetermined information as a voice based on the voice information in the same language as the language for displaying the navigation information stored in the storage unit.

このような構成により、音声認識できない言語にてナビゲーション情報が表示部に表示されている場合、報知手段によりそのナビゲーション情報の表示に用いられている言語の音声情報に基づいて前記所定の情報が音声にして出力される。表示されているナビゲーション情報の言語が音声認識可能であると思い込んでいるユーザに対して、その言語の音声にて前記所定の情報が出力されるので、ユーザに違和感なく前記所定の情報を伝えることができるようになる。   With such a configuration, when the navigation information is displayed on the display unit in a language that cannot be recognized by the voice, the predetermined information is voiced based on the voice information of the language used for displaying the navigation information by the notification unit. Is output. For the user who thinks that the language of the displayed navigation information is recognizable, the predetermined information is output in the voice of the language, so that the predetermined information is conveyed to the user without a sense of incongruity. Will be able to.

また、本発明に係るナビゲーション装置において、前記判定手段によって、前記表示部に表示されるナビゲーション情報の言語の音声が認識可能ではないと判定されたときに、音声認識言語を前記音声認識可能な一または複数の言語のいずれかに設定するように構成することができる。   In the navigation device according to the present invention, when the determination unit determines that the speech of the language of the navigation information displayed on the display unit is not recognizable, the speech recognition language can be recognized as the speech recognition language. Or it can be configured to be set to one of a plurality of languages.

このような構成により、音声認識できない言語にてナビゲーション情報が表示部に表示されている場合、全く音声認識ができないというのではなく、表示に用いられる言語と異なる何らかの言語での音声認識が可能になる。   With this configuration, when navigation information is displayed on the display unit in a language that cannot be recognized, it is not possible to recognize the speech at all, but it is possible to recognize speech in some language different from the language used for display. Become.

更に、本発明に係るナビゲーション装置において、前記音声認識可能な一または複数の言語から設定すべき音声認識言語をユーザに選択させるためのユーザインタフェースを有する構成とすることができる。   Furthermore, the navigation apparatus according to the present invention can be configured to have a user interface for allowing the user to select a speech recognition language to be set from one or a plurality of languages capable of speech recognition.

このような構成により、音声認識できない言語にてナビゲーション情報が表示部に表示されている場合、ユーザによって選択された言語での音声認識が可能となる。   With such a configuration, when the navigation information is displayed on the display unit in a language that cannot be recognized by speech, it is possible to perform speech recognition in the language selected by the user.

本発明に係るナビゲーション装置において、ユーザの発話音声を認識するための所定の操作がなされたときに、前記判定手段を有効にさせる制御手段を有する構成とすることができる。   The navigation apparatus according to the present invention may include a control unit that makes the determination unit effective when a predetermined operation for recognizing a user's speech is performed.

このような構成により、ユーザがナビゲーション情報の表示に用いられている言語での音声認識が可能であると思い込んで具体的に音声を発したときに、所定の情報が出力されるようになる。   With such a configuration, predetermined information is output when the user utters a specific sound assuming that the user can recognize the voice in the language used for displaying the navigation information.

本発明に係るナビゲーション装置によれば、音声が認識できない言語にてナビゲーション情報が表示部に表示されている場合、報知手段により所定の情報が出力されるので、ユーザは、その所定の情報によってナビゲーション情報の表示に用いられている言語での音声認識が可能でないことを容易に判断することができる。   According to the navigation device of the present invention, when the navigation information is displayed on the display unit in a language in which the voice cannot be recognized, the predetermined information is output by the notification means, and thus the user navigates according to the predetermined information. It can be easily determined that speech recognition in the language used for displaying information is not possible.

本発明の実施の形態に係るナビゲーション装置を示すブロック図である。It is a block diagram which shows the navigation apparatus which concerns on embodiment of this invention. 図1に示すナビゲーション装置における設定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the setting process in the navigation apparatus shown in FIG. メイン設定画面を示す図である。It is a figure which shows a main setting screen. 言語設定画面を示す図である。It is a figure which shows a language setting screen. 音声認識のための言語を設定するための処理手順を示すフローチャートである。It is a flowchart which shows the process sequence for setting the language for speech recognition. 音声認識言語設定画面を示す図である。It is a figure which shows a speech recognition language setting screen. 発話スイッチの操作時にメッセージ出力する場合の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the case of outputting a message at the time of operation of a speech switch.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明の実施の形態に係るナビゲーション装置は、図1に示すように構成される。   The navigation device according to the embodiment of the present invention is configured as shown in FIG.

図1において、ナビゲーション装置10は、コンピュータユニット(CPUを含む)にて構成される処理ユニット11を有している。処理ユニット11には、車両ナビゲーションに必要な位置情報を提供するためのGPSユニット17、センサ類18(ジャイロセンサ、加速度センサ等)及び各種情報を記憶する記憶部14(例えば、ハードディスクユニット)が接続されている。また、処理ユニット11には、車室内に設けられ、LCD等により構成される表示部13、操作ボタンや表示部13内に構成されるタッチパネル等の操作部12、車室内に設けられたスピーカ16に音声信号を供給する出力回路15が接続されている。   In FIG. 1, the navigation apparatus 10 has a processing unit 11 composed of a computer unit (including a CPU). Connected to the processing unit 11 are a GPS unit 17 for providing position information necessary for vehicle navigation, sensors 18 (gyro sensors, acceleration sensors, etc.), and a storage unit 14 (for example, a hard disk unit) for storing various information. Has been. Further, the processing unit 11 includes a display unit 13 provided in the vehicle interior and configured by an LCD or the like, an operation unit 12 such as an operation button or a touch panel configured in the display unit 13, and a speaker 16 provided in the vehicle interior. An output circuit 15 for supplying an audio signal is connected.

また、このナビゲーション装置10は、音声認識エンジン19、音声入力回路20、車室内に運転者に向けて設置されたマイク21及び音声入力回路20に接続される発話スイッチ22を有している。発話スイッチ22が押されると音声入力回路20が有効になる。その状態で、マイク21に音声を入力すると、その音声に対応した音声信号がマイク21から音声入力回路20を介して処理ユニット11に供給される。そして、処理ユニット11が音声入力回路20から入力された音声信号に対応した音声情報を音声認識エンジン19に供給すると、音声認識エンジン19が、その音声情報に対して音声認識処理を実行し、その認識結果を処理ユニット11に返送する。   The navigation device 10 also includes a voice recognition engine 19, a voice input circuit 20, a microphone 21 installed in the passenger compartment toward the driver, and a speech switch 22 connected to the voice input circuit 20. When the speech switch 22 is pressed, the voice input circuit 20 is activated. In this state, when a sound is input to the microphone 21, a sound signal corresponding to the sound is supplied from the microphone 21 to the processing unit 11 via the sound input circuit 20. When the processing unit 11 supplies the speech information corresponding to the speech signal input from the speech input circuit 20 to the speech recognition engine 19, the speech recognition engine 19 executes speech recognition processing on the speech information, The recognition result is returned to the processing unit 11.

記憶部14には、車両ナビゲーションに必要となる地図情報(道路名、建物名、標識の文字等)や経路案等のナビゲーション情報が格納されている。このナビゲーション情報は、複数の言語、例えば、11言語(英語、ドイツ語、イタリア語、フランス語、スペイン語、ポルトガル語、オランダ語、デンマーク語、スエーデン語、ノルウェー語、フィンランド語)のものが用意されている。また、音声認識エンジン19は、前記ナビゲーション情報を表し得る前記複数の言語に含まれる一または複数の言語、例えば、5言語(英語、ドイツ語、イタリア語、フランス語、スペイン語)の音声認識に対応し得るものとなっている。   The storage unit 14 stores navigation information such as map information (road names, building names, sign characters, etc.) and route plans necessary for vehicle navigation. This navigation information is available in multiple languages, for example, 11 languages (English, German, Italian, French, Spanish, Portuguese, Dutch, Danish, Swedish, Norwegian, Finnish). ing. In addition, the speech recognition engine 19 supports speech recognition in one or more languages included in the plurality of languages that can represent the navigation information, for example, five languages (English, German, Italian, French, Spanish). It has become possible.

ユーザ(運転者)は、ナビゲーション装置10における操作部12の操作、表示部13の画面及びスピーカ16からの音声(ユーザインタフェース)によって、各種の設定を行うことができる。処理ユニット11は、図2に示す手順に従って設定処理を実行する。   The user (driver) can make various settings by operating the operation unit 12 in the navigation device 10, the screen of the display unit 13, and sound (user interface) from the speaker 16. The processing unit 11 executes the setting process according to the procedure shown in FIG.

ユーザが操作部12において設定処理の開始操作を行うと、処理ユニット11は、表示部13に、図3に示すような、メイン設定画面を表示させる(S11)。このメイン設定画面では、「基本設定(Basic Setting)」、「ルート設定(Routing)」、「ガイダンス設定(Guidance)」、「時間設定(Clock Setting)」、「色設定(Color)」、「言語設定(Language)」、「車両情報設定(Vehicle)」の各設定及び「設定情報リセット(Reset All Setting)」、「個人情報クリア(Clear Personal Data)」が可能となっている。処理ユニット11は、表示部13に前記メイン設定画面を表示させた後、操作部12にて操作がなされたか否かを監視する(S12)。ここで、ユーザが操作部12の操作を行うと(S12でYES)、処理ユニット11は、その操作が「言語設定(Language)」の操作であるか否かを判定する(S13)。その操作が「言語設定(Language)」の操作ではない場合(S13でNO)、処理ユニット11は、その操作によって選択された設定処理を実行する(S20)。   When the user performs a setting process start operation on the operation unit 12, the processing unit 11 causes the display unit 13 to display a main setting screen as shown in FIG. 3 (S11). In this main setting screen, "Basic Setting", "Route Setting", "Guidance", "Clock Setting", "Color", "Language" Each setting of “Setting (Language)” and “Vehicle Information Setting (Vehicle)”, “Reset All Setting”, and “Clear Personal Data” are possible. After displaying the main setting screen on the display unit 13, the processing unit 11 monitors whether or not an operation has been performed on the operation unit 12 (S12). Here, when the user performs an operation on the operation unit 12 (YES in S12), the processing unit 11 determines whether or not the operation is an operation of “Language setting” (S13). If the operation is not a “language setting (Language)” operation (NO in S13), the processing unit 11 executes the setting process selected by the operation (S20).

一方、前記操作が「言語設定(Language)」の操作である場合(S13でYES)、処理ユニット11は、図4に示すような言語設定画面を表示ユニット13に表示させる(S14)。この言語設定画面では、ナビゲーション情報を表し得る複数の言語、例えば、前述した11言語のリスト表示がなされる。なお、図4では、6言語(英語(UK English)、ドイツ語(Deutsch)、イタリア語(Italiano)、フランス語(Francasi)、スペイン語(Espanol)、ポルトガル語(Portugues)が画面表示されており、残りの言語については、画面スクロールによって表示可能となっている。この言語設定画面において、ユーザが操作部12を用いて1つの言語の選択操作を行うと、処理ユニット11は、その選択操作によって指定された言語をナビゲーション情報の表示言語として設定する(S15)。   On the other hand, when the operation is a “language setting (Language)” operation (YES in S13), the processing unit 11 displays a language setting screen as shown in FIG. 4 on the display unit 13 (S14). On this language setting screen, a list of a plurality of languages that can represent navigation information, for example, the 11 languages described above is displayed. In FIG. 4, six languages (English (UK English), German (Deutsch), Italian (Italiano), French (Francasi), Spanish (Espanol), and Portuguese (Portugues) are displayed on the screen. The remaining languages can be displayed by scrolling the screen, and when the user selects one language using the operation unit 12 on the language setting screen, the processing unit 11 designates the selection by the selection operation. The language thus set is set as the display language of the navigation information (S15).

その後、処理ユニット11は、ナビゲーション情報の表示言語として設定された言語が音声認識エンジン19による音声認識が可能な言語であるか否かを判定する(S16)。そして、処理ユニット11は、ナビゲーション情報の表示言語として設定された言語が音声認識エンジン19による音声認識が可能な言語(例えば、英語、ドイツ語、イタリア語、フランス語、スペイン語のうちのいずれか)であると判定すると(S16でYES)、音声認識エンジン19に対して、ナビゲーション情報の表示言語として設定された言語を音声認識言語として設定する(S17)。   Thereafter, the processing unit 11 determines whether or not the language set as the display language of the navigation information is a language that can be recognized by the speech recognition engine 19 (S16). The processing unit 11 is a language in which the language set as the display language of the navigation information can be recognized by the speech recognition engine 19 (for example, any one of English, German, Italian, French, Spanish). If it is determined (YES in S16), the language set as the display language of the navigation information is set as the speech recognition language for the speech recognition engine 19 (S17).

一方、処理ユニット11は、前記ナビゲーション情報の表示言語として設定された言語が音声認識エンジン19による音声認識が可能な言語ではないとの判定をすると(S16でNO)、前記ナビゲーションの表示言語として設定された言語の音声認識はできないことを表すメッセージ情報を出力回路15に供給する(S18)。そして、出力回路15からの前記メッセージ情報に対応する音声信号によってスピーカ16から前記設定された言語の音声認識ができないことを表すメッセージが音声として出力される。その後、処理ユニット11は、音声認識エンジン19に対して、デフォルト指定言語である英語(UK English)を音声認識言語として設定する(S19)。   On the other hand, when the processing unit 11 determines that the language set as the display language of the navigation information is not a language that can be recognized by the speech recognition engine 19 (NO in S16), the processing unit 11 sets it as the display language of the navigation. The message information indicating that the recognized language cannot be recognized is supplied to the output circuit 15 (S18). Then, a message indicating that speech recognition of the set language cannot be performed is output from the speaker 16 as a voice by a voice signal corresponding to the message information from the output circuit 15. Thereafter, the processing unit 11 sets English (UK English), which is the default designated language, as the speech recognition language for the speech recognition engine 19 (S19).

ナビゲーション情報を表示し得る複数の言語のうち音声認識エンジン19による音声認識が可能ではない一または複数の言語(この場合、6言語)それぞれでの前記メッセージ情報が記憶部14に格納されている。処理ユニット11は、前記ナビゲーション情報の表示言語として設定された言語が音声認識エンジン19による音声認識が可能な言語ではないとの判定をした場合、記憶部14から前記ナビゲーション情報の表示言語として設定された言語のメッセージ情報を読み出して出力回路15に供給する。これにより、前記メッセージ情報が、ナビゲーション情報の表示言語として設定された言語と同じ言語にて音声出力されるようになる。即ち、ユーザが設定した言語にて前記メッセージの音声出力がなされる。   The message information is stored in the storage unit 14 in one or a plurality of languages (in this case, six languages) that cannot be recognized by the speech recognition engine 19 among a plurality of languages that can display navigation information. When the processing unit 11 determines that the language set as the display language of the navigation information is not a language that can be recognized by the voice recognition engine 19, the processing unit 11 sets the display language of the navigation information from the storage unit 14. The message information in the selected language is read and supplied to the output circuit 15. As a result, the message information is output by voice in the same language as the language set as the display language of the navigation information. That is, the message is output in the language set by the user.

以上によって言語設定処理が終了する。このようにして言語設定処理が終了すると、車両ナビゲーションに際して、表示部13には、地図上の道路名、建物名、標識の文字等や経路案内の文字等がナビゲーション情報の表示言語として設定された言語にて表示される。そして、そのナビゲーション情報の表示言語として設定された言語が、音声認識エンジン19による音声認識が可能な言語(例えば、英語)である場合、乗員(運転者)が発話スイッチ22を押しながら表示言語と同じ言語で言葉を発声すると、その発声音に対応した音声信号がマイク21から音声入力回路20を介して処理ユニット11に供給される。処理ユニット11は、音声入力回路20から入力された音声信号に対応した音声情報を音声認識エンジン19に供給する。音声認識エンジン19は、その音声情報に対して音声認識処理を実行し、その認識結果を処理ユニット11に返送する。処理ユニット11は、認識結果に基づいた処理を実行する。例えば、乗員から操作情報が発声された場合、処理ユニット11は、その操作情報に基づいた処理を実行するようになる。これにより、乗員は、手による操作を行うことなく、必要な操作情報をナビゲーション装置10に入力することができるようになるので、車両の運転に集中することができる。   This completes the language setting process. When the language setting process is completed in this manner, road names, building names, sign characters, route guidance characters, and the like on the map are set as display languages for navigation information in the display unit 13 during vehicle navigation. Displayed in language. When the language set as the display language of the navigation information is a language that can be recognized by the speech recognition engine 19 (for example, English), the occupant (driver) sets the display language while pressing the utterance switch 22. When a word is uttered in the same language, an audio signal corresponding to the uttered sound is supplied from the microphone 21 to the processing unit 11 via the audio input circuit 20. The processing unit 11 supplies voice information corresponding to the voice signal input from the voice input circuit 20 to the voice recognition engine 19. The voice recognition engine 19 performs voice recognition processing on the voice information and returns the recognition result to the processing unit 11. The processing unit 11 executes processing based on the recognition result. For example, when the operation information is uttered from the occupant, the processing unit 11 performs a process based on the operation information. Accordingly, the occupant can input necessary operation information to the navigation device 10 without performing a manual operation, and thus can concentrate on driving the vehicle.

一方、ナビゲーション情報の表示言語として設定された言語が、音声認識エンジン19による音声認識が可能ではない言語(例えば、ポルトガル語)の場合、前述した言語設定処理の過程で、ナビゲーション情報の表示言語として設定された言語の音声認識が可能でないことを表すメッセージがその設定言語にて音声出力されるので、ユーザは、車両ナビゲーションに先立って、設定した言語では音声認識(音声入力)の機能を使えないことを容易に知ることができる。従って、車両ナビゲーション中に、ユーザがその表示に用いられる言語が音声認識可能であると思い込んで発声してしまうことを未然に防止することができる。   On the other hand, when the language set as the display language of the navigation information is a language that cannot be recognized by the speech recognition engine 19 (for example, Portuguese), the navigation information is displayed as the display language of the navigation information in the above-described language setting process. Since a message indicating that speech recognition in the set language is not possible is output in the set language, the user cannot use the speech recognition (speech input) function in the set language prior to vehicle navigation. You can easily know that. Therefore, it is possible to prevent the user from speaking while assuming that the language used for the display can be recognized during the vehicle navigation.

また、ナビゲーション情報の表示言語として設定された言語が、音声認識エンジン19による音声認識が可能ではない言語(例えば、ポルトガル語)の場合であっても、デフォルト指定の言語である英語での音声認識が可能になるので、表示設定された言語とともに英語を話せるユーザであれば、そのユーザは、音声認識機能を有効に利用することができるようになる。   Further, even when the language set as the display language of the navigation information is a language that cannot be recognized by the speech recognition engine 19 (for example, Portuguese), speech recognition in English, which is the default language, is performed. Therefore, if the user can speak English together with the display-set language, the user can effectively use the voice recognition function.

なお、前述したナビゲーション装置では、ナビゲーション情報の表示言語として設定された言語の音声認識が可能でないことを表すメッセージが音声出力されるものであったが、表示部13に表示されるものであってもよい。また、メッセージの音声出力に代えて、警報音の出力、警報マークの表示、シートの振動等を行うこともできる。   In the navigation device described above, a message indicating that speech recognition of the language set as the display language of the navigation information is not possible is output by voice, but is displayed on the display unit 13. Also good. Further, instead of outputting the voice message, an alarm sound can be output, an alarm mark can be displayed, or the seat can be vibrated.

また、前記メッセージには、デフォルト指定である英語の音声認識が可能であることを表すメッセージを含めることもできる。   In addition, the message may include a message indicating that English speech recognition, which is a default designation, is possible.

更に、前記ナビゲーション装置10では、ナビゲーション情報の表示言語として設定された言語が、音声認識が可能な言語ではない場合、デフォルト指定である英語が音声認識の言語として設定されたが、その音声認識の言語をユーザ(乗員)に選択させることもできる。この場合、処理ユニット11は、図5に示す手順にて処理を行う。   Further, in the navigation device 10, when the language set as the display language of the navigation information is not a language that can be recognized by speech, the default designation English is set as the language for speech recognition. The language can also be selected by the user (occupant). In this case, the processing unit 11 performs processing according to the procedure shown in FIG.

図5において、処理ユニット11は、前記ナビゲーション情報の表示言語として設定された言語の音声認識はできないことを表すメッセージ情報を出力(図2におけるS18)した後に、図6に示すような音声認識言語設定画面を表示部13に表示させる(S31)。この音声認識設定画面では、音声認識が可能な5つの言語(英語、ドイツ語、イタリア語、フランス語、スペイン語)とともに、「非設定(NON)」がリスト表示される。ユーザが操作部12を使って音声認識設定画面にリスト表示された5つの言語から1つの言語を選択すると、処理ユニット11は、音声認識エンジン19に対して前記選択された言語を音声認識言語として設定する(S32)。   In FIG. 5, the processing unit 11 outputs message information indicating that speech recognition of the language set as the display language of the navigation information cannot be performed (S18 in FIG. 2), and then the speech recognition language as shown in FIG. A setting screen is displayed on the display unit 13 (S31). In this voice recognition setting screen, “non-set (NON)” is displayed in a list together with five languages (English, German, Italian, French, Spanish) that can be voice-recognized. When the user selects one language from the five languages displayed in the list on the voice recognition setting screen using the operation unit 12, the processing unit 11 sets the selected language as the voice recognition language for the voice recognition engine 19. Set (S32).

これにより、ナビゲーション情報の表示言語として設定された言語の音声認識が可能でない場合であっても、ユーザが理解できる言語を音声認識言語として設定することができるようになる。   As a result, even when speech recognition of the language set as the display language of the navigation information is not possible, a language that can be understood by the user can be set as the speech recognition language.

なお、前記音声認識設定画面に表示される「非設定(NON)」が選択されると、音声認識エンジン19に対して音声認識言語が設定されず、車両ナビゲーションに際して音声認識(音声入力)機能が有効にならない。   When “non-set (NON)” displayed on the voice recognition setting screen is selected, no voice recognition language is set for the voice recognition engine 19, and a voice recognition (voice input) function is provided for vehicle navigation. Not effective.

更に、前述したナビゲーション装置10では、ナビゲーション情報の表示言語を設定する際に(言語設定処理の過程で)、その設定言語の音声認識が可能でなない旨のメッセージを出力するようにしたが、ユーザが、誤って発話した際にそのメッセージを出力させるようにすることもできる。この場合、処理ユニット10は、図7に示す手順に従って処理を実行する。   Further, in the navigation device 10 described above, when the display language of the navigation information is set (in the process of the language setting process), a message that voice recognition of the set language is not possible is output. When the user speaks by mistake, the message can be output. In this case, the processing unit 10 executes processing according to the procedure shown in FIG.

なんらかの操作がなされると、処理ユニット11は、その操作が発話スイッチ22の操作であるか否かを判定する(S41)。発話スイッチ22の操作でない場合(S41でNO)、処理ユニット11は、その操作入力に応じた処理を実行する(S44)。一方、発話スイッチ22の操作である場合には、処理ユニット11は、更に、ナビゲーション情報の表示言語として設定されている言語が音声認識エンジン19による音声認識が可能な言語であるか否かを判定する(S42)。そして、その表示言語として設定されている言語の音声認識が可能でない場合(S42でNO)、処理ユニット11は、前記ナビゲーションの表示言語として設定された言語の音声認識はできないことを表すメッセージ情報を出力する(S43)。これにより、前述したのと同様に、前記ナビゲーションの表示言語として設定された言語の音声認識はできないことを表すメッセージの音声出力がなされる。   When any operation is performed, the processing unit 11 determines whether or not the operation is an operation of the speech switch 22 (S41). When the operation is not an operation of the speech switch 22 (NO in S41), the processing unit 11 executes a process according to the operation input (S44). On the other hand, when the operation is the speech switch 22, the processing unit 11 further determines whether or not the language set as the display language of the navigation information is a language that can be recognized by the speech recognition engine 19. (S42). If speech recognition of the language set as the display language is not possible (NO in S42), the processing unit 11 displays message information indicating that speech recognition of the language set as the display language of the navigation is not possible. Output (S43). As a result, as described above, a voice output of a message indicating that speech recognition of the language set as the display language of the navigation is not possible is performed.

なお、前記表示言語として設定されている言語の音声認識が可能である場合場合(S42でYES)、処理ユニット10は、発話スイッチ22の操作に応じた処理、即ち、音声認識に係る処理(入力音声情報の音声認識エンジン19への提供及び認識結果に基づいた処理等)を実行する(S44)。   When speech recognition of the language set as the display language is possible (YES in S42), the processing unit 10 performs processing according to the operation of the speech switch 22, that is, processing related to speech recognition (input). (Providing voice information to the voice recognition engine 19 and processing based on the recognition result) (S44).

このように、ユーザがナビゲーション情報の表示に用いられる言語が音声認識可能であると思い込んで発話スイッチ20を操作しつつ発声した場合に、音声認識ができない旨のメッセージが出力されるので、ナビゲーション装置10がその発声に対する応答動作をしなくても、ユーザは、ナビゲーション装置10が故障している、あるいは、自分の発声の仕方が悪い等と思い込んでしまうことを確実に防止することができる。   As described above, when the user speaks while operating the speech switch 20 assuming that the language used for displaying the navigation information can be recognized, a message indicating that the speech cannot be recognized is output. Even if 10 does not respond to the utterance, the user can surely prevent the navigation device 10 from thinking that the navigation apparatus 10 is out of order or that his / her utterance is bad.

以上、説明したように、本発明に係るナビゲーション装置は、ナビゲーション情報の表示に用いられている言語での音声認識が可能でないことを容易に判断することができるという効果を有し、予め定められた複数の言語のいずれかにてナビゲーション情報を表示部に表示可能で、前記複数の言語に含まれる一または複数の言語については、前記ナビゲーション情報の表示とともに、音声認識が可能となるナビゲーション装置として有用である。   As described above, the navigation device according to the present invention has an effect that it is possible to easily determine that speech recognition in the language used for displaying navigation information is not possible, and is determined in advance. As a navigation device capable of displaying navigation information in any one of a plurality of languages on a display unit, and for one or a plurality of languages included in the plurality of languages, the voice information can be recognized together with the display of the navigation information. Useful.

10 ナビゲーション装置
11 処理ユニット
12 操作部
13 表示部
14 記憶部
15 出力回路
16 スピーカ
17 GPSユニット
18 センサ類(ジャイロセンサ・加速度センサ)
19 音声認識エンジン
20 音声入力回路
21 マイク
22 発話スイッチ
DESCRIPTION OF SYMBOLS 10 Navigation apparatus 11 Processing unit 12 Operation part 13 Display part 14 Storage part 15 Output circuit 16 Speaker 17 GPS unit 18 Sensors (gyro sensor / acceleration sensor)
19 Voice recognition engine 20 Voice input circuit 21 Microphone 22 Speech switch

Claims (6)

予め定められた複数の言語のいずれかにてナビゲーション情報を表示部に表示可能で、前記複数の言語に含まれる一または複数の言語については、前記ナビゲーション情報の表示とともに、音声認識が可能となるナビゲーション装置であって、
前記表示部に表示されるナビゲーション情報の言語の音声が認識可能か否かを判定する判定手段と、
前記判定手段によって、前記表示部に表示されるナビゲーション情報の言語の音声が認識可能ではないと判定されたときに、所定の情報を出力する報知手段とを有するナビゲーション装置。
Navigation information can be displayed on the display unit in any of a plurality of predetermined languages, and for one or a plurality of languages included in the plurality of languages, voice recognition can be performed together with the display of the navigation information. A navigation device,
Determining means for determining whether or not the speech of the language of the navigation information displayed on the display unit is recognizable;
The navigation apparatus which has a alerting | reporting means which outputs a predetermined information, when the determination means determines with the speech of the language of the navigation information displayed on the said display part not being recognizable.
前記報知手段は、前記所定の情報を音声として出力する請求項1記載のナビゲーション装置。   The navigation device according to claim 1, wherein the notification unit outputs the predetermined information as a voice. 前記ナビゲーション情報の表示可能な前記複数の言語のうち、前記音声認識可能な言語以外の言語で前記所定の情報を表す音声情報を記憶する記憶手段を有し、
前記報知手段は、前記記憶手段に記憶された前記ナビゲーション情報を表示する言語と同じ言語の前記音声情報に基づいて、前記所定の情報を音声として出力する請求項2記載のナビゲーション装置。
Storage means for storing voice information representing the predetermined information in a language other than the voice-recognizable language among the plurality of languages in which the navigation information can be displayed;
The navigation device according to claim 2, wherein the notification unit outputs the predetermined information as a voice based on the voice information in the same language as a language for displaying the navigation information stored in the storage unit.
前記判定手段によって、前記表示部に表示されるナビゲーション情報の言語の音声が認識可能ではないと判定されたときに、音声認識言語を前記音声認識可能な一または複数の言語のいずれかに設定する請求項1乃至3のいずれかに記載のナビゲーション装置。   When the determination unit determines that the speech of the language of the navigation information displayed on the display unit is not recognizable, the speech recognition language is set to one or a plurality of languages capable of speech recognition. The navigation device according to any one of claims 1 to 3. 前記音声認識可能な一または複数の言語から設定すべき音声認識言語をユーザに選択させるためのユーザインタフェースを有する請求項4記載のナビゲーション装置。   The navigation apparatus according to claim 4, further comprising a user interface for allowing a user to select a voice recognition language to be set from the one or more languages capable of voice recognition. ユーザの発話音声を認識するための所定の操作がなされたときに、前記判定手段を有効にさせる制御手段を有する請求項1乃至5のいずれかに記載のナビゲーション装置。   The navigation apparatus according to claim 1, further comprising a control unit that enables the determination unit when a predetermined operation for recognizing a user's uttered voice is performed.
JP2010030303A 2010-02-15 2010-02-15 Navigation device Expired - Fee Related JP5535676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010030303A JP5535676B2 (en) 2010-02-15 2010-02-15 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010030303A JP5535676B2 (en) 2010-02-15 2010-02-15 Navigation device

Publications (2)

Publication Number Publication Date
JP2011164538A true JP2011164538A (en) 2011-08-25
JP5535676B2 JP5535676B2 (en) 2014-07-02

Family

ID=44595250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010030303A Expired - Fee Related JP5535676B2 (en) 2010-02-15 2010-02-15 Navigation device

Country Status (1)

Country Link
JP (1) JP5535676B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053040A (en) * 2018-09-27 2020-04-02 中強光電股▲ふん▼有限公司 Intelligent voice system and method for controlling projector

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0673800U (en) * 1993-03-30 1994-10-18 富士通テン株式会社 Voice recognizer
JP2001083991A (en) * 1999-09-16 2001-03-30 Denso Corp User interface device, navigation system, information processing device and recording medium
JP2003204394A (en) * 2001-09-26 2003-07-18 Koninkl Philips Electronics Nv Method for changing dialog system
JP2003316383A (en) * 2002-04-22 2003-11-07 It Communications:Kk Voice response system
JP2004272363A (en) * 2003-03-05 2004-09-30 Canon Inc Voice input/output device
JP2006285103A (en) * 2005-04-04 2006-10-19 Nissan Motor Co Ltd Speech recognition device and method
JP2008160852A (en) * 2007-12-27 2008-07-10 Hitachi Ltd Information processing apparatus, information processing method, and software

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0673800U (en) * 1993-03-30 1994-10-18 富士通テン株式会社 Voice recognizer
JP2001083991A (en) * 1999-09-16 2001-03-30 Denso Corp User interface device, navigation system, information processing device and recording medium
JP2003204394A (en) * 2001-09-26 2003-07-18 Koninkl Philips Electronics Nv Method for changing dialog system
JP2003316383A (en) * 2002-04-22 2003-11-07 It Communications:Kk Voice response system
JP2004272363A (en) * 2003-03-05 2004-09-30 Canon Inc Voice input/output device
JP2006285103A (en) * 2005-04-04 2006-10-19 Nissan Motor Co Ltd Speech recognition device and method
JP2008160852A (en) * 2007-12-27 2008-07-10 Hitachi Ltd Information processing apparatus, information processing method, and software

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053040A (en) * 2018-09-27 2020-04-02 中強光電股▲ふん▼有限公司 Intelligent voice system and method for controlling projector
JP7359603B2 (en) 2018-09-27 2023-10-11 中強光電股▲ふん▼有限公司 Intelligent audio system and projector control method

Also Published As

Publication number Publication date
JP5535676B2 (en) 2014-07-02

Similar Documents

Publication Publication Date Title
US9881605B2 (en) In-vehicle control apparatus and in-vehicle control method
KR101613407B1 (en) Vehicle system comprising an assistance functionality and method for operating a vehicle system
EP1307810B1 (en) User interface for telematics systems
JP4715805B2 (en) In-vehicle information retrieval device
JP5922229B2 (en) Mobile navigation system
KR20100076998A (en) Multimode user interface of a driver assistance system for inputting and presentation of information
JP3702867B2 (en) Voice control device
JP2009251388A (en) Native language utterance device
US9193315B2 (en) Method and apparatus for operating a device in a vehicle with a voice controller
JP6459684B2 (en) Information output device, information output method, and program
JP2008094228A (en) Call warning device for vehicle
JP5535676B2 (en) Navigation device
JP2010039099A (en) Speech recognition and in-vehicle device
JP4781368B2 (en) Voice recognition apparatus, display method, and display processing program
JP5986468B2 (en) Display control apparatus, display system, and display control method
JP2008032629A (en) Navigation system
JP2009162691A (en) On-vehicle information terminal
JP3705220B2 (en) Navigation device, image display method, and image display program
JP2008014756A (en) Navigation device and its voice output method
JP2007057805A (en) Information processing apparatus for vehicle
JP6717537B2 (en) Operation restriction control device and operation restriction control method
KR101104822B1 (en) System and Method for Foreign Language Learning based on Loud Speaking
JP2015129672A (en) Facility retrieval apparatus and method
JP2011028460A (en) Information retrieval device, control method, and program
JP2005128791A (en) Display unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140423

R150 Certificate of patent or registration of utility model

Ref document number: 5535676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140423

LAPS Cancellation because of no payment of annual fees