JP2020008876A - System and program - Google Patents

System and program Download PDF

Info

Publication number
JP2020008876A
JP2020008876A JP2019172412A JP2019172412A JP2020008876A JP 2020008876 A JP2020008876 A JP 2020008876A JP 2019172412 A JP2019172412 A JP 2019172412A JP 2019172412 A JP2019172412 A JP 2019172412A JP 2020008876 A JP2020008876 A JP 2020008876A
Authority
JP
Japan
Prior art keywords
user
voice
recognition
character
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019172412A
Other languages
Japanese (ja)
Inventor
圭三 高橋
Keizo Takahashi
圭三 高橋
裕一 梶田
Yuichi Kajita
裕一 梶田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yupiteru Corp
Original Assignee
Yupiteru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yupiteru Corp filed Critical Yupiteru Corp
Priority to JP2019172412A priority Critical patent/JP2020008876A/en
Publication of JP2020008876A publication Critical patent/JP2020008876A/en
Priority to JP2021202205A priority patent/JP2022027882A/en
Priority to JP2023143393A priority patent/JP2023158056A/en
Pending legal-status Critical Current

Links

Abstract

To provide a system and a program enabling a user to obtain fun in operation and driving, and providing him/her with an incentive to utilize a function positively without becoming bored.SOLUTION: A function required for a user is executed in accordance with a dialog between recognition information based on a result obtained by recognizing a voice of the user who is a passenger of a vehicle and an output of a voice of a prescribed character 100 indicating that the user's voice has been recognized. A voice uttered by the user is used as information recognized as a word phrase for establishing the dialog with the character 100, as the recognition information based on the result obtained by recognizing the voice of the user.SELECTED DRAWING: Figure 10

Description

本発明は、車両の搭乗者の音声を認識して、所定の処理を実行するシステム及びプログラムに関する。   The present invention relates to a system and a program that recognize a voice of a passenger of a vehicle and execute a predetermined process.

現在、ナビゲーション装置やレーダー探知機などの機能を備えた車載用電子機器が、広く普及している。このような車載用電子機器は、車両が走行中に、車両の搭乗者であるユーザが必要とする各種の情報を出力する機能を有している。   Currently, in-vehicle electronic devices having functions such as a navigation device and a radar detector are widely used. Such an in-vehicle electronic device has a function of outputting various information required by a user who is a passenger of the vehicle while the vehicle is running.

例えば、車載用電子機器がナビゲーション装置としての機能を備えている場合、ユーザの操作に応じて、探索された目的地までの案内経路、検索された各種の施設を表示装置に表示させることができる。また、例えば、車載用電子機器がレーダー探知機としての機能を備えている場合、オービス、取締・検問エリア、交通監視装置などのターゲットを、適宜、表示装置に表示させることができる。   For example, when the in-vehicle electronic device has a function as a navigation device, a guide route to a searched destination and various searched facilities can be displayed on a display device according to a user operation. . Further, for example, when the in-vehicle electronic device has a function as a radar detector, targets such as an orvis, a control / inspection area, and a traffic monitoring device can be appropriately displayed on the display device.

このような車載用電子機器の操作は、基本的には、機器に設けられたスイッチ、表示装置の画面に構成されたタッチパネル、赤外線による遠隔操作が可能なリモコンを、ユーザが手操作することによって行う。さらに、ユーザが発話した音声を認識して、これに応じた処理を行う音声認識機能を備えた車載用電子機器も、一般的に普及している。   The operation of such an in-vehicle electronic device is basically performed by a user manually operating a switch provided on the device, a touch panel configured on a screen of a display device, and a remote control capable of remote control by infrared rays. Do. Further, in-vehicle electronic devices having a voice recognition function of recognizing a voice uttered by a user and performing a process in accordance with the voice have been widely used.

この音声認識機能を利用すれば、運転中であるために手操作が困難なユーザであっても、あらかじめ登録されたコマンド等に対応する認識語句を発話することにより、経路探索や施設検索などの各種の機能を実行させることができる。   By using this voice recognition function, even users who have difficulty in manual operation while driving are able to speak recognition words corresponding to pre-registered commands, etc. Various functions can be executed.

特開2009−115594号公報JP 2009-115594 A

しかしながら、従来の車載用電子機器における音声認識機能は、ユーザが一方的に発した指示に応じて、機器が所定の処理を行うという点では、手操作と何ら変わりはない。このため、ユーザは、手操作によるか、音声入力によるかにかかわらず、無味乾燥な機器を操作しているだけという感覚しか得られない。   However, the voice recognition function of the conventional in-vehicle electronic device is not different from the manual operation in that the device performs a predetermined process in response to an instruction unilaterally issued by the user. For this reason, the user can only feel that he or she is operating a tasteless device irrespective of manual operation or voice input.

また、一般的な車載用電子機器は、経路案内、ターゲットの報知等を、あらかじめ設定された音声によって行う機能も有している。しかし、この機能も、機器側が一方的に情報を提供するという点では、画面表示による情報提供と何ら変わりはない。このため、ユーザは、無味乾燥な機器から情報を得ているという感覚しか得られない。   In addition, general in-vehicle electronic devices also have a function of performing route guidance, notification of a target, and the like by using a preset voice. However, this function is no different from providing information by screen display in that the device side provides information unilaterally. For this reason, the user can only obtain a feeling that information is obtained from the tasteless device.

以上のように従来の技術では、機器を操作しているという感覚しか得られないため、そこに何らの面白みもなく、車内にいる人間、特に、長時間、一人で運転している運転者にとって非常に退屈である。このため、ユーザは、購入から時間が経過すると、車載用電子機器を積極的に利用する意欲が湧かなくなり、多様な機能が有効に活用されないままとなることが多い。   As described above, with the conventional technology, only the feeling of operating the device can be obtained, so there is no fun there, and people in the vehicle, especially drivers who drive alone for a long time, Very boring. For this reason, after a lapse of time from the purchase, the user is less motivated to actively use the in-vehicle electronic device, and often the various functions are not effectively used.

本発明は、上記のような従来技術の問題を解決するために提案されたものであり、その目的は、ユーザにとって、操作や運転に面白さが得られるとともに、飽きがくることがなく、積極的に機能を利用する意欲が湧いてくるシステム及びプログラムを提供することにある。   The present invention has been proposed in order to solve the above-mentioned problems of the prior art. The purpose of the present invention is to provide a user with an interesting operation and driving, and to be tired without being bored. It is an object of the present invention to provide a system and a program that motivate users to use functions.

(1)本発明のシステムは、車両の搭乗者であるユーザの音声を認識した結果に基づく認識情報と、ユーザの音声を認識したことを示す所定のキャラクターの音声の出力とによる対話に応じて、車両の搭乗者が必要とする機能を実行することを特徴とする。
このようにすれば、例えば、車両の搭乗者であるユーザの一方的な指示に対してシステムが機能を実行するのではなく、ユーザがキャラクターと対話することにより、車両の搭乗者が必要とする機能を実行することができるので、操作や運転の利便性と面白味が増大するとともに、キャラクターとコミュニケーションをとっている感覚が得られて飽きがこない。また、例えば、ユーザは、キャラクターと対話するために、システムを操作する意欲が湧くので、システムの機能が有効に活用される。
ユーザの音声を認識した結果に基づく認識情報としては、例えば、ユーザが発する音声を、キャラクターとの対話を成立させる語句として認識した情報とするとよい。このようにすれば、例えば、認識した語句に応じて、キャラクターの音声を出力させることにより、ユーザの音声を認識したことを示すとともに、ユーザとの対話を成立させることができるのでよい。語句の認識としては、例えば、車両の搭乗者が必要とする機能を実行させるために、特定の認識語句と、これとの関係で対話が成立するキャラクターの音声をあらかじめ登録しておき、ユーザの音声を認識した結果と一致するか否かに応じて、キャラクターの音声を出力させるようにするとよい。このようにすれば、例えば、対話のための認識語句とキャラクターの音声との種々の組み合わせを用意することにより、これに応じて実行される多様な処理に対応させることができるのでよい。
所定のキャラクターとしては、例えば、システムから出力される音声により、特定の個性を持った話者を認識させる存在とするとよい。このようにすれば、例えば、ユーザは、実際の人間と対話しているような感覚が得られて、親しみが持てるのでよい。
対話としては、例えば、発話の開始、これに対する応答、応答に対する返答という少なくとも一往復のやり取りがなされるとよい。このようにすれば、例えば、単純にユーザの命令通りにシステムが処理を行うのではなく、キャラクターが、自分とシステムの間に介在して、サービスを提供してくれている感覚が得られるのでよい。また、対話としては、例えば、ユーザの発話とキャラクターの音声とが、その意味内容が発話とこれに対する返答として成立しているとよい。このようにすれば、互いに意思の疎通ができている感覚が得られるのでよい。また、対話としては、例えば、発話とこれに対する意味内容が的外れな返答であってもよい。このようにすれば、ユーザにとって面白味や意外性が感じられるのでよい。さらに、対話としては、例えば、発話とこれに対する返答が意味内容として成立している場合と、発話に対する意味内容が的外れな返答の場合とを混在させるとよい。このようにすれば、現実の会話に近い不完全さを演出することができ、ユーザに人間味を感じさせることができるのでよい。
車両の搭乗者が必要とする機能としては、例えば、設定の変更、情報の出力などにおいて、車両の搭乗者の利便性を高める機能とするとよく、特に、例えば、ユーザが知りたい情報を出力するための所定の処理とするとよい。ユーザが知りたい情報としては、例えば、音声認識を用いることにより、手操作よりも簡単又は迅速にシステムに出力させることができる情報とするとよい。このようにすれば、例えば、ユーザは、積極的に音声認識を利用するようになるので、システムは、ユーザにキャラクターとの対話をさせる機会をより多く与えることができるのでよい。
対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話を結果、車両の搭乗者が必要とする機能を実行するとよい。このようにすれば、車両の搭乗者が必要とする機能を実行させるために、キャラクターと対話をする意欲がわくのでよい。また、対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話中に車両の搭乗者が必要とする機能を実行することとするとよい。このようにすれば、車両の搭乗者が必要とする機能を実行させるために、発話して対話を進める意欲が増すのでよい。さらに、対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話を構成するキャラクターの音声を出力する処理の実行であってもよい。このようにすれば、ユーザは、キャラクターの音声を聞きたくて対話するので、対話すること自体を楽しむことができるのでよい。
(1) The system of the present invention responds to a dialogue between recognition information based on a result of recognizing a voice of a user who is a vehicle occupant and output of a voice of a predetermined character indicating that the user's voice has been recognized. And performing a function required by a passenger of the vehicle.
In this way, for example, the system does not execute a function in response to a unidirectional instruction of a user who is a vehicle occupant, but the user interacts with the character, so that the vehicle occupant needs it. Since the functions can be executed, the convenience and fun of operation and driving are increased, and the feeling of communication with the character is obtained, so that the user is not tired. Further, for example, the user is motivated to operate the system in order to interact with the character, so that the functions of the system are effectively used.
The recognition information based on the result of recognizing the user's voice may be, for example, information that recognizes a voice uttered by the user as a phrase that establishes a conversation with the character. By doing so, for example, by outputting the voice of the character in accordance with the recognized phrase, it is possible to indicate that the voice of the user has been recognized and to establish a dialogue with the user. As for the recognition of words, for example, in order to execute a function required by the passenger of the vehicle, a specific recognized word and the voice of a character with which a dialogue is established in relation to this are registered in advance, and the user's voice is recognized. It is preferable to output the voice of the character depending on whether or not the result matches the voice recognition result. In this way, for example, by preparing various combinations of the recognized words for dialogue and the voice of the character, it is possible to cope with various processes to be executed in accordance with the combinations.
As the predetermined character, for example, it is preferable that a voice that is output from the system recognizes a speaker having a specific personality. By doing so, for example, the user can have a feeling as if he or she is interacting with an actual person, so that the user can be friendly.
As the dialogue, for example, at least one round trip exchange of starting a speech, responding to the speech, and responding to the response may be performed. In this way, for example, instead of the system simply performing the processing according to the user's command, the feeling that the character intervenes between himself and the system and provides the service can be obtained. Good. Further, as the dialogue, for example, it is preferable that the utterance of the user and the voice of the character have the meaning and content formed as an utterance and a response thereto. In this way, a feeling of mutual communication can be obtained. Further, as the dialogue, for example, an utterance and a response in which the meaning content thereof is inappropriate may be used. By doing so, the user may feel interesting and unexpected. Further, as the dialogue, for example, a case where the utterance and the answer to the utterance are satisfied as semantic contents and a case where the meaning contents for the utterance are inappropriate are mixed. In this way, it is possible to produce an imperfection close to a real conversation, and to make the user feel human.
The function required by the vehicle occupant may be, for example, a function that enhances the convenience of the vehicle occupant in changing settings, outputting information, and the like.In particular, for example, the information that the user wants to know is output. And a predetermined process. The information that the user wants to know may be, for example, information that can be output to the system more easily or quickly than by manual operation by using voice recognition. In this way, for example, since the user actively uses the speech recognition, the system may provide the user with more opportunities to interact with the character.
As the function required by the occupant of the vehicle in response to the interaction, for example, the function required by the occupant of the vehicle may be executed as a result of the interaction. In this way, the user of the vehicle will be motivated to interact with the character in order to execute the required function. In addition, executing the function required by the vehicle occupant in response to the interaction may include, for example, executing the function required by the vehicle occupant during the interaction. By doing so, the willingness of the user to speak and carry out the dialogue in order to execute the function required by the vehicle occupant may be increased. Further, executing the function required by the vehicle occupant in response to the dialog may be, for example, executing a process of outputting a voice of a character constituting the dialog. In this way, since the user wants to hear the voice of the character and interacts, the user can enjoy the dialogue itself.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、車両の運転中に運転者が必要とする情報を出力するための処理とするとよい。
このようにすれば、例えば、手操作が難しい、手操作が制限されている等により、運転者が運転中に所望の情報を得ることが困難な場合でも、音声認識を利用することにより、キャラクターとの対話を楽しみながら、所望の情報を得ることができるのでよい。
The predetermined process for outputting the information that the user wants to know in response to the dialog may be a process for outputting information required by the driver while the vehicle is driving.
In this way, even when it is difficult for the driver to obtain desired information while driving, for example, due to difficult manual operations or limited manual operations, the character recognition can be performed by using voice recognition. Desired information can be obtained while enjoying conversation with the user.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、複数の選択を経て情報を出力するための処理とすることを特徴とするとよい。
このようにすれば、例えば、情報を出力するために複数の選択を経る必要がある場合に、選択するごとに手操作が必要となる場合に比べて、音声入力による方が、ユーザにとって操作が簡単となるのでよい。
複数の選択を経て出力される情報としては、例えば、階層化された構造の情報、複数回の操作をしなければ出力できない情報とするとよい。このような情報は、手操作を複数回行うよりも、ユーザの負担が少なくなるのでよい。
特に、複数の選択を経て出力される情報としては、例えば、施設検索、現在地周辺検索などのように、複数の候補の中から順次絞り込んでいくことにより得られる情報とするとよい。このような情報を出力する処理は、例えば、ブレーキやアクセルのように車両自体を動かすための操作や、ウィンカーのように走行中に安全のために外部に何かを知らせるための操作とは異なり、手操作によりダイレクトに実行させることが難しいので、音声認識による操作に適していてよい。
The predetermined process for outputting the information that the user wants to know in response to the dialog may be a process for outputting the information through a plurality of selections.
In this way, for example, when multiple selections need to be made in order to output information, operation by voice input is more user-friendly than when manual operation is required for each selection. It will be simple.
The information output through a plurality of selections may be, for example, information having a hierarchical structure or information that cannot be output unless a plurality of operations are performed. Such information may reduce the burden on the user as compared with performing the manual operation a plurality of times.
In particular, as information output through a plurality of selections, for example, information obtained by sequentially narrowing down from a plurality of candidates, such as a facility search and a current location search, may be used. The process of outputting such information is different from, for example, an operation for moving the vehicle itself, such as a brake or an accelerator, or an operation for notifying something externally for safety while traveling, such as a blinker. Since it is difficult to execute the operation directly by manual operation, it may be suitable for operation by voice recognition.

前記対話の一部として、次の選択がある場合に、これを誘導するキャラクターの音声とするとよい。
このようにすれば、例えば、ユーザは、キャラクターの音声に促されて選択することにより、所定の処理を順次進めることができるのでよい。
次の選択へ誘導するキャラクターの音声としては、例えば、周辺検索で「周辺」というユーザの音声を認識した場合に、「どこ行く?」というように、行先を尋ねる音声とするとよい。このようにすれば、例えば、ユーザが、次に何を発話すればよいかが明確にわかるのでよい。
As part of the dialogue, if there is a next selection, it may be the voice of the character that guides it.
In this way, for example, the user may be prompted by the voice of the character to make a selection, so that the predetermined process may be sequentially performed.
The voice of the character that guides the user to the next selection may be, for example, a voice that asks for the destination, such as “Where are you going?” When the voice of the user “Nearby” is recognized in the peripheral search. In this way, for example, the user can clearly know what to say next.

前記対話の一部として、次の選択がない場合に、これを示すキャラクターの音声とするとよい。
このようにすれば、例えば、ユーザは、さらに処理を進める必要がなくなったことがわかるので、指示を終了する、別の処理を行わせる等の判断ができるのでよい。
次の選択がないことを示すキャラクターの音声としては、例えば、周辺検索で「ファミレス」というユーザの音声を認識した場合に、「ひとりぼっちでファミレス行くの?」のように、次の選択がないことを明示する音声とするとよい。このようにすれば、ユーザは、次に進む必要がないことがわかるとともに、ユーザに、新たに別の判断を求めることができるのでよい。
If there is no next selection as part of the dialogue, it may be a voice of a character indicating this.
By doing so, for example, the user knows that it is no longer necessary to proceed with the process further, so that the user can make a decision such as ending the instruction or performing another process.
As the voice of the character indicating that there is no next selection, for example, when the voice of the user “Familys” is recognized in the neighborhood search, the next selection is “Do you go to the family alone?” It may be a sound that clearly indicates that there is no such thing. In this way, the user knows that it is not necessary to proceed to the next step and can request the user to make another determination.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、所望の地点の周辺の施設に関する情報を、表示手段に表示させるための処理とするとよい。
このようにすれば、例えば、周辺の施設の情報を得るための面倒な手操作を不要としつつ、ユーザが、キャラクターとの対話を楽しみながら、周辺の施設に関する情報を取得することができるのでよい。
The predetermined process for outputting information that the user wants to know in response to the dialog may be a process for displaying information about facilities around a desired point on the display means.
By doing so, for example, the user can acquire information about the surrounding facilities while enjoying a dialogue with the character, without the need for cumbersome manual operations for obtaining information on the surrounding facilities. .

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、表示手段に表示された地図上の前記周辺の施設の位置に、前記周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させることを特徴とするとよい。
このようにすれば、例えば、地図上で、ユーザに必要な施設の情報が目立つことになるので、ユーザが施設の位置を把握しやすくなり、音声により所望の施設を選択する際の目安となるのでよい。
地図と比べた相対的な強調表示としては、例えば、施設の位置が明確となる表示とするとよい。例えば、アイコンと地図の明度、彩度、色相の少なくとも一つを変えれば、両者の対比が際立つのでよい。特に、例えば、アイコンをカラー表示し、地図をグレースケールで表示すれば、アイコンが非常にはっきりと見えるのでよい。
As a predetermined process for outputting information that the user wants to know in response to the dialog, an icon indicating the peripheral facility is displayed at the position of the peripheral facility on the map displayed on the display means, by comparing the icon with the map. It may be characterized by being relatively highlighted.
In this way, for example, information on facilities required by the user becomes conspicuous on the map, so that the user can easily grasp the location of the facility, and serves as a guide when selecting a desired facility by voice. So good.
As the relative highlighting as compared with the map, for example, it is preferable to display the location of the facility clearly. For example, if at least one of the brightness, the saturation, and the hue of the icon and the map is changed, the contrast between the two may be noticeable. In particular, for example, if the icons are displayed in color and the map is displayed in gray scale, the icons can be seen very clearly.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、表示手段に表示された地図上の前記周辺の施設の位置に、前記周辺の施設を示すアイコンを表示させ、前記アイコンに、所定の基準に従った順位が区別できる表示をするとよい。
このようにすれば、例えば、アイコンにおける順位を区別できる表示により、ユーザが施設を選択する目安とすることができるのでよい。
所定の基準としては、例えば、特定の地点に近い順とするとよい。このようにすれば、施設名を表示させる場合に比べて、どこの施設が一番近いかが直感的に分かるのでよい。さらに、所定の基準としては、例えば、ユーザにとっての重要度が高い順とするとよい。このようにすれば、ユーザが最も知りたい施設が優先的に表示させるのでよい。ユーザにとっての重要度とは、例えば、過去に行ったことがある、過去に行った頻度が高い、ユーザの好みに合う等とするとよい。このようにすれば、ユーザが行きたい施設を素早く知ることができるのでよい。また、例えば、過去に行ったけれども、二度と行きたくないなど、ユーザにとっての重要度が低いものが除外されるようにしてもよい。このようにすれば、例えば、ユーザが行く可能性があるもののみを表示させることができてよい。
順位が区別できる表示としては、例えば、番号、アルファベットのように本来的に順位を示す情報とするとよい。このようにすれば、例えば、順位の意味を容易に把握できるのでよい。さらに、順位が区別できる表示としては、例えば、◎、○、△、×等の形状や、明度、彩度、色相により段階的に変化をつける等、視覚的に順位を示す情報とするとよい。このようにすれば、例えば、順位を視覚により直感的に把握できるのでよい。
In response to the dialogue, as a predetermined process for outputting information the user wants to know, an icon indicating the peripheral facility is displayed at the position of the peripheral facility on the map displayed on the display means, and the icon In addition, it is preferable that a display that can distinguish the ranks according to a predetermined standard is displayed.
In this way, for example, a display that can distinguish the order of the icons can be used as a guide for the user to select a facility.
As the predetermined criterion, for example, the order may be closer to a specific point. This makes it possible to intuitively understand which facility is closest to the case where the facility name is displayed. Further, the predetermined reference may be, for example, a descending order of importance to the user. In this way, the facility that the user wants to know most may be preferentially displayed. The importance for the user may be, for example, that the user has performed in the past, that the user has performed frequently in the past, or that the user's preference is met. In this way, the user can quickly know the facility he wants to go to. In addition, for example, those that have been performed in the past but do not want to go again and may be excluded from the importance of the user may be excluded. In this way, for example, only items that the user may go to may be displayed.
The display that can distinguish the order may be, for example, information that originally indicates the order, such as a number or an alphabet. In this way, for example, the meaning of the rank can be easily grasped. Further, the display that can distinguish the ranks may be information that visually indicates the ranks, such as, for example, shapes such as 、, △, Δ, and ×, or a stepwise change depending on brightness, saturation, and hue. In this way, for example, the order can be visually and intuitively grasped.

検索された施設の選択を促すキャラクターの音声を、表示されたアイコンに合わせた内容で出力するとよい。
このようにすれば、例えば、表示されたアイコンに合わせた内容の音声で、施設の選択を促すことができるので、ユーザは、視覚で確認した内容を、音声によっても把握できるのでよい。
表示されたアイコンに合わせた内容としては、例えば、番号であれば何番がよいかを問い合わせる音声、アルファベットであればアルファベットの何がよいかを問い合わせる音声、形状であれば形状が何かを問い合わせる音声、色であれば色が何かを問い合わせる音声とするとよい。このようにすれば、ユーザは、例えば、何を発話して施設を選択すればよいかが、簡単にわかるのでよい。また、例えば、表示されているアイコンに合わせた内容として、選択される候補の範囲を示す音声とするとよい。これにより、例えば、何番から何番というように音声を出力すれば、ユーザは、発話すべき内容とともに、選択すべき範囲も把握することができるのでよい。
The voice of the character that prompts the user to select the searched facility may be output with the content corresponding to the displayed icon.
By doing so, for example, the selection of the facility can be prompted by the voice of the content corresponding to the displayed icon, so that the user can grasp the content visually confirmed by the voice.
The contents according to the displayed icon include, for example, a voice for asking what number is better if it is a number, a voice for asking what is better in the alphabet if it is an alphabet, and asking what the shape is if it is a shape. If it is a voice or a color, it may be a voice inquiring about what the color is. In this way, the user can easily understand, for example, what to utter and select the facility. In addition, for example, the content corresponding to the displayed icon may be sound indicating the range of the selected candidate. Thus, for example, if the voice is output from what number to what number, the user can grasp not only the content to be uttered but also the range to be selected.

表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識すると、特定の地点から選択された施設まで探索された経路を表示手段に表示させるとよい。
このようにすれば、例えば、ユーザは、施設名で選択するよりも、表示されたアイコンに合わせた内容で簡単に選択することができるのでよい。
表示されたアイコンに合わせた内容としては、例えば、番号であれば所望の施設のアイコンの番号、アルファベットであれば所望の施設のアイコンのアルファベット、形状であれば所望の施設のアイコンの形状、色であれば所望の施設のアイコンの色とするとよい。このようにすれば、例えば、施設名よりも覚えやすい言葉で、施設を選択することができるのでよい。
When the voice of the user selecting one of the facilities is recognized based on the content corresponding to the displayed icon, a route searched from a specific point to the selected facility may be displayed on the display means.
In this case, for example, the user can easily select the content according to the displayed icon, rather than selecting the facility name.
The contents according to the displayed icons include, for example, the number of the icon of the desired facility if the number, the alphabet of the icon of the desired facility if the alphabet, and the shape and color of the icon of the desired facility if the shape. If so, the color of the icon of the desired facility may be used. In this way, for example, the facility can be selected using words that are easier to remember than the facility name.

表示手段に探索された経路が表示された後、前記対話に応じて、経路案内を開始するか、経路を探索し直すかを決定するとよい。
このようにすれば、例えば、ユーザは、探索された経路を希望しない場合に、キャラクターとの対話をしながら、探索し直しを指示することができるので、やり直し時の手間や退屈な気持ちを緩和させることができるのでよい。
After the searched route is displayed on the display means, it is preferable to determine whether to start the route guidance or to search the route again according to the dialogue.
In this way, for example, when the user does not want the searched route, the user can instruct the user to search again while interacting with the character, thereby reducing the trouble and boring feeling when starting again. I can do that.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、あらかじめ音声を認識するために登録される認識語句に対応する項目のうち、いずれの項目を認識語句として機能させるかを選択させる項目の表を、表示手段に表示させるとよい。
このようにすれば、例えば、表示された項目の表から、ユーザがよく使う項目のみを選択すれば、認識語句が限定されるので、誤認識を減らすことができるのでよい。
選択された認識語句は、例えば、所定のメモリ領域に、デフォルトの状態から書き換える、空の領域に入れていく、既に入っているものを並べ替える等により、登録されるものとするとよい。このようにすれば、限られたメモリ領域を有効に活用できるのでよい。
As a predetermined process for outputting the information that the user wants to know in response to the dialogue, which of the items corresponding to the recognition words registered in advance for recognizing the voice should be used as a recognition word. A table of items to be selected may be displayed on the display means.
In this way, for example, if the user selects only frequently used items from the displayed list of items, the recognition words are limited, so that erroneous recognition can be reduced.
The selected recognition phrase may be registered in a predetermined memory area, for example, by rewriting from a default state, putting it in an empty area, or rearranging the already contained words. In this way, the limited memory area can be effectively used.

ユーザの音声を認識するためにあらかじめ登録される認識語句に対応する項目のうち、いずれの項目を対話のための認識語句として機能させるかを選択させる項目の表を、表示手段に表示させ、前記表から選択された項目は、表示手段に表示させるページ毎に設定されるとよい。
このようにすれば、例えば、表示手段の表示画面の1ページで表示できる項目が限られていても、ユーザがよく使う項目を、トップのページに持ってくることができるので、使いたい項目を表示させるためにページを切り替える手間が省けるのでよい。
A table of items that allows the user to select which of the items corresponding to the recognition words registered in advance for recognizing the voice of the user as the recognition words for the dialogue is displayed on the display means, The item selected from the table may be set for each page to be displayed on the display unit.
By doing so, for example, even if the items that can be displayed on one page of the display screen of the display means are limited, the items frequently used by the user can be brought to the top page. This eliminates the need to switch pages for display.

混同して認識される可能性のある認識語句の項目が、別のページに表示されるように設定されるとよい。
このようにすれば、例えば、似た音を含む語句、実際に認識させてみて混同する可能性が高い語句等が、同じページに並んで同時に認識の候補となることがないので、誤認識を減らすことができるのでよい。似た音を含む語句としては、例えば、「ファミレス」と「ファーストフード」、「病院」と「美容院」、「洋食」と「和食」のように、50音の同じ音、同じ漢字等を含む語句とするとよい。このようにすれば、文字からも紛らわしい音の認識語句が、同じページに表示されないため、ユーザも、いずれか一方を入力することになり、誤認識を減らすことができる。実際に認識させてみて混同する可能性が高い語句としては、例えば、過去の認識結果の記録に基づいて、同じ発話に対して認識されている異なる語句とするとよい。このようにすれば、例えば、実際に誤認識が生じている組み合わせが同一ページとなることを排除できるのでよい。
It is preferable that the item of the recognition phrase that is likely to be confused is set to be displayed on another page.
In this way, for example, words that include similar sounds, words that are likely to be confused when actually recognized, and the like are not lined up on the same page and are simultaneously candidates for recognition. It is good because it can be reduced. Words containing similar sounds include, for example, the same 50 sounds and the same kanji, such as “family restaurant” and “fast food”, “hospital” and “beauty salon”, and “Western food” and “Japanese food”. It should be a phrase that includes. In this way, since the sound recognition phrase that is confusing even from the character is not displayed on the same page, the user also needs to input one of them, thereby reducing erroneous recognition. A phrase that is highly likely to be confused when actually recognized may be, for example, a different phrase recognized for the same utterance based on a record of past recognition results. In this way, for example, it is possible to exclude a combination in which erroneous recognition has actually occurred on the same page.

前記認識語句に対応する項目は、複数の概念を含む認識語句に対応する大項目と、当該複数の概念に相当する認識語句に対応する中項目を有し、大項目とともに中項目を、同一ページに表示させるとよい。
このようにすれば、例えば、ユーザが中項目を検索したい場合にも、階層やページを変える必要がないので、所望の項目をダイレクトに選択することができるのでよい。
大項目としては、例えば、「病院」のように、多数の候補を含む上位概念的な項目とするとよい。このようにすれば、できるだけ多くの候補の中から検索したいと思うユーザにとって便利となるのでよい。中項目としては、例えば、「病院」の概念に含まれる「内科」、「小児科」のように、大項目よりも含まれる候補が少ない下位概念的な項目とするとよい。このようにすれば、少ない候補の中から、即座に所望の施設の情報を得たいユーザにとって便利となるのでよい。
The item corresponding to the recognition phrase has a large item corresponding to a recognition phrase including a plurality of concepts, and a middle item corresponding to a recognition phrase corresponding to the plurality of concepts. Should be displayed on the screen.
In this way, for example, even when the user wants to search for the middle item, there is no need to change the hierarchy or the page, so that the desired item can be directly selected.
The large item may be a high-level concept item including many candidates, such as “hospital”. This is convenient for a user who wants to search from as many candidates as possible. The middle item may be, for example, a lower conceptual item that contains fewer candidates than the large item, such as “internal medicine” and “pediatrics” included in the concept of “hospital”. In this way, it is convenient for a user who wants to immediately obtain information on a desired facility from a small number of candidates.

認識語句として、項目として表示されている語句に関連するが、項目として表示されていない語句が登録されているとよい。
このようにすれば、例えば、項目に表示されている認識語句そのものを発話しなくても、その認識語句に関連する語句を言えばよいので、ユーザの項目名の記憶があいまいであったり、操作に不慣れであったりしても、検索ができるのでよい。
項目として表示されている語句に関連するが、項目として表示されていない語句としては、例えば、特定のページで表示中の大項目に対応するが、そのページでは表示されていない中項目とするとよい。
このようにすれば、例えば、中項目が表示されていなかったとしても、ユーザが中項目を言えば、その中項目が検索されるので、必要な施設の情報を素早く得ることができるのでよい。
It is preferable that a phrase related to a phrase displayed as an item but not displayed as an item is registered as a recognition phrase.
In this way, for example, it is sufficient to say a phrase related to the recognized phrase without uttering the recognized phrase itself displayed in the item. Even if you are unfamiliar with, you can search.
A phrase that is related to a phrase displayed as an item but is not displayed as an item may be, for example, a middle item that corresponds to a large item displayed on a specific page but is not displayed on that page. .
In this way, for example, even if the middle item is not displayed, if the user speaks the middle item, the middle item is searched, so that necessary facility information can be quickly obtained.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、前記キャラクターを、表示手段に表示させるとよい。
このようにすれば、例えば、ユーザが、対話する相手の姿を表示画面で見ることにより、親しみを覚えて、その姿を見るためにシステムを積極的に利用したいと思うようになるのでよい。
The character may be displayed on display means as a predetermined process for outputting information desired by the user in response to the dialogue.
By doing so, for example, the user can see the figure of the person with whom the user is interacting on the display screen, so that the user can feel familiar and want to actively use the system to see the figure.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、前記キャラクターを、地図上の探索された経路表示を遮らない位置に、表示させるとよい。
このようにすれば、例えば、キャラクターの表示を楽しませつつ、探索された経路の見やすさを維持できるのでよい。
経路表示を遮らない位置としては、例えば、キャラクターと探索された経路の表示とが、互いに表示画面における反対側に寄るとよい。このようにすれば、キャラクターが経路探索のサービスを邪魔しない気遣いをしているように、ユーザに感じさせることができるので、より好感を持たせることができてよい。
As a predetermined process for outputting information that the user wants to know in response to the dialog, the character may be displayed at a position on the map that does not obstruct the displayed route display.
In this way, for example, the display of the searched route can be maintained while the display of the character is enjoyed.
As the position where the route display is not interrupted, for example, the character and the display of the searched route may be located on opposite sides of the display screen. In this way, the user can be made to feel as if the character does not disturb the route search service, so that the user may have a better feeling.

前記キャラクターを、地図上の探索された経路表示を遮らない位置に、表示させながら移動させるとよい。
このようにすれば、例えば、移動中のキャラクターを表示し続けることで、うっとうしさを感じさせて存在をアピールできるとともに、キャラクターを継続して見ていたいユーザにとっては、移動中のキャラクターの動作を楽しむことができてよい。
The character may be moved while displaying the searched route on the map so as not to obstruct the displayed route.
In this way, for example, by continuing to display the moving character, the user can feel annoyed and appeal to the presence, and for a user who wants to continuously watch the character, enjoy the movement of the moving character May be able to.

ユーザの音声の認識語句に対応する項目の表示領域は、背後の画像が見える部分を有し、表示手段に表示されるキャラクターは、各項目よりも大きくて背後の画像が見える部分を有さず、前記項目の表示領域は、表示画面におけるキャラクターと反対側の位置に寄っているとよい。
このようにすれば、例えば、キャラクターが、探索された経路と反対側に寄った場合に、項目の表示領域は、探索された経路と重なる可能性があるが、各項目は、キャラクターよりも小さく、項目の表示領域は背後の画像が見える部分を有しているので、探索された経路がキャラクターと重なるよりも、背後の画像が見やすいのでよい。
背後の画像が見える部分としては、例えば、透過する部分、隙間が空いた部分とするとよい。このようにすれば、例えば、項目表示の視認性を確保したまま、背景の画像も見ることができるのでよい。
The display area of the item corresponding to the recognition phrase of the user's voice has a portion where the background image is visible, and the character displayed on the display means is larger than each item and does not have a portion where the background image is visible. The display area of the item may be closer to the position on the display screen opposite to the character.
In this way, for example, when the character moves to the opposite side of the searched route, the display area of the item may overlap the searched route, but each item is smaller than the character. Since the display area of the item has a portion where the background image can be seen, the background image can be easily viewed rather than the searched route overlapping the character.
The part where the image behind can be seen may be, for example, a transparent part or a part with a gap. In this way, for example, the background image can be viewed while ensuring the visibility of the item display.

あらかじめ登録されたユーザの呼び名の音声を、対話において、キャラクターにより出力される音声の中に挿入するとよい。
このようにすれば、例えば、ユーザは、会話内で自らの呼び名で呼ばれることにより、キャラクターに対して、より一層の親しみを感じることができるのでよい。
対話の開始時にキャラクターにより出力される音声に、あらかじめ登録されたユーザの呼び名の音声を挿入するとよい。
このようにすれば、例えば、対話の開始時に、ユーザが自らの名前で呼ばれることになるので、ユーザの注意を惹くことができてよい。
The voice of the user's name registered in advance may be inserted into the voice output by the character in the dialogue.
By doing so, for example, the user can feel more familiar with the character by being called by his / her own name in the conversation.
It is preferable to insert the voice of the user's name registered in advance into the voice output by the character at the start of the dialogue.
In this way, for example, at the start of the dialogue, the user is called by his / her own name, so that the user's attention may be attracted.

キャラクターの呼び名を含む音声が認識された場合に、キャラクターにより出力される音声に、あらかじめ登録されたユーザの呼び名の音声を挿入するとよい。
このようにすれば、例えば、互いに呼び名を呼び合うことになるので、ユーザは、より親密な感覚を得ることができる。
When the voice including the character's name is recognized, the voice of the user's name registered in advance may be inserted into the voice output by the character.
In this way, for example, since the names are mutually called, the user can obtain a more intimate feeling.

対話が進行するに従って、キャラクターにより出力される音声に、ユーザの呼び名を挿入する頻度を低減させるとよい。
このようにすれば、例えば、当初は呼び名が呼ばれていたのに、その後は呼ばれる頻度が減少するので、互いに慣れていく二人の会話を演出することができるのでよい。
As the dialogue progresses, the frequency of inserting the user's name into the voice output by the character may be reduced.
In this way, for example, although the name is initially called, the frequency of the calls is reduced thereafter, so that it is possible to produce a conversation between two people who are accustomed to each other.

あらかじめ50音表に対応する音声データが登録され、この50音表からユーザが選択した呼び名の音声を、会話中に挿入するとよい。
このようにすれば、例えば、あらかじめ複数の呼び名を登録しておく場合に比べて、メモリの容量を節約できるのでよい。
Voice data corresponding to the Japanese syllabary is registered in advance, and the voice of the name selected by the user from the Japanese syllabary may be inserted during the conversation.
In this way, for example, the memory capacity can be saved as compared with a case where a plurality of names are registered in advance.

前記キャラクターの音声として、前記キャラクターの状況を示す内容の音声を挿入するとよい。
このようにすれば、ユーザは、キャラクターの状況を聞くことができるので、例えば、キャラクターがネガティブな状況にあれば、ユーザにキャラクターを気遣う気持ちを起こさせることができ、キャラクターがポジティブな状況にあれば、ユーザにキャラクターに共感する気持ちを起こさせることができるのでよい。
キャラクターの状況を示す発言としては、例えば、「わたし忙しいんだけど」というように、自らがポジティブな状態にあるかネガティブな状態にあるかがわかる発言とするとよい。このようにすれば、例えば、ユーザの指示にシステムが無条件に従うのではなく、ユーザに気遣いの気持ちや、共感の気持ちを生じさせることができるので、実際の人間を相手にした会話のような感覚が得られるのでよい。
As the voice of the character, it is preferable to insert a voice indicating the status of the character.
In this way, the user can hear the character's situation.For example, if the character is in a negative situation, the user can be made to take care of the character, and if the character is in a positive situation, This can make the user feel the sympathy of the character.
The statement indicating the status of the character may be, for example, a statement that indicates whether the user is in a positive state or a negative state, such as "I am busy." In this way, for example, the system does not unconditionally follow the user's instructions, but can give the user a feeling of concern and empathy, such as a conversation with an actual human. It's good because it gives you a feeling.

対話における前記キャラクターの音声を、あらかじめ設定された複数の異なるフレーズの中から、既に出力したフレーズを除いてランダムに選択して出力するとよい。
このようにすれば、例えば、同じフレーズばかりが出力されないようにすることができるので、ユーザに飽きがこないのでよい。
The voice of the character in the dialog may be randomly selected and output from a plurality of different phrases set in advance, excluding the already output phrase.
In this way, for example, the same phrase can be prevented from being output, so that the user does not get bored.

共通の認識語句に対して異なる複数の応答フレーズが登録されたリストが設定されているとよい。
このようにすれば、例えば、ユーザが共通の内容の発話をしても、キャラクターは異なる表現で返答するので、何度も同じ処理を実現させる場合でも、キャラクターからどんな返答が来るかを楽しむことができる。
A list in which a plurality of different response phrases are registered for a common recognition phrase may be set.
In this way, for example, even if the user utters common content, the character replies with a different expression, so even if the same process is performed many times, enjoy the response from the character. Can be.

前記リストは複数設定され、同一のリスト内であっても他のフレーズとは異質なフレーズが登録されているリストがあるとよい。
このようにすれば、例えば、ユーザの同様の内容の発言に対する返答として、異質なフレーズが出力されることにより、ユーザに予想外の印象を与えることができ、キャラクターに対する印象を変化させて、飽きが来ることを防止できるのでよい。
It is preferable that a plurality of the lists are set, and there is a list in which phrases different from other phrases are registered even in the same list.
By doing so, for example, a foreign phrase is output as a response to the user's utterance having the same content, so that an unexpected impression can be given to the user. Can be prevented from coming.

前記キャラクターは同一人でも複数の表示態様があり、出力される音声として、前記複数の表示態様毎に異なるフレーズが登録されているとよい。
このようにすれば、例えば、同じキャラクターでも、複数の表示態様に応じて、発話内容が異なるので、同一人との対話でありながら、変化を楽しむことができるのでよい。
複数の表示態様としては、例えば、標準的なもの、衣服や髪型等を変えて変身したもの、頭身を変えたものとするとよい。このようにすれば、例えば、大人っぽい、子供っぽい、かわいい、きれい等の多様な印象をユーザに与え、飽きさせないのでよい。
It is preferable that the same character has a plurality of display modes even for the same person, and a different phrase is registered as an output voice for each of the plurality of display modes.
In this way, for example, even the same character has different utterance contents according to a plurality of display modes, so that it is possible to enjoy the change while having a conversation with the same person.
The plurality of display modes may be, for example, a standard one, a one transformed by changing clothes, a hairstyle, and the like, and a one different in head and body. In this way, for example, various impressions such as mature, childish, cute, and beautiful can be given to the user, and the user can be bored.

声認識を間違えた場合に、出力されるフレーズが登録されているとよい。
このようにすれば、例えば、認識を間違えた場合であっても、何等かのフレーズを返すことより、キャラクターとの対話が継続していることを、ユーザに認識させることができるのでよい。
It is preferable that a phrase to be output when the voice recognition is incorrect is registered.
In this way, for example, even if the recognition is mistaken, the user can recognize that the conversation with the character is continuing by returning some phrase.

音声認識に誤りがあった場合に備えた逃げ口上となるフレーズが登録されているとよい。
このようにすれば、例えば、音声認識に誤りが生じる可能性はあるが、たとえ誤りが生じたとしても、キャラクターの逃げ口上によって、ユーザの苛立ちや怒りを和らげることができる。
逃げ口上としては、例えば、「音声認識頑張ります。100%認識できないかもしれないけれど」のように、正確に認識しようとする意欲を示す表現とともに、完全な達成は困難であることを示す表現とするとよい。このようにすれば、例えば、単に、認識ができないことを示すよりも、誤認識に対して、ユーザに許容する心理を生じさせることができるのでよい。
It is preferable that a phrase to be used as an escape route in case an error occurs in voice recognition is registered.
In this way, for example, there is a possibility that an error occurs in voice recognition, but even if an error occurs, the frustration and anger of the user can be alleviated by the escape opening of the character.
As an escape word, for example, an expression indicating the desire to accurately recognize, such as "I will do my best for speech recognition. I may not be able to recognize 100%", and an expression indicating that it is difficult to achieve completeness Good. In this way, for example, rather than simply indicating that recognition is not possible, psychology that is acceptable to the user for erroneous recognition can be generated.

ユーザが返答を望む内容とキャラクターの音声の出力の内容とが相違していることを指摘するユーザの音声の入力があった場合に、それに対するキャラクターからの返答のフレーズが登録されているとよい。
このようにすれば、例えば、ユーザが、キャラクターの間違えを指摘すると、キャラクターからこれに対する返答があるので、誤解があった場合の人と人との自然なやり取りを楽しむことができるのでよい。
When there is a user's voice input indicating that the content that the user desires to reply and the content of the character's voice output are different, it is preferable that a response phrase from the character is registered in response to the user's voice input. .
In this way, for example, when the user points out a mistake in the character, the character responds to the mistake, so that when the misunderstanding is misunderstood, it is possible to enjoy the natural exchange between the people.

宣伝広告となるフレーズが登録されているとよい。
このようにすれば、例えば、提携している施設にユーザを誘導することができるのでよい。
It is preferable that a phrase serving as an advertisement is registered.
In this way, for example, the user can be guided to the affiliated facility.

対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことの原因についてのフレーズが登録されているとよい。
このようにすれば、例えば、ある施設に行くことになった原因について発話することにより、当該施設に向かうユーザが耳を傾けやすくなるのでよい。
例えば、その行き先に行く原因がユーザにとって好ましくない場合にも、ユーザにとって好ましい場合にも、ユーザの注意を引くことができるのでよい。
行き先へ行く原因がユーザにとって好ましいものでない施設としては、例えば、「病院」、「歯医者」、「薬局」のように、ユーザの病気に関係している施設とするとよい。
行き先へ行く原因がユーザにとって好ましい施設としては、例えば、「デパート」「寿司」「うなぎ」のように、日常良く行く施設よりも、ややハードルが高い施設とするとよい。
キャラクターがユーザに対して種々の感情を起こさせるフレーズとしては、例えば、「どこか具合が悪いの? 大丈夫?」、「あまり無理しないでね」のようにユーザの状態を思いやることによりキャラクターに愛着を感じさせるフレーズとするとよい。また、例えば、「ちゃんと歯磨きしてる?」のようにユーザに後悔の念を起こさせるフレーズとするとよい。
As the voice of the character in the dialogue, it is preferable that a phrase about the cause of performing at the facility where the user goes is registered.
By doing so, for example, by speaking about the cause of the decision to go to a certain facility, the user heading to the facility can easily listen.
For example, the user's attention may be drawn whether the cause of the destination is unfavorable to the user or to the user.
The facility that causes the destination to be unfavorable to the user may be, for example, a facility related to the user's illness, such as “hospital”, “dentist”, or “pharmacy”.
As a facility that is preferable to the user for the cause of going to the destination, for example, a facility such as “department store”, “sushi”, and “eel” which has a slightly higher hurdle than a facility that is frequently visited may be used.
Examples of phrases that cause the character to cause various emotions to the user include, for example, "Isn't it somehow bad? Are you okay?" Or "Don't overdo it." It should be a phrase that makes you feel. In addition, for example, a phrase that causes the user to regret, such as "Do you brush your teeth properly?"

対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことについての肯定的又は否定的なアドバイスとなるフレーズが登録されているとよい。
このようにすれば、例えば、キャラクターのアドバイスにより、ユーザが行き先ですべきことや、すべきでないことを判断できるのでよい。肯定的なアドバイスとしては、例えば、「たまには歯垢をとってもらった方がいいよ」のように何かを勧めるフレーズとするとよい。また、否定的なアドバイスとしては、例えば、「苦しそうな顔しちゃダメ。涼しい顔して我慢するのが男なの。」のように何かを禁止するフレーズとするとよい。
As the voice of the character in the dialogue, a phrase serving as a positive or negative advice on what to do at the facility where the user is to go may be registered.
In this way, for example, the user can determine what to do or not to do at the destination based on the advice of the character. Positive advice may be a phrase that recommends something, for example, "I'd better get plaque once in a while." In addition, as a negative advice, for example, a phrase that prohibits something, such as, “Do not have a painful face. It is a man who can put up with a cool face.”

対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことについてのキャラクターの一方的な感想となるフレーズが登録されているとよい。
このようにすれば、例えば、キャラクターの感想が得られるので、ユーザは、行き先での行動についての参考とすることができてよい。
キャラクターの一方的な感想としては、例えば、「お口の中でとろけるような黒ブタチャーシュー。ステキ〜。」のように、肯定的な感想とするとよい。このようにすれば、ユーザが、同様の行動を施設でとりたくなるのでよい。また、例えば、「一人でレストランに行くの?寂しくない?・・ほっとけって?」のように否定的な感想としてもよい。このようにすれば、ユーザに行き先を変える気を起こさせるのでよい。さらに、例えば、「ショッピングモールって見て回るだけで楽しそう。でも疲れそう。」のように、肯定的な感想と否定的な感想が混じっていてもよい。このようにすれば、行き先での状況について、ユーザにあらかじめ覚悟させることができるのでよい。
As the voice of the character in the dialogue, a phrase that is a one-sided impression of the character about what to do at the facility where the user is to go may be registered.
In this way, for example, the impression of the character can be obtained, so that the user can refer to the action at the destination.
As a one-sided impression of the character, for example, a positive impression such as “black pig char siu that melts in your mouth. In this way, the user may want to take a similar action at the facility. In addition, for example, a negative impression such as “Do you go to a restaurant alone? Do you feel lonely? In this way, the user is encouraged to change the destination. Further, for example, a positive impression and a negative impression may be mixed, such as "It seems to be fun just to look around the shopping mall, but seems to be tired." In this way, the user can be prepared for the situation at the destination in advance.

対話における前記キャラクターの音声として、前記キャラクターが、現実に存在することを思わせるフレーズが登録されているとよい。
このようにすれば、例えば、ユーザは、キャラクターが実際に存在するような感覚が得られるのでよい。
現実に存在することを思わせるフレーズとしては、例えば、「出張にも私を連れて行ってくれるなんて、うれしいです〜。」、「私達、どこに泊まる?」のように、同行していることを思わせるフレーズとするとよい。このようにすれば、例えば、ユーザは、キャラクターといつも一緒にいる感覚が得られるのでよい。
It is preferable that a phrase that suggests that the character actually exists is registered as the voice of the character in the dialogue.
In this way, for example, the user may have a feeling that the character actually exists.
Phrases that remind you that they actually exist are, for example, "I'm happy to take me on a business trip ~", "Where are we staying?" It should be a phrase reminiscent of In this way, for example, the user may have a feeling of being always with the character.

(2)ユーザの音声を認識するためにあらかじめ登録される認識語句が、項目として表示されているとよい。
このようにすれば、例えば、ユーザは、所定の処理を実行させるために、表示された項目を見れば、何を言えばいいかがわかるのでよい。
(2) A recognition phrase registered in advance for recognizing a user's voice may be displayed as an item.
In this way, for example, the user may know what to say by looking at the displayed item in order to execute the predetermined process.

(3)ユーザの音声を認識するためにあらかじめ登録される認識語句は、表示画面にかかわらず共通して認識できる認識語句と、表示画面に表示されたものに認識が制限される認識語句とがあるとよい。
このようにすれば、例えば、共通して認識できる認識語句によって、表示画面にかかわらず必要となる機能の利便性を維持しつつ、認識が制限される認識語句によって、誤認識の可能性を低減できる。
(3) Recognized words registered in advance for recognizing the user's voice include recognized words that can be recognized in common regardless of the display screen and recognized words whose recognition is restricted to those displayed on the display screen. Good to be.
In this way, for example, while the convenience of the necessary functions regardless of the display screen is maintained by the commonly recognized recognition words, the possibility of erroneous recognition is reduced by the recognition words whose recognition is restricted. it can.

共通して認識できる認識語句としては、例えば、複数種の表示画面で共通して使用される認識語句とするとよい。
このようにすれば、表示画面に応じて機能が制限される可能性が低くなり、利便性を維持できる。例えば、「もどる」「取り消し」のように、他の表示画面へ遷移させる語句とするとよい。このような語句は、例えば、どの画面でも使用する必要がある語句であるのでよい。
認識が制限される認識語句としては、例えば、表示画面に表示された語句、検索対象となる語句とするとよい。このような語句は、例えば、それ以外の語句を認識させる必要性が乏しく、認識語句の数を少なくして誤認識を防ぐ必要性が高いのでよい。
As a recognition phrase that can be commonly recognized, for example, a recognition phrase commonly used on a plurality of types of display screens may be used.
By doing so, the possibility that functions are restricted depending on the display screen is reduced, and convenience can be maintained. For example, it may be a phrase such as "return" or "cancel" that causes a transition to another display screen. Such a phrase may be, for example, a phrase that needs to be used on any screen.
Recognized words whose recognition is restricted may be, for example, words displayed on a display screen or words to be searched. Such a phrase may be, for example, less necessary to recognize other phrases, and may be more likely to reduce the number of recognized phrases to prevent erroneous recognition.

(4)ユーザの音声を認識するためにあらかじめ登録される認識語句が、表示画面に表示されているものと、表示画面に表示されていないものとがあるとよい。
このようにすれば、例えば、ユーザが、表示画面に表示されていない語句を発話した場合であっても、あらかじめ設定された認識語句であれば、キャラクターからの何らかの反応を得ることができるので、ユーザにとってサプライズとなり、ユーザの発見の喜びを与えることができるのでよい。
(4) The recognition words registered in advance for recognizing the user's voice may be those that are displayed on the display screen and those that are not displayed on the display screen.
In this way, for example, even if the user utters a word that is not displayed on the display screen, if the recognition word is a preset recognition word, a certain reaction from the character can be obtained. It can be a surprise for the user and give the joy of finding the user.

あらかじめ認識語句として設定された語句以外の音声が入力された場合に、キャラクターが出力する音声データが登録されているとよい。
このようにすれば、例えば、認識語句以外であっても、必ずキャラクターの反応があるため、対話が途切れたり、エラーとして報知する等によりシステムとのやり取りであることをユーザに想起させてしまうことがなく、キャラクターと対話を継続している感覚を維持できるのでよい。
It is preferable that voice data output by the character is registered when a voice other than a phrase set in advance as a recognized phrase is input.
In this way, for example, even if it is other than a recognized phrase, there is always a reaction of the character, so that the dialogue is interrupted or an error is reported to the user, so that the user is reminded of the exchange with the system. It is good because you can maintain the feeling of continuing the dialogue with the character.

(5)量的に変化する機能の状態を、音声認識によりダイレクトに所望の量的レベルとするとよい。
このようにすれば、例えば、量的レベルを、小さな値と大きな値との間で段階的に変化させる場合に比べて、即座に所望の値とすることができるので、ユーザの手間がかからず、操作に拘束される時間が短縮される。
量的に変化する機能としては、例えば、音量、輝度、スケールなどとするとよい。このようにすれば、音量、輝度、スケールなどのボタンを選択して+−や目盛を表示させ、+−の選択や、目盛上のスライドにより段階を追ってアップダウンさせる手間が省けるのでよい。
(5) The state of the function that changes quantitatively may be set to a desired quantitative level directly by voice recognition.
In this way, the desired value can be immediately set to a desired value as compared with, for example, a case where the quantitative level is gradually changed between a small value and a large value. And the time restricted by the operation is reduced.
As the function that changes quantitatively, for example, a volume, a brightness, a scale, and the like may be used. In this way, it is possible to eliminate the need to select buttons such as volume, luminance, and scale to display +-and scales, and to select +-and slide up and down the scales to step up and down.

(6)ユーザの音声を認識するためにあらかじめ登録される認識語句として、量的に変化する機能に対応する指示語と、量的レベルを示す数字が設定されているとよい。
このようにすれば、例えば、ユーザが所望の機能に対応する指示語と数字を言うと、当該機能の量的レベルを、その数字のレベルにまでダイレクトにアップ、ダウンさせることができるのでよい。
量的に変化する機能に対応する指示語としては、例えば、「おんりょう」、「きど」、「すけーる」などとし、数字は「いち」、「に」、「にきろ」などとするとよい。このようにすれば、例えば、ユーザにとって直感的に理解しやすい機能の名称と数字を用いて、入力ができるのでよい。特に、例えば、「おんりょうさん」、「きどに」、「すけーるにきろ」のように、名称と量的レベルとを1つの認識語句にまとめてもよい。このようにすれば、発話が一回で済むのでよい。
(6) As recognition phrases registered in advance for recognizing the user's voice, it is preferable that an instruction word corresponding to a function that changes quantitatively and a number indicating a quantitative level be set.
In this way, for example, when the user says an instruction word and a number corresponding to a desired function, the quantitative level of the function can be directly increased or decreased to the level of the number.
For example, as a descriptive word corresponding to a function that changes quantitatively, for example, "onri", "kid", "sukururu", etc., and the numbers are "ichi", "ni", "nikiro" etc. Good. In this way, for example, the input can be performed using the names and numbers of the functions that are intuitive and easy for the user to understand. In particular, for example, the name and the quantitative level may be combined into one recognition word, such as "Onryosan", "Kidoni", "Skelenikiro". In this way, the utterance only needs to be performed once.

表示手段の表示画面に、機能を選択するためのボタンであって、当該機能に対応する指示語が表示されたボタンを表示させるとよい。
このようにすれば、例えば、ユーザは、ボタンに表示された指示語を言えばよいので、ユーザにとってわかりやすくなってよい。
Preferably, a button for selecting a function, on which a descriptive word corresponding to the function is displayed, is displayed on the display screen of the display means.
By doing so, for example, the user only has to say the instruction word displayed on the button, so that the user can easily understand.

表示手段の表示画面に、機能を選択するためのボタンであって、機能の現在の量的レベルの値が表示されたボタンを表示させるとよい。
このようにすれば、例えば、ユーザは、ボタンに表示された値を見ることにより、現在の量的レベルを確認して、所望の値へアップさせるべきか、ダウンさせるべきかを判断できるのでよい。
現在の量的レベルの値は、例えば、地図のスケールとするとよい。このようにすれば、例えば、小さなスケールの値がボタンに表示されている場合に、ユーザがそれよりも大きな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に広範囲の地図を見渡すことができてよい。また、例えば、大きなスケールの値がボタンに表示されている場合に、ユーザがそれよりも小さな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に詳細な地図を見ることができてよい。
The display screen of the display means may display a button for selecting a function, the button displaying the value of the current quantitative level of the function.
In this way, for example, the user can check the current quantitative level by looking at the value displayed on the button, and determine whether to increase or decrease to the desired value. .
The value of the current quantitative level may be, for example, a map scale. In this way, for example, if a small scale value is displayed on the button and the user says a larger value, the scale value displayed on the button is also directly changed to that value, and immediately May be able to overlook a wide range of maps. For example, if a large scale value is displayed on a button and the user says a smaller value, the scale value displayed on the button also changes directly to that value, and a detailed map is displayed immediately. May be able to see.

前記機能に対応する指示語が表示されるボタンは、別の表示画面に遷移せずに機能を実行させるボタンがあることを特徴とするとよい。
このようにすれば、例えば、機能を実行させるために別の表示画面に遷移しなくても、対話により機能を実行させることができるので、現在の画面表示が邪魔されることがなくてよい。
The button for displaying the instruction word corresponding to the function may include a button for executing the function without transitioning to another display screen.
With this configuration, for example, the function can be executed through the dialogue without transiting to another display screen to execute the function, so that the current screen display does not need to be disturbed.

(7)音声認識を受け付けているか否かを、表示手段に表示させるとよい。
このようにすれば、例えば、ユーザが、音声による操作ができるか否かを視覚により認識することができてよい。
(7) It is preferable to display on the display means whether or not speech recognition is being accepted.
With this configuration, for example, the user may be able to visually recognize whether or not the user can perform a voice operation.

音声認識を受け付けているか否かとしては、例えば、表示画面の色を変えて表示するとよい。このようにすれば、例えば、ユーザの視覚を介して、音声認識の状態を即座に感得させることができるのでよい。特に、例えば、音声認識を受け付けている場合には、通常の色とし、受け付けていない時には、グレースケールとするとよい。このようにすれば、例えば、音声認識を受け付けているか否かをユーザに直感的にわからせることができるのでよい。   Whether or not the voice recognition has been accepted may be displayed, for example, by changing the color of the display screen. In this way, for example, the state of voice recognition can be immediately sensed through the user's vision. In particular, for example, when speech recognition is received, the color may be a normal color, and when not, grayscale may be used. In this way, for example, the user can intuitively recognize whether or not speech recognition is being accepted.

(8)音声認識を受け付けているか否かをキャラクターとともに、表示手段に表示するとよい。
このようにすれば、例えば、キャラクターを見れば、音声による操作が可能か否かがわかるので、ユーザが気づきやすくなるのでよい。
キャラクターに表示する態様としては、例えば、キャラクターの様子が明らかに変化する態様とするとよい。このようにすれば、例えば、音声認識の状態を即座に感得させることができるのでよい。キャラクターの様子が明らかに変化する態様としては、例えば、キャラクターに物を付加する、キャラクターの色や形態を変える、特定のポーズ、ジェスチャーをさせる、吹き出しでセリフを表示するなどとするとよい。このようにすれば、例えば、通常のキャラクターの状態を知っているユーザであれば、通常の状態との対比によってその変化に即座に気づくのでよい。キャラクターに物を付加する態様としては、例えば、ヘッドセット、ヘッドホン、イヤホン、マイク等の音に関連する備品をキャラクターに装着させるとよい。このようにすれば、例えば、ユーザに、音に関連する機能である音声認識を連想させるのでよい。キャラクターの色や形態を変える態様としては、例えば、髪型や髪の色を変える、別のコスチュームに着替えるなどとするとよい。このようにすれば、例えば、通常の状態との相違がわかりやすくてよい。特に、例えば、キャラクターの耳を大きくすれば、音声をよく聞き取ろうとしていることを示す姿となってよい。さらに、ポーズ、ジェスチャーとして、例えば、耳の後ろに手を当てるしぐさをさせても、音声をよく聞き取ろうとしていることを示す姿となってよい。
(8) Whether or not speech recognition is accepted may be displayed on the display means together with the character.
By doing so, for example, by looking at the character, it is possible to know whether or not the operation by voice is possible, so that the user can easily notice.
As a mode of displaying on the character, for example, a mode in which the state of the character clearly changes may be used. By doing so, for example, the state of voice recognition can be immediately felt. Examples of the manner in which the state of the character clearly changes include, for example, adding an object to the character, changing the color or form of the character, causing a specific pose or gesture, displaying speech in a balloon, and the like. In this way, for example, a user who knows the state of a normal character can immediately notice the change by comparison with the normal state. As a mode of adding an object to the character, for example, equipment related to sound such as a headset, headphones, earphones, and a microphone may be attached to the character. In this way, for example, the user may be associated with voice recognition, which is a function related to sound. As a mode of changing the color or form of the character, for example, it is preferable to change the hairstyle or the color of the hair, or to change into another costume. In this way, for example, the difference from the normal state may be easily understood. In particular, for example, if the character's ears are enlarged, the character may show that he / she is trying to hear the sound well. Further, as a pose or a gesture, for example, even if a gesture of placing a hand behind the ear may be performed, the appearance may indicate that the user is likely to listen to the sound.

(9)キャラクターの音声が出力されている間は、音声を出力し終えるまで、音声認識を停止するとよい。
このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識により他の処理が実行されてしまうことを防止できてよい。他の処理としては、例えば、音量、輝度、スケール、周辺検索のように、緊急性の低い処理とするとよい。このようにすれば、必ずしも直ちに実行しなくてもよいものまで、音声認識により実行されてしまうことがなくてよい。
(9) While the voice of the character is being output, the voice recognition may be stopped until the output of the voice is completed.
In this way, for example, when a voice is input from the user in the middle of the voice of the character, another process may be prevented from being executed by voice recognition. Other processing may be low urgent processing, such as volume, brightness, scale, and peripheral search. In this way, it is not necessary to execute by voice recognition even if it does not necessarily have to be executed immediately.

キャラクターの音声が出力されている間も、音声認識を受け付けるとよい。
このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識より他の処理が中断されないのでよい。他の処理としては、例えば、取締場所に関する位置情報を情報収集サーバに送信する処理のように、緊急性の高い処理とするとよい。このようにすれば、ユーザが直ちに実行して欲しい処理が、中断されることがなくてよい。
It is preferable to receive voice recognition even while the voice of the character is being output.
With this configuration, for example, when a voice is input from the user in the middle of the voice of the character, other processes than the voice recognition need not be interrupted. As another process, for example, a process with a high degree of urgency, such as a process of transmitting position information on a control place to an information collection server, may be used. In this way, the processing that the user wants to execute immediately does not have to be interrupted.

キャラクターの音声が出力されている間に、ユーザからの音声の入力があった場合に、キャラクターの音声の出力を停止するとよい。
このようにすれば、例えば、ユーザの音声によって、キャラクターの発言を遮ったような印象を与えることができる。停止したキャラクターの音声の出力は、例えば、あらためて出力しなければ、同じ発話が始めから繰り返されて不自然な印象を与えることがなくてよい。また、停止したキャラクターの音声の出力を、例えば、止めたところから開始すれば、ユーザの発言の間、キャラクターが待ってくれていた印象を与えることができてよい。
The output of the voice of the character may be stopped when the voice is input from the user while the voice of the character is being output.
In this way, for example, the voice of the user can give an impression that the remark of the character is interrupted. If the output of the voice of the stopped character is not output again, for example, the same utterance does not have to be repeated from the beginning to give an unnatural impression. If the output of the sound of the stopped character is started, for example, from the point where the sound is stopped, it may be possible to give the impression that the character has been waiting during the speech of the user.

キャラクターの音声が出力されている間に、所定の入力操作がなされた場合に、キャラクターの音声を停止するとよい。
このようにすれば、例えば、キャラクターとの対話を第三者に聞かれたくないときに、所定の入力操作によって、キャラクターの音声を停止させることができてよい。所定の入力操作としては、例えば、物理キーの操作とするとよい。このようにすれば、常時、固定的に存在する箇所を操作すればよいので、とっさの操作がしやすい。
When a predetermined input operation is performed while the sound of the character is being output, the sound of the character may be stopped.
In this way, the voice of the character may be stopped by a predetermined input operation, for example, when the third party does not want to hear the conversation with the character. The predetermined input operation may be, for example, an operation of a physical key. With this configuration, it is sufficient to always operate a fixedly existing portion, so that a quick operation can be easily performed.

(10)ユーザの音声を認識するためにあらかじめ登録される認識語句に対応するユーザの音声の入力に応じて、取締場所に関する位置情報を情報収集サーバに送信する投稿を行うとよい。
このようにすれば、例えば、取締場所を知らせる投稿を、手操作でなく、音声により簡単にすばやく行うことができてよい。
取締場所としては、例えば、取締・検問エリアのように、実施位置、時間が変化するチェック場所とするとよい。このようにすれば、あらかじめ位置を登録しておくことが困難な取締場所についての情報を、投稿により収集させることができるのでよい。
位置情報としては、例えば、現在位置又は中心位置座標とするとよい。このようにすれば、例えば、確実且つ簡単に得られる情報により取締場所を特定できるとともに、音声認識を利用するので、実際の取締位置とのずれが少なくてよい。
(10) It is preferable to make a posting for transmitting the position information about the enforcement place to the information collection server in response to the input of the user's voice corresponding to the recognition word registered in advance to recognize the user's voice.
By doing so, for example, a post notifying the control place may be easily and quickly made by voice instead of manual operation.
The enforcement place may be a check place where the execution position and time change, such as an enforcement / checking area, for example. In this way, information on the enforcement place where it is difficult to register the position in advance can be collected by posting.
The position information may be, for example, a current position or a center position coordinate. With this configuration, for example, the control place can be specified by the information that can be obtained reliably and easily, and since the voice recognition is used, the deviation from the actual control position may be small.

(11)所定の認識語句として、音声認識を起動させる語句と投稿の受け付けを開始させる語句とが登録されているとよい。
このようにすれば、例えば、ユーザが、音声認識を起動させる語句と投稿の受け付けを開始させる語句とを発話することにより、音声認識と、投稿の受け付けという多段階の操作を簡単に実行させることができるのでよい。
(11) It is preferable that a phrase that activates speech recognition and a phrase that starts accepting a post are registered as the predetermined recognition phrase.
By doing so, for example, the user can easily execute the multi-stage operation of voice recognition and post acceptance by speaking a phrase that activates speech recognition and a phrase that starts accepting posts. Is good.

音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。
このようにすれば、例えば、音声認識の開始とともに投稿の受け付けが開始してしまい、誤認識が生じることを防止できてよい。また、音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けを一発で開始させることができるので、即座に投稿可能な状態とすることができてよい。
The phrase for activating the speech recognition and the phrase for starting the reception of the post may be registered, for example, as separately separated phrases.
In this way, for example, it may be possible to prevent the reception of the post from being started at the same time as the start of the voice recognition, thereby preventing the occurrence of erroneous recognition. In addition, the phrase that activates speech recognition and the phrase that starts accepting a post may be set as, for example, a series of phrases. In this way, for example, the reception of the post can be started in one shot together with the start of the voice recognition, so that the posting can be immediately made possible.

(12)所定の認識語句としては、音声認識を起動させる語句と投稿をさせる語句とが登録されているとよい。
このようにすれば、例えば、ユーザが、音声認識を起動させる語句と投稿をさせる語句とを発話することにより、音声認識と、投稿という多段階の操作を簡単に行うことができてよい。
(12) As the predetermined recognition phrase, a phrase for activating speech recognition and a phrase for posting are preferably registered.
By doing so, for example, the user may be able to easily perform a multi-stage operation of voice recognition and posting by uttering a phrase for activating voice recognition and a word for posting.

音声認識を起動させる語句と投稿させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。
このようにすれば、例えば、音声認識の開始とともに投稿されてしまい、誤って投稿されることを防止できてよい。また、音声認識を開始させる語句と投稿させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿を一発で行わせることができるので、即座に投稿できて、取締場所と投稿場所とのずれを極力少なくすることができてよい。
The phrase for activating the speech recognition and the phrase for posting may be registered, for example, as separately separated phrases.
By doing so, for example, it may be possible to prevent a message from being posted at the same time as the start of voice recognition and being posted by mistake. The phrase for starting the speech recognition and the phrase for posting may be set as, for example, a series of phrases. In this way, for example, the posting can be performed in one shot at the start of the speech recognition, so that the posting can be performed immediately, and the gap between the control place and the posting place can be minimized.

投稿のための所定の認識語句は、他の認識語句よりも短いとよい。
このようにすれば、例えば、緊急性の高い投稿について、短時間で指示することができてよい。
The predetermined recognition phrase for posting may be shorter than other recognition phrases.
In this way, for example, it is possible to give an instruction in a short time for a highly urgent post.

投稿のための所定の認識語句は、他の認識語句よりも冗長であるとよい。
このようにすれば、例えば、通常の音声認識を利用している場合に、他の認識語句を言う可能性が少なくなり、誤って投稿がされてしまうことを防止できてよい。
冗長であるとは、例えば、文字数が多い、複数に分かれているとするとよい。このようにすれば、例えば、投稿を意図していないユーザが、誤って発話してしまう可能性を低減できるのでよい。
Predetermined recognition phrases for posting may be more verbose than other recognition phrases.
In this way, for example, when normal speech recognition is used, the possibility of saying another recognized phrase is reduced, and it may be possible to prevent erroneous posting.
The word "redundant" means that, for example, the number of characters is large and the number of characters is divided. In this way, for example, it is possible to reduce the possibility that a user who does not intend to post erroneously utters.

投稿のための所定の認識語句は、ユーザが普段言う可能性の低い語句であるとよい。
このようにすれば、例えば、ユーザが車内で普段、頻繁に使用する語句によって頻繁に誤認識が生じることを防ぎ、ユーザが意図しない投稿を防止できる。
The predetermined recognition phrase for posting may be a phrase that the user is unlikely to say usually.
In this way, for example, it is possible to prevent erroneous recognition from occurring frequently due to words frequently used in the vehicle by the user, and to prevent posting unintended by the user.

投稿のための対話におけるキャラクターの音声は、他の対話における音声よりも短いとよい。
このようにすれば、例えば、対話の時間を短くして、素早く投稿させることができるのでよい。
The voice of the character in the conversation for posting may be shorter than the voice in other conversations.
By doing so, for example, the posting time can be quickly reduced by shortening the conversation time.

(13)前記対話は、所定の認識語句に対応するユーザからの音声の入力により開始するとよい。
このようにすれば、例えば、所定の処理をユーザからの音声の入力があって開始するため、システムが勝手に開始して処理が実行されてしまうことがなくてよい。
(13) The dialog may be started by input of a voice from a user corresponding to a predetermined recognition phrase.
With this configuration, for example, since the predetermined process is started when a voice is input from the user, the system does not need to be started and the process is not executed.

(14)前記対話は、所定のキャラクターの音声の出力に対し、所定の認識語句に対応するユーザからの音声の入力があって開始するとよい。
このようにすれば、例えば、キャラクターの音声の出力が、ユーザが所定の処理を開始するか否かを判断する契機となるので、システムを利用する機会を増やすことができるのでよい。
キャラクターの音声の出力は、例えば、特定の処理の開始の有無を問い合わせるものとするとよい。このようにすれば、例えば、ユーザが、処理の利用を促されるのでよい。
キャラクターの音声の出力のタイミングは、例えば、定期的とすれば、処理を利用させる頻度を高めるのでよい。また、タイミングを所定の条件を満たした場合とすれば、処理の利用に適したタイミングで、ユーザに利用を促すことができるのでよい。
(14) The dialogue may be started when a voice output from a user corresponding to a predetermined recognition phrase is input to a voice output of a predetermined character.
With this configuration, for example, the output of the voice of the character triggers the user to determine whether or not to start the predetermined process, so that the opportunity to use the system can be increased.
The output of the voice of the character may be, for example, an inquiry as to whether or not a specific process has started. By doing so, for example, the user may be prompted to use the processing.
If the timing of outputting the voice of the character is, for example, regular, the frequency of using the process may be increased. Further, if the timing satisfies a predetermined condition, the user can be encouraged to use the process at a timing suitable for using the process.

(15)車両の搭乗者が必要とする機能の実行を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了するとよい。
このようにすれば、例えば、音声認識を長期間継続することによって生じる誤操作を防止できるのでよい。
(15) The process may be terminated when a predetermined time has elapsed without the input of a voice from the user from the time when the execution of the function required by the passenger of the vehicle is started.
By doing so, for example, an erroneous operation caused by continuing the voice recognition for a long period of time can be prevented.

(16)車両の搭乗者が必要とする機能の実行を開始した時点から、所定時間経過するまでの間に、キャラクターが、ユーザに音声入力を促す音声を出力するとよい。
このようにすれば、例えば、ユーザが処理の開始を忘れている場合に、音声入力を促すことができるのでよい。
(16) The character may output a voice prompting the user to input a voice during a period from a point in time when the occupant of the vehicle starts executing a required function until a predetermined time elapses.
In this way, for example, when the user has forgotten to start the process, the user can be prompted to input a voice.

(17)(1)〜(16)のシステムとしての機能を、コンピュータに実現させるためのプログラムとして構成するとよい。 (17) The functions of the system of (1) to (16) may be configured as a program for causing a computer to realize the functions.

本発明によれば、ユーザにとって、操作や運転に面白さが得られるとともに、飽きがくることがなく、積極的に機能を利用する意欲が湧いてくるシステム及びプログラムを提供することができる。   Advantageous Effects of Invention According to the present invention, it is possible to provide a system and a program that provide a user with an interesting operation and driving, do not get tired, and are motivated to use the function positively.

本発明の一実施形態を示す全体斜視図である。1 is an overall perspective view showing one embodiment of the present invention. 装置本体の内部構成を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of the apparatus main body. 表示部へ表示する警告画面例を示す図である。It is a figure showing the example of a warning screen displayed on a display part. 表示部へ表示する経路表示画面例を示す図である。It is a figure showing the example of the route display screen displayed on a display. 認識ワードのリスト例の前半を示す図である。It is a figure showing the first half of an example of a list of recognition words. 認識ワードのリストの例の後半を示す図である。It is a figure showing the latter half of an example of a list of recognition words. 応答フレーズのリスト例の一部を示す図である。It is a figure showing a part of example of a list of a response phrase. キャラクターの態様に応じた応答フレーズを示す図である。It is a figure showing a response phrase according to a mode of a character. 各種の応答フレーズの例を示す図である。It is a figure showing an example of various response phrases. 音声認識起動待ちの表示画面例を示す図である。It is a figure showing the example of a display screen of voice recognition start waiting. 現在地表示において音声認識開始の表示画面例を示す図である。It is a figure showing the example of a display screen of voice recognition start in present location display. ルート案内時の音声認識開始の表示画面例を示す図である。It is a figure showing the example of a display screen of voice recognition start at the time of route guidance. 周辺検索におけるジャンル選択の1ページ目の表示画面例を示す図である。It is a figure showing the example of a display screen of the 1st page of genre selection in a neighborhood search. 周辺検索におけるジャンル選択の2ページ目の表示画面例を示す図である。It is a figure showing the example of a display screen of the 2nd page of genre selection in a neighborhood search. 周辺検索における検索結果をアイコンで表示した表示画面例を示す図である。It is a figure showing the example of a display screen which displayed a search result in a neighborhood search with an icon. 図15において地図スケールを変更する場合の表示画面例を示す図である。FIG. 16 is a diagram illustrating an example of a display screen when the map scale is changed in FIG. 15. 周辺検索における検索結果をリスト表示した1ページ目の表示画面例を示す図である。It is a figure showing the example of a display screen of the 1st page which displayed a list of search results in a neighborhood search. 周辺検索における検索結果をリスト表示した2ページ目の表示画面例を示す図である。It is a figure showing the example of a display screen of the 2nd page which displayed a search result in a peripheral search in a list. 探索ルートを表示した表示画面例を示す図である。It is a figure showing the example of the display screen which displayed the search route. 図19においてスケール変更する場合の表示画面例を示す図である。FIG. 20 is a diagram illustrating an example of a display screen when the scale is changed in FIG. 19. ルート条件を変更する表示画面例を示す図である。It is a figure showing the example of a display screen which changes a route condition. 地図スケールを変更する場合の表示画面例を示す図である。It is a figure showing the example of a display screen at the time of changing a map scale. 音量を変更する場合の表示画面例を示す図である。It is a figure showing the example of a display screen at the time of changing a volume. 輝度を変更する場合の表示画面例を示す図である。FIG. 9 is a diagram illustrating an example of a display screen when changing luminance. タイムアウト処理における応答フレーズの例を示す図である。It is a figure showing an example of a response phrase in timeout processing. ジャンル変更の表示画面例を示す図である。It is a figure showing the example of a display screen of a genre change.

[基本構成]
図1は、本発明のシステムを構成する電子機器として好適なナビテーション装置の一実施形態の外観図を示しており、図2は、その機能ブロック図を示しており、図3及び図4は表示形態の一例を示している。図1に示すように、ナビゲーション装置は、持ち運び可能な携帯型の装置本体2と、それを保持する取付部材たるクレードル3とを備える。装置本体2をクレードル3に装着することで、車載用のナビゲーション装置として機能し、クレードル3から取り外すことで携帯型のナビゲーション装置(PND)として機能する。本実施形態は、装置本体2をクレードル3に着脱可能とし、クレードル3と共に車両のダッシュボード上に設置して利用したり、クレードル3から装置本体2を取り外して携帯型(PND)として利用したりすることができるタイプであるが、クレードル3に対して簡単に着脱できず、車載固定タイプでも良いし、携帯型専用のものでもよい。さらには、例えば携帯電話などの携帯端末に所定のアプリケーションプログラムをインストール(プリインストールを含む)して実現されるものでもよい。アプリケーションプログラムは、ナビゲーションを行うためのシステム自身でも良いし、ナビゲーションを行うためのシステムが実装されているサーバにアクセスし、当該システムを利用するためのプログラムでも良い。本発明は、係る各種のタイプのナビゲーションシステムに適用できる。
[Basic configuration]
FIG. 1 shows an external view of an embodiment of a navigation device suitable as an electronic device constituting the system of the present invention, FIG. 2 shows a functional block diagram thereof, and FIGS. 13 shows an example of a display mode. As shown in FIG. 1, the navigation device includes a portable device main body 2 which is portable and a cradle 3 which is a mounting member for holding the main body. When the device main body 2 is mounted on the cradle 3, it functions as an on-vehicle navigation device, and when it is detached from the cradle 3, it functions as a portable navigation device (PND). In the present embodiment, the device main body 2 is detachable from the cradle 3 and is installed on a dashboard of a vehicle together with the cradle 3 for use, or the device main body 2 is removed from the cradle 3 and used as a portable (PND). Although it is a type that can be attached to and detached from the cradle 3, it cannot be easily attached to or detached from the cradle 3, and may be a vehicle-mounted fixed type or a portable type. Furthermore, for example, it may be realized by installing (including pre-installed) a predetermined application program in a mobile terminal such as a mobile phone. The application program may be a system for performing navigation itself, or may be a program for accessing a server on which a system for performing navigation is mounted and using the system. The present invention is applicable to such various types of navigation systems.

装置本体2は、クレードル3に対して着脱自在に取り付けられる。装置本体2は、扁平な矩形状のケース本体4を備えている。そのケース本体4の前面には、表示部5が配置され、その表示部5上には表示部5のどの部分がタッチされたかを検出するタッチパネル8を備え、前面の両サイドには警報ランプ9を備えている。クレードル3は、装置本体2を保持するクレードル本体6と、車室内の所定の位置(ダッシュボード等)において、クレードル本体6を任意の姿勢で指示する台座部7と、を備えている。台座部7は、底面に設けた吸盤にて、ダッシュボードなどの上に吸着して固定される。台座部7とクレードル本体6とは、ボールジョイント等の連結機構を介して所定の角度範囲内で回転可能に連結される。ボールジョイントであるため、台座部7とクレードル本体6は、相対的に三次元方向の任意の角度範囲内で回転移動し、ジョイント部分における摩擦抵抗により任意の角度位置でその位置をとどめる。よって、クレードル本体6に取り付けられた装置本体2も、ダッシュボード上において任意の姿勢で配置することができる。   The device main body 2 is detachably attached to the cradle 3. The device main body 2 includes a flat rectangular case main body 4. A display unit 5 is disposed on the front surface of the case body 4, and a touch panel 8 is provided on the display unit 5 to detect which part of the display unit 5 has been touched. It has. The cradle 3 includes a cradle main body 6 that holds the apparatus main body 2 and a pedestal portion 7 that indicates the cradle main body 6 in an arbitrary posture at a predetermined position (dashboard or the like) in the vehicle interior. The pedestal portion 7 is fixed by suction on a dashboard or the like by a suction cup provided on the bottom surface. The pedestal portion 7 and the cradle body 6 are rotatably connected within a predetermined angle range via a connection mechanism such as a ball joint. Since it is a ball joint, the pedestal portion 7 and the cradle body 6 rotate relatively within an arbitrary angle range in the three-dimensional direction, and stay at the arbitrary angle position due to frictional resistance at the joint portion. Therefore, the device main body 2 attached to the cradle main body 6 can also be arranged in an arbitrary posture on the dashboard.

さらにケース本体4の一方の側面には、SDメモリカード用スロット部21を備え、そのSDメモリカード用スロット部21に地図データなどが記録されたSDメモリカード22を挿入可能としている。このSDメモリカード用スロット部21は、挿入されたSDメモリカード22に対して情報の読み書きを行うメモリカードリーダライタを含む。また、ケース本体4のSDメモリカード用スロット部21を設けた側面には、DCジャック10を設けている。DCジャック10は、図示省略のシガープラグコードを接続するためのもので、そのシガープラグコードを介して車両のシガーソケットに接続して電源供給を受け得るようにする。   Further, on one side surface of the case body 4, an SD memory card slot 21 is provided, and the SD memory card 22 on which map data and the like are recorded can be inserted into the SD memory card slot 21. The SD memory card slot 21 includes a memory card reader / writer that reads and writes information from and to the inserted SD memory card 22. A DC jack 10 is provided on the side of the case body 4 where the SD memory card slot 21 is provided. The DC jack 10 is for connecting a cigar plug cord (not shown), and is connected to a cigar socket of a vehicle via the cigar plug cord so that power can be supplied.

一方、SDメモリカード用スロット部21とは反対側の側面には、電源スイッチや、USB端子23を設けている。このUSB端子23を介してパソコンと接続し、ソフトウェアアプリケーションのバージョンアップなどを行なうことができる。   On the other hand, a power switch and a USB terminal 23 are provided on the side opposite to the SD memory card slot 21. By connecting to a personal computer via the USB terminal 23, a software application can be upgraded.

ケース本体4の内部には、以下の各機器・部品を配置している。すなわち、ケース本体4の背面側内部には、マイクロ波受信機11を配置する。マイクロ波受信機11は、所定周波数帯のマイクロ波を受信するもので、その設定された周波数帯のマイクロ波を受信した場合に、その受信したマイクロ波の信号レベルを検出する。具体的には、その信号レベルであり電界強度に対応するRSSI電圧を利用する。上記の所定周波数帯は、たとえば車両速度測定装置から出射されるマイクロ波の周波数が含まれる周波数帯としている。   The following devices and components are arranged inside the case body 4. That is, the microwave receiver 11 is arranged inside the back side of the case body 4. The microwave receiver 11 receives a microwave in a predetermined frequency band, and when receiving a microwave in the set frequency band, detects a signal level of the received microwave. Specifically, the RSSI voltage corresponding to the signal level and the electric field strength is used. The above-mentioned predetermined frequency band is, for example, a frequency band including a frequency of a microwave emitted from the vehicle speed measuring device.

また、ケース本体4の上面側内部には、GPS信号を受信し現在位置を求めるGPS受信機12を配置している。ケース本体4の前面側内部には、赤外線通信機14を配置する。赤外線通信機14は携帯電話機15等の赤外線通信機を内蔵した通信装置との間でデータの送受を行なう。さらに、ケース本体4内には、スピーカ20も内蔵されている。   Further, a GPS receiver 12 that receives a GPS signal and obtains a current position is disposed inside the upper surface of the case body 4. An infrared communication device 14 is arranged inside the front side of the case body 4. The infrared communication device 14 transmits and receives data to and from a communication device having a built-in infrared communication device such as a mobile phone 15. Further, a speaker 20 is also built in the case body 4.

更に、本実施形態の装置は、無線受信機13とリモコン受信機16を備えている。無線受信機13は、飛来する所定周波数の無線を受信する。リモコン受信機16は、リモコン(携帯機:子機)17とデータ通信をし、装置に対する各種の設定を行なう。無線受信機13は、飛来する所定周波数帯の無線を受信する。この所定周波数は、例えば、緊急車両が基地局に対して自車位置を通知する際に使用する無線の周波数帯とすることができる。   Further, the device of the present embodiment includes a wireless receiver 13 and a remote control receiver 16. The wireless receiver 13 receives the incoming radio wave of a predetermined frequency. The remote control receiver 16 performs data communication with a remote control (portable device: slave device) 17 and performs various settings for the device. The wireless receiver 13 receives incoming radio waves of a predetermined frequency band. The predetermined frequency may be, for example, a radio frequency band used when the emergency vehicle notifies the base station of the vehicle position.

本実施形態のナビゲーション装置は、ナビゲーション機能に加え、周囲に存在する車両速度測定装置その他の交通監視ポイント等の目標物を報知する目標物報知装置としての目標物報知機能も備えている。これらのナビゲーション機能並びに目標物報知機能は、制御部18に有するコンピュータが実行するプログラムとして制御部18のEEPROM上に格納され、これを制御部18に有するコンピュータが実行することで実現される。   The navigation device of the present embodiment is provided with a target notification function as a target notification device for notifying a target such as a vehicle speed measurement device and other traffic monitoring points existing around the vehicle, in addition to the navigation function. The navigation function and the target object notification function are stored in the EEPROM of the control unit 18 as a program to be executed by the computer of the control unit 18, and are realized by the computer of the control unit 18 executing the program.

すなわち、制御部18は、上記の各種の入力機器(GPS受信機12、マイクロ波受信機11、無線受信機13、タッチパネル8、赤外線通信機14、リモコン受信機16、SDメモリカードスロット部21、USB端子23等)から入力される情報に基づき所定の処理を実行し、出力機器(表示部5、警報ランプ9、スピーカ20、赤外線通信機14、SDメモリカードスロット部21、USB端子23等)を利用して所定の情報・警報・メッセージを出力する。この所定の処理が、上記の各機能を実行するためのものであり、必要に応じてデータベース19や、SDメモリカード22にアクセスする。   That is, the control unit 18 controls the various input devices (the GPS receiver 12, the microwave receiver 11, the wireless receiver 13, the touch panel 8, the infrared communication device 14, the remote control receiver 16, the SD memory card slot 21, A predetermined process is executed based on information input from the USB terminal 23, etc., and output devices (display unit 5, alarm lamp 9, speaker 20, infrared communication device 14, SD memory card slot unit 21, USB terminal 23, etc.) To output predetermined information / alarm / message. This predetermined processing is for executing the above-described functions, and accesses the database 19 and the SD memory card 22 as necessary.

ここでデータベース19は、制御部18のマイコン内あるいはマイコンに外付けした不揮発性メモリ(たとえばEEPROM)により実現できる。なお、データベース19には、出荷時に一定の目標物や地図その他の各機能を実施するために必要な情報が登録されており、その後に追加された目標物についてのデータ等は、所定の処理を経て更新することができる。この更新のための処理は、例えば、追加データが格納されたSDメモリカード22をSDメモリカード用スロット部21に装着すると共に、そのSDメモリカード22からデータベース19に転送することで行うことがある。また、このデータ更新は、赤外線通信機7を用いたり、USB端子23を介して接続されるパソコンその他の外部機器を用いたりすることで行うことができる。   Here, the database 19 can be realized by a nonvolatile memory (for example, an EEPROM) inside or outside the microcomputer of the control unit 18. In the database 19, information necessary for performing a certain target, a map, and other functions at the time of shipment is registered, and data and the like on the target added later are subjected to predetermined processing. Can be updated via The process for updating may be performed, for example, by mounting the SD memory card 22 storing the additional data in the SD memory card slot 21 and transferring the data from the SD memory card 22 to the database 19. . Further, this data update can be performed by using the infrared communication device 7 or using a personal computer or other external device connected via the USB terminal 23.

目標物報知機能を実現するための制御部18は、以下のような動作をする。すなわち、制御部18は、マイクロ波受信機11が所望のマイクロ波を受信した場合、予め定めた警報を出力する。この警報としては、スピーカ20を用いたブザーやマイクロ波の受信(車両速度測定装置の検出等)を知らせるための音声の出力や、表示部5を用いた文字或いはイメージによるメッセージの出力などがある。   The control unit 18 for realizing the target object notification function operates as follows. That is, when the microwave receiver 11 receives a desired microwave, the control unit 18 outputs a predetermined alarm. Examples of the alarm include a sound output for notifying a buzzer using the speaker 20 or reception of microwaves (detection of a vehicle speed measurement device, etc.), and a message output using characters or images using the display unit 5. .

また、制御部18は、無線受信機13が所望の無線を受信した場合、予め定めた警報を出力する。この警報としては、スピーカ20を用いたブザーやマイクロ波の受信(緊急車両の接近等)を知らせるための音声の出力や、表示部5を用いた文字或いはイメージによるメッセージの出力などがある。この無線の受信に伴う警報と、上記のマイクロ波の受信に伴う警報の形態は、異なるようにすると良い。   Further, when the wireless receiver 13 receives a desired wireless signal, the control unit 18 outputs a predetermined alarm. The warning includes a buzzer using the speaker 20, a sound output for notifying the reception of a microwave (such as an approach of an emergency vehicle), and a message output using characters or images using the display unit 5. It is preferable that the form of the alarm associated with the radio reception and the form of the alarm associated with the microwave reception be different.

さらに、制御部18は、GPS受信機12によって検出した現在位置と、データベース19に記憶している交通監視ポイント等の目標物の位置が、所定の位置関係にあるとき、所定の警報を出力する。そのため、データベース19には、検出対象の目標物に関する情報(経度・緯度を含む目標物の位置情報や目標物の種別情報等)や、事故多発地帯や交通取締り情報などのより注意を持って安全に運転するための交通安全情報や、ランドマークや運転に有益な各種の情報がある。各情報は、具体的な情報の種類(目標物の種類、交通取り締まりの種類、事故多発地帯、ランドマークの名称等)と位置情報とを関連づけて登録されている。   Further, the control unit 18 outputs a predetermined alarm when the current position detected by the GPS receiver 12 and the position of a target such as a traffic monitoring point stored in the database 19 have a predetermined positional relationship. . For this reason, the database 19 stores information on the target object to be detected (position information of the target object including longitude and latitude, type information of the target object, and the like), and information such as a zone where accidents frequently occur and traffic control information. There is traffic safety information for driving, and various information useful for landmarks and driving. Each piece of information is registered in association with the type of specific information (the type of target, the type of traffic control, the zone where accidents frequently occur, the names of landmarks, etc.) and the position information.

警報を発する際の目標物までの距離は、目標物の種類ごとに変えることができる。警報の態様としては、上記と同様に、スピーカ20を用いた音声等による警報と、表示部5を用いた警報等がある。図3は、表示部5による警報の一例を示している。本実施形態では、装置がナビゲーション装置であるので、後述するように地図データを有していることから、基本画面として、制御部18は、現在位置周辺の道路ネットワーク情報を読み出し、現在位置周辺の地図を表示部5に表示する機能を有する。そして、表示部5に、現在表示中の画面(ここでは現在位置周辺の地図)に重ねて警告画面70を表示する。図3は、地図50を表示している際に、現在位置と交通監視ポイントの一つである速度測定装置の一種であるLHシステムとの距離が500mになった場合の警告画面70の表示例を示している。さらに、「500m先LHシステムです」といった警報種類と距離を示す警告音声をスピーカ20から出力する処理を行う。   The distance to the target when an alarm is issued can be changed for each type of target. Similar to the above, there are two types of alarms, such as an alarm using a voice using the speaker 20 and an alarm using the display unit 5. FIG. 3 shows an example of an alarm by the display unit 5. In the present embodiment, since the device is a navigation device, since the device has map data as described later, the control unit 18 reads road network information around the current position as a basic screen, and It has a function of displaying a map on the display unit 5. Then, a warning screen 70 is displayed on the display unit 5 so as to overlap the currently displayed screen (here, a map around the current position). FIG. 3 is a display example of a warning screen 70 when the distance between the current position and the LH system, which is a type of speed measuring device, which is one of the traffic monitoring points, when displaying the map 50 is 500 m. Is shown. Further, a process of outputting a warning voice indicating the type of warning and the distance such as “500 m ahead LH system” from the speaker 20 is performed.

一方、ナビゲーション機能を実現するための制御部18は、以下のような動作をする。まず、データベース19は、ナビゲーション用の道路ネットワーク情報を記憶している。このデータベース19に格納するナビゲーションのための情報は、出荷時において全国についてのすべての情報を格納しておいても良いし、地図データ等は、地方毎にSDメモリカード22に格納したものを提供するようにし、ユーザは必要な地図データ等が格納されたSDメモリカード22を用意し、それをSDメモリカード用スロット部21に装着して使用するようにしても良い。なお、SDメモリカード22に格納された地図データ等は、データベース19に転送して格納しても良いし、制御部18がSDメモリカード22にアクセスし、そこから読み出して使用するようにしても良い。   On the other hand, the control unit 18 for implementing the navigation function operates as follows. First, the database 19 stores road network information for navigation. The information for navigation stored in the database 19 may store all information on the whole country at the time of shipment, and the map data etc. provided on the SD memory card 22 for each region may be provided. In this case, the user may prepare an SD memory card 22 in which necessary map data and the like are stored, and mount the SD memory card 22 in the SD memory card slot 21 for use. The map data and the like stored in the SD memory card 22 may be transferred to and stored in the database 19, or the control unit 18 may access the SD memory card 22 and read and use it. good.

制御部18は、データベース19から現在位置周辺の道路ネットワーク情報を読み出し、現在位置周辺の地図を表示部5に表示する機能を有する。この制御部18は、この道路ネットワーク情報を利用してある位置から別の位置に至るルート(経路)を検索することができる。また、データベース19は、電話番号とその電話番号の住宅・会社・施設等の位置情報及び名称とを対応づけて記憶した電話番号データベースと、住所とその住所の位置情報とを対応づけて記憶した住所データベースを備える。またデータベース19には、速度測定装置等の交通監視ポイントの位置情報がその種類とともに記憶されている。   The control unit 18 has a function of reading road network information around the current position from the database 19 and displaying a map around the current position on the display unit 5. The control unit 18 can search a route (route) from one position to another position using the road network information. The database 19 stores a telephone number database in which telephone numbers are associated with location information and names of houses, companies, facilities, and the like of the telephone numbers, and an address and positional information of the addresses in association with each other. It has an address database. The database 19 stores the position information of the traffic monitoring points such as the speed measuring device together with the type.

また、制御部18は、一般的なナビゲーション装置の処理を行う機能を有する。すなわち、表示部5に現在位置周辺の地図を随時表示し、目的地設定ボタンを表示する。制御部18は、タッチパネル8によって、目的地設定ボタンの表示位置に対応する位置のタッチを検出した場合に、目的地設定処理を行う。目的地設定処理では、目的地設定メニューを表示部5に表示し、目的地の設定方法の選択をユーザに促す。目的地設定メニューは、目的地の設定方法の選択をユーザに促す電話番号検索ボタンと住所検索ボタンとを有する。電話番号検索ボタンがタッチされたことを検出した場合には、電話番号の入力画面を表示し、入力された電話番号に対応する位置情報をデータベース19から取得する。住所検索ボタンがタッチされたことを検出した場合には、住所の選択入力画面を表示し、入力された住所に対応する位置情報をデータベース19から取得する。そして、取得した位置情報を目的地の位置情報として設定し、現在位置から目的地までの推奨経路を、データベース19に記憶している道路ネットワーク情報に基づいて求める。この推奨経路の算出方法としては例えばダイクストラ法など公知の手法を用いることができる。   Further, the control unit 18 has a function of performing processing of a general navigation device. That is, a map around the current position is displayed on the display unit 5 as needed, and a destination setting button is displayed. The control unit 18 performs a destination setting process when the touch panel 8 detects a touch at a position corresponding to the display position of the destination setting button. In the destination setting process, a destination setting menu is displayed on the display unit 5 to urge the user to select a destination setting method. The destination setting menu has a telephone number search button and an address search button that prompt the user to select a destination setting method. If it is detected that the telephone number search button has been touched, a telephone number input screen is displayed, and position information corresponding to the input telephone number is acquired from the database 19. When it is detected that the address search button has been touched, an address selection input screen is displayed, and position information corresponding to the input address is acquired from the database 19. Then, the obtained position information is set as the position information of the destination, and the recommended route from the current position to the destination is obtained based on the road network information stored in the database 19. As a method of calculating the recommended route, a known method such as the Dijkstra method can be used.

そして、制御部18は、算出した推奨経路を、周辺の地図とともに表示する。例えば、図4に示すように、現在位置51から目的地52にいたるルート53を推奨経路として、所定の色(例えば赤色)で表示する。これは、一般的なナビゲーションシステムと同様である。そして本実施形態では、制御部18は、ルート53上の位置情報とデータベース19に記憶された交通監視ポイント等の目標物の位置情報とを比較し、ルート53上に位置する交通監視ポイント等の位置を表示する。なお、ルート53を安全運転で走行するための情報提供としては、データベース19に格納された各種の目標物の内、交通監視ポイントに限るようにしても良い。   Then, the control unit 18 displays the calculated recommended route together with the surrounding map. For example, as shown in FIG. 4, a route 53 from the current position 51 to the destination 52 is displayed in a predetermined color (for example, red) as a recommended route. This is similar to a general navigation system. In the present embodiment, the control unit 18 compares the position information on the route 53 with the position information of a target such as a traffic monitoring point stored in the database 19, and determines the position of the traffic monitoring point or the like located on the route 53. Show location. It should be noted that information provision for driving the route 53 with safe driving may be limited to a traffic monitoring point among various targets stored in the database 19.

これにより、例えば、図4に示すように、道路上の位置から吹き出しを表示し、データベース19に記憶されたその位置の交通監視ポイントの種類を吹き出しの中に表示する。例えば、図4(a)は、警告ポイント検索画面の表示例であり、交通監視ポイント55aから55fを表示した例を示している。交通監視ポイント55aは、Nシステムを示す「N」の文字を吹き出しの中に表示している。交通監視ポイント55b、55c、55eは、LHシステムを示す「LH」の文字を吹き出しの中に表示している。交通監視ポイント55dは、ループコイルを示す「ループ」の文字を吹き出しの中に表示している。交通監視ポイント55fは、Hシステムを示す「H」の文字を吹き出しの中に表示している。このように、吹き出しの中に文字を表示する簡略表示状態の吹き出し位置へのタッチをタッチパネル8が検知した場合には、図4(b)に示すように、簡易表示を詳細表示へと切り替える。詳細表示は、図3に示した警告画面を吹き出しの中に表示するものである。   Thereby, for example, as shown in FIG. 4, the balloon is displayed from a position on the road, and the type of the traffic monitoring point at that position stored in the database 19 is displayed in the balloon. For example, FIG. 4A is a display example of a warning point search screen, and shows an example in which traffic monitoring points 55a to 55f are displayed. The traffic monitoring point 55a displays a letter “N” indicating the N system in a balloon. The traffic monitoring points 55b, 55c, and 55e display characters "LH" indicating the LH system in balloons. The traffic monitoring point 55d displays "loop" indicating a loop coil in a balloon. The traffic monitoring point 55f displays a letter “H” indicating the H system in a balloon. As described above, when the touch panel 8 detects a touch on the balloon position in the simplified display state in which characters are displayed in the balloon, the simple display is switched to the detailed display as shown in FIG. In the detailed display, the warning screen shown in FIG. 3 is displayed in a balloon.

また、図4(a)に示すように表示部5内の右下側には、交通監視ポイント種別指定部56を表示する。交通監視ポイント種別指定部56は、ルート53上に存在する交通監視ポイントの種別を列挙したボタン表示を行う部分である。図4(a)の例では、交通監視ポイント55aのNシステムを示す「N」の種別ボタン57aと、交通監視ポイント55b、55c、55eのLHシステムを示す「LH」の種別ボタン57bと、交通監視ポイント55dのループコイルを示す「ループ」の種別ボタン57cと、交通監視ポイント55fのHシステムを示す「H」の種別ボタン57dを表示している。制御部18は、この種別ボタンの表示部へのタッチをタッチパネル8から検出した場合、タッチされた種別ボタンを反転表示するとともに、タッチされた種別ボタンに対応する交通監視ポイントの表示態様を、簡易表示中であれば詳細表示に切り替え、詳細表示中であれば簡易表示中に切り替える。   As shown in FIG. 4A, a traffic monitoring point type specifying unit 56 is displayed on the lower right side of the display unit 5. The traffic monitoring point type designation unit 56 is a part that displays a button listing the types of the traffic monitoring points existing on the route 53. In the example of FIG. 4A, an “N” type button 57a indicating the N system of the traffic monitoring point 55a, an “LH” type button 57b indicating the LH system of the traffic monitoring points 55b, 55c, 55e, and a traffic The "loop" type button 57c indicating the loop coil of the monitoring point 55d and the "H" type button 57d indicating the H system of the traffic monitoring point 55f are displayed. When detecting the touch of the type button on the display unit from the touch panel 8, the control unit 18 reversely displays the touched type button and changes the display mode of the traffic monitoring point corresponding to the touched type button in a simple manner. If it is being displayed, the display is switched to the detailed display, and if it is being displayed, the display is switched to the simple display.

本実施形態のカーナビゲーション装置は、目的地(以下、経由地も含む)の設定方法として、周辺検索機能を備えている。この周辺検索機能が選択されて起動された場合、制御部18は、指定された条件に合致する施設であって、現在位置から近いものを抽出し、その抽出結果を表示部5に描画する。そして、ユーザは、表示部5に描画された候補の中からいずれかを選択し、確定することで目的地(経由地を含む)に指定することができる。   The car navigation device according to the present embodiment has a peripheral search function as a method for setting a destination (hereinafter, a transit point is also included). When the peripheral search function is selected and activated, the control unit 18 extracts a facility that matches the designated condition and is close to the current position, and draws the extraction result on the display unit 5. Then, the user can select one of the candidates drawn on the display unit 5 and specify it as a destination (including a stopover) by confirming.

すなわち、係る機能を実現するため、本実施形態のデータベース19は、各施設についての情報を、その位置情報とともに施設の分類に関する情報と関連付けて記憶している。施設の分類に関する情報は、各施設が合致するジャンルの呼び名でまとめられた複数種類の項目である。   That is, in order to realize such a function, the database 19 of the present embodiment stores information on each facility together with information on the classification of the facility together with its position information. The information on the classification of the facility is a plurality of types of items summarized by the name of the genre to which each facility matches.

本実施形態では、いずれかの項目が指定されると、制御部18は、指定された項目に合致する施設であって、現在位置から近いものを抽出し、その抽出結果を目的地の候補として表示部5に描画する。ユーザは、表示部5に描画された候補の中からいずれかを選択することによって、目的地として指定することができる。   In the present embodiment, when any item is specified, the control unit 18 extracts a facility that matches the specified item and is close to the current position, and uses the extraction result as a destination candidate. Drawing is performed on the display unit 5. The user can designate any of the candidates drawn on the display unit 5 as a destination by selecting one of the candidates.

項目のいずれか選択された場合、制御部18は、データベース19にアクセスし、現在位置を中心として、基準距離(たとえば、10km)以内に存在する施設であって、指定された項目の分類に一致するものを抽出する。そして、近いものから所定数(たとえば10個)の施設を表示部5に描画されている地図上の対応する箇所に、当該施設を示すアイコン(マーク)を重ねて描画する。データベース19に格納した施設の情報として、各施設に対して、それぞれのアイコンを関連づけて登録しておき、描画に際しては、その関連づけられたアイコンを読み出して表示部5の所定位置に描画する。   When any one of the items is selected, the control unit 18 accesses the database 19 and determines that the facility is located within a reference distance (for example, 10 km) around the current position and matches the classification of the specified item. Extract what you want to do. Then, a predetermined number (for example, 10) of closest facilities are drawn with corresponding icons (marks) indicating the facilities on corresponding locations on the map drawn on the display unit 5. As the facility information stored in the database 19, each icon is registered in association with each facility, and at the time of drawing, the related icon is read out and drawn at a predetermined position on the display unit 5.

なお、表示部5に描画された地図上に、現在位置が存在している場合には、その現在位置に該当する位置に自車を示す自車アイコンを重ねて描画する。さらに、このような施設のアイコンを描画するに際し、自車から近い順に番号を付記して表示する。自車の移動に伴い、随時番号は更新する。   If the current position is present on the map drawn on the display unit 5, the own vehicle icon indicating the own vehicle is drawn in a position corresponding to the current position. Further, when drawing such an icon of the facility, a number is added and displayed in order from the closest to the own vehicle. The number is updated at any time as the vehicle moves.

そして、ユーザが、所望の施設を選択すると、それを認識した制御部18が、係る施設を目的地とした推奨経路を求め、その結果を表示部5の地図に重ねて描画する。   Then, when the user selects a desired facility, the control unit 18 that recognizes the desired facility obtains a recommended route with the facility as a destination, and draws the result over the map on the display unit 5.

さらに、制御部18は、設定された目的地までのルート案内を行う機能を有する。つまり、制御部18は、ユーザによる案内開始の選択に応じて、GPSや自律航法で自車位置を逐次検出しながら、道路などを表す地図情報を表示部5に描画しつつ、目的地までの道案内を画像や音声を用いて行う。   Further, the control unit 18 has a function of providing route guidance to the set destination. In other words, the control unit 18 draws map information representing a road or the like on the display unit 5 while sequentially detecting the own vehicle position by GPS or autonomous navigation in accordance with the selection of the guidance start by the user, and Provides directions using images and sounds.

上記のユーザによる指定、選択等の指示入力は、表示部5に項目や機能の名称が表示されたボタン、施設のアイコンをタッチしたり、リモコン操作により選択したり、所定の音声が入力がなされたことを、制御部18が検出することを契機として行うことができる。   Instruction input such as designation and selection by the user is performed by touching a button on which a name of an item or function is displayed on the display unit 5, an icon of a facility, selecting by a remote control operation, or inputting a predetermined voice. This can be performed with the detection of the control unit 18 as an opportunity.

[キャラクターとの対話機能]
《対話機能の基本》
以下、本実施形態の特徴であるキャラクターとの対話機能について説明する。この対話機能は、制御部18が、プログラムを実行することにより実現される機能であり、車両の搭乗者であるユーザの音声を認識した結果に基づく認識情報と、ユーザの音声を認識したことを示す所定のキャラクターの音声の出力とによって実現する機能である。
[Interaction with character]
《Basic of interactive function》
Hereinafter, the interactive function with the character, which is a feature of the present embodiment, will be described. This interactive function is a function realized by the control unit 18 executing a program, and recognizes recognition information based on the result of recognizing the voice of the user who is the occupant of the vehicle and recognizes that the user's voice has been recognized. This is a function realized by outputting a voice of a predetermined character shown.

この対話機能を実行するため、データベース19は、認識ワード(認識語句)と、これに対応するキャラクターの音声データである応答フレーズを記憶している。制御部18は、マイク20を介して入力されたユーザの音声を、認識ワードに基づいて認識する。つまり、制御部18は、ユーザの音声信号に基づいて、ユーザが発話した音声を語句として認識し、認識された語句と認識ワードとが一致するか否かを判定する。そして、制御部18は、認識された語句に一致すると判定された認識ワードに対応する応答フレーズを、スピーカ20に出力させる。対話のための認識ワードとキャラクターの音声である応答フレーズとの種々の組み合わせを用意することにより、後述するように、対話に応じて実行される多様な処理に対応させることができる。   In order to execute this interactive function, the database 19 stores a recognition word (recognition phrase) and a response phrase which is voice data of the character corresponding to the recognition word. The control unit 18 recognizes the user's voice input via the microphone 20 based on the recognition word. That is, the control unit 18 recognizes the voice uttered by the user as a phrase based on the voice signal of the user, and determines whether the recognized phrase matches the recognized word. Then, the control unit 18 causes the speaker 20 to output a response phrase corresponding to the recognized word determined to match the recognized phrase. By preparing various combinations of the recognition word for the dialogue and the response phrase that is the voice of the character, it is possible to cope with various processes executed according to the dialogue, as described later.

これにより、ユーザは、システムである電子機器を利用して、キャラクターと簡単な対話ができる。本実施形態のキャラクターは、例えば、「レイ」という名前の少女として設定されている。上記の周辺検索等の諸機能も、キャラクターとの対話で行うことができる。データベース19は、キャラクターの呼び名として、「れーたん」を、認識ワードとして記憶している。   This allows the user to have a simple conversation with the character using the electronic device as a system. The character of the present embodiment is set, for example, as a girl named “Ray”. Various functions such as the above-described peripheral search can also be performed by interacting with the character. The database 19 stores “letan” as a recognition name as a character name.

また、データベース19は、キャラクターの画像(静止画、動画を含む)データを記憶している。制御部18は、この画像データに基づいて、キャラクターの静止画、動画を、表示部5に表示させることができる。なお、制御部18は、一部の応答フレーズについては、出力する応答フレーズと合致するように、表示部5に表示させるキャラクターの口や身体を動かすリップリンクにより、キャラクターがしゃべっている状況をリアルに感じさせることができる。   The database 19 stores character image (including still images and moving images) data. The control unit 18 can display a still image and a moving image of the character on the display unit 5 based on the image data. In addition, the control unit 18 uses a lip link that moves the mouth and body of the character displayed on the display unit 5 so that a part of the response phrase matches the response phrase to be output. You can feel it.

さらに、データベース19が記憶するキャラクターの音声、画像としては、同一人物について、複数の態様(モード)が設定されている。例えば、データベース19は、「レイ」という一人の人物でありながら、「標準レイ」、「変身後のレイ」、「ちびレイ」という3つのモードに分けて、それぞれの応答フレーズ、画像データを記憶している。「標準レイ」はキャラクターの基本となるモードである。「変身後のレイ」は、「標準レイ」とは衣服及び髪型を変えたモードである。「ちびレイ」は、頭身を変えて、子どもっぽくしたモードである。制御部18は、ユーザによるいずれかのモードの選択に従って、キャラクターの音声、画像を出力する。   Further, as the voice and image of the character stored in the database 19, a plurality of modes (modes) are set for the same person. For example, the database 19 stores one response phrase and image data in three modes, “standard ray”, “reformed ray”, and “chibi ray”, while being a single person “ray”. are doing. "Standard ray" is the basic mode of the character. “Ray after transformation” is a mode in which clothing and hairstyle are changed from “standard ray”. "Chibi Rei" is a child-like mode that changes your head and body. The control unit 18 outputs the voice and image of the character according to the selection of any one of the modes by the user.

《認識ワード》
図5及び図6は、データベース19が記憶している認識ワードのリストの一例である。この認識ワードのリストの各列には、リスト番号が付されている。各列には、後述するように、表示部5に表示される各表示画面M1、V1、V1a、S1、S1a、S2、S2a、S2_list、S2a_list、R1、R1a、R1b、A1、A2、A3において、それぞれ認識可能な認識ワードが含まれている。
《Recognition word》
FIGS. 5 and 6 are examples of recognition word lists stored in the database 19. Each column of the recognition word list is assigned a list number. In each column, as described later, each display screen M1, V1, V1a, S1, S1a, S2, S2a, S2_list, S2a_list, R1, R1a, R1b, A1, A2, A3 displayed on the display unit 5 is described. , Each includes a recognizable recognition word.

リスト番号1には、音声認識を起動させる起動ワード、「れーたん、ぼいすこんとろーる」が登録されている。制御部18は、起動ワードを認識すると、周辺検索等の各種の機能を実行させるための音声認識の機能を起動する。このため、初期状態においては、制御部19は、起動ワードのみを音声認識できる状態で待機している。このリスト番号1は、後述する表示画面M1に対応している。   In list number 1, a startup word for activating voice recognition, "Retann, Boyskontororu" is registered. When recognizing the activation word, the control unit 18 activates a voice recognition function for executing various functions such as a peripheral search. Therefore, in the initial state, the control unit 19 is on standby in a state where only the activation word can be recognized by voice. The list number 1 corresponds to a display screen M1 described later.

リスト番号2には、音声認識を起動させた後に、周辺検索、スケール変更、音量変更、輝度変更のいずれかを開始させるための認識ワードが登録されている。例えば、周辺検索を開始させる認識ワードとしては、「しゅうへん」が登録されている。スケール変更を開始させる認識ワードとしては、「すけーる」が登録されている。音量変更を開始させる認識ワードとしては、「おんりょう」が登録されている。輝度変更を開始させる認識ワードとしては、「きど」が登録されている。このリスト番号2は、後述する表示画面V1に対応している。さらに、リスト番号2には、自宅に戻る場合に、一度の発話で自宅へのルートを探索させる認識ワード「じたく」が登録されている。このように、ユーザが使用する頻度が高い機能に対応する認識ワードが、音声認識が起動した時の認識ワードとして登録されているので、音声認識を開始して、即座に実行させることができる。   In list number 2, a recognition word for starting any one of the peripheral search, the scale change, the volume change, and the brightness change after the voice recognition is activated is registered. For example, “Shuhen” is registered as a recognition word for starting a peripheral search. As a recognition word for starting the scale change, "Skjl" is registered. As the recognition word for starting the volume change, “Onryo” is registered. “KIDO” is registered as a recognition word for starting the luminance change. The list number 2 corresponds to a display screen V1 described later. Further, in the list number 2, a recognition word "Jitakaku" for searching for a route to home with one utterance when returning to home is registered. As described above, since the recognition word corresponding to the function frequently used by the user is registered as the recognition word when the voice recognition is activated, the voice recognition can be started and immediately executed.

リスト番号3には、ルート案内を開始した後に、実行させる機能に対応する認識ワードが登録されている。例えば、リスト番号2の認識ワードに加えて、「あんないちゅうし」、「あんないていし」、「あんないやめる」というルート案内を中止させる認識ワードが登録されている。このように、ルート案内を中止させるという同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。このリスト番号3は、後述する表示画面V1aに対応している。特に、「しゅうへん」、「おんりょう」、「きど」は、後述するように、表示画面V1、V1aのボタンに表示される指示語となる。このため、ユーザは、表示された指示語を発話すれば、指示入力が可能となる。   In list number 3, recognition words corresponding to functions to be executed after the start of route guidance are registered. For example, in addition to the recognition word of list number 2, recognition words for canceling route guidance such as "Annu Chu", "Anni Shishi", and "Anni Quit" are registered. In this way, by preparing a plurality of types of recognition words for executing the same function of canceling the route guidance, the possibility of being unable to recognize even if the user's utterance contents are slightly different is reduced. it can. The list number 3 corresponds to a display screen V1a described later. In particular, as shown below, “Shihen”, “Onryou”, and “Kid” are instruction words displayed on the buttons of the display screens V1 and V1a. Therefore, the user can input an instruction by speaking the displayed instruction word.

リスト番号4、5には、周辺検索において、ジャンルを指定するための認識ワードが登録されている。このジャンルの認識ワードは、ジャンルを指定するための項目のボタンに、ひらがなの文字で表示される。リスト番号4に属する認識ワードのボタンが表示される画面表示では、認識可能なジャンルは、リスト番号4に属する認識ワードに限られる。このリスト番号4は、後述する表示画面S1に対応する。なお、ファミリーレストランについて「ふぁみれす」、「ふぁみりーれすとらん」、電器店について「かでん」、「でんきや」のように、同一のジャンルを指定する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる   In list numbers 4 and 5, recognition words for designating a genre in the peripheral search are registered. The genre recognition word is displayed in hiragana characters on a button of an item for specifying a genre. In the screen display in which the recognition word buttons belonging to list number 4 are displayed, the recognizable genres are limited to the recognition words belonging to list number 4. The list number 4 corresponds to a display screen S1 described later. In addition, there are multiple types of recognition words that specify the same genre, such as "Familys" and "Family Restaurant" for family restaurants, and "Kaden" and "Denkiya" for electronics stores. By doing so, it is possible to reduce the possibility that recognition will not be possible even if the user's utterance content is slightly different

リスト番号5に属する認識ワードのボタンが表示される画面表示においては、認識可能なジャンルは、リスト番号5に属する認識ワードに限られる。このリスト番号5は、後述する表示画面S1aに対応する。このように、各表示画面において認識可能なジャンルは、それぞれの表示画面に表示された項目のボタンに対応する認識ワードに限定されるので、誤認識の可能性が低くなる。   In the screen display in which the recognition word buttons belonging to list number 5 are displayed, the recognizable genres are limited to the recognition words belonging to list number 5. The list number 5 corresponds to a display screen S1a described later. In this manner, the genre that can be recognized on each display screen is limited to the recognition word corresponding to the button of the item displayed on each display screen, so that the possibility of erroneous recognition is reduced.

さらに、リスト番号4には、リスト番号5の表示画面S1aに遷移させるための認識ワード「にぺーじ」、「つぎ」が登録されている。また、リスト番号5には、リスト番号4の表示画面S1に遷移させるための認識ワード「いちぺーじ」、「まえ」が登録されている。このように、ジャンルの表示画面を遷移させるという同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。   Further, in the list number 4, the recognition words "nyanji" and "next" for transitioning to the display screen S1a of the list number 5 are registered. In the list number 5, the recognition words "ichi-ji" and "mae" for transitioning to the display screen S1 of the list number 4 are registered. In this way, by preparing a plurality of types of recognition words for executing the same function of shifting the display screen of the genre, there is a possibility that even if the utterance contents of the user are slightly different, recognition cannot be performed. Can be reduced.

リスト番号6、7、8、9には、周辺検索で検索された施設を選択するための認識ワードが登録されている。リスト番号6、7に対応する表示画面では、周辺検索で検索された施設が、地図上の所在地に、現在位置に近い順に番号が付されたアイコンで表示される。認識ワードとしては、施設を選択するための番号の呼び名が登録されている。例えば、「いち」、「いちばん」、「に」、「にばん」のように、番号を指示する認識ワードが登録されている。このように、目的地として同一の対象を選択する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。なお、リスト番号6、7に対応する表示画面では、検索された施設(本例では、10箇所)を、画面表示されているか否かにかかわらず、全て音声で選択できる。   In list numbers 6, 7, 8, and 9, registered recognition words for selecting the facilities searched by the peripheral search are registered. On the display screens corresponding to the list numbers 6 and 7, the facilities searched by the peripheral search are displayed at the locations on the map by icons numbered in order from the closest to the current position. As the recognition word, a name of a number for selecting a facility is registered. For example, recognition words indicating numbers are registered, such as "ichi", "ichiban", "ni", "niban". In this way, by preparing a plurality of types of recognition words for selecting the same target as the destination, it is possible to reduce the possibility that recognition may not be possible even if the utterance contents of the user are slightly different. In the display screens corresponding to the list numbers 6 and 7, all of the searched facilities (in this example, 10 places) can be selected by voice irrespective of whether they are displayed on the screen.

また、リスト番号6、7には、表示された地図のスケールを変更するための認識ワードが登録されている。つまり、リスト番号6には、スケール変更の開始を受け付ける認識ワード「すけーる」が登録されている。このリスト番号6は、後述する表示画面S2に対応する。リスト番号7には、スケール変更の開始を受け付ける認識ワード「スケール」の他、スケールを変更する認識ワードが登録されている。このリスト番号7は、後述する表示画面S2aに対応する。   In list numbers 6 and 7, recognition words for changing the scale of the displayed map are registered. That is, in list number 6, the recognition word "sukeru" for accepting the start of the scale change is registered. The list number 6 corresponds to a display screen S2 described later. In list number 7, in addition to the recognition word "scale" for accepting the start of the scale change, a recognition word for changing the scale is registered. This list number 7 corresponds to a display screen S2a described later.

スケールを変更する認識ワードには、地図のスケールを拡大させて詳細表示するための認識ワードと、地図のスケールを縮小させて広域表示するための認識ワードと、スケールの数字及び単位を示す認識ワードが含まれる。地図のスケールを拡大させる認識ワードは、「かくだい」、「しょうさい」、地図のスケールを縮小させる認識ワードは、「しゅくしょう」、「こういき」といったように、地図のスケールを段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルのスケールが設定されていて、そのレベルを1つずつ上げ下げすることである。このように、スケールを段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、スケールを上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは音量の変更を指示する言葉に迷わずに済む。   The recognition words for changing the scale include a recognition word for enlarging the map scale for detailed display, a recognition word for reducing the map scale for wide-area display, and a recognition word for indicating the scale number and unit. Is included. Recognition words that increase the scale of the map are `` hide '' and `` shosai ''. Recognition words that reduce the scale of the map are `` shuffle '' and `` koiki ''. A recognition word to be changed is included. The term "gradual" means that a scale of a plurality of levels is set in advance, and the levels are raised or lowered one by one. In this way, by preparing a plurality of types of recognition words for executing the same function of changing the scale stepwise, even if the contents of the user's utterances are slightly different, recognition may not be possible. Performance can be reduced. In particular, when raising or lowering the scale, words used everyday are used as recognition words, so that the user does not have to be confused by words instructing a change in volume.

また、スケールを変更する認識ワードには、「じゅうめーとる」、「にじゅうごめーとる」、「ごじゅうめーとる」のように、スケールの数字及び単位を指定できる認識ワードが含まれる。これにより、ユーザが、所望のスケールの認識ワードを発話して指定すると、これを認識した制御部18は、指定された地図のスケールにダイレクトに変更させる。さらに、リスト番号6、7には、後述するリスト番号8のリスト表示の表示画面に遷移させる認識ワード「りすと」、「りすとひょうじ」が登録されている。このように、リスト表示の画面への遷移という同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。   In addition, the recognition words that change the scale include recognition words that can specify the scale number and unit, such as "Ju-Me-Toru", "Ju-go-Me-Toru", and "Go-J-Me-Toru". It is. Thus, when the user utters and specifies the recognition word of the desired scale, the control unit 18 that recognizes the recognition word directly changes the scale to the specified map scale. Further, in the list numbers 6 and 7, registered recognition words "list" and "list and hyouji" to be displayed on a list display screen of a list number 8 described later are registered. In this way, by preparing a plurality of types of recognition words for performing the same function of transitioning to the screen of the list display, there is a possibility that even if the utterance contents of the user are slightly different, recognition cannot be performed. Can be reduced.

リスト番号8、9に対応する表示画面では、周辺検索で検索された施設が、番号が表示されたボタンによってリスト表示される。このようにリスト表示された施設を選択するための番号の呼び名が、認識ワードとして登録されている。リスト番号8は、後述する表示画面S2_listに対応し、リスト番号9は、後述する表示画面S2a_listに対応する。登録されている番号の呼び名は、上記のリスト番号8、9と同様である。但し、リスト番号8、9では、選択できる施設は、表示画面に表示されたものに限られる。本例では、リスト番号8に対応する表示画面S2_listでは、1番目から5番目の施設、リスト番号S2_listでは、6番目から10番目の施設が選択できる。   On the display screens corresponding to the list numbers 8 and 9, the facilities searched by the peripheral search are displayed in a list by a button displaying the number. The names of the numbers for selecting the facilities displayed in the list are registered as recognition words. The list number 8 corresponds to a display screen S2_list described later, and the list number 9 corresponds to a display screen S2a_list described later. The names of the registered numbers are the same as those in the list numbers 8 and 9 described above. However, in the list numbers 8 and 9, the selectable facilities are limited to those displayed on the display screen. In this example, the first to fifth facilities can be selected on the display screen S2_list corresponding to the list number 8, and the sixth to tenth facilities can be selected on the list number S2_list.

さらに、リスト番号8、9には、リスト表示を解除するための認識ワード「りすと」、「りすと解除」が登録されている。このように、リスト表示の解除という同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。さらに、リスト番号4、5と同様に、リスト番号8には、リスト番号9の表示画面S1aに遷移させるための認識ワード「にぺーじ」、「つぎ」が登録されている。また、リスト番号9には、リスト番号8の表示画面S1に遷移させるための認識ワード「いちぺーじ」、「まえ」が登録されている。   Further, in list numbers 8 and 9, recognition words "list" and "list release" for canceling the list display are registered. In this way, by preparing a plurality of types of recognition words for executing the same function of canceling the list display, it is possible to reduce the possibility that recognition may not be possible even if the utterance contents of the user are slightly different. . Further, similarly to the list numbers 4 and 5, in the list number 8, the recognition words "niji" and "next" for transitioning to the display screen S1a of the list number 9 are registered. Further, in the list number 9, recognition words “ichipage” and “mae” for transitioning to the display screen S1 of the list number 8 are registered.

リスト番号10、11、12には、探索されたルート案内の開始を指示する認識ワード「あんないかいし」、「あんないよろしく」、「あんないして」が登録されている。このように、ルート案内という同一の機能を指示する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、「あんないかいし」という命令口調に加えて、「あんないよろしく」、「あんないして」という親しみを込めた依頼の口調も用意することにより、キャラクターとの親密度合いに応じて、口調を変えることを楽しめる。   In the list numbers 10, 11, and 12, registered are the recognition words "Ankai Kaishi", "Annai Hiyoshi", and "Annanashi", which indicate the start of the searched route guidance. In this way, by preparing a plurality of types of recognition words for instructing the same function of route guidance, it is possible to reduce the possibility that recognition cannot be performed even if the utterance contents of the user are slightly different. In particular, in addition to the command tone of "Annai Kaishi", the tone of the request with the familiarity of "Annai Greeting" and "Annaishite" is also prepared, so that the tone can be adjusted according to the familiarity with the character You can enjoy changing.

リスト番号10は、ルート探索後、探索されたルートを表示する表示画面に対応している。この表示画面は、後述する表示画面R1に対応する。リスト番号11は、探索されたルートを表示しつつ、地図のスケールを変更する表示画面に対応する。この表示画面は、後述する表示画面R1aに対応する。リスト番号12は、探索されたルートを表示しつつ、ルート条件を変更する表示画面に対応する。この表示画面は、後述する表示画面R1bに対応する。   The list number 10 corresponds to a display screen that displays the searched route after the route search. This display screen corresponds to a display screen R1 described later. The list number 11 corresponds to a display screen for changing the scale of the map while displaying the searched route. This display screen corresponds to a display screen R1a described later. The list number 12 corresponds to a display screen for changing a route condition while displaying the searched route. This display screen corresponds to a display screen R1b described later.

また、リスト番号10、11、12には、スケール変更を開始させる認識ワード「すけーる」、周辺施設を再検索させる認識ワード「しゅうへん」、ルート条件の変更を開始させる認識ワード「じょうけん」、「るーとじょうけん」が登録されている。このように、ルート条件の変更という同一の機能を指示する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。   The list numbers 10, 11, and 12 include a recognition word "Sukeru" for starting a scale change, a recognition word "Shuhen" for re-searching surrounding facilities, and a recognition word "Joken" for starting a change in route conditions. "And" Routing Joken "are registered. In this way, by preparing a plurality of types of recognition words for instructing the same function of changing the route condition, it is possible to reduce the possibility that recognition may not be possible even if the user's utterance contents are slightly different. .

さらに、リスト番号11には、リスト番号7と同様に、スケールを変更する認識ワードが登録されている。また、リスト番号12には、ルート条件を変更する認識ワードが登録されている。ルート条件は、何を優先してルートを探索するかの探索条件である。本実施形態のルート条件としては、高速道優先、一般道優先、推奨ルートが設定されている。推奨ルートは、デフォルトで設定された条件、たとえば、目的地までの所要時間優先、目的地までの距離優先等とする。これに対応して、リスト番号12には、「すいしょう」、「いっぱんどう」、「こうそくどう」が登録されている。   Further, in the list number 11, similarly to the list number 7, a recognition word for changing the scale is registered. In the list number 12, a recognition word for changing the route condition is registered. The route condition is a search condition for giving priority to a route search. As the route conditions in this embodiment, expressway priority, general road priority, and recommended route are set. The recommended route is a condition set by default, for example, priority is given to the required time to the destination, and priority is given to the distance to the destination. Corresponding to this, in the list number 12, "Suisho", "Ippando", and "Sokodo" are registered.

リスト番号13、14、15には、本実施形態の各種機能を変更させるための認識ワードが登録されている。リスト番号13には、上記と同様に地図スケールを変更させるための認識ワードが登録されている。リスト番号13は、後述する表示画面A1に対応する。   Recognition words for changing various functions of the present embodiment are registered in the list numbers 13, 14, and 15. In list number 13, recognition words for changing the map scale are registered in the same manner as described above. The list number 13 corresponds to a display screen A1 described later.

リスト番号14には、音量を変更させるための認識ワードが登録されている。リスト番号14は、後述する表示画面A2に対応する。音量を変更させるための認識ワードには、音量を大きくする認識ワードと、音量を小さくする認識ワードと、音量のレベルを示す認識ワードが含まれる。   In the list number 14, a recognition word for changing the volume is registered. The list number 14 corresponds to a display screen A2 described later. The recognition words for changing the volume include a recognition word for increasing the volume, a recognition word for decreasing the volume, and a recognition word indicating the level of the volume.

音量を大きくする認識ワードは、「あっぷ」、「おおきく」、音量を小さくする認識ワードは、「だうん」、「ちいさく」といったように、音量を段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルの音量が設定されていて、そのレベルを1つずつ上げ下げすることである。このように、音量を段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、音量を上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは音量の変更を指示する言葉に迷わずに済む。   Recognition words that increase the volume include recognition words that gradually change the volume, such as “app” and “large”, and recognition words that reduce the volume include “daun” and “small”. The term “gradual” means that a plurality of levels of volume are set in advance, and the levels are raised or lowered one by one. In this way, by preparing a plurality of types of recognition words for executing the same function of gradually changing the volume, even if the contents of the user's utterance are slightly different, recognition may not be possible. Performance can be reduced. In particular, when raising or lowering the volume, words used everyday are used as recognition words, so that the user does not have to be confused by the words instructing to change the volume.

また、音量を変更する認識ワードには、「ぜろ」、「いち」、「に」のように、音量のレベルを示す数字を指定できる認識ワードが含まれる。これにより、ユーザが、所望の音量のレベルを発話して指定すると、これを認識した制御部18は、音量を指定されたレベルにダイレクトに変更させる。なお、「ぜろ」は、音量をゼロにする機能、つまりスピーカ20から出力される音声をミュートする機能を実現する認識ワードである。これにより、ユーザが、キャラクターの音声を他人に聞かれたくないときに、音量をゼロにする認識ワードを発話するだけで、即座にキャラクターの音声が聞こえないようにすることができる。   The recognition word for changing the volume includes a recognition word such as "zero", "ichi", or "ni", which can designate a numeral indicating the volume level. Thus, when the user utters and specifies the level of the desired volume, the control unit 18 that recognizes the utterance directly changes the volume to the specified level. “Zero” is a recognition word that realizes a function of setting the volume to zero, that is, a function of muting the sound output from the speaker 20. Thus, when the user does not want to hear the voice of the character to others, it is possible to prevent the voice of the character from being immediately heard only by uttering the recognition word for setting the volume to zero.

リスト番号15には、輝度を変更させるための認識ワードが登録されている。リスト番号15は、後述する表示画面A3に対応する。輝度を変更させるための認識ワードには、輝度を大きくする認識ワードと、輝度を小さくする認識ワードと、輝度のレベルを示す認識ワードが含まれる。   In list number 15, a recognition word for changing the luminance is registered. The list number 15 corresponds to a display screen A3 described later. The recognition words for changing the luminance include a recognition word for increasing the luminance, a recognition word for decreasing the luminance, and a recognition word indicating the level of the luminance.

輝度を大きくする認識ワードは、「あっぷ」、「あかるく」、輝度を小さくする認識ワードは、「だうん」、「くらく」といったように、輝度を段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルの輝度が設定されていて、そのレベルを1つずつ上げ下げすることである。このように、輝度を段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、輝度を上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは輝度の変更を指示する言葉に迷わずに済む。   Recognition words for increasing luminance include recognition words for gradually changing luminance, such as "appi" and "akaruku", and recognition words for decreasing luminance such as "daun" and "easily". The term “gradual” means that a plurality of levels of luminance are set in advance, and the levels are raised or lowered one by one. In this way, by preparing a plurality of types of recognition words for executing the same function of changing the luminance stepwise, even if the utterance contents of the user are slightly different, recognition may not be possible. Performance can be reduced. In particular, when raising or lowering the brightness, words used everyday are used as recognition words, so that the user does not have to be confused by words instructing a change in brightness.

また、輝度を変更する認識ワードには、「ぜろ」、「いち」、「に」のように、輝度のレベルを示す数字を指定できる認識ワードが含まれる。これにより、ユーザが、所望の輝度のレベルを発話すると、これを認識した制御部18は、輝度を指定されたレベルにダイレクトに変更させる。なお、「ぜろ」は、輝度をゼロにする機能、表示部5の画面を暗くして表示内容を見えなくする機能を実現する認識ワードである。これにより、ユーザが、キャラクターの画像を他人に見られたくないときに、輝度をゼロにする認識ワードを発話するだけで、即座にキャラクターの画像が見えないようにすることができる。   The recognition words for changing the brightness include recognition words such as “zero”, “ichi”, and “ni”, which can designate a number indicating the brightness level. As a result, when the user speaks the desired luminance level, the control unit 18 that recognizes this directly changes the luminance to the designated level. “Zero” is a recognition word that realizes a function of setting the luminance to zero and a function of making the screen of the display unit 5 invisible so that the display contents cannot be seen. Thus, when the user does not want to see the image of the character by others, the user can immediately hide the image of the character simply by uttering the recognition word for setting the brightness to zero.

以上のようなリスト番号13、14、15には、共通して、各種の機能を実行させるための認識ワードが登録されている。つまり、スケール変更に関する「すけーる」、周辺検索に関する「しゅうへん」、音量変更に関する「おんりょう」、輝度変更に関する「きど」が登録されている。   In the above list numbers 13, 14, and 15, recognition words for executing various functions are registered in common. That is, “scale” related to the scale change, “smart” related to the peripheral search, “onryou” related to the volume change, and “kid” related to the brightness change are registered.

リスト番号13の表示画面において、ユーザが「すけーる」と発話すると、これを認識した制御部18は、変更したスケールの設定を完了させる。一方、リスト番号14、15の表示画面において、ユーザが「すけーる」と発話すると、これを認識した制御部18は、スケール変更の表示画面、つまりリスト番号13に対応する表示画面に遷移させる。   When the user utters “OK” on the display screen of the list number 13, the control unit 18, which recognizes this, completes the setting of the changed scale. On the other hand, when the user utters “Scure” on the display screens of the list numbers 14 and 15, the control unit 18 recognizing this makes a transition to a display screen for scale change, that is, a display screen corresponding to the list number 13. .

リスト番号14の表示画面において、ユーザが「おんりょう」と発話すると、これを認識した制御部18は、変更した音量の設定を完了させる。一方、リスト番号13、15の表示画面において、ユーザが「おんりょう」と発話すると、これを認識した制御部18は、音量変更の表示画面、つまりリスト番号14に対応する表示画面に遷移させる。   When the user utters "Onryo" on the display screen of the list number 14, the control unit 18 recognizing the utterance completes the setting of the changed volume. On the other hand, when the user utters “OnRyo” on the display screens of the list numbers 13 and 15, the control unit 18 recognizing the utterance changes the display screen to the volume change display screen, that is, the display screen corresponding to the list number 14.

リスト番号15の表示画面において、ユーザが「きど」と発話すると、これを認識した制御部18は、変更した輝度の設定を完了させる。一方、リスト番号13、14の表示画面において、ユーザが「きど」と発話すると、これを認識した制御部18は、輝度変更の表示画面、つまりリスト番号15に対応する表示画面に遷移させる。   When the user utters “KIDO” on the display screen of the list number 15, the control unit 18 recognizing the utterance completes the setting of the changed luminance. On the other hand, when the user utters “KIDO” on the display screens of the list numbers 13 and 14, the control unit 18 recognizing the utterance makes a transition to a display screen for changing the brightness, that is, a display screen corresponding to the list number 15.

このように、同じ認識ワードであっても、表示画面に応じて機能を変えることによって、ユーザは、関連しているが異なる機能を実行させるために、異なる認識ワードを覚える必要がない。   As described above, by changing the function according to the display screen even for the same recognition word, the user does not need to remember different recognition words in order to execute related but different functions.

さらに、リスト番号13、14、15には、自宅に戻る場合に、一度の発話で自宅へのルートを探索させる認識ワード「じたく」が登録されている。このように、ユーザが使用する頻度が高い機能に対応する認識ワードが、音声認識が起動した時の認識ワードとして登録されているので、音声認識を開始して、即座に実行させることができる。   Furthermore, in the list numbers 13, 14, and 15, a recognition word "Jitakaku" for searching for a route to home with one utterance when returning to home is registered. As described above, since the recognition word corresponding to the function frequently used by the user is registered as the recognition word when the voice recognition is activated, the voice recognition can be started and immediately executed.

なお、各リスト番号1〜15には、複数の表示画面において、共通に認識することができ、各種の機能を実行させる認識ワードが登録されている。まず、前の処理に戻るフレーズとして、「もどる」、「とりけし」、「やりなおし」という認識ワードが登録されている。また、機能や処理を解除する解除フレーズとして、「おんせいかいじょ」、「しゅうりょう」、「げんざいち」という認識ワードが登録されている。「おんせいかいじょ」は、音声認識を解除する認識ワードである。「しゅうりょう」は、現在の処理を終了させる認識ワードである。「げんざいち」は、現在位置表示に遷移させる認識ワードである。これらは、音声認識を起動させた後の全ての表示画面において共通に認識できる認識ワードである。この共通の認識ワードを発することにより、ユーザは、いつでも処理のやりなおしや、初期状態への復帰等ができる。   In each of the list numbers 1 to 15, recognition words that can be recognized in common on a plurality of display screens and that execute various functions are registered. First, recognition phrases "return", "take out", and "redo" are registered as phrases to return to the previous process. In addition, as the release phrase for releasing the function or the process, the recognition words “ONSAIKAIJO”, “SHIRYU”, and “GENZAICHI” are registered. “Onseikai” is a recognition word for canceling voice recognition. “SURU” is a recognition word for terminating the current process. “Genzaichi” is a recognition word that causes a transition to the current position display. These are recognition words that can be commonly recognized on all display screens after the voice recognition is activated. By issuing this common recognition word, the user can always restart the process, return to the initial state, and the like.

さらに、リスト番号16には、ユーザのYes(肯定)、No(否定)の発話を認識するための認識ワードが登録されている。この認識ワードは、キャラクターからの問いかけに対して、ユーザの単なるYes、Noの発話を認識するために用いられる。このような認識ワードも、全画面に共通で認識可能である。Yesの認識ワードとしては、「おっけー」、「よろしく」、「はい」、「いえす」、「うん」が登録されている。Noの認識ワードとしては、「いらない」、「すとっぷ」、「いいえ」、「のー」、「だめ」、「きにいらない」、「うるさい」が登録されている。このように、ユーザのYes、Noを認識するための認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、Yes、Noの表現は、話し相手によって変わるが、ユーザは、キャラクターの口調に合わせたYes、Noの返答ができる。   Further, in the list number 16, a recognition word for recognizing the user's utterance of Yes (affirmation) and No (negation) is registered. This recognition word is used for recognizing the user's mere utterance of Yes or No in response to a question from the character. Such a recognition word can be commonly recognized on all screens. “OK”, “OK”, “YES”, “YES”, and “UN” are registered as recognition words of Yes. “No”, “stop”, “no”, “no”, “no”, “do not go”, and “noisy” are registered as recognition words of No. In this way, by preparing a plurality of types of recognition words for recognizing the user's Yes and No, it is possible to reduce the possibility that the recognition cannot be performed even if the utterance contents of the user are slightly different. In particular, the expressions of Yes and No change depending on the other party, but the user can reply Yes and No according to the tone of the character.

上記のような認識ワードは、後述するように、表示画面に文字で表示されるものと、表示画面に表示されないものがある。文字で表示されるものは、ユーザが制御部18にその機能を実行させるために、何を発話したらよいかを、視覚で確認できるのでよい。   As described later, some of the above recognition words are displayed as characters on the display screen, and some are not displayed on the display screen. What is displayed in characters is good because the user can visually confirm what should be uttered in order for the control unit 18 to execute the function.

《応答フレーズ》
図7〜図21は、制御部18が、上記の認識ワードの認識結果に応じて、キャラクターの音声として出力させる応答フレーズのリストの一部を抜粋したものである。データベース19は、このような応答フレーズのリスト及び音声データを記憶している。リストにおいてグレーで塗りつぶされた欄のうちの上欄は、応答フレーズの番号である。下欄は、ユーザが発話した認識ワードに応じて、制御部18が実行する処理の内容である。欄外の「れーたん、ぼいすこんとろーる」は、上記の認識ワードのリスト番号1に登録された起動ワードである。
《Response phrase》
7 to 21 illustrate a part of a list of response phrases to be output as the voice of the character by the control unit 18 according to the recognition result of the recognition word. The database 19 stores a list of such response phrases and audio data. The upper column of the columns shaded in the list is the number of the response phrase. The lower column shows the content of the process executed by the control unit 18 according to the recognition word spoken by the user. “Letan, Boys Contour” in the margin is a start word registered in the list number 1 of the recognition word.

応答フレーズは、制御部18が実行する処理ごとに、1つ以上のフレーズが登録されている。図7は、「標準レイ」の応答フレーズのリストの抜粋である。図7の左から第1列目は、ユーザが起動ワード「れーたん、ぼいすこんとろーる」を発話して、制御部18が音声認識を開始した場合の複数の応答フレーズである。第2列目は、制御部18が音量をダウンさせた場合の応答フレーズである。第3列目は、ユーザが8番の施設を選択して、制御部18が目的地を8番に変更した場合の応答フレーズである。第4列目は、制御部18が案内を中止した場合の応答フレーズである。第5列目は、制御部18が音量若しくは輝度のレベルを3に変更した場合の応答フレーズである。   As the response phrase, one or more phrases are registered for each process executed by the control unit 18. FIG. 7 is an excerpt of a list of response phrases for “standard ray”. The first column from the left in FIG. 7 is a plurality of response phrases when the user speaks the activation word “Retan, Boys Contorol” and the control unit 18 starts speech recognition. The second column is a response phrase when the control unit 18 lowers the volume. The third column is a response phrase when the user selects the eighth facility and the control unit 18 changes the destination to the eighth. The fourth column is a response phrase when the control unit 18 stops guiding. The fifth column is a response phrase when the control unit 18 changes the volume or luminance level to 3.

このような応答フレーズのリストは、キャラクターの3つの態様、つまり「標準レイ」、「変身後のレイ」、「ちびレイ」毎に、区別して設定されている。この3つの態様に応じて、リスト内における応答フレーズは相違している。図8(a)は、「変身後のレイ」の音声認識開始時の応答フレーズをリストから抜粋したものである。「変身後のレイ」の応答フレーズは、「何か用事ですか?」、「音声認識を開始します。ゆっくり、はっきり話して下さい。」というように、「標準レイ」の応答フレーズと比較して、より丁寧な口調が設定されている。また、図8(b)は、「ちびレイ」の音声認識開始時の応答フレーズをリストから抜粋したものである。「ちびレイ」の応答フレーズは、「レーたん、音声コントロール開始。」、「待ってましたぁ。」というように、「標準レイ」の応答フレーズと比較して、より気安い口調が設定されている。また、図9(a)〜(i)は、ユーザの発話に対する応答フレーズを、抜粋したものである。これらの具体的な応答フレーズについては、後述の処理例で説明する。なお、ユーザの対話としては、例えば、ユーザの発話とキャラクターの音声とが、その意味内容が発話とこれに対する返答として成立していると、互いに意思の疎通ができている感覚が得られる。発話とこれに対する意味内容が的外れな返答であっても、ユーザにとって面白味や意外性が感じられる。発話とこれに対する返答が意味内容として成立している場合と、発話に対する意味内容が的外れな返答の場合とを混在させても、現実の会話に近い不完全さを演出することができ、ユーザに人間味を感じさせることができる。   Such a list of response phrases is set for each of the three aspects of the character, that is, “standard ray”, “reformed ray”, and “chibi ray”. The response phrases in the list are different according to the three aspects. FIG. 8A is a list of response phrases at the start of voice recognition of “Ray after transformation”. The response phrase of "Relay after transformation" is compared with the response phrase of "Standard ray", such as "Do you have any errands?", "Start speech recognition. Speak slowly and clearly." And a more polite tone is set. FIG. 8B is a list of response phrases at the start of voice recognition for “Chibi Ray”. The response phrase of "Chibi-Ray" is set to a more relaxed tone, such as "Lay-tan, voice control started." I have. FIGS. 9A to 9I are extracts of response phrases in response to a user's utterance. These specific response phrases will be described in a processing example described later. As the user's dialogue, for example, if the meaning of the user's utterance and the voice of the character are established as an utterance and a response to the utterance, a feeling of mutual communication can be obtained. Even if the utterance and the meaning of the utterance are irrelevant, the user feels interesting and unexpected. Even if the utterance and the answer to it are valid as semantic content, and the case where the semantic content to the utterance is inappropriate, it is possible to produce imperfectness similar to a real conversation, It can make you feel human.

このようなリストにおいては、同じ処理の欄には、1つ又は複数の応答フレーズが登録されている。制御部18は、同じ処理に対応する応答フレーズとして、各欄に登録された中から、ランダムに出力する。但し、同じフレーズばかりが繰り返し出力されることがないように、制御部18は、以前に出力した応答フレーズを除いたものの中からランダムに選択していく。特に、音声認識開始のように、頻繁に使用される処理の場合の応答フレーズは、図7に示すように、多数用意されていて、制御部18は、この中からランダムに出力する。   In such a list, one or more response phrases are registered in the same processing column. The control unit 18 randomly outputs a response phrase corresponding to the same process from among those registered in each column. However, the control unit 18 selects at random from those except the previously output response phrase so that only the same phrase is not repeatedly output. In particular, as shown in FIG. 7, a large number of response phrases in the case of frequently used processing such as the start of voice recognition are prepared, and the control unit 18 outputs them randomly.

この制御部18の動作例は、以下の通りである。
1.フレーズがA、B、C、D、Eの5通りあった場合、まず5個の中からランダムに選択する。
2.最初にBを選択した場合、次回はA、C、D、Eの4個の中から選択する。
3.次にEを選択した場合、次回はA、C、Dの3個の中から選択する。
4.全て選択し終えたら、次回は最初に戻りA、B、C、D、Eの5個の中からランダムに選択する。
なお、本実施形態では、対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、以下に列挙するような種々の機能を実行する処理を行う。対話に応じた処理が、対話をした結果、情報を出力する処理であれば、機能を実行させるために、キャラクターと対話をする意欲がわく。対話に応じた処理が、対話中に情報を出力する処理であれば、機能を実行させるために、順次発話して対話を進める意欲が増す。対話に応じた処理が対話を構成する応答フレーズを出力する処理であれば、ユーザは、キャラクターの音声を聞きたくて対話するので、対話すること自体を楽しむことができる。
An operation example of the control unit 18 is as follows.
1. When there are five phrases, A, B, C, D, and E, first, the phrase is randomly selected from the five phrases.
2. If B is selected first, the next time, A, C, D, and E are selected from four.
3. Next, when E is selected, next time, A, C, and D are selected from among the three.
4. When all the selections have been completed, the next time, the process returns to the beginning, and randomly selected from five of A, B, C, D, and E.
In the present embodiment, processing for executing various functions as described below is performed as predetermined processing for outputting information desired by the user in response to the dialogue. If the process according to the dialogue is a process of outputting information as a result of the dialogue, the user is motivated to interact with the character to execute the function. If the process corresponding to the dialogue is a process of outputting information during the dialogue, the willingness to proceed with the dialogue by sequentially uttering in order to execute the function increases. If the process according to the dialogue is a process of outputting a response phrase that constitutes the dialogue, the user wants to hear the voice of the character and interacts, so the user can enjoy the dialogue itself.

《周辺検索処理》
制御部18は、上記のような認識ワードに基づいてユーザの発話した音声を認識する音声認識と、応答フレーズに基づいてキャラクターの音声を出力する対話に応じて、各種の処理を実行する。まず、このような対話に応じた周辺検索の処理を説明する。
《Peripheral search processing》
The control unit 18 executes various processes in accordance with speech recognition for recognizing a speech uttered by the user based on the recognition word as described above and a dialogue for outputting a voice of the character based on a response phrase. First, a description will be given of a peripheral search process according to such a dialogue.

周辺検索は、複数の選択を経て、複数の候補の中から順次絞り込んでいくことにより、目的とする情報を得られる処理であり、ジャンル選択、施設選択、ルート選択のフェーズがある。このような情報は、車両の搭乗者が知りたい情報、特に、車両の運転者が知りたい情報である。   The peripheral search is a process in which target information can be obtained by sequentially narrowing down from a plurality of candidates through a plurality of selections, and includes a genre selection, facility selection, and route selection phase. Such information is information that a passenger of the vehicle wants to know, particularly information that a driver of the vehicle wants to know.

以下、周辺検索処理の一例を、図10〜図21に従って説明する。図10〜図21は、各フェーズにおける表示画面例を左に、これに対応する認識ワード及び応答フレーズの例を右に示した説明図である。各表示画面M1(M1aも含む)、V1、V1a、S1、S1a、S2、S2a、S2_list、S2a_list、R1、R1a、R1b、A1(A1aも含む)、A2(A2aも含む)、A3(A3aも含む)は、上記のように、認識ワードのリスト番号1〜15(図5及び図6)に対応している。   Hereinafter, an example of the peripheral search processing will be described with reference to FIGS. 10 to 21 are explanatory diagrams showing an example of a display screen in each phase on the left and examples of the corresponding recognition word and response phrase on the right. Each display screen M1 (including M1a), V1, V1a, S1, S1a, S2, S2a, S2_list, S2a_list, R1, R1a, R1b, A1 (including A1a), A2 (including A2a), A3 (including A3a) Includes the recognition word list numbers 1 to 15 (FIGS. 5 and 6) as described above.

これらの図10〜図21の表示画面例の左に示した記述は、「ユーザの音声として認識される認識ワード → これに応じて出力されるキャラクターの応答フレーズ → これにより遷移する表示画面」を示している。   The description shown on the left of the display screen examples of FIGS. 10 to 21 is “recognized word recognized as user's voice → response phrase of character output in response to this → display screen to be changed by this”. Is shown.

制御部18は、これらの表示画面を、データべース19に記憶されたボタン、アイコン、テキスト、地図等の画面構成用データを、メモリに描画することにより、表示部5に表示させる。また、制御部18は、周辺検索、経路探索、ルート案内を行うことができることは、上述の通りである。   The control unit 18 displays these display screens on the display unit 5 by drawing screen configuration data such as buttons, icons, texts, and maps stored in the database 19 in a memory. Further, as described above, the control unit 18 can perform the neighborhood search, the route search, and the route guidance.

(音声認識起動待ち)
まず、制御部18は、周辺検索等の所定の処理のための音声認識起動待ちのときには、起動ワードのみを認識可能な状態にある。図10の表示画面M1は、音声認識起動待ちの画面例である。この表示画面M1には、現在位置51の周辺の地図とともに、現在位置51を示すアイコンが表示されている。表示画面M1の左上には、現在の時刻(10:00)が表示されるとともに、その下方に地図スケールの現在の量的レベルである数字と単位(100m)を示すスケールボタンB1、音声認識を起動させる指示語(音声認識)が表示された音声認識ボタンB2が表示されている。表示画面M1の右下には、キャラクター100の上半身が表示されている。キャラクター100は、標準レイであり、その表示位置は、各種のボタン、現在位置、現在の時刻等の表示を遮らない位置となっている。
(Waiting for voice recognition activation)
First, the control unit 18 is in a state where only the activation word can be recognized when waiting for voice recognition activation for predetermined processing such as a peripheral search. The display screen M1 in FIG. 10 is an example of a screen waiting for voice recognition activation. On the display screen M1, an icon indicating the current position 51 is displayed together with a map around the current position 51. At the upper left of the display screen M1, the current time (10:00) is displayed, and below it, a scale button B1 indicating the current quantitative level of the map scale and the unit (100m), and a voice recognition button. A voice recognition button B2 on which an instruction to be activated (voice recognition) is displayed is displayed. On the lower right of the display screen M1, the upper body of the character 100 is displayed. The character 100 is a standard ray, and its display position is a position that does not block the display of various buttons, the current position, the current time, and the like.

この音声認識起動待ちの状態では、周辺検索等の所定の処理を、音声認識により行うことはできない。このため、地図スケールを変更したいユーザは、スケールボタンB1をタッチすることにより選択する。このようにスケールボタンB1が選択されると、図10の表示画面M1aに示すように、制御部18は、スケールボタンB1の右に+ボタンB1a、−ボタンB1bを表示させる。ユーザは、スケールをアップする場合には+ボタンB1a、スケールをダウンする場合には−ボタンB1bをタッチすることにより選択する。これに応じて、制御部18は、表示している地図のスケールを段階的に変化させる。   In this state of waiting for voice recognition activation, predetermined processing such as peripheral search cannot be performed by voice recognition. For this reason, the user who wants to change the map scale makes a selection by touching the scale button B1. When the scale button B1 is selected in this way, the control unit 18 displays a + button B1a and a − button B1b to the right of the scale button B1, as shown in the display screen M1a of FIG. The user makes a selection by touching the + button B1a to increase the scale and touching the-button B1b to decrease the scale. In response, the control unit 18 changes the scale of the displayed map stepwise.

このような音声認識起動待ちの状態において、ユーザが、「れーたん、ぼいすこんとろーる」と発話すると、制御部18は、これに対応する応答フレーズを出力するとともに、音声認識を起動する。これにより、例えば、「なにか用事?」という音声をスピーカ20が出力する。そして、制御部18は、表示画面M1を、図11に示す表示画面V1に遷移させる。   When the user utters "Retan, Boys Contoroll" in the state of waiting for the voice recognition activation, the control unit 18 outputs the corresponding response phrase and activates the voice recognition. I do. As a result, for example, the speaker 20 outputs a voice saying “What is your business?”. Then, the control unit 18 causes the display screen M1 to transition to the display screen V1 shown in FIG.

なお、音声認識ボタンB2を、ユーザがタッチして選択した場合にも、制御部18は上記のような応答フレーズを出力して、音声認識を起動する。制御部18は、このように手操作でも音声入力でも選択できる機能に対応するボタンを、他のボタンと色分けして表示部5に表示させる。例えば、本実施形態の表示画面では、音声入力により選択可能なボタンを青色で、他のボタンを黒色で表示している。これにより、音声入力可能な機能を、ユーザは視覚によって認識することができる。なお、同じ機能であっても、音声入力により選択可能か否かは、表示画面によって相違する。例えば、図10の表示画面M1、M1aでは、音声認識機能が開始していないため、スケールボタンB1は、音声入力により選択できない状態にあり、黒色で表示されている。そして、後述するように音声認識機能が開始した後は、スケールボタンB1は、音声入力により選択できる状態となるので、青色で表示される。   Note that, even when the user touches and selects the voice recognition button B2, the control unit 18 outputs the response phrase as described above and activates voice recognition. The control unit 18 displays the buttons corresponding to the functions that can be selected by manual operation or voice input on the display unit 5 in different colors from the other buttons. For example, on the display screen of this embodiment, buttons that can be selected by voice input are displayed in blue, and other buttons are displayed in black. Thus, the user can visually recognize the function that can be input by voice. Note that whether or not the same function can be selected by voice input differs depending on the display screen. For example, in the display screens M1 and M1a of FIG. 10, since the voice recognition function has not started, the scale button B1 is in a state where it cannot be selected by voice input and is displayed in black. Then, after the voice recognition function is started as described later, the scale button B1 is displayed in blue because it can be selected by voice input.

(音声認識開始)
図11の表示画面V1は、ナビ(ナビゲーション)待機中の音声認識開始の画面例である。なお、図12の表示画面V1aは、後述するナビ案内開始後の音声認識開始の画面例である。制御部18は、音声認識を起動させると、表示画面V1に、地図スケールのボタンを、音声入力可能であることを示す青色で表示させる。また、制御部18は、表示画面V1に、その他の音声入力可能な機能のボタンを、音声入力可能であることを示す青色で表示させる。これらのボタンのうち、音声解除ボタンB2xは、音声認識を終了させる指示語「音声解除」が表示されたボタンである。周辺ボタンB3は、周辺検索を開始させる指示語「周辺」が表示されたボタンである。周辺検索は、ナビゲーション案内中は機能できないので、制御部18は、周辺ボタンB3は、図12の表示画面V1aでは表示させない。制御部18は、表示画面V1aにおけるV1の周辺ボタンB3と同位置に、案内を中止させる指示語「案内中止」が表示された、案内中止ボタンB4xを表示させる。
(Start speech recognition)
A display screen V1 in FIG. 11 is an example of a screen for starting voice recognition in a navigation (navigation) standby state. Note that the display screen V1a in FIG. 12 is an example of a screen for starting speech recognition after the start of navigation guidance described later. When the voice recognition is activated, the control unit 18 displays a map scale button on the display screen V1 in blue indicating that voice input is possible. The control unit 18 causes the display screen V1 to display buttons of other functions that allow voice input in blue, which indicates that voice input is possible. Among these buttons, the voice release button B2x is a button on which the instruction word “voice release” to end voice recognition is displayed. The peripheral button B3 is a button on which the instruction word "periphery" for starting the peripheral search is displayed. Since the peripheral search cannot be performed during the navigation guidance, the control unit 18 does not display the peripheral button B3 on the display screen V1a in FIG. The control unit 18 displays a guidance stop button B4x on which the instruction word "stop guidance" for stopping guidance is displayed at the same position as the peripheral button B3 of V1 on the display screen V1a.

また、表示画面V1、V1aには、スケールボタンB1、音声解除ボタンB2x、案内中止ボタンB4xと同列に、音量ボタンB5、輝度ボタンB6が表示される。音量ボタンB5は、音量変更を開始させる指示語「音量」と、現在の音の量的レベルを示す数字「5」が表示されたボタンである。輝度ボタンB6は、輝度変更を開始させる指示語「輝度」と、現在の輝度の量的レベルを示す数字「5」が表示されたボタンである。さらに、表示画面V1における右上には、自宅ボタンB7が表示される。自宅ボタンB7は、自宅を目的地とする経路案内を行わせる指示語「自宅」が表示されたボタンである。これらの指示語、量的レベルを示す数字は、上記の図5、図6に示したように、認識ワードとして登録されている語句である。   Further, on the display screens V1 and V1a, a volume button B5 and a brightness button B6 are displayed in the same row as the scale button B1, the audio release button B2x, and the guidance stop button B4x. The volume button B5 is a button on which an instruction word "volume" for starting a volume change and a numeral "5" indicating the current quantitative level of the sound are displayed. The luminance button B6 is a button on which an instruction word “luminance” for starting a luminance change and a numeral “5” indicating a current quantitative level of luminance are displayed. Further, a home button B7 is displayed on the upper right of the display screen V1. The home button B7 is a button on which the instruction word "home" for performing route guidance with the home as the destination is displayed. These descriptive words and numbers indicating quantitative levels are words registered as recognition words, as shown in FIGS.

このように、複数のボタンによって構成される項目の表示領域は、背後の画像である地図が見える部分を有している。つまり、各ボタンの間には、隙間が開いていて、背後の地図が見えている。一方、キャラクター100の表示領域は、1つのボタンよりも大きく、地図と重なる部分において、背後が見える部分を有しない。なお、髪と身体、手足と胴体などの間に生じる隙間においては、背後の地図が見える部分が生じる場合があるが、キャラクター100の表示領域としては、このような部分を除く。   As described above, the display area of the item constituted by the plurality of buttons has a portion where the map, which is the image behind, is visible. That is, there is a gap between the buttons, and the map behind can be seen. On the other hand, the display area of the character 100 is larger than one button, and does not have a portion that can be seen behind in a portion overlapping the map. Note that, in a gap generated between the hair and the body or between the limb and the body, there may be a portion where a map behind can be seen. However, such a portion is excluded as a display area of the character 100.

制御部18が表示部5に表示させるキャラクター100の位置は、現在位置や案内ルートの視認を邪魔しない位置である。図11の表示画面V1、図12の表示画面V1aでは、キャラクター100は、画面における右下に寄った位置に表示されており、上記の各ボタンは、これと左右若しくは上下の関係で反対側に寄った位置、左上若しくは右上に表示されている。   The position of the character 100 displayed on the display unit 5 by the control unit 18 is a position that does not obstruct the visual recognition of the current position and the guide route. In the display screen V1 of FIG. 11 and the display screen V1a of FIG. 12, the character 100 is displayed at a position closer to the lower right on the screen. It is displayed at the position where you approached, at the upper left or upper right.

(ジャンル選択)
上記のナビ待機中の表示画面V1において、ユーザが、「しゅうへん」と発話すると、制御部18は、表示画面V1を、図13に示す周辺1の表示画面S1に遷移させるとともに、応答フレーズ「ねえ、どこ行く?」の音声を出力させる。このように、複数回の選択を行うことにより処理を進める周辺検索において、キャラクター100が、ジャンル選択という次の選択を促す発話を行うことにより、ユーザは次に何をすべきかが即座にわかるのでよい。一方、ナビ案内中のV1aの表示画面においては、周辺検索の機能は働かない。このため、ユーザが、「しゅうへん」と発話しても、これを認識した制御部18は、「何て言ったの? わかんない。」というキャラクターの音声を出力させて、周辺1の画面に遷移させない。このように、次に進めない処理を選択した場合には、キャラクター100が、これに対応した応答フレーズを発話することにより、ユーザが、当該表示画面ではその処理を行うことができないことがわかるのでよい。
(Select genre)
When the user utters “Shihen” on the display screen V1 during the standby of the navigation, the control unit 18 changes the display screen V1 to the display screen S1 of the periphery 1 shown in FIG. Hey, where are you going? " As described above, in the peripheral search in which the process is performed by performing the selection a plurality of times, the character 100 makes an utterance that prompts the next selection of the genre selection, so that the user can immediately know what to do next. Good. On the other hand, on the display screen of V1a during navigation guidance, the peripheral search function does not work. For this reason, even if the user utters “Shihen”, the control unit 18 recognizing the utterance outputs the voice of the character “What did you say?” Do not transition. As described above, when a process that cannot be performed next is selected, the character 100 speaks a response phrase corresponding to the selected process, thereby indicating that the user cannot perform the process on the display screen. Good.

制御部18は、上記のように、ユーザからの音声認識を起動させる音声の入力→これに対して用事を尋ねるキャラクターの応答フレーズの出力→これに対してユーザからの機能を開始させる音声の入力、というように、少なくとも一往復のやり取りがなされる対話を基本に処理を進行させる。この対話の中における応答フレーズの出力は、その応答フレーズが示す意味内容とともに、キャラクターがユーザの音声を認識したことを示す機能を果たしている。   As described above, the control unit 18 inputs the voice for activating the voice recognition from the user → outputs the response phrase of the character inquiring about the business in response to the input → inputs the voice for starting the function in response to the user The processing proceeds based on a dialogue in which at least one round trip is performed. The output of the response phrase in this dialogue has the function of indicating that the character has recognized the user's voice, together with the meaning of the response phrase.

上記のように、ユーザの発話により遷移した図13の表示画面S1には、制御部18は、認識ワードとしてのジャンル名が表示されたジャンルボタンB8を表示させる。これらのジャンルボタンB8に表示されたジャンル名は、図5のリスト番号4の認識ワードに対応している。このジャンルボタンB8は、ユーザがタッチして選択することもできる。ジャンル名は、漢字を含めず、ひらがな若しくはカタカナとしているので、運転者等が何を発話すればよいかが、視覚で容易にわかるのでよい。   As described above, the control unit 18 displays the genre button B8 on which the genre name as the recognition word is displayed on the display screen S1 in FIG. 13 to which the transition is made by the utterance of the user. The genre names displayed on these genre buttons B8 correspond to the recognition words of list number 4 in FIG. The genre button B8 can also be selected by the user by touching. Since the genre name does not include kanji and is in hiragana or katakana, it is easy to visually recognize what the driver or the like should speak.

この表示画面S1において、ユーザが、ボタンに表示された認識ワード、「ふぁみれす」を発話すると、制御部18は、キャラクターが応答フレーズ「一人ぼっちでファミレス行くの?」という音声を出力させる。すると、制御部18は、ファミリーレストランの候補を検索する処理に移行する。このため、ジャンル選択のフェーズとしては、さらにユーザが何らかの選択する必要はない。つまり、「一人ぼっちでファミレス行くの?」は、さらに次のジャンル選択は必要ないことをユーザにわからせる音声となっているのでよい。また、この応答フレーズは、話し相手であるキャラクター100以外は、自分が一人であることをユーザに意識させて、よりキャラクター100との親密さを高めることができるのでよい。   When the user utters the recognition word "Famiresu" displayed on the button on the display screen S1, the control unit 18 causes the character to output a voice saying the response phrase "Does the family go alone?" Then, the control unit 18 proceeds to a process of searching for a family restaurant candidate. Therefore, there is no need for the user to make any further selection in the genre selection phase. In other words, "Does family go alone?" May be a voice that informs the user that the next genre selection is not necessary. In addition, this response phrase can be used to make the user aware that he / she is alone, except for the character 100 who is the talking partner, and to increase the intimacy with the character 100.

また、ユーザが表示画面S1に表示されたジャンル以外のジャンルから選択したい場合のために、制御部18は、表示画面S1に、次のページへ遷移させる認識ワード「2ページ」を表示したページボタンB9を表示させている。この表示画面S1において、ユーザは、「にぺーじ」又は「つぎ」と発話すると、制御部18は、表示部5に表示させる画面を、図14の周辺2の表示画面S1aに遷移させる。   In addition, in the case where the user wants to select a genre other than the genre displayed on the display screen S1, the control unit 18 displays a page button displaying the recognition word “2 pages” for transitioning to the next page on the display screen S1. B9 is displayed. In this display screen S1, when the user speaks "niji" or "next", the control unit 18 transitions the screen displayed on the display unit 5 to the display screen S1a of the periphery 2 in FIG.

この表示画面S1aには、図5のリスト番号5の認識ワードに対応するジャンル名が表示されたジャンルボタンB8が表示される。ユーザが、ジャンルボタンB8に表示されたジャンル名の認識ワードを発話すると、制御部18は、これに対する応答フレーズを出力させる。また、制御部18は、表示画面S1aに、前のページへ遷移させる認識ワード「1ページ」を表示したページボタンB9を表示させている。この表示画面S1aにおいて、ユーザは、「いちぺーじ」又は「まえ」と発話すると、制御部18は、表示部5に表示させる画面を、図13の周辺1の表示画面S1に遷移させる。   On the display screen S1a, a genre button B8 displaying a genre name corresponding to the recognition word of the list number 5 in FIG. 5 is displayed. When the user utters the recognition word of the genre name displayed on the genre button B8, the control unit 18 outputs a response phrase corresponding thereto. Further, the control unit 18 displays on the display screen S1a a page button B9 displaying a recognition word "1 page" for transitioning to the previous page. In this display screen S1a, when the user utters “Ipuji” or “Mae”, the control unit 18 transitions the screen displayed on the display unit 5 to the display screen S1 of the periphery 1 in FIG.

(施設選択)
このように、ジャンルが選択されると、制御部18は、当該ジャンルに属する現在地周辺の施設検索を行い、表示部5に表示させる画面を、図15に示すように、施設選択1の表示画面S2に遷移させる。この表示画面S2は、施設検索の結果が表示される。つまり、表示画面S2には、検索でヒットした施設が、地図上の所在地に、現在地に近い順に番号が付されたアイコンC1で表示されている。図15では、円形内に数字1〜5を表示したアイコンC1が、地図上の位置に表示されている。このように周辺検索の結果は、ユーザにとって必要な目標(ジャンル)の施設しか表示しない。このとき、地図表示をグレースケールにして、アイコンC1をカラー表示することにより、施設の位置や番号がよりわかりやすくなる。また、別の画面からS2の画面に遷移した場合、制御部18は、「どこにしよっか?」といった目的地の選択を促す応答フレーズを出力させる。
(Facility selection)
As described above, when the genre is selected, the control unit 18 searches for facilities around the current location belonging to the genre, and displays a screen displayed on the display unit 5 as shown in FIG. Transit to S2. The display screen S2 displays the result of the facility search. That is, on the display screen S2, the facilities that have been hit by the search are displayed as icons C1 with numbers assigned to locations on the map in the order from the current location. In FIG. 15, an icon C1 in which numbers 1 to 5 are displayed in a circle is displayed at a position on the map. In this way, the result of the peripheral search displays only the facilities of the target (genre) necessary for the user. At this time, by displaying the map in gray scale and displaying the icon C1 in color, the location and number of the facility can be more easily understood. In addition, when the screen transits from another screen to the screen of S2, the control unit 18 outputs a response phrase that prompts the user to select a destination, such as “Where are you going?”.

ユーザは、表示画面S2において、アイコンC1の表示に合わせた内容で、施設を選択する。つまり、所望の施設のアイコンC1に表示された番号を発話すると、制御部18はこれに対応する応答フレーズを出力させて、当該施設までのルート探索を行う。例えば、「いち」又は「いちばん」を発話すると、キャラクター100が「1番ね」と発話して、1番で表示された施設までのルート探索が実行される。このように、ユーザが発話した番号をキャラクター100が発話することにより、ユーザが自らの指示内容を確認することができる。   The user selects a facility on the display screen S2 with the content corresponding to the display of the icon C1. That is, when the number displayed on the icon C1 of the desired facility is spoken, the control unit 18 outputs a response phrase corresponding to the number and searches for a route to the facility. For example, when "Ichi" or "Ichiban" is uttered, the character 100 utters "No. 1", and a route search to the facility indicated by No. 1 is executed. As described above, the character 100 speaks the number spoken by the user, so that the user can confirm the instruction content of the user.

なお、表示画面S2には、スケールボタンB1と、リストボタンB10が表示されている。スケールボタンB1は、上記のように、地図スケールを変更するボタンである。この表示画面S2において、地図のスケールを変更したいユーザが、「すけーる」と発話すると、制御部18は、どのスケールに変更するかを促す応答フレーズを出力し、図16に示す施設選択2の表示画面S2aに遷移する。例えば、ユーザが「すけーる」と発話すると、制御部18は、「何か指示して」という応答フレーズを出力し、図16に示すように、スケールを変更するための+ボタンB1a、−ボタンB1bを表示させる。音声入力によるスケール変更処理については、後述する。   Note that a scale button B1 and a list button B10 are displayed on the display screen S2. The scale button B1 is a button for changing the map scale as described above. On the display screen S2, when the user who wants to change the scale of the map utters "Sukeru", the control unit 18 outputs a response phrase urging the user to change the scale, and the facility selection 2 shown in FIG. To the display screen S2a. For example, when the user utters “OK”, the control unit 18 outputs a response phrase “Instruct something”, and as shown in FIG. 16, + buttons B1a,-for changing the scale. The button B1b is displayed. The scale change processing by voice input will be described later.

リストボタンB10は、施設を選択する画面を、アイコン表示からリスト表示に遷移させるボタンである。表示画面S2において、ユーザが、「りすと」又は「りすとひょうじ」と発話すると、制御部18は、表示部5に表示させる画面を、図17に示す施設選択1の表示画面S2_listに遷移させる。このS2_listの表示画面には、検索された施設が、アイコンではなく、施設選択ボタンB11が現在地に近い順に並べられたリストで表示される。各施設選択ボタンB11は、現在地に近い順に付された番号、施設名、現在位置から施設までの距離、所在地等が表示される。ユーザは、施設選択ボタンB11をタッチするか、ボタンに表示された番号を発話することにより、上記と同様に、施設を選択できる。施設選択ボタンB11には、番号の他、施設名、現在位置からの距離、所在地等が表示されるので、ユーザは、検索された施設についてのより詳細な情報を得ることができるのでよい。   The list button B10 is a button for changing the screen for selecting the facility from the icon display to the list display. On the display screen S2, when the user speaks “list” or “list”, the control unit 18 shifts the screen displayed on the display unit 5 to the display screen S2_list of the facility selection 1 shown in FIG. Let it. On the display screen of this S2_list, the searched facilities are displayed not as icons but as a list in which the facility selection buttons B11 are arranged in ascending order of the current location. Each facility selection button B11 displays a number, a facility name, a distance from the current position to the facility, a location, and the like, which are assigned in ascending order of the current location. The user can select a facility by touching the facility selection button B11 or speaking the number displayed on the button in the same manner as described above. Since the facility selection button B11 displays the facility name, the distance from the current position, the location, and the like, in addition to the number, the user can obtain more detailed information on the searched facility.

制御部18は、検索された候補の数が、1ページの表示可能数(例えば、5個)よりも多い場合には、次ページが存在することを示す「2ページ」を表示したページボタンB9を表示させる。制御部18は、候補が1ページの表示可能数未満の場合には、ページボタンB9は非表示とする。ユーザは、「にぺーじ」又は「つぎ」と発話すると、制御部18は、図18に示す施設選択2の表示画面S2a_listに遷移させる。この表示画面S2a_listに表示されたリストにおける施設の選択処理は、上記と同様である。また、制御部18は、表示画面S2_listに、前のページへ遷移させる認識ワード「1ページ」を表示したページボタンB9を表示させる。この表示画面S1aにおいて、ユーザは、「いちぺーじ」又は「まえ」と発話すると、制御部18は、表示部5に表示させる画面を、図16の施設選択1の表示画面S1に遷移させる。   When the number of candidates searched for is larger than the displayable number of one page (for example, five), the control unit 18 displays the page button B9 displaying “2 pages” indicating that the next page exists. Is displayed. When the number of candidates is less than the displayable number of one page, the control unit 18 does not display the page button B9. When the user utters “niji” or “next”, the control unit 18 causes the display to transit to the display screen S2a_list of the facility selection 2 shown in FIG. The facility selection process in the list displayed on the display screen S2a_list is the same as described above. Further, the control unit 18 causes the display screen S2_list to display a page button B9 displaying the recognition word “1 page” for transitioning to the previous page. In this display screen S1a, when the user utters “Ipuji” or “Mae”, the control unit 18 transitions the screen displayed on the display unit 5 to the display screen S1 of facility selection 1 in FIG.

(ルート選択)
以上のように、施設が選択されると、制御部18は、現在位置51から目的地52とする施設までのルート53を探索し、その結果を図19に示すルート選択1の表示画面R1に表示させる。探索されたルート53は、あらかじめ設定されたルート条件に基づいて、最も優先させるべきルート53が色分け表示される。このとき、キャラクター100は、ルート案内方向により、地図上で邪魔にならない位置に移動する。つまり、キャラクター100を、地図上の現在位置を含む探索されたルート表示を遮らない位置に表示させる。ただし、上記のように、キャラクター100は、既に画面の右下に表示されており、表示画面R1の例では、探索されたルートを邪魔しないので、この例では移動はない。
(Route selection)
As described above, when a facility is selected, the control unit 18 searches for a route 53 from the current position 51 to the facility as the destination 52, and displays the result on the display screen R1 of the route selection 1 shown in FIG. Display. As for the searched routes 53, the route 53 to be given the highest priority is displayed in different colors based on a preset route condition. At this time, the character 100 moves to an unobstructed position on the map according to the route guidance direction. That is, the character 100 is displayed at a position that does not obstruct the searched route display including the current position on the map. However, as described above, the character 100 is already displayed at the lower right of the screen, and does not disturb the searched route in the example of the display screen R1, so that there is no movement in this example.

一方、制御部18は、表示画面R1において、複数のボタンを、キャラクターと反対側、つまり左側に表示させる。複数のボタンは、数が少なければ、探索されたルート53に重なる部分は生じない。もし、ボタン数が多くなったとしても、各ボタンの間には、隙間が開いていて、地図やルート53が見える。これらのボタンには、スケールボタンB1が含まれる。ユーザが、スケール変更したい場合の操作は、図20に示したルート選択2の表示画面R1aにおいて行うが、これは後述する。   On the other hand, on the display screen R1, the control unit 18 displays a plurality of buttons on the side opposite to the character, that is, on the left side. If the number of buttons is small, a portion overlapping with the searched route 53 does not occur. Even if the number of buttons increases, there is a gap between the buttons, and a map and a route 53 can be seen. These buttons include a scale button B1. The operation when the user wants to change the scale is performed on the display screen R1a of the route selection 2 shown in FIG. 20, which will be described later.

さらに、表示画面R1には、ルート条件を変更する指示語である「ルート条件」が表示されたルート条件ボタンB12が表示されている。ユーザが、「じょうけん」又は「るーとじょうけん」と発話すると、制御部18は、図21に示したルート選択3の表示画面R1bに遷移させる。この表示画面R1bにおいては、「ルート条件」のボタンの横に、「高速道」、「一般道」、「推奨」という優先すべき探索条件を選択する条件選択ボタンB12a、B12b、B12cが表示される。この表示画面R1bにおいて、ユーザが、「いっぱんどう」、「こうそくどう」又は「すいしょう」と発話すると、制御部18は、それぞれに応じた応答フレーズを出力して、探索条件を発話された条件に変更し、変更された探索条件で最も優先されるルート53を表示させる。例えば、制御部18は、一般道であれば、「うんうん、一般道でゆっくり行こう。」、高速道であれば、「高速道で時間短縮ね。」というように、それぞれの探索条件の利点を示す応答フレーズを出力する。また、推奨道であれば、「私に任せてくれるのね。」というキャラクターとの信頼関係を示す応答フレーズを出力する。   Further, on the display screen R1, a route condition button B12 displaying "route condition" which is an instruction word for changing the route condition is displayed. When the user speaks “Joken” or “Routo Joken”, the control unit 18 causes the display to transit to the route selection 3 display screen R1b shown in FIG. In this display screen R1b, next to the button of the "route condition", condition selection buttons B12a, B12b, B12c for selecting priority search conditions such as "highway", "general road" and "recommended" are displayed. You. On the display screen R1b, when the user utters “Ippando,” “Sokudo,” or “Suisho,” the control unit 18 outputs the corresponding response phrase and utters the search condition. The route is changed to the condition, and the route 53 having the highest priority in the changed search condition is displayed. For example, the control unit 18 determines each search condition such as "Yeah, let's go slowly on a general road." Outputs a response phrase indicating benefits. If it is a recommended route, it outputs a response phrase indicating the trust relationship with the character, "I will leave it to me."

そして、表示画面R1には、表示されたルート53による案内を希望する場合に、指示語である「案内開始」が表示された案内開始ボタンB13が表示されている。ユーザが、所望のルート53が表示された画面において、「あんないかいし」、「あんないよろしく」又は「あんないして」と発話すると、制御部18は、「案内開始。言う通りに運転してくれ」という応答フレーズを出力して、ルート案内を開始する。   Then, on the display screen R1, a guidance start button B13 on which an instruction word "guide start" is displayed when guidance by the displayed route 53 is desired. When the user utters “Thank you,” “Thank you,” or “Thank you” on the screen on which the desired route 53 is displayed, the control unit 18 starts “guidance start. And output the response phrase “Tell me” to start route guidance.

さらに、ユーザが、周辺検索をさせる「しゅうへん」又は戻るフレーズである「もどる」、「とりけし」若しくは「やりなおし」を発話すると、制御部18は、「再検索」という応答フレーズを出力して、図13に示したS1の表示画面に遷移させる。その後の周辺検索処理は、上記の通りである。戻るフレーズの発話に対しては、図15〜図21に示した表示画面S2、S2a、S2_list、S2a_list、R1、R1a、R1bにおいては、同様の処理となる。   Further, when the user utters "Shuhen" for performing a peripheral search or "Return", "Takeshi" or "Redo" which is a return phrase, the control unit 18 outputs a response phrase of "Research", The screen is transited to the display screen of S1 shown in FIG. The subsequent peripheral search processing is as described above. For the utterance of the return phrase, the same processing is performed on the display screens S2, S2a, S2_list, S2a_list, R1, R1a, and R1b shown in FIGS.

なお、図11、12に示した音声認識開始の表示画面V1、V1aにおける戻るフレーズの発話に対しては、制御部18は、「また呼んでね。」という応答フレーズを出力して、図10に示した表示画面M1に遷移させて音声認識起動待ちに戻る。図13、14に示した周辺検索の表示画面S1、S1aにおける戻るフレーズの発話に対しては、制御部18は、「最初からね。」という応答フレーズを出力して、図11に示した音声認識開始の表示画面V1に遷移させる。このように、同じ認識ワードであっても、現在の表示画面及びこれに対応するフェーズに応じて、遷移させる表示画面が相違している。つまり、戻るフレーズに対して、遷移させる表示画面を変えることにより、戻り過ぎをなくして、ユーザが再度やり直す手間を抑えることができる。   In response to the utterance of the return phrase on the display screens V1 and V1a of the voice recognition start shown in FIGS. 11 and 12, the control unit 18 outputs a response phrase "call again." The display is shifted to the display screen M1 shown in FIG. In response to the utterance of the return phrase on the display screens S1 and S1a of the peripheral search shown in FIGS. 13 and 14, the control unit 18 outputs a response phrase "from the beginning." The screen is transited to a recognition start display screen V1. As described above, even if the recognition word is the same, the display screen to be changed is different depending on the current display screen and the corresponding phase. In other words, by changing the display screen to which a transition is made for the return phrase, it is possible to eliminate excessive return and to save the user the trouble of starting over again.

そして、本実施形態では、戻るフレーズとは別に、解除フレーズを用意している。ユーザが、「おんせいかいじょ」、「しゅうりょう」又は「げんざいち」と発話すると、常に、音声認識起動待ちの表示画面M1に戻る。このとき、制御部18は、「また呼んでね。」と、次回の利用を促す応答フレーズを出力させる。このように、表示画面やフェーズに応じて、戻る位置が異なる認識ワードと、一定の位置に戻る認識ワードとを登録しておくことで、ユーザが状況に応じて所望の画面への推移をすばやく行うことができる。   In this embodiment, a release phrase is prepared separately from the return phrase. When the user utters “Onkaikai”, “Syuryo” or “Genzaichi”, the display always returns to the display screen M1 waiting for voice recognition activation. At this time, the control unit 18 outputs a response phrase urging the next use, "Please call again." In this way, by registering a recognition word that returns at a different position and a recognition word that returns to a certain position according to the display screen or phase, the user can quickly transition to a desired screen according to the situation. It can be carried out.

さらに、画面やフェーズに応じて、処理できない認識ワードが発話された場合には、制御部18は、その認識ワードでは処理できないことを明示する応答フレーズを出力することにより、ユーザに、別のワードを発話すべきことを促すことができる。例えば、図12の表示画面V1a、図15〜図18の表示画面S2、S2a、S2_list、S2a_listでは、「何って言ったの? わかんない。」という応答フレーズを出力している。   Further, when a recognized word that cannot be processed is uttered according to the screen or phase, the control unit 18 outputs a response phrase that clearly indicates that the recognized word cannot be processed, thereby providing the user with another word. Can be encouraged. For example, in the display screen V1a in FIG. 12 and the display screens S2, S2a, S2_list, and S2a_list in FIG. 15 to FIG. 18, the response phrase “What did you say?

《地図スケール変更》
制御部18は、対話に応じて、機能を変更する処理として、地図スケール、音量、輝度を変更する処理を行う。まず、地図スケールの変更の手順を、図22を参照して説明する。なお、図15の表示画面S2から、図16の表示画面S2aに遷移した場合、図19の表示画面R1から、図20の表示画面R1aに遷移した場合の地図スケールの変更も同様である。
《Change map scale》
The control unit 18 performs a process of changing a map scale, a volume, and a brightness as a process of changing a function according to the dialog. First, the procedure for changing the map scale will be described with reference to FIG. The same applies to the change of the map scale when the display screen S2 in FIG. 15 changes to the display screen S2a in FIG. 16 and when the display screen R1 in FIG. 19 changes to the display screen R1a in FIG.

音声認識を開始した図11、12の表示画面V1、V1aにおいて、地図スケールを変更したいユーザが「すけーる」と発話すると、制御部18は、図22の表示画面A1、A1aに遷移させる。表示画面A1は、表示画面V1から遷移した画面であり、表示画面A1aは表示画面V1aから遷移した画面である。表示画面A1では、別の画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A1aは、ナビ案内中における地図スケールの変更画面である。   In the display screens V1 and V1a in FIGS. 11 and 12 in which the voice recognition has been started, when the user who wants to change the map scale utters “OK”, the control unit 18 shifts to the display screens A1 and A1a in FIG. The display screen A1 is a screen that has transitioned from the display screen V1, and the display screen A1a is a screen that has transitioned from the display screen V1a. On the display screen A1, the control unit 18 causes the response phrase “instruct something” to be output only when a transition is made from another screen (scene). As described above, even if the screen is switched, the character 100 may make an utterance prompting an instruction, so that the user can be made aware that the character 100 is always present. The display screen A1a is a screen for changing the map scale during navigation guidance.

この表示画面A1、A1aにおいては、スケールボタンB1の右横に、+ボタンB1a、−ボタンB1bが表示されている。上記のように、ユーザが+ボタンB1aをタッチすると、制御部18は、地図スケールを段階的にアップさせる。また、ユーザが−ボタンB1bをタッチすると、制御部18は、地図スケールを段階的にダウンさせる。また、本実施形態では、ユーザが「かくだい」又は「しょうさい」と発話すると、これを認識した制御部18は、地図スケールを段階的にアップさせる。ユーザが「しゅくしょう」、「こういき」と発話すると、これを認識した制御部18は、地図スケールを段階的にダウンさせる。   On the display screens A1 and A1a, a + button B1a and a-button B1b are displayed on the right side of the scale button B1. As described above, when the user touches the + button B1a, the control unit 18 gradually increases the map scale. In addition, when the user touches the-button B1b, the control unit 18 lowers the map scale stepwise. Further, in the present embodiment, when the user utters “Scramble” or “Shosai”, the control unit 18 recognizing the utterance gradually increases the map scale. When the user utters “Shokusho” and “Koiiki”, the control unit 18 recognizing the utterance lowers the map scale stepwise.

そして、制御部18は、スケールアップのときには、「拡大したよ。」、スケールダウンのときは「少し広域にしてみました。」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、スケールを変えるとスケールの上限又は下限を超えてしまう場合には、「ぶぶ〜、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。   When the scale is up, the control unit 18 can confirm what kind of change has been made, such as "I have expanded the area." Output. Thereby, the user can confirm by voice what processing has been performed. In addition, if the change of the scale exceeds the upper limit or the lower limit of the scale, the control unit 18 outputs a response phrase notifying that the change cannot be performed, such as "But, it is a limit". This prevents the user from repeating useless change instructions without confirming whether the upper limit or the lower limit has been reached.

また、ユーザが「じゅうめーとる」、「いちきろ」のように、所望のスケールの値を発話すると、これを認識した制御部18は、地図スケールを、発話された値にダイレクトに変更させる。このとき、制御部18は、ユーザの発話に対応する応答フレーズとして、「10メートル」、「1キロ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示したスケールのレベルを確認できる。   When the user utters a value of a desired scale such as "Juyutoru" or "Ichikiro", the control unit 18 recognizing the utterance directly changes the map scale to the uttered value. . At this time, the control unit 18 outputs a response phrase corresponding to the input value, such as “10 meters” or “1 km”, as a response phrase corresponding to the utterance of the user. As a result, the user can check the level of the scale designated by the user.

そして、ユーザが、「すけーる」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、スケール変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。   Then, when the user utters “Sukeru” or utters a return phrase, the control unit 18 outputs a response phrase notifying that the scale change processing has been completed, such as “Setting completed”. . The processing with the release phrase is the same as described above.

また、表示画面A1の場合には、自宅ボタンが表示されていて、ユーザが、このボタンをタッチするか、「じたく」と発話すると、制御部18は、次のように処理する。まず、あらかじめ自宅登録がなされていない場合には、制御部18は、「自宅って言うけど、私に教えてないでしょ。」というように、自宅登録を促す応答フレーズを出力させる。これにより、特定の機能を実行する前提として必要となる処理を、音声により促すので、当該機能を利用するために、何が必要かをユーザに理解させることができるのでよい。自宅登録がなされている場合には、制御部18は、「そうだね、帰ろっか。」という応答フレーズを出力させ、自宅へのルートを探索する。これにより、ユーザは、キャラクターが一緒に帰ってくれるような印象を得ることができるのでよい。   Further, in the case of the display screen A1, the home button is displayed, and when the user touches this button or speaks “judge”, the control unit 18 performs the following processing. First, when home registration has not been made in advance, the control unit 18 outputs a response phrase urging home registration, such as "I say home, but I will not tell me." As a result, a process required as a premise for executing a specific function is prompted by voice, so that the user can understand what is necessary to use the function. If the home registration has been made, the control unit 18 outputs a response phrase “Yes, go home.” And searches for a route to home. This allows the user to get the impression that the character will come back together.

なお、表示画面A1aの場合には、ナビ案内中のため、特定の機能が制限される。つまり、周辺検索と、自宅へのルート案内については、表示画面A1aにおいては、実行できない。従って、ユーザが「しゅうへん」と発話しても、「何って言ったの? わかんない」という応答フレーズを出力させて、周辺検索を行わない。また、「じたく」と発話しても、制御部18は、「何って言ったの? わかんない」という応答フレーズを出力させて、自宅へのルート探索は行わない。このように、ユーザは、応答フレーズにより、処理ができないことを知ることができるのでよい。   In the case of the display screen A1a, certain functions are restricted because navigation is being performed. That is, the neighborhood search and the route guidance to the home cannot be executed on the display screen A1a. Therefore, even if the user utters “Shin”, a response phrase “What did you say?” Is output, and the peripheral search is not performed. In addition, even if the user utters “Jitaku”, the control unit 18 outputs a response phrase “What do you say?” And does not search for a route to home. In this way, the user can know from the response phrase that the processing cannot be performed.

《音量変更》
音量変更の処理手順を、図23を参照して説明する。音声認識を開始した図11、12の表示画面V1、V1aにおいて、音量を変更したいユーザが「おんりょう」と発話すると、制御部18は、図23の表示画面A2、A2aに遷移させる。表示画面A2は、表示画面V1から遷移した画面であり、表示画面A2aは、表示画面V1aから遷移した画面である。表示画面A2では、別の画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A2aは、ナビ案内中における音量変更画面である。
《Volume change》
The procedure for changing the volume will be described with reference to FIG. In the display screens V1 and V1a in FIGS. 11 and 12 in which the voice recognition has been started, when the user who wants to change the volume speaks "OnRyo", the control unit 18 transitions to the display screens A2 and A2a in FIG. The display screen A2 is a screen that has transitioned from the display screen V1, and the display screen A2a is a screen that has transitioned from the display screen V1a. In the display screen A2, the control unit 18 outputs a response phrase "instruct something." Only when a transition is made from another screen (scene). As described above, even if the screen is switched, the character 100 may make an utterance prompting an instruction, so that the user can be made aware that the character 100 is always present. The display screen A2a is a volume change screen during navigation guidance.

この表示画面A2、A2aにおいては、音量ボタンB5の右横に、+ボタンB5a、−のボタンB5bが表示されている。ユーザが+ボタンB5aをタッチすると、制御部18は、音量を段階的にアップさせる。また、ユーザが−ボタンB5bをタッチすると、制御部18は、音量を段階的にダウンさせる。また、本実施形態では、ユーザが「あっぷ」又は「おおきく」と発話すると、これを認識した制御部18は、音量を段階的にアップさせる。ユーザが「だうん」又は「ちいさく」と発話すると、これを認識した制御部18は、音量を段階的にダウンさせる。   On the display screens A2 and A2a, a + button B5a and a-button B5b are displayed on the right side of the volume button B5. When the user touches the + button B5a, the control unit 18 increases the volume stepwise. In addition, when the user touches the-button B5b, the control unit 18 gradually lowers the volume. Further, in the present embodiment, when the user utters “app” or “large”, the control unit 18 recognizing the utterance increases the volume stepwise. When the user utters “Noun” or “Small”, the control unit 18 that recognizes the utterance gradually lowers the volume.

そして、制御部18は、音量アップのときには、「音量ア〜ップ」、音量ダウンのときは「音量ダウ〜ン」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、音量を変えると音量の上限又は下限を超えてしまう場合には、「ぶぶー、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。   Then, the control unit 18 outputs a response phrase that can confirm what kind of change has been made, such as "volume up" when the volume is up, and "volume down" when the volume is down. . Thereby, the user can confirm by voice what processing has been performed. In addition, if the volume exceeds the upper or lower limit of the volume when the volume is changed, the control unit 18 outputs a response phrase indicating that the volume cannot be changed, such as "Boooooo, it is a limit". This prevents the user from repeating useless change instructions without confirming whether the upper limit or the lower limit has been reached.

また、ユーザが「ぜろ」、「いち」、「に」のように、所望の音量の値を発話すると、これを認識した制御部18は、音量を、発話された値にダイレクトに変更させる。このとき、制御部18は、ユーザの発話に対応する応答フレーズとして、「ゼロだよ」、「1だよ」、「2だよ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示した音量のレベルを確認できる。   Further, when the user utters a desired volume value such as “Zero”, “Ichi”, or “Ni”, the control unit 18 that recognizes the value directly changes the volume to the uttered value. . At this time, the control unit 18 outputs a response phrase corresponding to the input value, such as “zero”, “1”, “2”, as a response phrase corresponding to the utterance of the user. . Thereby, the user can confirm the volume level designated by the user.

そして、ユーザが、「おんりょう」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、音量変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。その他の処理は、上記の地図スケールで説明した処理と同様である。   Then, when the user utters “OnRyo” or utters a return phrase, the control unit 18 outputs a response phrase indicating that the volume change processing has been completed, such as “Setting completed”. The processing with the release phrase is the same as described above. Other processes are the same as the processes described on the map scale.

《輝度変更》
輝度変更の処理手順を、図24を参照して説明する。音声認識を開始した図11、12の表示画面V1、V1aにおいて、輝度を変更したいユーザが「きど」と発話すると、制御部18は、図24の表示画面A3、A3aに遷移させる。表示画面A3は、表示画面V1から遷移した画面であり、表示画面A3aは、表示画面V1aから遷移した画面である。表示画面A3では、別画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A3aは、ナビ案内中における輝度変更画面である。
《Change brightness》
The processing procedure for changing the luminance will be described with reference to FIG. In the display screens V1 and V1a in FIGS. 11 and 12 in which the voice recognition has been started, when the user who wants to change the luminance speaks “KIDO”, the control unit 18 transitions to the display screens A3 and A3a in FIG. The display screen A3 is a screen that has transitioned from the display screen V1, and the display screen A3a is a screen that has transitioned from the display screen V1a. On the display screen A3, the control unit 18 outputs a response phrase "instruct something." Only when a transition is made from another screen (scene). As described above, even if the screen is switched, the character 100 may make an utterance prompting an instruction, so that the user can be made aware that the character 100 is always present. The display screen A3a is a luminance change screen during navigation guidance.

この表示画面A3、A3aにおいては、輝度ボタンB6の横に、+ボタンB6a、−ボタンB6bが表示されている。ユーザが+ボタンB6aをタッチすると、制御部18は、輝度を段階的にアップさせる。ユーザが−ボタンB6bをタッチすると、制御部18は、輝度を段階的にダウンさせる。また、本実施形態では、ユーザが「あっぷ」又は「あかるく」と発話すると、これを認識した制御部18は、輝度を段階的にアップさせる。ユーザが「だうん」又は「くらく」と発話すると、これを認識した制御部18は、輝度を段階的にダウンさせる。   On the display screens A3 and A3a, a + button B6a and a-button B6b are displayed beside the luminance button B6. When the user touches the + button B6a, the control unit 18 increases the luminance stepwise. When the user touches the-button B6b, the control unit 18 lowers the luminance stepwise. Further, in the present embodiment, when the user utters “app” or “ak”, the control unit 18 that recognizes this raises the luminance stepwise. When the user utters “No” or “Easy”, the control unit 18 recognizing the utterance gradually lowers the luminance.

そして、制御部18は、輝度アップのときには、「輝度ア〜ップ」、ダウンのときは「輝度ダウ〜ン」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、輝度を変えると輝度の上限又は下限を超えてしまう場合には、「ぶぶー、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。   Then, the control unit 18 outputs a response phrase for confirming what kind of change has been made, such as “brightness up” when the brightness is up, and “brightness down” when the brightness is down. Thereby, the user can confirm by voice what processing has been performed. In addition, when the luminance exceeds the upper or lower limit of the luminance when the luminance is changed, the control unit 18 outputs a response phrase that informs that the luminance cannot be changed, such as “Boooo, it is a limit”. This prevents the user from repeating useless change instructions without confirming whether the upper limit or the lower limit has been reached.

また、ユーザが、「ぜろ」、「いち」、「に」のように、所望の輝度の値を発話すると、これを認識した制御部18は、輝度を、発話された値にダイレクトに変更させる。このとき、ユーザの発話に対応する応答フレーズとして、「ゼロだよ」、「1だよ」、「2だよ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示した輝度のレベルを確認できる。   When the user utters a desired luminance value, such as "zero", "ichi", or "ni", the control unit 18 recognizing the utterance changes the luminance directly to the uttered value. Let it. At this time, a response phrase corresponding to the input value is output as a response phrase corresponding to the utterance of the user, such as “zero”, “1”, “2”. Thereby, the user can confirm the level of the luminance designated by the user.

そして、ユーザが、「きど」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、輝度変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。その他の処理は、上記の地図スケールで説明した処理と同様である。   Then, when the user utters “KIDO” or utters a return phrase, the control unit 18 outputs a response phrase indicating that the brightness change processing has been completed, such as “SETTING COMPLETED”. The processing with the release phrase is the same as described above. Other processes are the same as the processes described on the map scale.

なお、表示画面A1、A1aにおいては、制御部18は、「おんりょう」又は「きど」と発話することにより、表示画面A2、A2a又は表示画面A3、A3aに遷移させる。表示画面A2、A2aにおいては、制御部18は、「きど」又は「すけーる」と発話することにより、表示画面A3、A3a又は表示画面A1、A1aに遷移させる。表示画面A3、A3aにおいては、制御部18は、「すけーる」又は「おんりょう」と発話することにより、表示画面A1、A1a又は表示画面A2、A2aに遷移させる。このように、量的レベルの変更処理の画面を、相互に遷移可能とすることにより、まとめて設定を変更したいユーザにとって、便利となるのでよい。   In addition, in the display screens A1 and A1a, the control unit 18 makes a transition to the display screens A2 and A2a or the display screens A3 and A3a by speaking “onkyo” or “kid”. In the display screens A2 and A2a, the control unit 18 makes a transition to the display screens A3 and A3a or the display screens A1 and A1a by speaking "KIDO" or "SUKERU". In the display screens A3 and A3a, the control unit 18 makes a transition to the display screens A1 and A1a or the display screens A2 and A2a by speaking “Skuru” or “Onryo”. In this way, by making the screens of the change processing of the quantitative level mutually translatable, it may be convenient for the user who wants to change the settings collectively.

《タイムアウト処理》
次に、タイムアウト処理について説明する。タイムアウト処理は、制御部18が、所定の処理を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了する処理である。そして、所定の処理を開始した時点から、所定時間経過するまでの間に、制御部18は、キャラクターの応答フレーズとして、音声入力を促す音声を出力させる。
<< Time-out processing >>
Next, the timeout process will be described. The time-out process is a process of terminating the process when a predetermined time has passed without any voice input from the user from the time when the control unit 18 started the predetermined process. Then, during a period from the start of the predetermined process to the elapse of the predetermined time, the control unit 18 outputs a voice prompting voice input as a response phrase of the character.

より具体的な処理を、図25を参照して説明する。タイムアウト処理としては、タイムアウトV1、S1、S2、R1、A1、A1aが設定されている。まず、タイムアウトV1の処理を説明する。制御部18は、上記の表示画面V1又はV1aにおいて、音声認識を起動してから15秒間音声認識が無い場合、タイムアウトステータス1として、ユーザの音声入力を促す応答フレーズを出力する。ここでは、音声認識開始の画面であるため、「ねえ、何か言って」という音声入力をお願いする応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。   More specific processing will be described with reference to FIG. As the timeout process, timeouts V1, S1, S2, R1, A1, and A1a are set. First, the processing of the timeout V1 will be described. When there is no voice recognition for 15 seconds after the voice recognition is activated on the display screen V1 or V1a, the control unit 18 outputs, as the timeout status 1, a response phrase urging the user to input voice. Here, since the screen is a voice recognition start screen, a response phrase requesting a voice input “Hey, say something” is output. Then, if there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs, as the timeout status 2, a response phrase for notifying that the voice recognition has ended, and ends the voice recognition. Here, a response phrase that looks somewhat angry is output because there is no voice input, such as "N, already."

タイムアウトS1の処理は、次の通りである。制御部18は、表示画面S1、S1aに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、周辺検索の画面であるため、「ねえ、ねえ、どこ行くの?」というように、行き先を尋ねる応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。   The process of the timeout S1 is as follows. When there is no voice recognition for 15 seconds after the transition to the display screens S1 and S1a, the control unit 18 outputs a response phrase urging voice input as timeout status 1. In this case, since the screen is a peripheral search screen, a response phrase asking for the destination, such as "Hey, hey, where are you going?", Is output. Then, if there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs, as the timeout status 2, a response phrase for notifying that the voice recognition has ended, and ends the voice recognition. Here, a response phrase that looks somewhat angry is output because there is no voice input, such as "N, already."

タイムアウトS2の処理は、次の通りである。制御部18は、表示画面S2、S2a、S2_list、S2a_listに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、施設選択の画面であるため、「まだ決まらないの?」というように、施設選択を促す応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。   The process of the timeout S2 is as follows. If there is no voice recognition for 15 seconds after the transition to the display screens S2, S2a, S2_list, and S2a_list, the control unit 18 outputs a response phrase urging voice input as timeout status 1 if there is no voice recognition. Here, since the screen is for selecting a facility, a response phrase for prompting the user to select a facility is output, such as "Did you not decide yet?" Then, if there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs, as the timeout status 2, a response phrase for notifying that the voice recognition has ended, and ends the voice recognition. Here, a response phrase that looks somewhat angry is output because there is no voice input, such as "N, already."

タイムアウトR1の処理は、次の通りである。制御部18は、表示画面R1、R1a、R1bに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、ルート選択の画面であるため、「黙ってると案内しちゃうけど。」というように、音声入力がなくても、次の処理を進めてしまうことを通知する応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「案内開始。言う通りに運転してくれる?」というように、次の処理を開始することを通知する応答フレーズを出力する。   The process of the timeout R1 is as follows. If there is no voice recognition for 15 seconds after transitioning to the display screens R1, R1a, R1b, the control unit 18 outputs a response phrase urging voice input as timeout status 1. In this case, since the screen is for selecting a route, a response phrase for notifying that the next process will proceed even if there is no voice input, such as "I will guide you if you are silent", is output. Then, if there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs, as the timeout status 2, a response phrase for notifying that the voice recognition has ended, and ends the voice recognition. Here, a response phrase notifying that the next process is to be started is output, such as "Guidance start. Will you drive as you say?"

タイムアウトA1の処理は、次の通りである。制御部18は、表示画面A1、A2、A3、A1a、A2a、A3aに遷移してから、15秒間音声認識がない場合に、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、設定変更の画面であるため、「指示、お願い」というように、設定変更を促す応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識がない場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、設定変更せずに、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。   The processing of the timeout A1 is as follows. The control unit 18 outputs a response phrase for prompting voice input as timeout status 1 if there is no voice recognition for 15 seconds after transitioning to the display screens A1, A2, A3, A1a, A2a, A3a. Here, since the screen is a setting change screen, a response phrase urging the setting change, such as "instruction, request", is output. If there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs, as the timeout status 2, a response phrase notifying that the voice recognition is completed, To end. Here, a response phrase that looks somewhat angry is output because there is no voice input, such as "N, already."

タイムアウトA1aの処理は、次の通りである。制御部18は、表示画面A1、A2、A3、A1a、A2a、A3aに遷移して、ボタンの選択又は音声により、設定の変更を指示する入力がなされてから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、「指示、お願い」というように、音声入力による設定変更の決定指示を促す応答フレーズを出力させる。その後、15秒間音声認識がない場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、設定変更を完了させ、音声認識を終了させる。ここでは、「設定完了です。」と設定変更の完了を通知する応答フレーズを出力する。   The processing of the timeout A1a is as follows. The control unit 18 shifts to the display screens A1, A2, A3, A1a, A2a, and A3a, and when there is no voice recognition for 15 seconds after an input for instructing a change in setting is made by button selection or voice, As the timeout status 1, a response phrase prompting voice input is output. Here, a response phrase, such as "instruction, request", which prompts an instruction to determine a setting change by voice input is output. Thereafter, if there is no voice recognition for 15 seconds, the control unit 18 outputs a timeout phrase 2 as a response phrase for notifying that the voice recognition has ended, completes the setting change, and ends the voice recognition. Here, a response phrase for notifying that the setting has been changed and that the setting change has been completed is output.

タイムアウト処理は、頻繁に生じる可能性があるが、以上のように、表示画面やフェーズに合わせて、タイムアウトステータス1、タイムアウトステータス2の応答フレーズの内容が変化させることにより、ユーザに飽きがこないのでよい。   The timeout process may occur frequently, but as described above, the user does not get bored by changing the contents of the response phrases of the timeout status 1 and the timeout status 2 in accordance with the display screen and the phase. Good.

[作用効果]
以上のような実施形態によれば、車両の搭乗者であるユーザの一方的な指示に対してシステムが情報を提供するのではなく、ユーザがキャラクターと対話することにより、知りたい情報を得ることができるので、操作や運転の面白さが増大するとともに、キャラクターとコミュニケーションをとっている感覚が得られて飽きがこない。また、ユーザは、キャラクターと対話するために、システムを操作する意欲が湧くので、システムの機能が有効に活用される。
[Effects]
According to the above-described embodiment, the system does not provide information in response to a unidirectional instruction of a user who is a vehicle occupant, but obtains information that the user wants to know by interacting with a character. This will increase the fun of operation and driving, and will give you the feeling of communicating with the character, so you will not get tired of it. In addition, since the user is motivated to operate the system in order to interact with the character, the functions of the system are effectively used.

所定のキャラクターを、システムから出力される音声により、特定の個性を持った話者を認識させるように、応答フレーズが登録されているので、ユーザは、実際の人間と対話しているような感覚が得られて、親しみが持てる。   A response phrase is registered so that a predetermined character can be recognized by a voice output from the system as a speaker having a specific personality. And you can get close to it.

対話としては、例えば、発話の開始、これに対する応答、応答に対する返答という少なくとも一往復のやり取りがなされるように設定されているので、単純にユーザの命令通りにシステムが処理を行うのではなく、キャラクターが、自分とシステムの間に介在して、サービスを提供してくれている感覚を、ユーザが得ることができる。   As the dialogue, for example, the system is set so that at least one round trip exchange of the start of the utterance, the response thereto, the reply to the response is performed, so that the system does not simply perform the processing according to the user's command, The user can get a feeling that the character is intervening between himself and the system and providing the service.

ユーザは、音声認識を用いることにより、手操作よりも簡単又は迅速に出力させることができるので、積極的に音声認識を利用するようになり、ユーザにキャラクターとの対話をさせる機会をより多く与えることができる。   By using voice recognition, the user can make the output easier or faster than manual operation, so that the user actively uses the voice recognition and gives the user more opportunities to interact with the character. be able to.

特に、手操作が難しい、手操作が制限されている等により、運転者が運転中に所望の情報を得ることが困難な場合でも、音声認識を利用することにより、キャラクターとの対話を楽しみながら、所望の情報を得ることができる。   In particular, even when it is difficult for the driver to obtain desired information while driving due to difficult manual operations or limited manual operations, etc., it is possible to enjoy conversation with the character by using voice recognition. Desired information can be obtained.

情報を出力するために複数の選択を経る必要がある場合に、選択するごとに手操作が必要となる場合に比べて、音声入力による方が、ユーザにとって操作が簡単となる。複数の選択を経て出力される情報として、例えば、階層化された構造の情報、複数回の操作をしなければ出力できない情報は、手操作を複数回行うよりも、ユーザの負担が少なくなる。   When a plurality of selections need to be made to output information, operation by voice input is easier for the user than when manual operation is required for each selection. As information output through a plurality of selections, for example, information having a hierarchical structure or information that cannot be output unless a plurality of operations are performed is less burdensome to the user than performing a plurality of manual operations.

特に、施設検索、現在地周辺検索などのように、複数の候補の中から順次絞り込んでいくことにより得られる情報を出力する処理は、例えば、ブレーキやアクセルのように車両自体を動かすための操作や、ウィンカーのように走行中に安全のために外部に何かを知らせるための操作とは異なり、手操作によりダイレクトに実行させることが難しいので、音声認識による操作に適している。   In particular, a process of outputting information obtained by sequentially narrowing down from a plurality of candidates, such as a facility search and a current location search, is an operation for moving the vehicle itself such as a brake or an accelerator. Unlike an operation for informing something to the outside during traveling like a blinker for safety, it is difficult to directly execute the operation by hand, so that it is suitable for an operation by voice recognition.

ユーザは、キャラクターの音声に促されて選択することにより、所定の処理を順次進めることができる。例えば、次の選択へ誘導する応答フレーズとして、周辺検索で「周辺」というユーザの音声を認識した場合に、「ねえ、どこ行く?」というように、行先を尋ねる音声を出力するので、ユーザが、次に何を発話すればよいかが明確にわかる。   The user can proceed with the predetermined process sequentially by being prompted by the voice of the character to make a selection. For example, as a response phrase that guides the user to the next selection, if the user's voice “peripheral” is recognized in the peripheral search, a voice asking for the destination is output, such as “hey, where are you going?” And you know exactly what to say next.

次の選択がない場合に、これを示すキャラクターの音声を出力するので、ユーザは、さらに処理を進める必要がなくなったことがわかり、指示を終了する、別の処理を行わせる等の判断ができる。例えば、次の選択がないことを示すキャラクターの音声として、周辺検索で「ファミレス」というユーザの音声を認識した場合に、「ひとりぼっちでファミレス行くの?」のようにすれば、ユーザに新たに別の判断を求めることができる。   If there is no next selection, the sound of the character indicating this is output, so that the user knows that it is no longer necessary to proceed with the processing, and can determine whether to end the instruction or to perform another processing. . For example, if the voice of the character indicating that there is no next selection is recognized as the voice of the user "Familys" in the surrounding search, and if "Do you go to the family alone?" Other decisions can be sought.

現在地等、所望の地点の周辺の施設の情報を、面倒な手操作を不要としつつ、ユーザが、キャラクターとの対話を楽しみながら取得することができる。   The user can acquire information on facilities around a desired point, such as the current location, without having to perform any troublesome manual operations, while enjoying the conversation with the character.

検索された周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させるので、地図上で、ユーザに必要な施設の情報が目立つことになり、ユーザが施設の位置を把握しやすく、音声により所望の施設を選択する際の目安となる。特に、アイコンをカラー表示し、地図をグレースケールで表示するので、アイコンが非常にはっきりと見える。   Since the icons indicating the facilities located in the vicinity of the search are relatively highlighted as compared to the map, the information of the facilities required by the user is conspicuous on the map, so that the user can easily grasp the location of the facility, The voice serves as a guide when selecting a desired facility. In particular, the icons are displayed in color and the map is displayed in gray scale, so that the icons are clearly visible.

施設のアイコンに、現在地との近さの順位が区別できる表示をするので、ユーザが施設を選択する目安とすることができる。特に、番号、アルファベットのように本来的に順位を示す情報としているので、順位の意味を容易に把握できる。   Since the icon of the facility is displayed so that the order of proximity to the current location can be distinguished, it can be used as a guide for the user to select the facility. In particular, since the information inherently indicates the rank, such as a number or alphabet, the meaning of the rank can be easily grasped.

表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識して、選択された施設までの経路を探索して表示させるので、ユーザは、施設名で選択するよりも、表示されたアイコンに合わせた内容で簡単に選択することができる。特に、表示された番号を発話すればよいので、施設名よりも覚えやすい言葉で、施設を選択することができる。   Since the voice of the user selecting one of the facilities is recognized and the route to the selected facility is searched and displayed based on the content according to the displayed icon, the user can select the facility by using the facility name rather than selecting the facility. , Can be easily selected with the contents corresponding to the displayed icon. In particular, since the displayed number may be spoken, the facility can be selected using words that are easier to remember than the facility name.

ユーザが、探索された経路を希望しない場合に、キャラクターとの対話をしながら、探索し直しを指示することができるので、やり直し時の手間や退屈な気持ちを緩和させることができる。   When the user does not want the searched route, the user can instruct the search again while interacting with the character, so that the trouble and boring feeling when starting again can be reduced.

ユーザが、対話する相手となるキャラクターの姿を表示画面で見ることにより、親しみを覚えて、その姿を見るためにシステムを積極的に利用したいと思うようになる。   By seeing the appearance of the character with which the user interacts on the display screen, the user becomes familiar and willingly wants to use the system to see the appearance.

そして、キャラクターは、地図上の探索された経路表示を遮らない位置に、表示されるので、キャラクターの表示を楽しませつつ、探索された経路の見やすさを維持できる。
キャラクターが、探索された経路と反対側に寄った場合に、項目の表示領域は、探索された経路と重なる可能性があるが、各項目は、キャラクターよりも小さく、項目の表示領域は背後の画像が見える部分を有しているので、探索された経路がキャラクターと重なるよりも、背後の画像が見やすい。
Since the character is displayed at a position on the map that does not obstruct the display of the searched route, the display of the searched route can be maintained while the display of the character is enjoyed.
If the character moves to the opposite side of the searched path, the display area of the item may overlap the searched path, but each item is smaller than the character and the display area of the item is Since the image has a visible portion, the image behind is easier to see than the searched route overlaps with the character.

キャラクターの音声を、あらかじめ設定された複数の異なる応答フレーズの中から、既に出力した応答フレーズを除いてランダムに選択して出力するので、同じフレーズばかりが出力されず、ユーザに飽きがこない。   Since the voice of the character is randomly selected and output from a plurality of preset response phrases excluding the already output response phrase, only the same phrase is not output, and the user is not bored.

共通の認識ワードに対して異なる複数の応答フレーズが登録されたリストが設定されているので、ユーザが共通の内容の発話をしても、キャラクターは異なる表現で返答することができ、何度も同じ処理を実現させる場合でも、キャラクターからどんな返答が来るかを楽しむことができる。   A list in which a plurality of different response phrases are registered for a common recognition word is set, so that even if the user utters the common content, the character can respond with different expressions, and Even if the same processing is realized, it is possible to enjoy what kind of response comes from the character.

キャラクターは、標準レイ、変身後のレイ、ちびレイという同一人でありながら、複数の表示態様があり、出力される音声として、複数の表示態様毎に異なるフレーズが登録されているので、同じキャラクターでも、複数の表示態様に応じて、発話内容が異なり、同一人との対話でありながら、変化を楽しむことができるのでよい。特に、標準的なもの、衣服や髪型等を変えて変身したもの、頭身を変えたものとするので、大人っぽい、子供っぽい、かわいい、きれい等の多様な印象をユーザに与え、飽きさせない。   Although the character is the same person as the standard ray, the transformed ray, and the chibi ray, there are multiple display modes and different phrases are registered as output voices for each of the multiple display modes. However, the content of the utterance is different depending on the plurality of display modes, and the user can enjoy the change while interacting with the same person. In particular, because it is a standard thing, a thing transformed by changing clothes and hairstyles, and a change of the head and body, it gives the user various impressions such as mature, childish, cute, beautiful, etc. Do not let.

認識ワードは、ボタン等に項目表示されているので、ユーザは、所定の処理を実行させるために、表示された項目を見れば、何を言えばいいかがわかる。   Since the recognition word is displayed as an item on a button or the like, the user can understand what to say by looking at the displayed item in order to execute a predetermined process.

認識ワードは、表示画面にかかわらず共通して認識できる認識語句と、表示画面に表示されたものに認識が制限される認識ワードとがあるので、共通して認識できる認識ワードによって、表示画面にかかわらず必要となる機能の利便性を維持しつつ、認識が制限される認識ワードによって、誤認識の可能性を低減できる。複数種の表示画面で共通して使用される認識ワードについては、表示画面に応じて機能が制限される可能性が低くなり、利便性を維持できる。特に、戻るフレーズや解除フレーズのように、他の表示画面へ遷移させる語句なので、どの画面でも使用する必要がある語句である。一方、表示画面に表示された認識ワード、検索対象となる認識ワードは、それ以外の語句を認識させる必要性が乏しく、認識ワードの数を少なくして誤認識を防ぐ必要性が高い。   Recognition words include recognition words that can be recognized in common regardless of the display screen, and recognition words in which recognition is limited to those displayed on the display screen. Regardless, while maintaining the convenience of the necessary functions, the possibility of erroneous recognition can be reduced by the recognition word whose recognition is restricted. With respect to the recognition word commonly used in a plurality of types of display screens, the possibility that the function is limited depending on the display screen is reduced, and the convenience can be maintained. In particular, words such as a return phrase and a release phrase that need to be used on any screen, because they are words that transition to another display screen. On the other hand, the recognition word displayed on the display screen and the recognition word to be searched are less required to recognize other words and phrases, and the need to reduce the number of recognition words to prevent erroneous recognition is high.

量的に変化する機能の状態を、音声認識によりダイレクトに所望の量的レベルとすることができるので、小さな値と大きな値との間で段階的に変化させる場合に比べて、即座に所望の値とすることができ、ユーザの手間がかからず、操作に拘束される時間が短縮される。特に、音量、輝度、スケールなどのボタンを選択して+−や目盛を表示させ、+−の選択や、目盛上のスライドにより段階を追ってアップダウンさせる手間が省ける。   Since the state of the function that changes quantitatively can be directly set to the desired quantitative level by voice recognition, the desired state can be immediately changed as compared with a case where the state changes stepwise between a small value and a large value. The value can be set as a value, the user's effort is reduced, and the time restricted by the operation is reduced. In particular, it is possible to display buttons such as +,-, and scale by selecting buttons such as volume, brightness, and scale, and to save the trouble of selecting +-or sliding up and down step by step on the scale.

認識ワードとして、量的に変化する機能に対応する指示語と、量的レベルを示す数字が設定されているので、ユーザが所望の機能に対応する指示語と数字を発話すると、当該機能の量的レベルを、その数字のレベルにまでダイレクトにアップ、ダウンさせることができる。特に、指示語として「おんりょう」、「きど」、「すけーる」、数字として「いち」、「に」、「にきろ」などとするので、ユーザにとって直感的に理解しやすい機能の名称と数字を用いて、入力ができる。   As a recognition word, an instruction word corresponding to a function that changes quantitatively and a number indicating a quantitative level are set. When the user speaks an instruction word and a number corresponding to a desired function, the amount of the function is reduced. The target level can be raised or lowered directly to the level of the number. In particular, since the descriptive words are "Onryo", "Kid", "Skuru", and the numbers are "Ichi", "Ni", "Nikuro", etc., the names of functions that are intuitively understandable to the user Can be entered using and numbers.

機能を選択するためのボタンに、当該機能に対応する指示語が表示されているので、ユーザは、ボタンに表示された指示語を言えば、機能を選択できるので、ユーザにとってわかりやすい。   Since the instruction word corresponding to the function is displayed on the button for selecting the function, the user can select the function by speaking the instruction word displayed on the button, which is easy for the user to understand.

機能を選択するためのボタンであって、当該機能の現在の量的レベルの値が表示されているので、ユーザは、ボタンに表示された値を見ることにより、現在の量的レベルを確認して、所望の値へアップさせるべきか、ダウンさせるべきかを判断できる。例えば、地図のスケールで、小さなスケールの値がボタンに表示されている場合に、ユーザがそれよりも大きな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に広範囲の地図を見渡すことができる。また、例えば、大きなスケールの値がボタンに表示されている場合に、ユーザがそれよりも小さな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に詳細な地図を見ることができる。   Since the button for selecting a function displays the value of the current quantitative level of the function, the user can confirm the current quantitative level by looking at the value displayed on the button. Thus, it can be determined whether the value should be increased or decreased to a desired value. For example, on a map scale, if a small scale value is displayed on a button and the user says a larger value, the scale value displayed on the button changes directly to that value, and immediately You can see a wide range of maps. For example, if a large scale value is displayed on a button and the user says a smaller value, the scale value displayed on the button also changes directly to that value, and a detailed map is displayed immediately. Can be seen.

所定の処理を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了するタイムアウト処理を行うので、音声認識を長期間継続することによって生じる誤操作を防止できるのでよい。   When a predetermined period of time has elapsed without the input of a voice from the user after the start of the predetermined process, a timeout process for terminating the process is performed, so that an erroneous operation caused by continuing voice recognition for a long time may be prevented. .

所定の処理を開始した時点から、所定時間経過するまでの間に、キャラクターが、ユーザに音声入力を促す音声を出力するので、ユーザが処理の開始を忘れている場合に、音声入力を促すことができる。   Since the character outputs a voice prompting the user to input a voice during a period from the start of the predetermined process to a lapse of a predetermined time, if the user has forgotten to start the process, the character is prompted to input a voice. Can be.

[他の実施形態]
本発明は、上記の実施形態に限定されるものではなく、以下に例示する形態も含めて、種々の形態を構成可能である。
[Other embodiments]
The present invention is not limited to the above-described embodiment, and can be configured in various forms including the forms exemplified below.

《ジャンル登録》
ユーザが、周辺検索のジャンルの項目について、所望の項目のみを表示部5の表示画面に表示させるジャンル登録の機能を説明する。これにより、ユーザが良く使うであろうジャンルを予め表にしておくことで、ユーザのオリジナルな周辺検索画面を作成できる。より具体的には、制御部18は、ジャンルの認識ワードに対応する項目のうち、いずれの項目を認識ワードとして機能させるかを選択させる項目の表を、表示部5に表示させる。ユーザがこの表の中から所望の項目を選択すると、制御部18は、選択された項目を表示部5にボタン表示させるページに設定する。
《Register genre》
A genre registration function that allows the user to display only desired items on the display screen of the display unit 5 for items of the genre of the peripheral search will be described. Thus, by listing in advance the genres that the user will frequently use, it is possible to create a user's original peripheral search screen. More specifically, the control unit 18 causes the display unit 5 to display a table of items that allow the user to select which of the items corresponding to the genre recognition words should function as the recognition word. When the user selects a desired item from the table, the control unit 18 sets the selected item on a page for displaying a button on the display unit 5.

このような表示画面例を、図26を参照して説明する。まず、表示画面(1)は、上記の実施形態と同様に、制御部18が、表示部5に表示させた地図画面の右下に重ねて、キャラクター100を表示させるとともに、地図画面の左に重ねて、周辺施設をジャンルで選択して検索するための周辺ボタンB3を表示させている。   An example of such a display screen will be described with reference to FIG. First, the display screen (1) is displayed on the lower left of the map screen while the control unit 18 displays the character 100 on the lower right of the map screen displayed on the display unit 5 in the same manner as in the above-described embodiment. In addition, a peripheral button B3 for selecting and searching for peripheral facilities by genre is displayed.

この表示画面(1)において、ユーザが、周辺ボタンB3をタッチするか、音声認識の起動と周辺検索を指示する認識ワードとして登録された2ワードである「れい」、「しゅうへん」を発話すると、これを認識した制御部18は、表示画面(2)に示す一発ジャンル選択画面に遷移させる。   On this display screen (1), when the user touches the peripheral button B3 or utters two words "Rei" and "Shihen" registered as recognition words for instructing activation of voice recognition and peripheral search. The control unit 18 recognizing this makes a transition to the one-shot genre selection screen shown in the display screen (2).

このように、2ワード音声認識起動により表示された表示画面(2)は、ジャンル名を表示した複数のボタンを配置することにより、複数の項目から成る表を表示したものである。このジャンル名の項目からなる表は、ユーザが、それぞれのボタンを選択するか、ジャンル名を発話すると、制御部18は、表示画面(3)に示すように、そのジャンルの施設を検索して、検索された施設を、現在地51から近い順に番号を付して地図上に表示させる。   As described above, the display screen (2) displayed by the two-word voice recognition activation displays a table including a plurality of items by arranging a plurality of buttons displaying genre names. When the user selects each button or speaks a genre name in the table including the items of the genre name, the control unit 18 searches for facilities of the genre as shown in the display screen (3). The searched facilities are numbered in order from the closest to the current location 51 and displayed on the map.

ユーザが、表示画面(3)に表示された所望の施設アイコンをタッチするか、所望の施設アイコンに表示された番号を発話すると、制御部18は、現在地から選択された施設までのルート探索を実行して、表示画面(4)に示すように、探索されたルート53を色分け表示する。   When the user touches the desired facility icon displayed on the display screen (3) or speaks the number displayed on the desired facility icon, the control unit 18 searches for a route from the current location to the selected facility. When executed, the searched route 53 is displayed in different colors as shown in the display screen (4).

このとき、キャラクター100は、ルート案内方向により、地図上で邪魔にならない位置に移動する。つまり、キャラクター100を、地図上の現在位置を含む探索されたルート表示を遮らない位置に表示させる。さらに、ユーザが、案内開始を発話すると、表示画面(5)に示すように、制御部18は、ルート案内を開始する。このルート案内中においても、キャラクター100を、地図上の現在位置51を含む探索されたルート53の表示を遮らない位置に表示させる。   At this time, the character 100 moves to an unobstructed position on the map according to the route guidance direction. That is, the character 100 is displayed at a position that does not obstruct the searched route display including the current position on the map. Further, when the user speaks guidance start, the control unit 18 starts route guidance as shown in the display screen (5). Even during this route guidance, the character 100 is displayed at a position where the display of the searched route 53 including the current position 51 on the map is not interrupted.

表示画面(2)の表の下部には、「戻る」、「変更」、「現在地」という三つのボタンが表示される。このうち、「戻る」ボタンは、ユーザがタッチするか、「もどる」という発話をすると、これを認識した制御部18が、1つ前の画面に遷移させるボタンである。「現在地」ボタンは、ユーザがタッチするか、「げんざいち」という発話をすると、これを認識した制御部18が、現在地51を表示する表示画面に遷移させるボタンである。ここでは、「戻る」ボタンが選択された場合にも、「現在地」ボタンが選択された場合にも、表示画面(1)に遷移する。   At the bottom of the table on the display screen (2), three buttons of “return”, “change”, and “current location” are displayed. Among them, the “return” button is a button that, when the user touches or utters “return”, the control unit 18 that recognizes this makes a transition to the previous screen. The “current location” button is a button that, when the user touches or utters “Genzaichi”, the control unit 18 recognizing this touch makes a transition to a display screen displaying the current location 51. Here, the screen transitions to the display screen (1) both when the “return” button is selected and when the “current location” button is selected.

「変更」ボタンは、ユーザがタッチするか、「へんこう」という発話をすると、これを認識した制御部18は、表示画面(6)に示す一発ジャンル変更画面に遷移させる。この一発ジャンル変更画面には、現在、一発ジャンル選択画面として登録されているジャンルが、これと同じ並び順で表示される。ここで、いずれかのジャンルのボタンをユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、それぞれのジャンル名が所属する大項目の表示画面(7)〜(10)のいずれかに遷移させる。   When the user touches the “change” button or utters “change”, the control unit 18 recognizing this touch makes a transition to a one-shot genre change screen shown in the display screen (6). On this one-shot genre change screen, the genres currently registered as the one-shot genre selection screen are displayed in the same arrangement order. Here, when the user touches a button of any genre or utters a genre name, the control unit 18 recognizing this touches the large item display screens (7) to (10) to which each genre name belongs. Transition to any of

例えば、ユーザが、「駅」を選択すると、「駅」が所属する大項目「ホテル・公共施設・他」に所属するジャンル名が表示された表示画面(7)に遷移する。表示画面(7)では、表示画面(2)に表示されるジャンル名は、特定の濃い色で表示され、表示画面(2)に表示されないジャンル名は、これより薄い色で表示されている。例えば、表示画面(2)に表示される「駅」は青色の文字で表示され、表示画面(2)に表示されない「駐車場」はグレーの文字で表示されている。   For example, when the user selects “station”, the display transits to a display screen (7) displaying a genre name belonging to the major item “hotel / public facility / other” to which “station” belongs. On the display screen (7), genre names displayed on the display screen (2) are displayed in a specific dark color, and genre names not displayed on the display screen (2) are displayed in a lighter color. For example, “station” displayed on the display screen (2) is displayed in blue characters, and “parking lot” not displayed on the display screen (2) is displayed in gray characters.

ここで、表示画面(7)に表示されているジャンル名をユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、選択されたジャンル名を、表示画面(7)に表示されないジャンル名とする。このとき、当該ジャンル名を薄い色の表示に変える。例えば、ユーザが「駅」を選択すると、「駅」の文字がグレーとなる。   Here, when the user touches the genre name displayed on the display screen (7) or utters the genre name, the control unit 18 recognizing the genre name displays the selected genre name on the display screen (7). The genre name is not displayed. At this time, the genre name is changed to a light color display. For example, when the user selects "station", the character of "station" becomes gray.

例えば、表示画面(7)に表示されているジャンル名をユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、選択されたジャンル名を、表示画面(2)に表示させるジャンル名とする。このとき、当該ジャンル名を特定の濃い色の表示に変える。例えば、ユーザが「駐車場」を選択すると、「駐車場」の文字が青色となる。   For example, when the user touches the genre name displayed on the display screen (7) or utters the genre name, the control unit 18 recognizing the genre name displays the selected genre name on the display screen (2). The genre name to be made. At this time, the genre name is changed to a specific dark color display. For example, when the user selects “parking lot”, the text “parking lot” turns blue.

また、表示画面(6)の「総合病院」等の病院・医院に属するジャンル名が選択されると、表示画面(8)に遷移する。「コンビニ」等のショッピングに属するジャンル名が選択されると、表示画面(9)に遷移する。「ファミリーレストラン」等のレストランに属するジャンル名が選択されると、表示画面(10)に遷移する。それぞれの表示画面において、表示画面(2)に表示させるジャンル名の選択、表示させないジャンル名の選択は、上記の通りである。   When a genre name belonging to a hospital or clinic such as “general hospital” is selected on the display screen (6), the display transits to the display screen (8). When a genre name belonging to shopping such as "convenience store" is selected, the display transits to a display screen (9). When a genre name belonging to a restaurant such as “family restaurant” is selected, the display transits to a display screen (10). In each of the display screens, the selection of the genre name to be displayed on the display screen (2) and the selection of the genre name not to be displayed are as described above.

また、表示画面(7)において、ユーザが、ページを送る「▽」のボタンを選択すると、次の表示画面(8)に遷移する。表示画面(8)において、ページを戻る「△」のボタンを選択すると、表示画面(7)に遷移する。このように、「▽」「△」は、表示画面(7)〜(10)の間でページを切り替えるボタンとして機能する。   In addition, when the user selects the “▽” button for sending a page on the display screen (7), the display transits to the next display screen (8). On the display screen (8), when the button for returning to the page “△” is selected, the display transits to the display screen (7). Thus, “▽” and “△” function as buttons for switching pages between the display screens (7) to (10).

以上のように各表示画面(7)〜(10)において、ジャンル名を変更した後、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、表示画面(6)に遷移して、表示させるジャンル名として選択されたものが表示されるとともに、表示させないジャンル名として選択されたものが表示されなくなる。そして、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、変更した表示画面(6)の表示を反映した表示画面(2)に遷移する。上記の例では、「駅」の位置に「駐車場」が表示され、「駅」が表示されなくなる。   As described above, in each of the display screens (7) to (10), after changing the genre name, when the user touches the “return” button or speaks “return”, the display screen (6) is displayed. The genre name to be displayed is displayed, and the genre name not to be displayed is not displayed. Then, when the user touches the “return” button or speaks “return”, a transition is made to the display screen (2) reflecting the display of the changed display screen (6). In the above example, “parking lot” is displayed at the position of “station”, and “station” is not displayed.

また、デフォルトの表示に戻すには、表示画面(6)において、ユーザが「デフォルトに戻す」のボタンを選択するか、「でふぉるとにもどす」と発話すると、これを認識した制御部18が、デフォルトのジャンル名及びその配置に戻す。そして、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、デフォルトの設定に戻った表示画面(2)に遷移する。   To return to the default display, when the user selects the “Return to Default” button or utters “Return to Default” on the display screen (6), the control unit recognizes this. 18 returns to the default genre name and its arrangement. Then, when the user touches the “return” button or speaks “return”, the display screen transitions to the display screen (2) that has returned to the default setting.

上記のように、表示画面(6)及びこれが反映される表示画面(2)においては、ジャンル名は、表示させる位置毎に選択することができる。つまり、表示画面(6)において、左上の「駅」が選択された場合には、制御部18は、選択されたジャンル名とともに、それが表示画面上のどの表示位置かも認識する。そして、制御部18は、その後に表示画面(7)〜(10)において選択されたいずれかのジャンル名を、当該表示位置、つまり左上の位置に表示させることができる。このため、表示画面(2)におけるジャンル名の並びを変更したい場合には、表示画面(6)において、所望の表示位置のジャンル名を選択し、これを当該表示位置に表示させたいジャンル名に変更していくことにより実現することができる。この場合、同じジャンル名を異なる位置に表示させるように選択することも可能となる。例えば、「駅」というジャンル名を、左上に表示させるとともに、その下に並べて「駅」を表示させることもできる。このように、頻繁に使用するジャンル名について、同じジャンル名を表示画面(2)の複数箇所に表示させると、そのジャンル名をタッチして選択しやすくなるのでよい。   As described above, in the display screen (6) and the display screen (2) reflecting the display screen, the genre name can be selected for each position to be displayed. That is, when “station” in the upper left is selected on the display screen (6), the control unit 18 recognizes which display position on the display screen together with the selected genre name. Then, the control unit 18 can cause one of the genre names selected on the display screens (7) to (10) to be displayed at the display position, that is, the upper left position. Therefore, when it is desired to change the arrangement of the genre names on the display screen (2), a genre name at a desired display position is selected on the display screen (6), and this is set to the genre name desired to be displayed at the display position. It can be realized by changing. In this case, it is possible to select the same genre name to be displayed at different positions. For example, the genre name “station” may be displayed at the upper left, and “station” may be displayed below the genre. As described above, when the same genre name is displayed at a plurality of places on the display screen (2) for the frequently used genre name, the genre name can be easily touched and selected.

なお、制御部18は、表示画面(6)において、ユーザが、所望のジャンル名をタッチしてドラッグして所望の位置で離すことにより、制御部18が、当該ジャンル名の表示位置を、所望の位置に変更できるようにすると、表示位置の変更が容易となってよい。   The control unit 18 allows the user to touch and drag a desired genre name on the display screen (6) and then release the genre name at a desired position. If the display position can be changed, the display position may be easily changed.

また、表示画面(2)に表示させることができるジャンル名の数は、所定数に限られている。例えば、ここでは25個である。このため、既に表示させるジャンル名として25個登録されている場合には、それ以上、表示させるジャンル名を増やすことはできない。   Further, the number of genre names that can be displayed on the display screen (2) is limited to a predetermined number. For example, there are 25 here. Therefore, when 25 genre names to be displayed have already been registered, the genre names to be displayed cannot be further increased.

以上のように、表示された項目の表から、ユーザがよく使う項目のみを選択すれば、認識ワードが限定されるので、誤認識を減らすことができる。選択された認識ワードは、例えば、所定のメモリ領域に、デフォルトの状態から書き換える、空の領域に入れていく、既に入っているものを並べ替える等により、登録される。このようにすれば、限られたメモリ領域を有効に活用できる。   As described above, if the user selects only frequently used items from the displayed list of items, the recognition words are limited, and erroneous recognition can be reduced. The selected recognition word is registered in a predetermined memory area, for example, by rewriting from a default state, putting it into an empty area, or rearranging the already contained words. In this way, the limited memory area can be effectively used.

このようなユーザによる項目の設定は、上記の実施形態の図13及び図14で示したように、ユーザにより選択された項目を、表示部5に表示させる複数のページ毎に設定してもよい。このため、表示画面の1ページで表示できる項目が限られていても、ユーザがよく使う項目を、トップのページに持ってくることにより、使いたい項目を表示させるためにページを切り替える手間が省ける。   The setting of the item by the user may be set for each of a plurality of pages to be displayed on the display unit 5, as shown in FIGS. 13 and 14 in the above embodiment. . For this reason, even if the items that can be displayed on one page of the display screen are limited, bringing the items frequently used by the user to the top page saves the trouble of switching pages to display the desired items. .

複数の概念を含む認識ワードに対応する大項目と、当該複数の概念に相当する認識ワードに対応する中項目を、同一ページに表示させることができるので、ユーザが中項目を検索したい場合にも、階層やページを変える必要がなく、所望の項目をダイレクトに選択することができる。   The large item corresponding to the recognition word including a plurality of concepts and the middle item corresponding to the recognition word corresponding to the plurality of concepts can be displayed on the same page, so that even when the user wants to search for the middle item, It is not necessary to change the hierarchy or page, and a desired item can be directly selected.

例えば、「病院」のように、多数の候補を含む上位概念的な大項目は、できるだけ多くの候補の中から検索したいと思うユーザにとって便利な項目となる。「病院」の概念に含まれる「内科」、「小児科」のような中項目は、少ない候補の中から、即座に所望の施設の情報を得たいユーザにとって便利となる。   For example, a large general concept item including a large number of candidates such as “hospital” is a convenient item for a user who wants to search from as many candidates as possible. The middle items such as “Internal Medicine” and “Pediatrics” included in the concept of “hospital” are convenient for users who want to immediately obtain desired facility information from a small number of candidates.

施設の分類に関する情報は、大項目、中項目のように段階・階層を立てて分類分けすることで効率よい指定を行うことができるようにしている。すなわち、大項目の中には、1または複数の中項目が属する。   The information on the classification of the facilities can be efficiently specified by classifying the information into stages and hierarchies like large items and medium items. That is, one or more middle items belong to the large items.

大項目の一例を挙げると、「ホテル・公共施設・他」、「病院・医院」、ショッピング」、「レストラン」等がある。「ホテル・公共施設・他」に属する中項目の一例としては、「駅」、「IC(インターチェンジ)/JCT(ジャンクション)]、「郵便局」、「役所」、「トイレ」、「駐車場」、「ホテル」、「銀行 信金」、「学校」、「ガソリンスタンド」等がある。「病院・医院」に属する中項目の一例としては、「総合病院」、「内科」、小児科」、「外科」、「産婦人科」、「歯科」、「眼科」、「耳鼻咽喉科」、「整形外科」、「皮膚科」、「泌尿器科」、「診療内科」、「神経内科」、「肛門科」、「動物病院」等がある。「ショッピング」に属する中項目の一例としては、「コンビニ」、「ドラッグストア」、「デパート」、「ショピングモール」、「スーパー」、「カー用品」、「ホームセンター」、「家電」等がある。「レストラン」に属する中項目の一例としては、「ファミリーレストラン」、「ファーストフード」、「和食」、「洋食」、「中華」、「ラーメン」、「焼き肉」、「すし」、「とんかつ」、「うどん」、「カレー」、「牛丼」等がある。   Examples of major items include "hotels / public facilities / others", "hospitals / clinics", shopping, and "restaurants". Examples of sub-items belonging to “hotel / public facilities / other” include “station”, “IC (interchange) / JCT (junction)],“ post office ”,“ government office ”,“ toilet ”,“ parking lot ”. , "Hotel", "Bank Shinkin", "School", "Gas station". Examples of middle items belonging to “hospital / clinic” include “general hospital”, “internal medicine”, pediatrics ”,“ surgery ”,“ obstetrics and gynecology ”,“ dental ”,“ ophthalmology ”,“ otolaryngology ”, There are “Orthopedic surgery”, “Dermatology”, “Urology”, “Clinical medicine”, “Neurology”, “Anal medicine”, “Animal hospital” and the like. Examples of the middle items belonging to “shopping” include “convenience store”, “drug store”, “department store”, “shopping mall”, “supermarket”, “car supplies”, “home improvement center”, “home appliances”, and the like. Examples of the middle items belonging to “restaurant” include “family restaurant”, “fast food”, “Japanese food”, “Western food”, “Chinese food”, “ramen”, “roasted meat”, “sushi”, “tonkatsu”, There are "udon", "curry", "beef bowl" and so on.

なお、各中項目に、さらに1または複数の小項目が属していてもよい。大項目、中項目、小項目のように段階・階層を立てて分類分けすることで、大量の項目の中から効率のよい指定を行うことができる。なお、1つの項目のみ属する場合には、実際には、その階層の項目はないものと同等となる。つまり、大項目に属する中項目が1つしか存在しない場合には、大項目までで、中項目及び小項目はないとしてもよい。また、中項目に属する小項目が1つしか存在しない場合には、中項目までで、小項目はないとしてもよい。そして、大項目を指定した場合には、それに属する全ての中項目が指定されたことになり、ある中項目が指定された場合には、その中項目に属する全ての小項目が指定されたこととして、制御部18は処理する。   Note that one or more small items may further belong to each medium item. By classifying the items in stages and hierarchies such as large items, medium items, and small items, efficient designation can be performed from a large number of items. In the case where only one item belongs, it is actually equivalent to an item having no item at that level. That is, when there is only one medium item belonging to the large item, the medium item and the small item may not be present up to the large item. When there is only one small item belonging to the middle item, the small item may be omitted up to the middle item. When a large item is specified, all the middle items belonging to it are specified. When a certain middle item is specified, all the small items belonging to the middle item are specified. The control unit 18 performs the processing.

なお、認識ワードとして、項目として表示されている語句に関連するが、項目として表示されていない語句が登録されていてもよい。例えば、項目に表示されている認識ワードそのものを発話しなくても、その認識ワードに関連する語句を言えばよいので、ユーザの項目名の記憶があいまいであったり、操作に不慣れであったりしても、検索ができる。   Note that a phrase that is related to a phrase displayed as an item but is not displayed as an item may be registered as a recognition word. For example, without saying the recognition word itself displayed in the item, it is sufficient to say a phrase related to the recognition word, so that the storage of the user's item name is ambiguous or the user is unfamiliar with the operation. Even, you can search.

例えば、項目として表示されている語句が大項目の「病院」であって、中項目である「内科」、「小児科」が表示されていないページであっても、「内科」、「小児科」も音声認識可能な認識ワードとして登録してもよい。このように、中項目が表示されていなかったとしても、大項目「病院」から連想したより具体的な中項目「内科」、「小児科」を言えば、その中項目が検索されるので、ユーザに必要な施設の情報を素早く得ることができる。   For example, even if the phrase displayed as an item is a large item "hospital" and the middle item "internal medicine" or "pediatric" is not displayed, "internal medicine" or "pediatric" You may register as a recognition word which can be voice-recognized. In this way, even if the middle item is not displayed, if the more specific middle items “internal medicine” and “pediatrics” associated with the large item “hospital” are referred, the middle item is searched, Can quickly obtain information on the necessary facilities.

上記のようなユーザの設定により又はデフォルトの設定により、混同して認識される可能性のある認識ワードの項目が、別のページに表示されるように設定されていてもよい。例えば、似た音を含む語句、実際に認識させてみて混同する可能性が高い語句等が、同じページに並んで同時に認識の候補となることがないので、誤認識を減らすことができる。似た音を含む語句としては、例えば、「ファミレス」と「ファーストフード」、「病院」と「美容院」、「洋食」と「和食」のように、50音の同じ音、同じ漢字等を含む語句とする。   The item of the recognition word that may be confused may be set to be displayed on another page by the user setting or the default setting as described above. For example, words that include similar sounds, words that are likely to be confused when actually recognized, and the like do not line up on the same page and are not candidates for recognition at the same time, so that erroneous recognition can be reduced. Words containing similar sounds include, for example, the same 50 sounds and the same kanji, such as “family restaurant” and “fast food”, “hospital” and “beauty salon”, and “Western food” and “Japanese food”. Words.

このようにすれば、文字からも紛らわしい音の認識語句が、同じページに表示されないため、ユーザも、いずれか一方を入力することになり、誤認識を減らすことができる。実際に認識させてみて混同する可能性が高い語句としては、例えば、過去の認識結果の記録に基づいて、同じ発話に対して認識されている異なる語句とする。このようにすれば、実際に誤認識が生じている組み合わせが同一ページとなることを排除できる。   In this way, since the sound recognition phrase that is confusing even from the character is not displayed on the same page, the user also needs to input one of them, thereby reducing erroneous recognition. A phrase that is highly likely to be confused when actually recognized is, for example, a different phrase that is recognized for the same utterance based on a record of past recognition results. In this way, it is possible to exclude a combination in which an erroneous recognition has actually occurred on the same page.

《キャラクターの表示》
キャラクターの表示についても、種々の態様が可能である。上記の図26の表示画面(4)(5)では、制御部18は、画面に表示されたキャラクター100が、現在位置及び探索されたルート53に重ならないように、キャラクター100を左右に移動させている。例えば、キャラクター100と探索されたルート53の表示とが、互いに表示画面における反対側に寄るとよい。このようにすれば、キャラクター100が経路探索のサービスを邪魔しない気遣いをしているように、ユーザに感じさせることができるので、より好感を持たせることができてよい。
《Character display》
Various modes are also possible for character display. In the display screens (4) and (5) in FIG. 26 described above, the control unit 18 moves the character 100 to the left and right so that the character 100 displayed on the screen does not overlap the current position and the searched route 53. ing. For example, the character 100 and the display of the searched route 53 may be close to each other on the display screen. In this way, the user can be made to feel as if the character 100 is not disturbing the route search service, so that the user can have a better feeling.

キャラクター100の移動は、一旦消えてから、移動先で出現するようにしても、表示を継続させながら移動させてもよい。移動が頻繁だと、ユーザがうっとうしく感じる可能性もあるが、キャラクター100がユーザに存在をアピールできるとともに、キャラクター100を継続して見ていたいユーザにとっては、移動中のキャラクター100の動作を楽しむことができる。   The movement of the character 100 may disappear once and then appear at the destination, or may be moved while continuing the display. If the user moves frequently, the user may feel annoyed. However, while the character 100 can appeal to the user, the user who wants to continuously watch the character 100 can enjoy the operation of the moving character 100. it can.

制御部18は、音声認識を起動して受け付けているか否かを、表示部5に表示させてもよい。このようにすれば、ユーザが、音声による操作ができるか否かを視覚により認識することができる。音声認識を受け付けているか否かとしては、表示画面の色を変えて表示する。このようにすれば、例えば、ユーザの視覚を介して、音声認識の状態を即座に感得させることができる。特に、音声認識を受け付けている場合には、通常の色とし、受け付けていない時には、グレースケールとする。このようにすれば、音声認識を受け付けているか否かを、ユーザに直感的にわからせることができる。   The control unit 18 may cause the display unit 5 to display whether or not voice recognition is activated and accepted. With this configuration, the user can visually recognize whether or not the user can perform a voice operation. Whether the voice recognition is accepted or not is displayed by changing the color of the display screen. In this way, for example, the state of voice recognition can be immediately felt through the user's vision. In particular, when speech recognition is accepted, the color is a normal color, and when not accepted, the color is a gray scale. This allows the user to intuitively recognize whether or not speech recognition is being accepted.

制御部18は、音声認識を受け付けているか否かをキャラクターに表示してもよい。このようにすれば、キャラクターを見れば、音声による操作が可能か否かがわかるので、ユーザが気づきやすくなる。   The control unit 18 may display on the character whether or not speech recognition has been accepted. This makes it easy for the user to notice because the character can determine whether or not the operation by voice is possible by looking at the character.

キャラクターに表示する態様としては、例えば、キャラクターの様子が明らかに変化する態様とする。このようにすれば、例えば、音声認識の状態を即座に感得させることができる。キャラクターの様子が明らかに変化する態様としては、例えば、キャラクターに物を付加する、キャラクターの色や形態を変える、特定のポーズ、ジェスチャーをさせる、吹き出しでセリフを表示するなどとする。このようにすれば、例えば、通常のキャラクターの状態を知っているユーザであれば、通常の状態との対比によってその変化に即座に気づく。   As a mode for displaying on the character, for example, a mode in which the state of the character clearly changes is used. In this way, for example, the state of voice recognition can be immediately felt. Examples of the manner in which the state of the character clearly changes include, for example, adding an object to the character, changing the color or form of the character, making a specific pose or gesture, displaying speech in a balloon, and the like. In this way, for example, a user who knows the state of a normal character immediately notices the change by comparison with the normal state.

キャラクターに物を付加する態様としては、例えば、ヘッドセット、ヘッドホン、イヤホン、マイク等の音に関連する備品をキャラクターに装着させる。このようにすれば、ユーザに、音に関連する機能である音声認識を連想させる。キャラクターの色や形態を変える態様としては、例えば、髪型やその色、別のコスチュームに着替えるなどとする。このようにすれば、通常の状態との相違がわかりやすくなる。特に、キャラクターの耳を大きくすれば、音声をよく聞き取ろうとしていることを示す姿となる。さらに、ポーズ、ジェスチャーとして、例えば、耳の後ろに手を当てるしぐさをさせても、音声をよく聞き取ろうとしていることを示す姿となる。   As a mode of adding an object to the character, for example, equipment related to sound such as a headset, headphones, earphones, and a microphone is attached to the character. In this way, the user is reminded of voice recognition, which is a function related to sound. As a mode of changing the color and form of the character, for example, a hairstyle, its color, changing into another costume, and the like are used. This makes it easier to understand the difference from the normal state. In particular, if the character's ears are raised, the character will show that he or she is trying to hear the sound well. Furthermore, as a pose or gesture, for example, even if a gesture is made to put a hand behind the ear, the figure shows that the user is trying to hear the sound well.

《ニックネームの使用》
制御部18は、あらかじめデータベース19に登録されたユーザの呼び名の音声を、キャラクターにより出力される音声である応答フレーズの中に、挿入するとよい。つまり、制御部18は、「霧島レイ」との対話の中で、ユーザの名前をニックネーム式で言わせる。例えば、「ケーくん」、「ユーくん」といった具合に、キャラクターに呼ばせることができる。
《Use of nickname》
The control unit 18 may insert the voice of the user's name registered in the database 19 in advance into the response phrase that is the voice output by the character. That is, the control unit 18 causes the user's name to be said in a nickname expression during the dialogue with “Kirishima Rei”. For example, the character can be called, for example, "K-kun" or "Yu-kun".

例えば、音声認識及び周辺検索を起動させる起動ワードとして、「レイ、しゅうへん」が登録され、地図表示画面において、ニックネームを「ユーくん」で登録されたユーザが、「霧島レイ」に周辺検索を行わせる場合の対話例を以下に示す。「 」内が、発話したフレースである。   For example, “Ray, Shuhen” is registered as a startup word that activates voice recognition and peripheral search, and a user whose nickname is registered as “You” on the map display screen performs a peripheral search on “Kirishima Rei”. An example of the dialogue in the case of performing this is shown below. “” Indicates the spoken frace.

ユーくん:「レイ、周辺」→音声認識起動→周辺検索ジャンル画面に遷移
レイ:「なに〜ユーくん、わたし忙しいんだけど。」
ユーくん:「内科」→地図画面に遷移、周辺の内科アイコンを表示
レイ:「どうしたの? 大丈夫? どこのお医者さん行くの?」
ユーくん:「に」(数字の2)
レイ:「わかった、2番ね。」→地図上に2の内科医院の情報を表示
ユーくん:「探索」→ルート探索して地図上に表示
レイ:「ど〜お?ここ行く?」
ユーくん:「頼む。」
レイ:「了解、任せて。」→案内開始
Yu-kun: "Ray, surroundings" → voice recognition start-up → transition to the surrounding search genre screen Ray: "What-you-kun, I'm busy."
Yu-kun: "Internal Medicine" → transit to the map screen, display surrounding internal medicine icons Rei: "What's wrong? Are you alright? Where's the doctor?"
Yu-kun: "Ni" (number 2)
Ray: "Okay, 2nd." → Display the information of the 2 internal clinics on the map Yu-kun: "Search" → Search for the route and display it on the map Ray: "Wow? Go here?"
Yu-kun: "Please."
Ray: "Okay, leave it to me."

このようにすれば、ユーザは、会話内で自らのニックネームで呼ばれることにより、キャラクターに対して、より一層の親しみを感じることができる。
また、対話の開始時に出力される音声にニックネームの音声が挿入されているので、ユーザが自らの名前で呼ばれることになり、ユーザの注意を引くことができてよい。
さらに、キャラクターの呼び名を含む音声が認識された場合に、出力される音声にユーザの呼び名の音声が挿入されているので、互いに呼び名を呼び合うことになり、ユーザは、より親密な感覚を得ることができる。
In this way, the user can feel more familiar with the character by being called by his / her nickname in the conversation.
In addition, since the voice of the nickname is inserted in the voice output at the start of the dialogue, the user may be called by his / her own name and may be able to draw the user's attention.
Furthermore, when the voice including the character's name is recognized, the voice of the user's name is inserted in the output voice, so that the names are called to each other, and the user gets a more intimate feeling. be able to.

なお、対話が進行するに従って、キャラクターにより出力される音声に、ユーザの呼び名を挿入する頻度を低減させてもよい。このようにすれば、例えば、当初は呼び名が呼ばれていたのに、その後は呼ばれる頻度が減少するので、互いに慣れていく二人の会話を演出することができる。
さらに、データベース19に、あらかじめ50音表に対応する音声データが登録され、この50音表からユーザが選択した呼び名の音声を、会話中に挿入してもよい。このようにすれば、例えば、あらかじめ複数の呼び名を登録しておく場合に比べて、メモリの容量を節約できるのでよい。
As the dialogue progresses, the frequency of inserting the user's name into the voice output by the character may be reduced. In this way, for example, although the name is called at first, the frequency of calling is reduced thereafter, so that a conversation between two people who are accustomed to each other can be produced.
Further, voice data corresponding to the Japanese syllabary may be registered in the database 19 in advance, and the voice of the nickname selected by the user from the Japanese syllabary may be inserted during the conversation. In this way, for example, the memory capacity can be saved as compared with a case where a plurality of names are registered in advance.

《投稿》
ユーザが、取締・検問場所を発見した場合、制御部18が、あらかじめデータベース19に登録された認識ワードに対応するユーザの音声の入力に応じて、取締場所に関する位置情報を、情報収集サーバに送信することにより、投稿する機能を実行することができる。また、制御部18は、投稿された取締場所に関する位置情報について、情報収集サーバからの配信を受けて、表示部5に地図とともに表示することができる。このため、ナビゲーション装置は、制御部18に接続され、外部との情報の送受信を行う通信部を備える。
《Post》
When the user finds the control / inspection place, the control unit 18 transmits the position information on the control place to the information collection server in accordance with the input of the user's voice corresponding to the recognition word registered in the database 19 in advance. By doing so, the function of posting can be executed. Further, the control unit 18 can display the posted positional information on the enforcement place on the display unit 5 together with the map in response to the distribution from the information collection server. For this reason, the navigation device includes a communication unit connected to the control unit 18 and transmitting and receiving information to and from the outside.

この通信部は、インターネット接続機能を備えた車内の通信機器に、無線又は有線により接続される。例えば、通信部を、テザリング(tethering)機能を有するスマートフォン等の携帯電話又は無線LANルータとWi−Fi(登録商標)接続、Blutooth(登録商標)接続又はUSB接続することにより実現できる。このような通信機器は、ナビゲーション装置に組み込まれていてもよい。   The communication unit is connected wirelessly or by wire to a communication device in the vehicle having an Internet connection function. For example, the communication unit can be realized by a Wi-Fi (registered trademark) connection, a Bluetooth (registered trademark) connection, or a USB connection with a mobile phone such as a smartphone or a wireless LAN router having a tethering function. Such a communication device may be incorporated in a navigation device.

まず、タッチ操作による投稿の処理は、以下の通りである。
1.走行中にユーザが取締・検問場所を発見
2.表示画面の投稿場所の設定を指示するボタンをタッチ
3.ボタンをタッチした時の地図上の現在位置を、投稿場所として設定し、該当位置にアイコンを表示
4.駐車中又は停車中に、待機画面の投稿ボタンをタッチ
5.1〜3により設定した複数の投稿場所の一覧が表示
6.投稿したい場所のいずれかをタッチ
7.最終確認のための投稿ボタンをタッチ
8.選択された投稿場所の情報を、投稿場所を収集するサーバへ送信する
9.投稿場所を収集するサーバが、受信した情報を、取締場所として登録
10.投稿場所を収集するサーバが、登録した情報を配信
11.配信された情報を受信して表示
First, the process of posting by a touch operation is as follows.
1. 1. The user finds a place to check and check while traveling. 2. Touch the button that instructs the setting of the posting place on the display screen. 3. The current position on the map when the button is touched is set as the posting location, and an icon is displayed at the corresponding position. 5. Touch the posting button on the standby screen while parked or stopped 5. Display a list of multiple posting locations set by 1-3 6. Touch one of the places you want to post. 7. Touch post button for final confirmation 8. Transmit the information of the selected posting location to the server that collects the posting locations. 9. The server collecting the posting location registers the received information as a regulatory location. 10. The server collecting the posting location distributes the registered information. Receive and display the distributed information

なお、6と7の間に、ターゲットがオービス、Nシステム、取締、検問等のいずれであるかの選択、走行車線、反対車線、右方向、左方向等の対象方向の選択、実施期間の選択等を行うこともできる。   In addition, between 6 and 7, selection of the target is Orvis, N system, control, check, etc., selection of target direction such as driving lane, opposite lane, right direction, left direction, etc., selection of implementation period Etc. can also be performed.

このようなボタン操作による投稿の場合、走行中、投稿場所を発見してから、複数の階層的な手順を経るため、複数のボタン操作が必要となる。   In the case of posting by such a button operation, a plurality of button operations are required since the vehicle goes through a plurality of hierarchical procedures after finding a posting place during traveling.

しかし、本態様では、ユーザの音声入力に応じて投稿ができる。つまり、ユーザが、あらかじめデータベース19に登録された認識ワードを発話すると、制御部18がこれを認識し、通信部に、当該発話時の現在位置を、通信機器を介して、投稿場所としてサーバに送信させる。サーバは、受信した情報を、取締場所として登録し、登録した情報を配信する。通信部は、通信機器を介して、配信された情報を受信し、制御部18は受信した情報に基づいて、取締場所を地図上に表示させる。このため、ボタン操作のような手間がかからず、簡単にすばやく行うことができる。   However, in this embodiment, posting can be performed in response to a user's voice input. That is, when the user utters the recognition word registered in the database 19 in advance, the control unit 18 recognizes the recognition word, and notifies the communication unit of the current position at the time of the utterance to the server as a posting place via the communication device. Send. The server registers the received information as a control place and distributes the registered information. The communication unit receives the distributed information via the communication device, and the control unit 18 displays the enforcement place on a map based on the received information. Therefore, the operation can be easily and quickly performed without the trouble of the button operation.

取締場所としては、上記のように、オービス、Nシステムも含むが、特に、取締・検問エリアのように、実施位置、時間が変化するチェック場所とするとよい。このようにすれば、あらかじめ位置を登録しておくことが困難な取締場所についての情報を、投稿により収集させることができる。   As described above, the control place includes the Orvis and the N system, but it is particularly preferable that the control place is a check place where the execution position and time change, such as a control and check area. By doing so, it is possible to collect, by posting, information on a control place where it is difficult to register a position in advance.

位置情報としては、例えば、現在位置としてもよいし、地図の中心位置座標としてもよい。このようにすれば、確実且つ簡単に得られる情報により取締場所を特定できるとともに、音声認識を利用するので、実際の取締位置とのずれが少なくてよい。   The position information may be, for example, the current position or the coordinates of the center position of the map. In this way, the control place can be specified by the information that can be obtained reliably and easily, and since the voice recognition is used, the deviation from the actual control position may be small.

認識ワードとしては、音声認識を起動させる語句と投稿の受け付けを開始させる語句とが登録されているとよい。このようにすれば、ユーザが、音声認識を起動させる語句と投稿の受け付けを開始させる語句とを発話することにより、音声認識と、投稿の受け付けという多段階の操作を簡単に実行させることができる。   As the recognition word, a phrase that activates speech recognition and a phrase that starts accepting a post may be registered. In this way, the user can easily execute the multi-stage operation of voice recognition and post acceptance by speaking the phrase that activates speech recognition and the phrase that starts accepting posts. .

音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けが開始してしまい、誤認識が生じることを防止できてよい。また、音声認識を起動させる語句と投稿の受け付けを開始させる語句として、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けを一発で開始させることができるので、即座に投稿可能な状態とすることができてよい。   The phrase for activating the speech recognition and the phrase for starting the reception of the post may be registered, for example, as separately separated phrases. In this way, for example, it may be possible to prevent the reception of the post from being started at the same time as the start of the voice recognition, and to prevent the occurrence of erroneous recognition. In addition, as a phrase that activates speech recognition and a phrase that starts accepting a post, for example, the phrase may be set as a series of phrases. In this way, for example, the reception of the post can be started in one shot together with the start of the voice recognition, so that the posting can be immediately made possible.

認識ワードとしては、音声認識を起動させる語句と投稿をさせる語句とが登録されていれば、ユーザが、音声認識を起動させる語句と投稿をさせる語句とを発話することにより、音声認識と、投稿という多段階の操作を簡単に行うことができる。   As a recognition word, if a phrase that activates speech recognition and a phrase that causes posting are registered, the user speaks a phrase that activates speech recognition and a phrase that causes posting, thereby performing voice recognition and posting. Multi-stage operation can be easily performed.

音声認識を起動させる語句と投稿させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿されてしまい、誤って投稿されることを防止できてよい。また、音声認識を開始させる語句と投稿させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿を一発で行わせることができるので、即座に投稿できて、取締場所と投稿場所とのずれを極力少なくすることができてよい。   The phrase for activating the speech recognition and the phrase for posting may be registered, for example, as separately separated phrases. By doing so, for example, it may be possible to prevent a message from being posted at the same time as the start of voice recognition and being posted by mistake. The phrase for starting the speech recognition and the phrase for posting may be set as, for example, a series of phrases. In this way, for example, the posting can be performed in one shot at the start of the speech recognition, so that the posting can be performed immediately, and the gap between the control place and the posting place can be minimized.

なお、投稿のための認識ワードは、他の認識ワードよりも短くてもよい。このようにすれば、例えば、緊急性の高い投稿について、短時間で指示することができてよい。   Note that the recognition word for posting may be shorter than other recognition words. In this way, for example, it is possible to give an instruction in a short time for a highly urgent post.

また、投稿のための認識ワードは、他の認識ワードよりも冗長であってもよい。このようにすれば、例えば、通常の音声認識を利用している場合に、他の認識語句を言う可能性が少なくなり、誤って投稿がされてしまうことを防止できる。冗長であるとは、例えば、文字数が多い、複数に分かれているとするとよい。このようにすれば、例えば、投稿を意図していないユーザが、誤って発話してしまう可能性を低減できる。   Further, the recognition word for posting may be more redundant than other recognition words. In this way, for example, when normal speech recognition is used, the possibility of saying another recognized phrase is reduced, and it is possible to prevent erroneous posting. The word "redundant" means that, for example, the number of characters is large and the number of characters is divided. In this way, for example, it is possible to reduce the possibility that a user who does not intend to post will erroneously speak.

また、投稿のための認識ワードは、ユーザが普段言う可能性の低い語句であってもよい。このようにすれば、例えば、ユーザが車内で普段、頻繁に使用する語句によって頻繁に誤認識が生じることを防ぎ、ユーザが意図しない投稿を防止できる。   In addition, the recognition word for posting may be a phrase that is unlikely to be usually said by the user. In this way, for example, it is possible to prevent erroneous recognition from occurring frequently due to words frequently used in the vehicle by the user, and to prevent posting unintended by the user.

投稿のための認識ワードを認識した場合、制御部18が、これに応じて、あらかじめ登録されたキャラクターの音声を出力することにより、上記の実施形態のような対話機能を実現させてもよい。この場合、投稿のための対話におけるキャラクターの音声は、他の対話における音声よりも短くしてもよい。このようにすれば、例えば、対話の時間を短くして、素早く投稿させることができるのでよい。   When the recognition word for posting is recognized, the control unit 18 may output the voice of the character registered in advance in response to the recognition word, thereby realizing the interactive function as in the above embodiment. In this case, the voice of the character in the conversation for posting may be shorter than the voice in other conversations. By doing so, for example, the posting time can be quickly reduced by shortening the conversation time.

《応答フレーズのバリエーション》
データベース19にあらかじめ登録するキャラクターの応答フレーズは、以下のように種々の態様とすることができる。
検索された施設の選択を促すキャラクターの音声を、表示されたアイコンに合わせた内容で出力する場合、番号であれば何番がよいかを問い合わせる音声で、アルファベットであればアルファベットの何がよいかを問い合わせる音声で、形状であれば形状が何かを問い合わせる音声で、色であれば色が何かを問い合わせる音声にするとよい。このようにすれば、ユーザは、例えば、何を発話して施設を選択すればよいかが、簡単にわかるのでよい。
《Response phrase variation》
The response phrase of the character registered in advance in the database 19 can be in various modes as follows.
When the voice of the character prompting the selection of the searched facility is output with the content according to the displayed icon, it is a voice asking what number is better if it is a number, and what is the alphabet if it is an alphabet In the case of a shape, it may be a sound for inquiring what the shape is, and in the case of a color, it may be a sound for inquiring what the color is. In this way, the user can easily understand, for example, what to utter and select the facility.

また、例えば、表示されているアイコンに合わせた内容として、選択される候補の範囲を示す音声とするとよい。これにより、例えば、何番から何番というように音声を出力すれば、ユーザは、発話すべき内容とともに、選択すべき範囲も把握することができるのでよい。   In addition, for example, the content corresponding to the displayed icon may be sound indicating the range of the selected candidate. Thus, for example, if the voice is output from what number to what number, the user can grasp not only the content to be uttered but also the range to be selected.

あらかじめ登録されたキャラクターの音声として、キャラクターの状況を示す内容の音声を挿入してもよい。このようにすれば、ユーザは、キャラクターの状況を聞くことができるので、例えば、キャラクターがネガティブな状況にあれば、ユーザにキャラクターを気遣う気持ちを起こさせることができ、キャラクターがポジティブな状況にあれば、ユーザにキャラクターに共感する気持ちを起こさせることができるのでよい。   As the voice of the character registered in advance, a voice indicating the status of the character may be inserted. In this way, the user can hear the character's situation.For example, if the character is in a negative situation, the user can be made to take care of the character, and if the character is in a positive situation, This can make the user feel the sympathy of the character.

キャラクターの状況を示す発言としては、例えば、「わたし忙しいんだけど」というように、自らがポジティブな状態にあるかネガティブな状態にあるかがわかる発言とするとよい。このようにすれば、ユーザの指示にシステムが無条件に従うのではなく、ユーザに気遣いの気持ちや、共感の気持ちを生じさせることができるので、実際の人間を相手にした会話のような感覚が得られるのでよい。   The statement indicating the status of the character may be, for example, a statement that indicates whether the user is in a positive state or a negative state, such as "I am busy." In this way, the system does not unconditionally follow the user's instructions, but can give the user a feeling of concern and empathy. It is good because it can be obtained.

リストは複数設定され、応答フレーズにおける同一のリスト内であっても他のフレーズとは異質なフレーズが登録されているリストがあってもよい。このようにすれば、例えば、ユーザの同様の内容の発言に対する返答として、異質なフレーズが出力されることにより、ユーザに予想外の印象を与えることができ、キャラクターに対する印象を変化させて、飽きが来ることを防止できるのでよい。異質なフレーズとしては、例えば、図9(a)のレイ応答フレーズ3に示すように、「何か指示して。」、「どうすればい〜い?」、「どうする?」、「どう変えるの?」という積極的な問いかけのフレーズの中に、「好きにして。」というように、曖昧なフレーズを挿入するとよい。また、図9(b)のレイ応答フレーズ24に示すように、「再検索」、「検索し直しね」、「も1回ね」、「やり直しま〜す」というやり直しを示すフレーズの中に、「色々と私を試してるでしょ?」というように、ユーザの心理を読むようなフレーズを挿入するとよい。   A plurality of lists may be set, and there may be a list in which phrases different from other phrases are registered even in the same list of response phrases. By doing so, for example, a foreign phrase is output as a response to the user's utterance having the same content, so that an unexpected impression can be given to the user. Can be prevented from coming. As a different phrase, for example, as shown in a ray response phrase 3 in FIG. 9A, “instruct something.”, “What to do?”, “What to do”, “how to change? It is advisable to insert an ambiguous phrase such as "Let's like." Also, as shown in the ray response phrase 24 in FIG. 9B, the phrases “re-search”, “re-search”, “one time”, and “re-do” are included in the phrase. You can insert a phrase that reads the psychology of the user, such as "You're trying me a lot?"

音声認識を間違えた場合に、出力されるフレーズが登録されていてもよい。このようにすれば、例えば、認識を間違えた場合であっても、何等かのフレーズを返すことより、キャラクターとの対話が継続していることを、ユーザに認識させることができるのでよい。   A phrase to be output when speech recognition is incorrect may be registered. In this way, for example, even if the recognition is mistaken, the user can recognize that the conversation with the character is continuing by returning some phrase.

音声認識に誤りがあった場合に備えた逃げ口上となるフレーズが登録されているとよい。このようにすれば、例えば、音声認識に誤りが生じる可能性はあるが、たとえ誤りが生じたとしても、キャラクターの逃げ口上によって、ユーザの苛立ちや怒りを和らげることができるのでよい。   It is preferable that a phrase to be used as an escape route in case an error occurs in voice recognition is registered. In this way, for example, there is a possibility that an error occurs in voice recognition, but even if an error occurs, the user's frustration and anger can be alleviated by the escape of the character.

逃げ口上としては、例えば、図8(a)のレイ応答フレーズ1に示す「音声認識頑張ります。100%認識できないかもしれないけれど」のように、正確に認識しようとする意欲を示す表現とともに、完全な達成は困難であることを示す表現とするとよい。このようにすれば、例えば、単に、認識ができないことを示すよりも、誤認識に対して、ユーザに許容する心理を生じさせることができるとよい。   As the escape mouth, for example, as shown in the ray response phrase 1 of FIG. 8A, "I will do my best for speech recognition. I may not be able to recognize 100%." It is good to use an expression that indicates that achievement is difficult. By doing so, for example, it is preferable that a psychological level that can be accepted by the user with respect to erroneous recognition can be generated, rather than simply indicating that recognition is not possible.

ユーザが返答を望む内容とキャラクターの音声の出力の内容とが相違していることを指摘するユーザの音声の入力があった場合に、それに対するキャラクターからの返答のフレーズが登録されているとよい。このようにすれば、例えば、ユーザが、キャラクターの間違えを指摘すると、キャラクターからこれに対する返答があるので、誤解があった場合の人と人との自然なやり取りを楽しむことができるのでよい。   When there is a user's voice input indicating that the content that the user desires to reply and the content of the character's voice output are different, it is preferable that a response phrase from the character is registered in response to the user's voice input. . In this way, for example, when the user points out a mistake in the character, the character responds to the mistake, so that when the misunderstanding is misunderstood, it is possible to enjoy the natural exchange between the people.

宣伝広告となるフレーズが登録されていてるとよい。このようにすれば、例えば、提携している施設にユーザを誘導することができるのでよい。例えば、「○○ショップはどう?」というように、特定の施設に誘うフレーズとするとよい。   It is good that a phrase to be used as a promotion advertisement is registered. In this way, for example, the user can be guided to the affiliated facility. For example, the phrase may be an invitation to a specific facility, such as "How about a XX shop?"

ユーザが行き先とする施設で行うことの原因についてのフレーズが登録されているとよい。このようにすれば、ある施設に行くことになった原因について発話することにより、当該施設に向かうユーザが耳を傾けやすくなる。例えば、その行き先に行く原因がユーザにとって好ましくない場合にも、ユーザにとって好ましい場合にも、ユーザの注意を引くことができる。   It is preferable that a phrase about the cause of the user performing at the destination facility be registered. In this way, the user who goes to the facility can easily listen to the cause by speaking about the cause of the decision to go to the facility. For example, the user's attention can be drawn whether the cause of the destination is unfavorable to the user or to the user.

行き先へ行く原因がユーザにとって好ましいものでない施設としては、例えば、「病院」、「歯医者」、「薬局」のように、ユーザの病気に関係している施設とするとよい。行き先へ行く原因がユーザにとって好ましい施設としては、例えば、「デパート」「寿司」「うなぎ」のように、日常良く行く施設よりも、ややハードルが高い施設とするとよい。   The facility that causes the destination to be unfavorable to the user may be, for example, a facility related to the user's illness, such as “hospital”, “dentist”, or “pharmacy”. As a facility that is preferable to the user for the cause of going to the destination, for example, a facility such as “department store”, “sushi”, and “eel” which has a slightly higher hurdle than a facility that is frequently visited may be used.

キャラクターがユーザに対して種々の感情を起こさせるフレーズとしては、例えば、図9(c)の応答フレーズ6−8に示すように、「病院? どこか具合が悪いの? 大丈夫?」、「あまり無理しないでね。」のようにユーザの状態を思いやることによりキャラクターに愛着を感じさせるフレーズとするとよい。また、例えば、図9(d)の応答フレーズ6−29に示すように、「ちゃんと歯磨きしてる?」のようにユーザに後悔の念を起こさせるフレーズとするとよい。   As a phrase that causes the character to cause various emotions to the user, for example, as shown in a response phrase 6-8 in FIG. 9C, “hospital? Do not overdo it. " Also, for example, as shown in a response phrase 6-29 in FIG. 9D, a phrase that causes the user to regret, such as "Do you brush your teeth properly?"

ユーザが行き先とする施設で行うことについての肯定的又は否定的なアドバイスとなるフレーズが登録されているとよい。このようにすれば、例えば、キャラクターのアドバイスにより、ユーザが行き先ですべきことや、すべきでないことを判断できるのでよい。肯定的なアドバイスとしては、例えば、図9(d)の応答フレーズ6−29に示すように、「たまには歯垢をとってもらった方がいいよ。」のように何かを勧めるフレーズとするとよい。また、否定的なアドバイスとしては、例えば、図9(e)の応答フレーズ6−23に示すように、「苦しそうな顔しちゃダメ。涼しい顔して我慢するのが男なの。」のように何かを禁止するフレーズとするとよい。   It is preferable that a phrase serving as a positive or a negative advice on what to do at the facility where the user is to go is registered. In this way, for example, the user can determine what to do or not to do at the destination based on the advice of the character. As a positive advice, for example, as shown in a response phrase 6-29 in FIG. 9D, a phrase that recommends something, such as "It is better to have plaque occasionally." Good. In addition, as negative advice, for example, as shown in the response phrase 6-23 in FIG. 9E, "the face should not be painful. It is a man who can endure with a cool face." Should be a phrase that prohibits something.

ユーザが行き先とする施設で行うことについてのキャラクターの一方的な感想となるフレーズが登録されているとよい。このようにすれば、例えば、キャラクターの感想が得られるので、ユーザは、行き先での行動についての参考とすることができてよい。   It is preferable that a phrase that is a one-sided impression of the character about what the user does at the destination facility be registered. In this way, for example, the impression of the character can be obtained, so that the user can refer to the action at the destination.

キャラクターの一方的な感想としては、例えば、図9(f)の応答フレーズ6−14に示すように「お口の中でとろけるような黒ブタチャーシュー。ステキ〜。」のように、肯定的な感想とするとよい。このようにすれば、ユーザが、同様の行動を施設でとりたくなるのでよい。また、例えば、「一人でレストランに行くの?寂しくない?・・ほっとけって?」のように否定的な感想とするとよい。このようにすれば、ユーザに行き先を変える気を起こさせるのでよい。さらに、例えば、図9(g)の応答フレーズ6−21に示すように、「ショッピングモールって見て回るだけで楽しそう。でも疲れそう。」のように、肯定的な感想と否定的な感想が混じっていてもよい。このようにすれば、行き先での状況について、ユーザにあらかじめ覚悟させることができるのでよい。   As the one-sided impression of the character, for example, as shown in the response phrase 6-14 in FIG. 9 (f), a positive affirmation such as “black pig char siu that melts in your mouth. It should be an impression. In this way, the user may want to take a similar action at the facility. In addition, for example, a negative impression such as “Do you go to a restaurant alone? Do you feel lonely? In this way, the user is encouraged to change the destination. Further, for example, as shown in a response phrase 6-21 in FIG. 9G, a positive impression and a negative impression such as “It seems to be fun just to look around the shopping mall. Impressions may be mixed. In this way, the user can be prepared for the situation at the destination in advance.

キャラクターが、現実に存在することを思わせるフレーズが登録されていてもよい。このようにすれば、例えば、ユーザは、キャラクターが実際に存在するような感覚が得られるのでよい。   A phrase that suggests that the character actually exists may be registered. In this way, for example, the user may have a feeling that the character actually exists.

現実に存在することを思わせるフレーズとしては、例えば、図9(h)の応答フレーズ6−24に示すように、「出張にも私を連れて行ってくれるなんて、うれしいです〜。」、図9(i)の応答フレーズ6−25に示すように、「私達、どこに泊まる?」のように、同行していることを思わせるフレーズとするとよい。このようにすれば、例えば、ユーザは、キャラクターといつも一緒にいる感覚が得られるのでよい。   As a phrase reminiscent of existence in reality, for example, as shown in a response phrase 6-24 in FIG. 9 (h), "I am glad to take me on a business trip." As shown in the response phrase 6-25 of 9 (i), the phrase may be a phrase reminiscent of being accompanied, such as "Where are we staying?" In this way, for example, the user may have a feeling of being always with the character.

あらかじめ認識語句として設定された語句以外の音声が入力された場合に、キャラクターが出力する音声データが登録されているとよい。このようにすれば、例えば、認識語句以外であっても、必ずキャラクターの反応があるため、対話が途切れたり、エラーとして報知する等によりシステムとのやり取りであることをユーザに想起させてしまうことがなく、キャラクターと対話を継続している感覚を維持できるのでよい。設定された語句以外の音声が入力された場合のフレーズとしては、図9(j)のレイ応答フレーズ50に示すような認識不可のフレーズとすることが考えられる。なお、応答フレーズは、複数の中からランダムに出力される態様には限定されない。複数の中から出力される順序が決まっていて、その順番で順次出力され、最後の順位の応答フレーズが出力されたら、最初の順位の応答フレーズに戻って出力するようにすれば、繰り返し同じ応答フレーズが出力されることを防止できる。さらに、認識語句毎に、対応する応答フレーズが、一対一に決まっていてもよい。このようにすれば、情報の記憶量を節約できるのでよい。このような場合でも、上記で示したような内容の応答フレーズが設定されていれば、同様の効果が得られる。   It is preferable that voice data output by the character is registered when a voice other than a phrase set in advance as a recognized phrase is input. In this way, for example, even if it is other than a recognized phrase, there is always a reaction of the character, so that the dialogue is interrupted or an error is reported to the user, so that the user is reminded of the exchange with the system. It is good because you can maintain the feeling of continuing the dialogue with the character. As a phrase when a voice other than the set phrase is input, a phrase that cannot be recognized, such as a ray response phrase 50 in FIG. 9J, can be considered. Note that the response phrase is not limited to a mode in which the response phrase is randomly output from a plurality. The order of output is determined from among multiple items, and they are output sequentially in that order. When the last response phrase is output, return to the first response phrase and output it. It is possible to prevent the phrase from being output. Furthermore, the corresponding response phrase may be determined for each recognition phrase on a one-to-one basis. By doing so, the storage amount of information can be saved. Even in such a case, the same effect can be obtained if the response phrase having the content described above is set.

《音声出力と音声認識のタイミング》
音声出力と音声認識のタイミングは、以下のように種々の設定が可能である。
制御部18は、キャラクターの音声が出力されている間は、音声を出力し終えるまで、音声認識を停止してもよい。このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識により他の処理が実行されてしまうことを防止できてよい。他の処理としては、例えば、音量、輝度、スケール、周辺検索のように、緊急性の低い処理とするとよい。このようにすれば、必ずしも直ちに実行しなくてもよいものまで、音声認識により実行されてしまうことがなくてよい。
《Timing of voice output and voice recognition》
Various settings can be made for the timing of voice output and voice recognition as follows.
The control unit 18 may stop the voice recognition while the voice of the character is being output until the voice is completely output. In this way, for example, when a voice is input from the user in the middle of the voice of the character, another process may be prevented from being executed by voice recognition. Other processing may be low urgent processing, such as volume, brightness, scale, and peripheral search. In this way, it is not necessary to execute by voice recognition even if it does not necessarily have to be executed immediately.

制御部18は、キャラクターの音声が出力されている間も、音声認識を受け付けてもよい。このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識より他の処理が中断されないのでよい。他の処理としては、例えば、取締場所に関する位置情報を情報収集サーバに送信する処理のように、緊急性の高い処理とするとよい。このようにすれば、ユーザが直ちに実行して欲しい処理が、中断されることがなくてよい。   The control unit 18 may receive voice recognition while the voice of the character is being output. With this configuration, for example, when a voice is input from the user in the middle of the voice of the character, other processes than the voice recognition need not be interrupted. As another process, for example, a process with a high degree of urgency, such as a process of transmitting position information on a control place to an information collection server, may be used. In this way, the processing that the user wants to execute immediately does not have to be interrupted.

制御部18は、キャラクターの音声が出力されている間に、ユーザからの音声の入力があった場合に、キャラクターの音声の出力を停止してもよい。このようにすれば、例えば、ユーザの音声によって、キャラクターの発言を遮ったような印象を与えることができる。停止したキャラクターの音声の出力は、例えば、あらためて出力しなければ、同じ発話が始めから繰り返されて不自然な印象を与えることがなくてよい。また、停止したキャラクターの音声の出力を、例えば、止めたところから開始すれば、ユーザの発言の間、キャラクターが待ってくれていた印象を与えることができてよい。   The control unit 18 may stop outputting the voice of the character when a voice is input from the user while the voice of the character is being output. In this way, for example, the voice of the user can give an impression that the remark of the character is interrupted. If the output of the voice of the stopped character is not output again, for example, the same utterance does not have to be repeated from the beginning to give an unnatural impression. If the output of the sound of the stopped character is started, for example, from the point where the sound is stopped, it may be possible to give the impression that the character has been waiting during the speech of the user.

制御部18は、キャラクターの音声が出力されている間に、所定の入力操作がなされた場合に、キャラクターの音声を停止してもよい。このようにすれば、例えば、キャラクターとの対話を第三者に聞かれたくないときに、所定の入力操作によって、キャラクターの音声を停止させることができてよい。所定の入力操作としては、例えば、物理キーの操作とするとよい。このようにすれば、常時、固定的に存在する箇所を操作すればよいので、とっさの操作がしやすい。   The control unit 18 may stop the sound of the character when a predetermined input operation is performed while the sound of the character is being output. In this way, the voice of the character may be stopped by a predetermined input operation, for example, when the third party does not want to hear the conversation with the character. The predetermined input operation may be, for example, an operation of a physical key. With this configuration, it is sufficient to always operate a fixedly existing portion, so that a quick operation can be easily performed.

《音声認識起動のタイミング》
音声認識起動のタイミングは、以下のように、種々の態様が可能である。
制御部18は、対話に応じて、ユーザが知りたい情報を出力するための所定の処理を、所定の認識ワードに対応するユーザからの音声の入力により開始するとよい。このようにすれば、例えば、所定の処理をユーザからの音声の入力があって開始するため、システムが勝手に開始して処理が実行されてしまうことがなくてよい。
《Timing of voice recognition activation》
As for the timing of voice recognition activation, various modes are possible as follows.
The control unit 18 may start a predetermined process for outputting information desired by the user in response to the dialogue by inputting a voice from the user corresponding to the predetermined recognition word. With this configuration, for example, since the predetermined process is started when a voice is input from the user, the system does not need to be started and the process is not executed.

制御部18は、対話に応じて、ユーザが知りたい情報を出力するための所定の処理を、所定のキャラクターの音声の出力に対し、所定の認識語句に対応するユーザからの音声の入力があって開始してもよい。このようにすれば、例えば、キャラクターの音声の出力が、ユーザが所定の処理を開始するか否かを判断する契機となるので、システムを利用する機会を増やすことができるのでよい。   The control unit 18 performs a predetermined process for outputting information that the user wants to know in response to the dialogue, and outputs a voice of a predetermined character in response to a voice input from the user corresponding to a predetermined recognition phrase. May start. With this configuration, for example, the output of the voice of the character triggers the user to determine whether or not to start the predetermined process, so that the opportunity to use the system can be increased.

キャラクターの音声の出力は、例えば、特定の処理の開始の有無を問い合わせるものとするとよい。このようにすれば、例えば、ユーザが、処理の利用を促されるのでよい。キャラクターの音声の出力のタイミングは、例えば、定期的とすれば、処理を利用させる頻度を高めるのでよい。また、タイミングを所定の条件を満たした場合とすれば、処理の利用に適したタイミングで、ユーザに利用を促すことができるのでよい。   The output of the voice of the character may be, for example, an inquiry as to whether or not a specific process has started. By doing so, for example, the user may be prompted to use the processing. If the timing of outputting the voice of the character is, for example, regular, the frequency of using the process may be increased. Further, if the timing satisfies a predetermined condition, the user can be encouraged to use the process at a timing suitable for using the process.

《その他》
周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させる態様としては、施設の位置が明確となる表示とするとよい。例えば、アイコンと地図の明度、彩度、色相の少なくとも一つを変えれば、両者の対比が際立つのでよい。
《Other》
As a mode in which the icons indicating the surrounding facilities are relatively highlighted as compared with the map, it is preferable that the icons indicate the positions of the facilities. For example, if at least one of the brightness, the saturation, and the hue of the icon and the map is changed, the contrast between the two may be noticeable.

周辺の施設を示すアイコンに、所定の基準に従った順位が区別できる表示をする場合、所定の基準としては、例えば、ユーザにとっての重要度が高い順としてもよい。このようにすれば、ユーザが最も知りたい施設が優先的に表示されるのでよい。ユーザにとっての重要度とは、例えば、過去に行ったことがある、過去に行った頻度が高い、ユーザの好みに合う等とするとよい。このようにすれば、ユーザが行きたい施設を素早く知ることができるのでよい。また、例えば、過去に行ったけれども、二度と行きたくないなど、ユーザにとっての重要度が低いものが除外されるようにしてもよい。このようにすれば、例えば、ユーザが行く可能性があるもののみを表示させることができてよい。   When an icon indicating the surrounding facility is displayed so that the order according to a predetermined criterion can be distinguished, the predetermined criterion may be, for example, the order of importance to the user. In this way, the facility that the user wants to know most may be preferentially displayed. The importance for the user may be, for example, that the user has performed in the past, that the user has performed frequently in the past, or that the user's preference is met. In this way, the user can quickly know the facility he wants to go to. In addition, for example, those that have been performed in the past but do not want to go again and may be excluded from the importance of the user may be excluded. In this way, for example, only items that the user may go to may be displayed.

順位が区別できる表示としては、例えば、◎、○、△、×等の形状や、明度、彩度、色相により段階的に変化をつける等、視覚的に順位を示す情報としてもよい。このようにすれば、例えば、順位を視覚により直感的に把握できるのでよい。   The display in which the order can be distinguished may be information that visually indicates the order, for example, a shape such as ◎, △, Δ, or ×, or a stepwise change depending on brightness, saturation, or hue. In this way, for example, the order can be visually and intuitively grasped.

表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識する場合、例えば、アルファベットであれば所望の施設のアイコンのアルファベット、形状であれば所望の施設のアイコンの形状、色であれば所望の施設のアイコンの色としてもよい。このようにしても、施設名よりも覚えやすい言葉で、施設を選択することができるのでよい。   When recognizing the voice of the user selecting one of the facilities with the content corresponding to the displayed icon, for example, the alphabet is the alphabet of the desired facility icon, and the shape is the desired facility icon shape , The color of the icon of the desired facility may be used. Even in this case, the facility can be selected with a word that is easier to remember than the facility name.

ボタン表示された項目の表示領域において、背後の画像が見える部分としては、例えば、透過する部分としてもよい。このようにすれば、例えば、項目表示の視認性を確保したまま、背景の画像も、より良く見ることができるのでよい。   In the display area of the item displayed by the button, the portion where the image behind can be seen may be, for example, a transparent portion. By doing so, for example, the background image can be seen better while ensuring the visibility of the item display.

ユーザの音声を認識するためにあらかじめ登録される認識ワードが、表示画面に表示されているものと、表示画面に表示されていないものとがあってもよい。このようにすれば、例えば、ユーザが、表示画面に表示されていない語句を発話した場合であっても、あらかじめ設定された認識語句であれば、キャラクターからの何らかの反応を得ることができるので、ユーザにとってサプライズとなり、ユーザに発見の喜びを与えることができる。   Some recognition words registered in advance for recognizing the user's voice may be displayed on the display screen, and some may not be displayed on the display screen. In this way, for example, even if the user utters a word that is not displayed on the display screen, if the recognition word is a preset recognition word, a certain reaction from the character can be obtained. It can be a surprise for the user and give the user the joy of discovery.

認識ワードとしての量的に変化する機能に対応する指示語と、量的レベルを示す数字としては、例えば、「おんりょうさん」、「きどに」、「すけーるにきろ」のように、名称と量的レベルとを1つの認識語句にまとめてもよい。このようにすれば、発話が一回で済むのでよい。   Descriptive words corresponding to the functions that change quantitatively as recognition words and numbers indicating the quantitative level include, for example, "Onryo-san", "Kidoni", "Skeel Nikuro", The name and the quantitative level may be combined into one recognition phrase. In this way, the utterance only needs to be performed once.

機能に対応する指示語が表示されるボタンは、別の表示画面に遷移せずに機能を実行させるボタンがあってもよい。このようにすれば、例えば、機能を実行させるために別の表示画面に遷移しなくても、対話により機能を実行させることができるので、現在の画面表示が邪魔されることがなくてよい。   The button for displaying the instruction word corresponding to the function may include a button for executing the function without transiting to another display screen. With this configuration, for example, the function can be executed through the dialogue without transiting to another display screen to execute the function, so that the current screen display does not need to be disturbed.

本実施形態では、ナビゲーション装置の例で説明したが、各種の電子機器の機能として実施することができる。たとえば、レーダー探知機、ドライブレコーダ、カーオーディオの機能として組み込んでもよい。また本実施形態で記載した量的レベルの値、表示部5の画面サイズ、各種の時間設定など、本発明の効果を奏する範囲で任意のものとすることができる。また、制御部18には、各機能や警報の優先順位をリモコン17等からのユーザからの指示に基づいて設定する機能を設け、この設定された優先順位で制御部18が処理を行うように構成してもよい。   In the present embodiment, an example of the navigation device has been described, but the present invention can be implemented as a function of various electronic devices. For example, it may be incorporated as a function of a radar detector, a drive recorder, and a car audio. In addition, the value of the quantitative level, the screen size of the display unit 5, various time settings, and the like described in the present embodiment can be arbitrarily set as long as the effects of the present invention are achieved. The control unit 18 has a function of setting the priority of each function or alarm based on an instruction from the user from the remote controller 17 or the like, so that the control unit 18 performs processing with the set priority. You may comprise.

さらに、上述した実施形態では、装置内に各種の情報を記憶したデータベース19を備え、制御部18は係るデータベース19にアクセスして必要な情報を読み出し、各種の処理をしたが、本発明はこれに限ることはない。例えば、データベース19に登録する情報の一部または全部をサーバに登録しておく。そして、ナビゲーション装置、レーダー探知機その他の電子機器・装置は、係るサーバと通信する機能を備え、制御部18は、適宜サーバにアクセスし、必要な情報を取得して処理を実行するシステムとしてもよい。さらには、制御部18の機能の少なくとも一部をサーバにおき、当該機能をサーバで実行し、ユーザが持つ電子機器は、その実行結果を取得するようなシステムとしても良い。   Further, in the above-described embodiment, the apparatus is provided with the database 19 storing various kinds of information, and the control unit 18 accesses the database 19 to read out necessary information and performs various kinds of processing. It is not limited to. For example, part or all of the information registered in the database 19 is registered in the server. The navigation device, the radar detector, and other electronic devices / devices have a function of communicating with the server, and the control unit 18 may appropriately access the server, acquire necessary information, and execute processing. Good. Further, at least a part of the functions of the control unit 18 may be set in a server, the functions may be executed by the server, and the electronic device owned by the user may be configured to obtain the execution result.

上述した実施形態の制御システムとしての機能は制御部18に備えるコンピュータに実現させるためのプログラムとして構成されているが、これに限らずプログラムは複数のコンピュータに分散配置し、分散処理するようにしてもよい。   The function as the control system of the above-described embodiment is configured as a program to be realized by a computer provided in the control unit 18. However, the present invention is not limited to this, and the program is distributed to a plurality of computers and distributed processing is performed. Is also good.

2 装置本体
3 クレードル
4 ケース本体
5 表示部
6 クレードル本体
7 台座部
8 タッチパネル
10 警報ランプ
11 マイクロ波受信機
12 GPS受信機
13 無線受信機
18 制御部
19 データベース
20 スピーカ
21 SDメモリカード用スロット
22 SDメモリカード
51 現在位置
52 目的地
53 ルート

2 device main body 3 cradle 4 case main body 5 display section 6 cradle main body 7 pedestal section 8 touch panel 10 alarm lamp 11 microwave receiver 12 GPS receiver 13 wireless receiver 18 control section 19 database 20 speaker 21 SD memory card slot 22 SD Memory card 51 Current location 52 Destination 53 Route

Claims (4)

ユーザの音声を認識した結果に基づいてキャラクターの音声を出力することにより対話を実現するシステムであって、
出力された前記キャラクターの音声の内容が、ユーザが返答を望む内容と相違している場合に、所定のフレーズを含むキャラクターの音声を出力する機能
を有するシステム。
A system that realizes a dialogue by outputting a voice of a character based on a result of recognizing a user's voice,
A system having a function of outputting a voice of a character including a predetermined phrase when the content of the output voice of the character is different from the content that the user desires to reply.
前記機能は、出力された前記キャラクターの音声の内容が、ユーザが返答を望む内容と相違していることを指摘するユーザの音声が認識された場合に、前記所定のフレーズを含むキャラクターの音声を出力する
請求項1に記載のシステム。
The function is to output the voice of the character including the predetermined phrase when the output of the voice of the character is recognized, which indicates that the content of the voice of the character is different from the content desired by the user. The system of claim 1.
前記所定のフレーズは、音声認識に誤りがあった場合に備えた逃げ口上となるフレーズを含む請求項1または2に記載のシステム。   3. The system according to claim 1, wherein the predetermined phrase includes a phrase that serves as an escape hole in case of an error in speech recognition. 4. 請求項1から3のいずれか1項のシステムの機能を、コンピュータに実現させるためのプログラム。

A program for causing a computer to realize the functions of the system according to claim 1.

JP2019172412A 2019-09-24 2019-09-24 System and program Pending JP2020008876A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019172412A JP2020008876A (en) 2019-09-24 2019-09-24 System and program
JP2021202205A JP2022027882A (en) 2019-09-24 2021-12-14 System and program
JP2023143393A JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019172412A JP2020008876A (en) 2019-09-24 2019-09-24 System and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018043726A Division JP6601643B2 (en) 2018-03-12 2018-03-12 System and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021202205A Division JP2022027882A (en) 2019-09-24 2021-12-14 System and program

Publications (1)

Publication Number Publication Date
JP2020008876A true JP2020008876A (en) 2020-01-16

Family

ID=69151730

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019172412A Pending JP2020008876A (en) 2019-09-24 2019-09-24 System and program
JP2021202205A Pending JP2022027882A (en) 2019-09-24 2021-12-14 System and program
JP2023143393A Pending JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021202205A Pending JP2022027882A (en) 2019-09-24 2021-12-14 System and program
JP2023143393A Pending JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Country Status (1)

Country Link
JP (3) JP2020008876A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05323993A (en) * 1992-03-16 1993-12-07 Toshiba Corp Speech interactive system
JP2000213945A (en) * 1999-01-22 2000-08-04 Kenwood Corp Navigation system with interactive function
JP2003169147A (en) * 2001-11-30 2003-06-13 Buzzhits Kk Client response system and method
JP2006154926A (en) * 2004-11-25 2006-06-15 Denso Corp Electronic equipment operation system using character display and electronic apparatuses
JP2008003517A (en) * 2006-06-26 2008-01-10 Nec System Technologies Ltd Speech interaction system, speech interaction method, and program
JP2015052945A (en) * 2013-09-06 2015-03-19 株式会社ユピテル System and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067045A (en) * 1998-08-20 2000-03-03 Victor Co Of Japan Ltd Text converting device and computer readable recording medium stored with text conversion program
JP4320880B2 (en) * 1999-12-08 2009-08-26 株式会社デンソー Voice recognition device and in-vehicle navigation system
KR20010113919A (en) * 2000-03-09 2001-12-28 요트.게.아. 롤페즈 Method of interacting with a consumer electronics system
JP2003219038A (en) * 2001-10-22 2003-07-31 Ntt Comware Corp Call center system apparatus and call method in interlocking with customer information
JP2011209786A (en) * 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05323993A (en) * 1992-03-16 1993-12-07 Toshiba Corp Speech interactive system
JP2000213945A (en) * 1999-01-22 2000-08-04 Kenwood Corp Navigation system with interactive function
JP2003169147A (en) * 2001-11-30 2003-06-13 Buzzhits Kk Client response system and method
JP2006154926A (en) * 2004-11-25 2006-06-15 Denso Corp Electronic equipment operation system using character display and electronic apparatuses
JP2008003517A (en) * 2006-06-26 2008-01-10 Nec System Technologies Ltd Speech interaction system, speech interaction method, and program
JP2015052945A (en) * 2013-09-06 2015-03-19 株式会社ユピテル System and program

Also Published As

Publication number Publication date
JP2023158056A (en) 2023-10-26
JP2022027882A (en) 2022-02-14

Similar Documents

Publication Publication Date Title
JP6312053B2 (en) System and program
RU2706462C2 (en) Easier interaction between users and their environment using headset having input mechanisms
KR101829855B1 (en) Voice actions on computing devices
CN108337380A (en) Adjust automatically user interface is for hands-free interaction
US20140267035A1 (en) Multimodal User Interface Design
US20140365068A1 (en) Personalized Voice User Interface System and Method
CN105379234A (en) Application gateway for providing different user interfaces for limited distraction and non-limited distraction contexts
KR20160003138A (en) Automatically adapting user interfaces for hands-free interaction
JP2024028844A (en) System and program
JP6725933B2 (en) System and program
JP4259054B2 (en) In-vehicle device
JP6601643B2 (en) System and program
JP6661859B2 (en) System and program
JP6807611B2 (en) Systems and programs
JP7199104B2 (en) System and program
JP2020008876A (en) System and program
JP2023116595A (en) System and program
JP2018141742A (en) Navigation device, navigation method, and navigation program
JP6291643B2 (en) System and program
JP4258607B2 (en) In-vehicle device
JP2005190192A (en) Onboard system
JP4356450B2 (en) In-vehicle device
JP2004050975A (en) In-vehicle device, data preparation device, and data preparation program
JP2004061252A (en) On-vehicle device, data generation device and data generation program
JP5446540B2 (en) Information retrieval apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210914