JP2023158056A - System and program - Google Patents

System and program Download PDF

Info

Publication number
JP2023158056A
JP2023158056A JP2023143393A JP2023143393A JP2023158056A JP 2023158056 A JP2023158056 A JP 2023158056A JP 2023143393 A JP2023143393 A JP 2023143393A JP 2023143393 A JP2023143393 A JP 2023143393A JP 2023158056 A JP2023158056 A JP 2023158056A
Authority
JP
Japan
Prior art keywords
user
voice
character
recognition
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023143393A
Other languages
Japanese (ja)
Inventor
圭三 高橋
Keizo Takahashi
裕一 梶田
Yuichi Kajita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yupiteru Corp
Original Assignee
Yupiteru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yupiteru Corp filed Critical Yupiteru Corp
Priority to JP2023143393A priority Critical patent/JP2023158056A/en
Publication of JP2023158056A publication Critical patent/JP2023158056A/en
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)

Abstract

To provide a system and a program enabling a user to obtain fun in operation and driving, and providing him/her with an incentive to utilize a function positively without becoming bored.SOLUTION: A function required for a user is executed in accordance with a dialog between recognition information based on a result obtained by recognizing a voice of the user who is a passenger of a vehicle and an output of a voice of a prescribed character 100 indicating that the user's voice has been recognized. A voice uttered by the user is used as information recognized as a word phrase for establishing the dialog with the character 100, as the recognition information based on the result obtained by recognizing the voice of the user.SELECTED DRAWING: Figure 10

Description

本発明は、車両の搭乗者の音声を認識して、所定の処理を実行するシステム及びプログラムに関する。 The present invention relates to a system and a program that recognize the voice of a vehicle occupant and execute predetermined processing.

現在、ナビゲーション装置やレーダー探知機などの機能を備えた車載用電子機器が、広く普及している。このような車載用電子機器は、車両が走行中に、車両の搭乗者であるユーザが必要とする各種の情報を出力する機能を有している。 Currently, in-vehicle electronic devices equipped with functions such as navigation devices and radar detectors are widely used. Such in-vehicle electronic equipment has a function of outputting various types of information required by a user who is a passenger of the vehicle while the vehicle is running.

例えば、車載用電子機器がナビゲーション装置としての機能を備えている場合、ユーザの操作に応じて、探索された目的地までの案内経路、検索された各種の施設を表示装置に表示させることができる。また、例えば、車載用電子機器がレーダー探知機としての機能を備えている場合、オービス、取締・検問エリア、交通監視装置などのターゲットを、適宜、表示装置に表示させることができる。 For example, if an in-vehicle electronic device has a function as a navigation device, the guide route to the searched destination and various searched facilities can be displayed on the display device according to the user's operation. . Furthermore, for example, if the in-vehicle electronic device has a function as a radar detector, targets such as Orbis, enforcement/inspection areas, traffic monitoring devices, etc. can be displayed on the display device as appropriate.

このような車載用電子機器の操作は、基本的には、機器に設けられたスイッチ、表示装置の画面に構成されたタッチパネル、赤外線による遠隔操作が可能なリモコンを、ユーザが手操作することによって行う。さらに、ユーザが発話した音声を認識して、これに応じた処理を行う音声認識機能を備えた車載用電子機器も、一般的に普及している。 The operation of such in-vehicle electronic equipment is basically performed by the user manually operating switches installed on the equipment, a touch panel configured on the screen of the display device, or a remote control capable of remote control using infrared rays. conduct. Furthermore, in-vehicle electronic devices that are equipped with a voice recognition function that recognizes the voice uttered by a user and performs processing in accordance with the voice are also becoming popular.

この音声認識機能を利用すれば、運転中であるために手操作が困難なユーザであっても、あらかじめ登録されたコマンド等に対応する認識語句を発話することにより、経路探索や施設検索などの各種の機能を実行させることができる。 By using this voice recognition function, even users who are driving and have difficulty performing manual operations can perform route searches, facility searches, etc. by speaking recognition phrases that correspond to pre-registered commands, etc. It can perform various functions.

特開2009-115594号公報Japanese Patent Application Publication No. 2009-115594

しかしながら、従来の車載用電子機器における音声認識機能は、ユーザが一方的に発した指示に応じて、機器が所定の処理を行うという点では、手操作と何ら変わりはない。このため、ユーザは、手操作によるか、音声入力によるかにかかわらず、無味乾燥な機器を操作しているだけという感覚しか得られない。 However, the voice recognition function of conventional in-vehicle electronic equipment is no different from manual operation in that the equipment performs predetermined processing in response to an instruction unilaterally issued by a user. Therefore, regardless of whether the user operates the device manually or by voice input, the user only feels as if he or she is operating a dry device.

また、一般的な車載用電子機器は、経路案内、ターゲットの報知等を、あらかじめ設定された音声によって行う機能も有している。しかし、この機能も、機器側が一方的に情報を提供するという点では、画面表示による情報提供と何ら変わりはない。このため、ユーザは、無味乾燥な機器から情報を得ているという感覚しか得られない。 In addition, general in-vehicle electronic devices also have the function of performing route guidance, target notification, etc. using preset voices. However, this function is no different from providing information through a screen display in that the device unilaterally provides information. Therefore, the user only gets the feeling that he/she is getting information from a dry device.

以上のように従来の技術では、機器を操作しているという感覚しか得られないため、そこに何らの面白みもなく、車内にいる人間、特に、長時間、一人で運転している運転者にとって非常に退屈である。このため、ユーザは、購入から時間が経過すると、車載用電子機器を積極的に利用する意欲が湧かなくなり、多様な機能が有効に活用されないままとなることが多い。 As mentioned above, with conventional technology, you only get the feeling that you are operating a device, so there is no fun in that, and it is difficult for the people inside the car, especially the driver who is driving alone for a long time. Very boring. For this reason, after a period of time has passed since purchase, users often lose the desire to actively use the in-vehicle electronic device, and various functions are often left unused.

本発明は、上記のような従来技術の問題を解決するために提案されたものであり、その目的は、ユーザにとって、操作や運転に面白さが得られるとともに、飽きがくることがなく、積極的に機能を利用する意欲が湧いてくるシステム及びプログラムを提供することにある。 The present invention was proposed in order to solve the problems of the prior art as described above, and its purpose is to make operation and driving more interesting for the user, prevent them from getting bored, and encourage them to actively drive. The objective is to provide a system and program that motivates users to use its functions.

(1)本発明のシステムは、車両の搭乗者であるユーザの音声を認識した結果に基づく認識情報と、ユーザの音声を認識したことを示す所定のキャラクターの音声の出力とによる対話に応じて、車両の搭乗者が必要とする機能を実行することを特徴とする。
このようにすれば、例えば、車両の搭乗者であるユーザの一方的な指示に対してシステムが機能を実行するのではなく、ユーザがキャラクターと対話することにより、車両の搭乗者が必要とする機能を実行することができるので、操作や運転の利便性と面白味が増大するとともに、キャラクターとコミュニケーションをとっている感覚が得られて飽きがこない。また、例えば、ユーザは、キャラクターと対話するために、システムを操作する意欲が湧くので、システムの機能が有効に活用される。
ユーザの音声を認識した結果に基づく認識情報としては、例えば、ユーザが発する音声を、キャラクターとの対話を成立させる語句として認識した情報とするとよい。このようにすれば、例えば、認識した語句に応じて、キャラクターの音声を出力させることにより、ユーザの音声を認識したことを示すとともに、ユーザとの対話を成立させることができるのでよい。語句の認識としては、例えば、車両の搭乗者が必要とする機能を実行させるために、特定の認識語句と、これとの関係で対話が成立するキャラクターの音声をあらかじめ登録しておき、ユーザの音声を認識した結果と一致するか否かに応じて、キャラクターの音声を出力させるようにするとよい。このようにすれば、例えば、対話のための認識語句とキャラクターの音声との種々の組み合わせを用意することにより、これに応じて実行される多様な処理に対応させることができるのでよい。
所定のキャラクターとしては、例えば、システムから出力される音声により、特定の個性を持った話者を認識させる存在とするとよい。このようにすれば、例えば、ユーザは、実際の人間と対話しているような感覚が得られて、親しみが持てるのでよい。
対話としては、例えば、発話の開始、これに対する応答、応答に対する返答という少なくとも一往復のやり取りがなされるとよい。このようにすれば、例えば、単純にユーザの命令通りにシステムが処理を行うのではなく、キャラクターが、自分とシステムの間に介在して、サービスを提供してくれている感覚が得られるのでよい。また、対話としては、例えば、ユーザの発話とキャラクターの音声とが、その意味内容が発話とこれに対する返答として成立しているとよい。このようにすれば、互いに意思の疎通ができている感覚が得られるのでよい。また、対話としては、例えば、発話とこれに対する意味内容が的外れな返答であってもよい。このようにすれば、ユーザにとって面白味や意外性が感じられるのでよい。さらに、対話としては、例えば、発話とこれに対する返答が意味内容として成立している場合と、発話に対する意味内容が的外れな返答の場合とを混在させるとよい。このようにすれば、現実の会話に近い不完全さを演出することができ、ユーザに人間味を感じさせることができるのでよい。
車両の搭乗者が必要とする機能としては、例えば、設定の変更、情報の出力などにおいて、車両の搭乗者の利便性を高める機能とするとよく、特に、例えば、ユーザが知りたい情報を出力するための所定の処理とするとよい。ユーザが知りたい情報としては、例えば、音声認識を用いることにより、手操作よりも簡単又は迅速にシステムに出力させることができる情報とするとよい。このようにすれば、例えば、ユーザは、積極的に音声認識を利用するようになるので、システムは、ユーザにキャラクターとの対話をさせる機会をより多く与えることができるのでよい。
対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話を結果、車両の搭乗者が必要とする機能を実行するとよい。このようにすれば、車両の搭乗者が必要とする機能を実行させるために、キャラクターと対話をする意欲がわくのでよい。また、対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話中に車両の搭乗者が必要とする機能を実行することとするとよい。このようにすれば、車両の搭乗者が必要とする機能を実行させるために、発話して対話を進める意欲が増すのでよい。さらに、対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話を構成するキャラクターの音声を出力する処理の実行であってもよい。このようにすれば、ユーザは、キャラクターの音声を聞きたくて対話するので、対話すること自体を楽しむことができるのでよい。
(1) The system of the present invention responds to a dialogue using recognition information based on the result of recognizing the voice of a user who is a vehicle passenger, and the output of a predetermined character's voice indicating that the user's voice has been recognized. , is characterized in that it performs functions required by the occupants of the vehicle.
In this way, for example, rather than having the system perform a function in response to a unilateral instruction from a user who is a vehicle occupant, the system can perform a function required by a vehicle occupant by interacting with a character. Being able to perform functions makes operation and driving more convenient and interesting, and it also gives you the feeling of communicating with the characters, which keeps you from getting bored. Further, for example, the user is motivated to operate the system in order to interact with the character, so the functions of the system are effectively utilized.
The recognition information based on the result of recognizing the user's voice may be, for example, information that recognizes the voice uttered by the user as a phrase that establishes a dialogue with the character. In this way, for example, by outputting the character's voice according to the recognized phrase, it is possible to indicate that the user's voice has been recognized and to establish a dialogue with the user. For word recognition, for example, in order to execute a function required by a vehicle passenger, a specific recognized word and the voice of a character with which a dialogue can be established in relation to this are registered in advance, and the user's It is preferable to output the character's voice depending on whether or not it matches the voice recognition result. In this way, for example, by preparing various combinations of recognized words and phrases for dialogue and character voices, it is possible to correspond to various processes to be executed in accordance with the combinations.
The predetermined character may be, for example, an entity that allows a speaker with a specific personality to be recognized by the voice output from the system. In this way, for example, the user can feel as if he or she is interacting with an actual human being, thereby creating a sense of familiarity.
As for the dialogue, it is preferable that at least one back-and-forth exchange is performed, for example, starting an utterance, responding to the utterance, and replying to the response. In this way, for example, you can get the feeling that the character is intervening between you and the system and providing a service, rather than the system simply performing processing according to the user's instructions. good. In addition, as for the dialogue, for example, it is preferable that the user's utterance and the character's voice have the same meaning and content as the utterance and the response thereto. This is good because it gives a sense of mutual communication. Further, the dialogue may be, for example, an utterance and a reply whose meaning is irrelevant. This is good because it gives the user a sense of fun and surprise. Further, as for the dialogue, for example, it is preferable to mix cases in which an utterance and a reply to the utterance have valid semantic content, and cases in which the semantic content in response to the utterance is irrelevant. In this way, it is possible to create an imperfection that is close to that of a real conversation, and it is possible to make the user feel human.
The functions required by the vehicle occupants may include functions that increase convenience for the vehicle occupants, such as changing settings and outputting information, and in particular, outputting information that the user wants to know. It is preferable to use a predetermined process for this purpose. The information that the user wants to know may be information that can be output to the system more easily or quickly by using voice recognition than by manual operation, for example. In this way, for example, the user will actively use voice recognition, so the system can provide the user with more opportunities to interact with the character.
As for executing the function required by the vehicle occupant in response to the interaction, for example, the function required by the vehicle occupant may be executed as a result of the interaction. In this way, the occupants of the vehicle will be motivated to interact with the character in order to perform the required functions. Further, in response to the dialogue, the functions required by the vehicle occupant may be executed, for example, by executing the functions required by the vehicle passenger during the dialogue. In this way, the vehicle occupant will be more motivated to speak and engage in dialogue in order to execute the required functions. Further, in response to the dialogue, the function required by the vehicle occupant may be executed, for example, by outputting the voice of the character making up the dialogue. If this is done, the user interacts with the character because he or she wants to hear the character's voice, so the user can enjoy the interaction itself.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、車両の運転中に運転者が必要とする情報を出力するための処理とするとよい。
このようにすれば、例えば、手操作が難しい、手操作が制限されている等により、運転者が運転中に所望の情報を得ることが困難な場合でも、音声認識を利用することにより、キャラクターとの対話を楽しみながら、所望の情報を得ることができるのでよい。
The predetermined process for outputting information that the user wants to know in response to the dialogue may be a process for outputting information that the driver needs while driving the vehicle.
In this way, even if it is difficult for the driver to obtain the desired information while driving due to, for example, difficulty in manual operation or restrictions on manual operation, voice recognition can be used to This is good because you can get the information you want while enjoying the conversation.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、複数の選択を経て情報を出力するための処理とすることを特徴とするとよい。
このようにすれば、例えば、情報を出力するために複数の選択を経る必要がある場合に、選択するごとに手操作が必要となる場合に比べて、音声入力による方が、ユーザにとって操作が簡単となるのでよい。
複数の選択を経て出力される情報としては、例えば、階層化された構造の情報、複数回の操作をしなければ出力できない情報とするとよい。このような情報は、手操作を複数回行うよりも、ユーザの負担が少なくなるのでよい。
特に、複数の選択を経て出力される情報としては、例えば、施設検索、現在地周辺検索などのように、複数の候補の中から順次絞り込んでいくことにより得られる情報とするとよい。このような情報を出力する処理は、例えば、ブレーキやアクセルのように車両自体を動かすための操作や、ウィンカーのように走行中に安全のために外部に何かを知らせるための操作とは異なり、手操作によりダイレクトに実行させることが難しいので、音声認識による操作に適していてよい。
The predetermined process for outputting the information the user wants to know in response to the dialogue may be characterized by a process for outputting the information after making a plurality of selections.
In this way, for example, if multiple selections need to be made to output information, voice input is easier for the user than requiring manual operation for each selection. It's good because it's easy.
The information output after multiple selections may be, for example, information with a hierarchical structure or information that cannot be output without multiple operations. Such information is preferable because it reduces the burden on the user rather than performing manual operations multiple times.
In particular, the information output after making multiple selections may be information obtained by sequentially narrowing down candidates from a plurality of candidates, such as a facility search or a search around the current location. The process of outputting such information is different from, for example, operations that move the vehicle itself, such as the brake or accelerator, or operations that notify the outside of something for safety while driving, such as turn signals. , since it is difficult to directly execute it manually, it may be suitable for operation by voice recognition.

前記対話の一部として、次の選択がある場合に、これを誘導するキャラクターの音声とするとよい。
このようにすれば、例えば、ユーザは、キャラクターの音声に促されて選択することにより、所定の処理を順次進めることができるのでよい。
次の選択へ誘導するキャラクターの音声としては、例えば、周辺検索で「周辺」というユーザの音声を認識した場合に、「どこ行く?」というように、行先を尋ねる音声とするとよい。このようにすれば、例えば、ユーザが、次に何を発話すればよいかが明確にわかるのでよい。
When there is a next choice as part of the dialogue, it is preferable to use the voice of the character guiding the next choice.
In this way, for example, the user can proceed with predetermined processing in sequence by making selections prompted by the character's voice.
The character's voice that guides the user to the next selection may be, for example, a voice that asks the user's destination, such as, “Where are you going?” when the user's voice of “surroundings” is recognized in the surrounding search. In this way, for example, the user can clearly understand what to say next.

前記対話の一部として、次の選択がない場合に、これを示すキャラクターの音声とするとよい。
このようにすれば、例えば、ユーザは、さらに処理を進める必要がなくなったことがわかるので、指示を終了する、別の処理を行わせる等の判断ができるのでよい。
次の選択がないことを示すキャラクターの音声としては、例えば、周辺検索で「ファミレス」というユーザの音声を認識した場合に、「ひとりぼっちでファミレス行くの?」のように、次の選択がないことを明示する音声とするとよい。このようにすれば、ユーザは、次に進む必要がないことがわかるとともに、ユーザに、新たに別の判断を求めることができるのでよい。
As part of the dialogue, when there is no next choice, it is preferable that the character's voice indicates this.
In this way, for example, the user can see that there is no need to proceed with the process further, and can therefore decide whether to end the instruction or to perform another process.
For example, when a character's voice indicates that there is no next choice, when the user's voice saying "family restaurant" is recognized in a nearby search, the next choice may be "Are you going to go to a family restaurant by yourself?" It is best to use a voice that clearly indicates that there is no such thing. In this way, the user knows that there is no need to proceed to the next step, and the user can be asked to make a new decision.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、所望の地点の周辺の施設に関する情報を、表示手段に表示させるための処理とするとよい。
このようにすれば、例えば、周辺の施設の情報を得るための面倒な手操作を不要としつつ、ユーザが、キャラクターとの対話を楽しみながら、周辺の施設に関する情報を取得することができるのでよい。
The predetermined process for outputting the information the user wants to know in response to the dialogue may be a process for displaying information about facilities around the desired point on the display means.
In this way, for example, it is possible to eliminate the need for troublesome manual operations to obtain information about surrounding facilities, and the user can obtain information about surrounding facilities while enjoying dialogue with the character. .

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、表示手段に表示された地図上の前記周辺の施設の位置に、前記周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させることを特徴とするとよい。
このようにすれば、例えば、地図上で、ユーザに必要な施設の情報が目立つことになるので、ユーザが施設の位置を把握しやすくなり、音声により所望の施設を選択する際の目安となるのでよい。
地図と比べた相対的な強調表示としては、例えば、施設の位置が明確となる表示とするとよい。例えば、アイコンと地図の明度、彩度、色相の少なくとも一つを変えれば、両者の対比が際立つのでよい。特に、例えば、アイコンをカラー表示し、地図をグレースケールで表示すれば、アイコンが非常にはっきりと見えるのでよい。
As a predetermined process for outputting information that the user wants to know in response to the dialogue, an icon indicating the surrounding facility is placed at the location of the surrounding facility on the map displayed on the display means, and compared with the map. It is preferable that the display is relatively highlighted.
In this way, for example, the information about the facility that the user needs will stand out on the map, making it easier for the user to understand the location of the facility, and providing a guide when selecting the desired facility by voice. So it's good.
For example, the relative emphasis compared to the map may be displayed to make the location of the facility clear. For example, if at least one of the brightness, saturation, and hue of the icon and the map are changed, the contrast between the two can become more noticeable. In particular, for example, if the icons are displayed in color and the map is displayed in grayscale, the icons can be seen very clearly.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、表示手段に表示された地図上の前記周辺の施設の位置に、前記周辺の施設を示すアイコンを表示させ、前記アイコンに、所定の基準に従った順位が区別できる表示をするとよい。
このようにすれば、例えば、アイコンにおける順位を区別できる表示により、ユーザが施設を選択する目安とすることができるのでよい。
所定の基準としては、例えば、特定の地点に近い順とするとよい。このようにすれば、施設名を表示させる場合に比べて、どこの施設が一番近いかが直感的に分かるのでよい。さらに、所定の基準としては、例えば、ユーザにとっての重要度が高い順とするとよい。このようにすれば、ユーザが最も知りたい施設が優先的に表示させるのでよい。ユーザにとっての重要度とは、例えば、過去に行ったことがある、過去に行った頻度が高い、ユーザの好みに合う等とするとよい。このようにすれば、ユーザが行きたい施設を素早く知ることができるのでよい。また、例えば、過去に行ったけれども、二度と行きたくないなど、ユーザにとっての重要度が低いものが除外されるようにしてもよい。このようにすれば、例えば、ユーザが行く可能性があるもののみを表示させることができてよい。
順位が区別できる表示としては、例えば、番号、アルファベットのように本来的に順位を示す情報とするとよい。このようにすれば、例えば、順位の意味を容易に把握できるのでよい。さらに、順位が区別できる表示としては、例えば、◎、○、△、×等の形状や、明度、彩度、色相により段階的に変化をつける等、視覚的に順位を示す情報とするとよい。このようにすれば、例えば、順位を視覚により直感的に把握できるのでよい。
As a predetermined process for outputting information that the user wants to know in response to the dialogue, an icon indicating the surrounding facility is displayed at the location of the surrounding facility on the map displayed on the display means, and the icon In addition, it is preferable to display a display that allows the ranking according to predetermined criteria to be distinguished.
In this way, for example, the display in which the ranks of the icons can be distinguished can be used as a guide for the user to select a facility.
The predetermined standard may be, for example, the order of proximity to a specific point. In this way, compared to displaying facility names, the user can intuitively know which facility is closest. Further, the predetermined criteria may be, for example, the order of importance for the user. In this way, the facility that the user most wants to know about can be displayed preferentially. The degree of importance for the user may be, for example, something that has been done in the past, something that has been done frequently in the past, or something that suits the user's preference. This is good because the user can quickly find out which facility he or she wants to visit. Further, for example, things that are of low importance to the user may be excluded, such as things that the user has visited in the past but does not want to go again. In this way, for example, it may be possible to display only the places where the user is likely to go.
As a display that allows the ranking to be distinguished, it is preferable to use information that inherently indicates the ranking, such as a number or an alphabet. In this way, for example, the meaning of the ranking can be easily understood. Furthermore, as a display that allows the ranking to be distinguished, it is preferable to use information that visually indicates the ranking, such as shapes such as ◎, ○, △, and ×, or gradual changes based on brightness, saturation, and hue. In this way, for example, the ranking can be visually and intuitively grasped.

検索された施設の選択を促すキャラクターの音声を、表示されたアイコンに合わせた内容で出力するとよい。
このようにすれば、例えば、表示されたアイコンに合わせた内容の音声で、施設の選択を促すことができるので、ユーザは、視覚で確認した内容を、音声によっても把握できるのでよい。
表示されたアイコンに合わせた内容としては、例えば、番号であれば何番がよいかを問い合わせる音声、アルファベットであればアルファベットの何がよいかを問い合わせる音声、形状であれば形状が何かを問い合わせる音声、色であれば色が何かを問い合わせる音声とするとよい。このようにすれば、ユーザは、例えば、何を発話して施設を選択すればよいかが、簡単にわかるのでよい。また、例えば、表示されているアイコンに合わせた内容として、選択される候補の範囲を示す音声とするとよい。これにより、例えば、何番から何番というように音声を出力すれば、ユーザは、発話すべき内容とともに、選択すべき範囲も把握することができるのでよい。
It is a good idea to output a character's voice that prompts the user to select the searched facility, with content that matches the displayed icon.
In this way, the user can be prompted to select a facility using, for example, audio that matches the displayed icon, so the user can also understand the visually confirmed content through audio.
For example, if the icon is a number, a voice asks what number is best, if it is an alphabet, a voice asks what alphabet is best, and if it is a shape, a voice asks what the shape is. If it is a voice or a color, it may be a voice that inquires what the color is. In this way, the user can easily understand, for example, what to say to select a facility. Further, for example, it is preferable to use audio indicating the range of candidates to be selected as the content matching the displayed icon. With this, for example, by outputting audio such as "from what number to what number", the user can grasp not only the content to be uttered but also the range to be selected.

表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識すると、特定の地点から選択された施設まで探索された経路を表示手段に表示させるとよい。
このようにすれば、例えば、ユーザは、施設名で選択するよりも、表示されたアイコンに合わせた内容で簡単に選択することができるのでよい。
表示されたアイコンに合わせた内容としては、例えば、番号であれば所望の施設のアイコンの番号、アルファベットであれば所望の施設のアイコンのアルファベット、形状であれば所望の施設のアイコンの形状、色であれば所望の施設のアイコンの色とするとよい。このようにすれば、例えば、施設名よりも覚えやすい言葉で、施設を選択することができるのでよい。
When the voice of the user selecting one of the facilities is recognized with the content matching the displayed icon, the route searched from the specific point to the selected facility may be displayed on the display means.
In this way, for example, the user can easily select contents matching the displayed icon rather than selecting by facility name.
For example, the content that matches the displayed icon is the number of the icon of the desired facility if it is a number, the alphabet of the icon of the desired facility if it is an alphabet, the shape and color of the icon of the desired facility if it is a shape. If so, it is preferable to use the color of the icon of the desired facility. In this way, for example, a facility can be selected using a word that is easier to remember than the facility name.

表示手段に探索された経路が表示された後、前記対話に応じて、経路案内を開始するか、経路を探索し直すかを決定するとよい。
このようにすれば、例えば、ユーザは、探索された経路を希望しない場合に、キャラクターとの対話をしながら、探索し直しを指示することができるので、やり直し時の手間や退屈な気持ちを緩和させることができるのでよい。
After the searched route is displayed on the display means, it is preferable to decide whether to start route guidance or search for the route again, depending on the dialogue.
In this way, for example, if the user does not wish to follow the searched route, he or she can instruct the user to re-search while interacting with the character, thereby alleviating the trouble and boredom of redoing the search. This is good because it allows you to

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、あらかじめ音声を認識するために登録される認識語句に対応する項目のうち、いずれの項目を認識語句として機能させるかを選択させる項目の表を、表示手段に表示させるとよい。
このようにすれば、例えば、表示された項目の表から、ユーザがよく使う項目のみを選択すれば、認識語句が限定されるので、誤認識を減らすことができるのでよい。
選択された認識語句は、例えば、所定のメモリ領域に、デフォルトの状態から書き換える、空の領域に入れていく、既に入っているものを並べ替える等により、登録されるものとするとよい。このようにすれば、限られたメモリ領域を有効に活用できるのでよい。
As a predetermined process for outputting information that the user wants to know in response to a dialogue, it is necessary to determine which item among the items corresponding to recognition phrases that are registered in advance to recognize speech will function as recognition phrases. It is preferable to display a table of items to be selected on the display means.
In this way, for example, if the user selects only frequently used items from the displayed list of items, the words and phrases to be recognized will be limited, and erroneous recognition can be reduced.
The selected recognition phrases may be registered in a predetermined memory area, for example, by rewriting them from the default state, by putting them into an empty area, by rearranging the ones already in the memory area, etc. This is good because the limited memory area can be used effectively.

ユーザの音声を認識するためにあらかじめ登録される認識語句に対応する項目のうち、いずれの項目を対話のための認識語句として機能させるかを選択させる項目の表を、表示手段に表示させ、前記表から選択された項目は、表示手段に表示させるページ毎に設定されるとよい。
このようにすれば、例えば、表示手段の表示画面の1ページで表示できる項目が限られていても、ユーザがよく使う項目を、トップのページに持ってくることができるので、使いたい項目を表示させるためにページを切り替える手間が省けるのでよい。
Displaying on the display means a table of items for selecting which item among the items corresponding to the recognition phrases registered in advance for recognizing the user's voice is to function as the recognition phrase for dialogue; The items selected from the table may be set for each page displayed on the display means.
In this way, for example, even if the items that can be displayed on one page of the display screen of the display means are limited, the items that the user often uses can be brought to the top page, so you can select the items that you want to use. This is good because it saves you the trouble of switching pages to display it.

混同して認識される可能性のある認識語句の項目が、別のページに表示されるように設定されるとよい。
このようにすれば、例えば、似た音を含む語句、実際に認識させてみて混同する可能性が高い語句等が、同じページに並んで同時に認識の候補となることがないので、誤認識を減らすことができるのでよい。似た音を含む語句としては、例えば、「ファミレス」と「ファーストフード」、「病院」と「美容院」、「洋食」と「和食」のように、50音の同じ音、同じ漢字等を含む語句とするとよい。このようにすれば、文字からも紛らわしい音の認識語句が、同じページに表示されないため、ユーザも、いずれか一方を入力することになり、誤認識を減らすことができる。実際に認識させてみて混同する可能性が高い語句としては、例えば、過去の認識結果の記録に基づいて、同じ発話に対して認識されている異なる語句とするとよい。このようにすれば、例えば、実際に誤認識が生じている組み合わせが同一ページとなることを排除できるのでよい。
It is preferable that items of recognized words and phrases that may be confusedly recognized are set to be displayed on a separate page.
In this way, for example, words that contain similar sounds or words that are likely to be confused when actually recognized are not lined up on the same page and become candidates for recognition at the same time, thereby preventing misrecognition. This is good because it can be reduced. Words that contain similar sounds include, for example, "family restaurant" and "fast food,""hospital" and "beauty salon,""Westernfood" and "Japanese food," and so on. It is best to use words that include In this way, recognized words and phrases that have sounds that are confusing even from letters are not displayed on the same page, so the user will have to input either one of them, which can reduce misrecognition. Words that are likely to be confused when actually recognized may be, for example, different words that have been recognized for the same utterance based on records of past recognition results. In this way, for example, it is possible to exclude combinations that are actually erroneously recognized as the same page.

前記認識語句に対応する項目は、複数の概念を含む認識語句に対応する大項目と、当該複数の概念に相当する認識語句に対応する中項目を有し、大項目とともに中項目を、同一ページに表示させるとよい。
このようにすれば、例えば、ユーザが中項目を検索したい場合にも、階層やページを変える必要がないので、所望の項目をダイレクトに選択することができるのでよい。
大項目としては、例えば、「病院」のように、多数の候補を含む上位概念的な項目とするとよい。このようにすれば、できるだけ多くの候補の中から検索したいと思うユーザにとって便利となるのでよい。中項目としては、例えば、「病院」の概念に含まれる「内科」、「小児科」のように、大項目よりも含まれる候補が少ない下位概念的な項目とするとよい。このようにすれば、少ない候補の中から、即座に所望の施設の情報を得たいユーザにとって便利となるのでよい。
The item corresponding to the recognition phrase has a large item corresponding to the recognition phrase including multiple concepts, and a medium item corresponding to the recognition phrase corresponding to the plurality of concepts, and the large item and the medium item are displayed on the same page. It is best to display it in
In this way, even if the user wants to search for a middle item, for example, there is no need to change the hierarchy or page, and the desired item can be directly selected.
The major item may be, for example, a generic item that includes many candidates, such as "hospital." This may be convenient for users who wish to search among as many candidates as possible. The medium items may be sub-conceptual items that have fewer candidates than the major items, such as "internal medicine" and "pediatrics" which are included in the concept of "hospital". This is convenient for the user who wants to immediately obtain information on a desired facility from among a small number of candidates.

認識語句として、項目として表示されている語句に関連するが、項目として表示されていない語句が登録されているとよい。
このようにすれば、例えば、項目に表示されている認識語句そのものを発話しなくても、その認識語句に関連する語句を言えばよいので、ユーザの項目名の記憶があいまいであったり、操作に不慣れであったりしても、検索ができるのでよい。
項目として表示されている語句に関連するが、項目として表示されていない語句としては、例えば、特定のページで表示中の大項目に対応するが、そのページでは表示されていない中項目とするとよい。
このようにすれば、例えば、中項目が表示されていなかったとしても、ユーザが中項目を言えば、その中項目が検索されるので、必要な施設の情報を素早く得ることができるのでよい。
It is preferable that words that are related to the words displayed as items but are not displayed as items are registered as recognized words.
In this way, for example, the user does not have to say the recognition word displayed in the item itself, but can just say a word related to the recognition word, so if the user's memory of the item name is ambiguous or Even if you are not familiar with it, you can search it.
Words that are related to words that are displayed as items but are not displayed as items may be, for example, medium items that correspond to the large item that is being displayed on a specific page but are not displayed on that page. .
In this way, for example, even if the middle item is not displayed, if the user says the middle item, the middle item will be searched, and the necessary facility information can be quickly obtained.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、前記キャラクターを、表示手段に表示させるとよい。
このようにすれば、例えば、ユーザが、対話する相手の姿を表示画面で見ることにより、親しみを覚えて、その姿を見るためにシステムを積極的に利用したいと思うようになるのでよい。
The character may be displayed on the display means as a predetermined process for outputting information that the user wants to know in response to the dialogue.
If this is done, for example, by seeing the appearance of the person with whom the user is interacting on the display screen, the user will feel a sense of familiarity with the person and will want to actively use the system to see the person with whom the user is interacting.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、前記キャラクターを、地図上の探索された経路表示を遮らない位置に、表示させるとよい。
このようにすれば、例えば、キャラクターの表示を楽しませつつ、探索された経路の見やすさを維持できるのでよい。
経路表示を遮らない位置としては、例えば、キャラクターと探索された経路の表示とが、互いに表示画面における反対側に寄るとよい。このようにすれば、キャラクターが経路探索のサービスを邪魔しない気遣いをしているように、ユーザに感じさせることができるので、より好感を持たせることができてよい。
As a predetermined process for outputting information that the user wants to know in response to the dialogue, it is preferable to display the character at a position on the map that does not obstruct the display of the searched route.
In this way, for example, it is possible to enjoy the character display while maintaining the ease of viewing the searched route.
As a position that does not block the route display, for example, the character and the searched route display may be located on opposite sides of the display screen. In this way, it is possible to make the user feel as if the character is trying not to interfere with the route search service, thereby creating a more favorable impression.

前記キャラクターを、地図上の探索された経路表示を遮らない位置に、表示させながら移動させるとよい。
このようにすれば、例えば、移動中のキャラクターを表示し続けることで、うっとうしさを感じさせて存在をアピールできるとともに、キャラクターを継続して見ていたいユーザにとっては、移動中のキャラクターの動作を楽しむことができてよい。
It is preferable that the character is moved to a position where it does not block the searched route display on the map while being displayed.
In this way, for example, by continuously displaying a moving character, you can make it feel annoying and emphasize its presence, and users who want to continue watching the character can enjoy the movement of the moving character. It's good to be able to do that.

ユーザの音声の認識語句に対応する項目の表示領域は、背後の画像が見える部分を有し、表示手段に表示されるキャラクターは、各項目よりも大きくて背後の画像が見える部分を有さず、前記項目の表示領域は、表示画面におけるキャラクターと反対側の位置に寄っているとよい。
このようにすれば、例えば、キャラクターが、探索された経路と反対側に寄った場合に、項目の表示領域は、探索された経路と重なる可能性があるが、各項目は、キャラクターよりも小さく、項目の表示領域は背後の画像が見える部分を有しているので、探索された経路がキャラクターと重なるよりも、背後の画像が見やすいのでよい。
背後の画像が見える部分としては、例えば、透過する部分、隙間が空いた部分とするとよい。このようにすれば、例えば、項目表示の視認性を確保したまま、背景の画像も見ることができるのでよい。
The display area of the item corresponding to the recognized phrase of the user's voice has a portion where the background image is visible, and the character displayed on the display means is larger than each item and does not have a portion where the background image is visible. , the display area of the item is preferably located on the opposite side of the display screen from the character.
In this way, for example, if the character moves to the opposite side of the searched path, the display area of the items may overlap with the searched path, but each item will be smaller than the character. Since the display area of the item has a part where the background image can be seen, it is better to see the background image more easily than if the searched route overlaps with the character.
The part where the image behind can be seen may be, for example, a transparent part or a part with a gap. In this way, for example, it is possible to see the background image while maintaining the visibility of the item display.

あらかじめ登録されたユーザの呼び名の音声を、対話において、キャラクターにより出力される音声の中に挿入するとよい。
このようにすれば、例えば、ユーザは、会話内で自らの呼び名で呼ばれることにより、キャラクターに対して、より一層の親しみを感じることができるのでよい。
対話の開始時にキャラクターにより出力される音声に、あらかじめ登録されたユーザの呼び名の音声を挿入するとよい。
このようにすれば、例えば、対話の開始時に、ユーザが自らの名前で呼ばれることになるので、ユーザの注意を惹くことができてよい。
It is preferable to insert the voice of the user's name registered in advance into the voice output by the character during dialogue.
In this way, for example, the user can feel more familiar with the character by being called by his or her own name in the conversation.
It is preferable to insert the voice of the user's name registered in advance into the voice output by the character at the start of the dialogue.
In this way, for example, the user will be called by his/her name at the beginning of the dialogue, which may attract the user's attention.

キャラクターの呼び名を含む音声が認識された場合に、キャラクターにより出力される音声に、あらかじめ登録されたユーザの呼び名の音声を挿入するとよい。
このようにすれば、例えば、互いに呼び名を呼び合うことになるので、ユーザは、より親密な感覚を得ることができる。
When a voice including a character's name is recognized, the voice of the user's name registered in advance may be inserted into the voice output by the character.
If this is done, for example, the users will be able to call each other by their first names, which will give the users a more intimate feeling.

対話が進行するに従って、キャラクターにより出力される音声に、ユーザの呼び名を挿入する頻度を低減させるとよい。
このようにすれば、例えば、当初は呼び名が呼ばれていたのに、その後は呼ばれる頻度が減少するので、互いに慣れていく二人の会話を演出することができるのでよい。
As the dialogue progresses, it is preferable to reduce the frequency with which the user's name is inserted into the voice output by the character.
If this is done, for example, although the names are called at first, the frequency of being called will decrease after that, so it is possible to create a conversation between two people who are getting used to each other.

あらかじめ50音表に対応する音声データが登録され、この50音表からユーザが選択した呼び名の音声を、会話中に挿入するとよい。
このようにすれば、例えば、あらかじめ複数の呼び名を登録しておく場合に比べて、メモリの容量を節約できるのでよい。
It is preferable that voice data corresponding to the 50-syllabary table be registered in advance, and the voice of the name selected by the user from this 50-syllabary table be inserted into the conversation.
By doing this, for example, compared to the case where a plurality of nicknames are registered in advance, the memory capacity can be saved.

前記キャラクターの音声として、前記キャラクターの状況を示す内容の音声を挿入するとよい。
このようにすれば、ユーザは、キャラクターの状況を聞くことができるので、例えば、キャラクターがネガティブな状況にあれば、ユーザにキャラクターを気遣う気持ちを起こさせることができ、キャラクターがポジティブな状況にあれば、ユーザにキャラクターに共感する気持ちを起こさせることができるのでよい。
キャラクターの状況を示す発言としては、例えば、「わたし忙しいんだけど」というように、自らがポジティブな状態にあるかネガティブな状態にあるかがわかる発言とするとよい。このようにすれば、例えば、ユーザの指示にシステムが無条件に従うのではなく、ユーザに気遣いの気持ちや、共感の気持ちを生じさせることができるので、実際の人間を相手にした会話のような感覚が得られるのでよい。
As the character's voice, it is preferable to insert a voice indicating the situation of the character.
In this way, the user can listen to the character's situation, so for example, if the character is in a negative situation, the user can feel concerned about the character, and if the character is in a positive situation, the user can feel concerned about the character. For example, this is good because it can make the user feel empathetic towards the character.
As a statement indicating the character's situation, it is preferable to use a statement that shows whether the character is in a positive or negative state, such as, for example, "I'm busy." In this way, for example, rather than having the system unconditionally follow the user's instructions, it is possible to create a feeling of concern and empathy in the user, which is similar to a conversation with an actual human being. It's good because you can feel it.

対話における前記キャラクターの音声を、あらかじめ設定された複数の異なるフレーズの中から、既に出力したフレーズを除いてランダムに選択して出力するとよい。
このようにすれば、例えば、同じフレーズばかりが出力されないようにすることができるので、ユーザに飽きがこないのでよい。
The voice of the character in the dialogue may be randomly selected and output from a plurality of different phrases set in advance, excluding phrases that have already been output.
By doing this, for example, it is possible to prevent the same phrase from being output all the time, so the user does not get bored.

共通の認識語句に対して異なる複数の応答フレーズが登録されたリストが設定されているとよい。
このようにすれば、例えば、ユーザが共通の内容の発話をしても、キャラクターは異なる表現で返答するので、何度も同じ処理を実現させる場合でも、キャラクターからどんな返答が来るかを楽しむことができる。
It is preferable that a list is set in which a plurality of different response phrases are registered for a common recognition phrase.
In this way, for example, even if the user utters the same content, the character will respond with a different expression, so even if you perform the same process over and over again, you can enjoy seeing what kind of response the character will give you. I can do it.

前記リストは複数設定され、同一のリスト内であっても他のフレーズとは異質なフレーズが登録されているリストがあるとよい。
このようにすれば、例えば、ユーザの同様の内容の発言に対する返答として、異質なフレーズが出力されることにより、ユーザに予想外の印象を与えることができ、キャラクターに対する印象を変化させて、飽きが来ることを防止できるのでよい。
It is preferable that a plurality of the above lists are set, and that there is a list in which phrases that are different from other phrases are registered even if they are in the same list.
In this way, for example, by outputting a different phrase in response to a user's utterance with the same content, it is possible to give an unexpected impression to the user, change their impression of the character, and make them feel bored. This is good because it can prevent this from happening.

前記キャラクターは同一人でも複数の表示態様があり、出力される音声として、前記複数の表示態様毎に異なるフレーズが登録されているとよい。
このようにすれば、例えば、同じキャラクターでも、複数の表示態様に応じて、発話内容が異なるので、同一人との対話でありながら、変化を楽しむことができるのでよい。
複数の表示態様としては、例えば、標準的なもの、衣服や髪型等を変えて変身したもの、頭身を変えたものとするとよい。このようにすれば、例えば、大人っぽい、子供っぽい、かわいい、きれい等の多様な印象をユーザに与え、飽きさせないのでよい。
It is preferable that the same character has a plurality of display modes, and a different phrase is registered as the output voice for each of the plurality of display modes.
In this way, for example, even the same character will have different utterances depending on the plurality of display modes, so it is possible to enjoy the changes even while interacting with the same person.
The plurality of display modes may be, for example, a standard one, a transformed one by changing clothes, hairstyle, etc., and one in which the head and body are changed. In this way, various impressions such as adult-like, child-like, cute, beautiful, etc. can be given to the user, so that the user does not get bored.

声認識を間違えた場合に、出力されるフレーズが登録されているとよい。
このようにすれば、例えば、認識を間違えた場合であっても、何等かのフレーズを返すことより、キャラクターとの対話が継続していることを、ユーザに認識させることができるのでよい。
It would be good to have a phrase registered that will be output if voice recognition is incorrect.
In this way, for example, even if the recognition is incorrect, the user can be made aware that the dialogue with the character is continuing rather than returning some phrase.

音声認識に誤りがあった場合に備えた逃げ口上となるフレーズが登録されているとよい。
このようにすれば、例えば、音声認識に誤りが生じる可能性はあるが、たとえ誤りが生じたとしても、キャラクターの逃げ口上によって、ユーザの苛立ちや怒りを和らげることができる。
逃げ口上としては、例えば、「音声認識頑張ります。100%認識できないかもしれないけれど」のように、正確に認識しようとする意欲を示す表現とともに、完全な達成は困難であることを示す表現とするとよい。このようにすれば、例えば、単に、認識ができないことを示すよりも、誤認識に対して、ユーザに許容する心理を生じさせることができるのでよい。
It is a good idea to have a phrase registered as an escape phrase in case there is an error in voice recognition.
In this way, for example, there is a possibility that an error may occur in speech recognition, but even if an error occurs, the user's frustration and anger can be alleviated by the character's escape route.
As an escape excuse, for example, you can use expressions such as ``I'll do my best to recognize speech. Although I may not be able to recognize it 100%'' to show your desire to accurately recognize it, as well as expressions that indicate that perfect achievement is difficult. good. In this way, for example, rather than simply indicating that recognition is not possible, it is possible to make the user feel more willing to accept erroneous recognition.

ユーザが返答を望む内容とキャラクターの音声の出力の内容とが相違していることを指摘するユーザの音声の入力があった場合に、それに対するキャラクターからの返答のフレーズが登録されているとよい。
このようにすれば、例えば、ユーザが、キャラクターの間違えを指摘すると、キャラクターからこれに対する返答があるので、誤解があった場合の人と人との自然なやり取りを楽しむことができるのでよい。
When there is a user's voice input pointing out that the content the user wants to respond to is different from the content of the character's voice output, it is good to have a phrase for the response from the character registered. .
In this way, for example, if the user points out a mistake in the character, the character will respond, allowing the user to enjoy natural interaction between people in the event of a misunderstanding.

宣伝広告となるフレーズが登録されているとよい。
このようにすれば、例えば、提携している施設にユーザを誘導することができるのでよい。
It is good to have a phrase registered as an advertisement.
In this way, for example, the user can be guided to the affiliated facility.

対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことの原因についてのフレーズが登録されているとよい。
このようにすれば、例えば、ある施設に行くことになった原因について発話することにより、当該施設に向かうユーザが耳を傾けやすくなるのでよい。
例えば、その行き先に行く原因がユーザにとって好ましくない場合にも、ユーザにとって好ましい場合にも、ユーザの注意を引くことができるのでよい。
行き先へ行く原因がユーザにとって好ましいものでない施設としては、例えば、「病院」、「歯医者」、「薬局」のように、ユーザの病気に関係している施設とするとよい。
行き先へ行く原因がユーザにとって好ましい施設としては、例えば、「デパート」「寿司」「うなぎ」のように、日常良く行く施設よりも、ややハードルが高い施設とするとよい。
キャラクターがユーザに対して種々の感情を起こさせるフレーズとしては、例えば、「どこか具合が悪いの? 大丈夫?」、「あまり無理しないでね」のようにユーザの状態を思いやることによりキャラクターに愛着を感じさせるフレーズとするとよい。また、例えば、「ちゃんと歯磨きしてる?」のようにユーザに後悔の念を起こさせるフレーズとするとよい。
It is preferable that a phrase about the cause of what the user does at the destination facility is registered as the voice of the character in the dialogue.
In this way, for example, by speaking about the reason for going to a certain facility, it becomes easier for the user heading to the facility to listen.
For example, it is good because the user's attention can be drawn whether the reason for going to the destination is unfavorable to the user or favorable to the user.
Examples of facilities that are not desirable for the user to go to include facilities that are related to the user's illness, such as a "hospital,""dentist," or "pharmacy."
Facilities whose reasons for going to the destination are preferable to the user include, for example, facilities that have a slightly higher hurdle than the facilities that the user frequently visits, such as "department store,""sushi," and "eel."
Examples of phrases that characters can use to make users feel a variety of emotions include phrases such as ``Is something wrong? Are you okay?'' and ``Don't push yourself too hard.'' This phrase can be used to create a sense of attachment to the character by showing consideration for the user's condition. It is best to use phrases that make you feel. Further, it is preferable to use a phrase that causes the user to feel regret, such as, for example, "Are you brushing your teeth properly?"

対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことについての肯定的又は否定的なアドバイスとなるフレーズが登録されているとよい。
このようにすれば、例えば、キャラクターのアドバイスにより、ユーザが行き先ですべきことや、すべきでないことを判断できるのでよい。肯定的なアドバイスとしては、例えば、「たまには歯垢をとってもらった方がいいよ」のように何かを勧めるフレーズとするとよい。また、否定的なアドバイスとしては、例えば、「苦しそうな顔しちゃダメ。涼しい顔して我慢するのが男なの。」のように何かを禁止するフレーズとするとよい。
It is preferable that phrases giving positive or negative advice about what to do at the facility the user is going to be registered as the voice of the character in the dialogue.
In this way, the user can decide what to do and what not to do at the destination based on the character's advice, for example. For positive advice, use a phrase that recommends something, such as ``You should have your teeth cleaned from time to time.'' Also, as negative advice, it is good to use a phrase that prohibits something, such as, ``Don't look like you're in pain. It's a man's job to put on a cool face and put up with it.''

対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことについてのキャラクターの一方的な感想となるフレーズが登録されているとよい。
このようにすれば、例えば、キャラクターの感想が得られるので、ユーザは、行き先での行動についての参考とすることができてよい。
キャラクターの一方的な感想としては、例えば、「お口の中でとろけるような黒ブタチャーシュー。ステキ~。」のように、肯定的な感想とするとよい。このようにすれば、ユーザが、同様の行動を施設でとりたくなるのでよい。また、例えば、「一人でレストランに行くの?寂しくない?・・ほっとけって?」のように否定的な感想としてもよい。このようにすれば、ユーザに行き先を変える気を起こさせるのでよい。さらに、例えば、「ショッピングモールって見て回るだけで楽しそう。でも疲れそう。」のように、肯定的な感想と否定的な感想が混じっていてもよい。このようにすれば、行き先での状況について、ユーザにあらかじめ覚悟させることができるのでよい。
As the voice of the character in the dialogue, it is preferable that phrases are registered that are the character's one-sided impressions about things to do at the facility the user is going to.
In this way, for example, impressions of the character can be obtained, which the user may use as a reference for actions at the destination.
As a one-sided impression of the character, for example, it is good to give a positive impression, such as "The black pork char siu melts in your mouth. It's wonderful." This is good because the user will want to take similar actions at the facility. Also, for example, it may be a negative impression such as "Are you going to a restaurant alone? Aren't you lonely? Leave me alone?" This is good because it will motivate the user to change his destination. Furthermore, positive and negative impressions may be mixed, such as, for example, "Shopping malls look like fun just looking around. But it seems tiring." This is good because it allows the user to prepare in advance for the situation at the destination.

対話における前記キャラクターの音声として、前記キャラクターが、現実に存在することを思わせるフレーズが登録されているとよい。
このようにすれば、例えば、ユーザは、キャラクターが実際に存在するような感覚が得られるのでよい。
現実に存在することを思わせるフレーズとしては、例えば、「出張にも私を連れて行ってくれるなんて、うれしいです~。」、「私達、どこに泊まる?」のように、同行していることを思わせるフレーズとするとよい。このようにすれば、例えば、ユーザは、キャラクターといつも一緒にいる感覚が得られるのでよい。
It is preferable that a phrase that makes it seem like the character exists in reality is registered as the voice of the character in the dialogue.
In this way, for example, the user can feel as if the character actually exists.
Phrases that make you think of reality include, ``I'm so happy that you're taking me on a business trip.'' and ``Where are we going to stay?'' It is best to use a phrase that makes you think of. In this way, for example, the user can feel that he or she is always with the character.

(2)ユーザの音声を認識するためにあらかじめ登録される認識語句が、項目として表示されているとよい。
このようにすれば、例えば、ユーザは、所定の処理を実行させるために、表示された項目を見れば、何を言えばいいかがわかるのでよい。
(2) Recognition phrases that are registered in advance to recognize the user's voice may be displayed as items.
In this way, for example, the user can know what to say in order to execute a predetermined process by looking at the displayed items.

(3)ユーザの音声を認識するためにあらかじめ登録される認識語句は、表示画面にかかわらず共通して認識できる認識語句と、表示画面に表示されたものに認識が制限される認識語句とがあるとよい。
このようにすれば、例えば、共通して認識できる認識語句によって、表示画面にかかわらず必要となる機能の利便性を維持しつつ、認識が制限される認識語句によって、誤認識の可能性を低減できる。
(3) The recognition words and phrases registered in advance to recognize the user's voice are divided into recognition words and phrases that can be commonly recognized regardless of the display screen, and recognition words and phrases whose recognition is limited to those displayed on the display screen. Good to have.
In this way, for example, recognition words that can be recognized in common can maintain the convenience of necessary functions regardless of the display screen, while recognition words that can be restricted can reduce the possibility of misrecognition. can.

共通して認識できる認識語句としては、例えば、複数種の表示画面で共通して使用される認識語句とするとよい。
このようにすれば、表示画面に応じて機能が制限される可能性が低くなり、利便性を維持できる。例えば、「もどる」「取り消し」のように、他の表示画面へ遷移させる語句とするとよい。このような語句は、例えば、どの画面でも使用する必要がある語句であるのでよい。
認識が制限される認識語句としては、例えば、表示画面に表示された語句、検索対象となる語句とするとよい。このような語句は、例えば、それ以外の語句を認識させる必要性が乏しく、認識語句の数を少なくして誤認識を防ぐ必要性が高いのでよい。
The commonly recognized recognition phrase may be, for example, a recognition phrase that is commonly used on multiple types of display screens.
In this way, the possibility that functions will be limited depending on the display screen is reduced, and convenience can be maintained. For example, words such as "return" and "cancel" may be used to transition to another display screen. Such words may be words that need to be used on any screen, for example.
Examples of the recognized words and phrases whose recognition is limited may be words displayed on the display screen and words to be searched. Such words and phrases are good because, for example, there is little need to recognize other words and phrases, and it is highly necessary to reduce the number of recognized words and phrases to prevent erroneous recognition.

(4)ユーザの音声を認識するためにあらかじめ登録される認識語句が、表示画面に表示されているものと、表示画面に表示されていないものとがあるとよい。
このようにすれば、例えば、ユーザが、表示画面に表示されていない語句を発話した場合であっても、あらかじめ設定された認識語句であれば、キャラクターからの何らかの反応を得ることができるので、ユーザにとってサプライズとなり、ユーザの発見の喜びを与えることができるのでよい。
(4) It is preferable that there are recognition words and phrases registered in advance for recognizing the user's voice that are displayed on the display screen and those that are not displayed on the display screen.
In this way, for example, even if the user utters a word that is not displayed on the display screen, as long as it is a recognized word that has been set in advance, it is possible to get some kind of reaction from the character. This is good because it can be a surprise for the user and give the user the joy of discovery.

あらかじめ認識語句として設定された語句以外の音声が入力された場合に、キャラクターが出力する音声データが登録されているとよい。
このようにすれば、例えば、認識語句以外であっても、必ずキャラクターの反応があるため、対話が途切れたり、エラーとして報知する等によりシステムとのやり取りであることをユーザに想起させてしまうことがなく、キャラクターと対話を継続している感覚を維持できるのでよい。
It is preferable that the voice data that the character outputs when a voice other than a word set as a recognition word is inputted is registered.
In this way, for example, even if the word is not recognized, there will always be a reaction from the character, so the dialogue will be interrupted, or an error will be reported, reminding the user that they are interacting with the system. This is good because it allows you to maintain the feeling of continuing dialogue with the character.

(5)量的に変化する機能の状態を、音声認識によりダイレクトに所望の量的レベルとするとよい。
このようにすれば、例えば、量的レベルを、小さな値と大きな値との間で段階的に変化させる場合に比べて、即座に所望の値とすることができるので、ユーザの手間がかからず、操作に拘束される時間が短縮される。
量的に変化する機能としては、例えば、音量、輝度、スケールなどとするとよい。このようにすれば、音量、輝度、スケールなどのボタンを選択して+-や目盛を表示させ、+-の選択や、目盛上のスライドにより段階を追ってアップダウンさせる手間が省けるのでよい。
(5) The state of a function that changes quantitatively may be brought to a desired quantitative level directly by voice recognition.
In this way, for example, compared to the case where the quantitative level is changed stepwise between a small value and a large value, it is possible to immediately set the desired value, thereby reducing the user's effort. First, the time spent on operations is shortened.
Examples of functions that change quantitatively include volume, brightness, and scale. In this way, it is possible to save the effort of selecting buttons for volume, brightness, scale, etc., displaying +- and scales, and selecting +- and sliding up and down on the scales step by step.

(6)ユーザの音声を認識するためにあらかじめ登録される認識語句として、量的に変化する機能に対応する指示語と、量的レベルを示す数字が設定されているとよい。
このようにすれば、例えば、ユーザが所望の機能に対応する指示語と数字を言うと、当該機能の量的レベルを、その数字のレベルにまでダイレクトにアップ、ダウンさせることができるのでよい。
量的に変化する機能に対応する指示語としては、例えば、「おんりょう」、「きど」、「すけーる」などとし、数字は「いち」、「に」、「にきろ」などとするとよい。このようにすれば、例えば、ユーザにとって直感的に理解しやすい機能の名称と数字を用いて、入力ができるのでよい。特に、例えば、「おんりょうさん」、「きどに」、「すけーるにきろ」のように、名称と量的レベルとを1つの認識語句にまとめてもよい。このようにすれば、発話が一回で済むのでよい。
(6) As the recognition phrases registered in advance to recognize the user's voice, it is preferable that instruction words corresponding to functions that change quantitatively and numbers indicating the quantitative level are set.
In this way, for example, when the user says an instruction word and a number corresponding to a desired function, the quantitative level of the function can be directly increased or decreased to the level of the number.
Examples of demonstrative words that correspond to functions that change quantitatively include ``onryo'', ``kido'', and ``skel'', and numbers such as ``ichi'', ``ni'', and ``nikiro''. good. In this way, for example, the user can input using function names and numbers that are easy to intuitively understand. In particular, a name and a quantitative level may be combined into one recognition phrase, such as, for example, "Onryo-san,""Kidoni," and "Skyle Nikiro." In this way, only one utterance is required.

表示手段の表示画面に、機能を選択するためのボタンであって、当該機能に対応する指示語が表示されたボタンを表示させるとよい。
このようにすれば、例えば、ユーザは、ボタンに表示された指示語を言えばよいので、ユーザにとってわかりやすくなってよい。
It is preferable that a button for selecting a function is displayed on the display screen of the display means, and a button on which an instruction word corresponding to the function is displayed.
In this way, for example, the user can simply say the instruction word displayed on the button, which may make it easier for the user to understand.

表示手段の表示画面に、機能を選択するためのボタンであって、機能の現在の量的レベルの値が表示されたボタンを表示させるとよい。
このようにすれば、例えば、ユーザは、ボタンに表示された値を見ることにより、現在の量的レベルを確認して、所望の値へアップさせるべきか、ダウンさせるべきかを判断できるのでよい。
現在の量的レベルの値は、例えば、地図のスケールとするとよい。このようにすれば、例えば、小さなスケールの値がボタンに表示されている場合に、ユーザがそれよりも大きな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に広範囲の地図を見渡すことができてよい。また、例えば、大きなスケールの値がボタンに表示されている場合に、ユーザがそれよりも小さな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に詳細な地図を見ることができてよい。
It is preferable to display a button for selecting a function on the display screen of the display means, the button displaying the current quantitative level value of the function.
In this way, for example, the user can check the current quantitative level by looking at the value displayed on the button, and can decide whether to increase it to the desired value or decrease it. .
The current quantitative level value may be, for example, a map scale. This way, for example, if a button displays a small scale value, and the user says a larger value, the scale value displayed on the button will change directly to that value, immediately It's good to be able to see a wide range of maps. Also, for example, if a large scale value is displayed on a button and the user says a smaller value, the scale value displayed on the button will also change directly to that value, instantly displaying a detailed map. It's good to be able to see it.

前記機能に対応する指示語が表示されるボタンは、別の表示画面に遷移せずに機能を実行させるボタンがあることを特徴とするとよい。
このようにすれば、例えば、機能を実行させるために別の表示画面に遷移しなくても、対話により機能を実行させることができるので、現在の画面表示が邪魔されることがなくてよい。
It is preferable that the button on which the instruction word corresponding to the function is displayed includes a button that causes the function to be executed without transitioning to another display screen.
In this way, for example, a function can be executed through dialogue without transitioning to another display screen to execute the function, so that the current screen display is not disturbed.

(7)音声認識を受け付けているか否かを、表示手段に表示させるとよい。
このようにすれば、例えば、ユーザが、音声による操作ができるか否かを視覚により認識することができてよい。
(7) It is preferable to display whether or not voice recognition is accepted on the display means.
In this way, for example, the user may be able to visually recognize whether or not voice operations are possible.

音声認識を受け付けているか否かとしては、例えば、表示画面の色を変えて表示するとよい。このようにすれば、例えば、ユーザの視覚を介して、音声認識の状態を即座に感得させることができるのでよい。特に、例えば、音声認識を受け付けている場合には、通常の色とし、受け付けていない時には、グレースケールとするとよい。このようにすれば、例えば、音声認識を受け付けているか否かをユーザに直感的にわからせることができるのでよい。 Whether or not voice recognition is accepted may be indicated by changing the color of the display screen, for example. In this way, for example, the user can immediately sense the state of voice recognition through his/her vision. In particular, for example, when voice recognition is accepted, it is preferable to use normal color, and when voice recognition is not accepted, it is preferable to use gray scale. In this way, for example, the user can intuitively know whether or not voice recognition is being accepted.

(8)音声認識を受け付けているか否かをキャラクターとともに、表示手段に表示するとよい。
このようにすれば、例えば、キャラクターを見れば、音声による操作が可能か否かがわかるので、ユーザが気づきやすくなるのでよい。
キャラクターに表示する態様としては、例えば、キャラクターの様子が明らかに変化する態様とするとよい。このようにすれば、例えば、音声認識の状態を即座に感得させることができるのでよい。キャラクターの様子が明らかに変化する態様としては、例えば、キャラクターに物を付加する、キャラクターの色や形態を変える、特定のポーズ、ジェスチャーをさせる、吹き出しでセリフを表示するなどとするとよい。このようにすれば、例えば、通常のキャラクターの状態を知っているユーザであれば、通常の状態との対比によってその変化に即座に気づくのでよい。キャラクターに物を付加する態様としては、例えば、ヘッドセット、ヘッドホン、イヤホン、マイク等の音に関連する備品をキャラクターに装着させるとよい。このようにすれば、例えば、ユーザに、音に関連する機能である音声認識を連想させるのでよい。キャラクターの色や形態を変える態様としては、例えば、髪型や髪の色を変える、別のコスチュームに着替えるなどとするとよい。このようにすれば、例えば、通常の状態との相違がわかりやすくてよい。特に、例えば、キャラクターの耳を大きくすれば、音声をよく聞き取ろうとしていることを示す姿となってよい。さらに、ポーズ、ジェスチャーとして、例えば、耳の後ろに手を当てるしぐさをさせても、音声をよく聞き取ろうとしていることを示す姿となってよい。
(8) It is preferable to display whether or not voice recognition is accepted together with the character on the display means.
In this way, for example, by looking at the character, the user can see whether or not voice operations are possible, which makes it easier for the user to notice.
As a mode of displaying the character, for example, it is preferable to use a mode in which the appearance of the character changes clearly. This is good because, for example, the state of voice recognition can be immediately sensed. Examples of ways in which the appearance of the character can clearly change include adding objects to the character, changing the character's color or shape, making the character perform a specific pose or gesture, or displaying dialogue in a speech bubble. In this way, for example, a user who knows the normal state of the character can immediately notice the change by comparing it with the normal state. As a mode of adding things to the character, for example, it is preferable to have the character wear equipment related to sound such as a headset, headphones, earphones, and a microphone. In this way, for example, the user may be reminded of voice recognition, which is a function related to sound. Examples of ways to change the character's color or form include changing the hairstyle or hair color, or changing into a different costume. In this way, for example, the difference from the normal state may be easily understood. In particular, for example, if the character's ears are enlarged, the character may appear to be trying to hear sounds better. Further, as a pose or a gesture, for example, a gesture of placing a hand behind the ear may be used to show that the user is trying to hear the voice well.

(9)キャラクターの音声が出力されている間は、音声を出力し終えるまで、音声認識を停止するとよい。
このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識により他の処理が実行されてしまうことを防止できてよい。他の処理としては、例えば、音量、輝度、スケール、周辺検索のように、緊急性の低い処理とするとよい。このようにすれば、必ずしも直ちに実行しなくてもよいものまで、音声認識により実行されてしまうことがなくてよい。
(9) While the character's voice is being output, voice recognition may be stopped until the voice is finished being output.
In this way, for example, when the user inputs voice in the middle of the character's voice, it may be possible to prevent other processing from being executed due to voice recognition. Other processing may be less urgent processing, such as volume, brightness, scale, and surrounding search. In this way, things that do not necessarily need to be executed immediately will not be executed by voice recognition.

キャラクターの音声が出力されている間も、音声認識を受け付けるとよい。
このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識より他の処理が中断されないのでよい。他の処理としては、例えば、取締場所に関する位置情報を情報収集サーバに送信する処理のように、緊急性の高い処理とするとよい。このようにすれば、ユーザが直ちに実行して欲しい処理が、中断されることがなくてよい。
It is a good idea to accept voice recognition even while the character's voice is being output.
In this way, for example, when the user inputs voice in the middle of the character's voice, processes other than voice recognition are not interrupted. Other processing may be a highly urgent process, such as a process of transmitting location information regarding a control location to an information collection server. In this way, the process that the user wants to execute immediately will not be interrupted.

キャラクターの音声が出力されている間に、ユーザからの音声の入力があった場合に、キャラクターの音声の出力を停止するとよい。
このようにすれば、例えば、ユーザの音声によって、キャラクターの発言を遮ったような印象を与えることができる。停止したキャラクターの音声の出力は、例えば、あらためて出力しなければ、同じ発話が始めから繰り返されて不自然な印象を与えることがなくてよい。また、停止したキャラクターの音声の出力を、例えば、止めたところから開始すれば、ユーザの発言の間、キャラクターが待ってくれていた印象を与えることができてよい。
If a user inputs a voice while the character's voice is being output, it is preferable to stop outputting the character's voice.
In this way, for example, it is possible to give the impression that the character's speech is interrupted by the user's voice. For example, if the voice of the stopped character is not output again, the same utterance does not have to be repeated from the beginning and give an unnatural impression. Furthermore, if the output of the stopped character's voice is started from the point where it stopped, for example, it may be possible to give the impression that the character has been waiting while the user speaks.

キャラクターの音声が出力されている間に、所定の入力操作がなされた場合に、キャラクターの音声を停止するとよい。
このようにすれば、例えば、キャラクターとの対話を第三者に聞かれたくないときに、所定の入力操作によって、キャラクターの音声を停止させることができてよい。所定の入力操作としては、例えば、物理キーの操作とするとよい。このようにすれば、常時、固定的に存在する箇所を操作すればよいので、とっさの操作がしやすい。
It is preferable to stop the character's voice when a predetermined input operation is performed while the character's voice is being output.
In this way, for example, when you do not want a third party to hear your dialogue with the character, you may be able to stop the character's voice by performing a predetermined input operation. The predetermined input operation may be, for example, an operation of a physical key. In this way, you only need to operate a fixed location at all times, making it easy to perform quick operations.

(10)ユーザの音声を認識するためにあらかじめ登録される認識語句に対応するユーザの音声の入力に応じて、取締場所に関する位置情報を情報収集サーバに送信する投稿を行うとよい。
このようにすれば、例えば、取締場所を知らせる投稿を、手操作でなく、音声により簡単にすばやく行うことができてよい。
取締場所としては、例えば、取締・検問エリアのように、実施位置、時間が変化するチェック場所とするとよい。このようにすれば、あらかじめ位置を登録しておくことが困難な取締場所についての情報を、投稿により収集させることができるのでよい。
位置情報としては、例えば、現在位置又は中心位置座標とするとよい。このようにすれば、例えば、確実且つ簡単に得られる情報により取締場所を特定できるとともに、音声認識を利用するので、実際の取締位置とのずれが少なくてよい。
(10) In order to recognize the user's voice, it is preferable to post position information regarding the enforcement location to be sent to the information collection server in response to input of the user's voice corresponding to a recognition phrase registered in advance.
In this way, for example, it may be possible to easily and quickly post a notification of a control location not by manual operation but by voice.
The enforcement location may be, for example, a inspection location where the enforcement location and time vary, such as an enforcement/inspection area. In this way, it is possible to collect information about enforcement locations whose locations are difficult to register in advance by posting them.
The position information may be, for example, the current position or center position coordinates. In this way, for example, the enforcement location can be specified using information that can be reliably and easily obtained, and since voice recognition is used, there may be less deviation from the actual enforcement location.

(11)所定の認識語句として、音声認識を起動させる語句と投稿の受け付けを開始させる語句とが登録されているとよい。
このようにすれば、例えば、ユーザが、音声認識を起動させる語句と投稿の受け付けを開始させる語句とを発話することにより、音声認識と、投稿の受け付けという多段階の操作を簡単に実行させることができるのでよい。
(11) It is preferable that a phrase for starting voice recognition and a phrase for starting acceptance of postings are registered as predetermined recognition phrases.
In this way, for example, the user can easily execute the multi-step operation of voice recognition and accepting posts by uttering a phrase that activates voice recognition and a phrase that starts accepting posts. This is good because it allows you to

音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。
このようにすれば、例えば、音声認識の開始とともに投稿の受け付けが開始してしまい、誤認識が生じることを防止できてよい。また、音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けを一発で開始させることができるので、即座に投稿可能な状態とすることができてよい。
For example, the word/phrase for activating voice recognition and the word/phrase for starting acceptance of postings may be registered as separate words/phrases.
In this way, for example, it may be possible to prevent erroneous recognition from occurring due to acceptance of postings starting at the same time voice recognition starts. Further, the words for activating voice recognition and the words for starting acceptance of postings may be set as a series of words, for example. In this way, for example, it is possible to start accepting postings at once when voice recognition starts, so that it is possible to immediately make postings possible.

(12)所定の認識語句としては、音声認識を起動させる語句と投稿をさせる語句とが登録されているとよい。
このようにすれば、例えば、ユーザが、音声認識を起動させる語句と投稿をさせる語句とを発話することにより、音声認識と、投稿という多段階の操作を簡単に行うことができてよい。
(12) As the predetermined recognition phrases, it is preferable that a phrase for activating voice recognition and a phrase for causing posting are registered.
In this way, for example, the user may be able to easily perform the multi-step operation of voice recognition and posting by uttering a phrase that activates voice recognition and a phrase that causes posting.

音声認識を起動させる語句と投稿させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。
このようにすれば、例えば、音声認識の開始とともに投稿されてしまい、誤って投稿されることを防止できてよい。また、音声認識を開始させる語句と投稿させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿を一発で行わせることができるので、即座に投稿できて、取締場所と投稿場所とのずれを極力少なくすることができてよい。
For example, the word for activating voice recognition and the word for posting may be registered as separate words.
In this way, for example, it may be possible to prevent the message from being posted by mistake due to the start of voice recognition. Furthermore, the word/phrase for starting voice recognition and the word/phrase for posting may be set as a series of words, for example. In this way, for example, posting can be performed in one go at the start of voice recognition, so posting can be done immediately, and the gap between the control location and the posting location can be minimized.

投稿のための所定の認識語句は、他の認識語句よりも短いとよい。
このようにすれば、例えば、緊急性の高い投稿について、短時間で指示することができてよい。
The predetermined recognition phrase for posting may be shorter than other recognition phrases.
In this way, for example, it may be possible to give instructions regarding highly urgent posting in a short period of time.

投稿のための所定の認識語句は、他の認識語句よりも冗長であるとよい。
このようにすれば、例えば、通常の音声認識を利用している場合に、他の認識語句を言う可能性が少なくなり、誤って投稿がされてしまうことを防止できてよい。
冗長であるとは、例えば、文字数が多い、複数に分かれているとするとよい。このようにすれば、例えば、投稿を意図していないユーザが、誤って発話してしまう可能性を低減できるのでよい。
The predetermined recognition phrase for posting may be more redundant than other recognition phrases.
In this way, for example, when normal speech recognition is used, the possibility of saying other recognized words and phrases is reduced, and erroneous posting can be prevented.
By redundant, for example, it may have a large number of characters or be divided into multiple parts. In this way, for example, it is possible to reduce the possibility that a user who does not intend to post will make an utterance by mistake.

投稿のための所定の認識語句は、ユーザが普段言う可能性の低い語句であるとよい。
このようにすれば、例えば、ユーザが車内で普段、頻繁に使用する語句によって頻繁に誤認識が生じることを防ぎ、ユーザが意図しない投稿を防止できる。
The predetermined recognition phrase for posting may be a phrase that is unlikely to be said by the user on a regular basis.
In this way, for example, it is possible to prevent frequent erroneous recognition caused by words and phrases that the user often uses in the car, and to prevent posts that are not intended by the user.

投稿のための対話におけるキャラクターの音声は、他の対話における音声よりも短いとよい。
このようにすれば、例えば、対話の時間を短くして、素早く投稿させることができるのでよい。
It is preferable that the character's voice in the dialogue for posting is shorter than the voice in other dialogues.
In this way, for example, the conversation time can be shortened and posting can be done quickly.

(13)前記対話は、所定の認識語句に対応するユーザからの音声の入力により開始するとよい。
このようにすれば、例えば、所定の処理をユーザからの音声の入力があって開始するため、システムが勝手に開始して処理が実行されてしまうことがなくてよい。
(13) The dialogue may be started by a voice input from the user corresponding to a predetermined recognized phrase.
In this way, for example, a predetermined process is started upon voice input from the user, so that the system does not start automatically and execute the process.

(14)前記対話は、所定のキャラクターの音声の出力に対し、所定の認識語句に対応するユーザからの音声の入力があって開始するとよい。
このようにすれば、例えば、キャラクターの音声の出力が、ユーザが所定の処理を開始するか否かを判断する契機となるので、システムを利用する機会を増やすことができるのでよい。
キャラクターの音声の出力は、例えば、特定の処理の開始の有無を問い合わせるものとするとよい。このようにすれば、例えば、ユーザが、処理の利用を促されるのでよい。
キャラクターの音声の出力のタイミングは、例えば、定期的とすれば、処理を利用させる頻度を高めるのでよい。また、タイミングを所定の条件を満たした場合とすれば、処理の利用に適したタイミングで、ユーザに利用を促すことができるのでよい。
(14) It is preferable that the dialogue starts when the user inputs a voice corresponding to a predetermined recognized phrase in response to the output of a predetermined character's voice.
In this way, for example, the output of the character's voice becomes an opportunity for the user to decide whether or not to start a predetermined process, so it is possible to increase the chances of using the system.
For example, the character's voice may be output to inquire as to whether or not to start a specific process. In this way, for example, the user may be prompted to use the process.
The timing of outputting the character's voice may be, for example, periodically, since this increases the frequency with which the process is used. Furthermore, if the timing is set when a predetermined condition is satisfied, it is possible to prompt the user to use the process at a timing suitable for the use of the process.

(15)車両の搭乗者が必要とする機能の実行を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了するとよい。
このようにすれば、例えば、音声認識を長期間継続することによって生じる誤操作を防止できるのでよい。
(15) The process may be terminated when a predetermined period of time has elapsed without any voice input from the user since the start of execution of the function required by the vehicle occupant.
In this way, for example, it is possible to prevent erroneous operations caused by continuing voice recognition for a long period of time.

(16)車両の搭乗者が必要とする機能の実行を開始した時点から、所定時間経過するまでの間に、キャラクターが、ユーザに音声入力を促す音声を出力するとよい。
このようにすれば、例えば、ユーザが処理の開始を忘れている場合に、音声入力を促すことができるのでよい。
(16) It is preferable that the character outputs a voice prompting the user to input voice from the time when a vehicle occupant starts executing a required function until a predetermined period of time has elapsed.
In this way, for example, if the user forgets to start the process, it is possible to prompt the user to input voice.

(17)(1)~(16)のシステムとしての機能を、コンピュータに実現させるためのプログラムとして構成するとよい。 (17) It is preferable to configure the functions as a system in (1) to (16) as a program for realizing on a computer.

本発明によれば、ユーザにとって、操作や運転に面白さが得られるとともに、飽きがくることがなく、積極的に機能を利用する意欲が湧いてくるシステム及びプログラムを提供することができる。 According to the present invention, it is possible to provide a system and a program that make operation and driving interesting for the user, prevent the user from getting bored, and motivate the user to actively use the functions.

本発明の一実施形態を示す全体斜視図である。FIG. 1 is an overall perspective view showing an embodiment of the present invention. 装置本体の内部構成を示すブロック図である。FIG. 3 is a block diagram showing the internal configuration of the device main body. 表示部へ表示する警告画面例を示す図である。It is a figure which shows the example of a warning screen displayed on a display part. 表示部へ表示する経路表示画面例を示す図である。It is a figure which shows the example of a route display screen displayed on a display part. 認識ワードのリスト例の前半を示す図である。FIG. 3 is a diagram showing the first half of an example list of recognized words. 認識ワードのリストの例の後半を示す図である。FIG. 7 is a diagram showing the second half of an example of a list of recognized words. 応答フレーズのリスト例の一部を示す図である。It is a figure which shows a part of example list of response phrases. キャラクターの態様に応じた応答フレーズを示す図である。It is a figure which shows the response phrase according to the aspect of a character. 各種の応答フレーズの例を示す図である。It is a figure which shows the example of various response phrases. 音声認識起動待ちの表示画面例を示す図である。FIG. 6 is a diagram illustrating an example of a display screen while waiting for voice recognition to start. 現在地表示において音声認識開始の表示画面例を示す図である。FIG. 7 is a diagram illustrating an example of a display screen for starting voice recognition when displaying the current location. ルート案内時の音声認識開始の表示画面例を示す図である。FIG. 6 is a diagram illustrating an example of a display screen when voice recognition starts during route guidance. 周辺検索におけるジャンル選択の1ページ目の表示画面例を示す図である。FIG. 6 is a diagram illustrating an example of a display screen of the first page of genre selection in a surrounding search. 周辺検索におけるジャンル選択の2ページ目の表示画面例を示す図である。It is a figure which shows the example of a display screen of the 2nd page of genre selection in surrounding search. 周辺検索における検索結果をアイコンで表示した表示画面例を示す図である。FIG. 6 is a diagram illustrating an example of a display screen in which search results in a surrounding search are displayed using icons. 図15において地図スケールを変更する場合の表示画面例を示す図である。16 is a diagram showing an example of a display screen when changing the map scale in FIG. 15. FIG. 周辺検索における検索結果をリスト表示した1ページ目の表示画面例を示す図である。It is a figure which shows the example of a display screen of the 1st page which displays the search result in a surrounding search as a list. 周辺検索における検索結果をリスト表示した2ページ目の表示画面例を示す図である。It is a figure which shows the example of a display screen of the 2nd page which displays the search result in a surrounding search as a list. 探索ルートを表示した表示画面例を示す図である。It is a figure which shows the example of a display screen which displayed the search route. 図19においてスケール変更する場合の表示画面例を示す図である。FIG. 20 is a diagram showing an example of a display screen when changing the scale in FIG. 19; ルート条件を変更する表示画面例を示す図である。It is a figure which shows the example of a display screen which changes route conditions. 地図スケールを変更する場合の表示画面例を示す図である。It is a figure which shows the example of a display screen when changing a map scale. 音量を変更する場合の表示画面例を示す図である。FIG. 6 is a diagram showing an example of a display screen when changing the volume. 輝度を変更する場合の表示画面例を示す図である。It is a figure which shows the example of a display screen when changing brightness. タイムアウト処理における応答フレーズの例を示す図である。FIG. 7 is a diagram illustrating an example of a response phrase in timeout processing. ジャンル変更の表示画面例を示す図である。It is a figure which shows the example of a display screen of a genre change.

[基本構成]
図1は、本発明のシステムを構成する電子機器として好適なナビテーション装置の一実施形態の外観図を示しており、図2は、その機能ブロック図を示しており、図3及び図4は表示形態の一例を示している。図1に示すように、ナビゲーション装置は、持ち運び可能な携帯型の装置本体2と、それを保持する取付部材たるクレードル3とを備える。装置本体2をクレードル3に装着することで、車載用のナビゲーション装置として機能し、クレードル3から取り外すことで携帯型のナビゲーション装置(PND)として機能する。本実施形態は、装置本体2をクレードル3に着脱可能とし、クレードル3と共に車両のダッシュボード上に設置して利用したり、クレードル3から装置本体2を取り外して携帯型(PND)として利用したりすることができるタイプであるが、クレードル3に対して簡単に着脱できず、車載固定タイプでも良いし、携帯型専用のものでもよい。さらには、例えば携帯電話などの携帯端末に所定のアプリケーションプログラムをインストール(プリインストールを含む)して実現されるものでもよい。アプリケーションプログラムは、ナビゲーションを行うためのシステム自身でも良いし、ナビゲーションを行うためのシステムが実装されているサーバにアクセスし、当該システムを利用するためのプログラムでも良い。本発明は、係る各種のタイプのナビゲーションシステムに適用できる。
[Basic configuration]
FIG. 1 shows an external view of an embodiment of a navigation device suitable as an electronic device constituting the system of the present invention, FIG. 2 shows a functional block diagram thereof, and FIGS. An example of a display format is shown. As shown in FIG. 1, the navigation device includes a portable device body 2 that can be carried around and a cradle 3 that is a mounting member that holds the device body. By attaching the device body 2 to the cradle 3, it functions as an in-vehicle navigation device, and by removing it from the cradle 3, it functions as a portable navigation device (PND). In this embodiment, the device main body 2 is removably attached to the cradle 3, and can be used by installing it on the dashboard of a vehicle together with the cradle 3, or can be used as a portable device (PND) by removing the device main body 2 from the cradle 3. However, it cannot be easily attached to and removed from the cradle 3, so it may be a fixed type mounted on the vehicle or a type exclusively for portable use. Furthermore, it may be realized by installing (including pre-installing) a predetermined application program on a mobile terminal such as a mobile phone. The application program may be the system itself for performing navigation, or it may be a program for accessing a server in which a system for performing navigation is installed and using the system. The present invention can be applied to various types of navigation systems.

装置本体2は、クレードル3に対して着脱自在に取り付けられる。装置本体2は、扁平な矩形状のケース本体4を備えている。そのケース本体4の前面には、表示部5が配置され、その表示部5上には表示部5のどの部分がタッチされたかを検出するタッチパネル8を備え、前面の両サイドには警報ランプ9を備えている。クレードル3は、装置本体2を保持するクレードル本体6と、車室内の所定の位置(ダッシュボード等)において、クレードル本体6を任意の姿勢で指示する台座部7と、を備えている。台座部7は、底面に設けた吸盤にて、ダッシュボードなどの上に吸着して固定される。台座部7とクレードル本体6とは、ボールジョイント等の連結機構を介して所定の角度範囲内で回転可能に連結される。ボールジョイントであるため、台座部7とクレードル本体6は、相対的に三次元方向の任意の角度範囲内で回転移動し、ジョイント部分における摩擦抵抗により任意の角度位置でその位置をとどめる。よって、クレードル本体6に取り付けられた装置本体2も、ダッシュボード上において任意の姿勢で配置することができる。 The device main body 2 is detachably attached to the cradle 3. The device main body 2 includes a flat rectangular case main body 4. A display section 5 is disposed on the front surface of the case body 4. A touch panel 8 is provided on the display section 5 to detect which part of the display section 5 is touched, and alarm lamps 9 are provided on both sides of the front surface. It is equipped with The cradle 3 includes a cradle main body 6 that holds the device main body 2, and a pedestal 7 that directs the cradle main body 6 in an arbitrary posture at a predetermined position in the vehicle interior (such as a dashboard). The pedestal part 7 is fixed to a dashboard or the like by suction using a suction cup provided on the bottom surface. The pedestal portion 7 and the cradle main body 6 are rotatably coupled within a predetermined angular range via a coupling mechanism such as a ball joint. Since it is a ball joint, the pedestal part 7 and the cradle main body 6 rotate relative to each other within an arbitrary angular range in three-dimensional directions, and remain at an arbitrary angular position due to frictional resistance at the joint portion. Therefore, the device main body 2 attached to the cradle main body 6 can also be placed in any position on the dashboard.

さらにケース本体4の一方の側面には、SDメモリカード用スロット部21を備え、そのSDメモリカード用スロット部21に地図データなどが記録されたSDメモリカード22を挿入可能としている。このSDメモリカード用スロット部21は、挿入されたSDメモリカード22に対して情報の読み書きを行うメモリカードリーダライタを含む。また、ケース本体4のSDメモリカード用スロット部21を設けた側面には、DCジャック10を設けている。DCジャック10は、図示省略のシガープラグコードを接続するためのもので、そのシガープラグコードを介して車両のシガーソケットに接続して電源供給を受け得るようにする。 Further, one side of the case body 4 is provided with an SD memory card slot section 21, into which an SD memory card 22 having map data and the like recorded can be inserted. This SD memory card slot unit 21 includes a memory card reader/writer that reads and writes information to and from the inserted SD memory card 22. Further, a DC jack 10 is provided on the side surface of the case body 4 where the SD memory card slot portion 21 is provided. The DC jack 10 is for connecting a cigarette plug cord (not shown), and is connected to a cigarette socket of a vehicle via the cigarette plug cord so that power can be supplied.

一方、SDメモリカード用スロット部21とは反対側の側面には、電源スイッチや、USB端子23を設けている。このUSB端子23を介してパソコンと接続し、ソフトウェアアプリケーションのバージョンアップなどを行なうことができる。 On the other hand, a power switch and a USB terminal 23 are provided on the side opposite to the SD memory card slot section 21. By connecting to a personal computer via this USB terminal 23, software applications can be updated.

ケース本体4の内部には、以下の各機器・部品を配置している。すなわち、ケース本体4の背面側内部には、マイクロ波受信機11を配置する。マイクロ波受信機11は、所定周波数帯のマイクロ波を受信するもので、その設定された周波数帯のマイクロ波を受信した場合に、その受信したマイクロ波の信号レベルを検出する。具体的には、その信号レベルであり電界強度に対応するRSSI電圧を利用する。上記の所定周波数帯は、たとえば車両速度測定装置から出射されるマイクロ波の周波数が含まれる周波数帯としている。 The following devices and parts are arranged inside the case body 4. That is, the microwave receiver 11 is arranged inside the case body 4 on the back side. The microwave receiver 11 receives microwaves in a predetermined frequency band, and when receiving microwaves in the set frequency band, detects the signal level of the received microwave. Specifically, the RSSI voltage, which is the signal level and corresponds to the electric field strength, is used. The above-mentioned predetermined frequency band is, for example, a frequency band that includes the frequency of microwaves emitted from the vehicle speed measuring device.

また、ケース本体4の上面側内部には、GPS信号を受信し現在位置を求めるGPS受信機12を配置している。ケース本体4の前面側内部には、赤外線通信機14を配置する。赤外線通信機14は携帯電話機15等の赤外線通信機を内蔵した通信装置との間でデータの送受を行なう。さらに、ケース本体4内には、スピーカ20も内蔵されている。 Furthermore, a GPS receiver 12 is disposed inside the upper surface of the case body 4 to receive GPS signals and determine the current position. An infrared communication device 14 is arranged inside the case body 4 on the front side. The infrared communication device 14 sends and receives data to and from a communication device including a built-in infrared communication device, such as a mobile phone 15. Furthermore, a speaker 20 is also built into the case body 4.

更に、本実施形態の装置は、無線受信機13とリモコン受信機16を備えている。無線受信機13は、飛来する所定周波数の無線を受信する。リモコン受信機16は、リモコン(携帯機:子機)17とデータ通信をし、装置に対する各種の設定を行なう。無線受信機13は、飛来する所定周波数帯の無線を受信する。この所定周波数は、例えば、緊急車両が基地局に対して自車位置を通知する際に使用する無線の周波数帯とすることができる。 Furthermore, the device of this embodiment includes a wireless receiver 13 and a remote control receiver 16. The radio receiver 13 receives incoming radio waves of a predetermined frequency. The remote control receiver 16 performs data communication with a remote controller (portable device: child device) 17 and performs various settings for the device. The radio receiver 13 receives incoming radio waves in a predetermined frequency band. This predetermined frequency can be, for example, a radio frequency band used when an emergency vehicle notifies the base station of its own vehicle position.

本実施形態のナビゲーション装置は、ナビゲーション機能に加え、周囲に存在する車両速度測定装置その他の交通監視ポイント等の目標物を報知する目標物報知装置としての目標物報知機能も備えている。これらのナビゲーション機能並びに目標物報知機能は、制御部18に有するコンピュータが実行するプログラムとして制御部18のEEPROM上に格納され、これを制御部18に有するコンピュータが実行することで実現される。 In addition to the navigation function, the navigation device of the present embodiment also has a target object notification function as a target object notification device for notifying nearby objects such as vehicle speed measurement devices and other traffic monitoring points. These navigation functions and target object notification functions are stored on the EEPROM of the control unit 18 as a program executed by the computer included in the control unit 18, and are realized by the computer included in the control unit 18 executing the program.

すなわち、制御部18は、上記の各種の入力機器(GPS受信機12、マイクロ波受信機11、無線受信機13、タッチパネル8、赤外線通信機14、リモコン受信機16、SDメモリカードスロット部21、USB端子23等)から入力される情報に基づき所定の処理を実行し、出力機器(表示部5、警報ランプ9、スピーカ20、赤外線通信機14、SDメモリカードスロット部21、USB端子23等)を利用して所定の情報・警報・メッセージを出力する。この所定の処理が、上記の各機能を実行するためのものであり、必要に応じてデータベース19や、SDメモリカード22にアクセスする。 That is, the control unit 18 controls the various input devices described above (GPS receiver 12, microwave receiver 11, wireless receiver 13, touch panel 8, infrared communication device 14, remote control receiver 16, SD memory card slot unit 21, Executes predetermined processing based on information input from the USB terminal 23, etc.), and outputs the device (display section 5, alarm lamp 9, speaker 20, infrared communication device 14, SD memory card slot section 21, USB terminal 23, etc.) Use this to output specified information, warnings, and messages. This predetermined processing is for executing each of the above functions, and accesses the database 19 and the SD memory card 22 as necessary.

ここでデータベース19は、制御部18のマイコン内あるいはマイコンに外付けした不揮発性メモリ(たとえばEEPROM)により実現できる。なお、データベース19には、出荷時に一定の目標物や地図その他の各機能を実施するために必要な情報が登録されており、その後に追加された目標物についてのデータ等は、所定の処理を経て更新することができる。この更新のための処理は、例えば、追加データが格納されたSDメモリカード22をSDメモリカード用スロット部21に装着すると共に、そのSDメモリカード22からデータベース19に転送することで行うことがある。また、このデータ更新は、赤外線通信機7を用いたり、USB端子23を介して接続されるパソコンその他の外部機器を用いたりすることで行うことができる。 Here, the database 19 can be realized by a nonvolatile memory (eg, EEPROM) inside the microcomputer of the control unit 18 or externally attached to the microcomputer. Note that the database 19 registers certain targets, maps, and other information necessary for implementing various functions at the time of shipment, and data regarding targets added after that is subject to predetermined processing. It can be updated later. This updating process may be performed, for example, by inserting an SD memory card 22 storing additional data into the SD memory card slot section 21 and transferring the data from the SD memory card 22 to the database 19. . Further, this data update can be performed by using the infrared communication device 7 or by using a personal computer or other external device connected via the USB terminal 23.

目標物報知機能を実現するための制御部18は、以下のような動作をする。すなわち、制御部18は、マイクロ波受信機11が所望のマイクロ波を受信した場合、予め定めた警報を出力する。この警報としては、スピーカ20を用いたブザーやマイクロ波の受信(車両速度測定装置の検出等)を知らせるための音声の出力や、表示部5を用いた文字或いはイメージによるメッセージの出力などがある。 The control unit 18 for realizing the target object notification function operates as follows. That is, the control unit 18 outputs a predetermined alarm when the microwave receiver 11 receives a desired microwave. Examples of this warning include the output of a buzzer using the speaker 20 or a sound to notify the reception of microwaves (detection of a vehicle speed measurement device, etc.), and the output of a text or image message using the display unit 5. .

また、制御部18は、無線受信機13が所望の無線を受信した場合、予め定めた警報を出力する。この警報としては、スピーカ20を用いたブザーやマイクロ波の受信(緊急車両の接近等)を知らせるための音声の出力や、表示部5を用いた文字或いはイメージによるメッセージの出力などがある。この無線の受信に伴う警報と、上記のマイクロ波の受信に伴う警報の形態は、異なるようにすると良い。 Further, the control unit 18 outputs a predetermined warning when the wireless receiver 13 receives a desired wireless signal. Examples of this warning include the output of a sound using the speaker 20 to notify the reception of a buzzer or microwave (approaching emergency vehicle, etc.), and the output of a text or image message using the display unit 5. It is preferable that the form of the alarm accompanying this radio reception and the above-mentioned alarm accompanying microwave reception are different.

さらに、制御部18は、GPS受信機12によって検出した現在位置と、データベース19に記憶している交通監視ポイント等の目標物の位置が、所定の位置関係にあるとき、所定の警報を出力する。そのため、データベース19には、検出対象の目標物に関する情報(経度・緯度を含む目標物の位置情報や目標物の種別情報等)や、事故多発地帯や交通取締り情報などのより注意を持って安全に運転するための交通安全情報や、ランドマークや運転に有益な各種の情報がある。各情報は、具体的な情報の種類(目標物の種類、交通取り締まりの種類、事故多発地帯、ランドマークの名称等)と位置情報とを関連づけて登録されている。 Further, the control unit 18 outputs a predetermined alarm when the current position detected by the GPS receiver 12 and the position of a target such as a traffic monitoring point stored in the database 19 have a predetermined positional relationship. . Therefore, the database 19 contains information regarding the target object to be detected (target position information including longitude and latitude, target object type information, etc.), information on accident-prone areas, traffic enforcement information, etc. There is traffic safety information for driving, landmarks, and various information useful for driving. Each piece of information is registered by associating the specific type of information (type of target, type of traffic control, accident-prone area, name of landmark, etc.) with location information.

警報を発する際の目標物までの距離は、目標物の種類ごとに変えることができる。警報の態様としては、上記と同様に、スピーカ20を用いた音声等による警報と、表示部5を用いた警報等がある。図3は、表示部5による警報の一例を示している。本実施形態では、装置がナビゲーション装置であるので、後述するように地図データを有していることから、基本画面として、制御部18は、現在位置周辺の道路ネットワーク情報を読み出し、現在位置周辺の地図を表示部5に表示する機能を有する。そして、表示部5に、現在表示中の画面(ここでは現在位置周辺の地図)に重ねて警告画面70を表示する。図3は、地図50を表示している際に、現在位置と交通監視ポイントの一つである速度測定装置の一種であるLHシステムとの距離が500mになった場合の警告画面70の表示例を示している。さらに、「500m先LHシステムです」といった警報種類と距離を示す警告音声をスピーカ20から出力する処理を行う。 The distance to the target when issuing the alarm can be changed depending on the type of target. Similar to the above, modes of warning include an audio warning using the speaker 20, a warning using the display unit 5, and the like. FIG. 3 shows an example of a warning displayed by the display unit 5. In this embodiment, since the device is a navigation device and has map data as described later, the control unit 18 reads road network information around the current location as a basic screen, and It has a function of displaying a map on the display unit 5. Then, a warning screen 70 is displayed on the display unit 5, superimposed on the currently displayed screen (here, a map around the current location). FIG. 3 shows an example of a warning screen 70 displayed when the distance between the current position and the LH system, which is a type of speed measuring device that is one of the traffic monitoring points, becomes 500 meters while displaying the map 50. It shows. Furthermore, processing is performed to output a warning voice from the speaker 20 indicating the type of warning and the distance, such as "LH system 500 meters away."

一方、ナビゲーション機能を実現するための制御部18は、以下のような動作をする。まず、データベース19は、ナビゲーション用の道路ネットワーク情報を記憶している。このデータベース19に格納するナビゲーションのための情報は、出荷時において全国についてのすべての情報を格納しておいても良いし、地図データ等は、地方毎にSDメモリカード22に格納したものを提供するようにし、ユーザは必要な地図データ等が格納されたSDメモリカード22を用意し、それをSDメモリカード用スロット部21に装着して使用するようにしても良い。なお、SDメモリカード22に格納された地図データ等は、データベース19に転送して格納しても良いし、制御部18がSDメモリカード22にアクセスし、そこから読み出して使用するようにしても良い。 On the other hand, the control unit 18 for realizing the navigation function operates as follows. First, the database 19 stores road network information for navigation. The information for navigation stored in this database 19 may include all information for the whole country at the time of shipment, and map data etc. may be stored in the SD memory card 22 for each region. In this way, the user may prepare an SD memory card 22 storing necessary map data, etc., and insert it into the SD memory card slot section 21 for use. The map data etc. stored in the SD memory card 22 may be transferred to the database 19 and stored therein, or the control unit 18 may access the SD memory card 22 and read it from there for use. good.

制御部18は、データベース19から現在位置周辺の道路ネットワーク情報を読み出し、現在位置周辺の地図を表示部5に表示する機能を有する。この制御部18は、この道路ネットワーク情報を利用してある位置から別の位置に至るルート(経路)を検索することができる。また、データベース19は、電話番号とその電話番号の住宅・会社・施設等の位置情報及び名称とを対応づけて記憶した電話番号データベースと、住所とその住所の位置情報とを対応づけて記憶した住所データベースを備える。またデータベース19には、速度測定装置等の交通監視ポイントの位置情報がその種類とともに記憶されている。 The control unit 18 has a function of reading road network information around the current position from the database 19 and displaying a map around the current position on the display unit 5. The control unit 18 can search for a route from one location to another location using this road network information. Further, the database 19 is a telephone number database in which telephone numbers are stored in association with the location information and names of residences, companies, facilities, etc. corresponding to the telephone numbers, and addresses and location information of the addresses are stored in association with each other. Equipped with address database. Additionally, the database 19 stores location information of traffic monitoring points such as speed measuring devices and their types.

また、制御部18は、一般的なナビゲーション装置の処理を行う機能を有する。すなわち、表示部5に現在位置周辺の地図を随時表示し、目的地設定ボタンを表示する。制御部18は、タッチパネル8によって、目的地設定ボタンの表示位置に対応する位置のタッチを検出した場合に、目的地設定処理を行う。目的地設定処理では、目的地設定メニューを表示部5に表示し、目的地の設定方法の選択をユーザに促す。目的地設定メニューは、目的地の設定方法の選択をユーザに促す電話番号検索ボタンと住所検索ボタンとを有する。電話番号検索ボタンがタッチされたことを検出した場合には、電話番号の入力画面を表示し、入力された電話番号に対応する位置情報をデータベース19から取得する。住所検索ボタンがタッチされたことを検出した場合には、住所の選択入力画面を表示し、入力された住所に対応する位置情報をデータベース19から取得する。そして、取得した位置情報を目的地の位置情報として設定し、現在位置から目的地までの推奨経路を、データベース19に記憶している道路ネットワーク情報に基づいて求める。この推奨経路の算出方法としては例えばダイクストラ法など公知の手法を用いることができる。 Further, the control unit 18 has a function of performing processing of a general navigation device. That is, a map around the current location is displayed on the display unit 5 at any time, and a destination setting button is displayed. The control unit 18 performs destination setting processing when the touch panel 8 detects a touch at a position corresponding to the display position of the destination setting button. In the destination setting process, a destination setting menu is displayed on the display unit 5 to prompt the user to select a destination setting method. The destination setting menu includes a telephone number search button and an address search button that prompt the user to select a destination setting method. When it is detected that the telephone number search button has been touched, a telephone number input screen is displayed, and position information corresponding to the input telephone number is acquired from the database 19. If it is detected that the address search button has been touched, an address selection input screen is displayed, and location information corresponding to the input address is acquired from the database 19. Then, the acquired location information is set as destination location information, and a recommended route from the current location to the destination is determined based on the road network information stored in the database 19. As a method for calculating this recommended route, a known method such as Dijkstra's method can be used, for example.

そして、制御部18は、算出した推奨経路を、周辺の地図とともに表示する。例えば、図4に示すように、現在位置51から目的地52にいたるルート53を推奨経路として、所定の色(例えば赤色)で表示する。これは、一般的なナビゲーションシステムと同様である。そして本実施形態では、制御部18は、ルート53上の位置情報とデータベース19に記憶された交通監視ポイント等の目標物の位置情報とを比較し、ルート53上に位置する交通監視ポイント等の位置を表示する。なお、ルート53を安全運転で走行するための情報提供としては、データベース19に格納された各種の目標物の内、交通監視ポイントに限るようにしても良い。 The control unit 18 then displays the calculated recommended route together with a surrounding map. For example, as shown in FIG. 4, a route 53 from a current position 51 to a destination 52 is displayed as a recommended route in a predetermined color (for example, red). This is similar to a general navigation system. In the present embodiment, the control unit 18 compares the position information on the route 53 with the position information of targets such as traffic monitoring points stored in the database 19, and Show location. Note that the provision of information for safe driving on the route 53 may be limited to traffic monitoring points among the various targets stored in the database 19.

これにより、例えば、図4に示すように、道路上の位置から吹き出しを表示し、データベース19に記憶されたその位置の交通監視ポイントの種類を吹き出しの中に表示する。例えば、図4(a)は、警告ポイント検索画面の表示例であり、交通監視ポイント55aから55fを表示した例を示している。交通監視ポイント55aは、Nシステムを示す「N」の文字を吹き出しの中に表示している。交通監視ポイント55b、55c、55eは、LHシステムを示す「LH」の文字を吹き出しの中に表示している。交通監視ポイント55dは、ループコイルを示す「ループ」の文字を吹き出しの中に表示している。交通監視ポイント55fは、Hシステムを示す「H」の文字を吹き出しの中に表示している。このように、吹き出しの中に文字を表示する簡略表示状態の吹き出し位置へのタッチをタッチパネル8が検知した場合には、図4(b)に示すように、簡易表示を詳細表示へと切り替える。詳細表示は、図3に示した警告画面を吹き出しの中に表示するものである。 As a result, for example, as shown in FIG. 4, a balloon is displayed from a position on the road, and the type of traffic monitoring point at that position stored in the database 19 is displayed in the balloon. For example, FIG. 4(a) is a display example of the warning point search screen, and shows an example in which traffic monitoring points 55a to 55f are displayed. The traffic monitoring point 55a displays the letter "N" indicating the N system in a speech bubble. The traffic monitoring points 55b, 55c, and 55e display the letters "LH" indicating the LH system in a speech bubble. The traffic monitoring point 55d displays the word "loop" indicating a loop coil in a speech bubble. The traffic monitoring point 55f displays the letter "H" indicating the H system in a speech bubble. In this way, when the touch panel 8 detects a touch on the balloon position in the simplified display state where characters are displayed in the balloon, the simple display is switched to the detailed display as shown in FIG. 4(b). The detailed display is to display the warning screen shown in FIG. 3 in a speech bubble.

また、図4(a)に示すように表示部5内の右下側には、交通監視ポイント種別指定部56を表示する。交通監視ポイント種別指定部56は、ルート53上に存在する交通監視ポイントの種別を列挙したボタン表示を行う部分である。図4(a)の例では、交通監視ポイント55aのNシステムを示す「N」の種別ボタン57aと、交通監視ポイント55b、55c、55eのLHシステムを示す「LH」の種別ボタン57bと、交通監視ポイント55dのループコイルを示す「ループ」の種別ボタン57cと、交通監視ポイント55fのHシステムを示す「H」の種別ボタン57dを表示している。制御部18は、この種別ボタンの表示部へのタッチをタッチパネル8から検出した場合、タッチされた種別ボタンを反転表示するとともに、タッチされた種別ボタンに対応する交通監視ポイントの表示態様を、簡易表示中であれば詳細表示に切り替え、詳細表示中であれば簡易表示中に切り替える。 Further, as shown in FIG. 4(a), a traffic monitoring point type designation section 56 is displayed on the lower right side of the display section 5. The traffic monitoring point type designation section 56 is a section that displays a button listing the types of traffic monitoring points existing on the route 53. In the example of FIG. 4A, a type button 57a of "N" indicating the N system of the traffic monitoring point 55a, a type button 57b of "LH" indicating the LH system of the traffic monitoring points 55b, 55c, and 55e, and a type button 57b of "LH" indicating the LH system of the traffic monitoring points 55b, 55c, and 55e. A "loop" type button 57c indicating the loop coil at the monitoring point 55d and an "H" type button 57d indicating the H system at the traffic monitoring point 55f are displayed. When the control unit 18 detects a touch on the display section of this type button from the touch panel 8, it displays the touched type button in reverse video and changes the display mode of the traffic monitoring point corresponding to the touched type button to a simple If it is being displayed, it is switched to detailed display, and if it is being displayed in detail, it is switched to simple display.

本実施形態のカーナビゲーション装置は、目的地(以下、経由地も含む)の設定方法として、周辺検索機能を備えている。この周辺検索機能が選択されて起動された場合、制御部18は、指定された条件に合致する施設であって、現在位置から近いものを抽出し、その抽出結果を表示部5に描画する。そして、ユーザは、表示部5に描画された候補の中からいずれかを選択し、確定することで目的地(経由地を含む)に指定することができる。 The car navigation device according to the present embodiment includes a surrounding search function as a method for setting a destination (hereinafter, also a stopover point). When this nearby search function is selected and activated, the control unit 18 extracts facilities that meet the specified conditions and are close to the current location, and draws the extraction results on the display unit 5. The user can then select one of the candidates drawn on the display unit 5 and designate it as a destination (including a stopover) by confirming it.

すなわち、係る機能を実現するため、本実施形態のデータベース19は、各施設についての情報を、その位置情報とともに施設の分類に関する情報と関連付けて記憶している。施設の分類に関する情報は、各施設が合致するジャンルの呼び名でまとめられた複数種類の項目である。 That is, in order to realize such a function, the database 19 of this embodiment stores information about each facility in association with its location information and information about the classification of the facility. The information regarding the classification of facilities is a plurality of types of items organized by the name of the genre that each facility matches.

本実施形態では、いずれかの項目が指定されると、制御部18は、指定された項目に合致する施設であって、現在位置から近いものを抽出し、その抽出結果を目的地の候補として表示部5に描画する。ユーザは、表示部5に描画された候補の中からいずれかを選択することによって、目的地として指定することができる。 In this embodiment, when any item is specified, the control unit 18 extracts facilities that match the specified item and are close to the current location, and uses the extraction results as destination candidates. Draw on the display section 5. The user can designate one as a destination by selecting one of the candidates drawn on the display unit 5.

項目のいずれか選択された場合、制御部18は、データベース19にアクセスし、現在位置を中心として、基準距離(たとえば、10km)以内に存在する施設であって、指定された項目の分類に一致するものを抽出する。そして、近いものから所定数(たとえば10個)の施設を表示部5に描画されている地図上の対応する箇所に、当該施設を示すアイコン(マーク)を重ねて描画する。データベース19に格納した施設の情報として、各施設に対して、それぞれのアイコンを関連づけて登録しておき、描画に際しては、その関連づけられたアイコンを読み出して表示部5の所定位置に描画する。 When any of the items is selected, the control unit 18 accesses the database 19 and selects facilities that exist within a reference distance (for example, 10 km) from the current location and that match the classification of the specified item. Extract what you want. Then, a predetermined number (for example, 10) of the closest facilities are drawn at corresponding locations on the map drawn on the display unit 5, with icons (marks) indicating the facilities being superimposed. As facility information stored in the database 19, respective icons are associated and registered for each facility, and when drawing, the associated icons are read out and drawn at a predetermined position on the display section 5.

なお、表示部5に描画された地図上に、現在位置が存在している場合には、その現在位置に該当する位置に自車を示す自車アイコンを重ねて描画する。さらに、このような施設のアイコンを描画するに際し、自車から近い順に番号を付記して表示する。自車の移動に伴い、随時番号は更新する。 Note that, if the current location exists on the map drawn on the display unit 5, the own vehicle icon representing the own vehicle is drawn superimposed on the position corresponding to the current location. Furthermore, when drawing icons of such facilities, numbers are added and displayed in order of distance from the vehicle. The number will be updated from time to time as the vehicle moves.

そして、ユーザが、所望の施設を選択すると、それを認識した制御部18が、係る施設を目的地とした推奨経路を求め、その結果を表示部5の地図に重ねて描画する。 Then, when the user selects a desired facility, the control unit 18 recognizes this and determines a recommended route with the facility as the destination, and draws the result superimposed on the map on the display unit 5.

さらに、制御部18は、設定された目的地までのルート案内を行う機能を有する。つまり、制御部18は、ユーザによる案内開始の選択に応じて、GPSや自律航法で自車位置を逐次検出しながら、道路などを表す地図情報を表示部5に描画しつつ、目的地までの道案内を画像や音声を用いて行う。 Furthermore, the control unit 18 has a function of providing route guidance to a set destination. That is, in response to the user's selection to start guidance, the control unit 18 sequentially detects the own vehicle position using GPS or autonomous navigation, draws map information representing roads etc. on the display unit 5, and guides the user to the destination. Provides route guidance using images and audio.

上記のユーザによる指定、選択等の指示入力は、表示部5に項目や機能の名称が表示されたボタン、施設のアイコンをタッチしたり、リモコン操作により選択したり、所定の音声が入力がなされたことを、制御部18が検出することを契機として行うことができる。 The user can input instructions such as designation and selection by touching a button with the name of an item or function displayed on the display unit 5, or by touching a facility icon, by making a selection using a remote control, or by inputting a predetermined voice. This can be done when the control unit 18 detects this.

[キャラクターとの対話機能]
《対話機能の基本》
以下、本実施形態の特徴であるキャラクターとの対話機能について説明する。この対話機能は、制御部18が、プログラムを実行することにより実現される機能であり、車両の搭乗者であるユーザの音声を認識した結果に基づく認識情報と、ユーザの音声を認識したことを示す所定のキャラクターの音声の出力とによって実現する機能である。
[Interaction function with characters]
《Basics of dialogue function》
The interaction function with characters, which is a feature of this embodiment, will be explained below. This interactive function is a function realized by the control unit 18 executing a program, and includes recognition information based on the result of recognizing the voice of the user who is the passenger of the vehicle, and information indicating that the user's voice has been recognized. This function is realized by outputting the voice of a predetermined character.

この対話機能を実行するため、データベース19は、認識ワード(認識語句)と、これに対応するキャラクターの音声データである応答フレーズを記憶している。制御部18は、マイク20を介して入力されたユーザの音声を、認識ワードに基づいて認識する。つまり、制御部18は、ユーザの音声信号に基づいて、ユーザが発話した音声を語句として認識し、認識された語句と認識ワードとが一致するか否かを判定する。そして、制御部18は、認識された語句に一致すると判定された認識ワードに対応する応答フレーズを、スピーカ20に出力させる。対話のための認識ワードとキャラクターの音声である応答フレーズとの種々の組み合わせを用意することにより、後述するように、対話に応じて実行される多様な処理に対応させることができる。 In order to execute this dialogue function, the database 19 stores recognized words (recognized phrases) and response phrases that are character voice data corresponding to the recognized words. The control unit 18 recognizes the user's voice input through the microphone 20 based on the recognition word. That is, the control unit 18 recognizes the voice uttered by the user as a phrase based on the user's voice signal, and determines whether the recognized phrase and the recognized word match. Then, the control unit 18 causes the speaker 20 to output a response phrase corresponding to the recognized word that is determined to match the recognized phrase. By preparing various combinations of recognition words for dialogue and response phrases that are characters' voices, it is possible to correspond to various processes executed in response to dialogue, as will be described later.

これにより、ユーザは、システムである電子機器を利用して、キャラクターと簡単な対話ができる。本実施形態のキャラクターは、例えば、「レイ」という名前の少女として設定されている。上記の周辺検索等の諸機能も、キャラクターとの対話で行うことができる。データベース19は、キャラクターの呼び名として、「れーたん」を、認識ワードとして記憶している。 This allows the user to have a simple interaction with the character using the electronic device that is the system. The character of this embodiment is set as, for example, a girl named "Rei". Various functions such as the above-mentioned surrounding search can also be performed by interacting with characters. The database 19 stores "Re-tan" as a recognized word as a character's name.

また、データベース19は、キャラクターの画像(静止画、動画を含む)データを記憶している。制御部18は、この画像データに基づいて、キャラクターの静止画、動画を、表示部5に表示させることができる。なお、制御部18は、一部の応答フレーズについては、出力する応答フレーズと合致するように、表示部5に表示させるキャラクターの口や身体を動かすリップリンクにより、キャラクターがしゃべっている状況をリアルに感じさせることができる。 Further, the database 19 stores image data (including still images and moving images) of characters. The control unit 18 can display still images and moving images of the character on the display unit 5 based on this image data. Note that for some response phrases, the control unit 18 uses lip links to move the mouth and body of the character displayed on the display unit 5 to match the response phrases to be output, so that the situation in which the character is speaking is realistically displayed. It can make you feel.

さらに、データベース19が記憶するキャラクターの音声、画像としては、同一人物について、複数の態様(モード)が設定されている。例えば、データベース19は、「レイ」という一人の人物でありながら、「標準レイ」、「変身後のレイ」、「ちびレイ」という3つのモードに分けて、それぞれの応答フレーズ、画像データを記憶している。「標準レイ」はキャラクターの基本となるモードである。「変身後のレイ」は、「標準レイ」とは衣服及び髪型を変えたモードである。「ちびレイ」は、頭身を変えて、子どもっぽくしたモードである。制御部18は、ユーザによるいずれかのモードの選択に従って、キャラクターの音声、画像を出力する。 Furthermore, the database 19 stores a plurality of modes for the voice and image of the character for the same person. For example, the database 19 stores the response phrases and image data for one person, "Rei," divided into three modes: "Standard Rei," "Rei after transformation," and "Chibi Rei." are doing. "Standard Ray" is the basic mode of the character. "Rei after transformation" is a mode in which clothes and hairstyle are changed from "standard Rei". ``Chibi Rei'' is a mode in which the head and body are changed to make it look childish. The control unit 18 outputs the character's voice and image according to the user's selection of one of the modes.

《認識ワード》
図5及び図6は、データベース19が記憶している認識ワードのリストの一例である。この認識ワードのリストの各列には、リスト番号が付されている。各列には、後述するように、表示部5に表示される各表示画面M1、V1、V1a、S1、S1a、S2、S2a、S2_list、S2a_list、R1、R1a、R1b、A1、A2、A3において、それぞれ認識可能な認識ワードが含まれている。
《Recognition word》
5 and 6 are examples of lists of recognized words stored in the database 19. Each column of this list of recognition words is given a list number. In each column, as described later, each display screen M1, V1, V1a, S1, S1a, S2, S2a, S2_list, S2a_list, R1, R1a, R1b, A1, A2, A3 displayed on the display unit 5 is shown. , each containing a recognizable recognition word.

リスト番号1には、音声認識を起動させる起動ワード、「れーたん、ぼいすこんとろーる」が登録されている。制御部18は、起動ワードを認識すると、周辺検索等の各種の機能を実行させるための音声認識の機能を起動する。このため、初期状態においては、制御部19は、起動ワードのみを音声認識できる状態で待機している。このリスト番号1は、後述する表示画面M1に対応している。 In list number 1, a startup word for starting voice recognition, "Retan, Voice Control" is registered. When the control unit 18 recognizes the activation word, it activates a voice recognition function for executing various functions such as surrounding search. Therefore, in the initial state, the control unit 19 is on standby in a state where only the activation word can be voice recognized. This list number 1 corresponds to the display screen M1 described later.

リスト番号2には、音声認識を起動させた後に、周辺検索、スケール変更、音量変更、輝度変更のいずれかを開始させるための認識ワードが登録されている。例えば、周辺検索を開始させる認識ワードとしては、「しゅうへん」が登録されている。スケール変更を開始させる認識ワードとしては、「すけーる」が登録されている。音量変更を開始させる認識ワードとしては、「おんりょう」が登録されている。輝度変更を開始させる認識ワードとしては、「きど」が登録されている。このリスト番号2は、後述する表示画面V1に対応している。さらに、リスト番号2には、自宅に戻る場合に、一度の発話で自宅へのルートを探索させる認識ワード「じたく」が登録されている。このように、ユーザが使用する頻度が高い機能に対応する認識ワードが、音声認識が起動した時の認識ワードとして登録されているので、音声認識を開始して、即座に実行させることができる。 Registered in list number 2 are recognition words for starting any of the surrounding search, scale change, volume change, and brightness change after voice recognition is activated. For example, "Shuhen" is registered as a recognition word for starting a surrounding search. “Scale” is registered as the recognition word that starts the scale change. "Onryo" is registered as a recognition word that starts changing the volume. "Kido" is registered as a recognition word that starts changing the brightness. This list number 2 corresponds to the display screen V1, which will be described later. Furthermore, in list number 2, when returning home, the recognized word "jitaku" is registered that allows the user to search for a route to home with one utterance. In this way, since the recognition word corresponding to the function that is frequently used by the user is registered as the recognition word when voice recognition is started, voice recognition can be started and executed immediately.

リスト番号3には、ルート案内を開始した後に、実行させる機能に対応する認識ワードが登録されている。例えば、リスト番号2の認識ワードに加えて、「あんないちゅうし」、「あんないていし」、「あんないやめる」というルート案内を中止させる認識ワードが登録されている。このように、ルート案内を中止させるという同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。このリスト番号3は、後述する表示画面V1aに対応している。特に、「しゅうへん」、「おんりょう」、「きど」は、後述するように、表示画面V1、V1aのボタンに表示される指示語となる。このため、ユーザは、表示された指示語を発話すれば、指示入力が可能となる。 In list number 3, recognition words corresponding to functions to be executed after starting route guidance are registered. For example, in addition to the recognition word of list number 2, recognition words for canceling the route guidance are registered, such as ``Anna Ichiushi'', ``Anna Ishii'', and ``Anna Iyaru''. In this way, by preparing multiple types of recognition words that perform the same function of canceling route guidance, it is possible to reduce the possibility that recognition will fail even if the content of the user's utterance is slightly different. can. This list number 3 corresponds to the display screen V1a, which will be described later. In particular, "shuhen", "onryo", and "kido" are instruction words displayed on the buttons on the display screens V1 and V1a, as will be described later. Therefore, the user can input an instruction by speaking the displayed instruction word.

リスト番号4、5には、周辺検索において、ジャンルを指定するための認識ワードが登録されている。このジャンルの認識ワードは、ジャンルを指定するための項目のボタンに、ひらがなの文字で表示される。リスト番号4に属する認識ワードのボタンが表示される画面表示では、認識可能なジャンルは、リスト番号4に属する認識ワードに限られる。このリスト番号4は、後述する表示画面S1に対応する。なお、ファミリーレストランについて「ふぁみれす」、「ふぁみりーれすとらん」、電器店について「かでん」、「でんきや」のように、同一のジャンルを指定する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる In list numbers 4 and 5, recognition words for specifying a genre in a surrounding search are registered. The recognized word for this genre is displayed in hiragana characters on the item button for specifying the genre. In the screen display where buttons for recognition words belonging to list number 4 are displayed, the recognized genres are limited to recognition words belonging to list number 4. This list number 4 corresponds to the display screen S1, which will be described later. In addition, we have prepared multiple types of recognition words that specify the same genre, such as ``Familysu'' and ``Family Restaurant'' for family restaurants, and ``Kaden'' and ``Denkiya'' for electronics stores. By doing so, you can reduce the possibility that the user's utterances will not be recognized even if they differ slightly.

リスト番号5に属する認識ワードのボタンが表示される画面表示においては、認識可能なジャンルは、リスト番号5に属する認識ワードに限られる。このリスト番号5は、後述する表示画面S1aに対応する。このように、各表示画面において認識可能なジャンルは、それぞれの表示画面に表示された項目のボタンに対応する認識ワードに限定されるので、誤認識の可能性が低くなる。 In the screen display where buttons for recognition words belonging to list number 5 are displayed, the recognized genres are limited to recognition words belonging to list number 5. This list number 5 corresponds to the display screen S1a described later. In this way, the genres that can be recognized on each display screen are limited to the recognition words that correspond to the buttons of the items displayed on each display screen, so the possibility of misrecognition is reduced.

さらに、リスト番号4には、リスト番号5の表示画面S1aに遷移させるための認識ワード「にぺーじ」、「つぎ」が登録されている。また、リスト番号5には、リスト番号4の表示画面S1に遷移させるための認識ワード「いちぺーじ」、「まえ」が登録されている。このように、ジャンルの表示画面を遷移させるという同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。 Further, in list number 4, recognition words "nipage" and "next" for transitioning to the display screen S1a of list number 5 are registered. Further, in list number 5, recognition words "ichipage" and "mae" for transitioning to the display screen S1 of list number 4 are registered. In this way, by preparing multiple types of recognition words that perform the same function of transitioning the genre display screen, there is a possibility that even if the content of the user's utterance is slightly different, it will not be recognized. can be reduced.

リスト番号6、7、8、9には、周辺検索で検索された施設を選択するための認識ワードが登録されている。リスト番号6、7に対応する表示画面では、周辺検索で検索された施設が、地図上の所在地に、現在位置に近い順に番号が付されたアイコンで表示される。認識ワードとしては、施設を選択するための番号の呼び名が登録されている。例えば、「いち」、「いちばん」、「に」、「にばん」のように、番号を指示する認識ワードが登録されている。このように、目的地として同一の対象を選択する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。なお、リスト番号6、7に対応する表示画面では、検索された施設(本例では、10箇所)を、画面表示されているか否かにかかわらず、全て音声で選択できる。 In list numbers 6, 7, 8, and 9, recognition words for selecting facilities searched by the surrounding search are registered. On the display screens corresponding to list numbers 6 and 7, the facilities searched by the surrounding search are displayed as icons numbered in order of location on the map in order of proximity to the current location. As the recognition word, the name of the number for selecting the facility is registered. For example, recognition words indicating numbers are registered, such as "ichi", "ichiban", "ni", and "niban". In this way, by preparing a plurality of types of recognition words for selecting the same target as a destination, it is possible to reduce the possibility that the words cannot be recognized even if the contents of the user's utterances are slightly different. Note that on the display screens corresponding to list numbers 6 and 7, all searched facilities (10 locations in this example) can be selected by voice, regardless of whether they are displayed on the screen or not.

また、リスト番号6、7には、表示された地図のスケールを変更するための認識ワードが登録されている。つまり、リスト番号6には、スケール変更の開始を受け付ける認識ワード「すけーる」が登録されている。このリスト番号6は、後述する表示画面S2に対応する。リスト番号7には、スケール変更の開始を受け付ける認識ワード「スケール」の他、スケールを変更する認識ワードが登録されている。このリスト番号7は、後述する表示画面S2aに対応する。 Further, in list numbers 6 and 7, recognition words for changing the scale of the displayed map are registered. That is, in list number 6, the recognition word "scale" that accepts the start of scale change is registered. This list number 6 corresponds to the display screen S2, which will be described later. In list number 7, in addition to the recognition word "scale" that accepts the start of scale change, recognition words for changing the scale are registered. This list number 7 corresponds to the display screen S2a described later.

スケールを変更する認識ワードには、地図のスケールを拡大させて詳細表示するための認識ワードと、地図のスケールを縮小させて広域表示するための認識ワードと、スケールの数字及び単位を示す認識ワードが含まれる。地図のスケールを拡大させる認識ワードは、「かくだい」、「しょうさい」、地図のスケールを縮小させる認識ワードは、「しゅくしょう」、「こういき」といったように、地図のスケールを段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルのスケールが設定されていて、そのレベルを1つずつ上げ下げすることである。このように、スケールを段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、スケールを上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは音量の変更を指示する言葉に迷わずに済む。 The recognition words for changing the scale include one for enlarging the scale of the map to display details, one for reducing the scale of the map and displaying a wide area, and one for indicating the number and unit of the scale. is included. The recognition words that increase the scale of the map are "kakudai" and "shosai", and the recognition words that reduce the scale of the map are "shukusho" and "kouiki", and the scale of the map is gradually increased. Contains recognition words to be changed. Stepwise means that a scale of multiple levels is set in advance, and the levels are raised or lowered one by one. In this way, by preparing multiple types of recognition words that perform the same function of changing the scale in stages, it is possible to prevent recognition even if the content of the user's utterance is slightly different. It is possible to reduce the In particular, when raising or lowering the scale, words that are used on a daily basis are used as recognition words, so the user does not have to worry about the words that instruct the user to change the volume.

また、スケールを変更する認識ワードには、「じゅうめーとる」、「にじゅうごめーとる」、「ごじゅうめーとる」のように、スケールの数字及び単位を指定できる認識ワードが含まれる。これにより、ユーザが、所望のスケールの認識ワードを発話して指定すると、これを認識した制御部18は、指定された地図のスケールにダイレクトに変更させる。さらに、リスト番号6、7には、後述するリスト番号8のリスト表示の表示画面に遷移させる認識ワード「りすと」、「りすとひょうじ」が登録されている。このように、リスト表示の画面への遷移という同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。 In addition, recognition words that change the scale include recognition words that allow you to specify the scale number and unit, such as "ju-me-tor", "niju-go-me-tor", and "goju-me-tor". It will be done. Accordingly, when the user speaks and specifies a recognition word of a desired scale, the control unit 18 recognizes this and directly changes the scale to the specified map scale. Further, in list numbers 6 and 7, recognition words "List" and "List Hyoji" which are to be transitioned to the list display screen of list number 8, which will be described later, are registered. In this way, by preparing multiple types of recognition words that perform the same function of transitioning to the list display screen, there is a possibility that even if the content of the user's utterance is slightly different, it will not be recognized. can be reduced.

リスト番号8、9に対応する表示画面では、周辺検索で検索された施設が、番号が表示されたボタンによってリスト表示される。このようにリスト表示された施設を選択するための番号の呼び名が、認識ワードとして登録されている。リスト番号8は、後述する表示画面S2_listに対応し、リスト番号9は、後述する表示画面S2a_listに対応する。登録されている番号の呼び名は、上記のリスト番号8、9と同様である。但し、リスト番号8、9では、選択できる施設は、表示画面に表示されたものに限られる。本例では、リスト番号8に対応する表示画面S2_listでは、1番目から5番目の施設、リスト番号S2_listでは、6番目から10番目の施設が選択できる。 On the display screens corresponding to list numbers 8 and 9, facilities searched by the surrounding search are displayed in a list using buttons with numbers displayed on them. The name of the number used to select the facility displayed in the list is registered as a recognition word. List number 8 corresponds to display screen S2_list, which will be described later, and list number 9 corresponds to display screen S2a_list, which will be described later. The names of the registered numbers are the same as those for list numbers 8 and 9 above. However, in list numbers 8 and 9, the facilities that can be selected are limited to those displayed on the display screen. In this example, the first to fifth facilities can be selected on the display screen S2_list corresponding to list number 8, and the sixth to tenth facilities can be selected on list number S2_list.

さらに、リスト番号8、9には、リスト表示を解除するための認識ワード「りすと」、「りすと解除」が登録されている。このように、リスト表示の解除という同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。さらに、リスト番号4、5と同様に、リスト番号8には、リスト番号9の表示画面S1aに遷移させるための認識ワード「にぺーじ」、「つぎ」が登録されている。また、リスト番号9には、リスト番号8の表示画面S1に遷移させるための認識ワード「いちぺーじ」、「まえ」が登録されている。 Further, in list numbers 8 and 9, recognition words "list" and "list release" for canceling list display are registered. In this way, by preparing multiple types of recognition words that perform the same function of canceling the list display, it is possible to reduce the possibility that the words will not be recognized even if the content of the user's utterances is slightly different. . Furthermore, similar to list numbers 4 and 5, list number 8 has registered the recognition words "nipage" and "next" for transitioning to the display screen S1a of list number 9. Further, in list number 9, recognition words "ichipage" and "mae" for transitioning to the display screen S1 of list number 8 are registered.

リスト番号10、11、12には、探索されたルート案内の開始を指示する認識ワード「あんないかいし」、「あんないよろしく」、「あんないして」が登録されている。このように、ルート案内という同一の機能を指示する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、「あんないかいし」という命令口調に加えて、「あんないよろしく」、「あんないして」という親しみを込めた依頼の口調も用意することにより、キャラクターとの親密度合いに応じて、口調を変えることを楽しめる。 Registered in list numbers 10, 11, and 12 are recognition words ``Anna Ikaishi'', ``Anna Iikoshiku'', and ``Anna Iishite'' which instruct the start of the searched route guidance. In this way, by preparing a plurality of types of recognition words for instructing the same function of route guidance, it is possible to reduce the possibility that the words cannot be recognized even if the content of the user's utterances is slightly different. In particular, in addition to the commanding tone of ``I want you to do that'', we also have a tone of friendly request such as ``Please do that'' and ``Please do that'', so you can adjust the tone depending on the degree of intimacy with the character. You can enjoy changing.

リスト番号10は、ルート探索後、探索されたルートを表示する表示画面に対応している。この表示画面は、後述する表示画面R1に対応する。リスト番号11は、探索されたルートを表示しつつ、地図のスケールを変更する表示画面に対応する。この表示画面は、後述する表示画面R1aに対応する。リスト番号12は、探索されたルートを表示しつつ、ルート条件を変更する表示画面に対応する。この表示画面は、後述する表示画面R1bに対応する。 List number 10 corresponds to a display screen that displays the searched route after the route is searched. This display screen corresponds to display screen R1, which will be described later. List number 11 corresponds to a display screen that displays the searched route and changes the scale of the map. This display screen corresponds to a display screen R1a described later. List number 12 corresponds to a display screen for changing route conditions while displaying the searched route. This display screen corresponds to a display screen R1b described later.

また、リスト番号10、11、12には、スケール変更を開始させる認識ワード「すけーる」、周辺施設を再検索させる認識ワード「しゅうへん」、ルート条件の変更を開始させる認識ワード「じょうけん」、「るーとじょうけん」が登録されている。このように、ルート条件の変更という同一の機能を指示する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。 In addition, list numbers 10, 11, and 12 include the recognition word "scale" that starts a scale change, the recognition word "shuhen" that causes a re-search for surrounding facilities, and the recognition word "joken" that starts a change in route conditions. ” and “Route Joken” are registered. In this way, by preparing multiple types of recognition words that instruct the same function of changing route conditions, it is possible to reduce the possibility that the recognition word will not be recognized even if the content of the user's utterance is slightly different. .

さらに、リスト番号11には、リスト番号7と同様に、スケールを変更する認識ワードが登録されている。また、リスト番号12には、ルート条件を変更する認識ワードが登録されている。ルート条件は、何を優先してルートを探索するかの探索条件である。本実施形態のルート条件としては、高速道優先、一般道優先、推奨ルートが設定されている。推奨ルートは、デフォルトで設定された条件、たとえば、目的地までの所要時間優先、目的地までの距離優先等とする。これに対応して、リスト番号12には、「すいしょう」、「いっぱんどう」、「こうそくどう」が登録されている。 Furthermore, in list number 11, similarly to list number 7, recognition words for changing the scale are registered. Further, in list number 12, recognition words for changing route conditions are registered. The route condition is a search condition for determining which priority is given when searching for a route. As the route conditions of this embodiment, expressway priority, general road priority, and recommended route are set. The recommended route is based on conditions set by default, such as priority on the time required to reach the destination, priority on distance to the destination, etc. Correspondingly, "Suisho", "Ippando", and "Kousokudou" are registered in list number 12.

リスト番号13、14、15には、本実施形態の各種機能を変更させるための認識ワードが登録されている。リスト番号13には、上記と同様に地図スケールを変更させるための認識ワードが登録されている。リスト番号13は、後述する表示画面A1に対応する。 In list numbers 13, 14, and 15, recognition words for changing various functions of this embodiment are registered. In list number 13, recognition words for changing the map scale are registered in the same way as above. List number 13 corresponds to display screen A1, which will be described later.

リスト番号14には、音量を変更させるための認識ワードが登録されている。リスト番号14は、後述する表示画面A2に対応する。音量を変更させるための認識ワードには、音量を大きくする認識ワードと、音量を小さくする認識ワードと、音量のレベルを示す認識ワードが含まれる。 In list number 14, recognition words for changing the volume are registered. List number 14 corresponds to display screen A2, which will be described later. The recognition words for changing the volume include a recognition word for increasing the volume, a recognition word for decreasing the volume, and a recognition word for indicating the level of the volume.

音量を大きくする認識ワードは、「あっぷ」、「おおきく」、音量を小さくする認識ワードは、「だうん」、「ちいさく」といったように、音量を段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルの音量が設定されていて、そのレベルを1つずつ上げ下げすることである。このように、音量を段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、音量を上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは音量の変更を指示する言葉に迷わずに済む。 Recognition words that increase the volume include "appu" and "big", and recognition words that decrease the volume include "daun" and "chiisaku", which change the volume in stages. Stepwise means that multiple levels of volume are set in advance, and the levels are raised or lowered one by one. In this way, by preparing multiple types of recognition words that perform the same function of changing the volume in stages, it is possible that even if the content of the user's utterance is slightly different, it will not be recognized. It is possible to reduce the In particular, when raising or lowering the volume, words that are used on a daily basis are used as recognition words, so the user does not have to worry about the words that instruct the user to change the volume.

また、音量を変更する認識ワードには、「ぜろ」、「いち」、「に」のように、音量のレベルを示す数字を指定できる認識ワードが含まれる。これにより、ユーザが、所望の音量のレベルを発話して指定すると、これを認識した制御部18は、音量を指定されたレベルにダイレクトに変更させる。なお、「ぜろ」は、音量をゼロにする機能、つまりスピーカ20から出力される音声をミュートする機能を実現する認識ワードである。これにより、ユーザが、キャラクターの音声を他人に聞かれたくないときに、音量をゼロにする認識ワードを発話するだけで、即座にキャラクターの音声が聞こえないようにすることができる。 Recognition words that change the volume include recognition words that can specify a number indicating the volume level, such as "zero," "ichi," and "ni." Thereby, when the user specifies the desired volume level by speaking, the control unit 18 recognizes this and directly changes the volume to the specified level. Note that "zero" is a recognition word that realizes the function of setting the volume to zero, that is, the function of muting the sound output from the speaker 20. With this, when the user does not want others to hear the character's voice, the user can immediately prevent the character's voice from being heard by simply speaking a recognition word that reduces the volume to zero.

リスト番号15には、輝度を変更させるための認識ワードが登録されている。リスト番号15は、後述する表示画面A3に対応する。輝度を変更させるための認識ワードには、輝度を大きくする認識ワードと、輝度を小さくする認識ワードと、輝度のレベルを示す認識ワードが含まれる。 In list number 15, recognition words for changing the brightness are registered. List number 15 corresponds to display screen A3, which will be described later. The recognition words for changing the brightness include a recognition word that increases the brightness, a recognition word that decreases the brightness, and a recognition word that indicates the level of brightness.

輝度を大きくする認識ワードは、「あっぷ」、「あかるく」、輝度を小さくする認識ワードは、「だうん」、「くらく」といったように、輝度を段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルの輝度が設定されていて、そのレベルを1つずつ上げ下げすることである。このように、輝度を段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、輝度を上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは輝度の変更を指示する言葉に迷わずに済む。 Recognition words that increase the brightness include "appu" and "akaluku," and recognition words that decrease the brightness include "daun" and "kuraku," which change the brightness step by step. Stepwise means that multiple levels of brightness are set in advance and the levels are raised or lowered one by one. In this way, by preparing multiple types of recognition words that perform the same function of changing the brightness in stages, it is possible to prevent recognition even if the content of the user's utterance is slightly different. It is possible to reduce the In particular, when increasing or decreasing the brightness, words that are used on a daily basis are used as recognition words, so the user does not have to worry about the words that instruct the user to change the brightness.

また、輝度を変更する認識ワードには、「ぜろ」、「いち」、「に」のように、輝度のレベルを示す数字を指定できる認識ワードが含まれる。これにより、ユーザが、所望の輝度のレベルを発話すると、これを認識した制御部18は、輝度を指定されたレベルにダイレクトに変更させる。なお、「ぜろ」は、輝度をゼロにする機能、表示部5の画面を暗くして表示内容を見えなくする機能を実現する認識ワードである。これにより、ユーザが、キャラクターの画像を他人に見られたくないときに、輝度をゼロにする認識ワードを発話するだけで、即座にキャラクターの画像が見えないようにすることができる。 Recognition words that change the brightness include recognition words that can specify a number indicating the brightness level, such as "zero," "ichi," and "ni." Thereby, when the user speaks the desired brightness level, the control unit 18 recognizes this and directly changes the brightness to the specified level. Note that "zero" is a recognition word that realizes the function of setting the brightness to zero and the function of darkening the screen of the display unit 5 to make the displayed content invisible. With this, when the user does not want others to see the character's image, the user can immediately make the character's image invisible by simply speaking a recognition word that reduces the brightness to zero.

以上のようなリスト番号13、14、15には、共通して、各種の機能を実行させるための認識ワードが登録されている。つまり、スケール変更に関する「すけーる」、周辺検索に関する「しゅうへん」、音量変更に関する「おんりょう」、輝度変更に関する「きど」が登録されている。 Recognition words for executing various functions are commonly registered in list numbers 13, 14, and 15 as described above. In other words, "Scale" related to scale change, "Shuhen" related to surrounding search, "Onryo" related to volume change, and "Kid" related to brightness change are registered.

リスト番号13の表示画面において、ユーザが「すけーる」と発話すると、これを認識した制御部18は、変更したスケールの設定を完了させる。一方、リスト番号14、15の表示画面において、ユーザが「すけーる」と発話すると、これを認識した制御部18は、スケール変更の表示画面、つまりリスト番号13に対応する表示画面に遷移させる。 When the user utters "scale" on the display screen of list number 13, the control unit 18 recognizes this and completes setting of the changed scale. On the other hand, when the user utters "scale" on the display screens of list numbers 14 and 15, the control unit 18 recognizes this and causes a transition to the scale change display screen, that is, the display screen corresponding to list number 13. .

リスト番号14の表示画面において、ユーザが「おんりょう」と発話すると、これを認識した制御部18は、変更した音量の設定を完了させる。一方、リスト番号13、15の表示画面において、ユーザが「おんりょう」と発話すると、これを認識した制御部18は、音量変更の表示画面、つまりリスト番号14に対応する表示画面に遷移させる。 When the user utters "Only" on the display screen of list number 14, the control unit 18 recognizes this and completes the setting of the changed volume. On the other hand, when the user utters "Only" on the display screens of list numbers 13 and 15, the control unit 18 recognizes this and causes the display screen to change to the volume change display screen, that is, the display screen corresponding to list number 14.

リスト番号15の表示画面において、ユーザが「きど」と発話すると、これを認識した制御部18は、変更した輝度の設定を完了させる。一方、リスト番号13、14の表示画面において、ユーザが「きど」と発話すると、これを認識した制御部18は、輝度変更の表示画面、つまりリスト番号15に対応する表示画面に遷移させる。 When the user utters "kido" on the display screen of list number 15, the control unit 18 recognizes this and completes the setting of the changed brightness. On the other hand, when the user utters "kido" on the display screens of list numbers 13 and 14, the control unit 18 recognizes this and causes the display screen to change to the brightness change display screen, that is, the display screen corresponding to list number 15.

このように、同じ認識ワードであっても、表示画面に応じて機能を変えることによって、ユーザは、関連しているが異なる機能を実行させるために、異なる認識ワードを覚える必要がない。 In this way, by changing the function of the same recognition word depending on the display screen, the user does not need to memorize different recognition words in order to perform related but different functions.

さらに、リスト番号13、14、15には、自宅に戻る場合に、一度の発話で自宅へのルートを探索させる認識ワード「じたく」が登録されている。このように、ユーザが使用する頻度が高い機能に対応する認識ワードが、音声認識が起動した時の認識ワードとして登録されているので、音声認識を開始して、即座に実行させることができる。 Furthermore, in list numbers 13, 14, and 15, the recognition word "jitaku" is registered that allows the user to search for a route to home with one utterance when returning home. In this way, since the recognition word corresponding to the function that is frequently used by the user is registered as the recognition word when voice recognition is started, voice recognition can be started and executed immediately.

なお、各リスト番号1~15には、複数の表示画面において、共通に認識することができ、各種の機能を実行させる認識ワードが登録されている。まず、前の処理に戻るフレーズとして、「もどる」、「とりけし」、「やりなおし」という認識ワードが登録されている。また、機能や処理を解除する解除フレーズとして、「おんせいかいじょ」、「しゅうりょう」、「げんざいち」という認識ワードが登録されている。「おんせいかいじょ」は、音声認識を解除する認識ワードである。「しゅうりょう」は、現在の処理を終了させる認識ワードである。「げんざいち」は、現在位置表示に遷移させる認識ワードである。これらは、音声認識を起動させた後の全ての表示画面において共通に認識できる認識ワードである。この共通の認識ワードを発することにより、ユーザは、いつでも処理のやりなおしや、初期状態への復帰等ができる。 Note that in each list number 1 to 15, recognition words that can be commonly recognized on a plurality of display screens and that execute various functions are registered. First, recognized words such as "return", "takeshi", and "redo" are registered as phrases for returning to the previous process. In addition, the recognized words ``Onsei Kaijo'', ``Shuuryo'', and ``Genzaichi'' have been registered as cancellation phrases for canceling functions and processes. "Onsei Kaijo" is a recognition word that cancels voice recognition. "Shuuryo" is a recognition word that ends the current process. "Genzaiichi" is a recognized word that causes the display to display the current location. These are recognition words that can be commonly recognized on all display screens after starting voice recognition. By issuing this common recognition word, the user can redo the process or return to the initial state at any time.

さらに、リスト番号16には、ユーザのYes(肯定)、No(否定)の発話を認識するための認識ワードが登録されている。この認識ワードは、キャラクターからの問いかけに対して、ユーザの単なるYes、Noの発話を認識するために用いられる。このような認識ワードも、全画面に共通で認識可能である。Yesの認識ワードとしては、「おっけー」、「よろしく」、「はい」、「いえす」、「うん」が登録されている。Noの認識ワードとしては、「いらない」、「すとっぷ」、「いいえ」、「のー」、「だめ」、「きにいらない」、「うるさい」が登録されている。このように、ユーザのYes、Noを認識するための認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、Yes、Noの表現は、話し相手によって変わるが、ユーザは、キャラクターの口調に合わせたYes、Noの返答ができる。 Further, in list number 16, recognition words for recognizing the user's utterances of Yes (affirmative) and No (negative) are registered. This recognition word is used to recognize simple yes or no utterances by the user in response to questions from the character. Such recognition words can also be commonly recognized on all screens. As recognized words for Yes, "Okay", "Yoroshiku", "Yes", "Yes", and "Yes" are registered. As recognized words for No, "I don't need it", "Stop", "No", "No", "No", "I don't need it", and "Noisy" are registered. In this way, by preparing a plurality of types of recognition words for recognizing the user's Yes and No, it is possible to reduce the possibility that the words cannot be recognized even if the contents of the user's utterances are slightly different. In particular, the expressions for Yes and No vary depending on the person with whom the conversation is being made, but the user can respond Yes and No in accordance with the tone of the character.

上記のような認識ワードは、後述するように、表示画面に文字で表示されるものと、表示画面に表示されないものがある。文字で表示されるものは、ユーザが制御部18にその機能を実行させるために、何を発話したらよいかを、視覚で確認できるのでよい。 As described below, the recognition words as described above include those that are displayed as characters on the display screen and those that are not displayed on the display screen. What is displayed in text is good because the user can visually confirm what to say in order to cause the control unit 18 to execute the function.

《応答フレーズ》
図7~図21は、制御部18が、上記の認識ワードの認識結果に応じて、キャラクターの音声として出力させる応答フレーズのリストの一部を抜粋したものである。データベース19は、このような応答フレーズのリスト及び音声データを記憶している。リストにおいてグレーで塗りつぶされた欄のうちの上欄は、応答フレーズの番号である。下欄は、ユーザが発話した認識ワードに応じて、制御部18が実行する処理の内容である。欄外の「れーたん、ぼいすこんとろーる」は、上記の認識ワードのリスト番号1に登録された起動ワードである。
《Response phrase》
7 to 21 are excerpts from a list of response phrases that the control unit 18 outputs as character voices in accordance with the recognition results of the recognition words described above. The database 19 stores a list of such response phrases and voice data. The upper column of the columns filled in gray in the list is the number of the response phrase. The lower column shows the details of the process executed by the control unit 18 in response to the recognition word uttered by the user. ``Raetan, Voice Control'' in the margin is the activation word registered in the above recognition word list number 1.

応答フレーズは、制御部18が実行する処理ごとに、1つ以上のフレーズが登録されている。図7は、「標準レイ」の応答フレーズのリストの抜粋である。図7の左から第1列目は、ユーザが起動ワード「れーたん、ぼいすこんとろーる」を発話して、制御部18が音声認識を開始した場合の複数の応答フレーズである。第2列目は、制御部18が音量をダウンさせた場合の応答フレーズである。第3列目は、ユーザが8番の施設を選択して、制御部18が目的地を8番に変更した場合の応答フレーズである。第4列目は、制御部18が案内を中止した場合の応答フレーズである。第5列目は、制御部18が音量若しくは輝度のレベルを3に変更した場合の応答フレーズである。 One or more response phrases are registered for each process executed by the control unit 18. FIG. 7 is an excerpt of the list of response phrases for "Standard Ray". The first column from the left in FIG. 7 shows a plurality of response phrases when the user utters the activation word "Retan, voice control" and the control unit 18 starts speech recognition. The second column is a response phrase when the control unit 18 lowers the volume. The third column is a response phrase when the user selects facility No. 8 and the control unit 18 changes the destination to No. 8. The fourth column is a response phrase when the control unit 18 cancels guidance. The fifth column is a response phrase when the control unit 18 changes the volume or brightness level to 3.

このような応答フレーズのリストは、キャラクターの3つの態様、つまり「標準レイ」、「変身後のレイ」、「ちびレイ」毎に、区別して設定されている。この3つの態様に応じて、リスト内における応答フレーズは相違している。図8(a)は、「変身後のレイ」の音声認識開始時の応答フレーズをリストから抜粋したものである。「変身後のレイ」の応答フレーズは、「何か用事ですか?」、「音声認識を開始します。ゆっくり、はっきり話して下さい。」というように、「標準レイ」の応答フレーズと比較して、より丁寧な口調が設定されている。また、図8(b)は、「ちびレイ」の音声認識開始時の応答フレーズをリストから抜粋したものである。「ちびレイ」の応答フレーズは、「レーたん、音声コントロール開始。」、「待ってましたぁ。」というように、「標準レイ」の応答フレーズと比較して、より気安い口調が設定されている。また、図9(a)~(i)は、ユーザの発話に対する応答フレーズを、抜粋したものである。これらの具体的な応答フレーズについては、後述の処理例で説明する。なお、ユーザの対話としては、例えば、ユーザの発話とキャラクターの音声とが、その意味内容が発話とこれに対する返答として成立していると、互いに意思の疎通ができている感覚が得られる。発話とこれに対する意味内容が的外れな返答であっても、ユーザにとって面白味や意外性が感じられる。発話とこれに対する返答が意味内容として成立している場合と、発話に対する意味内容が的外れな返答の場合とを混在させても、現実の会話に近い不完全さを演出することができ、ユーザに人間味を感じさせることができる。 Such a list of response phrases is set separately for each of the three aspects of the character, ie, "Standard Rei", "Rei after transformation", and "Chibi Rei". The response phrases in the list are different depending on these three aspects. FIG. 8(a) shows response phrases extracted from the list at the start of voice recognition for "Rei after transformation." The response phrases of ``Rei after transformation'' are compared to the response phrases of ``standard Rei'', such as ``Is there something you need to do?'' and ``Voice recognition will begin. Please speak slowly and clearly.'' The tone is more polite. Further, FIG. 8(b) shows response phrases extracted from the list at the start of voice recognition for "Chibi Rei". "Chibi Rei"'s response phrases have a more casual tone than "Standard Rei" response phrases, such as "Re-tan, start voice control." and "I've been waiting." There is. Furthermore, FIGS. 9(a) to (i) are excerpts of response phrases to the user's utterances. These specific response phrases will be explained in the processing example described later. In addition, as for the user's dialogue, for example, if the meaning of the user's utterance and the character's voice is established as the utterance and the response thereto, a sense of mutual communication can be obtained. Even if the utterance and the response to the utterance are off-topic, the user will find it interesting and unexpected. Even if you mix cases where the utterance and the response to the utterance have established semantic content, and cases where the semantic content of the utterance is irrelevant, it is possible to create an incompleteness similar to that of a real conversation, and it is possible to create a sense of incompleteness for the user. It can make you feel human.

このようなリストにおいては、同じ処理の欄には、1つ又は複数の応答フレーズが登録されている。制御部18は、同じ処理に対応する応答フレーズとして、各欄に登録された中から、ランダムに出力する。但し、同じフレーズばかりが繰り返し出力されることがないように、制御部18は、以前に出力した応答フレーズを除いたものの中からランダムに選択していく。特に、音声認識開始のように、頻繁に使用される処理の場合の応答フレーズは、図7に示すように、多数用意されていて、制御部18は、この中からランダムに出力する。 In such a list, one or more response phrases are registered in the same processing column. The control unit 18 randomly outputs response phrases from those registered in each column as response phrases corresponding to the same process. However, so that the same phrases are not repeatedly output, the control unit 18 randomly selects response phrases from among those excluding previously output response phrases. In particular, as shown in FIG. 7, a large number of response phrases are prepared for frequently used processes such as starting voice recognition, and the control unit 18 outputs them at random from among them.

この制御部18の動作例は、以下の通りである。
1.フレーズがA、B、C、D、Eの5通りあった場合、まず5個の中からランダムに選択する。
2.最初にBを選択した場合、次回はA、C、D、Eの4個の中から選択する。
3.次にEを選択した場合、次回はA、C、Dの3個の中から選択する。
4.全て選択し終えたら、次回は最初に戻りA、B、C、D、Eの5個の中からランダムに選択する。
なお、本実施形態では、対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、以下に列挙するような種々の機能を実行する処理を行う。対話に応じた処理が、対話をした結果、情報を出力する処理であれば、機能を実行させるために、キャラクターと対話をする意欲がわく。対話に応じた処理が、対話中に情報を出力する処理であれば、機能を実行させるために、順次発話して対話を進める意欲が増す。対話に応じた処理が対話を構成する応答フレーズを出力する処理であれば、ユーザは、キャラクターの音声を聞きたくて対話するので、対話すること自体を楽しむことができる。
An example of the operation of this control section 18 is as follows.
1. If there are five phrases, A, B, C, D, and E, first select one at random from among the five phrases.
2. If you select B first, you will select from A, C, D, and E next time.
3. If you select E next time, you will choose from A, C, and D next time.
4. Once you have selected all of them, next time you will go back to the beginning and select randomly from among the 5 items A, B, C, D, and E.
Note that in this embodiment, as a predetermined process for outputting information that the user wants to know in response to the dialogue, various functions listed below are executed. If the process that corresponds to the dialogue is a process that outputs information as a result of the dialogue, the character will be motivated to interact with the character in order to execute the function. If the process corresponding to the dialogue is a process that outputs information during the dialogue, the user will be more motivated to proceed with the dialogue by speaking sequentially in order to execute the function. If the process corresponding to the dialogue is the process of outputting a response phrase that constitutes the dialogue, the user interacts because he wants to hear the character's voice, so he can enjoy the dialogue itself.

《周辺検索処理》
制御部18は、上記のような認識ワードに基づいてユーザの発話した音声を認識する音声認識と、応答フレーズに基づいてキャラクターの音声を出力する対話に応じて、各種の処理を実行する。まず、このような対話に応じた周辺検索の処理を説明する。
《Nearby search processing》
The control unit 18 executes various processes in accordance with voice recognition, which recognizes the voice uttered by the user based on the above-mentioned recognition words, and dialogue, which outputs the character's voice based on the response phrase. First, the surrounding search process in response to such dialogue will be explained.

周辺検索は、複数の選択を経て、複数の候補の中から順次絞り込んでいくことにより、目的とする情報を得られる処理であり、ジャンル選択、施設選択、ルート選択のフェーズがある。このような情報は、車両の搭乗者が知りたい情報、特に、車両の運転者が知りたい情報である。 Neighborhood search is a process in which target information can be obtained by sequentially narrowing down candidates from among a plurality of candidates through multiple selections, and includes phases of genre selection, facility selection, and route selection. Such information is information that a vehicle passenger would like to know, especially information that a vehicle driver would like to know.

以下、周辺検索処理の一例を、図10~図21に従って説明する。図10~図21は、各フェーズにおける表示画面例を左に、これに対応する認識ワード及び応答フレーズの例を右に示した説明図である。各表示画面M1(M1aも含む)、V1、V1a、S1、S1a、S2、S2a、S2_list、S2a_list、R1、R1a、R1b、A1(A1aも含む)、A2(A2aも含む)、A3(A3aも含む)は、上記のように、認識ワードのリスト番号1~15(図5及び図6)に対応している。 An example of the surrounding search process will be described below with reference to FIGS. 10 to 21. 10 to 21 are explanatory diagrams showing examples of display screens in each phase on the left and examples of corresponding recognition words and response phrases on the right. Each display screen M1 (also includes M1a), V1, V1a, S1, S1a, S2, S2a, S2_list, S2a_list, R1, R1a, R1b, A1 (also includes A1a), A2 (also includes A2a), A3 (also includes A3a) ) correspond to list numbers 1 to 15 (FIGS. 5 and 6) of recognized words, as described above.

これらの図10~図21の表示画面例の左に示した記述は、「ユーザの音声として認識される認識ワード → これに応じて出力されるキャラクターの応答フレーズ → これにより遷移する表示画面」を示している。 The descriptions shown on the left of the display screen examples in Figures 10 to 21 are "recognition word recognized as the user's voice → response phrase of the character output in response → display screen that changes accordingly". It shows.

制御部18は、これらの表示画面を、データべース19に記憶されたボタン、アイコン、テキスト、地図等の画面構成用データを、メモリに描画することにより、表示部5に表示させる。また、制御部18は、周辺検索、経路探索、ルート案内を行うことができることは、上述の通りである。 The control unit 18 displays these display screens on the display unit 5 by drawing screen configuration data such as buttons, icons, texts, maps, etc. stored in the database 19 in the memory. Further, as described above, the control unit 18 can perform surrounding search, route search, and route guidance.

(音声認識起動待ち)
まず、制御部18は、周辺検索等の所定の処理のための音声認識起動待ちのときには、起動ワードのみを認識可能な状態にある。図10の表示画面M1は、音声認識起動待ちの画面例である。この表示画面M1には、現在位置51の周辺の地図とともに、現在位置51を示すアイコンが表示されている。表示画面M1の左上には、現在の時刻(10:00)が表示されるとともに、その下方に地図スケールの現在の量的レベルである数字と単位(100m)を示すスケールボタンB1、音声認識を起動させる指示語(音声認識)が表示された音声認識ボタンB2が表示されている。表示画面M1の右下には、キャラクター100の上半身が表示されている。キャラクター100は、標準レイであり、その表示位置は、各種のボタン、現在位置、現在の時刻等の表示を遮らない位置となっている。
(Waiting for voice recognition to start)
First, when the control unit 18 is waiting to start voice recognition for a predetermined process such as a surrounding search, it is in a state where it can recognize only the activation word. The display screen M1 in FIG. 10 is an example of a screen waiting for voice recognition to start. On this display screen M1, an icon indicating the current position 51 is displayed along with a map around the current position 51. At the top left of the display screen M1, the current time (10:00) is displayed, and below it are a scale button B1 that shows the number and unit (100 m) that is the current quantitative level of the map scale, and a voice recognition button. A voice recognition button B2 is displayed that displays an instruction word (voice recognition) to be activated. The upper body of the character 100 is displayed at the lower right of the display screen M1. The character 100 is a standard lay, and its display position is such that it does not block the display of various buttons, current position, current time, etc.

この音声認識起動待ちの状態では、周辺検索等の所定の処理を、音声認識により行うことはできない。このため、地図スケールを変更したいユーザは、スケールボタンB1をタッチすることにより選択する。このようにスケールボタンB1が選択されると、図10の表示画面M1aに示すように、制御部18は、スケールボタンB1の右に+ボタンB1a、-ボタンB1bを表示させる。ユーザは、スケールをアップする場合には+ボタンB1a、スケールをダウンする場合には-ボタンB1bをタッチすることにより選択する。これに応じて、制御部18は、表示している地図のスケールを段階的に変化させる。 In this state of waiting for voice recognition activation, predetermined processing such as surrounding search cannot be performed by voice recognition. Therefore, a user who wishes to change the map scale selects it by touching the scale button B1. When the scale button B1 is selected in this way, the control unit 18 displays a + button B1a and a - button B1b to the right of the scale button B1, as shown in the display screen M1a of FIG. 10. The user makes a selection by touching the + button B1a to increase the scale, and by touching the - button B1b to decrease the scale. In response to this, the control unit 18 changes the scale of the displayed map in stages.

このような音声認識起動待ちの状態において、ユーザが、「れーたん、ぼいすこんとろーる」と発話すると、制御部18は、これに対応する応答フレーズを出力するとともに、音声認識を起動する。これにより、例えば、「なにか用事?」という音声をスピーカ20が出力する。そして、制御部18は、表示画面M1を、図11に示す表示画面V1に遷移させる。 In this state of waiting for voice recognition to start, when the user utters "Retan, voice control," the control unit 18 outputs the corresponding response phrase and starts voice recognition. do. As a result, the speaker 20 outputs, for example, a voice saying "Is there something you need to do?". Then, the control unit 18 transitions the display screen M1 to the display screen V1 shown in FIG. 11.

なお、音声認識ボタンB2を、ユーザがタッチして選択した場合にも、制御部18は上記のような応答フレーズを出力して、音声認識を起動する。制御部18は、このように手操作でも音声入力でも選択できる機能に対応するボタンを、他のボタンと色分けして表示部5に表示させる。例えば、本実施形態の表示画面では、音声入力により選択可能なボタンを青色で、他のボタンを黒色で表示している。これにより、音声入力可能な機能を、ユーザは視覚によって認識することができる。なお、同じ機能であっても、音声入力により選択可能か否かは、表示画面によって相違する。例えば、図10の表示画面M1、M1aでは、音声認識機能が開始していないため、スケールボタンB1は、音声入力により選択できない状態にあり、黒色で表示されている。そして、後述するように音声認識機能が開始した後は、スケールボタンB1は、音声入力により選択できる状態となるので、青色で表示される。 Note that even when the user touches and selects the voice recognition button B2, the control unit 18 outputs the above response phrase and starts voice recognition. The control unit 18 causes the display unit 5 to display buttons corresponding to functions that can be selected either manually or by voice input in different colors from other buttons. For example, on the display screen of this embodiment, buttons that can be selected by voice input are displayed in blue, and other buttons are displayed in black. This allows the user to visually recognize functions that can be input by voice. Note that even if the functions are the same, whether or not they can be selected by voice input differs depending on the display screen. For example, on the display screens M1 and M1a in FIG. 10, the voice recognition function has not started, so the scale button B1 cannot be selected by voice input, and is displayed in black. Then, as will be described later, after the voice recognition function starts, the scale button B1 is displayed in blue because it can be selected by voice input.

(音声認識開始)
図11の表示画面V1は、ナビ(ナビゲーション)待機中の音声認識開始の画面例である。なお、図12の表示画面V1aは、後述するナビ案内開始後の音声認識開始の画面例である。制御部18は、音声認識を起動させると、表示画面V1に、地図スケールのボタンを、音声入力可能であることを示す青色で表示させる。また、制御部18は、表示画面V1に、その他の音声入力可能な機能のボタンを、音声入力可能であることを示す青色で表示させる。これらのボタンのうち、音声解除ボタンB2xは、音声認識を終了させる指示語「音声解除」が表示されたボタンである。周辺ボタンB3は、周辺検索を開始させる指示語「周辺」が表示されたボタンである。周辺検索は、ナビゲーション案内中は機能できないので、制御部18は、周辺ボタンB3は、図12の表示画面V1aでは表示させない。制御部18は、表示画面V1aにおけるV1の周辺ボタンB3と同位置に、案内を中止させる指示語「案内中止」が表示された、案内中止ボタンB4xを表示させる。
(Start voice recognition)
The display screen V1 in FIG. 11 is an example of a screen for starting voice recognition during navigation standby. Note that the display screen V1a in FIG. 12 is an example of a screen for starting voice recognition after starting navigation guidance, which will be described later. When the control unit 18 activates voice recognition, the control unit 18 causes the map scale button to be displayed in blue on the display screen V1, indicating that voice input is possible. Further, the control unit 18 causes buttons for other functions that allow voice input to be displayed in blue, indicating that voice input is possible, on the display screen V1. Among these buttons, the voice cancel button B2x is a button on which the command word "voice cancel" for terminating voice recognition is displayed. The surrounding button B3 is a button on which the instruction word "surroundings" for starting a surrounding search is displayed. Since the surrounding search cannot function during navigation guidance, the control unit 18 does not display the surrounding button B3 on the display screen V1a of FIG. 12. The control unit 18 displays a guidance stop button B4x on which the command word "guidance stop" for stopping the guidance is displayed at the same position as the peripheral button B3 of V1 on the display screen V1a.

また、表示画面V1、V1aには、スケールボタンB1、音声解除ボタンB2x、案内中止ボタンB4xと同列に、音量ボタンB5、輝度ボタンB6が表示される。音量ボタンB5は、音量変更を開始させる指示語「音量」と、現在の音の量的レベルを示す数字「5」が表示されたボタンである。輝度ボタンB6は、輝度変更を開始させる指示語「輝度」と、現在の輝度の量的レベルを示す数字「5」が表示されたボタンである。さらに、表示画面V1における右上には、自宅ボタンB7が表示される。自宅ボタンB7は、自宅を目的地とする経路案内を行わせる指示語「自宅」が表示されたボタンである。これらの指示語、量的レベルを示す数字は、上記の図5、図6に示したように、認識ワードとして登録されている語句である。 Further, on the display screens V1 and V1a, a volume button B5 and a brightness button B6 are displayed in the same row as the scale button B1, the audio cancel button B2x, and the guidance cancel button B4x. The volume button B5 is a button on which an instruction word "volume" for starting a volume change and a number "5" indicating the current quantitative level of sound are displayed. The brightness button B6 is a button on which the instruction word "brightness" for starting a brightness change and the number "5" indicating the current quantitative level of brightness are displayed. Furthermore, a home button B7 is displayed at the upper right of the display screen V1. The home button B7 is a button on which the instruction word "home" is displayed, which causes route guidance with the home as the destination. These instruction words and numbers indicating quantitative levels are words and phrases registered as recognition words, as shown in FIGS. 5 and 6 above.

このように、複数のボタンによって構成される項目の表示領域は、背後の画像である地図が見える部分を有している。つまり、各ボタンの間には、隙間が開いていて、背後の地図が見えている。一方、キャラクター100の表示領域は、1つのボタンよりも大きく、地図と重なる部分において、背後が見える部分を有しない。なお、髪と身体、手足と胴体などの間に生じる隙間においては、背後の地図が見える部分が生じる場合があるが、キャラクター100の表示領域としては、このような部分を除く。 In this way, the display area of the item formed by the plurality of buttons has a portion where the map, which is the image behind it, can be seen. In other words, there is a gap between each button, allowing you to see the map behind it. On the other hand, the display area of the character 100 is larger than one button, and there is no part where the back can be seen in the part that overlaps with the map. Note that in gaps between hair and the body, limbs and torso, etc., there may be parts where the map behind can be seen, but such parts are excluded as the display area of the character 100.

制御部18が表示部5に表示させるキャラクター100の位置は、現在位置や案内ルートの視認を邪魔しない位置である。図11の表示画面V1、図12の表示画面V1aでは、キャラクター100は、画面における右下に寄った位置に表示されており、上記の各ボタンは、これと左右若しくは上下の関係で反対側に寄った位置、左上若しくは右上に表示されている。 The position of the character 100 that is displayed on the display unit 5 by the control unit 18 is a position that does not obstruct the visual recognition of the current position or the guide route. In the display screen V1 in FIG. 11 and the display screen V1a in FIG. It is displayed in the upper left or upper right position.

(ジャンル選択)
上記のナビ待機中の表示画面V1において、ユーザが、「しゅうへん」と発話すると、制御部18は、表示画面V1を、図13に示す周辺1の表示画面S1に遷移させるとともに、応答フレーズ「ねえ、どこ行く?」の音声を出力させる。このように、複数回の選択を行うことにより処理を進める周辺検索において、キャラクター100が、ジャンル選択という次の選択を促す発話を行うことにより、ユーザは次に何をすべきかが即座にわかるのでよい。一方、ナビ案内中のV1aの表示画面においては、周辺検索の機能は働かない。このため、ユーザが、「しゅうへん」と発話しても、これを認識した制御部18は、「何て言ったの? わかんない。」というキャラクターの音声を出力させて、周辺1の画面に遷移させない。このように、次に進めない処理を選択した場合には、キャラクター100が、これに対応した応答フレーズを発話することにより、ユーザが、当該表示画面ではその処理を行うことができないことがわかるのでよい。
(genre selection)
When the user utters "Shuuhen" on the navigation standby display screen V1 described above, the control unit 18 transitions the display screen V1 to the peripheral 1 display screen S1 shown in FIG. "Hey, where are you going?" is output. In this way, in a peripheral search that advances processing by making multiple selections, the character 100 makes a speech that prompts the next selection, which is genre selection, so that the user can instantly know what to do next. good. On the other hand, the surrounding search function does not work on the display screen of V1a during navigation guidance. Therefore, even if the user utters "Hello", the control unit 18 recognizes this and outputs the character's voice saying "What did you say? I don't understand." and displays it on the peripheral 1 screen. Do not transition. In this way, when a process that cannot proceed to the next step is selected, the character 100 utters a response phrase corresponding to this, so that the user can understand that the process cannot be performed on the relevant display screen. good.

制御部18は、上記のように、ユーザからの音声認識を起動させる音声の入力→これに対して用事を尋ねるキャラクターの応答フレーズの出力→これに対してユーザからの機能を開始させる音声の入力、というように、少なくとも一往復のやり取りがなされる対話を基本に処理を進行させる。この対話の中における応答フレーズの出力は、その応答フレーズが示す意味内容とともに、キャラクターがユーザの音声を認識したことを示す機能を果たしている。 As described above, the control unit 18 inputs a voice from the user to start voice recognition → outputs a response phrase of a character asking about an errand → inputs a voice from the user to start a function. , etc., the process proceeds based on a dialogue that involves at least one round trip. The output of a response phrase during this dialogue, together with the meaning indicated by the response phrase, functions to indicate that the character has recognized the user's voice.

上記のように、ユーザの発話により遷移した図13の表示画面S1には、制御部18は、認識ワードとしてのジャンル名が表示されたジャンルボタンB8を表示させる。これらのジャンルボタンB8に表示されたジャンル名は、図5のリスト番号4の認識ワードに対応している。このジャンルボタンB8は、ユーザがタッチして選択することもできる。ジャンル名は、漢字を含めず、ひらがな若しくはカタカナとしているので、運転者等が何を発話すればよいかが、視覚で容易にわかるのでよい。 As described above, on the display screen S1 of FIG. 13 that is changed by the user's utterance, the control unit 18 displays the genre button B8 on which the genre name as a recognized word is displayed. The genre names displayed on these genre buttons B8 correspond to the recognized word of list number 4 in FIG. This genre button B8 can also be selected by the user by touching it. Since the genre name does not include kanji and is written in hiragana or katakana, the driver or the like can easily understand visually what to say.

この表示画面S1において、ユーザが、ボタンに表示された認識ワード、「ふぁみれす」を発話すると、制御部18は、キャラクターが応答フレーズ「一人ぼっちでファミレス行くの?」という音声を出力させる。すると、制御部18は、ファミリーレストランの候補を検索する処理に移行する。このため、ジャンル選択のフェーズとしては、さらにユーザが何らかの選択する必要はない。つまり、「一人ぼっちでファミレス行くの?」は、さらに次のジャンル選択は必要ないことをユーザにわからせる音声となっているのでよい。また、この応答フレーズは、話し相手であるキャラクター100以外は、自分が一人であることをユーザに意識させて、よりキャラクター100との親密さを高めることができるのでよい。 On this display screen S1, when the user speaks the recognition word "Family" displayed on the button, the control unit 18 causes the character to output the voice response phrase "Are you going to a family restaurant by yourself?" Then, the control unit 18 moves to a process of searching for family restaurant candidates. Therefore, there is no need for the user to make any further selections during the genre selection phase. In other words, "Are you going to a family restaurant by yourself?" is a good sound because it informs the user that there is no need to select the next genre. In addition, this response phrase is good because it makes the user aware that he or she is alone except for the character 100 with whom he or she is speaking, thereby increasing intimacy with the character 100.

また、ユーザが表示画面S1に表示されたジャンル以外のジャンルから選択したい場合のために、制御部18は、表示画面S1に、次のページへ遷移させる認識ワード「2ページ」を表示したページボタンB9を表示させている。この表示画面S1において、ユーザは、「にぺーじ」又は「つぎ」と発話すると、制御部18は、表示部5に表示させる画面を、図14の周辺2の表示画面S1aに遷移させる。 In addition, in case the user wants to select from genres other than those displayed on the display screen S1, the control unit 18 displays a page button on the display screen S1 displaying the recognition word "Page 2" for transitioning to the next page. B9 is displayed. On this display screen S1, when the user utters "next page" or "next", the control unit 18 causes the screen displayed on the display unit 5 to transition to the peripheral 2 display screen S1a in FIG.

この表示画面S1aには、図5のリスト番号5の認識ワードに対応するジャンル名が表示されたジャンルボタンB8が表示される。ユーザが、ジャンルボタンB8に表示されたジャンル名の認識ワードを発話すると、制御部18は、これに対する応答フレーズを出力させる。また、制御部18は、表示画面S1aに、前のページへ遷移させる認識ワード「1ページ」を表示したページボタンB9を表示させている。この表示画面S1aにおいて、ユーザは、「いちぺーじ」又は「まえ」と発話すると、制御部18は、表示部5に表示させる画面を、図13の周辺1の表示画面S1に遷移させる。 This display screen S1a displays a genre button B8 on which a genre name corresponding to the recognized word of list number 5 in FIG. 5 is displayed. When the user utters the recognized word of the genre name displayed on the genre button B8, the control unit 18 causes a response phrase to be outputted. Furthermore, the control unit 18 causes the display screen S1a to display a page button B9 displaying the recognition word "1 page" for transitioning to the previous page. On this display screen S1a, when the user utters "first page" or "mae", the control unit 18 causes the screen displayed on the display unit 5 to transition to the display screen S1 of the periphery 1 in FIG. 13.

(施設選択)
このように、ジャンルが選択されると、制御部18は、当該ジャンルに属する現在地周辺の施設検索を行い、表示部5に表示させる画面を、図15に示すように、施設選択1の表示画面S2に遷移させる。この表示画面S2は、施設検索の結果が表示される。つまり、表示画面S2には、検索でヒットした施設が、地図上の所在地に、現在地に近い順に番号が付されたアイコンC1で表示されている。図15では、円形内に数字1~5を表示したアイコンC1が、地図上の位置に表示されている。このように周辺検索の結果は、ユーザにとって必要な目標(ジャンル)の施設しか表示しない。このとき、地図表示をグレースケールにして、アイコンC1をカラー表示することにより、施設の位置や番号がよりわかりやすくなる。また、別の画面からS2の画面に遷移した場合、制御部18は、「どこにしよっか?」といった目的地の選択を促す応答フレーズを出力させる。
(facility selection)
When a genre is selected in this way, the control unit 18 searches for facilities in the vicinity of the current location that belong to the genre, and changes the screen to be displayed on the display unit 5 to the facility selection 1 display screen as shown in FIG. Transition to S2. This display screen S2 displays the results of the facility search. That is, on the display screen S2, facilities hit by the search are displayed as icons C1 whose locations on the map are numbered in order of proximity to the current location. In FIG. 15, an icon C1 with numbers 1 to 5 displayed inside a circle is displayed at a position on the map. In this way, the results of the surrounding search display only the facilities of the desired target (genre) for the user. At this time, by setting the map display to gray scale and displaying the icon C1 in color, the location and number of the facility can be more easily understood. Further, when transitioning from another screen to the screen S2, the control unit 18 outputs a response phrase such as "Where should we go?" prompting the user to select a destination.

ユーザは、表示画面S2において、アイコンC1の表示に合わせた内容で、施設を選択する。つまり、所望の施設のアイコンC1に表示された番号を発話すると、制御部18はこれに対応する応答フレーズを出力させて、当該施設までのルート探索を行う。例えば、「いち」又は「いちばん」を発話すると、キャラクター100が「1番ね」と発話して、1番で表示された施設までのルート探索が実行される。このように、ユーザが発話した番号をキャラクター100が発話することにより、ユーザが自らの指示内容を確認することができる。 The user selects a facility on the display screen S2 with the content matching the display of the icon C1. That is, when the number displayed on the icon C1 of a desired facility is uttered, the control unit 18 outputs a corresponding response phrase and searches for a route to the facility. For example, when "ichi" or "ichiban" is uttered, the character 100 utters "first place," and a route search to the facility displayed as number one is executed. In this way, by having the character 100 speak the number spoken by the user, the user can confirm the content of his or her instruction.

なお、表示画面S2には、スケールボタンB1と、リストボタンB10が表示されている。スケールボタンB1は、上記のように、地図スケールを変更するボタンである。この表示画面S2において、地図のスケールを変更したいユーザが、「すけーる」と発話すると、制御部18は、どのスケールに変更するかを促す応答フレーズを出力し、図16に示す施設選択2の表示画面S2aに遷移する。例えば、ユーザが「すけーる」と発話すると、制御部18は、「何か指示して」という応答フレーズを出力し、図16に示すように、スケールを変更するための+ボタンB1a、-ボタンB1bを表示させる。音声入力によるスケール変更処理については、後述する。 Note that a scale button B1 and a list button B10 are displayed on the display screen S2. The scale button B1 is a button for changing the map scale, as described above. On this display screen S2, when the user who wants to change the scale of the map utters "scale", the control unit 18 outputs a response phrase prompting the user to change the scale to facility selection 2 shown in FIG. The screen changes to the display screen S2a. For example, when the user utters "scale", the control unit 18 outputs a response phrase "instruct me something", and as shown in FIG. 16, + button B1a for changing the scale, - Display button B1b. The scale change process by voice input will be described later.

リストボタンB10は、施設を選択する画面を、アイコン表示からリスト表示に遷移させるボタンである。表示画面S2において、ユーザが、「りすと」又は「りすとひょうじ」と発話すると、制御部18は、表示部5に表示させる画面を、図17に示す施設選択1の表示画面S2_listに遷移させる。このS2_listの表示画面には、検索された施設が、アイコンではなく、施設選択ボタンB11が現在地に近い順に並べられたリストで表示される。各施設選択ボタンB11は、現在地に近い順に付された番号、施設名、現在位置から施設までの距離、所在地等が表示される。ユーザは、施設選択ボタンB11をタッチするか、ボタンに表示された番号を発話することにより、上記と同様に、施設を選択できる。施設選択ボタンB11には、番号の他、施設名、現在位置からの距離、所在地等が表示されるので、ユーザは、検索された施設についてのより詳細な情報を得ることができるのでよい。 The list button B10 is a button for transitioning the facility selection screen from icon display to list display. When the user utters "list" or "list and hyoji" on the display screen S2, the control unit 18 changes the screen displayed on the display unit 5 to the display screen S2_list of facility selection 1 shown in FIG. 17. let On this S2_list display screen, searched facilities are displayed not as icons but as a list in which facility selection buttons B11 are arranged in order of proximity to the current location. Each facility selection button B11 displays a number assigned in order of proximity to the current location, facility name, distance from the current location to the facility, location, etc. The user can select a facility in the same way as above by touching the facility selection button B11 or speaking the number displayed on the button. The facility selection button B11 displays the facility name, distance from the current location, location, etc. in addition to the number, so the user can obtain more detailed information about the searched facility.

制御部18は、検索された候補の数が、1ページの表示可能数(例えば、5個)よりも多い場合には、次ページが存在することを示す「2ページ」を表示したページボタンB9を表示させる。制御部18は、候補が1ページの表示可能数未満の場合には、ページボタンB9は非表示とする。ユーザは、「にぺーじ」又は「つぎ」と発話すると、制御部18は、図18に示す施設選択2の表示画面S2a_listに遷移させる。この表示画面S2a_listに表示されたリストにおける施設の選択処理は、上記と同様である。また、制御部18は、表示画面S2_listに、前のページへ遷移させる認識ワード「1ページ」を表示したページボタンB9を表示させる。この表示画面S1aにおいて、ユーザは、「いちぺーじ」又は「まえ」と発話すると、制御部18は、表示部5に表示させる画面を、図16の施設選択1の表示画面S1に遷移させる。 If the number of searched candidates is greater than the number of candidates that can be displayed on one page (for example, 5), the control unit 18 selects a page button B9 that displays "page 2" indicating that the next page exists. Display. If the number of candidates is less than the number of candidates that can be displayed on one page, the control unit 18 hides the page button B9. When the user utters "next page" or "next", the control unit 18 causes the display screen to change to the facility selection 2 display screen S2a_list shown in FIG. 18. The process for selecting facilities in the list displayed on this display screen S2a_list is the same as described above. Further, the control unit 18 causes the display screen S2_list to display a page button B9 displaying the recognition word "1 page" for transitioning to the previous page. On this display screen S1a, when the user utters "first page" or "mae", the control unit 18 causes the screen displayed on the display unit 5 to transition to the display screen S1 of facility selection 1 in FIG. 16.

(ルート選択)
以上のように、施設が選択されると、制御部18は、現在位置51から目的地52とする施設までのルート53を探索し、その結果を図19に示すルート選択1の表示画面R1に表示させる。探索されたルート53は、あらかじめ設定されたルート条件に基づいて、最も優先させるべきルート53が色分け表示される。このとき、キャラクター100は、ルート案内方向により、地図上で邪魔にならない位置に移動する。つまり、キャラクター100を、地図上の現在位置を含む探索されたルート表示を遮らない位置に表示させる。ただし、上記のように、キャラクター100は、既に画面の右下に表示されており、表示画面R1の例では、探索されたルートを邪魔しないので、この例では移動はない。
(Route selection)
As described above, when a facility is selected, the control unit 18 searches for a route 53 from the current position 51 to the facility as the destination 52, and displays the result on the display screen R1 of route selection 1 shown in FIG. Display. Among the searched routes 53, the route 53 that should be given the highest priority is displayed in different colors based on route conditions set in advance. At this time, the character 100 moves to a position where it does not get in the way on the map according to the route guidance direction. That is, the character 100 is displayed in a position that does not block the searched route display including the current position on the map. However, as described above, the character 100 is already displayed at the lower right of the screen, and in the example of the display screen R1, does not interfere with the searched route, so there is no movement in this example.

一方、制御部18は、表示画面R1において、複数のボタンを、キャラクターと反対側、つまり左側に表示させる。複数のボタンは、数が少なければ、探索されたルート53に重なる部分は生じない。もし、ボタン数が多くなったとしても、各ボタンの間には、隙間が開いていて、地図やルート53が見える。これらのボタンには、スケールボタンB1が含まれる。ユーザが、スケール変更したい場合の操作は、図20に示したルート選択2の表示画面R1aにおいて行うが、これは後述する。 On the other hand, the control unit 18 displays a plurality of buttons on the side opposite to the character, that is, on the left side, on the display screen R1. If the number of buttons is small, there will be no overlap with the searched route 53. Even if the number of buttons increases, there will be gaps between each button so that the map and route 53 can be seen. These buttons include a scale button B1. When the user wishes to change the scale, the operation is performed on the route selection 2 display screen R1a shown in FIG. 20, which will be described later.

さらに、表示画面R1には、ルート条件を変更する指示語である「ルート条件」が表示されたルート条件ボタンB12が表示されている。ユーザが、「じょうけん」又は「るーとじょうけん」と発話すると、制御部18は、図21に示したルート選択3の表示画面R1bに遷移させる。この表示画面R1bにおいては、「ルート条件」のボタンの横に、「高速道」、「一般道」、「推奨」という優先すべき探索条件を選択する条件選択ボタンB12a、B12b、B12cが表示される。この表示画面R1bにおいて、ユーザが、「いっぱんどう」、「こうそくどう」又は「すいしょう」と発話すると、制御部18は、それぞれに応じた応答フレーズを出力して、探索条件を発話された条件に変更し、変更された探索条件で最も優先されるルート53を表示させる。例えば、制御部18は、一般道であれば、「うんうん、一般道でゆっくり行こう。」、高速道であれば、「高速道で時間短縮ね。」というように、それぞれの探索条件の利点を示す応答フレーズを出力する。また、推奨道であれば、「私に任せてくれるのね。」というキャラクターとの信頼関係を示す応答フレーズを出力する。 Further, on the display screen R1, a route condition button B12 is displayed, in which "route condition", which is an instruction word for changing route conditions, is displayed. When the user utters "Jokken" or "Route Jokken", the control unit 18 causes the display screen to change to the route selection 3 display screen R1b shown in FIG. 21. In this display screen R1b, condition selection buttons B12a, B12b, and B12c for selecting priority search conditions such as "expressway", "general road", and "recommended" are displayed next to the "route condition" button. Ru. On this display screen R1b, when the user utters ``Ippando'', ``Kousokudou'', or ``Suisho'', the control unit 18 outputs a response phrase corresponding to each phrase, and the search condition is uttered. The route 53 given the highest priority under the changed search conditions is displayed. For example, the control unit 18 may set the search conditions for each search condition, such as "Yeah, yeah, let's go slowly on the local road" if it is a general road, or "Let's save time on the highway" if it is a highway. Output a response phrase that indicates the benefits. Additionally, if it is a recommended path, it outputs a response phrase that indicates a relationship of trust with the character, such as ``You're going to leave it to me.''

そして、表示画面R1には、表示されたルート53による案内を希望する場合に、指示語である「案内開始」が表示された案内開始ボタンB13が表示されている。ユーザが、所望のルート53が表示された画面において、「あんないかいし」、「あんないよろしく」又は「あんないして」と発話すると、制御部18は、「案内開始。言う通りに運転してくれ」という応答フレーズを出力して、ルート案内を開始する。 Then, on the display screen R1, a guidance start button B13 on which the instruction word "start guidance" is displayed is displayed when the user desires guidance along the displayed route 53. When the user utters "That's good", "That's good" or "That's good" on the screen displaying the desired route 53, the control unit 18 says "Start guidance. Please drive as I say." It outputs the response phrase "Please help me" and starts providing route guidance.

さらに、ユーザが、周辺検索をさせる「しゅうへん」又は戻るフレーズである「もどる」、「とりけし」若しくは「やりなおし」を発話すると、制御部18は、「再検索」という応答フレーズを出力して、図13に示したS1の表示画面に遷移させる。その後の周辺検索処理は、上記の通りである。戻るフレーズの発話に対しては、図15~図21に示した表示画面S2、S2a、S2_list、S2a_list、R1、R1a、R1bにおいては、同様の処理となる。 Furthermore, when the user utters "Shuuhen" to perform a surrounding search or a phrase to return to, such as "Back", "Torikeshi" or "Ado," the control unit 18 outputs the response phrase "Search again", Transition is made to the display screen S1 shown in FIG. 13. The subsequent surrounding search process is as described above. Regarding the utterance of the return phrase, the same processing is performed on the display screens S2, S2a, S2_list, S2a_list, R1, R1a, and R1b shown in FIGS. 15 to 21.

なお、図11、12に示した音声認識開始の表示画面V1、V1aにおける戻るフレーズの発話に対しては、制御部18は、「また呼んでね。」という応答フレーズを出力して、図10に示した表示画面M1に遷移させて音声認識起動待ちに戻る。図13、14に示した周辺検索の表示画面S1、S1aにおける戻るフレーズの発話に対しては、制御部18は、「最初からね。」という応答フレーズを出力して、図11に示した音声認識開始の表示画面V1に遷移させる。このように、同じ認識ワードであっても、現在の表示画面及びこれに対応するフェーズに応じて、遷移させる表示画面が相違している。つまり、戻るフレーズに対して、遷移させる表示画面を変えることにより、戻り過ぎをなくして、ユーザが再度やり直す手間を抑えることができる。 Note that in response to the utterance of the return phrase on the voice recognition start display screens V1 and V1a shown in FIGS. 11 and 12, the control unit 18 outputs the response phrase "Call me again." The screen changes to the display screen M1 shown in , and returns to the voice recognition start-up state. In response to the utterance of the return phrase on the peripheral search display screens S1 and S1a shown in FIGS. 13 and 14, the control unit 18 outputs the response phrase "From the beginning." Transition is made to the display screen V1 for starting recognition. In this way, even if the recognition word is the same, the display screen to which it is transitioned is different depending on the current display screen and the phase corresponding thereto. In other words, by changing the display screen to which the phrase is to be transitioned for the phrase to be returned to, it is possible to prevent excessive return and to reduce the user's effort to try again.

そして、本実施形態では、戻るフレーズとは別に、解除フレーズを用意している。ユーザが、「おんせいかいじょ」、「しゅうりょう」又は「げんざいち」と発話すると、常に、音声認識起動待ちの表示画面M1に戻る。このとき、制御部18は、「また呼んでね。」と、次回の利用を促す応答フレーズを出力させる。このように、表示画面やフェーズに応じて、戻る位置が異なる認識ワードと、一定の位置に戻る認識ワードとを登録しておくことで、ユーザが状況に応じて所望の画面への推移をすばやく行うことができる。 In this embodiment, a cancellation phrase is prepared separately from the return phrase. When the user utters "Onsei Kaijo", "Shuuryo", or "Genzaichi", the screen always returns to the display screen M1 waiting for voice recognition to start. At this time, the control unit 18 outputs a response phrase "Please call me again." urging the user to use the service next time. In this way, by registering recognition words that return to different positions depending on the display screen or phase, and recognition words that return to a fixed position, the user can quickly transition to a desired screen depending on the situation. It can be carried out.

さらに、画面やフェーズに応じて、処理できない認識ワードが発話された場合には、制御部18は、その認識ワードでは処理できないことを明示する応答フレーズを出力することにより、ユーザに、別のワードを発話すべきことを促すことができる。例えば、図12の表示画面V1a、図15~図18の表示画面S2、S2a、S2_list、S2a_listでは、「何って言ったの? わかんない。」という応答フレーズを出力している。 Furthermore, if a recognition word that cannot be processed is uttered depending on the screen or phase, the control unit 18 outputs a response phrase that clearly indicates that the recognition word cannot be processed, and prompts the user to try another word. It can prompt you to say what you should say. For example, in the display screen V1a of FIG. 12 and the display screens S2, S2a, S2_list, and S2a_list of FIGS. 15 to 18, a response phrase "What did you say? I don't know." is output.

《地図スケール変更》
制御部18は、対話に応じて、機能を変更する処理として、地図スケール、音量、輝度を変更する処理を行う。まず、地図スケールの変更の手順を、図22を参照して説明する。なお、図15の表示画面S2から、図16の表示画面S2aに遷移した場合、図19の表示画面R1から、図20の表示画面R1aに遷移した場合の地図スケールの変更も同様である。
《Map scale change》
The control unit 18 performs a process of changing the map scale, volume, and brightness as a process of changing functions in response to the dialogue. First, the procedure for changing the map scale will be explained with reference to FIG. 22. Note that the same applies to changes in the map scale when transitioning from display screen S2 in FIG. 15 to display screen S2a in FIG. 16 and when transitioning from display screen R1 in FIG. 19 to display screen R1a in FIG. 20.

音声認識を開始した図11、12の表示画面V1、V1aにおいて、地図スケールを変更したいユーザが「すけーる」と発話すると、制御部18は、図22の表示画面A1、A1aに遷移させる。表示画面A1は、表示画面V1から遷移した画面であり、表示画面A1aは表示画面V1aから遷移した画面である。表示画面A1では、別の画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A1aは、ナビ案内中における地図スケールの変更画面である。 When the user who wants to change the map scale utters "scale" on the display screens V1 and V1a of FIGS. 11 and 12 where voice recognition has started, the control unit 18 causes the display screen to change to the display screens A1 and A1a of FIG. 22. Display screen A1 is a screen transitioned from display screen V1, and display screen A1a is a screen transitioned from display screen V1a. On the display screen A1, the control unit 18 outputs a response phrase "Please give me some instructions." only when the screen transitions from another screen (scene). In this way, even when the screen changes, the character 100 can make the user aware that the character 100 is always nearby by uttering utterances that prompt instructions. Furthermore, the display screen A1a is a map scale change screen during navigation guidance.

この表示画面A1、A1aにおいては、スケールボタンB1の右横に、+ボタンB1a、-ボタンB1bが表示されている。上記のように、ユーザが+ボタンB1aをタッチすると、制御部18は、地図スケールを段階的にアップさせる。また、ユーザが-ボタンB1bをタッチすると、制御部18は、地図スケールを段階的にダウンさせる。また、本実施形態では、ユーザが「かくだい」又は「しょうさい」と発話すると、これを認識した制御部18は、地図スケールを段階的にアップさせる。ユーザが「しゅくしょう」、「こういき」と発話すると、これを認識した制御部18は、地図スケールを段階的にダウンさせる。 In the display screens A1 and A1a, a + button B1a and a - button B1b are displayed to the right of the scale button B1. As described above, when the user touches the + button B1a, the control unit 18 increases the map scale in stages. Furthermore, when the user touches the - button B1b, the control unit 18 lowers the map scale in stages. Furthermore, in this embodiment, when the user utters "Kakudai" or "Shosai", the control unit 18 recognizes this and increases the map scale in stages. When the user utters ``shukusho'' or ``kouiki'', the control unit 18 recognizes this and lowers the map scale step by step.

そして、制御部18は、スケールアップのときには、「拡大したよ。」、スケールダウンのときは「少し広域にしてみました。」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、スケールを変えるとスケールの上限又は下限を超えてしまう場合には、「ぶぶ~、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。 Then, the control unit 18 generates a response phrase that allows you to confirm what changes have been made, such as ``I expanded the area'' when scaling up, and ``I tried making the area a little wider'' when scaling down. output. This allows the user to confirm by voice what kind of processing has been performed. Furthermore, if changing the scale would exceed the upper or lower limit of the scale, the control unit 18 outputs a response phrase informing that the change cannot be made, such as "Bubu~, it's at my limit." This prevents the user from repeating unnecessary change instructions without being able to confirm whether the upper limit or the lower limit has been reached.

また、ユーザが「じゅうめーとる」、「いちきろ」のように、所望のスケールの値を発話すると、これを認識した制御部18は、地図スケールを、発話された値にダイレクトに変更させる。このとき、制御部18は、ユーザの発話に対応する応答フレーズとして、「10メートル」、「1キロ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示したスケールのレベルを確認できる。 Furthermore, when the user utters a desired scale value such as "Jyu-meter" or "Ichikiro", the control unit 18 recognizes this and directly changes the map scale to the uttered value. . At this time, the control unit 18 outputs a response phrase corresponding to the input value, such as "10 meters" or "1 kilometer," as a response phrase corresponding to the user's utterance. This allows the user to confirm the level of the scale that he or she has specified.

そして、ユーザが、「すけーる」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、スケール変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。 Then, when the user utters "Scale" or a phrase to return to, the control unit 18 outputs a response phrase indicating that the scale change process has been completed, such as "Settings are complete." . The processing with the cancellation phrase is the same as above.

また、表示画面A1の場合には、自宅ボタンが表示されていて、ユーザが、このボタンをタッチするか、「じたく」と発話すると、制御部18は、次のように処理する。まず、あらかじめ自宅登録がなされていない場合には、制御部18は、「自宅って言うけど、私に教えてないでしょ。」というように、自宅登録を促す応答フレーズを出力させる。これにより、特定の機能を実行する前提として必要となる処理を、音声により促すので、当該機能を利用するために、何が必要かをユーザに理解させることができるのでよい。自宅登録がなされている場合には、制御部18は、「そうだね、帰ろっか。」という応答フレーズを出力させ、自宅へのルートを探索する。これにより、ユーザは、キャラクターが一緒に帰ってくれるような印象を得ることができるのでよい。 Further, in the case of the display screen A1, a home button is displayed, and when the user touches this button or utters "jitaku", the control unit 18 processes as follows. First, if the home has not been registered in advance, the control unit 18 outputs a response phrase urging the user to register the home, such as "You say home, but you haven't told me." Thereby, the process required as a prerequisite for executing a specific function is prompted by voice, so that the user can be made to understand what is necessary in order to use the function. If the user's home has been registered, the control unit 18 outputs a response phrase, ``That's right, let's go home.'' and searches for a route to the user's home. This is good because the user can get the impression that the character will return with them.

なお、表示画面A1aの場合には、ナビ案内中のため、特定の機能が制限される。つまり、周辺検索と、自宅へのルート案内については、表示画面A1aにおいては、実行できない。従って、ユーザが「しゅうへん」と発話しても、「何って言ったの? わかんない」という応答フレーズを出力させて、周辺検索を行わない。また、「じたく」と発話しても、制御部18は、「何って言ったの? わかんない」という応答フレーズを出力させて、自宅へのルート探索は行わない。このように、ユーザは、応答フレーズにより、処理ができないことを知ることができるのでよい。 Note that in the case of the display screen A1a, navigation guidance is in progress, so certain functions are restricted. That is, surrounding search and route guidance to the user's home cannot be performed on the display screen A1a. Therefore, even if the user utters "Huh?", the response phrase "What did you say? I don't know" is output, and a nearby search is not performed. Furthermore, even if the user utters "Jitaku", the control unit 18 outputs the response phrase "What did you say? I don't know" and does not search for a route to the home. In this way, the user can know from the response phrase that the process cannot be performed.

《音量変更》
音量変更の処理手順を、図23を参照して説明する。音声認識を開始した図11、12の表示画面V1、V1aにおいて、音量を変更したいユーザが「おんりょう」と発話すると、制御部18は、図23の表示画面A2、A2aに遷移させる。表示画面A2は、表示画面V1から遷移した画面であり、表示画面A2aは、表示画面V1aから遷移した画面である。表示画面A2では、別の画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A2aは、ナビ案内中における音量変更画面である。
《Volume change》
The processing procedure for changing the volume will be explained with reference to FIG. 23. When the user who wants to change the volume utters "Only" on the display screens V1 and V1a of FIGS. 11 and 12 where voice recognition has started, the control unit 18 causes the display screen to change to the display screens A2 and A2a of FIG. 23. Display screen A2 is a screen transitioned from display screen V1, and display screen A2a is a screen transitioned from display screen V1a. On the display screen A2, the control unit 18 outputs a response phrase "Please give me some instructions." only when transitioning from another screen (scene). In this way, even when the screen changes, the character 100 can make the user aware that the character 100 is always nearby by uttering utterances that prompt instructions. Furthermore, the display screen A2a is a volume change screen during navigation guidance.

この表示画面A2、A2aにおいては、音量ボタンB5の右横に、+ボタンB5a、-のボタンB5bが表示されている。ユーザが+ボタンB5aをタッチすると、制御部18は、音量を段階的にアップさせる。また、ユーザが-ボタンB5bをタッチすると、制御部18は、音量を段階的にダウンさせる。また、本実施形態では、ユーザが「あっぷ」又は「おおきく」と発話すると、これを認識した制御部18は、音量を段階的にアップさせる。ユーザが「だうん」又は「ちいさく」と発話すると、これを認識した制御部18は、音量を段階的にダウンさせる。 In the display screens A2 and A2a, a + button B5a and a - button B5b are displayed to the right of the volume button B5. When the user touches the + button B5a, the control unit 18 increases the volume in stages. Furthermore, when the user touches the - button B5b, the control unit 18 decreases the volume in stages. Furthermore, in the present embodiment, when the user utters "appu" or "oikiku", the control unit 18 recognizes this and increases the volume in stages. When the user utters "Daun" or "Chiisaku", the control unit 18 recognizes this and reduces the volume in stages.

そして、制御部18は、音量アップのときには、「音量ア~ップ」、音量ダウンのときは「音量ダウ~ン」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、音量を変えると音量の上限又は下限を超えてしまう場合には、「ぶぶー、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。 Then, the control unit 18 outputs a response phrase that allows you to confirm what kind of change has been made, such as "volume up" when increasing the volume, and "volume down" when decreasing the volume. . This allows the user to confirm by voice what kind of processing has been performed. Furthermore, if changing the volume would cause the volume to exceed the upper or lower limit, the control unit 18 outputs a response phrase informing that the volume cannot be changed, such as "Bubu, I'm at my limit." This prevents the user from repeating unnecessary change instructions without being able to confirm whether the upper limit or the lower limit has been reached.

また、ユーザが「ぜろ」、「いち」、「に」のように、所望の音量の値を発話すると、これを認識した制御部18は、音量を、発話された値にダイレクトに変更させる。このとき、制御部18は、ユーザの発話に対応する応答フレーズとして、「ゼロだよ」、「1だよ」、「2だよ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示した音量のレベルを確認できる。 Furthermore, when the user utters a desired volume value such as "zero," "ichi," or "ni," the control unit 18 recognizes this and directly changes the volume to the uttered value. . At this time, the control unit 18 outputs a response phrase corresponding to the input value, such as "It's zero," "It's 1," and "It's 2," as a response phrase corresponding to the user's utterance. . This allows the user to confirm the volume level that he or she has instructed.

そして、ユーザが、「おんりょう」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、音量変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。その他の処理は、上記の地図スケールで説明した処理と同様である。 Then, when the user utters "Thank you" or a phrase to return to, the control unit 18 outputs a response phrase, such as "Setting is complete," informing that the volume change process has been completed. The processing with the cancellation phrase is the same as above. Other processes are the same as those described for the map scale above.

《輝度変更》
輝度変更の処理手順を、図24を参照して説明する。音声認識を開始した図11、12の表示画面V1、V1aにおいて、輝度を変更したいユーザが「きど」と発話すると、制御部18は、図24の表示画面A3、A3aに遷移させる。表示画面A3は、表示画面V1から遷移した画面であり、表示画面A3aは、表示画面V1aから遷移した画面である。表示画面A3では、別画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A3aは、ナビ案内中における輝度変更画面である。
《Brightness change》
The processing procedure for changing brightness will be explained with reference to FIG. When the user who wants to change the brightness utters "kido" on the display screens V1 and V1a of FIGS. 11 and 12 where voice recognition has started, the control unit 18 causes the display screen to change to the display screens A3 and A3a of FIG. 24. Display screen A3 is a screen transitioned from display screen V1, and display screen A3a is a screen transitioned from display screen V1a. In the display screen A3, the control unit 18 outputs a response phrase "Please give me some instructions." only when the screen transitions from another screen (scene). In this way, even when the screen changes, the character 100 can make the user aware that the character 100 is always nearby by uttering utterances that prompt instructions. Furthermore, the display screen A3a is a brightness change screen during navigation guidance.

この表示画面A3、A3aにおいては、輝度ボタンB6の横に、+ボタンB6a、-ボタンB6bが表示されている。ユーザが+ボタンB6aをタッチすると、制御部18は、輝度を段階的にアップさせる。ユーザが-ボタンB6bをタッチすると、制御部18は、輝度を段階的にダウンさせる。また、本実施形態では、ユーザが「あっぷ」又は「あかるく」と発話すると、これを認識した制御部18は、輝度を段階的にアップさせる。ユーザが「だうん」又は「くらく」と発話すると、これを認識した制御部18は、輝度を段階的にダウンさせる。 In the display screens A3 and A3a, a + button B6a and a - button B6b are displayed next to the brightness button B6. When the user touches the + button B6a, the control unit 18 increases the brightness in stages. When the user touches the - button B6b, the control unit 18 lowers the brightness in stages. Furthermore, in this embodiment, when the user utters "appu" or "akaluku", the control unit 18 recognizes this and increases the brightness in stages. When the user utters "Daun" or "Kuraku", the control unit 18 recognizes this and reduces the brightness in stages.

そして、制御部18は、輝度アップのときには、「輝度ア~ップ」、ダウンのときは「輝度ダウ~ン」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、輝度を変えると輝度の上限又は下限を超えてしまう場合には、「ぶぶー、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。 Then, the control unit 18 outputs a response phrase that allows confirmation of what kind of change has been made, such as "brightness up" when the brightness is increased and "brightness down" when the brightness is decreased. This allows the user to confirm by voice what kind of processing has been performed. Furthermore, if changing the brightness would cause the brightness to exceed the upper or lower limit, the control unit 18 outputs a response phrase informing that the brightness cannot be changed, such as "Bubu, it's at the limit." This prevents the user from repeating unnecessary change instructions without being able to confirm whether the upper limit or the lower limit has been reached.

また、ユーザが、「ぜろ」、「いち」、「に」のように、所望の輝度の値を発話すると、これを認識した制御部18は、輝度を、発話された値にダイレクトに変更させる。このとき、ユーザの発話に対応する応答フレーズとして、「ゼロだよ」、「1だよ」、「2だよ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示した輝度のレベルを確認できる。 Furthermore, when the user utters a desired brightness value such as "zero", "ichi", or "ni", the control unit 18 recognizes this and directly changes the brightness to the uttered value. let At this time, a response phrase corresponding to the input value is outputted as a response phrase corresponding to the user's utterance, such as "It's zero," "It's one," and "It's two." This allows the user to confirm the brightness level that he or she has specified.

そして、ユーザが、「きど」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、輝度変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。その他の処理は、上記の地図スケールで説明した処理と同様である。 Then, when the user utters "Kido" or a phrase to return, the control unit 18 outputs a response phrase such as "Setting is complete" informing that the brightness change process has been completed. The processing with the cancellation phrase is the same as above. Other processes are the same as those described for the map scale above.

なお、表示画面A1、A1aにおいては、制御部18は、「おんりょう」又は「きど」と発話することにより、表示画面A2、A2a又は表示画面A3、A3aに遷移させる。表示画面A2、A2aにおいては、制御部18は、「きど」又は「すけーる」と発話することにより、表示画面A3、A3a又は表示画面A1、A1aに遷移させる。表示画面A3、A3aにおいては、制御部18は、「すけーる」又は「おんりょう」と発話することにより、表示画面A1、A1a又は表示画面A2、A2aに遷移させる。このように、量的レベルの変更処理の画面を、相互に遷移可能とすることにより、まとめて設定を変更したいユーザにとって、便利となるのでよい。 In addition, in the display screens A1 and A1a, the control unit 18 causes the display screen to transition to the display screen A2 and A2a or the display screen A3 and A3a by saying "onryo" or "kido". On the display screens A2 and A2a, the control unit 18 causes the display screens to transition to the display screens A3 and A3a or the display screens A1 and A1a by saying "kido" or "skel". On the display screens A3 and A3a, the control unit 18 causes the display screens to transition to the display screens A1 and A1a or the display screens A2 and A2a by uttering "Scale" or "Onryo." In this way, by allowing the screens for quantitative level change processing to be mutually transitionable, it is convenient for users who wish to change settings all at once.

《タイムアウト処理》
次に、タイムアウト処理について説明する。タイムアウト処理は、制御部18が、所定の処理を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了する処理である。そして、所定の処理を開始した時点から、所定時間経過するまでの間に、制御部18は、キャラクターの応答フレーズとして、音声入力を促す音声を出力させる。
《Timeout processing》
Next, timeout processing will be explained. The timeout process is a process in which the control unit 18 ends a predetermined process when a predetermined time has elapsed without any voice input from the user after starting the process. Then, from the start of the predetermined process until a predetermined period of time has elapsed, the control unit 18 outputs a voice prompting voice input as a response phrase for the character.

より具体的な処理を、図25を参照して説明する。タイムアウト処理としては、タイムアウトV1、S1、S2、R1、A1、A1aが設定されている。まず、タイムアウトV1の処理を説明する。制御部18は、上記の表示画面V1又はV1aにおいて、音声認識を起動してから15秒間音声認識が無い場合、タイムアウトステータス1として、ユーザの音声入力を促す応答フレーズを出力する。ここでは、音声認識開始の画面であるため、「ねえ、何か言って」という音声入力をお願いする応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 More specific processing will be explained with reference to FIG. 25. As timeout processing, timeouts V1, S1, S2, R1, A1, and A1a are set. First, timeout V1 processing will be explained. If there is no voice recognition for 15 seconds after starting voice recognition on the display screen V1 or V1a, the control unit 18 outputs a response phrase prompting the user to input voice as timeout status 1. Since this is the screen to start voice recognition, a response phrase asking for voice input such as "Hey, say something" is output. If there is no voice recognition for 15 seconds after outputting this response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition has ended as timeout status 2, and ends the voice recognition. Here, it outputs a response phrase that sounds a little angry at the lack of voice input, ``Hmm, already.''

タイムアウトS1の処理は、次の通りである。制御部18は、表示画面S1、S1aに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、周辺検索の画面であるため、「ねえ、ねえ、どこ行くの?」というように、行き先を尋ねる応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 The timeout S1 process is as follows. If there is no voice recognition for 15 seconds after transition to the display screens S1 and S1a, the control unit 18 outputs a response phrase prompting voice input as timeout status 1. Since this is a nearby search screen, a response phrase asking for the destination is output, such as "Hey, hey, where are you going?" If there is no voice recognition for 15 seconds after outputting this response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition has ended as timeout status 2, and ends the voice recognition. Here, it outputs a response phrase that sounds a little angry at the lack of voice input, ``Hmm, already.''

タイムアウトS2の処理は、次の通りである。制御部18は、表示画面S2、S2a、S2_list、S2a_listに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、施設選択の画面であるため、「まだ決まらないの?」というように、施設選択を促す応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 The timeout S2 process is as follows. If there is no voice recognition for 15 seconds after transition to the display screens S2, S2a, S2_list, and S2a_list, the control unit 18 outputs a response phrase prompting voice input as timeout status 1. Since this is a facility selection screen, a response phrase prompting the user to select a facility is output, such as "Still undecided?" If there is no voice recognition for 15 seconds after outputting this response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition has ended as timeout status 2, and ends the voice recognition. Here, it outputs a response phrase that sounds a little angry at the lack of voice input, ``Hmm, already.''

タイムアウトR1の処理は、次の通りである。制御部18は、表示画面R1、R1a、R1bに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、ルート選択の画面であるため、「黙ってると案内しちゃうけど。」というように、音声入力がなくても、次の処理を進めてしまうことを通知する応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「案内開始。言う通りに運転してくれる?」というように、次の処理を開始することを通知する応答フレーズを出力する。 The timeout R1 process is as follows. If there is no voice recognition for 15 seconds after transition to the display screens R1, R1a, and R1b, the control unit 18 outputs a response phrase prompting voice input as timeout status 1. Since this is a route selection screen, a response phrase is output to notify that the next process will proceed even without voice input, such as ``If you remain silent, I will guide you.'' If there is no voice recognition for 15 seconds after outputting this response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition has ended as timeout status 2, and ends the voice recognition. Here, a response phrase notifying the start of the next process is output, such as "Guidance begins. Will you drive as I say?".

タイムアウトA1の処理は、次の通りである。制御部18は、表示画面A1、A2、A3、A1a、A2a、A3aに遷移してから、15秒間音声認識がない場合に、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、設定変更の画面であるため、「指示、お願い」というように、設定変更を促す応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識がない場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、設定変更せずに、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 The timeout A1 process is as follows. If there is no voice recognition for 15 seconds after transition to display screens A1, A2, A3, A1a, A2a, and A3a, the control unit 18 outputs a response phrase prompting voice input as timeout status 1. Since this is a setting change screen, a response phrase such as "instructions, please" is output to prompt the setting change. If there is no voice recognition for 15 seconds after outputting this response phrase, the control unit 18 outputs a response phrase notifying that voice recognition has ended as timeout status 2, and continues voice recognition without changing settings. terminate. Here, it outputs a response phrase that sounds a little angry at the lack of voice input, ``Hmm, already.''

タイムアウトA1aの処理は、次の通りである。制御部18は、表示画面A1、A2、A3、A1a、A2a、A3aに遷移して、ボタンの選択又は音声により、設定の変更を指示する入力がなされてから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、「指示、お願い」というように、音声入力による設定変更の決定指示を促す応答フレーズを出力させる。その後、15秒間音声認識がない場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、設定変更を完了させ、音声認識を終了させる。ここでは、「設定完了です。」と設定変更の完了を通知する応答フレーズを出力する。 The timeout A1a process is as follows. If there is no voice recognition for 15 seconds after the display screens A1, A2, A3, A1a, A2a, and A3a are input to instruct to change the settings by button selection or voice, the control unit 18 As timeout status 1, a response phrase prompting voice input is output. Here, a response phrase such as "instruction, please" is output that prompts for an instruction to decide on a setting change through voice input. Thereafter, if there is no voice recognition for 15 seconds, the control unit 18 outputs a response phrase notifying that the voice recognition has ended as timeout status 2, completes the setting change, and ends the voice recognition. Here, a response phrase "Settings complete." is output to notify the completion of setting changes.

タイムアウト処理は、頻繁に生じる可能性があるが、以上のように、表示画面やフェーズに合わせて、タイムアウトステータス1、タイムアウトステータス2の応答フレーズの内容が変化させることにより、ユーザに飽きがこないのでよい。 Timeout processing may occur frequently, but by changing the content of the response phrases for timeout status 1 and timeout status 2 according to the display screen and phase as described above, the user will not get bored. good.

[作用効果]
以上のような実施形態によれば、車両の搭乗者であるユーザの一方的な指示に対してシステムが情報を提供するのではなく、ユーザがキャラクターと対話することにより、知りたい情報を得ることができるので、操作や運転の面白さが増大するとともに、キャラクターとコミュニケーションをとっている感覚が得られて飽きがこない。また、ユーザは、キャラクターと対話するために、システムを操作する意欲が湧くので、システムの機能が有効に活用される。
[Effect]
According to the embodiments described above, the system does not provide information in response to a unilateral instruction from a user who is a vehicle passenger, but the user can obtain the information he or she wants by interacting with the character. This not only increases the fun of operating and driving, but also allows you to feel like you are communicating with the characters, which keeps you from getting bored. Furthermore, the user is motivated to operate the system in order to interact with the character, so the functions of the system are effectively utilized.

所定のキャラクターを、システムから出力される音声により、特定の個性を持った話者を認識させるように、応答フレーズが登録されているので、ユーザは、実際の人間と対話しているような感覚が得られて、親しみが持てる。 Response phrases are registered so that a predetermined character can be recognized by the voice output from the system as a speaker with a specific personality, so the user feels as if he or she is interacting with a real person. It gives you a sense of familiarity.

対話としては、例えば、発話の開始、これに対する応答、応答に対する返答という少なくとも一往復のやり取りがなされるように設定されているので、単純にユーザの命令通りにシステムが処理を行うのではなく、キャラクターが、自分とシステムの間に介在して、サービスを提供してくれている感覚を、ユーザが得ることができる。 Dialogue is set up to include at least one back-and-forth exchange, such as starting a utterance, responding to it, and replying to the response, so the system does not simply perform processing according to the user's commands. The user can feel that the character is intervening between him and the system and providing a service.

ユーザは、音声認識を用いることにより、手操作よりも簡単又は迅速に出力させることができるので、積極的に音声認識を利用するようになり、ユーザにキャラクターとの対話をさせる機会をより多く与えることができる。 By using voice recognition, users can output output more easily or quickly than by manual operation, so they will actively use voice recognition, giving users more opportunities to interact with characters. be able to.

特に、手操作が難しい、手操作が制限されている等により、運転者が運転中に所望の情報を得ることが困難な場合でも、音声認識を利用することにより、キャラクターとの対話を楽しみながら、所望の情報を得ることができる。 In particular, even when it is difficult for the driver to obtain the desired information while driving due to difficult or limited manual operations, voice recognition can be used to enjoy interacting with characters. , desired information can be obtained.

情報を出力するために複数の選択を経る必要がある場合に、選択するごとに手操作が必要となる場合に比べて、音声入力による方が、ユーザにとって操作が簡単となる。複数の選択を経て出力される情報として、例えば、階層化された構造の情報、複数回の操作をしなければ出力できない情報は、手操作を複数回行うよりも、ユーザの負担が少なくなる。 When outputting information requires multiple selections, voice input is easier for the user to operate than when manual operations are required for each selection. Information that is output after multiple selections, such as information with a hierarchical structure or information that cannot be output without multiple operations, places less burden on the user than multiple manual operations.

特に、施設検索、現在地周辺検索などのように、複数の候補の中から順次絞り込んでいくことにより得られる情報を出力する処理は、例えば、ブレーキやアクセルのように車両自体を動かすための操作や、ウィンカーのように走行中に安全のために外部に何かを知らせるための操作とは異なり、手操作によりダイレクトに実行させることが難しいので、音声認識による操作に適している。 In particular, processing that outputs information obtained by sequentially narrowing down multiple candidates, such as facility searches and searches around the current location, is a process that outputs information obtained by sequentially narrowing down multiple candidates. Unlike operations such as blinkers, which are used to notify the outside world of something for safety while driving, it is difficult to perform the operation directly by hand, so it is suitable for operation using voice recognition.

ユーザは、キャラクターの音声に促されて選択することにより、所定の処理を順次進めることができる。例えば、次の選択へ誘導する応答フレーズとして、周辺検索で「周辺」というユーザの音声を認識した場合に、「ねえ、どこ行く?」というように、行先を尋ねる音声を出力するので、ユーザが、次に何を発話すればよいかが明確にわかる。 The user can sequentially proceed with predetermined processing by making selections prompted by the character's voice. For example, if the user's voice is recognized as ``nearby'' in a nearby search as a response phrase to guide the next selection, a voice asking for the destination, such as ``hey, where are you going?'' will be output, so the user can , you can clearly see what to say next.

次の選択がない場合に、これを示すキャラクターの音声を出力するので、ユーザは、さらに処理を進める必要がなくなったことがわかり、指示を終了する、別の処理を行わせる等の判断ができる。例えば、次の選択がないことを示すキャラクターの音声として、周辺検索で「ファミレス」というユーザの音声を認識した場合に、「ひとりぼっちでファミレス行くの?」のようにすれば、ユーザに新たに別の判断を求めることができる。 When there is no next selection, the character's voice indicating this is output, so the user knows that there is no need to proceed further, and can decide whether to end the instruction or perform another process. . For example, if the character's voice indicating that there is no next choice is recognized as the user's voice saying "Family restaurant" in nearby search, if you say something like "Are you going to a family restaurant by yourself?", you can give the user a new message. may request a different judgment.

現在地等、所望の地点の周辺の施設の情報を、面倒な手操作を不要としつつ、ユーザが、キャラクターとの対話を楽しみながら取得することができる。 The user can obtain information on facilities around a desired point, such as the current location, while enjoying dialogue with the character, without the need for troublesome manual operations.

検索された周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させるので、地図上で、ユーザに必要な施設の情報が目立つことになり、ユーザが施設の位置を把握しやすく、音声により所望の施設を選択する際の目安となる。特に、アイコンをカラー表示し、地図をグレースケールで表示するので、アイコンが非常にはっきりと見える。 The icons representing the searched surrounding facilities are highlighted relative to the map, so the information about the facilities that the user needs stands out on the map, making it easier for the user to understand the location of the facility. The voice serves as a guide when selecting a desired facility. In particular, the icons are displayed in color and the map is displayed in grayscale, so the icons are very clearly visible.

施設のアイコンに、現在地との近さの順位が区別できる表示をするので、ユーザが施設を選択する目安とすることができる。特に、番号、アルファベットのように本来的に順位を示す情報としているので、順位の意味を容易に把握できる。 Since the icons of the facilities are displayed in order to distinguish their proximity to the current location, the user can use this as a guide for selecting facilities. In particular, since information such as numbers and alphabets inherently indicates the ranking, the meaning of the ranking can be easily understood.

表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識して、選択された施設までの経路を探索して表示させるので、ユーザは、施設名で選択するよりも、表示されたアイコンに合わせた内容で簡単に選択することができる。特に、表示された番号を発話すればよいので、施設名よりも覚えやすい言葉で、施設を選択することができる。 The system recognizes the voice of the user selecting one of the facilities and searches for and displays the route to the selected facility, with content matching the displayed icon, so the user can choose the facility more easily than by selecting the facility by name. , you can easily select the content that matches the displayed icon. In particular, since the user only needs to speak the displayed number, the facility can be selected using words that are easier to remember than the facility name.

ユーザが、探索された経路を希望しない場合に、キャラクターとの対話をしながら、探索し直しを指示することができるので、やり直し時の手間や退屈な気持ちを緩和させることができる。 If the user does not desire the route that has been searched, he or she can instruct the user to re-search while interacting with the character, thereby alleviating the trouble and boredom of re-searching.

ユーザが、対話する相手となるキャラクターの姿を表示画面で見ることにより、親しみを覚えて、その姿を見るためにシステムを積極的に利用したいと思うようになる。 By seeing the appearance of the character with whom the user interacts on the display screen, the user feels a sense of familiarity with the character and becomes willing to use the system to see the appearance.

そして、キャラクターは、地図上の探索された経路表示を遮らない位置に、表示されるので、キャラクターの表示を楽しませつつ、探索された経路の見やすさを維持できる。
キャラクターが、探索された経路と反対側に寄った場合に、項目の表示領域は、探索された経路と重なる可能性があるが、各項目は、キャラクターよりも小さく、項目の表示領域は背後の画像が見える部分を有しているので、探索された経路がキャラクターと重なるよりも、背後の画像が見やすい。
Since the character is displayed on the map at a position that does not obstruct the display of the searched route, it is possible to maintain the ease of viewing the searched route while making the character display entertaining.
If the character moves to the opposite side of the path being explored, the display area of the item may overlap with the path being explored, but each item is smaller than the character, and the display area of the item is smaller than the character. Since there is a visible part of the image, it is easier to see the image behind the character than if the searched route overlaps with the character.

キャラクターの音声を、あらかじめ設定された複数の異なる応答フレーズの中から、既に出力した応答フレーズを除いてランダムに選択して出力するので、同じフレーズばかりが出力されず、ユーザに飽きがこない。 Since the character's voice is randomly selected and output from a plurality of different response phrases set in advance, excluding the response phrases that have already been output, the same phrases are not output all the time, and the user does not get bored.

共通の認識ワードに対して異なる複数の応答フレーズが登録されたリストが設定されているので、ユーザが共通の内容の発話をしても、キャラクターは異なる表現で返答することができ、何度も同じ処理を実現させる場合でも、キャラクターからどんな返答が来るかを楽しむことができる。 Since a list has been set up with multiple different response phrases registered for a common recognition word, even if the user utters the same content, the character can respond with different expressions, allowing the character to respond over and over again. Even when implementing the same process, you can enjoy seeing what kind of response the character will give you.

キャラクターは、標準レイ、変身後のレイ、ちびレイという同一人でありながら、複数の表示態様があり、出力される音声として、複数の表示態様毎に異なるフレーズが登録されているので、同じキャラクターでも、複数の表示態様に応じて、発話内容が異なり、同一人との対話でありながら、変化を楽しむことができるのでよい。特に、標準的なもの、衣服や髪型等を変えて変身したもの、頭身を変えたものとするので、大人っぽい、子供っぽい、かわいい、きれい等の多様な印象をユーザに与え、飽きさせない。 Although the character is the same person as standard Rei, Rei after transformation, and Chibi Rei, there are multiple display modes, and different phrases are registered for each display mode as the output voice, so the same character However, the content of the utterances differs depending on the plurality of display modes, so it is possible to enjoy the changes even though the conversation is with the same person. In particular, since the images are standard, transformed by changing clothes, hairstyle, etc., and the head and body are changed, it gives the user a variety of impressions such as adult-like, child-like, cute, beautiful, etc., and the user gets tired of it. I won't let you.

認識ワードは、ボタン等に項目表示されているので、ユーザは、所定の処理を実行させるために、表示された項目を見れば、何を言えばいいかがわかる。 Since the recognition word is displayed as an item on a button or the like, the user knows what to say in order to execute a predetermined process by looking at the displayed item.

認識ワードは、表示画面にかかわらず共通して認識できる認識語句と、表示画面に表示されたものに認識が制限される認識ワードとがあるので、共通して認識できる認識ワードによって、表示画面にかかわらず必要となる機能の利便性を維持しつつ、認識が制限される認識ワードによって、誤認識の可能性を低減できる。複数種の表示画面で共通して使用される認識ワードについては、表示画面に応じて機能が制限される可能性が低くなり、利便性を維持できる。特に、戻るフレーズや解除フレーズのように、他の表示画面へ遷移させる語句なので、どの画面でも使用する必要がある語句である。一方、表示画面に表示された認識ワード、検索対象となる認識ワードは、それ以外の語句を認識させる必要性が乏しく、認識ワードの数を少なくして誤認識を防ぐ必要性が高い。 There are two types of recognition words: recognition words that can be commonly recognized regardless of the display screen, and recognition words whose recognition is limited to what is displayed on the display screen. The possibility of misrecognition can be reduced by using recognition words whose recognition is restricted while maintaining the convenience of necessary functions regardless of the situation. Regarding recognition words that are commonly used on multiple types of display screens, the possibility that the function will be restricted depending on the display screen is reduced, and convenience can be maintained. In particular, such phrases as return phrases and cancel phrases are words that cause a transition to another display screen, so they must be used on any screen. On the other hand, the recognition words displayed on the display screen and the recognition words to be searched have little need to recognize other words and phrases, and it is highly necessary to reduce the number of recognition words to prevent erroneous recognition.

量的に変化する機能の状態を、音声認識によりダイレクトに所望の量的レベルとすることができるので、小さな値と大きな値との間で段階的に変化させる場合に比べて、即座に所望の値とすることができ、ユーザの手間がかからず、操作に拘束される時間が短縮される。特に、音量、輝度、スケールなどのボタンを選択して+-や目盛を表示させ、+-の選択や、目盛上のスライドにより段階を追ってアップダウンさせる手間が省ける。 The state of a function that changes quantitatively can be brought directly to the desired quantitative level using voice recognition, so compared to the case where the state of a function that changes quantitatively is changed stepwise between a small value and a large value, the desired quantitative level can be changed immediately. It can be set as a value, which saves the user's effort and reduces the time required for operation. In particular, it saves you the trouble of selecting buttons for volume, brightness, scale, etc. to display +- and scales, and selecting +- and sliding up and down on the scales step by step.

認識ワードとして、量的に変化する機能に対応する指示語と、量的レベルを示す数字が設定されているので、ユーザが所望の機能に対応する指示語と数字を発話すると、当該機能の量的レベルを、その数字のレベルにまでダイレクトにアップ、ダウンさせることができる。特に、指示語として「おんりょう」、「きど」、「すけーる」、数字として「いち」、「に」、「にきろ」などとするので、ユーザにとって直感的に理解しやすい機能の名称と数字を用いて、入力ができる。 As recognition words, instruction words corresponding to functions that change quantitatively and numbers indicating the quantitative level are set, so when the user utters the instruction word and number corresponding to the desired function, the amount of the function will be changed. You can directly raise or lower the target level to the level of that number. In particular, the function names are easy for users to intuitively understand, as the demonstrative words are "onryo," "kido," and "scale," and the numbers are "ichi," "ni," and "nikiro." You can enter information using and numbers.

機能を選択するためのボタンに、当該機能に対応する指示語が表示されているので、ユーザは、ボタンに表示された指示語を言えば、機能を選択できるので、ユーザにとってわかりやすい。 Since the instruction word corresponding to the function is displayed on the button for selecting the function, the user can select the function by saying the instruction word displayed on the button, which is easy for the user to understand.

機能を選択するためのボタンであって、当該機能の現在の量的レベルの値が表示されているので、ユーザは、ボタンに表示された値を見ることにより、現在の量的レベルを確認して、所望の値へアップさせるべきか、ダウンさせるべきかを判断できる。例えば、地図のスケールで、小さなスケールの値がボタンに表示されている場合に、ユーザがそれよりも大きな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に広範囲の地図を見渡すことができる。また、例えば、大きなスケールの値がボタンに表示されている場合に、ユーザがそれよりも小さな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に詳細な地図を見ることができる。 This is a button for selecting a function, and the value of the current quantitative level of the function is displayed, so the user can check the current quantitative level by looking at the value displayed on the button. You can decide whether to increase it to the desired value or decrease it. For example, if the map scale is a small scale value displayed on a button, and the user says a larger value, the scale value displayed on the button will change directly to that value and immediately You can see a wide range of maps. Also, for example, if a large scale value is displayed on a button and the user says a smaller value, the scale value displayed on the button will also change directly to that value, instantly displaying a detailed map. can be seen.

所定の処理を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了するタイムアウト処理を行うので、音声認識を長期間継続することによって生じる誤操作を防止できるのでよい。 Since a timeout process is performed to end the process if a predetermined period of time has elapsed without any voice input from the user after the start of the predetermined process, this is good because it prevents erroneous operations that may occur due to continuous voice recognition for a long period of time. .

所定の処理を開始した時点から、所定時間経過するまでの間に、キャラクターが、ユーザに音声入力を促す音声を出力するので、ユーザが処理の開始を忘れている場合に、音声入力を促すことができる。 The character outputs a voice prompting the user to input voice from the time a predetermined process is started until a predetermined period of time has elapsed, so if the user has forgotten to start the process, the character can prompt the user to input voice. I can do it.

[他の実施形態]
本発明は、上記の実施形態に限定されるものではなく、以下に例示する形態も含めて、種々の形態を構成可能である。
[Other embodiments]
The present invention is not limited to the embodiments described above, and can be configured in various forms, including the forms illustrated below.

《ジャンル登録》
ユーザが、周辺検索のジャンルの項目について、所望の項目のみを表示部5の表示画面に表示させるジャンル登録の機能を説明する。これにより、ユーザが良く使うであろうジャンルを予め表にしておくことで、ユーザのオリジナルな周辺検索画面を作成できる。より具体的には、制御部18は、ジャンルの認識ワードに対応する項目のうち、いずれの項目を認識ワードとして機能させるかを選択させる項目の表を、表示部5に表示させる。ユーザがこの表の中から所望の項目を選択すると、制御部18は、選択された項目を表示部5にボタン表示させるページに設定する。
《Genre registration》
A genre registration function that allows the user to display only desired items on the display screen of the display unit 5 regarding the genre items of the surrounding search will be explained. This allows the user to create an original surrounding search screen by making a table in advance of the genres that the user will often use. More specifically, the control unit 18 causes the display unit 5 to display a table of items for selecting which item is to function as a recognition word among the items corresponding to the recognition words of the genre. When the user selects a desired item from this table, the control section 18 sets the selected item on a page on which buttons are displayed on the display section 5.

このような表示画面例を、図26を参照して説明する。まず、表示画面(1)は、上記の実施形態と同様に、制御部18が、表示部5に表示させた地図画面の右下に重ねて、キャラクター100を表示させるとともに、地図画面の左に重ねて、周辺施設をジャンルで選択して検索するための周辺ボタンB3を表示させている。 An example of such a display screen will be described with reference to FIG. 26. First, on the display screen (1), similarly to the above embodiment, the control unit 18 displays the character 100 superimposed on the lower right of the map screen displayed on the display unit 5, and displays the character 100 on the left side of the map screen. Additionally, a surrounding button B3 is displayed for selecting and searching surrounding facilities by genre.

この表示画面(1)において、ユーザが、周辺ボタンB3をタッチするか、音声認識の起動と周辺検索を指示する認識ワードとして登録された2ワードである「れい」、「しゅうへん」を発話すると、これを認識した制御部18は、表示画面(2)に示す一発ジャンル選択画面に遷移させる。 On this display screen (1), when the user touches the surrounding button B3 or utters the two words "rei" and "shuhen" that are registered as recognition words that instruct voice recognition activation and surrounding search. , the control unit 18 recognizes this and causes a transition to the one-shot genre selection screen shown in display screen (2).

このように、2ワード音声認識起動により表示された表示画面(2)は、ジャンル名を表示した複数のボタンを配置することにより、複数の項目から成る表を表示したものである。このジャンル名の項目からなる表は、ユーザが、それぞれのボタンを選択するか、ジャンル名を発話すると、制御部18は、表示画面(3)に示すように、そのジャンルの施設を検索して、検索された施設を、現在地51から近い順に番号を付して地図上に表示させる。 In this way, the display screen (2) displayed by activating the two-word speech recognition displays a table consisting of a plurality of items by arranging a plurality of buttons displaying genre names. When the user selects each button or speaks the genre name, the control unit 18 searches for facilities of that genre in the table consisting of genre name items, as shown in the display screen (3). , the searched facilities are numbered in order of distance from the current location 51 and displayed on the map.

ユーザが、表示画面(3)に表示された所望の施設アイコンをタッチするか、所望の施設アイコンに表示された番号を発話すると、制御部18は、現在地から選択された施設までのルート探索を実行して、表示画面(4)に示すように、探索されたルート53を色分け表示する。 When the user touches the desired facility icon displayed on the display screen (3) or speaks the number displayed on the desired facility icon, the control unit 18 searches for a route from the current location to the selected facility. When executed, the searched route 53 is displayed in different colors as shown in the display screen (4).

このとき、キャラクター100は、ルート案内方向により、地図上で邪魔にならない位置に移動する。つまり、キャラクター100を、地図上の現在位置を含む探索されたルート表示を遮らない位置に表示させる。さらに、ユーザが、案内開始を発話すると、表示画面(5)に示すように、制御部18は、ルート案内を開始する。このルート案内中においても、キャラクター100を、地図上の現在位置51を含む探索されたルート53の表示を遮らない位置に表示させる。 At this time, the character 100 moves to a position where it does not get in the way on the map according to the route guidance direction. That is, the character 100 is displayed in a position that does not block the searched route display including the current position on the map. Further, when the user utters the command to start guidance, the control unit 18 starts route guidance, as shown on the display screen (5). Even during this route guidance, the character 100 is displayed at a position that does not block the display of the searched route 53 including the current position 51 on the map.

表示画面(2)の表の下部には、「戻る」、「変更」、「現在地」という三つのボタンが表示される。このうち、「戻る」ボタンは、ユーザがタッチするか、「もどる」という発話をすると、これを認識した制御部18が、1つ前の画面に遷移させるボタンである。「現在地」ボタンは、ユーザがタッチするか、「げんざいち」という発話をすると、これを認識した制御部18が、現在地51を表示する表示画面に遷移させるボタンである。ここでは、「戻る」ボタンが選択された場合にも、「現在地」ボタンが選択された場合にも、表示画面(1)に遷移する。 Three buttons, ``Back,'' ``Change,'' and ``Current location,'' are displayed at the bottom of the table on the display screen (2). Among these, when the user touches the "back" button or utters "back", the control unit 18 recognizes this and causes the screen to go to the previous screen. When the user touches the "current location" button or utters "Genzaichi", the control unit 18 recognizes this and causes the display screen to display the current location 51. Here, the screen changes to display screen (1) both when the "Back" button is selected and when the "Current location" button is selected.

「変更」ボタンは、ユーザがタッチするか、「へんこう」という発話をすると、これを認識した制御部18は、表示画面(6)に示す一発ジャンル変更画面に遷移させる。この一発ジャンル変更画面には、現在、一発ジャンル選択画面として登録されているジャンルが、これと同じ並び順で表示される。ここで、いずれかのジャンルのボタンをユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、それぞれのジャンル名が所属する大項目の表示画面(7)~(10)のいずれかに遷移させる。 When the user touches the "Change" button or utters "Hello", the control unit 18 recognizes this and causes the screen to change to the one-shot genre change screen shown in display screen (6). On this one-shot genre change screen, the genres currently registered as the one-shot genre selection screen are displayed in the same order. Here, when the user touches one of the genre buttons or utters the genre name, the control unit 18 recognizes this and displays the main item display screens (7) to (10) to which each genre name belongs. Transition to one of the following.

例えば、ユーザが、「駅」を選択すると、「駅」が所属する大項目「ホテル・公共施設・他」に所属するジャンル名が表示された表示画面(7)に遷移する。表示画面(7)では、表示画面(2)に表示されるジャンル名は、特定の濃い色で表示され、表示画面(2)に表示されないジャンル名は、これより薄い色で表示されている。例えば、表示画面(2)に表示される「駅」は青色の文字で表示され、表示画面(2)に表示されない「駐車場」はグレーの文字で表示されている。 For example, when the user selects "Station", the screen changes to a display screen (7) displaying genre names belonging to the major category "Hotels/Public Facilities/Others" to which "Station" belongs. On the display screen (7), the genre names displayed on the display screen (2) are displayed in a specific dark color, and the genre names not displayed on the display screen (2) are displayed in a lighter color. For example, "station" displayed on the display screen (2) is displayed in blue characters, and "parking lot", which is not displayed on the display screen (2), is displayed in gray characters.

ここで、表示画面(7)に表示されているジャンル名をユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、選択されたジャンル名を、表示画面(7)に表示されないジャンル名とする。このとき、当該ジャンル名を薄い色の表示に変える。例えば、ユーザが「駅」を選択すると、「駅」の文字がグレーとなる。 Here, when the user touches the genre name displayed on the display screen (7) or speaks the genre name, the control unit 18 recognizes this and displays the selected genre name on the display screen (7). Use a genre name that is not displayed. At this time, the genre name is displayed in a lighter color. For example, when the user selects "station", the text for "station" becomes gray.

例えば、表示画面(7)に表示されているジャンル名をユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、選択されたジャンル名を、表示画面(2)に表示させるジャンル名とする。このとき、当該ジャンル名を特定の濃い色の表示に変える。例えば、ユーザが「駐車場」を選択すると、「駐車場」の文字が青色となる。 For example, when the user touches the genre name displayed on the display screen (7) or speaks the genre name, the control unit 18 recognizes this and displays the selected genre name on the display screen (2). The name of the genre. At this time, the genre name is displayed in a specific dark color. For example, when the user selects "Parking Lot", the text for "Parking Lot" becomes blue.

また、表示画面(6)の「総合病院」等の病院・医院に属するジャンル名が選択されると、表示画面(8)に遷移する。「コンビニ」等のショッピングに属するジャンル名が選択されると、表示画面(9)に遷移する。「ファミリーレストラン」等のレストランに属するジャンル名が選択されると、表示画面(10)に遷移する。それぞれの表示画面において、表示画面(2)に表示させるジャンル名の選択、表示させないジャンル名の選択は、上記の通りである。 Furthermore, when a genre name belonging to a hospital/clinic such as "general hospital" is selected on the display screen (6), the screen changes to the display screen (8). When a genre name belonging to shopping, such as "convenience store", is selected, the screen changes to a display screen (9). When a genre name belonging to a restaurant such as "Family Restaurant" is selected, the screen changes to a display screen (10). In each display screen, selection of genre names to be displayed on the display screen (2) and selection of genre names not to be displayed are as described above.

また、表示画面(7)において、ユーザが、ページを送る「▽」のボタンを選択すると、次の表示画面(8)に遷移する。表示画面(8)において、ページを戻る「△」のボタンを選択すると、表示画面(7)に遷移する。このように、「▽」「△」は、表示画面(7)~(10)の間でページを切り替えるボタンとして機能する。 Furthermore, when the user selects the "▽" button to send a page on the display screen (7), the screen changes to the next display screen (8). On the display screen (8), when the "△" button for returning the page is selected, the screen changes to the display screen (7). In this way, "▽" and "△" function as buttons for switching pages between display screens (7) to (10).

以上のように各表示画面(7)~(10)において、ジャンル名を変更した後、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、表示画面(6)に遷移して、表示させるジャンル名として選択されたものが表示されるとともに、表示させないジャンル名として選択されたものが表示されなくなる。そして、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、変更した表示画面(6)の表示を反映した表示画面(2)に遷移する。上記の例では、「駅」の位置に「駐車場」が表示され、「駅」が表示されなくなる。 As mentioned above, after changing the genre name on each display screen (7) to (10), when the user touches the "Back" button or says "Go back", the screen changes to display screen (6). , the selected genre name to be displayed is displayed, and the selected genre name not to be displayed is no longer displayed. Then, when the user touches the "back" button or utters "back", the screen changes to a display screen (2) that reflects the changed display screen (6). In the above example, "parking lot" is displayed in place of "station" and "station" is no longer displayed.

また、デフォルトの表示に戻すには、表示画面(6)において、ユーザが「デフォルトに戻す」のボタンを選択するか、「でふぉるとにもどす」と発話すると、これを認識した制御部18が、デフォルトのジャンル名及びその配置に戻す。そして、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、デフォルトの設定に戻った表示画面(2)に遷移する。 To return to the default display, the user selects the "Return to default" button on the display screen (6) or utters "Return to default", and the control unit recognizes this. 18 restores the default genre name and its arrangement. Then, when the user touches the "back" button or utters "back", the screen transitions to the display screen (2) with the default settings restored.

上記のように、表示画面(6)及びこれが反映される表示画面(2)においては、ジャンル名は、表示させる位置毎に選択することができる。つまり、表示画面(6)において、左上の「駅」が選択された場合には、制御部18は、選択されたジャンル名とともに、それが表示画面上のどの表示位置かも認識する。そして、制御部18は、その後に表示画面(7)~(10)において選択されたいずれかのジャンル名を、当該表示位置、つまり左上の位置に表示させることができる。このため、表示画面(2)におけるジャンル名の並びを変更したい場合には、表示画面(6)において、所望の表示位置のジャンル名を選択し、これを当該表示位置に表示させたいジャンル名に変更していくことにより実現することができる。この場合、同じジャンル名を異なる位置に表示させるように選択することも可能となる。例えば、「駅」というジャンル名を、左上に表示させるとともに、その下に並べて「駅」を表示させることもできる。このように、頻繁に使用するジャンル名について、同じジャンル名を表示画面(2)の複数箇所に表示させると、そのジャンル名をタッチして選択しやすくなるのでよい。 As described above, on the display screen (6) and the display screen (2) on which it is reflected, the genre name can be selected for each display position. That is, when "Station" in the upper left corner is selected on the display screen (6), the control unit 18 recognizes the selected genre name as well as the display position on the display screen. The control unit 18 can then display one of the genre names selected on the display screens (7) to (10) at the corresponding display position, that is, at the upper left position. Therefore, if you want to change the arrangement of genre names on the display screen (2), select the genre name at the desired display position on the display screen (6), and change it to the genre name you want to display at the display position. This can be achieved by making changes. In this case, it is also possible to select to display the same genre name in different positions. For example, the genre name "Station" can be displayed in the upper left corner, and "Station" can also be displayed below it. In this way, for frequently used genre names, displaying the same genre name at multiple locations on the display screen (2) makes it easier to select the genre name by touching it.

なお、制御部18は、表示画面(6)において、ユーザが、所望のジャンル名をタッチしてドラッグして所望の位置で離すことにより、制御部18が、当該ジャンル名の表示位置を、所望の位置に変更できるようにすると、表示位置の変更が容易となってよい。 Note that when the user touches and drags a desired genre name on the display screen (6) and releases it at a desired position, the control unit 18 changes the display position of the genre name to the desired position. If the display position can be changed to the position shown in FIG.

また、表示画面(2)に表示させることができるジャンル名の数は、所定数に限られている。例えば、ここでは25個である。このため、既に表示させるジャンル名として25個登録されている場合には、それ以上、表示させるジャンル名を増やすことはできない。 Further, the number of genre names that can be displayed on the display screen (2) is limited to a predetermined number. For example, here it is 25 pieces. Therefore, if 25 genre names have already been registered to be displayed, the number of genre names to be displayed cannot be increased any further.

以上のように、表示された項目の表から、ユーザがよく使う項目のみを選択すれば、認識ワードが限定されるので、誤認識を減らすことができる。選択された認識ワードは、例えば、所定のメモリ領域に、デフォルトの状態から書き換える、空の領域に入れていく、既に入っているものを並べ替える等により、登録される。このようにすれば、限られたメモリ領域を有効に活用できる。 As described above, if the user selects only the items that are frequently used from the displayed list of items, the recognition words are limited and erroneous recognition can be reduced. The selected recognition word is registered in a predetermined memory area by, for example, rewriting it from the default state, inserting it into an empty area, or rearranging the words already included. In this way, the limited memory area can be used effectively.

このようなユーザによる項目の設定は、上記の実施形態の図13及び図14で示したように、ユーザにより選択された項目を、表示部5に表示させる複数のページ毎に設定してもよい。このため、表示画面の1ページで表示できる項目が限られていても、ユーザがよく使う項目を、トップのページに持ってくることにより、使いたい項目を表示させるためにページを切り替える手間が省ける。 Such setting of items by the user may be performed by setting the items selected by the user for each of a plurality of pages to be displayed on the display unit 5, as shown in FIGS. 13 and 14 of the above embodiment. . Therefore, even if the items that can be displayed on one page of the display screen are limited, by bringing the items that the user frequently uses to the top page, the user does not have to switch pages to display the items they want to use. .

複数の概念を含む認識ワードに対応する大項目と、当該複数の概念に相当する認識ワードに対応する中項目を、同一ページに表示させることができるので、ユーザが中項目を検索したい場合にも、階層やページを変える必要がなく、所望の項目をダイレクトに選択することができる。 Large items that correspond to recognized words that include multiple concepts and medium items that correspond to recognized words that correspond to those multiple concepts can be displayed on the same page, so even if the user wants to search for medium items. , you can directly select the desired item without changing the hierarchy or page.

例えば、「病院」のように、多数の候補を含む上位概念的な大項目は、できるだけ多くの候補の中から検索したいと思うユーザにとって便利な項目となる。「病院」の概念に含まれる「内科」、「小児科」のような中項目は、少ない候補の中から、即座に所望の施設の情報を得たいユーザにとって便利となる。 For example, a general category such as "hospital" that includes many candidates is a convenient item for users who want to search from as many candidates as possible. Medium items such as "internal medicine" and "pediatrics" included in the concept of "hospital" are convenient for users who want to immediately obtain information on a desired facility from a small number of candidates.

施設の分類に関する情報は、大項目、中項目のように段階・階層を立てて分類分けすることで効率よい指定を行うことができるようにしている。すなわち、大項目の中には、1または複数の中項目が属する。 Information regarding the classification of facilities is classified into stages and hierarchies, such as major and medium categories, so that efficient designations can be made. That is, one or more medium items belong to a large item.

大項目の一例を挙げると、「ホテル・公共施設・他」、「病院・医院」、ショッピング」、「レストラン」等がある。「ホテル・公共施設・他」に属する中項目の一例としては、「駅」、「IC(インターチェンジ)/JCT(ジャンクション)]、「郵便局」、「役所」、「トイレ」、「駐車場」、「ホテル」、「銀行 信金」、「学校」、「ガソリンスタンド」等がある。「病院・医院」に属する中項目の一例としては、「総合病院」、「内科」、小児科」、「外科」、「産婦人科」、「歯科」、「眼科」、「耳鼻咽喉科」、「整形外科」、「皮膚科」、「泌尿器科」、「診療内科」、「神経内科」、「肛門科」、「動物病院」等がある。「ショッピング」に属する中項目の一例としては、「コンビニ」、「ドラッグストア」、「デパート」、「ショピングモール」、「スーパー」、「カー用品」、「ホームセンター」、「家電」等がある。「レストラン」に属する中項目の一例としては、「ファミリーレストラン」、「ファーストフード」、「和食」、「洋食」、「中華」、「ラーメン」、「焼き肉」、「すし」、「とんかつ」、「うどん」、「カレー」、「牛丼」等がある。 Examples of major categories include "hotels/public facilities/others," "hospitals/clinics," "shopping," and "restaurants." Examples of medium items belonging to "Hotels/Public Facilities/Others" include "Station", "IC (Interchange)/JCT (Junction)", "Post Office", "Government Office", "Toilet", and "Parking Lot" , ``hotels,'' ``banks/shinkin banks,'' ``schools,'' ``gas stations,'' etc. Examples of medium items belonging to "hospital/clinic" include "general hospital", "internal medicine", "pediatrics", "surgery", "obstetrics and gynecology", "dentistry", "ophthalmology", "otolaryngology", These include ``orthopedic surgery,'' ``dermatology,'' ``urology,'' ``internal medicine,'' ``neurology,'' ``proctology,'' and ``animal hospitals.'' Examples of medium items belonging to "Shopping" include "Convenience store", "Drug store", "Department store", "Shopping mall", "Supermarket", "Car supplies", "Home center", "Home appliances", etc. Examples of medium items belonging to "Restaurant" are "Family restaurant", "Fast food", "Japanese food", "Western food", "Chinese", "Ramen", "Yakiniku", "Sushi", "Tonkatsu", There are ``udon'', ``curry'', ``beef bowl'', etc.

なお、各中項目に、さらに1または複数の小項目が属していてもよい。大項目、中項目、小項目のように段階・階層を立てて分類分けすることで、大量の項目の中から効率のよい指定を行うことができる。なお、1つの項目のみ属する場合には、実際には、その階層の項目はないものと同等となる。つまり、大項目に属する中項目が1つしか存在しない場合には、大項目までで、中項目及び小項目はないとしてもよい。また、中項目に属する小項目が1つしか存在しない場合には、中項目までで、小項目はないとしてもよい。そして、大項目を指定した場合には、それに属する全ての中項目が指定されたことになり、ある中項目が指定された場合には、その中項目に属する全ての小項目が指定されたこととして、制御部18は処理する。 Note that each medium item may further include one or more small items. By classifying items into stages/hierarchies such as large items, medium items, and small items, it is possible to efficiently specify items from a large number of items. Note that when only one item belongs, it is actually equivalent to there being no item in that hierarchy. In other words, if there is only one medium item belonging to a large item, there may be only one medium item and no small items. Furthermore, if there is only one small item belonging to a medium item, there may be only one small item and no small items. When a large item is specified, all medium items belonging to it are specified, and when a certain medium item is specified, all small items belonging to that medium item are specified. The control unit 18 processes this as follows.

なお、認識ワードとして、項目として表示されている語句に関連するが、項目として表示されていない語句が登録されていてもよい。例えば、項目に表示されている認識ワードそのものを発話しなくても、その認識ワードに関連する語句を言えばよいので、ユーザの項目名の記憶があいまいであったり、操作に不慣れであったりしても、検索ができる。 Note that a word or phrase that is related to a word or phrase displayed as an item but is not displayed as an item may be registered as a recognition word. For example, the user does not have to say the recognition word itself displayed in the item, but can just say a phrase related to the recognition word, so it is possible for the user to have a vague memory of the item name or be unfamiliar with the operation. However, you can search.

例えば、項目として表示されている語句が大項目の「病院」であって、中項目である「内科」、「小児科」が表示されていないページであっても、「内科」、「小児科」も音声認識可能な認識ワードとして登録してもよい。このように、中項目が表示されていなかったとしても、大項目「病院」から連想したより具体的な中項目「内科」、「小児科」を言えば、その中項目が検索されるので、ユーザに必要な施設の情報を素早く得ることができる。 For example, even if the word displayed as an item is the large item ``hospital'' and the medium items ``internal medicine'' and ``pediatrics'' are not displayed, ``internal medicine'' and ``pediatrics'' are also displayed. It may also be registered as a recognition word that can be recognized by voice. In this way, even if the medium item is not displayed, if the user says the more specific medium item ``internal medicine'' or ``pediatrics'' associated with the large item ``hospital,'' that medium item will be searched. You can quickly obtain the facility information you need.

上記のようなユーザの設定により又はデフォルトの設定により、混同して認識される可能性のある認識ワードの項目が、別のページに表示されるように設定されていてもよい。例えば、似た音を含む語句、実際に認識させてみて混同する可能性が高い語句等が、同じページに並んで同時に認識の候補となることがないので、誤認識を減らすことができる。似た音を含む語句としては、例えば、「ファミレス」と「ファーストフード」、「病院」と「美容院」、「洋食」と「和食」のように、50音の同じ音、同じ漢字等を含む語句とする。 Depending on the user's settings or default settings as described above, recognition word items that may be confusedly recognized may be set to be displayed on a separate page. For example, words that contain similar sounds or words that are likely to be confused when actually recognized are not lined up on the same page and become candidates for recognition at the same time, which can reduce recognition errors. Words that contain similar sounds include, for example, "family restaurant" and "fast food," "hospital" and "beauty salon," "Western food" and "Japanese food," and so on. Include words and phrases.

このようにすれば、文字からも紛らわしい音の認識語句が、同じページに表示されないため、ユーザも、いずれか一方を入力することになり、誤認識を減らすことができる。実際に認識させてみて混同する可能性が高い語句としては、例えば、過去の認識結果の記録に基づいて、同じ発話に対して認識されている異なる語句とする。このようにすれば、実際に誤認識が生じている組み合わせが同一ページとなることを排除できる。 In this way, recognized words and phrases that have sounds that are confusing even from letters are not displayed on the same page, so the user will have to input either one of them, which can reduce misrecognition. Words that are likely to be confused when actually recognized are, for example, different words that have been recognized for the same utterance based on records of past recognition results. In this way, it is possible to eliminate combinations that are actually erroneously recognized as the same page.

《キャラクターの表示》
キャラクターの表示についても、種々の態様が可能である。上記の図26の表示画面(4)(5)では、制御部18は、画面に表示されたキャラクター100が、現在位置及び探索されたルート53に重ならないように、キャラクター100を左右に移動させている。例えば、キャラクター100と探索されたルート53の表示とが、互いに表示画面における反対側に寄るとよい。このようにすれば、キャラクター100が経路探索のサービスを邪魔しない気遣いをしているように、ユーザに感じさせることができるので、より好感を持たせることができてよい。
《Character display》
Various modes are also possible for character display. In the display screens (4) and (5) of FIG. 26 above, the control unit 18 moves the character 100 left and right so that the character 100 displayed on the screen does not overlap the current position and the searched route 53. ing. For example, it is preferable that the character 100 and the displayed route 53 that has been searched are located on opposite sides of the display screen. In this way, the user can be made to feel as if the character 100 is taking care not to interfere with the route search service, which may create a more favorable impression.

キャラクター100の移動は、一旦消えてから、移動先で出現するようにしても、表示を継続させながら移動させてもよい。移動が頻繁だと、ユーザがうっとうしく感じる可能性もあるが、キャラクター100がユーザに存在をアピールできるとともに、キャラクター100を継続して見ていたいユーザにとっては、移動中のキャラクター100の動作を楽しむことができる。 The character 100 may be moved by disappearing once and then reappearing at the destination, or may be moved while continuing to be displayed. If the character 100 moves frequently, the user may find it annoying, but the character 100 can make its presence known to the user, and the user who wants to continue watching the character 100 can enjoy the movement of the character 100 while it is moving. can.

制御部18は、音声認識を起動して受け付けているか否かを、表示部5に表示させてもよい。このようにすれば、ユーザが、音声による操作ができるか否かを視覚により認識することができる。音声認識を受け付けているか否かとしては、表示画面の色を変えて表示する。このようにすれば、例えば、ユーザの視覚を介して、音声認識の状態を即座に感得させることができる。特に、音声認識を受け付けている場合には、通常の色とし、受け付けていない時には、グレースケールとする。このようにすれば、音声認識を受け付けているか否かを、ユーザに直感的にわからせることができる。 The control unit 18 may cause the display unit 5 to display whether voice recognition is activated and accepted. In this way, the user can visually recognize whether or not voice operations are possible. Whether or not voice recognition is accepted is indicated by changing the color of the display screen. In this way, for example, the user can immediately sense the state of voice recognition through his/her vision. In particular, when voice recognition is accepted, normal color is used, and when voice recognition is not accepted, grayscale is used. In this way, the user can intuitively know whether or not voice recognition is being accepted.

制御部18は、音声認識を受け付けているか否かをキャラクターに表示してもよい。このようにすれば、キャラクターを見れば、音声による操作が可能か否かがわかるので、ユーザが気づきやすくなる。 The control unit 18 may display on the character whether or not voice recognition is accepted. In this way, the user can easily notice whether the character can be operated by voice or not by looking at the character.

キャラクターに表示する態様としては、例えば、キャラクターの様子が明らかに変化する態様とする。このようにすれば、例えば、音声認識の状態を即座に感得させることができる。キャラクターの様子が明らかに変化する態様としては、例えば、キャラクターに物を付加する、キャラクターの色や形態を変える、特定のポーズ、ジェスチャーをさせる、吹き出しでセリフを表示するなどとする。このようにすれば、例えば、通常のキャラクターの状態を知っているユーザであれば、通常の状態との対比によってその変化に即座に気づく。 The mode to be displayed on the character is, for example, a mode in which the appearance of the character changes clearly. In this way, for example, the state of voice recognition can be immediately sensed. Examples of ways in which the appearance of a character can clearly change include adding things to the character, changing the color or form of the character, making the character perform a specific pose or gesture, or displaying dialogue in a speech bubble. In this way, for example, a user who knows the character's normal state will immediately notice the change by comparing it with the normal state.

キャラクターに物を付加する態様としては、例えば、ヘッドセット、ヘッドホン、イヤホン、マイク等の音に関連する備品をキャラクターに装着させる。このようにすれば、ユーザに、音に関連する機能である音声認識を連想させる。キャラクターの色や形態を変える態様としては、例えば、髪型やその色、別のコスチュームに着替えるなどとする。このようにすれば、通常の状態との相違がわかりやすくなる。特に、キャラクターの耳を大きくすれば、音声をよく聞き取ろうとしていることを示す姿となる。さらに、ポーズ、ジェスチャーとして、例えば、耳の後ろに手を当てるしぐさをさせても、音声をよく聞き取ろうとしていることを示す姿となる。 Examples of adding things to the character include equipping the character with equipment related to sound, such as a headset, headphones, earphones, and a microphone. In this way, the user is reminded of voice recognition, which is a function related to sound. Examples of ways to change the character's color or form include changing the hairstyle or color, or changing into a different costume. This makes it easier to see the difference from the normal state. In particular, if the character's ears are enlarged, it will show that the character is trying to hear the voice better. Additionally, poses and gestures, such as placing a hand behind the ear, can be used to show that the patient is trying to hear the audio better.

《ニックネームの使用》
制御部18は、あらかじめデータベース19に登録されたユーザの呼び名の音声を、キャラクターにより出力される音声である応答フレーズの中に、挿入するとよい。つまり、制御部18は、「霧島レイ」との対話の中で、ユーザの名前をニックネーム式で言わせる。例えば、「ケーくん」、「ユーくん」といった具合に、キャラクターに呼ばせることができる。
《Use of nickname》
The control unit 18 may insert the voice of the user's nickname registered in advance in the database 19 into the response phrase that is the voice output by the character. In other words, the control unit 18 causes the user to say the user's name in the form of a nickname during the dialogue with “Kirishima Rei.” For example, you can have the character call you "K-kun" or "Yu-kun".

例えば、音声認識及び周辺検索を起動させる起動ワードとして、「レイ、しゅうへん」が登録され、地図表示画面において、ニックネームを「ユーくん」で登録されたユーザが、「霧島レイ」に周辺検索を行わせる場合の対話例を以下に示す。「 」内が、発話したフレースである。 For example, "Rei, Shuhen" is registered as a startup word to start voice recognition and surrounding search, and on the map display screen, a user who has registered the nickname "Yu-kun" searches for "Kirishima Rei" in the surrounding area. An example of the dialogue to be performed is shown below. The phrase in parentheses is the phrase that was uttered.

ユーくん:「レイ、周辺」→音声認識起動→周辺検索ジャンル画面に遷移
レイ:「なに~ユーくん、わたし忙しいんだけど。」
ユーくん:「内科」→地図画面に遷移、周辺の内科アイコンを表示
レイ:「どうしたの? 大丈夫? どこのお医者さん行くの?」
ユーくん:「に」(数字の2)
レイ:「わかった、2番ね。」→地図上に2の内科医院の情報を表示
ユーくん:「探索」→ルート探索して地図上に表示
レイ:「ど~お?ここ行く?」
ユーくん:「頼む。」
レイ:「了解、任せて。」→案内開始
Yu-kun: "Rei, surrounding area" → Activate voice recognition → Transition to the surrounding search genre screen Rei: "What? Yu-kun, I'm busy."
Yu-kun: "Internal Medicine" → Transition to the map screen, displaying surrounding internal medicine icons Rei: "What's wrong? Are you okay? Which doctor are you going to?"
Yu-kun: “ni” (number 2)
Rei: ``Okay, number 2.'' → Display information on clinic number 2 on the map Yu-kun: ``Search'' → Search the route and display it on the map Rei: ``How-oh? Do you want to go here?''
Yu-kun: “Please.”
Rei: “Understood, leave it to me.” → Start guiding

このようにすれば、ユーザは、会話内で自らのニックネームで呼ばれることにより、キャラクターに対して、より一層の親しみを感じることができる。
また、対話の開始時に出力される音声にニックネームの音声が挿入されているので、ユーザが自らの名前で呼ばれることになり、ユーザの注意を引くことができてよい。
さらに、キャラクターの呼び名を含む音声が認識された場合に、出力される音声にユーザの呼び名の音声が挿入されているので、互いに呼び名を呼び合うことになり、ユーザは、より親密な感覚を得ることができる。
In this way, the user can feel even more familiar with the character by being called by his or her own nickname during the conversation.
Furthermore, since the nickname voice is inserted into the voice output at the start of the dialogue, the user will be called by his or her own name, which may attract the user's attention.
Furthermore, when a voice that includes the character's name is recognized, the voice of the user's name is inserted into the output voice, so the user calls each other by name, giving the user a more intimate feeling. be able to.

なお、対話が進行するに従って、キャラクターにより出力される音声に、ユーザの呼び名を挿入する頻度を低減させてもよい。このようにすれば、例えば、当初は呼び名が呼ばれていたのに、その後は呼ばれる頻度が減少するので、互いに慣れていく二人の会話を演出することができる。
さらに、データベース19に、あらかじめ50音表に対応する音声データが登録され、この50音表からユーザが選択した呼び名の音声を、会話中に挿入してもよい。このようにすれば、例えば、あらかじめ複数の呼び名を登録しておく場合に比べて、メモリの容量を節約できるのでよい。
Note that as the dialogue progresses, the frequency with which the user's nickname is inserted into the voice output by the character may be reduced. In this way, for example, although the names are called initially, the frequency with which they are called decreases thereafter, making it possible to create a conversation between two people who are getting used to each other.
Furthermore, voice data corresponding to the 50-syllabary table may be registered in advance in the database 19, and the voice of the name selected by the user from this syllabary table may be inserted into the conversation. By doing this, for example, compared to the case where a plurality of nicknames are registered in advance, the memory capacity can be saved.

《投稿》
ユーザが、取締・検問場所を発見した場合、制御部18が、あらかじめデータベース19に登録された認識ワードに対応するユーザの音声の入力に応じて、取締場所に関する位置情報を、情報収集サーバに送信することにより、投稿する機能を実行することができる。また、制御部18は、投稿された取締場所に関する位置情報について、情報収集サーバからの配信を受けて、表示部5に地図とともに表示することができる。このため、ナビゲーション装置は、制御部18に接続され、外部との情報の送受信を行う通信部を備える。
《Post》
When the user discovers an enforcement/inspection location, the control unit 18 transmits location information regarding the enforcement location to the information collection server in response to the user's voice input corresponding to the recognition word registered in advance in the database 19. By doing so, you can execute the posting function. Further, the control unit 18 can receive the posted position information regarding the enforcement location from the information collection server and display it on the display unit 5 together with a map. For this reason, the navigation device includes a communication section that is connected to the control section 18 and that transmits and receives information to and from the outside.

この通信部は、インターネット接続機能を備えた車内の通信機器に、無線又は有線により接続される。例えば、通信部を、テザリング(tethering)機能を有するスマートフォン等の携帯電話又は無線LANルータとWi-Fi(登録商標)接続、Blutooth(登録商標)接続又はUSB接続することにより実現できる。このような通信機器は、ナビゲーション装置に組み込まれていてもよい。 This communication unit is connected wirelessly or by wire to an in-vehicle communication device equipped with an Internet connection function. For example, this can be realized by connecting the communication unit to a mobile phone such as a smartphone having a tethering function or a wireless LAN router via Wi-Fi (registered trademark), Bluetooth (registered trademark), or USB. Such communication equipment may be incorporated into a navigation device.

まず、タッチ操作による投稿の処理は、以下の通りである。
1.走行中にユーザが取締・検問場所を発見
2.表示画面の投稿場所の設定を指示するボタンをタッチ
3.ボタンをタッチした時の地図上の現在位置を、投稿場所として設定し、該当位置にアイコンを表示
4.駐車中又は停車中に、待機画面の投稿ボタンをタッチ
5.1~3により設定した複数の投稿場所の一覧が表示
6.投稿したい場所のいずれかをタッチ
7.最終確認のための投稿ボタンをタッチ
8.選択された投稿場所の情報を、投稿場所を収集するサーバへ送信する
9.投稿場所を収集するサーバが、受信した情報を、取締場所として登録
10.投稿場所を収集するサーバが、登録した情報を配信
11.配信された情報を受信して表示
First, the process of posting by touch operation is as follows.
1. User discovers a control/inspection location while driving 2. Touch the button on the display screen that instructs you to set the posting location 3. Set the current location on the map when you touch the button as the posting location, and display an icon at the corresponding location 4. While parked or stopped, touch the post button on the standby screen. 5. A list of multiple posting locations set in steps 1 to 3 will be displayed. 6. Touch one of the places you want to post 7. Touch the post button for final confirmation 8. Send information on the selected posting location to the server that collects posting locations 9. The server that collects posting locations registers the received information as a control location10. The server that collects posting locations distributes the registered information 11. Receive and display distributed information

なお、6と7の間に、ターゲットがオービス、Nシステム、取締、検問等のいずれであるかの選択、走行車線、反対車線、右方向、左方向等の対象方向の選択、実施期間の選択等を行うこともできる。 In addition, between 6 and 7, select whether the target is Orbis, N System, enforcement, inspection, etc., select the target direction such as driving lane, opposite lane, right direction, left direction, etc., and select the implementation period. etc. can also be done.

このようなボタン操作による投稿の場合、走行中、投稿場所を発見してから、複数の階層的な手順を経るため、複数のボタン操作が必要となる。 In the case of posting by button operations, multiple button operations are required since the posting location is discovered while driving and then multiple hierarchical steps are performed.

しかし、本態様では、ユーザの音声入力に応じて投稿ができる。つまり、ユーザが、あらかじめデータベース19に登録された認識ワードを発話すると、制御部18がこれを認識し、通信部に、当該発話時の現在位置を、通信機器を介して、投稿場所としてサーバに送信させる。サーバは、受信した情報を、取締場所として登録し、登録した情報を配信する。通信部は、通信機器を介して、配信された情報を受信し、制御部18は受信した情報に基づいて、取締場所を地図上に表示させる。このため、ボタン操作のような手間がかからず、簡単にすばやく行うことができる。 However, in this aspect, posting can be made in response to the user's voice input. That is, when the user utters a recognition word registered in advance in the database 19, the control unit 18 recognizes this and sends the communication unit the current position at the time of the utterance to the server as the posting location via the communication device. Let it be sent. The server registers the received information as a control location and distributes the registered information. The communication unit receives the distributed information via the communication device, and the control unit 18 displays the enforcement location on the map based on the received information. Therefore, it can be done easily and quickly without the hassle of button operations.

取締場所としては、上記のように、オービス、Nシステムも含むが、特に、取締・検問エリアのように、実施位置、時間が変化するチェック場所とするとよい。このようにすれば、あらかじめ位置を登録しておくことが困難な取締場所についての情報を、投稿により収集させることができる。 Enforcement locations include Orbis and N systems as described above, but in particular, inspection locations where implementation locations and times vary, such as enforcement/inspection areas, are preferred. In this way, information about enforcement locations for which it is difficult to register the location in advance can be collected by posting.

位置情報としては、例えば、現在位置としてもよいし、地図の中心位置座標としてもよい。このようにすれば、確実且つ簡単に得られる情報により取締場所を特定できるとともに、音声認識を利用するので、実際の取締位置とのずれが少なくてよい。 The position information may be, for example, the current position or the center position coordinates of a map. In this way, the enforcement location can be specified using information that can be reliably and easily obtained, and since voice recognition is used, there may be less deviation from the actual enforcement location.

認識ワードとしては、音声認識を起動させる語句と投稿の受け付けを開始させる語句とが登録されているとよい。このようにすれば、ユーザが、音声認識を起動させる語句と投稿の受け付けを開始させる語句とを発話することにより、音声認識と、投稿の受け付けという多段階の操作を簡単に実行させることができる。 As the recognition words, it is preferable that a phrase for activating voice recognition and a phrase for starting acceptance of postings are registered. In this way, the user can easily perform the multi-step operation of voice recognition and post acceptance by uttering a phrase that activates voice recognition and a phrase that starts accepting posts. .

音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けが開始してしまい、誤認識が生じることを防止できてよい。また、音声認識を起動させる語句と投稿の受け付けを開始させる語句として、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けを一発で開始させることができるので、即座に投稿可能な状態とすることができてよい。 For example, the word/phrase for activating voice recognition and the word/phrase for starting acceptance of postings may be registered as separate words/phrases. In this way, for example, it may be possible to prevent erroneous recognition from occurring due to acceptance of postings starting at the same time voice recognition starts. Further, the word/phrase for activating voice recognition and the word/phrase for starting acceptance of postings may be set as a series of words, for example. In this way, for example, it is possible to start accepting postings at once when voice recognition starts, so that it is possible to immediately make postings possible.

認識ワードとしては、音声認識を起動させる語句と投稿をさせる語句とが登録されていれば、ユーザが、音声認識を起動させる語句と投稿をさせる語句とを発話することにより、音声認識と、投稿という多段階の操作を簡単に行うことができる。 If a word that activates voice recognition and a word that causes posting are registered as recognition words, the user can perform voice recognition and post by uttering the word that activates voice recognition and the word that causes posting. This multi-step operation can be easily performed.

音声認識を起動させる語句と投稿させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿されてしまい、誤って投稿されることを防止できてよい。また、音声認識を開始させる語句と投稿させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿を一発で行わせることができるので、即座に投稿できて、取締場所と投稿場所とのずれを極力少なくすることができてよい。 For example, the word for activating voice recognition and the word for posting may be registered as separate words. In this way, for example, it may be possible to prevent the message from being posted by mistake due to the start of voice recognition. Further, the word/phrase for starting voice recognition and the word/phrase for posting may be set as a series of words, for example. In this way, for example, posting can be performed in one go at the start of voice recognition, so posting can be done immediately, and the gap between the control location and the posting location can be minimized.

なお、投稿のための認識ワードは、他の認識ワードよりも短くてもよい。このようにすれば、例えば、緊急性の高い投稿について、短時間で指示することができてよい。 Note that the recognition word for posting may be shorter than other recognition words. In this way, for example, it may be possible to give instructions regarding highly urgent posting in a short period of time.

また、投稿のための認識ワードは、他の認識ワードよりも冗長であってもよい。このようにすれば、例えば、通常の音声認識を利用している場合に、他の認識語句を言う可能性が少なくなり、誤って投稿がされてしまうことを防止できる。冗長であるとは、例えば、文字数が多い、複数に分かれているとするとよい。このようにすれば、例えば、投稿を意図していないユーザが、誤って発話してしまう可能性を低減できる。 Also, the recognition word for posting may be more redundant than other recognition words. In this way, for example, when normal speech recognition is used, the possibility of saying other recognized phrases is reduced, and erroneous posting can be prevented. By redundant, for example, it may have a large number of characters or be divided into multiple parts. In this way, for example, it is possible to reduce the possibility that a user who does not intend to post will make a utterance by mistake.

また、投稿のための認識ワードは、ユーザが普段言う可能性の低い語句であってもよい。このようにすれば、例えば、ユーザが車内で普段、頻繁に使用する語句によって頻繁に誤認識が生じることを防ぎ、ユーザが意図しない投稿を防止できる。 Furthermore, the recognition word for posting may be a phrase that is unlikely to be said by the user on a regular basis. In this way, for example, it is possible to prevent frequent erroneous recognition caused by words and phrases that the user often uses in the car, and to prevent posts that are not intended by the user.

投稿のための認識ワードを認識した場合、制御部18が、これに応じて、あらかじめ登録されたキャラクターの音声を出力することにより、上記の実施形態のような対話機能を実現させてもよい。この場合、投稿のための対話におけるキャラクターの音声は、他の対話における音声よりも短くしてもよい。このようにすれば、例えば、対話の時間を短くして、素早く投稿させることができるのでよい。 When the recognition word for posting is recognized, the control unit 18 may realize the interactive function as in the above embodiment by outputting the voice of the pre-registered character in response. In this case, the character's voice in the dialogue for posting may be shorter than the voice in other dialogues. In this way, for example, the conversation time can be shortened and posting can be done quickly.

《応答フレーズのバリエーション》
データベース19にあらかじめ登録するキャラクターの応答フレーズは、以下のように種々の態様とすることができる。
検索された施設の選択を促すキャラクターの音声を、表示されたアイコンに合わせた内容で出力する場合、番号であれば何番がよいかを問い合わせる音声で、アルファベットであればアルファベットの何がよいかを問い合わせる音声で、形状であれば形状が何かを問い合わせる音声で、色であれば色が何かを問い合わせる音声にするとよい。このようにすれば、ユーザは、例えば、何を発話して施設を選択すればよいかが、簡単にわかるのでよい。
《Variations of response phrases》
The character response phrases registered in advance in the database 19 can be in various forms as described below.
If you want to output a character's voice that prompts you to select the searched facility with content that matches the displayed icon, if it is a number, it will be the voice that asks what number is good, and if it is an alphabet, it will be the voice that asks what letter is good. If it is a shape, use a voice that inquires what the shape is, and if it is a color, use a voice that inquires what the color is. In this way, the user can easily understand, for example, what to say to select a facility.

また、例えば、表示されているアイコンに合わせた内容として、選択される候補の範囲を示す音声とするとよい。これにより、例えば、何番から何番というように音声を出力すれば、ユーザは、発話すべき内容とともに、選択すべき範囲も把握することができるのでよい。 Further, for example, it is preferable to use audio indicating the range of candidates to be selected as the content matching the displayed icon. With this, for example, by outputting audio such as "from what number to what number", the user can grasp not only the content to be uttered but also the range to be selected.

あらかじめ登録されたキャラクターの音声として、キャラクターの状況を示す内容の音声を挿入してもよい。このようにすれば、ユーザは、キャラクターの状況を聞くことができるので、例えば、キャラクターがネガティブな状況にあれば、ユーザにキャラクターを気遣う気持ちを起こさせることができ、キャラクターがポジティブな状況にあれば、ユーザにキャラクターに共感する気持ちを起こさせることができるのでよい。 As the pre-registered character's voice, a voice indicating the character's situation may be inserted. In this way, the user can listen to the character's situation, so for example, if the character is in a negative situation, the user can feel concerned about the character, and if the character is in a positive situation, the user can feel concerned about the character. For example, this is good because it can make the user feel empathetic towards the character.

キャラクターの状況を示す発言としては、例えば、「わたし忙しいんだけど」というように、自らがポジティブな状態にあるかネガティブな状態にあるかがわかる発言とするとよい。このようにすれば、ユーザの指示にシステムが無条件に従うのではなく、ユーザに気遣いの気持ちや、共感の気持ちを生じさせることができるので、実際の人間を相手にした会話のような感覚が得られるのでよい。 As a statement indicating the character's situation, it is preferable to use a statement that shows whether the character is in a positive or negative state, such as, for example, "I'm busy." In this way, rather than having the system follow the user's instructions unconditionally, the system can create a sense of concern and empathy for the user, making it feel like a conversation with an actual human being. It's good because you can get it.

リストは複数設定され、応答フレーズにおける同一のリスト内であっても他のフレーズとは異質なフレーズが登録されているリストがあってもよい。このようにすれば、例えば、ユーザの同様の内容の発言に対する返答として、異質なフレーズが出力されることにより、ユーザに予想外の印象を与えることができ、キャラクターに対する印象を変化させて、飽きが来ることを防止できるのでよい。異質なフレーズとしては、例えば、図9(a)のレイ応答フレーズ3に示すように、「何か指示して。」、「どうすればい~い?」、「どうする?」、「どう変えるの?」という積極的な問いかけのフレーズの中に、「好きにして。」というように、曖昧なフレーズを挿入するとよい。また、図9(b)のレイ応答フレーズ24に示すように、「再検索」、「検索し直しね」、「も1回ね」、「やり直しま~す」というやり直しを示すフレーズの中に、「色々と私を試してるでしょ?」というように、ユーザの心理を読むようなフレーズを挿入するとよい。 A plurality of lists may be set, and there may be a list in which phrases different from other phrases are registered even in the same list of response phrases. In this way, for example, by outputting a different phrase in response to a user's utterance with the same content, it is possible to give an unexpected impression to the user, change their impression of the character, and make them feel bored. This is good because it can prevent this from happening. For example, as shown in Ray response phrase 3 in Figure 9(a), foreign phrases include "Please give me some instructions.", "What should I do?", "What should I do?", and "How should I change it?" It is a good idea to insert an ambiguous phrase such as ``Do whatever you like.'' into the active questioning phrase, ``Do whatever you like.'' In addition, as shown in the Ray response phrase 24 in FIG. It is a good idea to insert phrases that read the user's psychology, such as, ``You're trying a lot of things on me, aren't you?''

音声認識を間違えた場合に、出力されるフレーズが登録されていてもよい。このようにすれば、例えば、認識を間違えた場合であっても、何等かのフレーズを返すことより、キャラクターとの対話が継続していることを、ユーザに認識させることができるのでよい。 A phrase that is output when a mistake is made in speech recognition may be registered. In this way, for example, even if the recognition is incorrect, the user can be made aware that the dialogue with the character is continuing rather than returning some phrase.

音声認識に誤りがあった場合に備えた逃げ口上となるフレーズが登録されているとよい。このようにすれば、例えば、音声認識に誤りが生じる可能性はあるが、たとえ誤りが生じたとしても、キャラクターの逃げ口上によって、ユーザの苛立ちや怒りを和らげることができるのでよい。 It is a good idea to have a phrase registered as an escape phrase in case there is an error in voice recognition. In this way, for example, there is a possibility that an error may occur in speech recognition, but even if an error occurs, the user's irritation and anger can be alleviated by the character's escape route.

逃げ口上としては、例えば、図8(a)のレイ応答フレーズ1に示す「音声認識頑張ります。100%認識できないかもしれないけれど」のように、正確に認識しようとする意欲を示す表現とともに、完全な達成は困難であることを示す表現とするとよい。このようにすれば、例えば、単に、認識ができないことを示すよりも、誤認識に対して、ユーザに許容する心理を生じさせることができるとよい。 As an escape excuse, for example, as shown in Ray response phrase 1 in Figure 8 (a), "I will do my best to recognize the voice. Although I may not be able to recognize it 100%," it is possible to use an expression that shows a desire to accurately recognize the voice, as well as a complete speech. It is best to use expressions that indicate that it is difficult to achieve the desired goal. In this way, for example, rather than simply indicating that recognition is not possible, it is preferable to make the user feel more willing to tolerate misrecognition.

ユーザが返答を望む内容とキャラクターの音声の出力の内容とが相違していることを指摘するユーザの音声の入力があった場合に、それに対するキャラクターからの返答のフレーズが登録されているとよい。このようにすれば、例えば、ユーザが、キャラクターの間違えを指摘すると、キャラクターからこれに対する返答があるので、誤解があった場合の人と人との自然なやり取りを楽しむことができるのでよい。 When there is a user's voice input pointing out that the content the user wants to respond to is different from the content of the character's voice output, it is good to have a phrase for the response from the character registered. . In this way, for example, if the user points out a mistake in the character, the character will respond, allowing the user to enjoy natural interaction between people in the event of a misunderstanding.

宣伝広告となるフレーズが登録されていてるとよい。このようにすれば、例えば、提携している施設にユーザを誘導することができるのでよい。例えば、「○○ショップはどう?」というように、特定の施設に誘うフレーズとするとよい。 It would be good if phrases for advertising were registered. In this way, for example, the user can be guided to the affiliated facility. For example, it may be a good idea to use a phrase that invites the user to a specific facility, such as "How about XX shop?"

ユーザが行き先とする施設で行うことの原因についてのフレーズが登録されているとよい。このようにすれば、ある施設に行くことになった原因について発話することにより、当該施設に向かうユーザが耳を傾けやすくなる。例えば、その行き先に行く原因がユーザにとって好ましくない場合にも、ユーザにとって好ましい場合にも、ユーザの注意を引くことができる。 It is preferable that phrases about the causes of what the user does at the destination facility are registered. In this way, by speaking about the reason for going to a certain facility, it becomes easier for the user heading to the facility to listen. For example, the user's attention can be drawn whether the reason for going to the destination is unfavorable to the user or favorable to the user.

行き先へ行く原因がユーザにとって好ましいものでない施設としては、例えば、「病院」、「歯医者」、「薬局」のように、ユーザの病気に関係している施設とするとよい。行き先へ行く原因がユーザにとって好ましい施設としては、例えば、「デパート」「寿司」「うなぎ」のように、日常良く行く施設よりも、ややハードルが高い施設とするとよい。 Examples of facilities that are not desirable for the user to go to include facilities that are related to the user's illness, such as a "hospital," "dentist," or "pharmacy." Facilities whose reasons for going to the destination are preferable to the user include, for example, facilities that have a slightly higher hurdle than the facilities that the user frequently visits, such as "department store," "sushi," and "eel."

キャラクターがユーザに対して種々の感情を起こさせるフレーズとしては、例えば、図9(c)の応答フレーズ6-8に示すように、「病院? どこか具合が悪いの? 大丈夫?」、「あまり無理しないでね。」のようにユーザの状態を思いやることによりキャラクターに愛着を感じさせるフレーズとするとよい。また、例えば、図9(d)の応答フレーズ6-29に示すように、「ちゃんと歯磨きしてる?」のようにユーザに後悔の念を起こさせるフレーズとするとよい。 Examples of phrases that can cause a character to evoke various emotions toward the user include response phrases 6-8 in Figure 9(c), such as "Hospital? Are you sick somewhere? Are you okay?" It is best to use a phrase such as "Don't push yourself too hard." that makes the user feel attached to the character by showing consideration for the user's condition. Further, for example, as shown in response phrase 6-29 in FIG. 9(d), it is preferable to use a phrase that causes the user to feel regret, such as "Are you brushing your teeth properly?"

ユーザが行き先とする施設で行うことについての肯定的又は否定的なアドバイスとなるフレーズが登録されているとよい。このようにすれば、例えば、キャラクターのアドバイスにより、ユーザが行き先ですべきことや、すべきでないことを判断できるのでよい。肯定的なアドバイスとしては、例えば、図9(d)の応答フレーズ6-29に示すように、「たまには歯垢をとってもらった方がいいよ。」のように何かを勧めるフレーズとするとよい。また、否定的なアドバイスとしては、例えば、図9(e)の応答フレーズ6-23に示すように、「苦しそうな顔しちゃダメ。涼しい顔して我慢するのが男なの。」のように何かを禁止するフレーズとするとよい。 Preferably, phrases that provide positive or negative advice about things to do at the facility the user is going to are registered. In this way, the user can decide what to do and what not to do at the destination based on the character's advice, for example. As a positive advice, for example, as shown in response phrase 6-29 in Figure 9(d), a phrase that recommends something such as ``You should have your teeth cleaned from time to time.'' good. In addition, negative advice can be given, for example, as shown in response phrase 6-23 in Figure 9(e), such as, "Don't make a pained face. It's a man's job to put on a cool face and put up with it." Use this as a phrase to prohibit something.

ユーザが行き先とする施設で行うことについてのキャラクターの一方的な感想となるフレーズが登録されているとよい。このようにすれば、例えば、キャラクターの感想が得られるので、ユーザは、行き先での行動についての参考とすることができてよい。 It is preferable that a phrase is registered that is a character's one-sided impressions about things to do at the facility that the user is going to. In this way, for example, impressions of the character can be obtained, which the user may use as a reference for actions at the destination.

キャラクターの一方的な感想としては、例えば、図9(f)の応答フレーズ6-14に示すように「お口の中でとろけるような黒ブタチャーシュー。ステキ~。」のように、肯定的な感想とするとよい。このようにすれば、ユーザが、同様の行動を施設でとりたくなるのでよい。また、例えば、「一人でレストランに行くの?寂しくない?・・ほっとけって?」のように否定的な感想とするとよい。このようにすれば、ユーザに行き先を変える気を起こさせるのでよい。さらに、例えば、図9(g)の応答フレーズ6-21に示すように、「ショッピングモールって見て回るだけで楽しそう。でも疲れそう。」のように、肯定的な感想と否定的な感想が混じっていてもよい。このようにすれば、行き先での状況について、ユーザにあらかじめ覚悟させることができるのでよい。 For example, a character's one-sided impression may be a positive one, as shown in response phrase 6-14 in Figure 9(f), such as, "The black pork char siu melts in your mouth. It's wonderful." It's best to write your impressions. This is good because the user will want to take similar actions at the facility. For example, it is a good idea to give negative impressions such as, ``Are you going to a restaurant alone?Aren't you lonely?...Leave me alone?'' This is good because it will motivate the user to change his destination. Furthermore, as shown in response phrase 6-21 in Figure 9(g), for example, "Shopping malls look like fun just looking around. But it seems tiring." It is okay to have mixed opinions. This is good because it allows the user to prepare in advance for the situation at the destination.

キャラクターが、現実に存在することを思わせるフレーズが登録されていてもよい。このようにすれば、例えば、ユーザは、キャラクターが実際に存在するような感覚が得られるのでよい。 A phrase that makes it seem like the character exists in reality may be registered. In this way, for example, the user can feel as if the character actually exists.

現実に存在することを思わせるフレーズとしては、例えば、図9(h)の応答フレーズ6-24に示すように、「出張にも私を連れて行ってくれるなんて、うれしいです~。」、図9(i)の応答フレーズ6-25に示すように、「私達、どこに泊まる?」のように、同行していることを思わせるフレーズとするとよい。このようにすれば、例えば、ユーザは、キャラクターといつも一緒にいる感覚が得られるのでよい。 Examples of phrases that remind us of reality are, for example, as shown in response phrase 6-24 in Figure 9(h): ``I'm glad that you take me on business trips.'' As shown in response phrase 6-25 in 9(i), it is best to use a phrase that makes it seem like you are accompanying the person, such as ``Where are we going to stay?'' In this way, for example, the user can feel that he or she is always with the character.

あらかじめ認識語句として設定された語句以外の音声が入力された場合に、キャラクターが出力する音声データが登録されているとよい。このようにすれば、例えば、認識語句以外であっても、必ずキャラクターの反応があるため、対話が途切れたり、エラーとして報知する等によりシステムとのやり取りであることをユーザに想起させてしまうことがなく、キャラクターと対話を継続している感覚を維持できるのでよい。設定された語句以外の音声が入力された場合のフレーズとしては、図9(j)のレイ応答フレーズ50に示すような認識不可のフレーズとすることが考えられる。なお、応答フレーズは、複数の中からランダムに出力される態様には限定されない。複数の中から出力される順序が決まっていて、その順番で順次出力され、最後の順位の応答フレーズが出力されたら、最初の順位の応答フレーズに戻って出力するようにすれば、繰り返し同じ応答フレーズが出力されることを防止できる。さらに、認識語句毎に、対応する応答フレーズが、一対一に決まっていてもよい。このようにすれば、情報の記憶量を節約できるのでよい。このような場合でも、上記で示したような内容の応答フレーズが設定されていれば、同様の効果が得られる。 It is preferable that the voice data that the character outputs when a voice other than a word set as a recognition word is inputted is registered. In this way, for example, even if the word is not recognized, there will always be a reaction from the character, so the dialogue will be interrupted, or an error will be reported, reminding the user that they are interacting with the system. This is good because it allows you to maintain the feeling of continuing dialogue with the character. When a voice other than the set word/phrase is input, the phrase may be an unrecognizable phrase such as the Ray response phrase 50 in FIG. 9(j). Note that the response phrase is not limited to being output randomly from among a plurality of response phrases. If the order in which they are output from among multiple items is determined, and the response phrases are output one after another in that order, and once the response phrase in the last rank is output, it returns to the response phrase in the first rank and is output, so that the same response can be repeated. It is possible to prevent phrases from being output. Furthermore, a corresponding response phrase may be determined on a one-to-one basis for each recognized phrase. This is good because the amount of information stored can be saved. Even in such a case, the same effect can be obtained if a response phrase with the content shown above is set.

《音声出力と音声認識のタイミング》
音声出力と音声認識のタイミングは、以下のように種々の設定が可能である。
制御部18は、キャラクターの音声が出力されている間は、音声を出力し終えるまで、音声認識を停止してもよい。このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識により他の処理が実行されてしまうことを防止できてよい。他の処理としては、例えば、音量、輝度、スケール、周辺検索のように、緊急性の低い処理とするとよい。このようにすれば、必ずしも直ちに実行しなくてもよいものまで、音声認識により実行されてしまうことがなくてよい。
《Timing of voice output and voice recognition》
The timing of audio output and audio recognition can be set in various ways as described below.
The control unit 18 may stop voice recognition while the character's voice is being output until the voice is finished outputting. In this way, for example, when the user inputs voice in the middle of the character's voice, it may be possible to prevent other processing from being executed due to voice recognition. Other processing may be less urgent processing, such as volume, brightness, scale, and surrounding search. In this way, things that do not necessarily need to be executed immediately will not be executed by voice recognition.

制御部18は、キャラクターの音声が出力されている間も、音声認識を受け付けてもよい。このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識より他の処理が中断されないのでよい。他の処理としては、例えば、取締場所に関する位置情報を情報収集サーバに送信する処理のように、緊急性の高い処理とするとよい。このようにすれば、ユーザが直ちに実行して欲しい処理が、中断されることがなくてよい。 The control unit 18 may accept voice recognition even while the character's voice is being output. In this way, for example, when the user inputs voice in the middle of the character's voice, processes other than voice recognition are not interrupted. Other processing may be a highly urgent process, such as a process of transmitting location information regarding a control location to an information collection server. In this way, the process that the user wants to execute immediately will not be interrupted.

制御部18は、キャラクターの音声が出力されている間に、ユーザからの音声の入力があった場合に、キャラクターの音声の出力を停止してもよい。このようにすれば、例えば、ユーザの音声によって、キャラクターの発言を遮ったような印象を与えることができる。停止したキャラクターの音声の出力は、例えば、あらためて出力しなければ、同じ発話が始めから繰り返されて不自然な印象を与えることがなくてよい。また、停止したキャラクターの音声の出力を、例えば、止めたところから開始すれば、ユーザの発言の間、キャラクターが待ってくれていた印象を与えることができてよい。 The control unit 18 may stop outputting the character's voice if a voice is input from the user while the character's voice is being output. In this way, for example, it is possible to give the impression that the character's speech is interrupted by the user's voice. For example, if the voice of the stopped character is not output again, the same utterance does not have to be repeated from the beginning and give an unnatural impression. Furthermore, if the output of the stopped character's voice is started from the point where it stopped, for example, it may be possible to give the impression that the character has been waiting while the user speaks.

制御部18は、キャラクターの音声が出力されている間に、所定の入力操作がなされた場合に、キャラクターの音声を停止してもよい。このようにすれば、例えば、キャラクターとの対話を第三者に聞かれたくないときに、所定の入力操作によって、キャラクターの音声を停止させることができてよい。所定の入力操作としては、例えば、物理キーの操作とするとよい。このようにすれば、常時、固定的に存在する箇所を操作すればよいので、とっさの操作がしやすい。 The control unit 18 may stop the character's voice when a predetermined input operation is performed while the character's voice is being output. In this way, for example, when you do not want a third party to hear your dialogue with the character, you may be able to stop the character's voice by performing a predetermined input operation. The predetermined input operation may be, for example, an operation of a physical key. In this way, you only need to operate a fixed location at all times, making it easy to perform quick operations.

《音声認識起動のタイミング》
音声認識起動のタイミングは、以下のように、種々の態様が可能である。
制御部18は、対話に応じて、ユーザが知りたい情報を出力するための所定の処理を、所定の認識ワードに対応するユーザからの音声の入力により開始するとよい。このようにすれば、例えば、所定の処理をユーザからの音声の入力があって開始するため、システムが勝手に開始して処理が実行されてしまうことがなくてよい。
《Timing for starting voice recognition》
Various aspects are possible for the timing of voice recognition activation, as described below.
The control unit 18 may start a predetermined process for outputting information that the user wants to know in response to the dialogue by inputting a voice from the user corresponding to a predetermined recognition word. In this way, for example, a predetermined process is started upon voice input from the user, so that the system does not start automatically and execute the process.

制御部18は、対話に応じて、ユーザが知りたい情報を出力するための所定の処理を、所定のキャラクターの音声の出力に対し、所定の認識語句に対応するユーザからの音声の入力があって開始してもよい。このようにすれば、例えば、キャラクターの音声の出力が、ユーザが所定の処理を開始するか否かを判断する契機となるので、システムを利用する機会を増やすことができるのでよい。 The control unit 18 performs a predetermined process for outputting information that the user wants to know in response to the dialogue, when there is a voice input from the user corresponding to a predetermined recognized phrase, with respect to the output of a predetermined character's voice. You may start with In this way, for example, the output of the character's voice becomes an opportunity for the user to decide whether or not to start a predetermined process, so it is possible to increase the chances of using the system.

キャラクターの音声の出力は、例えば、特定の処理の開始の有無を問い合わせるものとするとよい。このようにすれば、例えば、ユーザが、処理の利用を促されるのでよい。キャラクターの音声の出力のタイミングは、例えば、定期的とすれば、処理を利用させる頻度を高めるのでよい。また、タイミングを所定の条件を満たした場合とすれば、処理の利用に適したタイミングで、ユーザに利用を促すことができるのでよい。 For example, the character's voice may be output to inquire as to whether or not to start a specific process. In this way, for example, the user may be prompted to use the process. The timing of outputting the character's voice may be, for example, periodically, since this increases the frequency with which the process is used. Furthermore, if the timing is set when a predetermined condition is satisfied, it is possible to prompt the user to use the process at a timing suitable for the use of the process.

《その他》
周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させる態様としては、施設の位置が明確となる表示とするとよい。例えば、アイコンと地図の明度、彩度、色相の少なくとも一つを変えれば、両者の対比が際立つのでよい。
"others"
Icons indicating surrounding facilities may be displayed in a way that makes the location of the facility clear as compared to the map. For example, if at least one of the brightness, saturation, and hue of the icon and the map are changed, the contrast between the two can become more noticeable.

周辺の施設を示すアイコンに、所定の基準に従った順位が区別できる表示をする場合、所定の基準としては、例えば、ユーザにとっての重要度が高い順としてもよい。このようにすれば、ユーザが最も知りたい施設が優先的に表示されるのでよい。ユーザにとっての重要度とは、例えば、過去に行ったことがある、過去に行った頻度が高い、ユーザの好みに合う等とするとよい。このようにすれば、ユーザが行きたい施設を素早く知ることができるのでよい。また、例えば、過去に行ったけれども、二度と行きたくないなど、ユーザにとっての重要度が低いものが除外されるようにしてもよい。このようにすれば、例えば、ユーザが行く可能性があるもののみを表示させることができてよい。 When displaying icons indicating surrounding facilities in a manner that allows distinguishing the ranking according to a predetermined criterion, the predetermined criterion may be, for example, an order of importance for the user. In this way, the facility that the user most wants to know about is displayed preferentially. The degree of importance for the user may be, for example, something that has been done in the past, something that has been done frequently in the past, or something that suits the user's preference. This is good because the user can quickly find out which facility he or she wants to visit. Further, for example, things that are of low importance to the user may be excluded, such as things that the user has visited in the past but does not want to go again. In this way, for example, it may be possible to display only the places where the user is likely to go.

順位が区別できる表示としては、例えば、◎、○、△、×等の形状や、明度、彩度、色相により段階的に変化をつける等、視覚的に順位を示す情報としてもよい。このようにすれば、例えば、順位を視覚により直感的に把握できるのでよい。 The display that can distinguish the ranking may be, for example, information that visually indicates the ranking, such as shapes such as ◎, ○, △, and ×, or gradual changes based on brightness, saturation, and hue. In this way, for example, the ranking can be visually and intuitively grasped.

表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識する場合、例えば、アルファベットであれば所望の施設のアイコンのアルファベット、形状であれば所望の施設のアイコンの形状、色であれば所望の施設のアイコンの色としてもよい。このようにしても、施設名よりも覚えやすい言葉で、施設を選択することができるのでよい。 When recognizing the voice of a user selecting a facility with content matching the displayed icon, for example, if it is an alphabet, it will be the alphabet of the icon of the desired facility, if it is a shape, it will be the shape of the icon of the desired facility. , the color of the icon of the desired facility may be used as long as it is a color. Even in this case, the facility can be selected using a word that is easier to remember than the facility name.

ボタン表示された項目の表示領域において、背後の画像が見える部分としては、例えば、透過する部分としてもよい。このようにすれば、例えば、項目表示の視認性を確保したまま、背景の画像も、より良く見ることができるのでよい。 In the display area of the button-displayed item, the part where the image behind can be seen may be, for example, a transparent part. In this way, for example, the background image can be seen better while maintaining the visibility of the item display.

ユーザの音声を認識するためにあらかじめ登録される認識ワードが、表示画面に表示されているものと、表示画面に表示されていないものとがあってもよい。このようにすれば、例えば、ユーザが、表示画面に表示されていない語句を発話した場合であっても、あらかじめ設定された認識語句であれば、キャラクターからの何らかの反応を得ることができるので、ユーザにとってサプライズとなり、ユーザに発見の喜びを与えることができる。 There may be recognition words that are registered in advance for recognizing the user's voice that are displayed on the display screen, and there are recognition words that are not displayed on the display screen. In this way, for example, even if the user utters a word that is not displayed on the display screen, as long as it is a recognized word that has been set in advance, it is possible to get some kind of reaction from the character. This can be a surprise for the user and give the user the joy of discovery.

認識ワードとしての量的に変化する機能に対応する指示語と、量的レベルを示す数字としては、例えば、「おんりょうさん」、「きどに」、「すけーるにきろ」のように、名称と量的レベルとを1つの認識語句にまとめてもよい。このようにすれば、発話が一回で済むのでよい。 Examples of demonstrative words that correspond to functions that change quantitatively as recognition words and numbers that indicate quantitative levels are, for example, ``Onryo-san,'' ``Kidoni,'' and ``Scale Nikiro.'' The name and quantitative level may be combined into one recognition phrase. In this way, only one utterance is required.

機能に対応する指示語が表示されるボタンは、別の表示画面に遷移せずに機能を実行させるボタンがあってもよい。このようにすれば、例えば、機能を実行させるために別の表示画面に遷移しなくても、対話により機能を実行させることができるので、現在の画面表示が邪魔されることがなくてよい。 The button on which the instruction word corresponding to the function is displayed may include a button that executes the function without transitioning to another display screen. In this way, for example, a function can be executed through dialogue without transitioning to another display screen to execute the function, so that the current screen display is not disturbed.

本実施形態では、ナビゲーション装置の例で説明したが、各種の電子機器の機能として実施することができる。たとえば、レーダー探知機、ドライブレコーダ、カーオーディオの機能として組み込んでもよい。また本実施形態で記載した量的レベルの値、表示部5の画面サイズ、各種の時間設定など、本発明の効果を奏する範囲で任意のものとすることができる。また、制御部18には、各機能や警報の優先順位をリモコン17等からのユーザからの指示に基づいて設定する機能を設け、この設定された優先順位で制御部18が処理を行うように構成してもよい。 Although this embodiment has been described using an example of a navigation device, it can be implemented as a function of various electronic devices. For example, it may be incorporated as a function of a radar detector, drive recorder, or car audio. In addition, the quantitative level values, the screen size of the display unit 5, various time settings, etc. described in this embodiment can be set arbitrarily as long as the effects of the present invention are achieved. The control unit 18 is also provided with a function to set the priority of each function and alarm based on instructions from the user from the remote control 17, etc., so that the control unit 18 performs processing according to the set priority. may be configured.

さらに、上述した実施形態では、装置内に各種の情報を記憶したデータベース19を備え、制御部18は係るデータベース19にアクセスして必要な情報を読み出し、各種の処理をしたが、本発明はこれに限ることはない。例えば、データベース19に登録する情報の一部または全部をサーバに登録しておく。そして、ナビゲーション装置、レーダー探知機その他の電子機器・装置は、係るサーバと通信する機能を備え、制御部18は、適宜サーバにアクセスし、必要な情報を取得して処理を実行するシステムとしてもよい。さらには、制御部18の機能の少なくとも一部をサーバにおき、当該機能をサーバで実行し、ユーザが持つ電子機器は、その実行結果を取得するようなシステムとしても良い。 Further, in the embodiment described above, the device is provided with a database 19 storing various information, and the control unit 18 accesses the database 19 to read necessary information and perform various processes. It is not limited to. For example, part or all of the information to be registered in the database 19 is registered in the server. The navigation device, radar detector, and other electronic equipment/devices have a function of communicating with the server, and the control unit 18 functions as a system that accesses the server as appropriate, acquires necessary information, and executes processing. good. Furthermore, a system may be used in which at least a part of the functions of the control unit 18 is placed in a server, the functions are executed by the server, and the electronic device held by the user acquires the execution results.

上述した実施形態の制御システムとしての機能は制御部18に備えるコンピュータに実現させるためのプログラムとして構成されているが、これに限らずプログラムは複数のコンピュータに分散配置し、分散処理するようにしてもよい。 The functions of the control system in the embodiment described above are configured as a program to be realized by a computer included in the control unit 18, but the program is not limited to this, and the program may be distributed to multiple computers and processed in a distributed manner. Good too.

2 装置本体
3 クレードル
4 ケース本体
5 表示部
6 クレードル本体
7 台座部
8 タッチパネル
10 警報ランプ
11 マイクロ波受信機
12 GPS受信機
13 無線受信機
18 制御部
19 データベース
20 スピーカ
21 SDメモリカード用スロット
22 SDメモリカード
51 現在位置
52 目的地
53 ルート

2 Apparatus body 3 Cradle 4 Case body 5 Display section 6 Cradle body 7 Pedestal section 8 Touch panel 10 Alarm lamp 11 Microwave receiver 12 GPS receiver 13 Wireless receiver 18 Control section 19 Database 20 Speaker 21 SD memory card slot 22 SD Memory card 51 Current location 52 Destination 53 Route

Claims (2)

音声認識機能によりユーザの音声を認識した結果に基づいてキャラクターの音声を出力することにより対話を実現するシステムであって、
前記対話における前記キャラクターの音声に前記ユーザの呼び名を挿入し、前記対話が進行するに従って、前記キャラクターの音声に前記ユーザの呼び名を挿入する頻度を低減させる機能と、
を有するシステム。
A system that realizes dialogue by outputting a character's voice based on the result of recognizing a user's voice using a voice recognition function,
a function of inserting the user's nickname into the character's voice in the dialogue, and reducing the frequency of inserting the user's nickname into the character's voice as the dialogue progresses;
A system with
請求項1に記載システムの機能を、コンピュータに実現させるためのプログラム。

A program for causing a computer to implement the functions of the system according to claim 1.

JP2023143393A 2019-09-24 2023-09-05 System and program Pending JP2023158056A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023143393A JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019172412A JP2020008876A (en) 2019-09-24 2019-09-24 System and program
JP2021202205A JP2022027882A (en) 2019-09-24 2021-12-14 System and program
JP2023143393A JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021202205A Division JP2022027882A (en) 2019-09-24 2021-12-14 System and program

Publications (1)

Publication Number Publication Date
JP2023158056A true JP2023158056A (en) 2023-10-26

Family

ID=69151730

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019172412A Pending JP2020008876A (en) 2019-09-24 2019-09-24 System and program
JP2021202205A Pending JP2022027882A (en) 2019-09-24 2021-12-14 System and program
JP2023143393A Pending JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019172412A Pending JP2020008876A (en) 2019-09-24 2019-09-24 System and program
JP2021202205A Pending JP2022027882A (en) 2019-09-24 2021-12-14 System and program

Country Status (1)

Country Link
JP (3) JP2020008876A (en)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3398401B2 (en) * 1992-03-16 2003-04-21 株式会社東芝 Voice recognition method and voice interaction device
JP2000067045A (en) * 1998-08-20 2000-03-03 Victor Co Of Japan Ltd Text converting device and computer readable recording medium stored with text conversion program
JP3576850B2 (en) * 1999-01-22 2004-10-13 株式会社ケンウッド Navigation device with interactive function
JP4320880B2 (en) * 1999-12-08 2009-08-26 株式会社デンソー Voice recognition device and in-vehicle navigation system
WO2001067228A1 (en) * 2000-03-09 2001-09-13 Koninklijke Philips Electronics N.V. Method of interacting with a consumer electronics system
JP2003219038A (en) * 2001-10-22 2003-07-31 Ntt Comware Corp Call center system apparatus and call method in interlocking with customer information
JP2003169147A (en) * 2001-11-30 2003-06-13 Buzzhits Kk Client response system and method
JP2006154926A (en) * 2004-11-25 2006-06-15 Denso Corp Electronic equipment operation system using character display and electronic apparatuses
JP4491438B2 (en) * 2006-06-26 2010-06-30 Necシステムテクノロジー株式会社 Voice dialogue apparatus, voice dialogue method, and program
WO2008001550A1 (en) * 2006-06-27 2008-01-03 Murata Kikai Kabushiki Kaisha Audio guidance apparatus, audio guidance method and audio guidance program
JP2011209786A (en) * 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program
JP6312053B2 (en) * 2013-09-06 2018-04-18 株式会社ユピテル System and program

Also Published As

Publication number Publication date
JP2022027882A (en) 2022-02-14
JP2020008876A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP6312053B2 (en) System and program
EP2728313A1 (en) Method of displaying objects on a navigation map
EP3190501A1 (en) User terminal device and control method thereof
JP7340940B2 (en) Agent device, agent device control method, and program
CN108337380A (en) Adjust automatically user interface is for hands-free interaction
KR20170078646A (en) Facilitating interaction between users and their environments using sounds
CN108430819A (en) Car-mounted device
Moniri et al. Personalized in-vehicle information systems: Building an application infrastructure for smart cars in smart spaces
JP2024028844A (en) System and program
JP6725933B2 (en) System and program
JP6601643B2 (en) System and program
JP4259054B2 (en) In-vehicle device
JP6807611B2 (en) Systems and programs
JP7199104B2 (en) System and program
JP2023158056A (en) System and program
JP6661859B2 (en) System and program
JP6291643B2 (en) System and program
JP2018141742A (en) Navigation device, navigation method, and navigation program
Wang et al. VirtuWander: Enhancing Multi-modal Interaction for Virtual Tour Guidance through Large Language Models
JPWO2017195388A1 (en) Information processing apparatus, information processing method, and program
JP7296650B2 (en) System and program
JP4258607B2 (en) In-vehicle device
JP3818352B2 (en) Navigation device and storage medium
Gedawy Designing an interface and path translator for a smart phone-based indoor navigation system for visually impaired users
JP5446540B2 (en) Information retrieval apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230928