JP2022027882A - System and program - Google Patents

System and program Download PDF

Info

Publication number
JP2022027882A
JP2022027882A JP2021202205A JP2021202205A JP2022027882A JP 2022027882 A JP2022027882 A JP 2022027882A JP 2021202205 A JP2021202205 A JP 2021202205A JP 2021202205 A JP2021202205 A JP 2021202205A JP 2022027882 A JP2022027882 A JP 2022027882A
Authority
JP
Japan
Prior art keywords
user
voice
character
recognition
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021202205A
Other languages
Japanese (ja)
Inventor
圭三 高橋
Keizo Takahashi
裕一 梶田
Yuichi Kajita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yupiteru Corp
Original Assignee
Yupiteru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yupiteru Corp filed Critical Yupiteru Corp
Priority to JP2021202205A priority Critical patent/JP2022027882A/en
Publication of JP2022027882A publication Critical patent/JP2022027882A/en
Priority to JP2023143393A priority patent/JP2023158056A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system and a program enabling a user to obtain fun in operation and driving, and providing him/her with an incentive to utilize a function positively without becoming bored.
SOLUTION: A function required for a user is executed in accordance with a dialog between recognition information based on a result obtained by recognizing a voice of the user who is a passenger of a vehicle and an output of a voice of a prescribed character 100 indicating that the user's voice has been recognized. A voice uttered by the user is used as information recognized as a word phrase for establishing the dialog with the character 100, as the recognition information based on the result obtained by recognizing the voice of the user.
SELECTED DRAWING: Figure 10
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、車両の搭乗者の音声を認識して、所定の処理を実行するシステム及びプログラムに関する。 The present invention relates to a system and a program that recognizes the voice of a occupant of a vehicle and executes a predetermined process.

現在、ナビゲーション装置やレーダー探知機などの機能を備えた車載用電子機器が、広く普及している。このような車載用電子機器は、車両が走行中に、車両の搭乗者であるユーザが必要とする各種の情報を出力する機能を有している。 Currently, in-vehicle electronic devices equipped with functions such as navigation devices and radar detectors are widely used. Such an in-vehicle electronic device has a function of outputting various information required by a user who is a passenger of the vehicle while the vehicle is traveling.

例えば、車載用電子機器がナビゲーション装置としての機能を備えている場合、ユーザの操作に応じて、探索された目的地までの案内経路、検索された各種の施設を表示装置に表示させることができる。また、例えば、車載用電子機器がレーダー探知機としての機能を備えている場合、オービス、取締・検問エリア、交通監視装置などのターゲットを、適宜、表示装置に表示させることができる。 For example, when the in-vehicle electronic device has a function as a navigation device, the guide route to the searched destination and various searched facilities can be displayed on the display device according to the operation of the user. .. Further, for example, when an in-vehicle electronic device has a function as a radar detector, targets such as an orbis, a control / inspection area, and a traffic monitoring device can be appropriately displayed on a display device.

このような車載用電子機器の操作は、基本的には、機器に設けられたスイッチ、表示装置の画面に構成されたタッチパネル、赤外線による遠隔操作が可能なリモコンを、ユーザが手操作することによって行う。さらに、ユーザが発話した音声を認識して、これに応じた処理を行う音声認識機能を備えた車載用電子機器も、一般的に普及している。 The operation of such an in-vehicle electronic device is basically performed by the user manually operating a switch provided in the device, a touch panel configured on the screen of the display device, and a remote control capable of remote control by infrared rays. conduct. Further, an in-vehicle electronic device having a voice recognition function that recognizes a voice spoken by a user and performs processing according to the voice is also widely used.

この音声認識機能を利用すれば、運転中であるために手操作が困難なユーザであっても、あらかじめ登録されたコマンド等に対応する認識語句を発話することにより、経路探索や施設検索などの各種の機能を実行させることができる。 By using this voice recognition function, even a user who has difficulty in manual operation because he / she is driving can perform route search, facility search, etc. by uttering a recognition phrase corresponding to a pre-registered command or the like. Various functions can be executed.

特開2009-115594号公報Japanese Unexamined Patent Publication No. 2009-115594

しかしながら、従来の車載用電子機器における音声認識機能は、ユーザが一方的に発した指示に応じて、機器が所定の処理を行うという点では、手操作と何ら変わりはない。このため、ユーザは、手操作によるか、音声入力によるかにかかわらず、無味乾燥な機器を操作しているだけという感覚しか得られない。 However, the voice recognition function in the conventional in-vehicle electronic device is no different from the manual operation in that the device performs a predetermined process in response to an instruction unilaterally issued by the user. For this reason, the user can only get the feeling that he / she is operating a tasteless device regardless of whether it is performed manually or by voice input.

また、一般的な車載用電子機器は、経路案内、ターゲットの報知等を、あらかじめ設定された音声によって行う機能も有している。しかし、この機能も、機器側が一方的に情報を提供するという点では、画面表示による情報提供と何ら変わりはない。このため、ユーザは、無味乾燥な機器から情報を得ているという感覚しか得られない。 In addition, a general in-vehicle electronic device also has a function of performing route guidance, target notification, and the like by a preset voice. However, this function is no different from the information provision by the screen display in that the device side provides the information unilaterally. For this reason, the user can only get the feeling that he / she is getting information from a tasteless device.

以上のように従来の技術では、機器を操作しているという感覚しか得られないため、そこに何らの面白みもなく、車内にいる人間、特に、長時間、一人で運転している運転者にとって非常に退屈である。このため、ユーザは、購入から時間が経過すると、車載用電子機器を積極的に利用する意欲が湧かなくなり、多様な機能が有効に活用されないままとなることが多い。 As described above, with the conventional technology, only the feeling of operating the device can be obtained, so there is no fun there, and for the person in the car, especially the driver who is driving alone for a long time. It's very boring. For this reason, after a lapse of time from the purchase, the user is not motivated to actively use the in-vehicle electronic device, and in many cases, various functions are not effectively utilized.

本発明は、上記のような従来技術の問題を解決するために提案されたものであり、その目的は、ユーザにとって、操作や運転に面白さが得られるとともに、飽きがくることがなく、積極的に機能を利用する意欲が湧いてくるシステム及びプログラムを提供することにある。 The present invention has been proposed to solve the above-mentioned problems of the prior art, and the purpose of the present invention is to provide the user with fun in operation and driving, and to be positive without getting bored. The purpose is to provide systems and programs that motivate people to use their functions.

(1)本発明のシステムは、車両の搭乗者であるユーザの音声を認識した結果に基づく認識情報と、ユーザの音声を認識したことを示す所定のキャラクターの音声の出力とによる対話に応じて、車両の搭乗者が必要とする機能を実行することを特徴とする。
このようにすれば、例えば、車両の搭乗者であるユーザの一方的な指示に対してシステムが機能を実行するのではなく、ユーザがキャラクターと対話することにより、車両の搭乗者が必要とする機能を実行することができるので、操作や運転の利便性と面白味が増大するとともに、キャラクターとコミュニケーションをとっている感覚が得られて飽きがこない。また、例えば、ユーザは、キャラクターと対話するために、システムを操作する意欲が湧くので、システムの機能が有効に活用される。
ユーザの音声を認識した結果に基づく認識情報としては、例えば、ユーザが発する音声を、キャラクターとの対話を成立させる語句として認識した情報とするとよい。このようにすれば、例えば、認識した語句に応じて、キャラクターの音声を出力させることにより、ユーザの音声を認識したことを示すとともに、ユーザとの対話を成立させることができるのでよい。語句の認識としては、例えば、車両の搭乗者が必要とする機能を実行させるために、特定の認識語句と、これとの関係で対話が成立するキャラクターの音声をあらかじめ登録しておき、ユーザの音声を認識した結果と一致するか否かに応じて、キャラクターの音声を出力させるようにするとよい。このようにすれば、例えば、対話のための認識語句とキャラクターの音声との種々の組み合わせを用意することにより、これに応じて実行される多様な処理に対応させることができるのでよい。
所定のキャラクターとしては、例えば、システムから出力される音声により、特定の個性を持った話者を認識させる存在とするとよい。このようにすれば、例えば、ユーザは、実際の人間と対話しているような感覚が得られて、親しみが持てるのでよい。
対話としては、例えば、発話の開始、これに対する応答、応答に対する返答という少なくとも一往復のやり取りがなされるとよい。このようにすれば、例えば、単純にユーザの命令通りにシステムが処理を行うのではなく、キャラクターが、自分とシステムの間に介在して、サービスを提供してくれている感覚が得られるのでよい。また、対話としては、例えば、ユーザの発話とキャラクターの音声とが、その意味内容が発話とこれに対する返答として成立しているとよい。このようにすれば、互いに意思の疎通ができている感覚が得られるのでよい。また、対話としては、例えば、発話とこれに対する意味内容が的外れな返答であってもよい。このようにすれば、ユーザにとって面白味や意外性が感じられるのでよい。さらに、対話としては、例えば、発話とこれに対する返答が意味内容として成立している場合と、発話に対する意味内容が的外れな返答の場合とを混在させるとよい。このようにすれば、現実の会話に近い不完全さを演出することができ、ユーザに人間味を感じさせることができるのでよい。
車両の搭乗者が必要とする機能としては、例えば、設定の変更、情報の出力などにおいて、車両の搭乗者の利便性を高める機能とするとよく、特に、例えば、ユーザが知りたい情報を出力するための所定の処理とするとよい。ユーザが知りたい情報としては、例えば、音声認識を用いることにより、手操作よりも簡単又は迅速にシステムに出力させることができる情報とするとよい。このようにすれば、例えば、ユーザは、積極的に音声認識を利用するようになるので、システムは、ユーザにキャラクターとの対話をさせる機会をより多く与えることができるのでよい。
対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話を結果、車両の搭乗者が必要とする機能を実行するとよい。このようにすれば、車両の搭乗者が必要とする機能を実行させるために、キャラクターと対話をする意欲がわくのでよい。また、対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話中に車両の搭乗者が必要とする機能を実行することとするとよい。このようにすれば、車両の搭乗者が必要とする機能を実行させるために、発話して対話を進める意欲が増すのでよい。さらに、対話に応じて、車両の搭乗者が必要とする機能を実行することとしては、例えば、対話を構成するキャラクターの音声を出力する処理の実行であってもよい。このようにすれば、ユーザは、キャラクターの音声を聞きたくて対話するので、対話すること自体を楽しむことができるのでよい。
(1) The system of the present invention responds to a dialogue between recognition information based on the result of recognizing the voice of a user who is a passenger of a vehicle and the output of the voice of a predetermined character indicating that the user's voice has been recognized. It is characterized by performing the functions required by the passengers of the vehicle.
In this way, for example, the vehicle occupant needs it by having the user interact with the character rather than the system performing a function in response to a one-sided instruction from the vehicle occupant user. Since the function can be executed, the convenience and fun of operation and driving are increased, and the feeling of communicating with the character is obtained, so that you will never get tired of it. Further, for example, the user is motivated to operate the system in order to interact with the character, so that the functions of the system are effectively utilized.
As the recognition information based on the result of recognizing the user's voice, for example, the voice emitted by the user may be the information recognized as a phrase that establishes a dialogue with the character. By doing so, for example, by outputting the voice of the character according to the recognized phrase, it is possible to indicate that the voice of the user has been recognized and to establish a dialogue with the user. As for word recognition, for example, in order to execute the function required by the passenger of the vehicle, a specific recognition word and the voice of the character whose dialogue is established in relation to the specific recognition word are registered in advance, and the user's voice is registered. It is preferable to output the voice of the character depending on whether or not it matches the result of recognizing the voice. By doing so, for example, by preparing various combinations of the recognition phrase for dialogue and the voice of the character, it is possible to correspond to various processes executed in response to the combination.
The predetermined character may be, for example, an entity that recognizes a speaker having a specific individuality by the voice output from the system. By doing so, for example, the user may feel as if he / she is interacting with an actual human being, and may be familiar with the user.
As the dialogue, for example, at least one round-trip exchange such as the start of an utterance, a response to the utterance, and a response to the response may be performed. By doing this, for example, instead of the system simply performing the processing according to the user's command, it is possible to obtain the feeling that the character intervenes between himself and the system and provides the service. good. Further, as the dialogue, for example, it is preferable that the utterance of the user and the voice of the character are established as the utterance and the response to the utterance. By doing so, it is good to obtain a feeling of communication with each other. Further, as the dialogue, for example, the utterance and the meaning and content of the utterance may be an irrelevant response. By doing so, the user may find it interesting or unexpected. Further, as the dialogue, for example, the case where the utterance and the response to the utterance are established as the semantic content and the case where the semantic content to the utterance is irrelevant may be mixed. By doing so, it is possible to produce an imperfection close to that of a real conversation, and it is good that the user can feel a human touch.
As a function required by the occupant of the vehicle, for example, it is preferable to have a function that enhances the convenience of the occupant of the vehicle in changing settings, outputting information, etc., and in particular, for example, outputting information that the user wants to know. It is advisable to carry out a predetermined process for this purpose. The information that the user wants to know may be, for example, information that can be output to the system more easily or quickly than by manual operation by using voice recognition. In this way, for example, the user will actively utilize speech recognition, and the system may be able to give the user more opportunities to interact with the character.
In response to the dialogue, the function required by the passenger of the vehicle may be performed, for example, as a result of the dialogue, the function required by the passenger of the vehicle may be performed. This will motivate the character to interact with the character in order to perform the functions required by the passengers of the vehicle. Further, as for performing the function required by the passenger of the vehicle in response to the dialogue, for example, it is preferable to execute the function required by the passenger of the vehicle during the dialogue. This may increase the willingness to speak and engage in dialogue in order to perform the functions required by the passengers of the vehicle. Further, the function required by the passengers of the vehicle may be executed in response to the dialogue, for example, the execution of a process of outputting the voice of the character constituting the dialogue. By doing so, the user wants to hear the voice of the character and has a dialogue, so that the dialogue itself can be enjoyed.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、車両の運転中に運転者が必要とする情報を出力するための処理とするとよい。
このようにすれば、例えば、手操作が難しい、手操作が制限されている等により、運転者が運転中に所望の情報を得ることが困難な場合でも、音声認識を利用することにより、キャラクターとの対話を楽しみながら、所望の情報を得ることができるのでよい。
As a predetermined process for outputting information that the user wants to know in response to the dialogue, it is preferable to perform a process for outputting information required by the driver while driving the vehicle.
By doing so, for example, even if it is difficult for the driver to obtain desired information while driving due to difficulty in manual operation, restriction of manual operation, etc., the character can be used by using voice recognition. It is good because you can get the desired information while enjoying the dialogue with.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、複数の選択を経て情報を出力するための処理とすることを特徴とするとよい。
このようにすれば、例えば、情報を出力するために複数の選択を経る必要がある場合に、選択するごとに手操作が必要となる場合に比べて、音声入力による方が、ユーザにとって操作が簡単となるのでよい。
複数の選択を経て出力される情報としては、例えば、階層化された構造の情報、複数回の操作をしなければ出力できない情報とするとよい。このような情報は、手操作を複数回行うよりも、ユーザの負担が少なくなるのでよい。
特に、複数の選択を経て出力される情報としては、例えば、施設検索、現在地周辺検索などのように、複数の候補の中から順次絞り込んでいくことにより得られる情報とするとよい。このような情報を出力する処理は、例えば、ブレーキやアクセルのように車両自体を動かすための操作や、ウィンカーのように走行中に安全のために外部に何かを知らせるための操作とは異なり、手操作によりダイレクトに実行させることが難しいので、音声認識による操作に適していてよい。
It is preferable that the predetermined process for outputting the information that the user wants to know according to the dialogue is a process for outputting the information through a plurality of selections.
In this way, for example, when it is necessary to make multiple selections in order to output information, the operation by voice input is more convenient for the user than the case where manual operation is required for each selection. It's good because it's easy.
The information to be output after a plurality of selections may be, for example, information having a hierarchical structure or information that cannot be output without a plurality of operations. Such information may be less burdensome to the user than performing a manual operation a plurality of times.
In particular, the information output after a plurality of selections may be information obtained by sequentially narrowing down from a plurality of candidates, such as a facility search and a search around the current location. The process of outputting such information is different from, for example, an operation for moving the vehicle itself such as a brake or an accelerator, or an operation for notifying the outside for safety while driving such as a turn signal. Since it is difficult to execute it directly by manual operation, it may be suitable for operation by voice recognition.

前記対話の一部として、次の選択がある場合に、これを誘導するキャラクターの音声とするとよい。
このようにすれば、例えば、ユーザは、キャラクターの音声に促されて選択することにより、所定の処理を順次進めることができるのでよい。
次の選択へ誘導するキャラクターの音声としては、例えば、周辺検索で「周辺」というユーザの音声を認識した場合に、「どこ行く?」というように、行先を尋ねる音声とするとよい。このようにすれば、例えば、ユーザが、次に何を発話すればよいかが明確にわかるのでよい。
As part of the dialogue, it may be the voice of the character that guides the next choice, if any.
By doing so, for example, the user may be prompted by the voice of the character to make a selection, so that a predetermined process can be sequentially advanced.
As the voice of the character that guides to the next selection, for example, when the voice of the user "periphery" is recognized in the peripheral search, the voice asking the destination such as "where are you going?" Is preferable. In this way, for example, the user may clearly know what to say next.

前記対話の一部として、次の選択がない場合に、これを示すキャラクターの音声とするとよい。
このようにすれば、例えば、ユーザは、さらに処理を進める必要がなくなったことがわかるので、指示を終了する、別の処理を行わせる等の判断ができるのでよい。
次の選択がないことを示すキャラクターの音声としては、例えば、周辺検索で「ファミレス」というユーザの音声を認識した場合に、「ひとりぼっちでファミレス行くの?」のように、次の選択がないことを明示する音声とするとよい。このようにすれば、ユーザは、次に進む必要がないことがわかるとともに、ユーザに、新たに別の判断を求めることができるのでよい。
As part of the dialogue, if there is no next choice, it may be the voice of the character indicating this.
By doing so, for example, the user knows that it is no longer necessary to proceed with the process, and may be able to determine whether to end the instruction or perform another process.
As the voice of the character indicating that there is no next selection, for example, when the voice of the user "family restaurant" is recognized in the peripheral search, the next selection is such as "Do you go to the family restaurant alone?" It is good to use a voice that clearly indicates that there is no such thing. By doing so, the user may know that he / she does not need to proceed and may ask the user for another judgment.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、所望の地点の周辺の施設に関する情報を、表示手段に表示させるための処理とするとよい。
このようにすれば、例えば、周辺の施設の情報を得るための面倒な手操作を不要としつつ、ユーザが、キャラクターとの対話を楽しみながら、周辺の施設に関する情報を取得することができるのでよい。
As a predetermined process for outputting the information that the user wants to know in response to the dialogue, it is preferable to perform the process for displaying the information about the facilities around the desired point on the display means.
By doing so, for example, the user can acquire information about the surrounding facilities while enjoying the dialogue with the character, without the need for troublesome manual operations for obtaining information on the surrounding facilities. ..

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、表示手段に表示された地図上の前記周辺の施設の位置に、前記周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させることを特徴とするとよい。
このようにすれば、例えば、地図上で、ユーザに必要な施設の情報が目立つことになるので、ユーザが施設の位置を把握しやすくなり、音声により所望の施設を選択する際の目安となるのでよい。
地図と比べた相対的な強調表示としては、例えば、施設の位置が明確となる表示とするとよい。例えば、アイコンと地図の明度、彩度、色相の少なくとも一つを変えれば、両者の対比が際立つのでよい。特に、例えば、アイコンをカラー表示し、地図をグレースケールで表示すれば、アイコンが非常にはっきりと見えるのでよい。
As a predetermined process for outputting the information that the user wants to know in response to the dialogue, an icon indicating the surrounding facility is compared with the map at the position of the surrounding facility on the map displayed on the display means. It may be characterized by relatively highlighting.
By doing so, for example, the information of the facility required by the user becomes conspicuous on the map, so that the user can easily grasp the position of the facility and can be a guide when selecting the desired facility by voice. So good.
As a relative highlighting compared to the map, for example, it is preferable to display the location of the facility clearly. For example, changing at least one of the brightness, saturation, and hue of the icon and the map will make the contrast between the two stand out. In particular, for example, if the icon is displayed in color and the map is displayed in grayscale, the icon can be seen very clearly.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、表示手段に表示された地図上の前記周辺の施設の位置に、前記周辺の施設を示すアイコンを表示させ、前記アイコンに、所定の基準に従った順位が区別できる表示をするとよい。
このようにすれば、例えば、アイコンにおける順位を区別できる表示により、ユーザが施設を選択する目安とすることができるのでよい。
所定の基準としては、例えば、特定の地点に近い順とするとよい。このようにすれば、施設名を表示させる場合に比べて、どこの施設が一番近いかが直感的に分かるのでよい。さらに、所定の基準としては、例えば、ユーザにとっての重要度が高い順とするとよい。このようにすれば、ユーザが最も知りたい施設が優先的に表示させるのでよい。ユーザにとっての重要度とは、例えば、過去に行ったことがある、過去に行った頻度が高い、ユーザの好みに合う等とするとよい。このようにすれば、ユーザが行きたい施設を素早く知ることができるのでよい。また、例えば、過去に行ったけれども、二度と行きたくないなど、ユーザにとっての重要度が低いものが除外されるようにしてもよい。このようにすれば、例えば、ユーザが行く可能性があるもののみを表示させることができてよい。
順位が区別できる表示としては、例えば、番号、アルファベットのように本来的に順位を示す情報とするとよい。このようにすれば、例えば、順位の意味を容易に把握できるのでよい。さらに、順位が区別できる表示としては、例えば、◎、○、△、×等の形状や、明度、彩度、色相により段階的に変化をつける等、視覚的に順位を示す情報とするとよい。このようにすれば、例えば、順位を視覚により直感的に把握できるのでよい。
As a predetermined process for outputting the information that the user wants to know in response to the dialogue, an icon indicating the surrounding facility is displayed at the position of the surrounding facility on the map displayed on the display means, and the icon is displayed. It is advisable to display the order so that the ranking according to a predetermined standard can be distinguished.
By doing so, for example, a display that can distinguish the order of the icons may be used as a guide for the user to select a facility.
As a predetermined standard, for example, the order closer to a specific point may be used. By doing so, it is sufficient to intuitively know which facility is the closest as compared with the case where the facility name is displayed. Further, as a predetermined criterion, for example, the order of importance to the user may be high. By doing so, the facility that the user wants to know most may be displayed preferentially. The importance to the user may be, for example, a past visit, a high frequency of visits in the past, a user's preference, and the like. By doing this, the user can quickly know the facility he / she wants to go to. Further, for example, items that have been performed in the past but are not important to the user, such as those who do not want to go again, may be excluded. In this way, for example, it may be possible to display only the items that the user may go to.
As the display in which the rank can be distinguished, it is preferable to use information that originally indicates the rank, such as a number and an alphabet. By doing so, for example, the meaning of the ranking can be easily grasped. Further, as the display in which the rank can be distinguished, it is preferable to use information that visually indicates the rank, for example, the shape such as ◎, ○, Δ, ×, etc., or the information that is gradually changed according to the lightness, saturation, and hue. By doing so, for example, the ranking can be visually and intuitively grasped.

検索された施設の選択を促すキャラクターの音声を、表示されたアイコンに合わせた内容で出力するとよい。
このようにすれば、例えば、表示されたアイコンに合わせた内容の音声で、施設の選択を促すことができるので、ユーザは、視覚で確認した内容を、音声によっても把握できるのでよい。
表示されたアイコンに合わせた内容としては、例えば、番号であれば何番がよいかを問い合わせる音声、アルファベットであればアルファベットの何がよいかを問い合わせる音声、形状であれば形状が何かを問い合わせる音声、色であれば色が何かを問い合わせる音声とするとよい。このようにすれば、ユーザは、例えば、何を発話して施設を選択すればよいかが、簡単にわかるのでよい。また、例えば、表示されているアイコンに合わせた内容として、選択される候補の範囲を示す音声とするとよい。これにより、例えば、何番から何番というように音声を出力すれば、ユーザは、発話すべき内容とともに、選択すべき範囲も把握することができるのでよい。
It is advisable to output the voice of the character that prompts the selection of the searched facility with the content that matches the displayed icon.
By doing so, for example, it is possible to prompt the user to select a facility by voice of the content matching the displayed icon, so that the user can grasp the visually confirmed content by voice as well.
The contents according to the displayed icon are, for example, a voice inquiring what number is good if it is a number, a voice inquiring what is good in the alphabet if it is an alphabet, and inquiring what the shape is if it is a shape. If it is a voice or a color, it is better to use a voice asking what the color is. In this way, the user may easily know, for example, what to say and select a facility. Further, for example, the content according to the displayed icon may be a voice indicating a range of candidates to be selected. As a result, for example, if the voice is output from the number to the number, the user may be able to grasp not only the content to be spoken but also the range to be selected.

表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識すると、特定の地点から選択された施設まで探索された経路を表示手段に表示させるとよい。
このようにすれば、例えば、ユーザは、施設名で選択するよりも、表示されたアイコンに合わせた内容で簡単に選択することができるのでよい。
表示されたアイコンに合わせた内容としては、例えば、番号であれば所望の施設のアイコンの番号、アルファベットであれば所望の施設のアイコンのアルファベット、形状であれば所望の施設のアイコンの形状、色であれば所望の施設のアイコンの色とするとよい。このようにすれば、例えば、施設名よりも覚えやすい言葉で、施設を選択することができるのでよい。
When the voice of the user who selects one of the facilities is recognized by the content according to the displayed icon, the route searched from a specific point to the selected facility may be displayed on the display means.
By doing so, for example, the user may be able to easily select the content according to the displayed icon rather than selecting by the facility name.
The contents according to the displayed icon are, for example, the number of the icon of the desired facility if it is a number, the alphabet of the icon of the desired facility if it is an alphabet, and the shape and color of the icon of the desired facility if it is a shape. If so, the color of the icon of the desired facility may be used. In this way, for example, the facility can be selected with words that are easier to remember than the facility name.

表示手段に探索された経路が表示された後、前記対話に応じて、経路案内を開始するか、経路を探索し直すかを決定するとよい。
このようにすれば、例えば、ユーザは、探索された経路を希望しない場合に、キャラクターとの対話をしながら、探索し直しを指示することができるので、やり直し時の手間や退屈な気持ちを緩和させることができるのでよい。
After the searched route is displayed on the display means, it may be determined whether to start the route guidance or to search the route again according to the dialogue.
By doing so, for example, when the user does not want the searched route, he / she can instruct the search again while interacting with the character, so that the troublesome and boring feeling at the time of redoing can be alleviated. It is good because it can be made to.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、あらかじめ音声を認識するために登録される認識語句に対応する項目のうち、いずれの項目を認識語句として機能させるかを選択させる項目の表を、表示手段に表示させるとよい。
このようにすれば、例えば、表示された項目の表から、ユーザがよく使う項目のみを選択すれば、認識語句が限定されるので、誤認識を減らすことができるのでよい。
選択された認識語句は、例えば、所定のメモリ領域に、デフォルトの状態から書き換える、空の領域に入れていく、既に入っているものを並べ替える等により、登録されるものとするとよい。このようにすれば、限られたメモリ領域を有効に活用できるのでよい。
As a predetermined process for outputting the information that the user wants to know in response to the dialogue, which of the items corresponding to the recognition words registered in advance for recognizing the voice should function as the recognition words. The table of items to be selected may be displayed on the display means.
By doing so, for example, if only the items frequently used by the user are selected from the displayed table of items, the recognition words and phrases are limited, so that erroneous recognition can be reduced.
The selected recognition phrase may be registered in a predetermined memory area, for example, by rewriting from the default state, putting it in an empty area, or rearranging what is already contained. By doing so, the limited memory area can be effectively utilized.

ユーザの音声を認識するためにあらかじめ登録される認識語句に対応する項目のうち、いずれの項目を対話のための認識語句として機能させるかを選択させる項目の表を、表示手段に表示させ、前記表から選択された項目は、表示手段に表示させるページ毎に設定されるとよい。
このようにすれば、例えば、表示手段の表示画面の1ページで表示できる項目が限られていても、ユーザがよく使う項目を、トップのページに持ってくることができるので、使いたい項目を表示させるためにページを切り替える手間が省けるのでよい。
Among the items corresponding to the recognition words registered in advance for recognizing the user's voice, a table of items for selecting which item is to be used as the recognition word for dialogue is displayed on the display means. The items selected from the table may be set for each page to be displayed on the display means.
By doing this, for example, even if the items that can be displayed on one page of the display screen of the display means are limited, the items that the user often uses can be brought to the top page, so the items that you want to use can be selected. It is good because it saves the trouble of switching pages to display.

混同して認識される可能性のある認識語句の項目が、別のページに表示されるように設定されるとよい。
このようにすれば、例えば、似た音を含む語句、実際に認識させてみて混同する可能性が高い語句等が、同じページに並んで同時に認識の候補となることがないので、誤認識を減らすことができるのでよい。似た音を含む語句としては、例えば、「ファミレス」と「ファーストフード」、「病院」と「美容院」、「洋食」と「和食」のように、50音の同じ音、同じ漢字等を含む語句とするとよい。このようにすれば、文字からも紛らわしい音の認識語句が、同じページに表示されないため、ユーザも、いずれか一方を入力することになり、誤認識を減らすことができる。実際に認識させてみて混同する可能性が高い語句としては、例えば、過去の認識結果の記録に基づいて、同じ発話に対して認識されている異なる語句とするとよい。このようにすれば、例えば、実際に誤認識が生じている組み合わせが同一ページとなることを排除できるのでよい。
Items of recognition terms that may be confused should be set to appear on a separate page.
By doing so, for example, words and phrases containing similar sounds, words and phrases that are likely to be confused when actually recognized, etc., do not line up on the same page and become candidates for recognition at the same time. It is good because it can be reduced. As words and phrases that include similar sounds, for example, "family restaurant" and "fast food", "hospital" and "beauty salon", "Western food" and "Japanese food", the same sound of 50 sounds, the same Chinese characters, etc. It is good to include words and phrases. By doing so, since the recognition phrase of the sound that is confusing even from the characters is not displayed on the same page, the user also inputs one of them, and the misrecognition can be reduced. As a phrase that is likely to be confused when actually recognized, for example, a different phrase that is recognized for the same utterance based on a record of past recognition results may be used. By doing so, for example, it may be possible to eliminate that the combinations in which misrecognition actually occurs are on the same page.

前記認識語句に対応する項目は、複数の概念を含む認識語句に対応する大項目と、当該複数の概念に相当する認識語句に対応する中項目を有し、大項目とともに中項目を、同一ページに表示させるとよい。
このようにすれば、例えば、ユーザが中項目を検索したい場合にも、階層やページを変える必要がないので、所望の項目をダイレクトに選択することができるのでよい。
大項目としては、例えば、「病院」のように、多数の候補を含む上位概念的な項目とするとよい。このようにすれば、できるだけ多くの候補の中から検索したいと思うユーザにとって便利となるのでよい。中項目としては、例えば、「病院」の概念に含まれる「内科」、「小児科」のように、大項目よりも含まれる候補が少ない下位概念的な項目とするとよい。このようにすれば、少ない候補の中から、即座に所望の施設の情報を得たいユーザにとって便利となるのでよい。
The item corresponding to the recognition phrase has a large item corresponding to the recognition phrase including a plurality of concepts and a middle item corresponding to the recognition phrase corresponding to the plurality of concepts. It is good to display it in.
By doing so, for example, even when the user wants to search for a middle item, it is not necessary to change the hierarchy or the page, so that the desired item can be directly selected.
As a major item, for example, a superordinate conceptual item including a large number of candidates, such as "hospital", may be used. This is convenient for users who want to search from as many candidates as possible. The middle item may be a subordinate conceptual item with fewer candidates than the major item, such as "internal medicine" and "pediatrics" included in the concept of "hospital". By doing so, it may be convenient for a user who wants to immediately obtain information on a desired facility from a small number of candidates.

認識語句として、項目として表示されている語句に関連するが、項目として表示されていない語句が登録されているとよい。
このようにすれば、例えば、項目に表示されている認識語句そのものを発話しなくても、その認識語句に関連する語句を言えばよいので、ユーザの項目名の記憶があいまいであったり、操作に不慣れであったりしても、検索ができるのでよい。
項目として表示されている語句に関連するが、項目として表示されていない語句としては、例えば、特定のページで表示中の大項目に対応するが、そのページでは表示されていない中項目とするとよい。
このようにすれば、例えば、中項目が表示されていなかったとしても、ユーザが中項目を言えば、その中項目が検索されるので、必要な施設の情報を素早く得ることができるのでよい。
As a recognition phrase, it is preferable that a phrase related to the phrase displayed as an item but not displayed as an item is registered.
By doing so, for example, the user's memory of the item name is ambiguous or the operation can be performed because the phrase related to the recognized phrase can be said without speaking the recognized phrase itself displayed in the item. Even if you are unfamiliar with it, you can search for it.
A phrase that is related to a phrase that is displayed as an item but is not displayed as an item may be, for example, a medium item that corresponds to a large item displayed on a specific page but is not displayed on that page. ..
By doing so, for example, even if the middle item is not displayed, if the user says the middle item, the middle item is searched, so that the necessary facility information can be obtained quickly.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、前記キャラクターを、表示手段に表示させるとよい。
このようにすれば、例えば、ユーザが、対話する相手の姿を表示画面で見ることにより、親しみを覚えて、その姿を見るためにシステムを積極的に利用したいと思うようになるのでよい。
It is preferable to display the character on the display means as a predetermined process for outputting the information that the user wants to know in response to the dialogue.
By doing so, for example, by seeing the appearance of the other party with whom the user interacts on the display screen, the user may want to become familiar with the person and actively use the system to see the appearance.

対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、前記キャラクターを、地図上の探索された経路表示を遮らない位置に、表示させるとよい。
このようにすれば、例えば、キャラクターの表示を楽しませつつ、探索された経路の見やすさを維持できるのでよい。
経路表示を遮らない位置としては、例えば、キャラクターと探索された経路の表示とが、互いに表示画面における反対側に寄るとよい。このようにすれば、キャラクターが経路探索のサービスを邪魔しない気遣いをしているように、ユーザに感じさせることができるので、より好感を持たせることができてよい。
As a predetermined process for outputting the information that the user wants to know in response to the dialogue, it is preferable to display the character at a position that does not obstruct the searched route display on the map.
By doing so, for example, it is possible to maintain the visibility of the searched route while enjoying the display of the character.
As a position that does not block the route display, for example, the character and the display of the searched route may be on opposite sides of each other on the display screen. By doing so, it is possible to make the user feel as if the character does not interfere with the route search service, and thus it may be possible to give a more favorable impression.

前記キャラクターを、地図上の探索された経路表示を遮らない位置に、表示させながら移動させるとよい。
このようにすれば、例えば、移動中のキャラクターを表示し続けることで、うっとうしさを感じさせて存在をアピールできるとともに、キャラクターを継続して見ていたいユーザにとっては、移動中のキャラクターの動作を楽しむことができてよい。
It is preferable to move the character to a position on the map that does not obstruct the searched route display while displaying the character.
By doing this, for example, by continuing to display the moving character, it is possible to make the character feel annoyed and appeal its existence, and for users who want to continue watching the character, enjoy the movement of the moving character. You may be able to.

ユーザの音声の認識語句に対応する項目の表示領域は、背後の画像が見える部分を有し、表示手段に表示されるキャラクターは、各項目よりも大きくて背後の画像が見える部分を有さず、前記項目の表示領域は、表示画面におけるキャラクターと反対側の位置に寄っているとよい。
このようにすれば、例えば、キャラクターが、探索された経路と反対側に寄った場合に、項目の表示領域は、探索された経路と重なる可能性があるが、各項目は、キャラクターよりも小さく、項目の表示領域は背後の画像が見える部分を有しているので、探索された経路がキャラクターと重なるよりも、背後の画像が見やすいのでよい。
背後の画像が見える部分としては、例えば、透過する部分、隙間が空いた部分とするとよい。このようにすれば、例えば、項目表示の視認性を確保したまま、背景の画像も見ることができるのでよい。
The display area of the item corresponding to the recognition phrase of the user's voice has a part where the image behind can be seen, and the character displayed on the display means is larger than each item and has no part where the image behind can be seen. , The display area of the item may be closer to the position on the display screen opposite to the character.
In this way, for example, if the character moves to the opposite side of the searched route, the display area of the items may overlap with the searched route, but each item is smaller than the character. Since the display area of the item has a part where the image behind can be seen, it is preferable that the image behind is easier to see than the searched route overlaps with the character.
As the part where the image behind can be seen, for example, a transparent part or a part with a gap may be used. By doing so, for example, the background image can be viewed while ensuring the visibility of the item display.

あらかじめ登録されたユーザの呼び名の音声を、対話において、キャラクターにより出力される音声の中に挿入するとよい。
このようにすれば、例えば、ユーザは、会話内で自らの呼び名で呼ばれることにより、キャラクターに対して、より一層の親しみを感じることができるのでよい。
対話の開始時にキャラクターにより出力される音声に、あらかじめ登録されたユーザの呼び名の音声を挿入するとよい。
このようにすれば、例えば、対話の開始時に、ユーザが自らの名前で呼ばれることになるので、ユーザの注意を惹くことができてよい。
The voice of the user's name registered in advance may be inserted into the voice output by the character in the dialogue.
By doing so, for example, the user may feel more familiar with the character by being called by his / her own name in the conversation.
It is advisable to insert the voice of the user's name registered in advance into the voice output by the character at the start of the dialogue.
By doing so, for example, at the start of the dialogue, the user will be called by his / her own name, so that the user's attention may be attracted.

キャラクターの呼び名を含む音声が認識された場合に、キャラクターにより出力される音声に、あらかじめ登録されたユーザの呼び名の音声を挿入するとよい。
このようにすれば、例えば、互いに呼び名を呼び合うことになるので、ユーザは、より親密な感覚を得ることができる。
When the voice including the character's nickname is recognized, the voice of the user's nickname registered in advance may be inserted into the voice output by the character.
By doing so, for example, the names are called to each other, so that the user can get a more intimate feeling.

対話が進行するに従って、キャラクターにより出力される音声に、ユーザの呼び名を挿入する頻度を低減させるとよい。
このようにすれば、例えば、当初は呼び名が呼ばれていたのに、その後は呼ばれる頻度が減少するので、互いに慣れていく二人の会話を演出することができるのでよい。
As the dialogue progresses, it is preferable to reduce the frequency of inserting the user's name into the voice output by the character.
By doing so, for example, although the nickname was initially called, the frequency of being called decreases thereafter, so that it is possible to produce a conversation between two people who are accustomed to each other.

あらかじめ50音表に対応する音声データが登録され、この50音表からユーザが選択した呼び名の音声を、会話中に挿入するとよい。
このようにすれば、例えば、あらかじめ複数の呼び名を登録しておく場合に比べて、メモリの容量を節約できるのでよい。
The voice data corresponding to the Japanese syllabary is registered in advance, and the voice of the nickname selected by the user from the Japanese syllabary may be inserted into the conversation.
By doing so, for example, the memory capacity can be saved as compared with the case where a plurality of names are registered in advance.

前記キャラクターの音声として、前記キャラクターの状況を示す内容の音声を挿入するとよい。
このようにすれば、ユーザは、キャラクターの状況を聞くことができるので、例えば、キャラクターがネガティブな状況にあれば、ユーザにキャラクターを気遣う気持ちを起こさせることができ、キャラクターがポジティブな状況にあれば、ユーザにキャラクターに共感する気持ちを起こさせることができるのでよい。
キャラクターの状況を示す発言としては、例えば、「わたし忙しいんだけど」というように、自らがポジティブな状態にあるかネガティブな状態にあるかがわかる発言とするとよい。このようにすれば、例えば、ユーザの指示にシステムが無条件に従うのではなく、ユーザに気遣いの気持ちや、共感の気持ちを生じさせることができるので、実際の人間を相手にした会話のような感覚が得られるのでよい。
As the voice of the character, it is preferable to insert the voice of the content indicating the situation of the character.
In this way, the user can hear the situation of the character, so that, for example, if the character is in a negative situation, the user can be motivated to care for the character, and the character is in a positive situation. For example, it is good because it can make the user feel sympathetic to the character.
As a statement indicating the situation of the character, for example, "I'm busy", it is good to say that you can tell whether you are in a positive state or a negative state. In this way, for example, the system does not unconditionally follow the user's instructions, but can give the user a feeling of concern and empathy, so that it is like a conversation with an actual human being. It's good because you can get a feeling.

対話における前記キャラクターの音声を、あらかじめ設定された複数の異なるフレーズの中から、既に出力したフレーズを除いてランダムに選択して出力するとよい。
このようにすれば、例えば、同じフレーズばかりが出力されないようにすることができるので、ユーザに飽きがこないのでよい。
The voice of the character in the dialogue may be randomly selected and output from a plurality of different preset phrases, excluding the phrases already output.
By doing so, for example, it is possible to prevent only the same phrase from being output, so that the user does not get bored.

共通の認識語句に対して異なる複数の応答フレーズが登録されたリストが設定されているとよい。
このようにすれば、例えば、ユーザが共通の内容の発話をしても、キャラクターは異なる表現で返答するので、何度も同じ処理を実現させる場合でも、キャラクターからどんな返答が来るかを楽しむことができる。
It is preferable that a list in which a plurality of different response phrases are registered for a common recognition phrase is set.
By doing this, for example, even if the user utters a common content, the character responds with different expressions, so even if the same processing is realized many times, you can enjoy what kind of response comes from the character. Can be done.

前記リストは複数設定され、同一のリスト内であっても他のフレーズとは異質なフレーズが登録されているリストがあるとよい。
このようにすれば、例えば、ユーザの同様の内容の発言に対する返答として、異質なフレーズが出力されることにより、ユーザに予想外の印象を与えることができ、キャラクターに対する印象を変化させて、飽きが来ることを防止できるのでよい。
A plurality of the above lists are set, and it is preferable that there is a list in which phrases different from other phrases are registered even in the same list.
By doing so, for example, by outputting a different phrase as a response to the user's remark with the same content, it is possible to give an unexpected impression to the user, change the impression of the character, and get tired of it. It is good because it can prevent the coming.

前記キャラクターは同一人でも複数の表示態様があり、出力される音声として、前記複数の表示態様毎に異なるフレーズが登録されているとよい。
このようにすれば、例えば、同じキャラクターでも、複数の表示態様に応じて、発話内容が異なるので、同一人との対話でありながら、変化を楽しむことができるのでよい。
複数の表示態様としては、例えば、標準的なもの、衣服や髪型等を変えて変身したもの、頭身を変えたものとするとよい。このようにすれば、例えば、大人っぽい、子供っぽい、かわいい、きれい等の多様な印象をユーザに与え、飽きさせないのでよい。
Even if the character is the same person, there are a plurality of display modes, and it is preferable that different phrases are registered for each of the plurality of display modes as the output voice.
By doing so, for example, even if the same character is used, the content of the utterance differs depending on the plurality of display modes, so that it is possible to enjoy the change while having a dialogue with the same person.
As the plurality of display modes, for example, a standard one, one transformed by changing clothes, hairstyle, etc., and one having a different head and body may be used. By doing so, for example, it is sufficient to give the user various impressions such as adult-like, child-like, cute, and beautiful, and not to get bored.

声認識を間違えた場合に、出力されるフレーズが登録されているとよい。
このようにすれば、例えば、認識を間違えた場合であっても、何等かのフレーズを返すことより、キャラクターとの対話が継続していることを、ユーザに認識させることができるのでよい。
If you make a mistake in voice recognition, it is good to register the phrase to be output.
By doing so, for example, even if the recognition is mistaken, the user can be made to recognize that the dialogue with the character is continuing by returning some phrase.

音声認識に誤りがあった場合に備えた逃げ口上となるフレーズが登録されているとよい。
このようにすれば、例えば、音声認識に誤りが生じる可能性はあるが、たとえ誤りが生じたとしても、キャラクターの逃げ口上によって、ユーザの苛立ちや怒りを和らげることができる。
逃げ口上としては、例えば、「音声認識頑張ります。100%認識できないかもしれないけれど」のように、正確に認識しようとする意欲を示す表現とともに、完全な達成は困難であることを示す表現とするとよい。このようにすれば、例えば、単に、認識ができないことを示すよりも、誤認識に対して、ユーザに許容する心理を生じさせることができるのでよい。
It is advisable to register a phrase that serves as an escape route in case there is an error in voice recognition.
By doing so, for example, there is a possibility that an error may occur in voice recognition, but even if an error occurs, the frustration and anger of the user can be alleviated by the escape of the character.
As an escape route, for example, "I'll do my best in voice recognition. I may not be able to recognize it 100%", along with an expression that shows the willingness to recognize accurately, and an expression that shows that complete achievement is difficult. good. By doing so, for example, rather than simply indicating that recognition is not possible, it may be possible to give the user an acceptable psychology for misrecognition.

ユーザが返答を望む内容とキャラクターの音声の出力の内容とが相違していることを指摘するユーザの音声の入力があった場合に、それに対するキャラクターからの返答のフレーズが登録されているとよい。
このようにすれば、例えば、ユーザが、キャラクターの間違えを指摘すると、キャラクターからこれに対する返答があるので、誤解があった場合の人と人との自然なやり取りを楽しむことができるのでよい。
When there is a user's voice input that points out that the content that the user wants to respond to and the content of the character's voice output are different, it is preferable that the phrase of the response from the character to that input is registered. ..
By doing so, for example, when the user points out a mistake in the character, the character responds to the mistake, so that it is possible to enjoy the natural interaction between the person and the person when there is a misunderstanding.

宣伝広告となるフレーズが登録されているとよい。
このようにすれば、例えば、提携している施設にユーザを誘導することができるのでよい。
It is good that a phrase that becomes an advertisement is registered.
By doing so, for example, the user can be guided to the affiliated facility.

対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことの原因についてのフレーズが登録されているとよい。
このようにすれば、例えば、ある施設に行くことになった原因について発話することにより、当該施設に向かうユーザが耳を傾けやすくなるのでよい。
例えば、その行き先に行く原因がユーザにとって好ましくない場合にも、ユーザにとって好ましい場合にも、ユーザの注意を引くことができるのでよい。
行き先へ行く原因がユーザにとって好ましいものでない施設としては、例えば、「病院」、「歯医者」、「薬局」のように、ユーザの病気に関係している施設とするとよい。
行き先へ行く原因がユーザにとって好ましい施設としては、例えば、「デパート」「寿司」「うなぎ」のように、日常良く行く施設よりも、ややハードルが高い施設とするとよい。
キャラクターがユーザに対して種々の感情を起こさせるフレーズとしては、例えば、「どこか具合が悪いの? 大丈夫?」、「あまり無理しないでね」のようにユーザの状態を思いやることによりキャラクターに愛着を感じさせるフレーズとするとよい。また、例えば、「ちゃんと歯磨きしてる?」のようにユーザに後悔の念を起こさせるフレーズとするとよい。
As the voice of the character in the dialogue, it is preferable that a phrase about the cause of what the user does at the destination facility is registered.
By doing so, for example, by talking about the cause of going to a certain facility, it may be easier for the user who goes to the facility to listen.
For example, it may be possible to draw the user's attention whether the cause of going to the destination is not preferable for the user or favorable for the user.
Facilities where the cause of going to the destination is not preferable for the user may be a facility related to the user's illness, such as "hospital", "dentist", and "pharmacy".
As a facility where the cause of going to the destination is preferable for the user, it is preferable to use a facility such as "department store", "sushi", and "eel", which has a slightly higher hurdle than a facility that is often visited on a daily basis.
As phrases that the character causes various emotions to the user, for example, "Is something wrong? Is it okay?", "Don't overdo it", and so on. It is good to make it a phrase that makes you feel. Also, for example, a phrase that causes the user to regret, such as "Are you brushing your teeth properly?"

対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことについての肯定的又は否定的なアドバイスとなるフレーズが登録されているとよい。
このようにすれば、例えば、キャラクターのアドバイスにより、ユーザが行き先ですべきことや、すべきでないことを判断できるのでよい。肯定的なアドバイスとしては、例えば、「たまには歯垢をとってもらった方がいいよ」のように何かを勧めるフレーズとするとよい。また、否定的なアドバイスとしては、例えば、「苦しそうな顔しちゃダメ。涼しい顔して我慢するのが男なの。」のように何かを禁止するフレーズとするとよい。
As the voice of the character in the dialogue, it is preferable that a phrase that gives positive or negative advice about what the user does at the destination facility is registered.
By doing so, for example, the advice of the character may be used to determine what the user should or should not do at the destination. Positive advice is a phrase that recommends something, for example, "Occasionally you should get plaque." Also, as negative advice, a phrase that prohibits something, such as "Don't look painful. It's a man who puts up with a cool face."

対話における前記キャラクターの音声として、ユーザが行き先とする施設で行うことについてのキャラクターの一方的な感想となるフレーズが登録されているとよい。
このようにすれば、例えば、キャラクターの感想が得られるので、ユーザは、行き先での行動についての参考とすることができてよい。
キャラクターの一方的な感想としては、例えば、「お口の中でとろけるような黒ブタチャーシュー。ステキ~。」のように、肯定的な感想とするとよい。このようにすれば、ユーザが、同様の行動を施設でとりたくなるのでよい。また、例えば、「一人でレストランに行くの?寂しくない?・・ほっとけって?」のように否定的な感想としてもよい。このようにすれば、ユーザに行き先を変える気を起こさせるのでよい。さらに、例えば、「ショッピングモールって見て回るだけで楽しそう。でも疲れそう。」のように、肯定的な感想と否定的な感想が混じっていてもよい。このようにすれば、行き先での状況について、ユーザにあらかじめ覚悟させることができるのでよい。
As the voice of the character in the dialogue, it is preferable that a phrase that is a one-sided impression of the character about what the user does at the destination facility is registered.
By doing so, for example, since the impression of the character can be obtained, the user may be able to use it as a reference for the behavior at the destination.
As a one-sided impression of the character, it is good to give a positive impression, for example, "Black pork char siu that melts in your mouth. Nice." By doing so, the user may want to take the same action at the facility. It may also be a negative impression, for example, "Are you going to a restaurant alone? Are you lonely? ... Relieved?" By doing this, the user may be motivated to change the destination. Furthermore, positive impressions and negative impressions may be mixed, for example, "It seems to be fun just to look around the shopping mall, but it seems to be tiring." By doing so, the user can be prepared in advance about the situation at the destination.

対話における前記キャラクターの音声として、前記キャラクターが、現実に存在することを思わせるフレーズが登録されているとよい。
このようにすれば、例えば、ユーザは、キャラクターが実際に存在するような感覚が得られるのでよい。
現実に存在することを思わせるフレーズとしては、例えば、「出張にも私を連れて行ってくれるなんて、うれしいです~。」、「私達、どこに泊まる?」のように、同行していることを思わせるフレーズとするとよい。このようにすれば、例えば、ユーザは、キャラクターといつも一緒にいる感覚が得られるのでよい。
As the voice of the character in the dialogue, it is preferable that a phrase reminiscent of the character actually existing is registered.
By doing so, for example, the user may feel as if the character actually exists.
Phrases that remind us of reality include, for example, "I'm glad you take me on a business trip ~" and "Where are we going to stay?" The phrase should be reminiscent of. By doing so, for example, the user may feel that he / she is always with the character.

(2)ユーザの音声を認識するためにあらかじめ登録される認識語句が、項目として表示されているとよい。
このようにすれば、例えば、ユーザは、所定の処理を実行させるために、表示された項目を見れば、何を言えばいいかがわかるのでよい。
(2) It is preferable that the recognition words and phrases registered in advance for recognizing the user's voice are displayed as items.
By doing so, for example, the user may know what to say by looking at the displayed items in order to execute a predetermined process.

(3)ユーザの音声を認識するためにあらかじめ登録される認識語句は、表示画面にかかわらず共通して認識できる認識語句と、表示画面に表示されたものに認識が制限される認識語句とがあるとよい。
このようにすれば、例えば、共通して認識できる認識語句によって、表示画面にかかわらず必要となる機能の利便性を維持しつつ、認識が制限される認識語句によって、誤認識の可能性を低減できる。
(3) The recognition words registered in advance for recognizing the user's voice include recognition words that can be recognized in common regardless of the display screen and recognition words whose recognition is limited to those displayed on the display screen. It would be nice to have it.
In this way, for example, the recognition words that can be recognized in common maintain the convenience of the functions required regardless of the display screen, while the recognition words that limit recognition reduce the possibility of erroneous recognition. can.

共通して認識できる認識語句としては、例えば、複数種の表示画面で共通して使用される認識語句とするとよい。
このようにすれば、表示画面に応じて機能が制限される可能性が低くなり、利便性を維持できる。例えば、「もどる」「取り消し」のように、他の表示画面へ遷移させる語句とするとよい。このような語句は、例えば、どの画面でも使用する必要がある語句であるのでよい。
認識が制限される認識語句としては、例えば、表示画面に表示された語句、検索対象となる語句とするとよい。このような語句は、例えば、それ以外の語句を認識させる必要性が乏しく、認識語句の数を少なくして誤認識を防ぐ必要性が高いのでよい。
As the recognition phrase that can be recognized in common, for example, the recognition phrase that is commonly used on a plurality of types of display screens may be used.
By doing so, the possibility that the function is restricted according to the display screen is reduced, and the convenience can be maintained. For example, a phrase such as "return" or "cancel" may be used to transition to another display screen. Such words and phrases may be, for example, words and phrases that need to be used on any screen.
As the recognition phrase whose recognition is restricted, for example, the phrase displayed on the display screen or the phrase to be searched may be used. For such words and phrases, for example, there is little need to recognize other words and phrases, and there is a high need to reduce the number of recognized words and phrases to prevent erroneous recognition.

(4)ユーザの音声を認識するためにあらかじめ登録される認識語句が、表示画面に表示されているものと、表示画面に表示されていないものとがあるとよい。
このようにすれば、例えば、ユーザが、表示画面に表示されていない語句を発話した場合であっても、あらかじめ設定された認識語句であれば、キャラクターからの何らかの反応を得ることができるので、ユーザにとってサプライズとなり、ユーザの発見の喜びを与えることができるのでよい。
(4) It is preferable that some recognition words and phrases registered in advance for recognizing the user's voice are displayed on the display screen and some are not displayed on the display screen.
By doing so, for example, even if the user utters a phrase that is not displayed on the display screen, if it is a preset recognition phrase, some reaction from the character can be obtained. It is good because it can be a surprise to the user and give the user the joy of discovery.

あらかじめ認識語句として設定された語句以外の音声が入力された場合に、キャラクターが出力する音声データが登録されているとよい。
このようにすれば、例えば、認識語句以外であっても、必ずキャラクターの反応があるため、対話が途切れたり、エラーとして報知する等によりシステムとのやり取りであることをユーザに想起させてしまうことがなく、キャラクターと対話を継続している感覚を維持できるのでよい。
It is preferable that the voice data output by the character is registered when the voice other than the words set as the recognition words in advance is input.
By doing so, for example, since there is always a reaction of the character even if it is not a recognition phrase, the user is reminded that the dialogue is interrupted or the communication is with the system by notifying as an error. It is good because it can maintain the feeling of continuing dialogue with the character.

(5)量的に変化する機能の状態を、音声認識によりダイレクトに所望の量的レベルとするとよい。
このようにすれば、例えば、量的レベルを、小さな値と大きな値との間で段階的に変化させる場合に比べて、即座に所望の値とすることができるので、ユーザの手間がかからず、操作に拘束される時間が短縮される。
量的に変化する機能としては、例えば、音量、輝度、スケールなどとするとよい。このようにすれば、音量、輝度、スケールなどのボタンを選択して+-や目盛を表示させ、+-の選択や、目盛上のスライドにより段階を追ってアップダウンさせる手間が省けるのでよい。
(5) The state of the function that changes quantitatively may be directly set to a desired quantitative level by voice recognition.
By doing so, for example, the quantitative level can be immediately set to the desired value as compared with the case where the quantitative level is changed stepwise between a small value and a large value, which saves the user's trouble. Instead, the time to be constrained by the operation is shortened.
Functions that change quantitatively include, for example, volume, brightness, and scale. By doing so, it is possible to save the trouble of selecting +-and scales by selecting buttons such as volume, brightness, and scale, and step-by-step ups and downs by selecting +-and sliding on the scales.

(6)ユーザの音声を認識するためにあらかじめ登録される認識語句として、量的に変化する機能に対応する指示語と、量的レベルを示す数字が設定されているとよい。
このようにすれば、例えば、ユーザが所望の機能に対応する指示語と数字を言うと、当該機能の量的レベルを、その数字のレベルにまでダイレクトにアップ、ダウンさせることができるのでよい。
量的に変化する機能に対応する指示語としては、例えば、「おんりょう」、「きど」、「すけーる」などとし、数字は「いち」、「に」、「にきろ」などとするとよい。このようにすれば、例えば、ユーザにとって直感的に理解しやすい機能の名称と数字を用いて、入力ができるのでよい。特に、例えば、「おんりょうさん」、「きどに」、「すけーるにきろ」のように、名称と量的レベルとを1つの認識語句にまとめてもよい。このようにすれば、発話が一回で済むのでよい。
(6) As recognition words registered in advance for recognizing the user's voice, it is preferable that a demonstrative word corresponding to a function that changes quantitatively and a number indicating a quantitative level are set.
In this way, for example, when the user says a demonstrative word and a number corresponding to a desired function, the quantitative level of the function can be directly raised or lowered to the level of the number.
For example, if the demonstratives corresponding to the quantitatively changing functions are "onryo", "kid", "skeleton", and the numbers are "ichi", "ni", "nikiro", etc. good. By doing so, for example, it is possible to input using the name and number of the function that is intuitively easy for the user to understand. In particular, the name and the quantitative level may be combined into one recognition phrase, for example, "Onryo-san", "Kidoni", and "Skelani Kiro". By doing this, only one utterance is required.

表示手段の表示画面に、機能を選択するためのボタンであって、当該機能に対応する指示語が表示されたボタンを表示させるとよい。
このようにすれば、例えば、ユーザは、ボタンに表示された指示語を言えばよいので、ユーザにとってわかりやすくなってよい。
It is preferable to display on the display screen of the display means a button for selecting a function and displaying a demonstrative word corresponding to the function.
By doing so, for example, the user may say the demonstrative word displayed on the button, which may be easy for the user to understand.

表示手段の表示画面に、機能を選択するためのボタンであって、機能の現在の量的レベルの値が表示されたボタンを表示させるとよい。
このようにすれば、例えば、ユーザは、ボタンに表示された値を見ることにより、現在の量的レベルを確認して、所望の値へアップさせるべきか、ダウンさせるべきかを判断できるのでよい。
現在の量的レベルの値は、例えば、地図のスケールとするとよい。このようにすれば、例えば、小さなスケールの値がボタンに表示されている場合に、ユーザがそれよりも大きな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に広範囲の地図を見渡すことができてよい。また、例えば、大きなスケールの値がボタンに表示されている場合に、ユーザがそれよりも小さな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に詳細な地図を見ることができてよい。
It is preferable to display a button for selecting a function on the display screen of the display means, in which the value of the current quantitative level of the function is displayed.
In this way, for example, the user can check the current quantitative level by looking at the value displayed on the button and decide whether to raise or lower the desired value. ..
The current quantitative level value may be, for example, a map scale. This way, for example, if a small scale value is displayed on the button and the user says a larger value, the scale value displayed on the button will change directly to that value immediately. You may be able to see a wide range of maps. Also, for example, if a button displays a large scale value and the user says a smaller value, the scale value displayed on the button will change directly to that value, instantly providing a detailed map. You may be able to see.

前記機能に対応する指示語が表示されるボタンは、別の表示画面に遷移せずに機能を実行させるボタンがあることを特徴とするとよい。
このようにすれば、例えば、機能を実行させるために別の表示画面に遷移しなくても、対話により機能を実行させることができるので、現在の画面表示が邪魔されることがなくてよい。
The button on which the demonstrative word corresponding to the function is displayed may be characterized in that there is a button for executing the function without transitioning to another display screen.
By doing so, for example, the function can be executed by dialogue without transitioning to another display screen in order to execute the function, so that the current screen display does not have to be disturbed.

(7)音声認識を受け付けているか否かを、表示手段に表示させるとよい。
このようにすれば、例えば、ユーザが、音声による操作ができるか否かを視覚により認識することができてよい。
(7) It is advisable to display on the display means whether or not voice recognition is accepted.
By doing so, for example, the user may be able to visually recognize whether or not the operation by voice can be performed.

音声認識を受け付けているか否かとしては、例えば、表示画面の色を変えて表示するとよい。このようにすれば、例えば、ユーザの視覚を介して、音声認識の状態を即座に感得させることができるのでよい。特に、例えば、音声認識を受け付けている場合には、通常の色とし、受け付けていない時には、グレースケールとするとよい。このようにすれば、例えば、音声認識を受け付けているか否かをユーザに直感的にわからせることができるのでよい。 Whether or not voice recognition is accepted may be determined by changing the color of the display screen, for example. By doing so, for example, the state of voice recognition can be immediately perceived through the visual sense of the user. In particular, for example, when voice recognition is accepted, a normal color may be used, and when voice recognition is not accepted, a gray scale may be used. By doing so, for example, the user can intuitively know whether or not voice recognition is accepted.

(8)音声認識を受け付けているか否かをキャラクターとともに、表示手段に表示するとよい。
このようにすれば、例えば、キャラクターを見れば、音声による操作が可能か否かがわかるので、ユーザが気づきやすくなるのでよい。
キャラクターに表示する態様としては、例えば、キャラクターの様子が明らかに変化する態様とするとよい。このようにすれば、例えば、音声認識の状態を即座に感得させることができるのでよい。キャラクターの様子が明らかに変化する態様としては、例えば、キャラクターに物を付加する、キャラクターの色や形態を変える、特定のポーズ、ジェスチャーをさせる、吹き出しでセリフを表示するなどとするとよい。このようにすれば、例えば、通常のキャラクターの状態を知っているユーザであれば、通常の状態との対比によってその変化に即座に気づくのでよい。キャラクターに物を付加する態様としては、例えば、ヘッドセット、ヘッドホン、イヤホン、マイク等の音に関連する備品をキャラクターに装着させるとよい。このようにすれば、例えば、ユーザに、音に関連する機能である音声認識を連想させるのでよい。キャラクターの色や形態を変える態様としては、例えば、髪型や髪の色を変える、別のコスチュームに着替えるなどとするとよい。このようにすれば、例えば、通常の状態との相違がわかりやすくてよい。特に、例えば、キャラクターの耳を大きくすれば、音声をよく聞き取ろうとしていることを示す姿となってよい。さらに、ポーズ、ジェスチャーとして、例えば、耳の後ろに手を当てるしぐさをさせても、音声をよく聞き取ろうとしていることを示す姿となってよい。
(8) Whether or not voice recognition is accepted may be displayed on the display means together with the character.
By doing so, for example, by looking at the character, it is possible to know whether or not the operation by voice is possible, so that the user can easily notice it.
As the mode to be displayed on the character, for example, the mode in which the appearance of the character clearly changes may be preferable. By doing so, for example, the state of voice recognition can be immediately perceived. As a mode in which the appearance of the character is clearly changed, for example, it is advisable to add an object to the character, change the color or form of the character, make a specific pose or gesture, or display a line with a balloon. By doing so, for example, a user who knows the state of a normal character may immediately notice the change by comparing with the normal state. As a mode for adding an object to the character, for example, equipment related to sound such as a headset, headphones, earphones, and a microphone may be attached to the character. In this way, for example, the user may be reminded of voice recognition, which is a function related to sound. As a mode for changing the color or form of the character, for example, it is advisable to change the hairstyle or hair color, or to change into another costume. By doing so, for example, the difference from the normal state may be easily understood. In particular, for example, if the character's ears are enlarged, the character may be shown to be listening to the voice well. Further, as a pose or a gesture, for example, even if a gesture of putting a hand behind the ear is made, it may be a figure showing that the voice is being heard well.

(9)キャラクターの音声が出力されている間は、音声を出力し終えるまで、音声認識を停止するとよい。
このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識により他の処理が実行されてしまうことを防止できてよい。他の処理としては、例えば、音量、輝度、スケール、周辺検索のように、緊急性の低い処理とするとよい。このようにすれば、必ずしも直ちに実行しなくてもよいものまで、音声認識により実行されてしまうことがなくてよい。
(9) While the voice of the character is being output, it is advisable to stop the voice recognition until the voice is output.
By doing so, for example, when there is a voice input from the user in the middle of the voice of the character, it may be possible to prevent other processing from being executed by voice recognition. As another process, for example, a process with low urgency such as volume, brightness, scale, and peripheral search may be used. By doing so, even things that do not necessarily have to be executed immediately do not have to be executed by voice recognition.

キャラクターの音声が出力されている間も、音声認識を受け付けるとよい。
このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識より他の処理が中断されないのでよい。他の処理としては、例えば、取締場所に関する位置情報を情報収集サーバに送信する処理のように、緊急性の高い処理とするとよい。このようにすれば、ユーザが直ちに実行して欲しい処理が、中断されることがなくてよい。
It is advisable to accept voice recognition while the character's voice is being output.
By doing so, for example, when there is a voice input from the user in the middle of the voice of the character, other processing than voice recognition may not be interrupted. As another process, for example, it is preferable to perform a process with high urgency, such as a process of transmitting location information regarding a control location to an information collection server. By doing so, the processing that the user wants to be executed immediately does not have to be interrupted.

キャラクターの音声が出力されている間に、ユーザからの音声の入力があった場合に、キャラクターの音声の出力を停止するとよい。
このようにすれば、例えば、ユーザの音声によって、キャラクターの発言を遮ったような印象を与えることができる。停止したキャラクターの音声の出力は、例えば、あらためて出力しなければ、同じ発話が始めから繰り返されて不自然な印象を与えることがなくてよい。また、停止したキャラクターの音声の出力を、例えば、止めたところから開始すれば、ユーザの発言の間、キャラクターが待ってくれていた印象を与えることができてよい。
If there is a voice input from the user while the character's voice is being output, it is preferable to stop the character's voice output.
By doing so, for example, the voice of the user can give the impression that the character's speech is blocked. For example, the voice output of the stopped character does not have to give an unnatural impression because the same utterance is repeated from the beginning unless it is output again. Further, if the voice output of the stopped character is started, for example, from the place where the character is stopped, it may be possible to give the impression that the character has been waiting for the user to speak.

キャラクターの音声が出力されている間に、所定の入力操作がなされた場合に、キャラクターの音声を停止するとよい。
このようにすれば、例えば、キャラクターとの対話を第三者に聞かれたくないときに、所定の入力操作によって、キャラクターの音声を停止させることができてよい。所定の入力操作としては、例えば、物理キーの操作とするとよい。このようにすれば、常時、固定的に存在する箇所を操作すればよいので、とっさの操作がしやすい。
It is preferable to stop the character's voice when a predetermined input operation is performed while the character's voice is being output.
By doing so, for example, when it is not desired for a third party to hear the dialogue with the character, the voice of the character may be stopped by a predetermined input operation. The predetermined input operation may be, for example, a physical key operation. By doing so, it is only necessary to operate a fixedly existing part at all times, so that it is easy to operate immediately.

(10)ユーザの音声を認識するためにあらかじめ登録される認識語句に対応するユーザの音声の入力に応じて、取締場所に関する位置情報を情報収集サーバに送信する投稿を行うとよい。
このようにすれば、例えば、取締場所を知らせる投稿を、手操作でなく、音声により簡単にすばやく行うことができてよい。
取締場所としては、例えば、取締・検問エリアのように、実施位置、時間が変化するチェック場所とするとよい。このようにすれば、あらかじめ位置を登録しておくことが困難な取締場所についての情報を、投稿により収集させることができるのでよい。
位置情報としては、例えば、現在位置又は中心位置座標とするとよい。このようにすれば、例えば、確実且つ簡単に得られる情報により取締場所を特定できるとともに、音声認識を利用するので、実際の取締位置とのずれが少なくてよい。
(10) In order to recognize the user's voice, it is advisable to post the location information regarding the control location to the information collection server in response to the input of the user's voice corresponding to the recognition phrase registered in advance.
In this way, for example, a post notifying the place of control may be easily and quickly made by voice instead of manually.
The control location may be, for example, a check location where the implementation position and time change, such as a control / inspection area. By doing so, it is possible to collect information about the control location where it is difficult to register the location in advance by posting.
The position information may be, for example, the current position or the center position coordinates. By doing so, for example, the crackdown location can be specified by reliable and easily obtained information, and voice recognition is used, so that the deviation from the actual crackdown position may be small.

(11)所定の認識語句として、音声認識を起動させる語句と投稿の受け付けを開始させる語句とが登録されているとよい。
このようにすれば、例えば、ユーザが、音声認識を起動させる語句と投稿の受け付けを開始させる語句とを発話することにより、音声認識と、投稿の受け付けという多段階の操作を簡単に実行させることができるのでよい。
(11) It is preferable that a phrase for activating voice recognition and a phrase for starting acceptance of posts are registered as predetermined recognition phrases.
By doing so, for example, the user can easily execute the multi-step operation of voice recognition and acceptance of posts by uttering a phrase that activates speech recognition and a phrase that initiates acceptance of posts. It is good because it can be done.

音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。
このようにすれば、例えば、音声認識の開始とともに投稿の受け付けが開始してしまい、誤認識が生じることを防止できてよい。また、音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けを一発で開始させることができるので、即座に投稿可能な状態とすることができてよい。
As the phrase that activates voice recognition and the phrase that initiates the acceptance of posts, for example, they may be registered as separate words and phrases.
By doing so, for example, it may be possible to prevent erroneous recognition from occurring because the acceptance of posts starts at the same time as the start of voice recognition. Further, the phrase that activates voice recognition and the phrase that initiates acceptance of posts may be set as, for example, a series of phrases. By doing so, for example, the acceptance of posts can be started in one shot at the same time as the start of voice recognition, so that the state in which posting can be performed immediately may be possible.

(12)所定の認識語句としては、音声認識を起動させる語句と投稿をさせる語句とが登録されているとよい。
このようにすれば、例えば、ユーザが、音声認識を起動させる語句と投稿をさせる語句とを発話することにより、音声認識と、投稿という多段階の操作を簡単に行うことができてよい。
(12) As the predetermined recognition phrase, it is preferable that the phrase that activates voice recognition and the phrase that causes posting are registered.
By doing so, for example, the user may be able to easily perform a multi-step operation of voice recognition and posting by uttering a phrase that activates voice recognition and a phrase that causes posting.

音声認識を起動させる語句と投稿させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。
このようにすれば、例えば、音声認識の開始とともに投稿されてしまい、誤って投稿されることを防止できてよい。また、音声認識を開始させる語句と投稿させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿を一発で行わせることができるので、即座に投稿できて、取締場所と投稿場所とのずれを極力少なくすることができてよい。
As the phrase for activating voice recognition and the phrase for posting, for example, the phrase may be registered as a separate phrase.
By doing so, for example, it may be possible to prevent posting by mistake because it is posted at the same time as the start of voice recognition. Further, the phrase for starting voice recognition and the phrase for posting may be set as, for example, a series of phrases. By doing so, for example, since the posting can be made in one shot at the start of voice recognition, the posting can be performed immediately, and the deviation between the control place and the posting place may be minimized.

投稿のための所定の認識語句は、他の認識語句よりも短いとよい。
このようにすれば、例えば、緊急性の高い投稿について、短時間で指示することができてよい。
A given recognition phrase for a post should be shorter than other recognition phrases.
By doing so, for example, it may be possible to instruct a post with high urgency in a short time.

投稿のための所定の認識語句は、他の認識語句よりも冗長であるとよい。
このようにすれば、例えば、通常の音声認識を利用している場合に、他の認識語句を言う可能性が少なくなり、誤って投稿がされてしまうことを防止できてよい。
冗長であるとは、例えば、文字数が多い、複数に分かれているとするとよい。このようにすれば、例えば、投稿を意図していないユーザが、誤って発話してしまう可能性を低減できるのでよい。
A given recognition phrase for a post should be more verbose than any other recognition phrase.
By doing so, for example, when using normal voice recognition, the possibility of saying other recognition words is reduced, and it may be possible to prevent accidental posting.
Redundancy means, for example, that it has a large number of characters and is divided into a plurality of characters. By doing so, for example, it is possible to reduce the possibility that a user who does not intend to post will utter by mistake.

投稿のための所定の認識語句は、ユーザが普段言う可能性の低い語句であるとよい。
このようにすれば、例えば、ユーザが車内で普段、頻繁に使用する語句によって頻繁に誤認識が生じることを防ぎ、ユーザが意図しない投稿を防止できる。
The predetermined recognized phrase for posting should be a phrase that the user is unlikely to normally say.
By doing so, for example, it is possible to prevent frequent misrecognition due to words and phrases that the user usually uses frequently in the car, and to prevent posting that the user does not intend.

投稿のための対話におけるキャラクターの音声は、他の対話における音声よりも短いとよい。
このようにすれば、例えば、対話の時間を短くして、素早く投稿させることができるのでよい。
The voice of the character in the dialogue for posting should be shorter than the voice in other dialogues.
By doing so, for example, it is possible to shorten the dialogue time and have the user post quickly.

(13)前記対話は、所定の認識語句に対応するユーザからの音声の入力により開始するとよい。
このようにすれば、例えば、所定の処理をユーザからの音声の入力があって開始するため、システムが勝手に開始して処理が実行されてしまうことがなくてよい。
(13) The dialogue may be started by inputting a voice from a user corresponding to a predetermined recognition phrase.
By doing so, for example, since the predetermined process is started by the input of the voice from the user, it is not necessary for the system to start arbitrarily and execute the process.

(14)前記対話は、所定のキャラクターの音声の出力に対し、所定の認識語句に対応するユーザからの音声の入力があって開始するとよい。
このようにすれば、例えば、キャラクターの音声の出力が、ユーザが所定の処理を開始するか否かを判断する契機となるので、システムを利用する機会を増やすことができるのでよい。
キャラクターの音声の出力は、例えば、特定の処理の開始の有無を問い合わせるものとするとよい。このようにすれば、例えば、ユーザが、処理の利用を促されるのでよい。
キャラクターの音声の出力のタイミングは、例えば、定期的とすれば、処理を利用させる頻度を高めるのでよい。また、タイミングを所定の条件を満たした場合とすれば、処理の利用に適したタイミングで、ユーザに利用を促すことができるのでよい。
(14) The dialogue may be started by inputting a voice from a user corresponding to a predetermined recognition phrase with respect to a voice output of a predetermined character.
By doing so, for example, the output of the voice of the character serves as an opportunity for the user to determine whether or not to start a predetermined process, so that it is possible to increase the chances of using the system.
The voice output of the character may, for example, inquire whether or not a specific process has started. By doing so, for example, the user may be prompted to use the process.
If the timing of the character's voice output is, for example, periodic, the frequency of using the processing may be increased. Further, if the timing satisfies a predetermined condition, it may be possible to encourage the user to use the process at a timing suitable for the use of the process.

(15)車両の搭乗者が必要とする機能の実行を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了するとよい。
このようにすれば、例えば、音声認識を長期間継続することによって生じる誤操作を防止できるのでよい。
(15) It is preferable to end the process when a predetermined time has elapsed without input of voice from the user from the time when the execution of the function required by the passenger of the vehicle is started.
By doing so, for example, it may be possible to prevent an erroneous operation caused by continuing voice recognition for a long period of time.

(16)車両の搭乗者が必要とする機能の実行を開始した時点から、所定時間経過するまでの間に、キャラクターが、ユーザに音声入力を促す音声を出力するとよい。
このようにすれば、例えば、ユーザが処理の開始を忘れている場合に、音声入力を促すことができるのでよい。
(16) It is preferable that the character outputs a voice prompting the user to input voice from the time when the passenger of the vehicle starts executing the function required by the passenger to the time when a predetermined time elapses.
By doing so, for example, when the user forgets to start the process, the voice input can be prompted.

(17)(1)~(16)のシステムとしての機能を、コンピュータに実現させるためのプログラムとして構成するとよい。 (17) It is preferable to configure the functions as a system of (1) to (16) as a program for realizing the function in the computer.

本発明によれば、ユーザにとって、操作や運転に面白さが得られるとともに、飽きがくることがなく、積極的に機能を利用する意欲が湧いてくるシステム及びプログラムを提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a system and a program that make the operation and driving interesting for the user, do not get bored, and motivate the user to actively use the function.

本発明の一実施形態を示す全体斜視図である。It is an overall perspective view which shows one Embodiment of this invention. 装置本体の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the apparatus main body. 表示部へ表示する警告画面例を示す図である。It is a figure which shows the example of the warning screen to display on the display part. 表示部へ表示する経路表示画面例を示す図である。It is a figure which shows the example of the route display screen to display on the display part. 認識ワードのリスト例の前半を示す図である。It is a figure which shows the first half of the list example of a recognition word. 認識ワードのリストの例の後半を示す図である。It is a figure which shows the latter half of the example of the list of recognition words. 応答フレーズのリスト例の一部を示す図である。It is a figure which shows a part of the list example of a response phrase. キャラクターの態様に応じた応答フレーズを示す図である。It is a figure which shows the response phrase according to the aspect of a character. 各種の応答フレーズの例を示す図である。It is a figure which shows the example of various response phrases. 音声認識起動待ちの表示画面例を示す図である。It is a figure which shows the display screen example of waiting for voice recognition activation. 現在地表示において音声認識開始の表示画面例を示す図である。It is a figure which shows the display screen example of the start of voice recognition in the present location display. ルート案内時の音声認識開始の表示画面例を示す図である。It is a figure which shows the display screen example of the voice recognition start at the time of a route guidance. 周辺検索におけるジャンル選択の1ページ目の表示画面例を示す図である。It is a figure which shows the display screen example of the 1st page of a genre selection in a peripheral search. 周辺検索におけるジャンル選択の2ページ目の表示画面例を示す図である。It is a figure which shows the display screen example of the 2nd page of a genre selection in a peripheral search. 周辺検索における検索結果をアイコンで表示した表示画面例を示す図である。It is a figure which shows the display screen example which displayed the search result in the peripheral search by an icon. 図15において地図スケールを変更する場合の表示画面例を示す図である。FIG. 15 is a diagram showing an example of a display screen when the map scale is changed in FIG. 周辺検索における検索結果をリスト表示した1ページ目の表示画面例を示す図である。It is a figure which shows the display screen example of the 1st page which displayed the search result in the peripheral search in a list. 周辺検索における検索結果をリスト表示した2ページ目の表示画面例を示す図である。It is a figure which shows the display screen example of the 2nd page which displayed the search result in the peripheral search in a list. 探索ルートを表示した表示画面例を示す図である。It is a figure which shows the display screen example which displayed the search route. 図19においてスケール変更する場合の表示画面例を示す図である。FIG. 19 is a diagram showing an example of a display screen when the scale is changed in FIG. ルート条件を変更する表示画面例を示す図である。It is a figure which shows the example of the display screen which changes a route condition. 地図スケールを変更する場合の表示画面例を示す図である。It is a figure which shows the display screen example at the time of changing a map scale. 音量を変更する場合の表示画面例を示す図である。It is a figure which shows the display screen example at the time of changing the volume. 輝度を変更する場合の表示画面例を示す図である。It is a figure which shows the display screen example at the time of changing the brightness. タイムアウト処理における応答フレーズの例を示す図である。It is a figure which shows the example of the response phrase in the time-out processing. ジャンル変更の表示画面例を示す図である。It is a figure which shows the display screen example of a genre change.

[基本構成]
図1は、本発明のシステムを構成する電子機器として好適なナビテーション装置の一実施形態の外観図を示しており、図2は、その機能ブロック図を示しており、図3及び図4は表示形態の一例を示している。図1に示すように、ナビゲーション装置は、持ち運び可能な携帯型の装置本体2と、それを保持する取付部材たるクレードル3とを備える。装置本体2をクレードル3に装着することで、車載用のナビゲーション装置として機能し、クレードル3から取り外すことで携帯型のナビゲーション装置(PND)として機能する。本実施形態は、装置本体2をクレードル3に着脱可能とし、クレードル3と共に車両のダッシュボード上に設置して利用したり、クレードル3から装置本体2を取り外して携帯型(PND)として利用したりすることができるタイプであるが、クレードル3に対して簡単に着脱できず、車載固定タイプでも良いし、携帯型専用のものでもよい。さらには、例えば携帯電話などの携帯端末に所定のアプリケーションプログラムをインストール(プリインストールを含む)して実現されるものでもよい。アプリケーションプログラムは、ナビゲーションを行うためのシステム自身でも良いし、ナビゲーションを行うためのシステムが実装されているサーバにアクセスし、当該システムを利用するためのプログラムでも良い。本発明は、係る各種のタイプのナビゲーションシステムに適用できる。
[Basic configuration]
FIG. 1 shows an external view of an embodiment of a navigation device suitable as an electronic device constituting the system of the present invention, FIG. 2 shows a functional block diagram thereof, and FIGS. 3 and 4 show a functional block diagram thereof. An example of the display form is shown. As shown in FIG. 1, the navigation device includes a portable device body 2 that can be carried and a cradle 3 that is a mounting member for holding the main body 2. By attaching the device main body 2 to the cradle 3, it functions as an in-vehicle navigation device, and by removing it from the cradle 3, it functions as a portable navigation device (PND). In this embodiment, the device main body 2 can be attached to and detached from the cradle 3 and installed on the dashboard of the vehicle together with the cradle 3 for use, or the device main body 2 can be removed from the cradle 3 and used as a portable type (PND). Although it is a type that can be used, it cannot be easily attached to and detached from the cradle 3, and it may be an in-vehicle fixed type or a portable type only. Further, it may be realized by installing (including pre-installing) a predetermined application program on a mobile terminal such as a mobile phone. The application program may be the system itself for performing navigation, or may be a program for accessing and using the server in which the system for performing navigation is implemented. The present invention is applicable to such various types of navigation systems.

装置本体2は、クレードル3に対して着脱自在に取り付けられる。装置本体2は、扁平な矩形状のケース本体4を備えている。そのケース本体4の前面には、表示部5が配置され、その表示部5上には表示部5のどの部分がタッチされたかを検出するタッチパネル8を備え、前面の両サイドには警報ランプ9を備えている。クレードル3は、装置本体2を保持するクレードル本体6と、車室内の所定の位置(ダッシュボード等)において、クレードル本体6を任意の姿勢で指示する台座部7と、を備えている。台座部7は、底面に設けた吸盤にて、ダッシュボードなどの上に吸着して固定される。台座部7とクレードル本体6とは、ボールジョイント等の連結機構を介して所定の角度範囲内で回転可能に連結される。ボールジョイントであるため、台座部7とクレードル本体6は、相対的に三次元方向の任意の角度範囲内で回転移動し、ジョイント部分における摩擦抵抗により任意の角度位置でその位置をとどめる。よって、クレードル本体6に取り付けられた装置本体2も、ダッシュボード上において任意の姿勢で配置することができる。 The apparatus main body 2 is detachably attached to the cradle 3. The device main body 2 includes a flat rectangular case main body 4. A display unit 5 is arranged on the front surface of the case body 4, a touch panel 8 for detecting which part of the display unit 5 is touched is provided on the display unit 5, and alarm lamps 9 are provided on both sides of the front surface. It is equipped with. The cradle 3 includes a cradle main body 6 that holds the apparatus main body 2 and a pedestal portion 7 that indicates the cradle main body 6 in an arbitrary posture at a predetermined position (dashboard or the like) in the vehicle interior. The pedestal portion 7 is attracted and fixed on a dashboard or the like by a suction cup provided on the bottom surface. The pedestal portion 7 and the cradle main body 6 are rotatably connected within a predetermined angle range via a connecting mechanism such as a ball joint. Since it is a ball joint, the pedestal portion 7 and the cradle body 6 rotate and move relatively within an arbitrary angle range in the three-dimensional direction, and retain their positions at an arbitrary angle position due to frictional resistance at the joint portion. Therefore, the device main body 2 attached to the cradle main body 6 can also be arranged in an arbitrary posture on the dashboard.

さらにケース本体4の一方の側面には、SDメモリカード用スロット部21を備え、そのSDメモリカード用スロット部21に地図データなどが記録されたSDメモリカード22を挿入可能としている。このSDメモリカード用スロット部21は、挿入されたSDメモリカード22に対して情報の読み書きを行うメモリカードリーダライタを含む。また、ケース本体4のSDメモリカード用スロット部21を設けた側面には、DCジャック10を設けている。DCジャック10は、図示省略のシガープラグコードを接続するためのもので、そのシガープラグコードを介して車両のシガーソケットに接続して電源供給を受け得るようにする。 Further, an SD memory card slot portion 21 is provided on one side surface of the case body 4, and an SD memory card 22 in which map data or the like is recorded can be inserted into the SD memory card slot portion 21. The SD memory card slot portion 21 includes a memory card reader / writer that reads / writes information to / from the inserted SD memory card 22. Further, a DC jack 10 is provided on the side surface of the case body 4 where the SD memory card slot portion 21 is provided. The DC jack 10 is for connecting a cigar plug cord (not shown), and is connected to a cigar socket of a vehicle via the cigar plug cord so that power can be supplied.

一方、SDメモリカード用スロット部21とは反対側の側面には、電源スイッチや、USB端子23を設けている。このUSB端子23を介してパソコンと接続し、ソフトウェアアプリケーションのバージョンアップなどを行なうことができる。 On the other hand, a power switch and a USB terminal 23 are provided on the side surface opposite to the SD memory card slot portion 21. It is possible to connect to a personal computer via the USB terminal 23 and upgrade the software application version.

ケース本体4の内部には、以下の各機器・部品を配置している。すなわち、ケース本体4の背面側内部には、マイクロ波受信機11を配置する。マイクロ波受信機11は、所定周波数帯のマイクロ波を受信するもので、その設定された周波数帯のマイクロ波を受信した場合に、その受信したマイクロ波の信号レベルを検出する。具体的には、その信号レベルであり電界強度に対応するRSSI電圧を利用する。上記の所定周波数帯は、たとえば車両速度測定装置から出射されるマイクロ波の周波数が含まれる周波数帯としている。 The following devices and parts are arranged inside the case body 4. That is, the microwave receiver 11 is arranged inside the back side of the case body 4. The microwave receiver 11 receives microwaves in a predetermined frequency band, and when it receives microwaves in the set frequency band, it detects the signal level of the received microwaves. Specifically, the RSSI voltage, which is the signal level and corresponds to the electric field strength, is used. The above-mentioned predetermined frequency band is, for example, a frequency band including the frequency of the microwave emitted from the vehicle speed measuring device.

また、ケース本体4の上面側内部には、GPS信号を受信し現在位置を求めるGPS受信機12を配置している。ケース本体4の前面側内部には、赤外線通信機14を配置する。赤外線通信機14は携帯電話機15等の赤外線通信機を内蔵した通信装置との間でデータの送受を行なう。さらに、ケース本体4内には、スピーカ20も内蔵されている。 Further, inside the upper surface side of the case body 4, a GPS receiver 12 that receives a GPS signal and obtains a current position is arranged. An infrared communication device 14 is arranged inside the front side of the case body 4. The infrared communication device 14 transmits / receives data to / from a communication device having an infrared communication device such as a mobile phone 15. Further, a speaker 20 is also built in the case body 4.

更に、本実施形態の装置は、無線受信機13とリモコン受信機16を備えている。無線受信機13は、飛来する所定周波数の無線を受信する。リモコン受信機16は、リモコン(携帯機:子機)17とデータ通信をし、装置に対する各種の設定を行なう。無線受信機13は、飛来する所定周波数帯の無線を受信する。この所定周波数は、例えば、緊急車両が基地局に対して自車位置を通知する際に使用する無線の周波数帯とすることができる。 Further, the device of the present embodiment includes a wireless receiver 13 and a remote control receiver 16. The radio receiver 13 receives the incoming radio of a predetermined frequency. The remote controller receiver 16 communicates data with the remote controller (portable device: slave unit) 17 and makes various settings for the device. The radio receiver 13 receives incoming radio waves in a predetermined frequency band. This predetermined frequency can be, for example, a radio frequency band used by an emergency vehicle when notifying a base station of its own vehicle position.

本実施形態のナビゲーション装置は、ナビゲーション機能に加え、周囲に存在する車両速度測定装置その他の交通監視ポイント等の目標物を報知する目標物報知装置としての目標物報知機能も備えている。これらのナビゲーション機能並びに目標物報知機能は、制御部18に有するコンピュータが実行するプログラムとして制御部18のEEPROM上に格納され、これを制御部18に有するコンピュータが実行することで実現される。 In addition to the navigation function, the navigation device of the present embodiment also has a target target notification function as a target notification device for notifying a target such as a vehicle speed measuring device and other traffic monitoring points existing in the surroundings. These navigation functions and the target notification function are stored in the EEPROM of the control unit 18 as a program executed by the computer included in the control unit 18, and are realized by being executed by the computer having the control unit 18.

すなわち、制御部18は、上記の各種の入力機器(GPS受信機12、マイクロ波受信機11、無線受信機13、タッチパネル8、赤外線通信機14、リモコン受信機16、SDメモリカードスロット部21、USB端子23等)から入力される情報に基づき所定の処理を実行し、出力機器(表示部5、警報ランプ9、スピーカ20、赤外線通信機14、SDメモリカードスロット部21、USB端子23等)を利用して所定の情報・警報・メッセージを出力する。この所定の処理が、上記の各機能を実行するためのものであり、必要に応じてデータベース19や、SDメモリカード22にアクセスする。 That is, the control unit 18 has the above-mentioned various input devices (GPS receiver 12, microwave receiver 11, wireless receiver 13, touch panel 8, infrared communication device 14, remote control receiver 16, SD memory card slot unit 21, A predetermined process is executed based on the information input from the USB terminal 23, etc.), and the output device (display unit 5, alarm lamp 9, speaker 20, infrared communication device 14, SD memory card slot unit 21, USB terminal 23, etc.) is executed. Outputs the specified information / alarm / message using. This predetermined process is for executing each of the above functions, and accesses the database 19 and the SD memory card 22 as needed.

ここでデータベース19は、制御部18のマイコン内あるいはマイコンに外付けした不揮発性メモリ(たとえばEEPROM)により実現できる。なお、データベース19には、出荷時に一定の目標物や地図その他の各機能を実施するために必要な情報が登録されており、その後に追加された目標物についてのデータ等は、所定の処理を経て更新することができる。この更新のための処理は、例えば、追加データが格納されたSDメモリカード22をSDメモリカード用スロット部21に装着すると共に、そのSDメモリカード22からデータベース19に転送することで行うことがある。また、このデータ更新は、赤外線通信機7を用いたり、USB端子23を介して接続されるパソコンその他の外部機器を用いたりすることで行うことができる。 Here, the database 19 can be realized by a non-volatile memory (for example, EEPROM) inside the microcomputer of the control unit 18 or externally attached to the microcomputer. Information necessary for performing certain target objects, maps, and other functions is registered in the database 19 at the time of shipment, and data and the like for the target objects added after that are subjected to predetermined processing. It can be updated afterwards. The process for this update may be performed, for example, by installing the SD memory card 22 in which additional data is stored in the SD memory card slot portion 21 and transferring the SD memory card 22 to the database 19. .. Further, this data update can be performed by using the infrared communication device 7 or by using a personal computer or other external device connected via the USB terminal 23.

目標物報知機能を実現するための制御部18は、以下のような動作をする。すなわち、制御部18は、マイクロ波受信機11が所望のマイクロ波を受信した場合、予め定めた警報を出力する。この警報としては、スピーカ20を用いたブザーやマイクロ波の受信(車両速度測定装置の検出等)を知らせるための音声の出力や、表示部5を用いた文字或いはイメージによるメッセージの出力などがある。 The control unit 18 for realizing the target object notification function operates as follows. That is, when the microwave receiver 11 receives a desired microwave, the control unit 18 outputs a predetermined alarm. The alarm includes a buzzer using the speaker 20, an audio output for notifying the reception of microwaves (detection of a vehicle speed measuring device, etc.), and a message output using characters or images using the display unit 5. ..

また、制御部18は、無線受信機13が所望の無線を受信した場合、予め定めた警報を出力する。この警報としては、スピーカ20を用いたブザーやマイクロ波の受信(緊急車両の接近等)を知らせるための音声の出力や、表示部5を用いた文字或いはイメージによるメッセージの出力などがある。この無線の受信に伴う警報と、上記のマイクロ波の受信に伴う警報の形態は、異なるようにすると良い。 Further, when the radio receiver 13 receives a desired radio, the control unit 18 outputs a predetermined alarm. The alarm includes a buzzer using the speaker 20 and a voice output for notifying the reception of microwaves (approaching an emergency vehicle, etc.), and a text or image message output using the display unit 5. The form of the alarm associated with the reception of the radio and the alarm associated with the reception of the microwave may be different.

さらに、制御部18は、GPS受信機12によって検出した現在位置と、データベース19に記憶している交通監視ポイント等の目標物の位置が、所定の位置関係にあるとき、所定の警報を出力する。そのため、データベース19には、検出対象の目標物に関する情報(経度・緯度を含む目標物の位置情報や目標物の種別情報等)や、事故多発地帯や交通取締り情報などのより注意を持って安全に運転するための交通安全情報や、ランドマークや運転に有益な各種の情報がある。各情報は、具体的な情報の種類(目標物の種類、交通取り締まりの種類、事故多発地帯、ランドマークの名称等)と位置情報とを関連づけて登録されている。 Further, the control unit 18 outputs a predetermined alarm when the current position detected by the GPS receiver 12 and the position of the target object such as the traffic monitoring point stored in the database 19 have a predetermined positional relationship. .. Therefore, the database 19 is safer with more attention such as information on the target to be detected (position information of the target including longitude and latitude, type information of the target, etc.), accident-prone areas, traffic control information, and the like. There are traffic safety information for driving, landmarks and various information useful for driving. Each information is registered in association with specific information types (types of targets, types of traffic control, accident-prone areas, landmark names, etc.) and location information.

警報を発する際の目標物までの距離は、目標物の種類ごとに変えることができる。警報の態様としては、上記と同様に、スピーカ20を用いた音声等による警報と、表示部5を用いた警報等がある。図3は、表示部5による警報の一例を示している。本実施形態では、装置がナビゲーション装置であるので、後述するように地図データを有していることから、基本画面として、制御部18は、現在位置周辺の道路ネットワーク情報を読み出し、現在位置周辺の地図を表示部5に表示する機能を有する。そして、表示部5に、現在表示中の画面(ここでは現在位置周辺の地図)に重ねて警告画面70を表示する。図3は、地図50を表示している際に、現在位置と交通監視ポイントの一つである速度測定装置の一種であるLHシステムとの距離が500mになった場合の警告画面70の表示例を示している。さらに、「500m先LHシステムです」といった警報種類と距離を示す警告音声をスピーカ20から出力する処理を行う。 The distance to the target when issuing an alarm can be changed for each type of target. As the mode of the alarm, similarly to the above, there are an alarm by voice or the like using the speaker 20 and an alarm using the display unit 5. FIG. 3 shows an example of an alarm by the display unit 5. In the present embodiment, since the device is a navigation device, since it has map data as described later, the control unit 18 reads out the road network information around the current position as a basic screen and reads the road network information around the current position. It has a function of displaying a map on the display unit 5. Then, the warning screen 70 is displayed on the display unit 5 so as to be superimposed on the screen currently being displayed (here, the map around the current position). FIG. 3 shows a display example of the warning screen 70 when the distance between the current position and the LH system, which is a kind of speed measuring device, which is one of the traffic monitoring points, becomes 500 m when the map 50 is displayed. Is shown. Further, a process of outputting a warning voice indicating the alarm type and the distance, such as "500 m ahead LH system", from the speaker 20 is performed.

一方、ナビゲーション機能を実現するための制御部18は、以下のような動作をする。まず、データベース19は、ナビゲーション用の道路ネットワーク情報を記憶している。このデータベース19に格納するナビゲーションのための情報は、出荷時において全国についてのすべての情報を格納しておいても良いし、地図データ等は、地方毎にSDメモリカード22に格納したものを提供するようにし、ユーザは必要な地図データ等が格納されたSDメモリカード22を用意し、それをSDメモリカード用スロット部21に装着して使用するようにしても良い。なお、SDメモリカード22に格納された地図データ等は、データベース19に転送して格納しても良いし、制御部18がSDメモリカード22にアクセスし、そこから読み出して使用するようにしても良い。 On the other hand, the control unit 18 for realizing the navigation function operates as follows. First, the database 19 stores road network information for navigation. The navigation information stored in the database 19 may store all the information about the whole country at the time of shipment, and the map data and the like are provided stored in the SD memory card 22 for each region. The user may prepare an SD memory card 22 in which necessary map data and the like are stored, and attach the SD memory card 22 to the SD memory card slot portion 21 for use. The map data or the like stored in the SD memory card 22 may be transferred to the database 19 and stored, or the control unit 18 may access the SD memory card 22 and read it from there for use. good.

制御部18は、データベース19から現在位置周辺の道路ネットワーク情報を読み出し、現在位置周辺の地図を表示部5に表示する機能を有する。この制御部18は、この道路ネットワーク情報を利用してある位置から別の位置に至るルート(経路)を検索することができる。また、データベース19は、電話番号とその電話番号の住宅・会社・施設等の位置情報及び名称とを対応づけて記憶した電話番号データベースと、住所とその住所の位置情報とを対応づけて記憶した住所データベースを備える。またデータベース19には、速度測定装置等の交通監視ポイントの位置情報がその種類とともに記憶されている。 The control unit 18 has a function of reading road network information around the current position from the database 19 and displaying a map around the current position on the display unit 5. The control unit 18 can search for a route (route) from one position to another by using this road network information. Further, the database 19 stores the telephone number database in which the telephone number is associated with the location information and name of the house, company, facility, etc. of the telephone number, and the address and the location information of the address are associated with each other. It has an address database. Further, in the database 19, the position information of the traffic monitoring point such as the speed measuring device is stored together with the type.

また、制御部18は、一般的なナビゲーション装置の処理を行う機能を有する。すなわち、表示部5に現在位置周辺の地図を随時表示し、目的地設定ボタンを表示する。制御部18は、タッチパネル8によって、目的地設定ボタンの表示位置に対応する位置のタッチを検出した場合に、目的地設定処理を行う。目的地設定処理では、目的地設定メニューを表示部5に表示し、目的地の設定方法の選択をユーザに促す。目的地設定メニューは、目的地の設定方法の選択をユーザに促す電話番号検索ボタンと住所検索ボタンとを有する。電話番号検索ボタンがタッチされたことを検出した場合には、電話番号の入力画面を表示し、入力された電話番号に対応する位置情報をデータベース19から取得する。住所検索ボタンがタッチされたことを検出した場合には、住所の選択入力画面を表示し、入力された住所に対応する位置情報をデータベース19から取得する。そして、取得した位置情報を目的地の位置情報として設定し、現在位置から目的地までの推奨経路を、データベース19に記憶している道路ネットワーク情報に基づいて求める。この推奨経路の算出方法としては例えばダイクストラ法など公知の手法を用いることができる。 Further, the control unit 18 has a function of performing processing of a general navigation device. That is, the map around the current position is displayed on the display unit 5 at any time, and the destination setting button is displayed. When the touch panel 8 detects a touch at a position corresponding to the display position of the destination setting button, the control unit 18 performs a destination setting process. In the destination setting process, the destination setting menu is displayed on the display unit 5, and the user is urged to select the destination setting method. The destination setting menu has a telephone number search button and an address search button that prompt the user to select a destination setting method. When it is detected that the telephone number search button is touched, the telephone number input screen is displayed, and the location information corresponding to the input telephone number is acquired from the database 19. When it is detected that the address search button is touched, the address selection input screen is displayed, and the location information corresponding to the input address is acquired from the database 19. Then, the acquired position information is set as the position information of the destination, and the recommended route from the current position to the destination is obtained based on the road network information stored in the database 19. As a method for calculating this recommended route, a known method such as Dijkstra's algorithm can be used.

そして、制御部18は、算出した推奨経路を、周辺の地図とともに表示する。例えば、図4に示すように、現在位置51から目的地52にいたるルート53を推奨経路として、所定の色(例えば赤色)で表示する。これは、一般的なナビゲーションシステムと同様である。そして本実施形態では、制御部18は、ルート53上の位置情報とデータベース19に記憶された交通監視ポイント等の目標物の位置情報とを比較し、ルート53上に位置する交通監視ポイント等の位置を表示する。なお、ルート53を安全運転で走行するための情報提供としては、データベース19に格納された各種の目標物の内、交通監視ポイントに限るようにしても良い。 Then, the control unit 18 displays the calculated recommended route together with the map of the surrounding area. For example, as shown in FIG. 4, the route 53 from the current position 51 to the destination 52 is displayed in a predetermined color (for example, red) as a recommended route. This is similar to a general navigation system. Then, in the present embodiment, the control unit 18 compares the position information on the route 53 with the position information of the target object such as the traffic monitoring point stored in the database 19, and the traffic monitoring point or the like located on the route 53 is used. Display the position. The information provided for driving safely on the route 53 may be limited to the traffic monitoring point among the various targets stored in the database 19.

これにより、例えば、図4に示すように、道路上の位置から吹き出しを表示し、データベース19に記憶されたその位置の交通監視ポイントの種類を吹き出しの中に表示する。例えば、図4(a)は、警告ポイント検索画面の表示例であり、交通監視ポイント55aから55fを表示した例を示している。交通監視ポイント55aは、Nシステムを示す「N」の文字を吹き出しの中に表示している。交通監視ポイント55b、55c、55eは、LHシステムを示す「LH」の文字を吹き出しの中に表示している。交通監視ポイント55dは、ループコイルを示す「ループ」の文字を吹き出しの中に表示している。交通監視ポイント55fは、Hシステムを示す「H」の文字を吹き出しの中に表示している。このように、吹き出しの中に文字を表示する簡略表示状態の吹き出し位置へのタッチをタッチパネル8が検知した場合には、図4(b)に示すように、簡易表示を詳細表示へと切り替える。詳細表示は、図3に示した警告画面を吹き出しの中に表示するものである。 As a result, for example, as shown in FIG. 4, a balloon is displayed from a position on the road, and the type of traffic monitoring point at that position stored in the database 19 is displayed in the balloon. For example, FIG. 4A is a display example of the warning point search screen, and shows an example in which traffic monitoring points 55a to 55f are displayed. The traffic monitoring point 55a displays the letter "N" indicating the N system in the balloon. The traffic monitoring points 55b, 55c, 55e display the characters "LH" indicating the LH system in the balloon. The traffic monitoring point 55d displays the character "loop" indicating the loop coil in the balloon. The traffic monitoring point 55f displays the letter "H" indicating the H system in the balloon. In this way, when the touch panel 8 detects a touch to the balloon position in the simplified display state in which characters are displayed in the balloon, the simple display is switched to the detailed display as shown in FIG. 4 (b). The detailed display displays the warning screen shown in FIG. 3 in a balloon.

また、図4(a)に示すように表示部5内の右下側には、交通監視ポイント種別指定部56を表示する。交通監視ポイント種別指定部56は、ルート53上に存在する交通監視ポイントの種別を列挙したボタン表示を行う部分である。図4(a)の例では、交通監視ポイント55aのNシステムを示す「N」の種別ボタン57aと、交通監視ポイント55b、55c、55eのLHシステムを示す「LH」の種別ボタン57bと、交通監視ポイント55dのループコイルを示す「ループ」の種別ボタン57cと、交通監視ポイント55fのHシステムを示す「H」の種別ボタン57dを表示している。制御部18は、この種別ボタンの表示部へのタッチをタッチパネル8から検出した場合、タッチされた種別ボタンを反転表示するとともに、タッチされた種別ボタンに対応する交通監視ポイントの表示態様を、簡易表示中であれば詳細表示に切り替え、詳細表示中であれば簡易表示中に切り替える。 Further, as shown in FIG. 4A, the traffic monitoring point type designation unit 56 is displayed on the lower right side of the display unit 5. The traffic monitoring point type designation unit 56 is a part that displays a button listing the types of traffic monitoring points existing on the route 53. In the example of FIG. 4A, the “N” type button 57a indicating the N system of the traffic monitoring point 55a, the “LH” type button 57b indicating the LH system of the traffic monitoring points 55b, 55c, 55e, and the traffic. The "loop" type button 57c indicating the loop coil of the monitoring point 55d and the "H" type button 57d indicating the H system of the traffic monitoring point 55f are displayed. When the control unit 18 detects a touch of the type button on the display unit from the touch panel 8, the control unit 18 highlights the touched type button and simplifies the display mode of the traffic monitoring point corresponding to the touched type button. If it is displayed, it switches to the detailed display, and if it is displayed in detail, it switches to the simple display.

本実施形態のカーナビゲーション装置は、目的地(以下、経由地も含む)の設定方法として、周辺検索機能を備えている。この周辺検索機能が選択されて起動された場合、制御部18は、指定された条件に合致する施設であって、現在位置から近いものを抽出し、その抽出結果を表示部5に描画する。そして、ユーザは、表示部5に描画された候補の中からいずれかを選択し、確定することで目的地(経由地を含む)に指定することができる。 The car navigation device of the present embodiment has a peripheral search function as a method of setting a destination (hereinafter, including a waypoint). When this peripheral search function is selected and activated, the control unit 18 extracts facilities that meet the specified conditions and are close to the current position, and draws the extraction results on the display unit 5. Then, the user can select one of the candidates drawn on the display unit 5 and confirm it as the destination (including the waypoint).

すなわち、係る機能を実現するため、本実施形態のデータベース19は、各施設についての情報を、その位置情報とともに施設の分類に関する情報と関連付けて記憶している。施設の分類に関する情報は、各施設が合致するジャンルの呼び名でまとめられた複数種類の項目である。 That is, in order to realize such a function, the database 19 of the present embodiment stores the information about each facility in association with the information about the classification of the facilities together with the location information. Information on the classification of facilities is a plurality of types of items organized by the names of the genres that each facility matches.

本実施形態では、いずれかの項目が指定されると、制御部18は、指定された項目に合致する施設であって、現在位置から近いものを抽出し、その抽出結果を目的地の候補として表示部5に描画する。ユーザは、表示部5に描画された候補の中からいずれかを選択することによって、目的地として指定することができる。 In the present embodiment, when any item is specified, the control unit 18 extracts a facility that matches the specified item and is close to the current position, and uses the extraction result as a destination candidate. Draw on the display unit 5. The user can specify as a destination by selecting one of the candidates drawn on the display unit 5.

項目のいずれか選択された場合、制御部18は、データベース19にアクセスし、現在位置を中心として、基準距離(たとえば、10km)以内に存在する施設であって、指定された項目の分類に一致するものを抽出する。そして、近いものから所定数(たとえば10個)の施設を表示部5に描画されている地図上の対応する箇所に、当該施設を示すアイコン(マーク)を重ねて描画する。データベース19に格納した施設の情報として、各施設に対して、それぞれのアイコンを関連づけて登録しておき、描画に際しては、その関連づけられたアイコンを読み出して表示部5の所定位置に描画する。 When any of the items is selected, the control unit 18 accesses the database 19, and the facility exists within the reference distance (for example, 10 km) with respect to the current position, and matches the classification of the specified item. Extract what you want to do. Then, a predetermined number (for example, 10) of facilities from the closest one is drawn by superimposing an icon (mark) indicating the facility on the corresponding portion on the map drawn on the display unit 5. As the facility information stored in the database 19, each facility is associated and registered with each icon, and when drawing, the associated icon is read out and drawn at a predetermined position of the display unit 5.

なお、表示部5に描画された地図上に、現在位置が存在している場合には、その現在位置に該当する位置に自車を示す自車アイコンを重ねて描画する。さらに、このような施設のアイコンを描画するに際し、自車から近い順に番号を付記して表示する。自車の移動に伴い、随時番号は更新する。 If the current position exists on the map drawn on the display unit 5, the own vehicle icon indicating the own vehicle is superimposed and drawn on the position corresponding to the current position. Furthermore, when drawing the icon of such a facility, the numbers are added and displayed in the order of proximity to the own vehicle. The number will be updated as the vehicle moves.

そして、ユーザが、所望の施設を選択すると、それを認識した制御部18が、係る施設を目的地とした推奨経路を求め、その結果を表示部5の地図に重ねて描画する。 Then, when the user selects a desired facility, the control unit 18 that recognizes the facility obtains a recommended route with the facility as the destination, and draws the result on the map of the display unit 5.

さらに、制御部18は、設定された目的地までのルート案内を行う機能を有する。つまり、制御部18は、ユーザによる案内開始の選択に応じて、GPSや自律航法で自車位置を逐次検出しながら、道路などを表す地図情報を表示部5に描画しつつ、目的地までの道案内を画像や音声を用いて行う。 Further, the control unit 18 has a function of providing route guidance to the set destination. That is, the control unit 18 sequentially detects the position of the own vehicle by GPS or autonomous navigation according to the user's selection to start guidance, draws map information representing a road or the like on the display unit 5, and reaches the destination. Guidance is provided using images and sounds.

上記のユーザによる指定、選択等の指示入力は、表示部5に項目や機能の名称が表示されたボタン、施設のアイコンをタッチしたり、リモコン操作により選択したり、所定の音声が入力がなされたことを、制御部18が検出することを契機として行うことができる。 For input of instructions such as designation and selection by the above user, a button displaying the name of the item or function on the display unit 5, touching the icon of the facility, selecting by remote control operation, or inputting a predetermined voice is performed. This can be done with the detection by the control unit 18.

[キャラクターとの対話機能]
《対話機能の基本》
以下、本実施形態の特徴であるキャラクターとの対話機能について説明する。この対話機能は、制御部18が、プログラムを実行することにより実現される機能であり、車両の搭乗者であるユーザの音声を認識した結果に基づく認識情報と、ユーザの音声を認識したことを示す所定のキャラクターの音声の出力とによって実現する機能である。
[Dialogue function with characters]
<< Basics of dialogue function >>
Hereinafter, the dialogue function with the character, which is a feature of the present embodiment, will be described. This dialogue function is a function realized by the control unit 18 by executing the program, and recognizes the recognition information based on the result of recognizing the voice of the user who is the passenger of the vehicle and the recognition of the user's voice. It is a function realized by outputting the voice of a predetermined character to be shown.

この対話機能を実行するため、データベース19は、認識ワード(認識語句)と、これに対応するキャラクターの音声データである応答フレーズを記憶している。制御部18は、マイク20を介して入力されたユーザの音声を、認識ワードに基づいて認識する。つまり、制御部18は、ユーザの音声信号に基づいて、ユーザが発話した音声を語句として認識し、認識された語句と認識ワードとが一致するか否かを判定する。そして、制御部18は、認識された語句に一致すると判定された認識ワードに対応する応答フレーズを、スピーカ20に出力させる。対話のための認識ワードとキャラクターの音声である応答フレーズとの種々の組み合わせを用意することにより、後述するように、対話に応じて実行される多様な処理に対応させることができる。 In order to execute this dialogue function, the database 19 stores a recognition word (recognition phrase) and a response phrase which is voice data of the character corresponding to the recognition word (recognition phrase). The control unit 18 recognizes the user's voice input through the microphone 20 based on the recognition word. That is, the control unit 18 recognizes the voice spoken by the user as a phrase based on the user's voice signal, and determines whether or not the recognized phrase and the recognized word match. Then, the control unit 18 causes the speaker 20 to output a response phrase corresponding to the recognition word determined to match the recognized phrase. By preparing various combinations of the recognition word for the dialogue and the response phrase which is the voice of the character, it is possible to correspond to various processes executed in response to the dialogue, as will be described later.

これにより、ユーザは、システムである電子機器を利用して、キャラクターと簡単な対話ができる。本実施形態のキャラクターは、例えば、「レイ」という名前の少女として設定されている。上記の周辺検索等の諸機能も、キャラクターとの対話で行うことができる。データベース19は、キャラクターの呼び名として、「れーたん」を、認識ワードとして記憶している。 As a result, the user can have a simple dialogue with the character by using the electronic device which is a system. The character of this embodiment is set as, for example, a girl named "Ray". Various functions such as the above-mentioned peripheral search can also be performed by dialogue with the character. The database 19 stores "retan" as a recognition word as a character's nickname.

また、データベース19は、キャラクターの画像(静止画、動画を含む)データを記憶している。制御部18は、この画像データに基づいて、キャラクターの静止画、動画を、表示部5に表示させることができる。なお、制御部18は、一部の応答フレーズについては、出力する応答フレーズと合致するように、表示部5に表示させるキャラクターの口や身体を動かすリップリンクにより、キャラクターがしゃべっている状況をリアルに感じさせることができる。 Further, the database 19 stores image data (including still images and moving images) of characters. Based on this image data, the control unit 18 can display a still image or a moving image of the character on the display unit 5. For some response phrases, the control unit 18 uses a lip link that moves the character's mouth and body to be displayed on the display unit 5 so as to match the output response phrase, thereby realistically expressing the situation in which the character is speaking. Can make you feel.

さらに、データベース19が記憶するキャラクターの音声、画像としては、同一人物について、複数の態様(モード)が設定されている。例えば、データベース19は、「レイ」という一人の人物でありながら、「標準レイ」、「変身後のレイ」、「ちびレイ」という3つのモードに分けて、それぞれの応答フレーズ、画像データを記憶している。「標準レイ」はキャラクターの基本となるモードである。「変身後のレイ」は、「標準レイ」とは衣服及び髪型を変えたモードである。「ちびレイ」は、頭身を変えて、子どもっぽくしたモードである。制御部18は、ユーザによるいずれかのモードの選択に従って、キャラクターの音声、画像を出力する。 Further, as the voice and image of the character stored in the database 19, a plurality of modes are set for the same person. For example, the database 19 is divided into three modes, "standard ray", "transformed ray", and "chibi ray", and stores each response phrase and image data, even though it is a single person named "ray". is doing. "Standard Ray" is the basic mode of the character. "Ray after transformation" is a mode in which clothes and hairstyle are changed with "standard ray". "Chibi Rei" is a mode in which the head and body are changed to make it childish. The control unit 18 outputs the voice and image of the character according to the user's selection of any mode.

《認識ワード》
図5及び図6は、データベース19が記憶している認識ワードのリストの一例である。この認識ワードのリストの各列には、リスト番号が付されている。各列には、後述するように、表示部5に表示される各表示画面M1、V1、V1a、S1、S1a、S2、S2a、S2_list、S2a_list、R1、R1a、R1b、A1、A2、A3において、それぞれ認識可能な認識ワードが含まれている。
《Recognition word》
5 and 6 are examples of a list of recognition words stored in the database 19. Each column of this list of recognized words is numbered. In each column, as will be described later, in each display screen M1, V1, V1a, S1, S1a, S2, S2a, S2_list, S2a_list, R1, R1a, R1b, A1, A2, A3 displayed on the display unit 5. , Each contains a recognizable recognition word.

リスト番号1には、音声認識を起動させる起動ワード、「れーたん、ぼいすこんとろーる」が登録されている。制御部18は、起動ワードを認識すると、周辺検索等の各種の機能を実行させるための音声認識の機能を起動する。このため、初期状態においては、制御部19は、起動ワードのみを音声認識できる状態で待機している。このリスト番号1は、後述する表示画面M1に対応している。 In list number 1, a start word for activating voice recognition, "Retan, Boisukontoroll" is registered. When the control unit 18 recognizes the activation word, it activates a voice recognition function for executing various functions such as peripheral search. Therefore, in the initial state, the control unit 19 is on standby in a state where only the activation word can be recognized by voice. This list number 1 corresponds to the display screen M1 described later.

リスト番号2には、音声認識を起動させた後に、周辺検索、スケール変更、音量変更、輝度変更のいずれかを開始させるための認識ワードが登録されている。例えば、周辺検索を開始させる認識ワードとしては、「しゅうへん」が登録されている。スケール変更を開始させる認識ワードとしては、「すけーる」が登録されている。音量変更を開始させる認識ワードとしては、「おんりょう」が登録されている。輝度変更を開始させる認識ワードとしては、「きど」が登録されている。このリスト番号2は、後述する表示画面V1に対応している。さらに、リスト番号2には、自宅に戻る場合に、一度の発話で自宅へのルートを探索させる認識ワード「じたく」が登録されている。このように、ユーザが使用する頻度が高い機能に対応する認識ワードが、音声認識が起動した時の認識ワードとして登録されているので、音声認識を開始して、即座に実行させることができる。 In list number 2, a recognition word for starting any one of peripheral search, scale change, volume change, and brightness change is registered after the voice recognition is activated. For example, "shuhen" is registered as a recognition word for starting a peripheral search. As a recognition word for starting the scale change, "skeleton" is registered. "Onryo" is registered as a recognition word to start changing the volume. "Kido" is registered as a recognition word for starting the brightness change. This list number 2 corresponds to the display screen V1 described later. Further, in the list number 2, a recognition word "jitaku" is registered, which makes the user search for a route to the home with one utterance when returning to the home. As described above, since the recognition word corresponding to the function frequently used by the user is registered as the recognition word when the voice recognition is activated, the voice recognition can be started and executed immediately.

リスト番号3には、ルート案内を開始した後に、実行させる機能に対応する認識ワードが登録されている。例えば、リスト番号2の認識ワードに加えて、「あんないちゅうし」、「あんないていし」、「あんないやめる」というルート案内を中止させる認識ワードが登録されている。このように、ルート案内を中止させるという同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。このリスト番号3は、後述する表示画面V1aに対応している。特に、「しゅうへん」、「おんりょう」、「きど」は、後述するように、表示画面V1、V1aのボタンに表示される指示語となる。このため、ユーザは、表示された指示語を発話すれば、指示入力が可能となる。 In list number 3, a recognition word corresponding to a function to be executed after starting route guidance is registered. For example, in addition to the recognition word of the list number 2, recognition words such as "Annaichu", "Annaiiteshi", and "Annaiquit" are registered to stop the route guidance. In this way, by preparing multiple types of recognition words that execute the same function of stopping route guidance, the possibility of not being able to recognize even if the user's utterance content is slightly different is reduced. can. This list number 3 corresponds to the display screen V1a described later. In particular, "shuhen", "onryo", and "kid" are demonstrative words displayed on the buttons of the display screens V1 and V1a, as will be described later. Therefore, the user can input the instruction by speaking the displayed instruction word.

リスト番号4、5には、周辺検索において、ジャンルを指定するための認識ワードが登録されている。このジャンルの認識ワードは、ジャンルを指定するための項目のボタンに、ひらがなの文字で表示される。リスト番号4に属する認識ワードのボタンが表示される画面表示では、認識可能なジャンルは、リスト番号4に属する認識ワードに限られる。このリスト番号4は、後述する表示画面S1に対応する。なお、ファミリーレストランについて「ふぁみれす」、「ふぁみりーれすとらん」、電器店について「かでん」、「でんきや」のように、同一のジャンルを指定する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる In the list numbers 4 and 5, recognition words for designating a genre are registered in the peripheral search. The recognition word of this genre is displayed in hiragana characters on the button of the item for specifying the genre. In the screen display in which the button of the recognition word belonging to the list number 4 is displayed, the genre that can be recognized is limited to the recognition word belonging to the list number 4. This list number 4 corresponds to the display screen S1 described later. In addition, prepare multiple types of recognition words that specify the same genre, such as "Family restaurant" and "Family restaurant" for family restaurants, and "Kaden" and "Denkiya" for electronics stores. By setting it, even if the user's utterance content is slightly different, the possibility that it cannot be recognized can be reduced.

リスト番号5に属する認識ワードのボタンが表示される画面表示においては、認識可能なジャンルは、リスト番号5に属する認識ワードに限られる。このリスト番号5は、後述する表示画面S1aに対応する。このように、各表示画面において認識可能なジャンルは、それぞれの表示画面に表示された項目のボタンに対応する認識ワードに限定されるので、誤認識の可能性が低くなる。 In the screen display in which the button of the recognition word belonging to the list number 5 is displayed, the genre that can be recognized is limited to the recognition word belonging to the list number 5. This list number 5 corresponds to the display screen S1a described later. As described above, the genre that can be recognized on each display screen is limited to the recognition word corresponding to the button of the item displayed on each display screen, so that the possibility of erroneous recognition is reduced.

さらに、リスト番号4には、リスト番号5の表示画面S1aに遷移させるための認識ワード「にぺーじ」、「つぎ」が登録されている。また、リスト番号5には、リスト番号4の表示画面S1に遷移させるための認識ワード「いちぺーじ」、「まえ」が登録されている。このように、ジャンルの表示画面を遷移させるという同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。 Further, in the list number 4, recognition words "nipage" and "next" for transitioning to the display screen S1a of the list number 5 are registered. Further, in the list number 5, recognition words "Ippage" and "mae" for transitioning to the display screen S1 of the list number 4 are registered. In this way, by preparing multiple types of recognition words that execute the same function of transitioning the display screen of the genre, there is a possibility that even if the user's utterance content is slightly different, it will not be recognized. Can be reduced.

リスト番号6、7、8、9には、周辺検索で検索された施設を選択するための認識ワードが登録されている。リスト番号6、7に対応する表示画面では、周辺検索で検索された施設が、地図上の所在地に、現在位置に近い順に番号が付されたアイコンで表示される。認識ワードとしては、施設を選択するための番号の呼び名が登録されている。例えば、「いち」、「いちばん」、「に」、「にばん」のように、番号を指示する認識ワードが登録されている。このように、目的地として同一の対象を選択する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。なお、リスト番号6、7に対応する表示画面では、検索された施設(本例では、10箇所)を、画面表示されているか否かにかかわらず、全て音声で選択できる。 In the list numbers 6, 7, 8 and 9, recognition words for selecting the facility searched by the peripheral search are registered. On the display screen corresponding to the list numbers 6 and 7, the facilities searched by the peripheral search are displayed at the locations on the map with icons numbered in order of proximity to the current position. As the recognition word, the nickname of the number for selecting the facility is registered. For example, recognition words indicating numbers such as "Ichi", "Ichiban", "Ni", and "Niban" are registered. In this way, by preparing a plurality of types of recognition words for selecting the same target as the destination, it is possible to reduce the possibility that the user will not be able to recognize even if the utterance contents of the user are slightly different. On the display screens corresponding to the list numbers 6 and 7, all the searched facilities (10 locations in this example) can be selected by voice regardless of whether or not they are displayed on the screen.

また、リスト番号6、7には、表示された地図のスケールを変更するための認識ワードが登録されている。つまり、リスト番号6には、スケール変更の開始を受け付ける認識ワード「すけーる」が登録されている。このリスト番号6は、後述する表示画面S2に対応する。リスト番号7には、スケール変更の開始を受け付ける認識ワード「スケール」の他、スケールを変更する認識ワードが登録されている。このリスト番号7は、後述する表示画面S2aに対応する。 Further, in the list numbers 6 and 7, recognition words for changing the scale of the displayed map are registered. That is, the recognition word "skeleton" that accepts the start of the scale change is registered in the list number 6. This list number 6 corresponds to the display screen S2 described later. In list number 7, in addition to the recognition word "scale" that accepts the start of scale change, the recognition word that changes the scale is registered. This list number 7 corresponds to the display screen S2a described later.

スケールを変更する認識ワードには、地図のスケールを拡大させて詳細表示するための認識ワードと、地図のスケールを縮小させて広域表示するための認識ワードと、スケールの数字及び単位を示す認識ワードが含まれる。地図のスケールを拡大させる認識ワードは、「かくだい」、「しょうさい」、地図のスケールを縮小させる認識ワードは、「しゅくしょう」、「こういき」といったように、地図のスケールを段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルのスケールが設定されていて、そのレベルを1つずつ上げ下げすることである。このように、スケールを段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、スケールを上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは音量の変更を指示する言葉に迷わずに済む。 The recognition words for changing the scale include a recognition word for enlarging the scale of the map for detailed display, a recognition word for reducing the scale of the map for wide-area display, and a recognition word for indicating the numbers and units of the scale. Is included. The recognition words that increase the scale of the map are "Kakudai" and "Shosai", and the recognition words that reduce the scale of the map are "Shukusho" and "Kouiki". Contains recognition words to change. Gradual means that multiple levels of scale are set in advance, and the levels are raised or lowered one by one. In this way, by preparing multiple types of recognition words that execute the same function of changing the scale step by step, it is possible that even if the user's utterance content is slightly different, it cannot be recognized. The sex can be reduced. In particular, when raising or lowering the scale, the words that are used daily are used as recognition words, so the user does not have to be confused by the words that instruct the volume change.

また、スケールを変更する認識ワードには、「じゅうめーとる」、「にじゅうごめーとる」、「ごじゅうめーとる」のように、スケールの数字及び単位を指定できる認識ワードが含まれる。これにより、ユーザが、所望のスケールの認識ワードを発話して指定すると、これを認識した制御部18は、指定された地図のスケールにダイレクトに変更させる。さらに、リスト番号6、7には、後述するリスト番号8のリスト表示の表示画面に遷移させる認識ワード「りすと」、「りすとひょうじ」が登録されている。このように、リスト表示の画面への遷移という同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。 In addition, recognition words that change the scale include recognition words that can specify scale numbers and units, such as "jumetoru", "nijugometoru", and "gojumetoru". Is done. As a result, when the user utters and specifies a recognition word of a desired scale, the control unit 18 that recognizes the recognition word directly changes to the scale of the designated map. Further, in the list numbers 6 and 7, the recognition words "risuto" and "risutohoji" to be transferred to the display screen of the list display of the list number 8 described later are registered. In this way, by preparing multiple types of recognition words that execute the same function of transitioning to the list display screen, there is a possibility that even if the user's utterance content is slightly different, it will not be recognized. Can be reduced.

リスト番号8、9に対応する表示画面では、周辺検索で検索された施設が、番号が表示されたボタンによってリスト表示される。このようにリスト表示された施設を選択するための番号の呼び名が、認識ワードとして登録されている。リスト番号8は、後述する表示画面S2_listに対応し、リスト番号9は、後述する表示画面S2a_listに対応する。登録されている番号の呼び名は、上記のリスト番号8、9と同様である。但し、リスト番号8、9では、選択できる施設は、表示画面に表示されたものに限られる。本例では、リスト番号8に対応する表示画面S2_listでは、1番目から5番目の施設、リスト番号S2_listでは、6番目から10番目の施設が選択できる。 On the display screen corresponding to the list numbers 8 and 9, the facilities searched by the peripheral search are displayed in a list by the button displaying the number. The nickname of the number for selecting the facility displayed in the list in this way is registered as a recognition word. The list number 8 corresponds to the display screen S2_list described later, and the list number 9 corresponds to the display screen S2a_list described later. The names of the registered numbers are the same as those of the above list numbers 8 and 9. However, in list numbers 8 and 9, the facilities that can be selected are limited to those displayed on the display screen. In this example, the first to fifth facilities can be selected on the display screen S2_list corresponding to the list number 8, and the sixth to tenth facilities can be selected on the list number S2_list.

さらに、リスト番号8、9には、リスト表示を解除するための認識ワード「りすと」、「りすと解除」が登録されている。このように、リスト表示の解除という同一の機能を実行させる認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。さらに、リスト番号4、5と同様に、リスト番号8には、リスト番号9の表示画面S1aに遷移させるための認識ワード「にぺーじ」、「つぎ」が登録されている。また、リスト番号9には、リスト番号8の表示画面S1に遷移させるための認識ワード「いちぺーじ」、「まえ」が登録されている。 Further, in the list numbers 8 and 9, recognition words "risuto" and "risuto release" for canceling the list display are registered. In this way, by preparing multiple types of recognition words that execute the same function of canceling the list display, it is possible to reduce the possibility that the user will not be able to recognize even if the utterance content is slightly different. .. Further, similarly to the list numbers 4 and 5, the recognition words "nipage" and "next" for transitioning to the display screen S1a of the list number 9 are registered in the list number 8. Further, in the list number 9, recognition words "Ippage" and "mae" for transitioning to the display screen S1 of the list number 8 are registered.

リスト番号10、11、12には、探索されたルート案内の開始を指示する認識ワード「あんないかいし」、「あんないよろしく」、「あんないして」が登録されている。このように、ルート案内という同一の機能を指示する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、「あんないかいし」という命令口調に加えて、「あんないよろしく」、「あんないして」という親しみを込めた依頼の口調も用意することにより、キャラクターとの親密度合いに応じて、口調を変えることを楽しめる。 In the list numbers 10, 11 and 12, the recognition words "Annaikai", "Annai Regards" and "Annai" are registered to instruct the start of the searched route guidance. In this way, by preparing a plurality of types of recognition words that indicate the same function of route guidance, it is possible to reduce the possibility that the user will not be able to recognize even if the utterance contents are slightly different. In particular, in addition to the command tone of "Annaikai", we also prepare the tone of the request with the familiarity of "Annai Regards" and "Annai", depending on the intimacy with the character. You can enjoy changing.

リスト番号10は、ルート探索後、探索されたルートを表示する表示画面に対応している。この表示画面は、後述する表示画面R1に対応する。リスト番号11は、探索されたルートを表示しつつ、地図のスケールを変更する表示画面に対応する。この表示画面は、後述する表示画面R1aに対応する。リスト番号12は、探索されたルートを表示しつつ、ルート条件を変更する表示画面に対応する。この表示画面は、後述する表示画面R1bに対応する。 The list number 10 corresponds to a display screen that displays the searched route after the route search. This display screen corresponds to the display screen R1 described later. The list number 11 corresponds to a display screen for changing the scale of the map while displaying the searched route. This display screen corresponds to the display screen R1a described later. The list number 12 corresponds to a display screen for changing the route condition while displaying the searched route. This display screen corresponds to the display screen R1b described later.

また、リスト番号10、11、12には、スケール変更を開始させる認識ワード「すけーる」、周辺施設を再検索させる認識ワード「しゅうへん」、ルート条件の変更を開始させる認識ワード「じょうけん」、「るーとじょうけん」が登録されている。このように、ルート条件の変更という同一の機能を指示する認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。 In addition, the list numbers 10, 11 and 12 include the recognition word "skeleton" for starting the scale change, the recognition word "shuhen" for re-searching the surrounding facilities, and the recognition word "joken" for starting the change of the route condition. , "Rutojoken" are registered. In this way, by preparing a plurality of types of recognition words that indicate the same function of changing the route condition, it is possible to reduce the possibility that the user will not be able to recognize even if the utterance contents are slightly different. ..

さらに、リスト番号11には、リスト番号7と同様に、スケールを変更する認識ワードが登録されている。また、リスト番号12には、ルート条件を変更する認識ワードが登録されている。ルート条件は、何を優先してルートを探索するかの探索条件である。本実施形態のルート条件としては、高速道優先、一般道優先、推奨ルートが設定されている。推奨ルートは、デフォルトで設定された条件、たとえば、目的地までの所要時間優先、目的地までの距離優先等とする。これに対応して、リスト番号12には、「すいしょう」、「いっぱんどう」、「こうそくどう」が登録されている。 Further, in the list number 11, a recognition word for changing the scale is registered as in the list number 7. Further, in the list number 12, a recognition word for changing the route condition is registered. The route condition is a search condition for what is prioritized to search for a route. As the route conditions of this embodiment, highway priority, general road priority, and recommended route are set. The recommended route is the condition set by default, for example, priority is given to the time required to reach the destination, priority is given to the distance to the destination, and the like. Correspondingly, "Suisho", "Ippando", and "Kosokudo" are registered in the list number 12.

リスト番号13、14、15には、本実施形態の各種機能を変更させるための認識ワードが登録されている。リスト番号13には、上記と同様に地図スケールを変更させるための認識ワードが登録されている。リスト番号13は、後述する表示画面A1に対応する。 In the list numbers 13, 14 and 15, recognition words for changing various functions of the present embodiment are registered. In the list number 13, a recognition word for changing the map scale is registered in the same manner as described above. The list number 13 corresponds to the display screen A1 described later.

リスト番号14には、音量を変更させるための認識ワードが登録されている。リスト番号14は、後述する表示画面A2に対応する。音量を変更させるための認識ワードには、音量を大きくする認識ワードと、音量を小さくする認識ワードと、音量のレベルを示す認識ワードが含まれる。 A recognition word for changing the volume is registered in the list number 14. The list number 14 corresponds to the display screen A2 described later. The recognition word for changing the volume includes a recognition word for increasing the volume, a recognition word for decreasing the volume, and a recognition word indicating the level of the volume.

音量を大きくする認識ワードは、「あっぷ」、「おおきく」、音量を小さくする認識ワードは、「だうん」、「ちいさく」といったように、音量を段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルの音量が設定されていて、そのレベルを1つずつ上げ下げすることである。このように、音量を段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、音量を上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは音量の変更を指示する言葉に迷わずに済む。 Recognition words that increase the volume include "appu" and "big", and recognition words that decrease the volume include recognition words that change the volume step by step, such as "daun" and "small". Gradual means that the volume of a plurality of levels is set in advance, and the levels are raised or lowered one by one. In this way, by preparing multiple types of recognition words that execute the same function of changing the volume step by step, even if the user's utterance content is slightly different, it may not be recognized. The sex can be reduced. In particular, when raising or lowering the volume, words that are used daily are used as recognition words, so that the user does not have to be confused by the words that instruct the volume to be changed.

また、音量を変更する認識ワードには、「ぜろ」、「いち」、「に」のように、音量のレベルを示す数字を指定できる認識ワードが含まれる。これにより、ユーザが、所望の音量のレベルを発話して指定すると、これを認識した制御部18は、音量を指定されたレベルにダイレクトに変更させる。なお、「ぜろ」は、音量をゼロにする機能、つまりスピーカ20から出力される音声をミュートする機能を実現する認識ワードである。これにより、ユーザが、キャラクターの音声を他人に聞かれたくないときに、音量をゼロにする認識ワードを発話するだけで、即座にキャラクターの音声が聞こえないようにすることができる。 Further, the recognition word for changing the volume includes a recognition word such as "Zero", "Ichi", and "Ni" that can specify a number indicating the volume level. As a result, when the user utters and specifies a desired volume level, the control unit 18 that recognizes this directly changes the volume to the designated level. Note that "zero" is a recognition word that realizes a function of reducing the volume to zero, that is, a function of muting the sound output from the speaker 20. As a result, when the user does not want the character's voice to be heard by others, the user can immediately stop hearing the character's voice simply by uttering a recognition word that makes the volume zero.

リスト番号15には、輝度を変更させるための認識ワードが登録されている。リスト番号15は、後述する表示画面A3に対応する。輝度を変更させるための認識ワードには、輝度を大きくする認識ワードと、輝度を小さくする認識ワードと、輝度のレベルを示す認識ワードが含まれる。 A recognition word for changing the brightness is registered in the list number 15. The list number 15 corresponds to the display screen A3 described later. The recognition word for changing the luminance includes a recognition word for increasing the luminance, a recognition word for decreasing the luminance, and a recognition word indicating the level of the luminance.

輝度を大きくする認識ワードは、「あっぷ」、「あかるく」、輝度を小さくする認識ワードは、「だうん」、「くらく」といったように、輝度を段階的に変化させる認識ワードが含まれる。段階的とは、あらかじめ複数のレベルの輝度が設定されていて、そのレベルを1つずつ上げ下げすることである。このように、輝度を段階的に変化させるという同一の機能を実行させる認識ワードとして、それぞれ複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、輝度を上げ下げする際に、日常使用する言葉を認識ワードとしているので、ユーザは輝度の変更を指示する言葉に迷わずに済む。 The recognition word that increases the brightness includes "appu" and "akaruku", and the recognition word that decreases the brightness includes recognition words that gradually change the brightness such as "daun" and "kuraku". Gradual means that a plurality of levels of brightness are set in advance, and the levels are raised or lowered one by one. In this way, by preparing multiple types of recognition words for executing the same function of gradually changing the brightness, even if the user's utterance content is slightly different, it may not be recognized. The sex can be reduced. In particular, when raising or lowering the brightness, words that are used daily are used as recognition words, so that the user does not have to be confused by the words that instruct the change in brightness.

また、輝度を変更する認識ワードには、「ぜろ」、「いち」、「に」のように、輝度のレベルを示す数字を指定できる認識ワードが含まれる。これにより、ユーザが、所望の輝度のレベルを発話すると、これを認識した制御部18は、輝度を指定されたレベルにダイレクトに変更させる。なお、「ぜろ」は、輝度をゼロにする機能、表示部5の画面を暗くして表示内容を見えなくする機能を実現する認識ワードである。これにより、ユーザが、キャラクターの画像を他人に見られたくないときに、輝度をゼロにする認識ワードを発話するだけで、即座にキャラクターの画像が見えないようにすることができる。 Further, the recognition word for changing the brightness includes a recognition word such as "Zero", "Ichi", and "Ni" that can specify a number indicating the brightness level. As a result, when the user speaks a desired level of luminance, the control unit 18 that recognizes the utterance causes the luminance to be directly changed to the designated level. In addition, "Zero" is a recognition word that realizes a function of reducing the brightness to zero and a function of darkening the screen of the display unit 5 to make the display content invisible. As a result, when the user does not want the image of the character to be seen by others, the user can immediately hide the image of the character simply by uttering a recognition word that makes the brightness zero.

以上のようなリスト番号13、14、15には、共通して、各種の機能を実行させるための認識ワードが登録されている。つまり、スケール変更に関する「すけーる」、周辺検索に関する「しゅうへん」、音量変更に関する「おんりょう」、輝度変更に関する「きど」が登録されている。 In the list numbers 13, 14, and 15 as described above, recognition words for executing various functions are registered in common. In other words, "skeleton" related to scale change, "shuhen" related to peripheral search, "onryo" related to volume change, and "kid" related to brightness change are registered.

リスト番号13の表示画面において、ユーザが「すけーる」と発話すると、これを認識した制御部18は、変更したスケールの設定を完了させる。一方、リスト番号14、15の表示画面において、ユーザが「すけーる」と発話すると、これを認識した制御部18は、スケール変更の表示画面、つまりリスト番号13に対応する表示画面に遷移させる。 When the user speaks "skeleton" on the display screen of the list number 13, the control unit 18 that recognizes this completes the setting of the changed scale. On the other hand, when the user utters "skeleton" on the display screens of the list numbers 14 and 15, the control unit 18 that recognizes the utterance shifts to the scale change display screen, that is, the display screen corresponding to the list number 13. ..

リスト番号14の表示画面において、ユーザが「おんりょう」と発話すると、これを認識した制御部18は、変更した音量の設定を完了させる。一方、リスト番号13、15の表示画面において、ユーザが「おんりょう」と発話すると、これを認識した制御部18は、音量変更の表示画面、つまりリスト番号14に対応する表示画面に遷移させる。 When the user speaks "Onryo" on the display screen of the list number 14, the control unit 18 that recognizes this completes the setting of the changed volume. On the other hand, when the user speaks "Onryo" on the display screens of the list numbers 13 and 15, the control unit 18 that recognizes the utterance shifts to the volume change display screen, that is, the display screen corresponding to the list number 14.

リスト番号15の表示画面において、ユーザが「きど」と発話すると、これを認識した制御部18は、変更した輝度の設定を完了させる。一方、リスト番号13、14の表示画面において、ユーザが「きど」と発話すると、これを認識した制御部18は、輝度変更の表示画面、つまりリスト番号15に対応する表示画面に遷移させる。 When the user speaks "Kido" on the display screen of the list number 15, the control unit 18 that recognizes this completes the setting of the changed luminance. On the other hand, when the user speaks "Kido" on the display screens of the list numbers 13 and 14, the control unit 18 that recognizes the utterance shifts to the display screen for changing the luminance, that is, the display screen corresponding to the list number 15.

このように、同じ認識ワードであっても、表示画面に応じて機能を変えることによって、ユーザは、関連しているが異なる機能を実行させるために、異なる認識ワードを覚える必要がない。 In this way, even if the recognition words are the same, by changing the functions according to the display screen, the user does not need to remember different recognition words in order to perform related but different functions.

さらに、リスト番号13、14、15には、自宅に戻る場合に、一度の発話で自宅へのルートを探索させる認識ワード「じたく」が登録されている。このように、ユーザが使用する頻度が高い機能に対応する認識ワードが、音声認識が起動した時の認識ワードとして登録されているので、音声認識を開始して、即座に実行させることができる。 Further, in the list numbers 13, 14, and 15, when returning to the home, the recognition word "jitaku" for searching the route to the home with one utterance is registered. As described above, since the recognition word corresponding to the function frequently used by the user is registered as the recognition word when the voice recognition is activated, the voice recognition can be started and executed immediately.

なお、各リスト番号1~15には、複数の表示画面において、共通に認識することができ、各種の機能を実行させる認識ワードが登録されている。まず、前の処理に戻るフレーズとして、「もどる」、「とりけし」、「やりなおし」という認識ワードが登録されている。また、機能や処理を解除する解除フレーズとして、「おんせいかいじょ」、「しゅうりょう」、「げんざいち」という認識ワードが登録されている。「おんせいかいじょ」は、音声認識を解除する認識ワードである。「しゅうりょう」は、現在の処理を終了させる認識ワードである。「げんざいち」は、現在位置表示に遷移させる認識ワードである。これらは、音声認識を起動させた後の全ての表示画面において共通に認識できる認識ワードである。この共通の認識ワードを発することにより、ユーザは、いつでも処理のやりなおしや、初期状態への復帰等ができる。 In each list number 1 to 15, recognition words that can be recognized in common on a plurality of display screens and that execute various functions are registered. First, recognition words such as "return", "takeshi", and "redo" are registered as phrases that return to the previous process. In addition, recognition words such as "Onseikaijo", "Shuryo", and "Genzaichi" are registered as cancellation phrases for canceling functions and processing. "Onseikaijo" is a recognition word that cancels voice recognition. "Shuryo" is a recognition word that terminates the current processing. "Genzaichi" is a recognition word that transitions to the current position display. These are recognition words that can be recognized in common on all display screens after the voice recognition is activated. By issuing this common recognition word, the user can redo the process, return to the initial state, or the like at any time.

さらに、リスト番号16には、ユーザのYes(肯定)、No(否定)の発話を認識するための認識ワードが登録されている。この認識ワードは、キャラクターからの問いかけに対して、ユーザの単なるYes、Noの発話を認識するために用いられる。このような認識ワードも、全画面に共通で認識可能である。Yesの認識ワードとしては、「おっけー」、「よろしく」、「はい」、「いえす」、「うん」が登録されている。Noの認識ワードとしては、「いらない」、「すとっぷ」、「いいえ」、「のー」、「だめ」、「きにいらない」、「うるさい」が登録されている。このように、ユーザのYes、Noを認識するための認識ワードとして、複数種類のものを用意しておくことにより、ユーザの発話内容が多少相違しても、認識できなくなる可能性を低減できる。特に、Yes、Noの表現は、話し相手によって変わるが、ユーザは、キャラクターの口調に合わせたYes、Noの返答ができる。 Further, in the list number 16, a recognition word for recognizing the user's Yes (affirmative) and No (negative) utterances is registered. This recognition word is used to recognize the user's mere Yes and No utterances in response to a question from the character. Such recognition words can also be recognized in common on the entire screen. As the recognition words of Yes, "OK", "Greetings", "Yes", "Yes", and "Yeah" are registered. As the recognition word of No, "I don't need", "Stop", "No", "No", "No", "I don't need", and "Noisy" are registered. As described above, by preparing a plurality of types of recognition words for recognizing Yes and No of the user, it is possible to reduce the possibility of not being able to recognize even if the utterance contents of the user are slightly different. In particular, the expressions of Yes and No vary depending on the conversation partner, but the user can reply Yes and No according to the tone of the character.

上記のような認識ワードは、後述するように、表示画面に文字で表示されるものと、表示画面に表示されないものがある。文字で表示されるものは、ユーザが制御部18にその機能を実行させるために、何を発話したらよいかを、視覚で確認できるのでよい。 As will be described later, some recognition words as described above are displayed as characters on the display screen, and some are not displayed on the display screen. What is displayed in characters is good because the user can visually confirm what should be spoken in order for the control unit 18 to execute the function.

《応答フレーズ》
図7~図21は、制御部18が、上記の認識ワードの認識結果に応じて、キャラクターの音声として出力させる応答フレーズのリストの一部を抜粋したものである。データベース19は、このような応答フレーズのリスト及び音声データを記憶している。リストにおいてグレーで塗りつぶされた欄のうちの上欄は、応答フレーズの番号である。下欄は、ユーザが発話した認識ワードに応じて、制御部18が実行する処理の内容である。欄外の「れーたん、ぼいすこんとろーる」は、上記の認識ワードのリスト番号1に登録された起動ワードである。
<< Response phrase >>
7 to 21 are excerpts of a part of a list of response phrases to be output as a character's voice by the control unit 18 according to the recognition result of the above recognition word. Database 19 stores a list of such response phrases and voice data. The upper column of the gray-filled columns in the list is the response phrase number. The lower column is the content of the process executed by the control unit 18 according to the recognition word spoken by the user. "Retan, Boisukontoroll" in the margin is an activation word registered in the list number 1 of the above recognition words.

応答フレーズは、制御部18が実行する処理ごとに、1つ以上のフレーズが登録されている。図7は、「標準レイ」の応答フレーズのリストの抜粋である。図7の左から第1列目は、ユーザが起動ワード「れーたん、ぼいすこんとろーる」を発話して、制御部18が音声認識を開始した場合の複数の応答フレーズである。第2列目は、制御部18が音量をダウンさせた場合の応答フレーズである。第3列目は、ユーザが8番の施設を選択して、制御部18が目的地を8番に変更した場合の応答フレーズである。第4列目は、制御部18が案内を中止した場合の応答フレーズである。第5列目は、制御部18が音量若しくは輝度のレベルを3に変更した場合の応答フレーズである。 As the response phrase, one or more phrases are registered for each process executed by the control unit 18. FIG. 7 is an excerpt from a list of response phrases for "standard ray". The first column from the left in FIG. 7 is a plurality of response phrases when the user utters the activation word “Retan, Boisukontoroll” and the control unit 18 starts voice recognition. The second column is a response phrase when the control unit 18 turns down the volume. The third column is a response phrase when the user selects the facility No. 8 and the control unit 18 changes the destination to No. 8. The fourth column is a response phrase when the control unit 18 cancels the guidance. The fifth column is a response phrase when the control unit 18 changes the volume or luminance level to 3.

このような応答フレーズのリストは、キャラクターの3つの態様、つまり「標準レイ」、「変身後のレイ」、「ちびレイ」毎に、区別して設定されている。この3つの態様に応じて、リスト内における応答フレーズは相違している。図8(a)は、「変身後のレイ」の音声認識開始時の応答フレーズをリストから抜粋したものである。「変身後のレイ」の応答フレーズは、「何か用事ですか?」、「音声認識を開始します。ゆっくり、はっきり話して下さい。」というように、「標準レイ」の応答フレーズと比較して、より丁寧な口調が設定されている。また、図8(b)は、「ちびレイ」の音声認識開始時の応答フレーズをリストから抜粋したものである。「ちびレイ」の応答フレーズは、「レーたん、音声コントロール開始。」、「待ってましたぁ。」というように、「標準レイ」の応答フレーズと比較して、より気安い口調が設定されている。また、図9(a)~(i)は、ユーザの発話に対する応答フレーズを、抜粋したものである。これらの具体的な応答フレーズについては、後述の処理例で説明する。なお、ユーザの対話としては、例えば、ユーザの発話とキャラクターの音声とが、その意味内容が発話とこれに対する返答として成立していると、互いに意思の疎通ができている感覚が得られる。発話とこれに対する意味内容が的外れな返答であっても、ユーザにとって面白味や意外性が感じられる。発話とこれに対する返答が意味内容として成立している場合と、発話に対する意味内容が的外れな返答の場合とを混在させても、現実の会話に近い不完全さを演出することができ、ユーザに人間味を感じさせることができる。 Such a list of response phrases is set separately for each of the three aspects of the character, that is, "standard ray", "transformed ray", and "chibi ray". Depending on these three aspects, the response phrases in the list are different. FIG. 8A is an excerpt from the list of the response phrases at the start of voice recognition of “Ray after transformation”. Compare the response phrase of "Ray after transformation" with the response phrase of "Standard Ray" such as "Are you doing something?", "Start voice recognition. Speak slowly and clearly." And a more polite tone is set. Further, FIG. 8B is an excerpt from the list of the response phrase at the start of voice recognition of "Chibi Rei". The response phrase of "Chibi Rei" is set to a cheaper tone than the response phrase of "Standard Rei", such as "Retan, start voice control.", "Wait." There is. Further, FIGS. 9 (a) to 9 (i) are excerpts of response phrases to the user's utterances. These specific response phrases will be described in a processing example described later. As for the dialogue of the user, for example, if the utterance of the user and the voice of the character are established as the utterance and the response to the utterance, a feeling of mutual communication can be obtained. Even if the utterance and the meaning of the utterance are irrelevant, the user can feel the fun and unexpectedness. Even if the utterance and the response to the utterance are established as the meaning content and the utterance and the response to the utterance are irrelevant, it is possible to produce an imperfection close to the actual conversation, and the user can see it. You can feel humanity.

このようなリストにおいては、同じ処理の欄には、1つ又は複数の応答フレーズが登録されている。制御部18は、同じ処理に対応する応答フレーズとして、各欄に登録された中から、ランダムに出力する。但し、同じフレーズばかりが繰り返し出力されることがないように、制御部18は、以前に出力した応答フレーズを除いたものの中からランダムに選択していく。特に、音声認識開始のように、頻繁に使用される処理の場合の応答フレーズは、図7に示すように、多数用意されていて、制御部18は、この中からランダムに出力する。 In such a list, one or more response phrases are registered in the same processing column. The control unit 18 randomly outputs the response phrases registered in each column as the response phrases corresponding to the same processing. However, the control unit 18 randomly selects from those excluding the previously output response phrases so that only the same phrases are not repeatedly output. In particular, as shown in FIG. 7, a large number of response phrases in the case of frequently used processing such as the start of voice recognition are prepared, and the control unit 18 randomly outputs from these.

この制御部18の動作例は、以下の通りである。
1.フレーズがA、B、C、D、Eの5通りあった場合、まず5個の中からランダムに選択する。
2.最初にBを選択した場合、次回はA、C、D、Eの4個の中から選択する。
3.次にEを選択した場合、次回はA、C、Dの3個の中から選択する。
4.全て選択し終えたら、次回は最初に戻りA、B、C、D、Eの5個の中からランダムに選択する。
なお、本実施形態では、対話に応じて、ユーザが知りたい情報を出力するための所定の処理として、以下に列挙するような種々の機能を実行する処理を行う。対話に応じた処理が、対話をした結果、情報を出力する処理であれば、機能を実行させるために、キャラクターと対話をする意欲がわく。対話に応じた処理が、対話中に情報を出力する処理であれば、機能を実行させるために、順次発話して対話を進める意欲が増す。対話に応じた処理が対話を構成する応答フレーズを出力する処理であれば、ユーザは、キャラクターの音声を聞きたくて対話するので、対話すること自体を楽しむことができる。
An operation example of the control unit 18 is as follows.
1. 1. If there are five phrases A, B, C, D, and E, first randomly select from the five phrases.
2. 2. When B is selected first, the next time, select from A, C, D, and E.
3. 3. Next, when E is selected, the next time, select from A, C, and D.
4. After selecting all, the next time, I will return to the beginning and randomly select from the five A, B, C, D, and E.
In this embodiment, as a predetermined process for outputting information that the user wants to know in response to a dialogue, a process of executing various functions as listed below is performed. If the process corresponding to the dialogue is the process of outputting information as a result of the dialogue, it is motivated to interact with the character in order to execute the function. If the process corresponding to the dialogue is a process that outputs information during the dialogue, the motivation to speak sequentially and proceed with the dialogue increases in order to execute the function. If the process corresponding to the dialogue is a process that outputs a response phrase that constitutes the dialogue, the user wants to hear the voice of the character and interacts with the character, so that the dialogue itself can be enjoyed.

《周辺検索処理》
制御部18は、上記のような認識ワードに基づいてユーザの発話した音声を認識する音声認識と、応答フレーズに基づいてキャラクターの音声を出力する対話に応じて、各種の処理を実行する。まず、このような対話に応じた周辺検索の処理を説明する。
<< Peripheral search processing >>
The control unit 18 executes various processes according to the voice recognition that recognizes the voice spoken by the user based on the recognition word as described above and the dialogue that outputs the voice of the character based on the response phrase. First, the peripheral search process corresponding to such a dialogue will be described.

周辺検索は、複数の選択を経て、複数の候補の中から順次絞り込んでいくことにより、目的とする情報を得られる処理であり、ジャンル選択、施設選択、ルート選択のフェーズがある。このような情報は、車両の搭乗者が知りたい情報、特に、車両の運転者が知りたい情報である。 Peripheral search is a process in which target information can be obtained by sequentially narrowing down from a plurality of candidates through a plurality of selections, and has phases of genre selection, facility selection, and route selection. Such information is information that the passenger of the vehicle wants to know, particularly information that the driver of the vehicle wants to know.

以下、周辺検索処理の一例を、図10~図21に従って説明する。図10~図21は、各フェーズにおける表示画面例を左に、これに対応する認識ワード及び応答フレーズの例を右に示した説明図である。各表示画面M1(M1aも含む)、V1、V1a、S1、S1a、S2、S2a、S2_list、S2a_list、R1、R1a、R1b、A1(A1aも含む)、A2(A2aも含む)、A3(A3aも含む)は、上記のように、認識ワードのリスト番号1~15(図5及び図6)に対応している。 Hereinafter, an example of the peripheral search process will be described with reference to FIGS. 10 to 21. 10 to 21 are explanatory views showing an example of a display screen in each phase on the left and an example of a recognition word and a response phrase corresponding thereto on the right. Each display screen M1 (including M1a), V1, V1a, S1, S1a, S2, S2a, S2_list, S2a_list, R1, R1a, R1b, A1 (including A1a), A2 (including A2a), A3 (also A3a) Including) corresponds to the list numbers 1 to 15 (FIGS. 5 and 6) of the recognition words as described above.

これらの図10~図21の表示画面例の左に示した記述は、「ユーザの音声として認識される認識ワード → これに応じて出力されるキャラクターの応答フレーズ → これにより遷移する表示画面」を示している。 The description shown on the left of these display screen examples in FIGS. 10 to 21 refers to "recognition word recognized as user's voice-> character response phrase output in response to this-> display screen transitioned by this". Shows.

制御部18は、これらの表示画面を、データべース19に記憶されたボタン、アイコン、テキスト、地図等の画面構成用データを、メモリに描画することにより、表示部5に表示させる。また、制御部18は、周辺検索、経路探索、ルート案内を行うことができることは、上述の通りである。 The control unit 18 causes the display unit 5 to display these display screens by drawing screen configuration data such as buttons, icons, texts, and maps stored in the database 19 in the memory. Further, as described above, the control unit 18 can perform peripheral search, route search, and route guidance.

(音声認識起動待ち)
まず、制御部18は、周辺検索等の所定の処理のための音声認識起動待ちのときには、起動ワードのみを認識可能な状態にある。図10の表示画面M1は、音声認識起動待ちの画面例である。この表示画面M1には、現在位置51の周辺の地図とともに、現在位置51を示すアイコンが表示されている。表示画面M1の左上には、現在の時刻(10:00)が表示されるとともに、その下方に地図スケールの現在の量的レベルである数字と単位(100m)を示すスケールボタンB1、音声認識を起動させる指示語(音声認識)が表示された音声認識ボタンB2が表示されている。表示画面M1の右下には、キャラクター100の上半身が表示されている。キャラクター100は、標準レイであり、その表示位置は、各種のボタン、現在位置、現在の時刻等の表示を遮らない位置となっている。
(Waiting for voice recognition activation)
First, the control unit 18 is in a state where only the activation word can be recognized when waiting for the voice recognition activation for a predetermined process such as peripheral search. The display screen M1 in FIG. 10 is an example of a screen waiting for voice recognition activation. On the display screen M1, an icon indicating the current position 51 is displayed together with a map around the current position 51. The current time (10:00) is displayed in the upper left of the display screen M1, and the scale button B1 indicating the number and unit (100 m), which is the current quantitative level of the map scale, and voice recognition are displayed below it. The voice recognition button B2 on which the demonstrative word (voice recognition) to be activated is displayed is displayed. The upper body of the character 100 is displayed at the lower right of the display screen M1. The character 100 is a standard ray, and its display position is a position that does not block the display of various buttons, the current position, the current time, and the like.

この音声認識起動待ちの状態では、周辺検索等の所定の処理を、音声認識により行うことはできない。このため、地図スケールを変更したいユーザは、スケールボタンB1をタッチすることにより選択する。このようにスケールボタンB1が選択されると、図10の表示画面M1aに示すように、制御部18は、スケールボタンB1の右に+ボタンB1a、-ボタンB1bを表示させる。ユーザは、スケールをアップする場合には+ボタンB1a、スケールをダウンする場合には-ボタンB1bをタッチすることにより選択する。これに応じて、制御部18は、表示している地図のスケールを段階的に変化させる。 In this state of waiting for voice recognition activation, predetermined processing such as peripheral search cannot be performed by voice recognition. Therefore, the user who wants to change the map scale selects by touching the scale button B1. When the scale button B1 is selected in this way, as shown in the display screen M1a of FIG. 10, the control unit 18 displays the + button B1a and the-button B1b to the right of the scale button B1. The user selects by touching the + button B1a to increase the scale and the-button B1b to decrease the scale. In response to this, the control unit 18 changes the scale of the displayed map step by step.

このような音声認識起動待ちの状態において、ユーザが、「れーたん、ぼいすこんとろーる」と発話すると、制御部18は、これに対応する応答フレーズを出力するとともに、音声認識を起動する。これにより、例えば、「なにか用事?」という音声をスピーカ20が出力する。そして、制御部18は、表示画面M1を、図11に示す表示画面V1に遷移させる。 When the user speaks "Retan, Boisukontoroll" in such a state of waiting for voice recognition activation, the control unit 18 outputs a response phrase corresponding to this and activates voice recognition. do. As a result, for example, the speaker 20 outputs the voice "What is the business?". Then, the control unit 18 shifts the display screen M1 to the display screen V1 shown in FIG.

なお、音声認識ボタンB2を、ユーザがタッチして選択した場合にも、制御部18は上記のような応答フレーズを出力して、音声認識を起動する。制御部18は、このように手操作でも音声入力でも選択できる機能に対応するボタンを、他のボタンと色分けして表示部5に表示させる。例えば、本実施形態の表示画面では、音声入力により選択可能なボタンを青色で、他のボタンを黒色で表示している。これにより、音声入力可能な機能を、ユーザは視覚によって認識することができる。なお、同じ機能であっても、音声入力により選択可能か否かは、表示画面によって相違する。例えば、図10の表示画面M1、M1aでは、音声認識機能が開始していないため、スケールボタンB1は、音声入力により選択できない状態にあり、黒色で表示されている。そして、後述するように音声認識機能が開始した後は、スケールボタンB1は、音声入力により選択できる状態となるので、青色で表示される。 Even when the user touches and selects the voice recognition button B2, the control unit 18 outputs the above response phrase and activates voice recognition. The control unit 18 displays the buttons corresponding to the functions that can be selected by manual operation or voice input on the display unit 5 in different colors from the other buttons. For example, on the display screen of the present embodiment, the buttons that can be selected by voice input are displayed in blue, and the other buttons are displayed in black. As a result, the user can visually recognize the function capable of voice input. Even if the function is the same, whether or not it can be selected by voice input differs depending on the display screen. For example, on the display screens M1 and M1a of FIG. 10, since the voice recognition function has not started, the scale button B1 cannot be selected by voice input and is displayed in black. Then, after the voice recognition function is started as described later, the scale button B1 is in a state where it can be selected by voice input, and is therefore displayed in blue.

(音声認識開始)
図11の表示画面V1は、ナビ(ナビゲーション)待機中の音声認識開始の画面例である。なお、図12の表示画面V1aは、後述するナビ案内開始後の音声認識開始の画面例である。制御部18は、音声認識を起動させると、表示画面V1に、地図スケールのボタンを、音声入力可能であることを示す青色で表示させる。また、制御部18は、表示画面V1に、その他の音声入力可能な機能のボタンを、音声入力可能であることを示す青色で表示させる。これらのボタンのうち、音声解除ボタンB2xは、音声認識を終了させる指示語「音声解除」が表示されたボタンである。周辺ボタンB3は、周辺検索を開始させる指示語「周辺」が表示されたボタンである。周辺検索は、ナビゲーション案内中は機能できないので、制御部18は、周辺ボタンB3は、図12の表示画面V1aでは表示させない。制御部18は、表示画面V1aにおけるV1の周辺ボタンB3と同位置に、案内を中止させる指示語「案内中止」が表示された、案内中止ボタンB4xを表示させる。
(Start voice recognition)
The display screen V1 of FIG. 11 is an example of a screen for starting voice recognition during navigation (navigation) standby. The display screen V1a in FIG. 12 is an example of a screen for starting voice recognition after the start of navigation guidance, which will be described later. When the voice recognition is activated, the control unit 18 displays the map scale button on the display screen V1 in blue indicating that voice input is possible. Further, the control unit 18 causes the display screen V1 to display buttons of other functions capable of voice input in blue indicating that voice input is possible. Of these buttons, the voice release button B2x is a button on which the instruction word "voice release" for terminating voice recognition is displayed. The peripheral button B3 is a button on which the demonstrative word "periphery" for starting the peripheral search is displayed. Since the peripheral search cannot function during navigation guidance, the control unit 18 does not display the peripheral button B3 on the display screen V1a of FIG. The control unit 18 displays the guidance stop button B4x on which the instruction word “guidance stop” for stopping the guidance is displayed at the same position as the peripheral button B3 of V1 on the display screen V1a.

また、表示画面V1、V1aには、スケールボタンB1、音声解除ボタンB2x、案内中止ボタンB4xと同列に、音量ボタンB5、輝度ボタンB6が表示される。音量ボタンB5は、音量変更を開始させる指示語「音量」と、現在の音の量的レベルを示す数字「5」が表示されたボタンである。輝度ボタンB6は、輝度変更を開始させる指示語「輝度」と、現在の輝度の量的レベルを示す数字「5」が表示されたボタンである。さらに、表示画面V1における右上には、自宅ボタンB7が表示される。自宅ボタンB7は、自宅を目的地とする経路案内を行わせる指示語「自宅」が表示されたボタンである。これらの指示語、量的レベルを示す数字は、上記の図5、図6に示したように、認識ワードとして登録されている語句である。 Further, on the display screens V1 and V1a, the volume button B5 and the brightness button B6 are displayed in the same row as the scale button B1, the voice release button B2x, and the guidance stop button B4x. The volume button B5 is a button on which the instruction word “volume” for starting the volume change and the number “5” indicating the quantitative level of the current sound are displayed. The luminance button B6 is a button on which the directive "luminance" for starting the luminance change and the number "5" indicating the quantitative level of the current luminance are displayed. Further, the home button B7 is displayed on the upper right of the display screen V1. The home button B7 is a button on which the demonstrative word "home" is displayed to guide the route to the home. These demonstrative words and numbers indicating the quantitative level are words and phrases registered as recognition words as shown in FIGS. 5 and 6 above.

このように、複数のボタンによって構成される項目の表示領域は、背後の画像である地図が見える部分を有している。つまり、各ボタンの間には、隙間が開いていて、背後の地図が見えている。一方、キャラクター100の表示領域は、1つのボタンよりも大きく、地図と重なる部分において、背後が見える部分を有しない。なお、髪と身体、手足と胴体などの間に生じる隙間においては、背後の地図が見える部分が生じる場合があるが、キャラクター100の表示領域としては、このような部分を除く。 As described above, the display area of the item composed of the plurality of buttons has a portion where the map, which is the image behind, can be seen. In other words, there is a gap between each button so that you can see the map behind it. On the other hand, the display area of the character 100 is larger than one button and does not have a portion where the back can be seen in the portion overlapping the map. In the gaps between the hair and the body, the limbs and the torso, there may be a part where the map behind can be seen, but such a part is excluded from the display area of the character 100.

制御部18が表示部5に表示させるキャラクター100の位置は、現在位置や案内ルートの視認を邪魔しない位置である。図11の表示画面V1、図12の表示画面V1aでは、キャラクター100は、画面における右下に寄った位置に表示されており、上記の各ボタンは、これと左右若しくは上下の関係で反対側に寄った位置、左上若しくは右上に表示されている。 The position of the character 100 displayed on the display unit 5 by the control unit 18 is a position that does not interfere with the visual recognition of the current position or the guide route. In the display screen V1 of FIG. 11 and the display screen V1a of FIG. 12, the character 100 is displayed at a position closer to the lower right on the screen, and each of the above buttons is on the opposite side in a left-right or up-down relationship with the character 100. It is displayed at the closer position, upper left or upper right.

(ジャンル選択)
上記のナビ待機中の表示画面V1において、ユーザが、「しゅうへん」と発話すると、制御部18は、表示画面V1を、図13に示す周辺1の表示画面S1に遷移させるとともに、応答フレーズ「ねえ、どこ行く?」の音声を出力させる。このように、複数回の選択を行うことにより処理を進める周辺検索において、キャラクター100が、ジャンル選択という次の選択を促す発話を行うことにより、ユーザは次に何をすべきかが即座にわかるのでよい。一方、ナビ案内中のV1aの表示画面においては、周辺検索の機能は働かない。このため、ユーザが、「しゅうへん」と発話しても、これを認識した制御部18は、「何て言ったの? わかんない。」というキャラクターの音声を出力させて、周辺1の画面に遷移させない。このように、次に進めない処理を選択した場合には、キャラクター100が、これに対応した応答フレーズを発話することにより、ユーザが、当該表示画面ではその処理を行うことができないことがわかるのでよい。
(Genre selection)
When the user speaks "shuhen" on the display screen V1 during the navigation standby, the control unit 18 shifts the display screen V1 to the display screen S1 of the peripheral 1 shown in FIG. 13, and the response phrase ". Hey, where are you going? ”Is output. In this way, in the peripheral search that proceeds by making multiple selections, the character 100 makes an utterance that prompts the next selection called genre selection, so that the user can immediately know what to do next. good. On the other hand, on the display screen of V1a during navigation guidance, the peripheral search function does not work. Therefore, even if the user utters "Shuhen", the control unit 18 that recognizes this outputs the voice of the character "What did you say? I don't know." Do not make a transition. In this way, when the process that cannot be proceeded to the next is selected, the character 100 utters the response phrase corresponding to the process, so that the user cannot perform the process on the display screen. good.

制御部18は、上記のように、ユーザからの音声認識を起動させる音声の入力→これに対して用事を尋ねるキャラクターの応答フレーズの出力→これに対してユーザからの機能を開始させる音声の入力、というように、少なくとも一往復のやり取りがなされる対話を基本に処理を進行させる。この対話の中における応答フレーズの出力は、その応答フレーズが示す意味内容とともに、キャラクターがユーザの音声を認識したことを示す機能を果たしている。 As described above, the control unit 18 inputs voice to activate voice recognition from the user → outputs a response phrase of the character asking for errands to this → inputs voice to start the function from the user. , And so on, the process proceeds based on a dialogue in which at least one round-trip exchange is made. The output of the response phrase in this dialogue functions to indicate that the character has recognized the user's voice, as well as the meaning and content indicated by the response phrase.

上記のように、ユーザの発話により遷移した図13の表示画面S1には、制御部18は、認識ワードとしてのジャンル名が表示されたジャンルボタンB8を表示させる。これらのジャンルボタンB8に表示されたジャンル名は、図5のリスト番号4の認識ワードに対応している。このジャンルボタンB8は、ユーザがタッチして選択することもできる。ジャンル名は、漢字を含めず、ひらがな若しくはカタカナとしているので、運転者等が何を発話すればよいかが、視覚で容易にわかるのでよい。 As described above, the control unit 18 displays the genre button B8 on which the genre name as the recognition word is displayed on the display screen S1 of FIG. 13, which is transitioned by the user's utterance. The genre name displayed on these genre buttons B8 corresponds to the recognition word of the list number 4 in FIG. The genre button B8 can also be touched and selected by the user. Since the genre name does not include kanji and is hiragana or katakana, it is good because it is easy for the driver or the like to visually understand what to say.

この表示画面S1において、ユーザが、ボタンに表示された認識ワード、「ふぁみれす」を発話すると、制御部18は、キャラクターが応答フレーズ「一人ぼっちでファミレス行くの?」という音声を出力させる。すると、制御部18は、ファミリーレストランの候補を検索する処理に移行する。このため、ジャンル選択のフェーズとしては、さらにユーザが何らかの選択する必要はない。つまり、「一人ぼっちでファミレス行くの?」は、さらに次のジャンル選択は必要ないことをユーザにわからせる音声となっているのでよい。また、この応答フレーズは、話し相手であるキャラクター100以外は、自分が一人であることをユーザに意識させて、よりキャラクター100との親密さを高めることができるのでよい。 When the user utters the recognition word "Family" displayed on the button on the display screen S1, the control unit 18 causes the character to output a voice of the response phrase "Are you going to the family restaurant alone?". Then, the control unit 18 shifts to the process of searching for the candidate of the family restaurant. Therefore, the user does not need to make any further selection in the genre selection phase. In other words, "Are you going to the family restaurant alone?" Is good because it is a voice that makes the user know that the next genre selection is not necessary. Further, this response phrase may make the user aware that he / she is alone except for the character 100 with whom he / she is talking, and can further enhance the intimacy with the character 100.

また、ユーザが表示画面S1に表示されたジャンル以外のジャンルから選択したい場合のために、制御部18は、表示画面S1に、次のページへ遷移させる認識ワード「2ページ」を表示したページボタンB9を表示させている。この表示画面S1において、ユーザは、「にぺーじ」又は「つぎ」と発話すると、制御部18は、表示部5に表示させる画面を、図14の周辺2の表示画面S1aに遷移させる。 Further, in order for the user to want to select from a genre other than the genre displayed on the display screen S1, the control unit 18 displays a page button on the display screen S1 that displays the recognition word "2 pages" for transitioning to the next page. B9 is displayed. When the user speaks "nipage" or "next" on the display screen S1, the control unit 18 shifts the screen displayed on the display unit 5 to the display screen S1a of the periphery 2 of FIG.

この表示画面S1aには、図5のリスト番号5の認識ワードに対応するジャンル名が表示されたジャンルボタンB8が表示される。ユーザが、ジャンルボタンB8に表示されたジャンル名の認識ワードを発話すると、制御部18は、これに対する応答フレーズを出力させる。また、制御部18は、表示画面S1aに、前のページへ遷移させる認識ワード「1ページ」を表示したページボタンB9を表示させている。この表示画面S1aにおいて、ユーザは、「いちぺーじ」又は「まえ」と発話すると、制御部18は、表示部5に表示させる画面を、図13の周辺1の表示画面S1に遷移させる。 On the display screen S1a, a genre button B8 displaying a genre name corresponding to the recognition word of the list number 5 in FIG. 5 is displayed. When the user utters the recognition word of the genre name displayed on the genre button B8, the control unit 18 outputs a response phrase for this. Further, the control unit 18 displays a page button B9 displaying the recognition word "1 page" for transitioning to the previous page on the display screen S1a. When the user speaks "one page" or "before" on the display screen S1a, the control unit 18 shifts the screen displayed on the display unit 5 to the display screen S1 of the periphery 1 of FIG.

(施設選択)
このように、ジャンルが選択されると、制御部18は、当該ジャンルに属する現在地周辺の施設検索を行い、表示部5に表示させる画面を、図15に示すように、施設選択1の表示画面S2に遷移させる。この表示画面S2は、施設検索の結果が表示される。つまり、表示画面S2には、検索でヒットした施設が、地図上の所在地に、現在地に近い順に番号が付されたアイコンC1で表示されている。図15では、円形内に数字1~5を表示したアイコンC1が、地図上の位置に表示されている。このように周辺検索の結果は、ユーザにとって必要な目標(ジャンル)の施設しか表示しない。このとき、地図表示をグレースケールにして、アイコンC1をカラー表示することにより、施設の位置や番号がよりわかりやすくなる。また、別の画面からS2の画面に遷移した場合、制御部18は、「どこにしよっか?」といった目的地の選択を促す応答フレーズを出力させる。
(Facility selection)
In this way, when a genre is selected, the control unit 18 searches for facilities around the current location belonging to the genre, and displays the screen displayed on the display unit 5 on the display screen of the facility selection 1 as shown in FIG. Transition to S2. The result of the facility search is displayed on the display screen S2. That is, on the display screen S2, the facilities hit by the search are displayed by the icon C1 in which the locations on the map are numbered in the order of proximity to the current location. In FIG. 15, the icon C1 displaying the numbers 1 to 5 in a circle is displayed at a position on the map. In this way, the result of the peripheral search displays only the facilities of the target (genre) necessary for the user. At this time, by making the map display grayscale and displaying the icon C1 in color, the location and number of the facility can be more easily understood. Further, when the screen is changed from another screen to the screen of S2, the control unit 18 outputs a response phrase prompting the selection of the destination such as "Where should I go?".

ユーザは、表示画面S2において、アイコンC1の表示に合わせた内容で、施設を選択する。つまり、所望の施設のアイコンC1に表示された番号を発話すると、制御部18はこれに対応する応答フレーズを出力させて、当該施設までのルート探索を行う。例えば、「いち」又は「いちばん」を発話すると、キャラクター100が「1番ね」と発話して、1番で表示された施設までのルート探索が実行される。このように、ユーザが発話した番号をキャラクター100が発話することにより、ユーザが自らの指示内容を確認することができる。 The user selects a facility on the display screen S2 with the content matching the display of the icon C1. That is, when the number displayed on the icon C1 of the desired facility is spoken, the control unit 18 outputs a response phrase corresponding to the number and searches for a route to the facility. For example, when "Ichi" or "Ichiban" is spoken, the character 100 speaks "No. 1" and the route search to the facility displayed by No. 1 is executed. In this way, when the character 100 speaks the number spoken by the user, the user can confirm his / her own instruction content.

なお、表示画面S2には、スケールボタンB1と、リストボタンB10が表示されている。スケールボタンB1は、上記のように、地図スケールを変更するボタンである。この表示画面S2において、地図のスケールを変更したいユーザが、「すけーる」と発話すると、制御部18は、どのスケールに変更するかを促す応答フレーズを出力し、図16に示す施設選択2の表示画面S2aに遷移する。例えば、ユーザが「すけーる」と発話すると、制御部18は、「何か指示して」という応答フレーズを出力し、図16に示すように、スケールを変更するための+ボタンB1a、-ボタンB1bを表示させる。音声入力によるスケール変更処理については、後述する。 The scale button B1 and the list button B10 are displayed on the display screen S2. The scale button B1 is a button for changing the map scale as described above. On the display screen S2, when the user who wants to change the scale of the map speaks "skeleton", the control unit 18 outputs a response phrase prompting which scale to change, and the facility selection 2 shown in FIG. Transition to the display screen S2a of. For example, when the user utters "skeleton", the control unit 18 outputs a response phrase "instruct something", and as shown in FIG. 16, the + button B1a for changing the scale,- Display button B1b. The scale change process by voice input will be described later.

リストボタンB10は、施設を選択する画面を、アイコン表示からリスト表示に遷移させるボタンである。表示画面S2において、ユーザが、「りすと」又は「りすとひょうじ」と発話すると、制御部18は、表示部5に表示させる画面を、図17に示す施設選択1の表示画面S2_listに遷移させる。このS2_listの表示画面には、検索された施設が、アイコンではなく、施設選択ボタンB11が現在地に近い順に並べられたリストで表示される。各施設選択ボタンB11は、現在地に近い順に付された番号、施設名、現在位置から施設までの距離、所在地等が表示される。ユーザは、施設選択ボタンB11をタッチするか、ボタンに表示された番号を発話することにより、上記と同様に、施設を選択できる。施設選択ボタンB11には、番号の他、施設名、現在位置からの距離、所在地等が表示されるので、ユーザは、検索された施設についてのより詳細な情報を得ることができるのでよい。 The list button B10 is a button for transitioning the screen for selecting a facility from the icon display to the list display. When the user speaks "risto" or "risutohoji" on the display screen S2, the control unit 18 shifts the screen to be displayed on the display unit 5 to the display screen S2_list of the facility selection 1 shown in FIG. Let me. On the display screen of S2_list, the searched facilities are displayed as a list in which the facility selection button B11 is arranged in the order closer to the current location, instead of the icon. Each facility selection button B11 displays a number assigned in order of proximity to the current location, a facility name, a distance from the current position to the facility, a location, and the like. The user can select a facility in the same manner as described above by touching the facility selection button B11 or speaking the number displayed on the button. Since the facility selection button B11 displays the facility name, the distance from the current position, the location, and the like in addition to the number, the user may be able to obtain more detailed information about the searched facility.

制御部18は、検索された候補の数が、1ページの表示可能数(例えば、5個)よりも多い場合には、次ページが存在することを示す「2ページ」を表示したページボタンB9を表示させる。制御部18は、候補が1ページの表示可能数未満の場合には、ページボタンB9は非表示とする。ユーザは、「にぺーじ」又は「つぎ」と発話すると、制御部18は、図18に示す施設選択2の表示画面S2a_listに遷移させる。この表示画面S2a_listに表示されたリストにおける施設の選択処理は、上記と同様である。また、制御部18は、表示画面S2_listに、前のページへ遷移させる認識ワード「1ページ」を表示したページボタンB9を表示させる。この表示画面S1aにおいて、ユーザは、「いちぺーじ」又は「まえ」と発話すると、制御部18は、表示部5に表示させる画面を、図16の施設選択1の表示画面S1に遷移させる。 When the number of searched candidates is larger than the number that can be displayed on one page (for example, five), the control unit 18 displays the page button B9 indicating "2 pages" indicating that the next page exists. Is displayed. When the number of candidates is less than the number that can be displayed on one page, the control unit 18 hides the page button B9. When the user speaks "nipage" or "next", the control unit 18 transitions to the display screen S2a_list of the facility selection 2 shown in FIG. The facility selection process in the list displayed on the display screen S2a_list is the same as described above. Further, the control unit 18 causes the display screen S2_list to display the page button B9 displaying the recognition word “1 page” for transitioning to the previous page. When the user speaks "one page" or "before" on the display screen S1a, the control unit 18 shifts the screen displayed on the display unit 5 to the display screen S1 of the facility selection 1 in FIG.

(ルート選択)
以上のように、施設が選択されると、制御部18は、現在位置51から目的地52とする施設までのルート53を探索し、その結果を図19に示すルート選択1の表示画面R1に表示させる。探索されたルート53は、あらかじめ設定されたルート条件に基づいて、最も優先させるべきルート53が色分け表示される。このとき、キャラクター100は、ルート案内方向により、地図上で邪魔にならない位置に移動する。つまり、キャラクター100を、地図上の現在位置を含む探索されたルート表示を遮らない位置に表示させる。ただし、上記のように、キャラクター100は、既に画面の右下に表示されており、表示画面R1の例では、探索されたルートを邪魔しないので、この例では移動はない。
(Route selection)
As described above, when the facility is selected, the control unit 18 searches for the route 53 from the current position 51 to the facility as the destination 52, and displays the result on the display screen R1 of the route selection 1 shown in FIG. Display. As for the searched route 53, the route 53 to be given the highest priority is displayed in different colors based on the preset route conditions. At this time, the character 100 moves to a position on the map that does not get in the way depending on the route guidance direction. That is, the character 100 is displayed at a position that does not block the searched route display including the current position on the map. However, as described above, the character 100 is already displayed at the lower right of the screen, and in the example of the display screen R1, the searched route is not disturbed, so that there is no movement in this example.

一方、制御部18は、表示画面R1において、複数のボタンを、キャラクターと反対側、つまり左側に表示させる。複数のボタンは、数が少なければ、探索されたルート53に重なる部分は生じない。もし、ボタン数が多くなったとしても、各ボタンの間には、隙間が開いていて、地図やルート53が見える。これらのボタンには、スケールボタンB1が含まれる。ユーザが、スケール変更したい場合の操作は、図20に示したルート選択2の表示画面R1aにおいて行うが、これは後述する。 On the other hand, the control unit 18 displays a plurality of buttons on the display screen R1 on the opposite side to the character, that is, on the left side. If the number of the plurality of buttons is small, the portion overlapping the searched route 53 does not occur. Even if the number of buttons increases, there is a gap between each button so that the map and route 53 can be seen. These buttons include the scale button B1. The operation when the user wants to change the scale is performed on the display screen R1a of the route selection 2 shown in FIG. 20, which will be described later.

さらに、表示画面R1には、ルート条件を変更する指示語である「ルート条件」が表示されたルート条件ボタンB12が表示されている。ユーザが、「じょうけん」又は「るーとじょうけん」と発話すると、制御部18は、図21に示したルート選択3の表示画面R1bに遷移させる。この表示画面R1bにおいては、「ルート条件」のボタンの横に、「高速道」、「一般道」、「推奨」という優先すべき探索条件を選択する条件選択ボタンB12a、B12b、B12cが表示される。この表示画面R1bにおいて、ユーザが、「いっぱんどう」、「こうそくどう」又は「すいしょう」と発話すると、制御部18は、それぞれに応じた応答フレーズを出力して、探索条件を発話された条件に変更し、変更された探索条件で最も優先されるルート53を表示させる。例えば、制御部18は、一般道であれば、「うんうん、一般道でゆっくり行こう。」、高速道であれば、「高速道で時間短縮ね。」というように、それぞれの探索条件の利点を示す応答フレーズを出力する。また、推奨道であれば、「私に任せてくれるのね。」というキャラクターとの信頼関係を示す応答フレーズを出力する。 Further, on the display screen R1, a route condition button B12 on which "route condition", which is a demonstrative for changing the route condition, is displayed is displayed. When the user speaks "joken" or "rutojoken", the control unit 18 transitions to the display screen R1b of the route selection 3 shown in FIG. 21. On this display screen R1b, condition selection buttons B12a, B12b, and B12c for selecting priority search conditions such as "expressway", "general road", and "recommended" are displayed next to the "route condition" button. To. When the user utters "Ippando", "Kousokudo" or "Suisho" on the display screen R1b, the control unit 18 outputs a response phrase corresponding to each and utters the search condition. The condition is changed, and the route 53 having the highest priority in the changed search condition is displayed. For example, if the control unit 18 is a general road, "Yeah, let's go slowly on the general road.", And if it is a highway, "Time is shortened on the highway." Output a response phrase indicating the advantage. Also, if it is a recommended path, it outputs a response phrase that shows the relationship of trust with the character, "I'll leave it to me."

そして、表示画面R1には、表示されたルート53による案内を希望する場合に、指示語である「案内開始」が表示された案内開始ボタンB13が表示されている。ユーザが、所望のルート53が表示された画面において、「あんないかいし」、「あんないよろしく」又は「あんないして」と発話すると、制御部18は、「案内開始。言う通りに運転してくれ」という応答フレーズを出力して、ルート案内を開始する。 Then, on the display screen R1, the guidance start button B13 on which the demonstrative "guidance start" is displayed is displayed when the guidance by the displayed route 53 is desired. When the user utters "Annaikai", "Annai Regards" or "Annai" on the screen on which the desired route 53 is displayed, the control unit 18 "starts guidance. Output the response phrase "Take me" and start route guidance.

さらに、ユーザが、周辺検索をさせる「しゅうへん」又は戻るフレーズである「もどる」、「とりけし」若しくは「やりなおし」を発話すると、制御部18は、「再検索」という応答フレーズを出力して、図13に示したS1の表示画面に遷移させる。その後の周辺検索処理は、上記の通りである。戻るフレーズの発話に対しては、図15~図21に示した表示画面S2、S2a、S2_list、S2a_list、R1、R1a、R1bにおいては、同様の処理となる。 Further, when the user utters "shuhen" to search the surrounding area or the return phrase "return", "takeshi" or "redo", the control unit 18 outputs the response phrase "research". The transition is made to the display screen of S1 shown in FIG. The subsequent peripheral search process is as described above. For the utterance of the returning phrase, the same processing is performed on the display screens S2, S2a, S2_list, S2a_list, R1, R1a, and R1b shown in FIGS. 15 to 21.

なお、図11、12に示した音声認識開始の表示画面V1、V1aにおける戻るフレーズの発話に対しては、制御部18は、「また呼んでね。」という応答フレーズを出力して、図10に示した表示画面M1に遷移させて音声認識起動待ちに戻る。図13、14に示した周辺検索の表示画面S1、S1aにおける戻るフレーズの発話に対しては、制御部18は、「最初からね。」という応答フレーズを出力して、図11に示した音声認識開始の表示画面V1に遷移させる。このように、同じ認識ワードであっても、現在の表示画面及びこれに対応するフェーズに応じて、遷移させる表示画面が相違している。つまり、戻るフレーズに対して、遷移させる表示画面を変えることにより、戻り過ぎをなくして、ユーザが再度やり直す手間を抑えることができる。 In response to the utterance of the return phrase on the voice recognition start display screens V1 and V1a shown in FIGS. 11 and 12, the control unit 18 outputs a response phrase "Call me again." The screen transitions to the display screen M1 shown in 1 and returns to the waiting for voice recognition activation. In response to the utterance of the return phrase on the peripheral search display screens S1 and S1a shown in FIGS. 13 and 14, the control unit 18 outputs a response phrase "From the beginning." And the voice shown in FIG. Transition to the recognition start display screen V1. As described above, even if the recognition word is the same, the display screen to be transitioned is different depending on the current display screen and the corresponding phase. That is, by changing the display screen to be transitioned to the phrase to be returned, it is possible to eliminate excessive return and reduce the trouble of the user to start over again.

そして、本実施形態では、戻るフレーズとは別に、解除フレーズを用意している。ユーザが、「おんせいかいじょ」、「しゅうりょう」又は「げんざいち」と発話すると、常に、音声認識起動待ちの表示画面M1に戻る。このとき、制御部18は、「また呼んでね。」と、次回の利用を促す応答フレーズを出力させる。このように、表示画面やフェーズに応じて、戻る位置が異なる認識ワードと、一定の位置に戻る認識ワードとを登録しておくことで、ユーザが状況に応じて所望の画面への推移をすばやく行うことができる。 Then, in the present embodiment, a release phrase is prepared separately from the return phrase. When the user speaks "Onseikaijo", "Shuryo" or "Genzaichi", the screen always returns to the display screen M1 waiting for voice recognition to be activated. At this time, the control unit 18 outputs a response phrase urging the next use, saying "Call me again." In this way, by registering a recognition word that returns to a different position and a recognition word that returns to a certain position according to the display screen or phase, the user can quickly move to the desired screen according to the situation. It can be carried out.

さらに、画面やフェーズに応じて、処理できない認識ワードが発話された場合には、制御部18は、その認識ワードでは処理できないことを明示する応答フレーズを出力することにより、ユーザに、別のワードを発話すべきことを促すことができる。例えば、図12の表示画面V1a、図15~図18の表示画面S2、S2a、S2_list、S2a_listでは、「何って言ったの? わかんない。」という応答フレーズを出力している。 Further, when a recognition word that cannot be processed is spoken according to the screen or the phase, the control unit 18 outputs a response phrase clearly indicating that the recognition word cannot be processed, thereby telling the user another word. Can be encouraged to speak. For example, in the display screen V1a of FIG. 12 and the display screens S2, S2a, S2_list, and S2a_list of FIGS. 15 to 18, the response phrase "What did you say? I don't know." Is output.

《地図スケール変更》
制御部18は、対話に応じて、機能を変更する処理として、地図スケール、音量、輝度を変更する処理を行う。まず、地図スケールの変更の手順を、図22を参照して説明する。なお、図15の表示画面S2から、図16の表示画面S2aに遷移した場合、図19の表示画面R1から、図20の表示画面R1aに遷移した場合の地図スケールの変更も同様である。
《Change map scale》
The control unit 18 performs a process of changing the map scale, the volume, and the brightness as a process of changing the function according to the dialogue. First, the procedure for changing the map scale will be described with reference to FIG. 22. The same applies to the change of the map scale when the transition from the display screen S2 of FIG. 15 to the display screen S2a of FIG. 16 and the transition from the display screen R1 of FIG. 19 to the display screen R1a of FIG. 20.

音声認識を開始した図11、12の表示画面V1、V1aにおいて、地図スケールを変更したいユーザが「すけーる」と発話すると、制御部18は、図22の表示画面A1、A1aに遷移させる。表示画面A1は、表示画面V1から遷移した画面であり、表示画面A1aは表示画面V1aから遷移した画面である。表示画面A1では、別の画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A1aは、ナビ案内中における地図スケールの変更画面である。 When the user who wants to change the map scale speaks "skeleton" on the display screens V1 and V1a of FIGS. 11 and 12 in which the voice recognition is started, the control unit 18 transitions to the display screens A1 and A1a of FIG. 22. The display screen A1 is a screen transitioned from the display screen V1, and the display screen A1a is a screen transitioned from the display screen V1a. On the display screen A1, the control unit 18 outputs the response phrase "instruct something." Only when the transition is made from another screen (scene). In this way, even if the screen is switched, the character 100 may make an utterance prompting an instruction so that the user can always be aware that he / she is nearby. Further, the display screen A1a is a screen for changing the map scale during navigation guidance.

この表示画面A1、A1aにおいては、スケールボタンB1の右横に、+ボタンB1a、-ボタンB1bが表示されている。上記のように、ユーザが+ボタンB1aをタッチすると、制御部18は、地図スケールを段階的にアップさせる。また、ユーザが-ボタンB1bをタッチすると、制御部18は、地図スケールを段階的にダウンさせる。また、本実施形態では、ユーザが「かくだい」又は「しょうさい」と発話すると、これを認識した制御部18は、地図スケールを段階的にアップさせる。ユーザが「しゅくしょう」、「こういき」と発話すると、これを認識した制御部18は、地図スケールを段階的にダウンさせる。 On the display screens A1 and A1a, the + button B1a and the-button B1b are displayed on the right side of the scale button B1. As described above, when the user touches the + button B1a, the control unit 18 gradually raises the map scale. Further, when the user touches the-button B1b, the control unit 18 gradually lowers the map scale. Further, in the present embodiment, when the user speaks "Kakudai" or "Shosai", the control unit 18 that recognizes this utters, and the map scale is gradually increased. When the user speaks "shukusho" or "koiki", the control unit 18 that recognizes this utters, and the control unit 18 gradually lowers the map scale.

そして、制御部18は、スケールアップのときには、「拡大したよ。」、スケールダウンのときは「少し広域にしてみました。」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、スケールを変えるとスケールの上限又は下限を超えてしまう場合には、「ぶぶ~、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。 Then, the control unit 18 can confirm what kind of change has been made, such as "I expanded it" when scaling up and "I tried to make it a little wider" when scaling down. Is output. As a result, the user can confirm by voice what kind of processing has been performed. Further, when the upper limit or the lower limit of the scale is exceeded when the scale is changed, the control unit 18 outputs a response phrase informing that the scale cannot be changed, such as "Bubu ~, it's the limit." As a result, the user can prevent the user from repeating unnecessary change instructions without being able to confirm whether the upper limit has been reached or the lower limit has been reached.

また、ユーザが「じゅうめーとる」、「いちきろ」のように、所望のスケールの値を発話すると、これを認識した制御部18は、地図スケールを、発話された値にダイレクトに変更させる。このとき、制御部18は、ユーザの発話に対応する応答フレーズとして、「10メートル」、「1キロ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示したスケールのレベルを確認できる。 Further, when the user speaks a value of a desired scale such as "jume-toru" and "ichikiro", the control unit 18 that recognizes this directly changes the map scale to the spoken value. .. At this time, the control unit 18 outputs a response phrase corresponding to the input value, such as "10 meters" or "1 km", as a response phrase corresponding to the user's utterance. This allows the user to see the level of the scale he or she has instructed.

そして、ユーザが、「すけーる」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、スケール変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。 Then, when the user utters "skeleton" or utters a return phrase, the control unit 18 outputs a response phrase indicating that the scale change process is completed, such as "setting is completed." .. The processing with the release phrase is the same as above.

また、表示画面A1の場合には、自宅ボタンが表示されていて、ユーザが、このボタンをタッチするか、「じたく」と発話すると、制御部18は、次のように処理する。まず、あらかじめ自宅登録がなされていない場合には、制御部18は、「自宅って言うけど、私に教えてないでしょ。」というように、自宅登録を促す応答フレーズを出力させる。これにより、特定の機能を実行する前提として必要となる処理を、音声により促すので、当該機能を利用するために、何が必要かをユーザに理解させることができるのでよい。自宅登録がなされている場合には、制御部18は、「そうだね、帰ろっか。」という応答フレーズを出力させ、自宅へのルートを探索する。これにより、ユーザは、キャラクターが一緒に帰ってくれるような印象を得ることができるのでよい。 Further, in the case of the display screen A1, the home button is displayed, and when the user touches this button or utters "jitaku", the control unit 18 processes as follows. First, if the home registration has not been made in advance, the control unit 18 outputs a response phrase prompting the home registration, such as "I say home, but don't tell me." As a result, the processing required as a premise for executing a specific function is urged by voice, so that the user can understand what is necessary to use the function. If the home registration has been made, the control unit 18 outputs a response phrase "Yes, go home." And searches for a route to the home. This gives the user the impression that the character will return with him.

なお、表示画面A1aの場合には、ナビ案内中のため、特定の機能が制限される。つまり、周辺検索と、自宅へのルート案内については、表示画面A1aにおいては、実行できない。従って、ユーザが「しゅうへん」と発話しても、「何って言ったの? わかんない」という応答フレーズを出力させて、周辺検索を行わない。また、「じたく」と発話しても、制御部18は、「何って言ったの? わかんない」という応答フレーズを出力させて、自宅へのルート探索は行わない。このように、ユーザは、応答フレーズにより、処理ができないことを知ることができるのでよい。 In the case of the display screen A1a, a specific function is restricted because the navigation is being guided. That is, the peripheral search and the route guidance to the home cannot be executed on the display screen A1a. Therefore, even if the user utters "Shuhen", the response phrase "What did you say? I don't know" is output and the peripheral search is not performed. Further, even if the utterance "jitaku" is spoken, the control unit 18 outputs a response phrase "what did you say? I don't know" and does not search for a route to your home. In this way, the user may know from the response phrase that the process cannot be performed.

《音量変更》
音量変更の処理手順を、図23を参照して説明する。音声認識を開始した図11、12の表示画面V1、V1aにおいて、音量を変更したいユーザが「おんりょう」と発話すると、制御部18は、図23の表示画面A2、A2aに遷移させる。表示画面A2は、表示画面V1から遷移した画面であり、表示画面A2aは、表示画面V1aから遷移した画面である。表示画面A2では、別の画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A2aは、ナビ案内中における音量変更画面である。
《Volume change》
The procedure for changing the volume will be described with reference to FIG. 23. When the user who wants to change the volume speaks "Onryo" on the display screens V1 and V1a of FIGS. 11 and 12 in which the voice recognition is started, the control unit 18 transitions to the display screens A2 and A2a of FIG. 23. The display screen A2 is a screen transitioned from the display screen V1, and the display screen A2a is a screen transitioned from the display screen V1a. On the display screen A2, the control unit 18 outputs the response phrase "instruct something." Only when the transition is made from another screen (scene). In this way, even if the screen is switched, the character 100 may make an utterance prompting an instruction so that the user can always be aware that he / she is nearby. Further, the display screen A2a is a volume change screen during navigation guidance.

この表示画面A2、A2aにおいては、音量ボタンB5の右横に、+ボタンB5a、-のボタンB5bが表示されている。ユーザが+ボタンB5aをタッチすると、制御部18は、音量を段階的にアップさせる。また、ユーザが-ボタンB5bをタッチすると、制御部18は、音量を段階的にダウンさせる。また、本実施形態では、ユーザが「あっぷ」又は「おおきく」と発話すると、これを認識した制御部18は、音量を段階的にアップさせる。ユーザが「だうん」又は「ちいさく」と発話すると、これを認識した制御部18は、音量を段階的にダウンさせる。 On the display screens A2 and A2a, the + button B5a and the-button B5b are displayed on the right side of the volume button B5. When the user touches the + button B5a, the control unit 18 gradually raises the volume. Further, when the user touches the-button B5b, the control unit 18 gradually lowers the volume. Further, in the present embodiment, when the user speaks "appu" or "big", the control unit 18 that recognizes this utters the volume in a stepwise manner. When the user speaks "daun" or "small", the control unit 18 that recognizes this utters, and gradually lowers the volume.

そして、制御部18は、音量アップのときには、「音量ア~ップ」、音量ダウンのときは「音量ダウ~ン」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、音量を変えると音量の上限又は下限を超えてしまう場合には、「ぶぶー、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。 Then, the control unit 18 outputs a response phrase that can confirm what kind of change has been made, such as "volume up" when the volume is up and "volume down" when the volume is down. .. As a result, the user can confirm by voice what kind of processing has been performed. Further, when the upper limit or the lower limit of the volume is exceeded when the volume is changed, the control unit 18 outputs a response phrase notifying that the volume cannot be changed, such as "Boo, it's the limit." As a result, the user can prevent the user from repeating unnecessary change instructions without being able to confirm whether the upper limit has been reached or the lower limit has been reached.

また、ユーザが「ぜろ」、「いち」、「に」のように、所望の音量の値を発話すると、これを認識した制御部18は、音量を、発話された値にダイレクトに変更させる。このとき、制御部18は、ユーザの発話に対応する応答フレーズとして、「ゼロだよ」、「1だよ」、「2だよ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示した音量のレベルを確認できる。 Further, when the user speaks a desired volume value such as "Zero", "Ichi", and "Ni", the control unit 18 that recognizes this directly changes the volume to the spoken value. .. At this time, the control unit 18 outputs a response phrase corresponding to the input value, such as "zero", "1", and "2", as the response phrase corresponding to the user's utterance. .. As a result, the user can check the level of the volume specified by the user.

そして、ユーザが、「おんりょう」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、音量変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。その他の処理は、上記の地図スケールで説明した処理と同様である。 Then, when the user utters "Onryo" or utters a returning phrase, the control unit 18 outputs a response phrase indicating that the volume change process is completed, such as "Setting is completed." The processing with the release phrase is the same as above. Other processes are the same as the processes described in the map scale above.

《輝度変更》
輝度変更の処理手順を、図24を参照して説明する。音声認識を開始した図11、12の表示画面V1、V1aにおいて、輝度を変更したいユーザが「きど」と発話すると、制御部18は、図24の表示画面A3、A3aに遷移させる。表示画面A3は、表示画面V1から遷移した画面であり、表示画面A3aは、表示画面V1aから遷移した画面である。表示画面A3では、別画面(シーン)から遷移した場合のみ、制御部18は、「何か指示して。」という応答フレーズを出力させる。このように、画面が切り替わっても、キャラクター100が指示を促す発話をすることにより、いつも傍にいることをユーザに意識させることができるのでよい。また、表示画面A3aは、ナビ案内中における輝度変更画面である。
《Brightness change》
The procedure for changing the brightness will be described with reference to FIG. 24. When the user who wants to change the brightness speaks "Kido" on the display screens V1 and V1a of FIGS. 11 and 12 in which the voice recognition is started, the control unit 18 shifts to the display screens A3 and A3a of FIG. 24. The display screen A3 is a screen transitioned from the display screen V1, and the display screen A3a is a screen transitioned from the display screen V1a. On the display screen A3, the control unit 18 outputs the response phrase "instruct something." Only when the transition is made from another screen (scene). In this way, even if the screen is switched, the character 100 may make an utterance prompting an instruction so that the user can always be aware that he / she is nearby. Further, the display screen A3a is a brightness change screen during navigation guidance.

この表示画面A3、A3aにおいては、輝度ボタンB6の横に、+ボタンB6a、-ボタンB6bが表示されている。ユーザが+ボタンB6aをタッチすると、制御部18は、輝度を段階的にアップさせる。ユーザが-ボタンB6bをタッチすると、制御部18は、輝度を段階的にダウンさせる。また、本実施形態では、ユーザが「あっぷ」又は「あかるく」と発話すると、これを認識した制御部18は、輝度を段階的にアップさせる。ユーザが「だうん」又は「くらく」と発話すると、これを認識した制御部18は、輝度を段階的にダウンさせる。 On the display screens A3 and A3a, the + button B6a and the-button B6b are displayed next to the luminance button B6. When the user touches the + button B6a, the control unit 18 gradually increases the brightness. When the user touches the-button B6b, the control unit 18 gradually lowers the brightness. Further, in the present embodiment, when the user speaks "appu" or "akaruku", the control unit 18 that recognizes this utterance increases the brightness step by step. When the user speaks "Daun" or "Raku", the control unit 18 that recognizes this utters, and the brightness is gradually reduced.

そして、制御部18は、輝度アップのときには、「輝度ア~ップ」、ダウンのときは「輝度ダウ~ン」のように、どのような変更をしたかを確認できる応答フレーズを出力させる。これにより、ユーザは、どのような処理がなされたかを音声で確認できる。また、制御部18は、輝度を変えると輝度の上限又は下限を超えてしまう場合には、「ぶぶー、限界なんだけど。」のように、変更できない旨を知らせる応答フレーズを出力させる。これにより、ユーザは、上限になったか下限になったかを確認できずに無駄な変更指示を繰り返すことを防止できる。 Then, the control unit 18 outputs a response phrase that can confirm what kind of change has been made, such as "brightness up" when the brightness is up and "brightness down" when the brightness is down. As a result, the user can confirm by voice what kind of processing has been performed. Further, when the upper limit or the lower limit of the brightness is exceeded when the brightness is changed, the control unit 18 outputs a response phrase informing that the change cannot be made, such as "Boo, it's the limit." As a result, the user can prevent the user from repeating unnecessary change instructions without being able to confirm whether the upper limit has been reached or the lower limit has been reached.

また、ユーザが、「ぜろ」、「いち」、「に」のように、所望の輝度の値を発話すると、これを認識した制御部18は、輝度を、発話された値にダイレクトに変更させる。このとき、ユーザの発話に対応する応答フレーズとして、「ゼロだよ」、「1だよ」、「2だよ」のように、入力した値に対応する応答フレーズを出力させる。これにより、ユーザは、自分が指示した輝度のレベルを確認できる。 Further, when the user speaks a desired luminance value such as "Zero", "Ichi", and "Ni", the control unit 18 that recognizes this directly changes the luminance to the spoken value. Let me. At this time, as the response phrase corresponding to the user's utterance, the response phrase corresponding to the input value such as "zero", "1", and "2" is output. This allows the user to check the level of luminance that he or she has instructed.

そして、ユーザが、「きど」と発話するか、戻るフレーズを発話すると、制御部18は、「設定完了です。」というように、輝度変更処理が完了した旨を知らせる応答フレーズを出力させる。解除フレーズでの処理は、上記と同様である。その他の処理は、上記の地図スケールで説明した処理と同様である。 Then, when the user utters "Kido" or utters a returning phrase, the control unit 18 outputs a response phrase indicating that the luminance change process is completed, such as "setting is completed." The processing with the release phrase is the same as above. Other processes are the same as the processes described in the map scale above.

なお、表示画面A1、A1aにおいては、制御部18は、「おんりょう」又は「きど」と発話することにより、表示画面A2、A2a又は表示画面A3、A3aに遷移させる。表示画面A2、A2aにおいては、制御部18は、「きど」又は「すけーる」と発話することにより、表示画面A3、A3a又は表示画面A1、A1aに遷移させる。表示画面A3、A3aにおいては、制御部18は、「すけーる」又は「おんりょう」と発話することにより、表示画面A1、A1a又は表示画面A2、A2aに遷移させる。このように、量的レベルの変更処理の画面を、相互に遷移可能とすることにより、まとめて設定を変更したいユーザにとって、便利となるのでよい。 In the display screens A1 and A1a, the control unit 18 makes a transition to the display screens A2, A2a or the display screens A3, A3a by speaking "Onryo" or "Kido". On the display screens A2 and A2a, the control unit 18 transitions to the display screens A3, A3a or the display screens A1 and A1a by speaking "Kido" or "Skele". On the display screens A3 and A3a, the control unit 18 transitions to the display screens A1 and A1a or the display screens A2 and A2a by speaking "skeleton" or "onryo". In this way, by making the screens of the quantitative level change processing mutually transitionable, it may be convenient for the user who wants to change the settings collectively.

《タイムアウト処理》
次に、タイムアウト処理について説明する。タイムアウト処理は、制御部18が、所定の処理を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了する処理である。そして、所定の処理を開始した時点から、所定時間経過するまでの間に、制御部18は、キャラクターの応答フレーズとして、音声入力を促す音声を出力させる。
《Time-out processing》
Next, the timeout process will be described. The time-out process is a process of ending the process when the control unit 18 has not input a voice from the user and a predetermined time has elapsed from the time when the control unit 18 started the predetermined process. Then, from the time when the predetermined process is started until the predetermined time elapses, the control unit 18 outputs a voice prompting voice input as a response phrase of the character.

より具体的な処理を、図25を参照して説明する。タイムアウト処理としては、タイムアウトV1、S1、S2、R1、A1、A1aが設定されている。まず、タイムアウトV1の処理を説明する。制御部18は、上記の表示画面V1又はV1aにおいて、音声認識を起動してから15秒間音声認識が無い場合、タイムアウトステータス1として、ユーザの音声入力を促す応答フレーズを出力する。ここでは、音声認識開始の画面であるため、「ねえ、何か言って」という音声入力をお願いする応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 A more specific process will be described with reference to FIG. As the time-out process, time-outs V1, S1, S2, R1, A1, and A1a are set. First, the processing of the timeout V1 will be described. If there is no voice recognition for 15 seconds after the voice recognition is activated on the above display screen V1 or V1a, the control unit 18 sets the timeout status 1 and outputs a response phrase prompting the user to input the voice. Here, since it is the screen for starting voice recognition, a response phrase requesting voice input such as "Hey, say something" is output. Then, if there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition is completed as the timeout status 2, and ends the voice recognition. Here, a response phrase that seems a little angry is output because there is no voice input, such as "Hmm, already."

タイムアウトS1の処理は、次の通りである。制御部18は、表示画面S1、S1aに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、周辺検索の画面であるため、「ねえ、ねえ、どこ行くの?」というように、行き先を尋ねる応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 The processing of the timeout S1 is as follows. If there is no voice recognition for 15 seconds after transitioning to the display screens S1 and S1a, the control unit 18 outputs a response phrase prompting voice input as the timeout status 1. Here, since it is a peripheral search screen, a response phrase asking the destination is output, such as "Hey, hey, where are you going?". Then, if there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition is completed as the timeout status 2, and ends the voice recognition. Here, a response phrase that seems a little angry is output because there is no voice input, such as "Hmm, already."

タイムアウトS2の処理は、次の通りである。制御部18は、表示画面S2、S2a、S2_list、S2a_listに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、施設選択の画面であるため、「まだ決まらないの?」というように、施設選択を促す応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 The processing of the timeout S2 is as follows. If there is no voice recognition for 15 seconds after transitioning to the display screens S2, S2a, S2_list, and S2a_list, the control unit 18 sets the timeout status 1 and outputs a response phrase prompting voice input. Here, since it is a facility selection screen, a response phrase prompting the facility selection is output, such as "Isn't it decided yet?". Then, if there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition is completed as the timeout status 2, and ends the voice recognition. Here, a response phrase that seems a little angry is output because there is no voice input, such as "Hmm, already."

タイムアウトR1の処理は、次の通りである。制御部18は、表示画面R1、R1a、R1bに遷移してから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、ルート選択の画面であるため、「黙ってると案内しちゃうけど。」というように、音声入力がなくても、次の処理を進めてしまうことを通知する応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識が無い場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、音声認識を終了させる。ここでは、「案内開始。言う通りに運転してくれる?」というように、次の処理を開始することを通知する応答フレーズを出力する。 The processing of the timeout R1 is as follows. If there is no voice recognition for 15 seconds after transitioning to the display screens R1, R1a, R1b, the control unit 18 sets the timeout status 1 and outputs a response phrase prompting voice input. Here, since it is a route selection screen, a response phrase is output to notify that the next process will proceed even if there is no voice input, such as "I will guide you if you keep silent." Then, if there is no voice recognition for 15 seconds from the output of the response phrase, the control unit 18 outputs a response phrase notifying that the voice recognition is completed as the timeout status 2, and ends the voice recognition. Here, a response phrase is output to notify that the next process is to be started, such as "Start guidance. Will you drive as you say?".

タイムアウトA1の処理は、次の通りである。制御部18は、表示画面A1、A2、A3、A1a、A2a、A3aに遷移してから、15秒間音声認識がない場合に、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、設定変更の画面であるため、「指示、お願い」というように、設定変更を促す応答フレーズを出力する。そして、この応答フレーズ出力から15秒間、音声認識がない場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、設定変更せずに、音声認識を終了させる。ここでは、「ん、もう。」と、音声入力がないことに、やや怒ったような応答フレーズを出力する。 The processing of the timeout A1 is as follows. The control unit 18 outputs a response phrase prompting voice input as the timeout status 1 when there is no voice recognition for 15 seconds after transitioning to the display screens A1, A2, A3, A1a, A2a, A3a. Since this is a setting change screen, a response phrase prompting the setting change is output, such as "instruction, request". Then, if there is no voice recognition for 15 seconds from this response phrase output, the control unit 18 outputs a response phrase notifying that the voice recognition is completed as the timeout status 2, and the voice recognition is performed without changing the setting. To end. Here, a response phrase that seems a little angry is output because there is no voice input, such as "Hmm, already."

タイムアウトA1aの処理は、次の通りである。制御部18は、表示画面A1、A2、A3、A1a、A2a、A3aに遷移して、ボタンの選択又は音声により、設定の変更を指示する入力がなされてから、15秒間音声認識がない場合、タイムアウトステータス1として、音声入力を促す応答フレーズを出力する。ここでは、「指示、お願い」というように、音声入力による設定変更の決定指示を促す応答フレーズを出力させる。その後、15秒間音声認識がない場合、制御部18は、タイムアウトステータス2として、音声認識が終了することを通知する応答フレーズを出力して、設定変更を完了させ、音声認識を終了させる。ここでは、「設定完了です。」と設定変更の完了を通知する応答フレーズを出力する。 The processing of the time-out A1a is as follows. When the control unit 18 transitions to the display screens A1, A2, A3, A1a, A2a, and A3a and there is no voice recognition for 15 seconds after the input instructing the setting change is made by selecting a button or by voice. As the timeout status 1, a response phrase prompting voice input is output. Here, a response phrase such as "instruction, request" is output to prompt the decision instruction of the setting change by voice input. After that, when there is no voice recognition for 15 seconds, the control unit 18 outputs a response phrase notifying that the voice recognition is completed as the timeout status 2, completes the setting change, and ends the voice recognition. Here, the response phrase notifying the completion of the setting change is output as "setting is completed."

タイムアウト処理は、頻繁に生じる可能性があるが、以上のように、表示画面やフェーズに合わせて、タイムアウトステータス1、タイムアウトステータス2の応答フレーズの内容が変化させることにより、ユーザに飽きがこないのでよい。 Time-out processing may occur frequently, but as described above, the contents of the response phrases of time-out status 1 and time-out status 2 are changed according to the display screen and phase, so that the user does not get bored. good.

[作用効果]
以上のような実施形態によれば、車両の搭乗者であるユーザの一方的な指示に対してシステムが情報を提供するのではなく、ユーザがキャラクターと対話することにより、知りたい情報を得ることができるので、操作や運転の面白さが増大するとともに、キャラクターとコミュニケーションをとっている感覚が得られて飽きがこない。また、ユーザは、キャラクターと対話するために、システムを操作する意欲が湧くので、システムの機能が有効に活用される。
[Action effect]
According to the above embodiment, the system does not provide information to the one-sided instruction of the user who is the passenger of the vehicle, but the user interacts with the character to obtain the information he / she wants to know. As a result, the fun of operation and driving increases, and the feeling of communicating with the character is obtained, so that you will never get tired of it. In addition, the user is motivated to operate the system in order to interact with the character, so that the functions of the system are effectively utilized.

所定のキャラクターを、システムから出力される音声により、特定の個性を持った話者を認識させるように、応答フレーズが登録されているので、ユーザは、実際の人間と対話しているような感覚が得られて、親しみが持てる。 Since the response phrase is registered so that the predetermined character can recognize the speaker with a specific personality by the voice output from the system, the user feels as if he / she is interacting with an actual human being. Is obtained and can be familiar.

対話としては、例えば、発話の開始、これに対する応答、応答に対する返答という少なくとも一往復のやり取りがなされるように設定されているので、単純にユーザの命令通りにシステムが処理を行うのではなく、キャラクターが、自分とシステムの間に介在して、サービスを提供してくれている感覚を、ユーザが得ることができる。 The dialogue is set so that, for example, at least one round-trip exchange of the start of an utterance, the response to the utterance, and the response to the response is performed, so that the system does not simply process according to the user's instruction. The user can get the feeling that the character intervenes between himself and the system and provides the service.

ユーザは、音声認識を用いることにより、手操作よりも簡単又は迅速に出力させることができるので、積極的に音声認識を利用するようになり、ユーザにキャラクターとの対話をさせる機会をより多く与えることができる。 By using voice recognition, the user can output more easily or quickly than by manual operation, so that the user will actively use voice recognition and give the user more opportunities to interact with the character. be able to.

特に、手操作が難しい、手操作が制限されている等により、運転者が運転中に所望の情報を得ることが困難な場合でも、音声認識を利用することにより、キャラクターとの対話を楽しみながら、所望の情報を得ることができる。 In particular, even when it is difficult for the driver to obtain the desired information while driving due to difficulty in manual operation, limited manual operation, etc., by using voice recognition, while enjoying dialogue with the character. , The desired information can be obtained.

情報を出力するために複数の選択を経る必要がある場合に、選択するごとに手操作が必要となる場合に比べて、音声入力による方が、ユーザにとって操作が簡単となる。複数の選択を経て出力される情報として、例えば、階層化された構造の情報、複数回の操作をしなければ出力できない情報は、手操作を複数回行うよりも、ユーザの負担が少なくなる。 When it is necessary to go through a plurality of selections in order to output information, it is easier for the user to operate by voice input than when a manual operation is required for each selection. Information that is output through a plurality of selections, for example, information having a layered structure and information that cannot be output without performing a plurality of operations, is less burdensome to the user than performing a manual operation a plurality of times.

特に、施設検索、現在地周辺検索などのように、複数の候補の中から順次絞り込んでいくことにより得られる情報を出力する処理は、例えば、ブレーキやアクセルのように車両自体を動かすための操作や、ウィンカーのように走行中に安全のために外部に何かを知らせるための操作とは異なり、手操作によりダイレクトに実行させることが難しいので、音声認識による操作に適している。 In particular, processes that output information obtained by sequentially narrowing down from multiple candidates, such as facility search and search around the current location, are operations for moving the vehicle itself, such as brakes and accelerators. Unlike the operation for notifying the outside for safety while driving like a winker, it is difficult to directly execute it by manual operation, so it is suitable for the operation by voice recognition.

ユーザは、キャラクターの音声に促されて選択することにより、所定の処理を順次進めることができる。例えば、次の選択へ誘導する応答フレーズとして、周辺検索で「周辺」というユーザの音声を認識した場合に、「ねえ、どこ行く?」というように、行先を尋ねる音声を出力するので、ユーザが、次に何を発話すればよいかが明確にわかる。 The user can sequentially proceed with a predetermined process by being prompted by the voice of the character to make a selection. For example, as a response phrase to guide to the next selection, when the user's voice "periphery" is recognized in the peripheral search, the voice asking the destination is output, such as "Hey, where are you going?", So that the user can output the voice. , You can clearly see what to say next.

次の選択がない場合に、これを示すキャラクターの音声を出力するので、ユーザは、さらに処理を進める必要がなくなったことがわかり、指示を終了する、別の処理を行わせる等の判断ができる。例えば、次の選択がないことを示すキャラクターの音声として、周辺検索で「ファミレス」というユーザの音声を認識した場合に、「ひとりぼっちでファミレス行くの?」のようにすれば、ユーザに新たに別の判断を求めることができる。 If there is no next selection, the voice of the character indicating this is output, so the user knows that there is no need to proceed further, and can decide to end the instruction, perform another process, etc. .. For example, if the user's voice "Family restaurant" is recognized as the voice of the character indicating that there is no next selection, "Are you going to the family restaurant alone?" You can ask for another judgment.

現在地等、所望の地点の周辺の施設の情報を、面倒な手操作を不要としつつ、ユーザが、キャラクターとの対話を楽しみながら取得することができる。 The user can enjoy the dialogue with the character while acquiring the information of the facilities around the desired point such as the current location without the need for troublesome manual operation.

検索された周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させるので、地図上で、ユーザに必要な施設の情報が目立つことになり、ユーザが施設の位置を把握しやすく、音声により所望の施設を選択する際の目安となる。特に、アイコンをカラー表示し、地図をグレースケールで表示するので、アイコンが非常にはっきりと見える。 Since the icon indicating the searched surrounding facilities is highlighted relatively compared to the map, the information on the facilities required by the user becomes conspicuous on the map, and it is easy for the user to grasp the location of the facility. It will be a guide when selecting the desired facility by voice. In particular, the icons are displayed in color and the map is displayed in grayscale, so the icons are very clearly visible.

施設のアイコンに、現在地との近さの順位が区別できる表示をするので、ユーザが施設を選択する目安とすることができる。特に、番号、アルファベットのように本来的に順位を示す情報としているので、順位の意味を容易に把握できる。 Since the icon of the facility displays the order of proximity to the current location, it can be used as a guide for the user to select the facility. In particular, since the information originally indicates the ranking, such as numbers and alphabets, the meaning of the ranking can be easily grasped.

表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識して、選択された施設までの経路を探索して表示させるので、ユーザは、施設名で選択するよりも、表示されたアイコンに合わせた内容で簡単に選択することができる。特に、表示された番号を発話すればよいので、施設名よりも覚えやすい言葉で、施設を選択することができる。 The user recognizes the voice of the user who selects one of the facilities with the content according to the displayed icon, searches for the route to the selected facility, and displays it, so the user does not select by the facility name. , You can easily select the content according to the displayed icon. In particular, since you only have to speak the displayed number, you can select the facility with words that are easier to remember than the facility name.

ユーザが、探索された経路を希望しない場合に、キャラクターとの対話をしながら、探索し直しを指示することができるので、やり直し時の手間や退屈な気持ちを緩和させることができる。 When the user does not want the searched route, he / she can instruct the search again while interacting with the character, so that the troublesome and boring feeling at the time of redoing can be alleviated.

ユーザが、対話する相手となるキャラクターの姿を表示画面で見ることにより、親しみを覚えて、その姿を見るためにシステムを積極的に利用したいと思うようになる。 By seeing the appearance of the character with whom the user interacts on the display screen, the user becomes familiar with the character and wants to actively use the system to see the appearance.

そして、キャラクターは、地図上の探索された経路表示を遮らない位置に、表示されるので、キャラクターの表示を楽しませつつ、探索された経路の見やすさを維持できる。
キャラクターが、探索された経路と反対側に寄った場合に、項目の表示領域は、探索された経路と重なる可能性があるが、各項目は、キャラクターよりも小さく、項目の表示領域は背後の画像が見える部分を有しているので、探索された経路がキャラクターと重なるよりも、背後の画像が見やすい。
Then, since the character is displayed at a position on the map that does not block the searched route display, it is possible to maintain the visibility of the searched route while enjoying the display of the character.
If the character moves to the opposite side of the searched route, the display area of the item may overlap with the searched route, but each item is smaller than the character and the display area of the item is behind. Since it has a part where the image can be seen, the image behind it is easier to see than the searched route overlaps with the character.

キャラクターの音声を、あらかじめ設定された複数の異なる応答フレーズの中から、既に出力した応答フレーズを除いてランダムに選択して出力するので、同じフレーズばかりが出力されず、ユーザに飽きがこない。 Since the character's voice is randomly selected and output from a plurality of preset different response phrases, excluding the already output response phrases, only the same phrases are not output, and the user does not get bored.

共通の認識ワードに対して異なる複数の応答フレーズが登録されたリストが設定されているので、ユーザが共通の内容の発話をしても、キャラクターは異なる表現で返答することができ、何度も同じ処理を実現させる場合でも、キャラクターからどんな返答が来るかを楽しむことができる。 Since a list is set in which different response phrases are registered for a common recognition word, even if the user utters a common content, the character can respond with different expressions, and many times. Even if you realize the same process, you can enjoy what kind of response comes from the character.

キャラクターは、標準レイ、変身後のレイ、ちびレイという同一人でありながら、複数の表示態様があり、出力される音声として、複数の表示態様毎に異なるフレーズが登録されているので、同じキャラクターでも、複数の表示態様に応じて、発話内容が異なり、同一人との対話でありながら、変化を楽しむことができるのでよい。特に、標準的なもの、衣服や髪型等を変えて変身したもの、頭身を変えたものとするので、大人っぽい、子供っぽい、かわいい、きれい等の多様な印象をユーザに与え、飽きさせない。 Although the character is the same person as standard ray, transformed ray, and chibi ray, there are multiple display modes, and different phrases are registered for each of the multiple display modes as the output voice, so the same character. However, the content of the utterance differs depending on the plurality of display modes, and it is good that the change can be enjoyed while having a dialogue with the same person. In particular, since it is a standard one, one that has been transformed by changing clothes and hairstyle, and one that has a different head and body, it gives users a variety of impressions such as adult-like, child-like, cute, and beautiful, and gets tired of it. I won't let you.

認識ワードは、ボタン等に項目表示されているので、ユーザは、所定の処理を実行させるために、表示された項目を見れば、何を言えばいいかがわかる。 Since the recognition word is displayed as an item on a button or the like, the user can know what to say by looking at the displayed item in order to execute a predetermined process.

認識ワードは、表示画面にかかわらず共通して認識できる認識語句と、表示画面に表示されたものに認識が制限される認識ワードとがあるので、共通して認識できる認識ワードによって、表示画面にかかわらず必要となる機能の利便性を維持しつつ、認識が制限される認識ワードによって、誤認識の可能性を低減できる。複数種の表示画面で共通して使用される認識ワードについては、表示画面に応じて機能が制限される可能性が低くなり、利便性を維持できる。特に、戻るフレーズや解除フレーズのように、他の表示画面へ遷移させる語句なので、どの画面でも使用する必要がある語句である。一方、表示画面に表示された認識ワード、検索対象となる認識ワードは、それ以外の語句を認識させる必要性が乏しく、認識ワードの数を少なくして誤認識を防ぐ必要性が高い。 There are two types of recognition words: recognition words that can be recognized in common regardless of the display screen, and recognition words whose recognition is restricted to those displayed on the display screen. Regardless of this, the possibility of erroneous recognition can be reduced by the recognition word whose recognition is limited while maintaining the convenience of the required function. For recognition words that are commonly used on multiple types of display screens, the possibility that the functions are limited according to the display screen is low, and convenience can be maintained. In particular, it is a phrase that needs to be used on any screen because it is a phrase that transitions to another display screen, such as a return phrase or a release phrase. On the other hand, the recognition word displayed on the display screen and the recognition word to be searched have little need to recognize other words and phrases, and it is highly necessary to reduce the number of recognition words to prevent erroneous recognition.

量的に変化する機能の状態を、音声認識によりダイレクトに所望の量的レベルとすることができるので、小さな値と大きな値との間で段階的に変化させる場合に比べて、即座に所望の値とすることができ、ユーザの手間がかからず、操作に拘束される時間が短縮される。特に、音量、輝度、スケールなどのボタンを選択して+-や目盛を表示させ、+-の選択や、目盛上のスライドにより段階を追ってアップダウンさせる手間が省ける。 Since the state of the function that changes quantitatively can be directly set to the desired quantitative level by voice recognition, it is immediately desired as compared with the case where it is gradually changed between a small value and a large value. It can be a value, which saves the user time and reduces the time to be constrained by the operation. In particular, it is possible to save the trouble of selecting +-and scales by selecting buttons such as volume, brightness, and scale, and step-by-step ups and downs by selecting +-and sliding on the scales.

認識ワードとして、量的に変化する機能に対応する指示語と、量的レベルを示す数字が設定されているので、ユーザが所望の機能に対応する指示語と数字を発話すると、当該機能の量的レベルを、その数字のレベルにまでダイレクトにアップ、ダウンさせることができる。特に、指示語として「おんりょう」、「きど」、「すけーる」、数字として「いち」、「に」、「にきろ」などとするので、ユーザにとって直感的に理解しやすい機能の名称と数字を用いて、入力ができる。 As a recognition word, an instruction word corresponding to a function that changes quantitatively and a number indicating a quantitative level are set. Therefore, when the user utters an instruction word and a number corresponding to a desired function, the amount of the function is concerned. You can directly raise or lower the target level to that number level. In particular, the demonstrative words are "onryo", "kido", "skeleton", and the numbers are "ichi", "ni", "nikiro", etc., so the name of the function is intuitive and easy for the user to understand. You can enter using numbers.

機能を選択するためのボタンに、当該機能に対応する指示語が表示されているので、ユーザは、ボタンに表示された指示語を言えば、機能を選択できるので、ユーザにとってわかりやすい。 Since the demonstrative word corresponding to the function is displayed on the button for selecting the function, the user can select the function by saying the demonstrative word displayed on the button, which is easy for the user to understand.

機能を選択するためのボタンであって、当該機能の現在の量的レベルの値が表示されているので、ユーザは、ボタンに表示された値を見ることにより、現在の量的レベルを確認して、所望の値へアップさせるべきか、ダウンさせるべきかを判断できる。例えば、地図のスケールで、小さなスケールの値がボタンに表示されている場合に、ユーザがそれよりも大きな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に広範囲の地図を見渡すことができる。また、例えば、大きなスケールの値がボタンに表示されている場合に、ユーザがそれよりも小さな値を言うと、ボタンに表示されるスケールの値もその値にダイレクトに変わり、即座に詳細な地図を見ることができる。 Since it is a button for selecting a function and the value of the current quantitative level of the function is displayed, the user can confirm the current quantitative level by looking at the value displayed on the button. Therefore, it can be determined whether the desired value should be increased or decreased. For example, on a map scale, if a button displays a small scale value and the user says a larger value, the scale value displayed on the button will change directly to that value and instantly. You can see a wide range of maps. Also, for example, if a button displays a large scale value and the user says a smaller value, the scale value displayed on the button will change directly to that value, instantly providing a detailed map. Can be seen.

所定の処理を開始した時点から、ユーザからの音声の入力がなく所定時間経過した場合に、処理を終了するタイムアウト処理を行うので、音声認識を長期間継続することによって生じる誤操作を防止できるのでよい。 Since time-out processing is performed to end the processing when a predetermined time has elapsed without input of voice from the user from the time when the predetermined processing is started, it is sufficient to prevent erroneous operation caused by continuing voice recognition for a long period of time. ..

所定の処理を開始した時点から、所定時間経過するまでの間に、キャラクターが、ユーザに音声入力を促す音声を出力するので、ユーザが処理の開始を忘れている場合に、音声入力を促すことができる。 Since the character outputs a voice prompting the user to input voice from the time when the predetermined process is started until the predetermined time elapses, the character prompts the user to input voice when the user forgets to start the process. Can be done.

[他の実施形態]
本発明は、上記の実施形態に限定されるものではなく、以下に例示する形態も含めて、種々の形態を構成可能である。
[Other embodiments]
The present invention is not limited to the above-described embodiment, and various forms can be configured including the embodiments exemplified below.

《ジャンル登録》
ユーザが、周辺検索のジャンルの項目について、所望の項目のみを表示部5の表示画面に表示させるジャンル登録の機能を説明する。これにより、ユーザが良く使うであろうジャンルを予め表にしておくことで、ユーザのオリジナルな周辺検索画面を作成できる。より具体的には、制御部18は、ジャンルの認識ワードに対応する項目のうち、いずれの項目を認識ワードとして機能させるかを選択させる項目の表を、表示部5に表示させる。ユーザがこの表の中から所望の項目を選択すると、制御部18は、選択された項目を表示部5にボタン表示させるページに設定する。
《Genre registration》
The genre registration function of displaying only desired items on the display screen of the display unit 5 for the items of the genre of the peripheral search will be described. As a result, the user's original peripheral search screen can be created by tabulating the genres that the user will often use in advance. More specifically, the control unit 18 causes the display unit 5 to display a table of items for selecting which item corresponds to the recognition word of the genre to function as the recognition word. When the user selects a desired item from this table, the control unit 18 sets the selected item on the page to be displayed on the display unit 5 as a button.

このような表示画面例を、図26を参照して説明する。まず、表示画面(1)は、上記の実施形態と同様に、制御部18が、表示部5に表示させた地図画面の右下に重ねて、キャラクター100を表示させるとともに、地図画面の左に重ねて、周辺施設をジャンルで選択して検索するための周辺ボタンB3を表示させている。 An example of such a display screen will be described with reference to FIG. 26. First, on the display screen (1), as in the above embodiment, the control unit 18 superimposes the character 100 on the lower right of the map screen displayed on the display unit 5, and displays the character 100 on the left side of the map screen. Again, the peripheral button B3 for selecting and searching for peripheral facilities by genre is displayed.

この表示画面(1)において、ユーザが、周辺ボタンB3をタッチするか、音声認識の起動と周辺検索を指示する認識ワードとして登録された2ワードである「れい」、「しゅうへん」を発話すると、これを認識した制御部18は、表示画面(2)に示す一発ジャンル選択画面に遷移させる。 On this display screen (1), when the user touches the peripheral button B3 or utters the two words "Rei" and "Shuhen" registered as recognition words instructing the activation of voice recognition and the peripheral search. The control unit 18 that recognizes this transitions to the one-shot genre selection screen shown in the display screen (2).

このように、2ワード音声認識起動により表示された表示画面(2)は、ジャンル名を表示した複数のボタンを配置することにより、複数の項目から成る表を表示したものである。このジャンル名の項目からなる表は、ユーザが、それぞれのボタンを選択するか、ジャンル名を発話すると、制御部18は、表示画面(3)に示すように、そのジャンルの施設を検索して、検索された施設を、現在地51から近い順に番号を付して地図上に表示させる。 As described above, the display screen (2) displayed by activating the two-word voice recognition displays a table composed of a plurality of items by arranging a plurality of buttons displaying the genre name. In the table consisting of items of this genre name, when the user selects each button or speaks the genre name, the control unit 18 searches for facilities of that genre as shown in the display screen (3). , The searched facilities are numbered in order from the current location 51 and displayed on the map.

ユーザが、表示画面(3)に表示された所望の施設アイコンをタッチするか、所望の施設アイコンに表示された番号を発話すると、制御部18は、現在地から選択された施設までのルート探索を実行して、表示画面(4)に示すように、探索されたルート53を色分け表示する。 When the user touches the desired facility icon displayed on the display screen (3) or utters the number displayed on the desired facility icon, the control unit 18 searches for a route from the current location to the selected facility. This is executed, and as shown in the display screen (4), the searched route 53 is displayed in different colors.

このとき、キャラクター100は、ルート案内方向により、地図上で邪魔にならない位置に移動する。つまり、キャラクター100を、地図上の現在位置を含む探索されたルート表示を遮らない位置に表示させる。さらに、ユーザが、案内開始を発話すると、表示画面(5)に示すように、制御部18は、ルート案内を開始する。このルート案内中においても、キャラクター100を、地図上の現在位置51を含む探索されたルート53の表示を遮らない位置に表示させる。 At this time, the character 100 moves to a position on the map that does not get in the way depending on the route guidance direction. That is, the character 100 is displayed at a position that does not block the searched route display including the current position on the map. Further, when the user utters the guidance start, the control unit 18 starts the route guidance as shown in the display screen (5). Even during this route guidance, the character 100 is displayed at a position on the map that does not block the display of the searched route 53 including the current position 51.

表示画面(2)の表の下部には、「戻る」、「変更」、「現在地」という三つのボタンが表示される。このうち、「戻る」ボタンは、ユーザがタッチするか、「もどる」という発話をすると、これを認識した制御部18が、1つ前の画面に遷移させるボタンである。「現在地」ボタンは、ユーザがタッチするか、「げんざいち」という発話をすると、これを認識した制御部18が、現在地51を表示する表示画面に遷移させるボタンである。ここでは、「戻る」ボタンが選択された場合にも、「現在地」ボタンが選択された場合にも、表示画面(1)に遷移する。 At the bottom of the table on the display screen (2), three buttons, "Back", "Change", and "Current location" are displayed. Of these, the "back" button is a button that, when the user touches it or makes an utterance of "return", the control unit 18 that recognizes this makes a transition to the previous screen. The "current location" button is a button that, when the user touches or utters "genzaichi", the control unit 18 that recognizes this transitions to the display screen displaying the current location 51. Here, the transition to the display screen (1) is performed regardless of whether the "back" button is selected or the "current location" button is selected.

「変更」ボタンは、ユーザがタッチするか、「へんこう」という発話をすると、これを認識した制御部18は、表示画面(6)に示す一発ジャンル変更画面に遷移させる。この一発ジャンル変更画面には、現在、一発ジャンル選択画面として登録されているジャンルが、これと同じ並び順で表示される。ここで、いずれかのジャンルのボタンをユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、それぞれのジャンル名が所属する大項目の表示画面(7)~(10)のいずれかに遷移させる。 When the user touches the "change" button or utters "henkou", the control unit 18 that recognizes this causes the transition to the one-shot genre change screen shown in the display screen (6). On this one-shot genre change screen, the genres currently registered as the one-shot genre selection screen are displayed in the same order. Here, when the user touches a button of any genre or utters a genre name, the control unit 18 that recognizes this touches the display screens (7) to (10) of the major items to which each genre name belongs. Transition to one of.

例えば、ユーザが、「駅」を選択すると、「駅」が所属する大項目「ホテル・公共施設・他」に所属するジャンル名が表示された表示画面(7)に遷移する。表示画面(7)では、表示画面(2)に表示されるジャンル名は、特定の濃い色で表示され、表示画面(2)に表示されないジャンル名は、これより薄い色で表示されている。例えば、表示画面(2)に表示される「駅」は青色の文字で表示され、表示画面(2)に表示されない「駐車場」はグレーの文字で表示されている。 For example, when the user selects "station", the screen transitions to the display screen (7) in which the genre name belonging to the major item "hotel / public facility / others" to which the "station" belongs is displayed. On the display screen (7), the genre name displayed on the display screen (2) is displayed in a specific dark color, and the genre name not displayed on the display screen (2) is displayed in a lighter color. For example, the "station" displayed on the display screen (2) is displayed in blue characters, and the "parking lot" not displayed on the display screen (2) is displayed in gray characters.

ここで、表示画面(7)に表示されているジャンル名をユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、選択されたジャンル名を、表示画面(7)に表示されないジャンル名とする。このとき、当該ジャンル名を薄い色の表示に変える。例えば、ユーザが「駅」を選択すると、「駅」の文字がグレーとなる。 Here, when the user touches the genre name displayed on the display screen (7) or speaks the genre name, the control unit 18 that recognizes this causes the selected genre name to be displayed on the display screen (7). Use a genre name that is not displayed. At this time, the genre name is changed to a light color display. For example, when the user selects "station", the characters "station" are grayed out.

例えば、表示画面(7)に表示されているジャンル名をユーザがタッチするか、ジャンル名を発話すると、これを認識した制御部18は、選択されたジャンル名を、表示画面(2)に表示させるジャンル名とする。このとき、当該ジャンル名を特定の濃い色の表示に変える。例えば、ユーザが「駐車場」を選択すると、「駐車場」の文字が青色となる。 For example, when the user touches the genre name displayed on the display screen (7) or speaks the genre name, the control unit 18 that recognizes this displays the selected genre name on the display screen (2). Use the genre name to be used. At this time, the genre name is changed to a specific dark color display. For example, when the user selects "parking lot", the characters "parking lot" turn blue.

また、表示画面(6)の「総合病院」等の病院・医院に属するジャンル名が選択されると、表示画面(8)に遷移する。「コンビニ」等のショッピングに属するジャンル名が選択されると、表示画面(9)に遷移する。「ファミリーレストラン」等のレストランに属するジャンル名が選択されると、表示画面(10)に遷移する。それぞれの表示画面において、表示画面(2)に表示させるジャンル名の選択、表示させないジャンル名の選択は、上記の通りである。 Further, when a genre name belonging to a hospital / clinic such as "general hospital" on the display screen (6) is selected, the screen transitions to the display screen (8). When a genre name belonging to shopping such as "convenience store" is selected, the display screen (9) is displayed. When a genre name belonging to a restaurant such as "family restaurant" is selected, the display screen (10) is displayed. In each display screen, the selection of the genre name to be displayed on the display screen (2) and the selection of the genre name not to be displayed are as described above.

また、表示画面(7)において、ユーザが、ページを送る「▽」のボタンを選択すると、次の表示画面(8)に遷移する。表示画面(8)において、ページを戻る「△」のボタンを選択すると、表示画面(7)に遷移する。このように、「▽」「△」は、表示画面(7)~(10)の間でページを切り替えるボタンとして機能する。 Further, when the user selects the "▽" button for sending a page on the display screen (7), the transition to the next display screen (8) occurs. When the "△" button for returning to the page is selected on the display screen (8), the screen transitions to the display screen (7). In this way, "▽" and "Δ" function as buttons for switching pages between the display screens (7) and (10).

以上のように各表示画面(7)~(10)において、ジャンル名を変更した後、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、表示画面(6)に遷移して、表示させるジャンル名として選択されたものが表示されるとともに、表示させないジャンル名として選択されたものが表示されなくなる。そして、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、変更した表示画面(6)の表示を反映した表示画面(2)に遷移する。上記の例では、「駅」の位置に「駐車場」が表示され、「駅」が表示されなくなる。 After changing the genre name on each display screen (7) to (10) as described above, when the user touches the "back" button or speaks "return", the screen transitions to the display screen (6). , The one selected as the genre name to be displayed is displayed, and the one selected as the genre name to be not displayed is not displayed. Then, when the user touches the "back" button or utters "return", the screen transitions to the display screen (2) reflecting the changed display screen (6). In the above example, the "parking lot" is displayed at the position of the "station", and the "station" is not displayed.

また、デフォルトの表示に戻すには、表示画面(6)において、ユーザが「デフォルトに戻す」のボタンを選択するか、「でふぉるとにもどす」と発話すると、これを認識した制御部18が、デフォルトのジャンル名及びその配置に戻す。そして、ユーザが「戻る」ボタンをタッチするか、「もどる」と発話すると、デフォルトの設定に戻った表示画面(2)に遷移する。 To return to the default display, when the user selects the "Return to default" button on the display screen (6) or speaks "Return to default", the control unit recognizes this. 18 returns to the default genre name and its arrangement. Then, when the user touches the "back" button or utters "return", the display screen (2) returns to the default setting.

上記のように、表示画面(6)及びこれが反映される表示画面(2)においては、ジャンル名は、表示させる位置毎に選択することができる。つまり、表示画面(6)において、左上の「駅」が選択された場合には、制御部18は、選択されたジャンル名とともに、それが表示画面上のどの表示位置かも認識する。そして、制御部18は、その後に表示画面(7)~(10)において選択されたいずれかのジャンル名を、当該表示位置、つまり左上の位置に表示させることができる。このため、表示画面(2)におけるジャンル名の並びを変更したい場合には、表示画面(6)において、所望の表示位置のジャンル名を選択し、これを当該表示位置に表示させたいジャンル名に変更していくことにより実現することができる。この場合、同じジャンル名を異なる位置に表示させるように選択することも可能となる。例えば、「駅」というジャンル名を、左上に表示させるとともに、その下に並べて「駅」を表示させることもできる。このように、頻繁に使用するジャンル名について、同じジャンル名を表示画面(2)の複数箇所に表示させると、そのジャンル名をタッチして選択しやすくなるのでよい。 As described above, on the display screen (6) and the display screen (2) to which this is reflected, the genre name can be selected for each position to be displayed. That is, when the upper left "station" is selected on the display screen (6), the control unit 18 recognizes the selected genre name and which display position on the display screen it is. Then, the control unit 18 can display any of the genre names selected on the display screens (7) to (10) at the display position, that is, the upper left position. Therefore, if you want to change the order of the genre names on the display screen (2), select the genre name at the desired display position on the display screen (6) and set it as the genre name you want to display at the display position. It can be realized by changing it. In this case, it is also possible to select to display the same genre name at different positions. For example, the genre name "station" can be displayed in the upper left, and "station" can be displayed side by side below it. In this way, if the same genre name is displayed in a plurality of places on the display screen (2) for frequently used genre names, it may be easier to touch and select the genre name.

なお、制御部18は、表示画面(6)において、ユーザが、所望のジャンル名をタッチしてドラッグして所望の位置で離すことにより、制御部18が、当該ジャンル名の表示位置を、所望の位置に変更できるようにすると、表示位置の変更が容易となってよい。 In the display screen (6), the control unit 18 allows the user to touch and drag a desired genre name and release it at a desired position, so that the control unit 18 desires the display position of the genre name. If it is possible to change to the position of, it may be easy to change the display position.

また、表示画面(2)に表示させることができるジャンル名の数は、所定数に限られている。例えば、ここでは25個である。このため、既に表示させるジャンル名として25個登録されている場合には、それ以上、表示させるジャンル名を増やすことはできない。 Further, the number of genre names that can be displayed on the display screen (2) is limited to a predetermined number. For example, here there are 25. Therefore, when 25 genre names to be displayed have already been registered, it is not possible to increase the number of genre names to be displayed any more.

以上のように、表示された項目の表から、ユーザがよく使う項目のみを選択すれば、認識ワードが限定されるので、誤認識を減らすことができる。選択された認識ワードは、例えば、所定のメモリ領域に、デフォルトの状態から書き換える、空の領域に入れていく、既に入っているものを並べ替える等により、登録される。このようにすれば、限られたメモリ領域を有効に活用できる。 As described above, if only the items frequently used by the user are selected from the displayed table of items, the recognition words are limited, so that erroneous recognition can be reduced. The selected recognition word is registered in a predetermined memory area, for example, by rewriting from the default state, putting it in an empty area, rearranging what is already in it, and the like. By doing so, the limited memory area can be effectively utilized.

このようなユーザによる項目の設定は、上記の実施形態の図13及び図14で示したように、ユーザにより選択された項目を、表示部5に表示させる複数のページ毎に設定してもよい。このため、表示画面の1ページで表示できる項目が限られていても、ユーザがよく使う項目を、トップのページに持ってくることにより、使いたい項目を表示させるためにページを切り替える手間が省ける。 As shown in FIGS. 13 and 14 of the above-described embodiment, the item selected by the user may be set for each of a plurality of pages for which the item selected by the user is displayed on the display unit 5. .. Therefore, even if the items that can be displayed on one page of the display screen are limited, by bringing the items that the user frequently uses to the top page, it is possible to save the trouble of switching pages to display the items that the user wants to use. ..

複数の概念を含む認識ワードに対応する大項目と、当該複数の概念に相当する認識ワードに対応する中項目を、同一ページに表示させることができるので、ユーザが中項目を検索したい場合にも、階層やページを変える必要がなく、所望の項目をダイレクトに選択することができる。 Since the large item corresponding to the recognition word including multiple concepts and the middle item corresponding to the recognition word corresponding to the multiple concepts can be displayed on the same page, even when the user wants to search the middle item. , You can directly select the desired item without having to change the hierarchy or page.

例えば、「病院」のように、多数の候補を含む上位概念的な大項目は、できるだけ多くの候補の中から検索したいと思うユーザにとって便利な項目となる。「病院」の概念に含まれる「内科」、「小児科」のような中項目は、少ない候補の中から、即座に所望の施設の情報を得たいユーザにとって便利となる。 For example, a high-level conceptual large item including a large number of candidates, such as "hospital", is a convenient item for a user who wants to search from as many candidates as possible. Medium items such as "internal medicine" and "pediatrics" included in the concept of "hospital" are convenient for users who want to immediately obtain information on a desired facility from a small number of candidates.

施設の分類に関する情報は、大項目、中項目のように段階・階層を立てて分類分けすることで効率よい指定を行うことができるようにしている。すなわち、大項目の中には、1または複数の中項目が属する。 Information on the classification of facilities can be efficiently specified by classifying them into stages and hierarchies such as large items and medium items. That is, one or a plurality of medium items belong to the large items.

大項目の一例を挙げると、「ホテル・公共施設・他」、「病院・医院」、ショッピング」、「レストラン」等がある。「ホテル・公共施設・他」に属する中項目の一例としては、「駅」、「IC(インターチェンジ)/JCT(ジャンクション)]、「郵便局」、「役所」、「トイレ」、「駐車場」、「ホテル」、「銀行 信金」、「学校」、「ガソリンスタンド」等がある。「病院・医院」に属する中項目の一例としては、「総合病院」、「内科」、小児科」、「外科」、「産婦人科」、「歯科」、「眼科」、「耳鼻咽喉科」、「整形外科」、「皮膚科」、「泌尿器科」、「診療内科」、「神経内科」、「肛門科」、「動物病院」等がある。「ショッピング」に属する中項目の一例としては、「コンビニ」、「ドラッグストア」、「デパート」、「ショピングモール」、「スーパー」、「カー用品」、「ホームセンター」、「家電」等がある。「レストラン」に属する中項目の一例としては、「ファミリーレストラン」、「ファーストフード」、「和食」、「洋食」、「中華」、「ラーメン」、「焼き肉」、「すし」、「とんかつ」、「うどん」、「カレー」、「牛丼」等がある。 Examples of major items include "hotels / public facilities / others", "hospitals / clinics", shopping "," restaurants ", etc. As an example of middle items belonging to "hotels, public facilities, etc.", "station", "IC (interchange) / JCT (junction)", "post office", "government office", "toilet", "parking lot" , "Hotel", "Bank credit", "School", "Gas station", etc. As an example of the middle items belonging to "hospital / clinic", "general hospital", "internal medicine", pediatrics, "surgery", "obstetrics and gynecology", "dentistry", "ophthalmology", "otolaryngology", There are "Orthopedic Surgery", "Dermatology", "Urology", "Clinical Internal Medicine", "Neurologic Medicine", "Proctology", "Veterinary Hospital", etc. Examples of middle items belonging to "shopping" include "convenience stores", "drug stores", "department stores", "shopping malls", "supermarkets", "car supplies", "home centers", "home appliances" and the like. As an example of the middle items belonging to "Restaurant", "Family restaurant", "Fast food", "Japanese food", "Western food", "Chinese food", "Ramen", "Gyudon", "Sushi", "Tonkatsu", There are "udon", "curry", "gyudon", etc.

なお、各中項目に、さらに1または複数の小項目が属していてもよい。大項目、中項目、小項目のように段階・階層を立てて分類分けすることで、大量の項目の中から効率のよい指定を行うことができる。なお、1つの項目のみ属する場合には、実際には、その階層の項目はないものと同等となる。つまり、大項目に属する中項目が1つしか存在しない場合には、大項目までで、中項目及び小項目はないとしてもよい。また、中項目に属する小項目が1つしか存在しない場合には、中項目までで、小項目はないとしてもよい。そして、大項目を指定した場合には、それに属する全ての中項目が指定されたことになり、ある中項目が指定された場合には、その中項目に属する全ての小項目が指定されたこととして、制御部18は処理する。 In addition, one or more sub-items may belong to each middle item. Efficient designation can be made from a large number of items by classifying them into stages and hierarchies such as large items, medium items, and small items. If only one item belongs, it is actually the same as if there is no item in that hierarchy. That is, when there is only one medium item belonging to the large item, it may be up to the large item and there may be no medium item or small item. Further, when there is only one small item belonging to the middle item, it may be up to the middle item and there is no small item. When a large item is specified, all the middle items belonging to it are specified, and when a certain middle item is specified, all the small items belonging to the middle item are specified. As a result, the control unit 18 processes.

なお、認識ワードとして、項目として表示されている語句に関連するが、項目として表示されていない語句が登録されていてもよい。例えば、項目に表示されている認識ワードそのものを発話しなくても、その認識ワードに関連する語句を言えばよいので、ユーザの項目名の記憶があいまいであったり、操作に不慣れであったりしても、検索ができる。 In addition, as a recognition word, a word / phrase related to a word / phrase displayed as an item but not displayed as an item may be registered. For example, the user's memory of the item name is ambiguous or unfamiliar with the operation because the word or phrase related to the recognition word can be said without speaking the recognition word itself displayed in the item. But you can search.

例えば、項目として表示されている語句が大項目の「病院」であって、中項目である「内科」、「小児科」が表示されていないページであっても、「内科」、「小児科」も音声認識可能な認識ワードとして登録してもよい。このように、中項目が表示されていなかったとしても、大項目「病院」から連想したより具体的な中項目「内科」、「小児科」を言えば、その中項目が検索されるので、ユーザに必要な施設の情報を素早く得ることができる。 For example, even if the phrase displayed as an item is the major item "hospital" and the middle items "internal medicine" and "pediatrics" are not displayed, "internal medicine" and "pediatrics" are also displayed. It may be registered as a recognition word capable of voice recognition. In this way, even if the middle item is not displayed, if you say the more specific middle items "internal medicine" and "pediatrics" associated with the major item "hospital", the middle item will be searched, so the user. You can quickly get the information on the facilities you need.

上記のようなユーザの設定により又はデフォルトの設定により、混同して認識される可能性のある認識ワードの項目が、別のページに表示されるように設定されていてもよい。例えば、似た音を含む語句、実際に認識させてみて混同する可能性が高い語句等が、同じページに並んで同時に認識の候補となることがないので、誤認識を減らすことができる。似た音を含む語句としては、例えば、「ファミレス」と「ファーストフード」、「病院」と「美容院」、「洋食」と「和食」のように、50音の同じ音、同じ漢字等を含む語句とする。 Items of recognition words that may be confused and recognized may be set to be displayed on a separate page by the user's settings as described above or by default settings. For example, words and phrases containing similar sounds, words and phrases that are likely to be confused when actually recognized, and the like are not lined up on the same page and are candidates for recognition at the same time, so that false recognition can be reduced. As words and phrases that include similar sounds, for example, "family restaurant" and "fast food", "hospital" and "beauty salon", "Western food" and "Japanese food", the same sound of 50 sounds, the same Chinese characters, etc. It is a phrase that includes.

このようにすれば、文字からも紛らわしい音の認識語句が、同じページに表示されないため、ユーザも、いずれか一方を入力することになり、誤認識を減らすことができる。実際に認識させてみて混同する可能性が高い語句としては、例えば、過去の認識結果の記録に基づいて、同じ発話に対して認識されている異なる語句とする。このようにすれば、実際に誤認識が生じている組み合わせが同一ページとなることを排除できる。 By doing so, since the recognition phrase of the sound that is confusing even from the characters is not displayed on the same page, the user also inputs one of them, and the misrecognition can be reduced. As a phrase that is likely to be confused when actually recognized, for example, a different phrase that is recognized for the same utterance based on a record of past recognition results. By doing so, it is possible to eliminate that the combinations in which misrecognition actually occurs are on the same page.

《キャラクターの表示》
キャラクターの表示についても、種々の態様が可能である。上記の図26の表示画面(4)(5)では、制御部18は、画面に表示されたキャラクター100が、現在位置及び探索されたルート53に重ならないように、キャラクター100を左右に移動させている。例えば、キャラクター100と探索されたルート53の表示とが、互いに表示画面における反対側に寄るとよい。このようにすれば、キャラクター100が経路探索のサービスを邪魔しない気遣いをしているように、ユーザに感じさせることができるので、より好感を持たせることができてよい。
《Character display》
Various modes are also possible for displaying the character. In the display screens (4) and (5) of FIG. 26 above, the control unit 18 moves the character 100 left and right so that the character 100 displayed on the screen does not overlap with the current position and the searched route 53. ing. For example, the display of the character 100 and the searched route 53 may be on opposite sides of each other on the display screen. By doing so, it is possible to make the user feel that the character 100 does not interfere with the route search service, and thus it may be possible to give a more favorable impression.

キャラクター100の移動は、一旦消えてから、移動先で出現するようにしても、表示を継続させながら移動させてもよい。移動が頻繁だと、ユーザがうっとうしく感じる可能性もあるが、キャラクター100がユーザに存在をアピールできるとともに、キャラクター100を継続して見ていたいユーザにとっては、移動中のキャラクター100の動作を楽しむことができる。 The movement of the character 100 may be made to appear at the destination after disappearing once, or may be moved while continuing the display. Frequent movement may make the user feel annoyed, but the character 100 can appeal to the user, and for the user who wants to continue watching the character 100, it is possible to enjoy the movement of the character 100 while moving. can.

制御部18は、音声認識を起動して受け付けているか否かを、表示部5に表示させてもよい。このようにすれば、ユーザが、音声による操作ができるか否かを視覚により認識することができる。音声認識を受け付けているか否かとしては、表示画面の色を変えて表示する。このようにすれば、例えば、ユーザの視覚を介して、音声認識の状態を即座に感得させることができる。特に、音声認識を受け付けている場合には、通常の色とし、受け付けていない時には、グレースケールとする。このようにすれば、音声認識を受け付けているか否かを、ユーザに直感的にわからせることができる。 The control unit 18 may display the display unit 5 whether or not the voice recognition is activated and accepted. In this way, the user can visually recognize whether or not the operation can be performed by voice. Whether or not voice recognition is accepted is displayed by changing the color of the display screen. By doing so, for example, the state of voice recognition can be immediately perceived through the visual sense of the user. In particular, when voice recognition is accepted, the normal color is used, and when it is not accepted, the gray scale is used. In this way, the user can intuitively know whether or not voice recognition is accepted.

制御部18は、音声認識を受け付けているか否かをキャラクターに表示してもよい。このようにすれば、キャラクターを見れば、音声による操作が可能か否かがわかるので、ユーザが気づきやすくなる。 The control unit 18 may display to the character whether or not voice recognition is accepted. By doing so, by looking at the character, it is possible to know whether or not the operation by voice is possible, so that the user can easily notice it.

キャラクターに表示する態様としては、例えば、キャラクターの様子が明らかに変化する態様とする。このようにすれば、例えば、音声認識の状態を即座に感得させることができる。キャラクターの様子が明らかに変化する態様としては、例えば、キャラクターに物を付加する、キャラクターの色や形態を変える、特定のポーズ、ジェスチャーをさせる、吹き出しでセリフを表示するなどとする。このようにすれば、例えば、通常のキャラクターの状態を知っているユーザであれば、通常の状態との対比によってその変化に即座に気づく。 The mode to be displayed on the character is, for example, a mode in which the appearance of the character clearly changes. By doing so, for example, the state of voice recognition can be immediately sensed. As a mode in which the appearance of the character is clearly changed, for example, an object is added to the character, the color or form of the character is changed, a specific pose or gesture is made, or a dialogue is displayed by a balloon. In this way, for example, a user who knows the state of a normal character will immediately notice the change by comparing with the normal state.

キャラクターに物を付加する態様としては、例えば、ヘッドセット、ヘッドホン、イヤホン、マイク等の音に関連する備品をキャラクターに装着させる。このようにすれば、ユーザに、音に関連する機能である音声認識を連想させる。キャラクターの色や形態を変える態様としては、例えば、髪型やその色、別のコスチュームに着替えるなどとする。このようにすれば、通常の状態との相違がわかりやすくなる。特に、キャラクターの耳を大きくすれば、音声をよく聞き取ろうとしていることを示す姿となる。さらに、ポーズ、ジェスチャーとして、例えば、耳の後ろに手を当てるしぐさをさせても、音声をよく聞き取ろうとしていることを示す姿となる。 As a mode of adding an object to the character, for example, equipment related to sound such as a headset, headphones, earphones, and a microphone is attached to the character. In this way, the user is reminded of speech recognition, which is a function related to sound. As a mode for changing the color and form of the character, for example, the hairstyle, its color, and changing into another costume are used. By doing so, the difference from the normal state becomes easy to understand. In particular, if the character's ears are enlarged, it will show that he is trying to hear the voice well. Furthermore, as poses and gestures, for example, even if the gesture of putting a hand behind the ear is made, the figure shows that the voice is being heard well.

《ニックネームの使用》
制御部18は、あらかじめデータベース19に登録されたユーザの呼び名の音声を、キャラクターにより出力される音声である応答フレーズの中に、挿入するとよい。つまり、制御部18は、「霧島レイ」との対話の中で、ユーザの名前をニックネーム式で言わせる。例えば、「ケーくん」、「ユーくん」といった具合に、キャラクターに呼ばせることができる。
《Use of nickname》
The control unit 18 may insert the voice of the user's name registered in the database 19 in advance into the response phrase which is the voice output by the character. That is, the control unit 18 causes the user's name to be nicknamed in the dialogue with "Rei Kirishima". For example, you can have the character call you, such as "K-kun" or "Yu-kun".

例えば、音声認識及び周辺検索を起動させる起動ワードとして、「レイ、しゅうへん」が登録され、地図表示画面において、ニックネームを「ユーくん」で登録されたユーザが、「霧島レイ」に周辺検索を行わせる場合の対話例を以下に示す。「 」内が、発話したフレースである。 For example, "Rei, Shuhen" is registered as an activation word to activate voice recognition and peripheral search, and a user whose nickname is "Yu-kun" is registered in "Kirishima Rei" on the map display screen. An example of dialogue when letting it be performed is shown below. The inside of "" is the spoken frace.

ユーくん:「レイ、周辺」→音声認識起動→周辺検索ジャンル画面に遷移
レイ:「なに~ユーくん、わたし忙しいんだけど。」
ユーくん:「内科」→地図画面に遷移、周辺の内科アイコンを表示
レイ:「どうしたの? 大丈夫? どこのお医者さん行くの?」
ユーくん:「に」(数字の2)
レイ:「わかった、2番ね。」→地図上に2の内科医院の情報を表示
ユーくん:「探索」→ルート探索して地図上に表示
レイ:「ど~お?ここ行く?」
ユーくん:「頼む。」
レイ:「了解、任せて。」→案内開始
Yu-kun: "Rei, surroundings" → Start voice recognition → Transition to the peripheral search genre screen Ray: "What-Yu-kun, I'm busy."
Yu-kun: "Internal medicine" → Transition to the map screen and display the surrounding internal medicine icon Ray: "What's wrong? Is it okay? Where is the doctor going?"
Yu-kun: "Ni" (number 2)
Ray: "Okay, No. 2" → Display the information of 2 internal medicine clinics on the map Yu-kun: "Search" → Search the route and display it on the map Ray: "What? Go here?"
Yu-kun: "Ask me."
Ray: "OK, leave it to me." → Start guidance

このようにすれば、ユーザは、会話内で自らのニックネームで呼ばれることにより、キャラクターに対して、より一層の親しみを感じることができる。
また、対話の開始時に出力される音声にニックネームの音声が挿入されているので、ユーザが自らの名前で呼ばれることになり、ユーザの注意を引くことができてよい。
さらに、キャラクターの呼び名を含む音声が認識された場合に、出力される音声にユーザの呼び名の音声が挿入されているので、互いに呼び名を呼び合うことになり、ユーザは、より親密な感覚を得ることができる。
In this way, the user can feel more familiar with the character by being called by his / her nickname in the conversation.
Further, since the voice of the nickname is inserted in the voice output at the start of the dialogue, the user may be called by his / her own name and may be able to attract the user's attention.
Furthermore, when the voice including the character's nickname is recognized, the voice of the user's nickname is inserted in the output voice, so that the nicknames are called to each other, and the user gets a more intimate feeling. be able to.

なお、対話が進行するに従って、キャラクターにより出力される音声に、ユーザの呼び名を挿入する頻度を低減させてもよい。このようにすれば、例えば、当初は呼び名が呼ばれていたのに、その後は呼ばれる頻度が減少するので、互いに慣れていく二人の会話を演出することができる。
さらに、データベース19に、あらかじめ50音表に対応する音声データが登録され、この50音表からユーザが選択した呼び名の音声を、会話中に挿入してもよい。このようにすれば、例えば、あらかじめ複数の呼び名を登録しておく場合に比べて、メモリの容量を節約できるのでよい。
As the dialogue progresses, the frequency of inserting the user's name into the voice output by the character may be reduced. By doing so, for example, although the nickname was initially called, the frequency of being called decreases thereafter, so that it is possible to produce a conversation between two people who are accustomed to each other.
Further, voice data corresponding to the Japanese syllabary is registered in the database 19 in advance, and the voice of the nickname selected by the user from the Japanese syllabary may be inserted into the conversation. By doing so, for example, the memory capacity can be saved as compared with the case where a plurality of names are registered in advance.

《投稿》
ユーザが、取締・検問場所を発見した場合、制御部18が、あらかじめデータベース19に登録された認識ワードに対応するユーザの音声の入力に応じて、取締場所に関する位置情報を、情報収集サーバに送信することにより、投稿する機能を実行することができる。また、制御部18は、投稿された取締場所に関する位置情報について、情報収集サーバからの配信を受けて、表示部5に地図とともに表示することができる。このため、ナビゲーション装置は、制御部18に接続され、外部との情報の送受信を行う通信部を備える。
<< Post >>
When the user discovers the crackdown / inspection place, the control unit 18 sends the location information about the crackdown place to the information collection server in response to the input of the user's voice corresponding to the recognition word registered in the database 19 in advance. By doing so, the function of posting can be executed. Further, the control unit 18 can display the posted location information regarding the control location on the display unit 5 together with the map after receiving the distribution from the information collection server. Therefore, the navigation device is connected to the control unit 18 and includes a communication unit that transmits / receives information to / from the outside.

この通信部は、インターネット接続機能を備えた車内の通信機器に、無線又は有線により接続される。例えば、通信部を、テザリング(tethering)機能を有するスマートフォン等の携帯電話又は無線LANルータとWi-Fi(登録商標)接続、Blutooth(登録商標)接続又はUSB接続することにより実現できる。このような通信機器は、ナビゲーション装置に組み込まれていてもよい。 This communication unit is wirelessly or wiredly connected to a communication device in the vehicle having an Internet connection function. For example, the communication unit can be realized by connecting to a mobile phone such as a smartphone having a tethering function or a wireless LAN router by Wi-Fi (registered trademark) connection, Bluetooth (registered trademark) connection or USB connection. Such communication equipment may be incorporated in the navigation device.

まず、タッチ操作による投稿の処理は、以下の通りである。
1.走行中にユーザが取締・検問場所を発見
2.表示画面の投稿場所の設定を指示するボタンをタッチ
3.ボタンをタッチした時の地図上の現在位置を、投稿場所として設定し、該当位置にアイコンを表示
4.駐車中又は停車中に、待機画面の投稿ボタンをタッチ
5.1~3により設定した複数の投稿場所の一覧が表示
6.投稿したい場所のいずれかをタッチ
7.最終確認のための投稿ボタンをタッチ
8.選択された投稿場所の情報を、投稿場所を収集するサーバへ送信する
9.投稿場所を収集するサーバが、受信した情報を、取締場所として登録
10.投稿場所を収集するサーバが、登録した情報を配信
11.配信された情報を受信して表示
First, the processing of posting by touch operation is as follows.
1. 1. The user discovers a crackdown / inspection place while driving. Touch the button that instructs to set the posting location on the display screen. 3. Set the current position on the map when the button is touched as the posting location, and display the icon at the corresponding position. Touch the post button on the standby screen while the car is parked or stopped. 5. A list of multiple posting locations set by steps 1 to 3 is displayed. Touch any of the places you want to post 7. Touch the post button for final confirmation 8. 9. Send the information of the selected posting location to the server that collects the posting location. The server that collects the posting location registers the received information as the control location. The server that collects the posting location distributes the registered information. Receive and display the delivered information

なお、6と7の間に、ターゲットがオービス、Nシステム、取締、検問等のいずれであるかの選択、走行車線、反対車線、右方向、左方向等の対象方向の選択、実施期間の選択等を行うこともできる。 Between 6 and 7, select whether the target is Orbis, N system, crackdown, inspection, etc., select the target direction such as driving lane, opposite lane, right direction, left direction, etc., select the implementation period. And so on.

このようなボタン操作による投稿の場合、走行中、投稿場所を発見してから、複数の階層的な手順を経るため、複数のボタン操作が必要となる。 In the case of posting by such a button operation, since the posting location is discovered while driving and then a plurality of hierarchical procedures are performed, a plurality of button operations are required.

しかし、本態様では、ユーザの音声入力に応じて投稿ができる。つまり、ユーザが、あらかじめデータベース19に登録された認識ワードを発話すると、制御部18がこれを認識し、通信部に、当該発話時の現在位置を、通信機器を介して、投稿場所としてサーバに送信させる。サーバは、受信した情報を、取締場所として登録し、登録した情報を配信する。通信部は、通信機器を介して、配信された情報を受信し、制御部18は受信した情報に基づいて、取締場所を地図上に表示させる。このため、ボタン操作のような手間がかからず、簡単にすばやく行うことができる。 However, in this aspect, posting can be performed according to the voice input of the user. That is, when the user utters a recognition word registered in the database 19 in advance, the control unit 18 recognizes this, and the current position at the time of the utterance is sent to the server as a posting place via the communication device. Send it. The server registers the received information as a control place and distributes the registered information. The communication unit receives the distributed information via the communication device, and the control unit 18 displays the control location on the map based on the received information. Therefore, it can be performed easily and quickly without the trouble of button operation.

取締場所としては、上記のように、オービス、Nシステムも含むが、特に、取締・検問エリアのように、実施位置、時間が変化するチェック場所とするとよい。このようにすれば、あらかじめ位置を登録しておくことが困難な取締場所についての情報を、投稿により収集させることができる。 As described above, the control location includes the Orbis and the N system, but in particular, it is preferable to use a check location where the implementation position and time change, such as the control / inspection area. By doing so, it is possible to collect information about the control location where it is difficult to register the location in advance by posting.

位置情報としては、例えば、現在位置としてもよいし、地図の中心位置座標としてもよい。このようにすれば、確実且つ簡単に得られる情報により取締場所を特定できるとともに、音声認識を利用するので、実際の取締位置とのずれが少なくてよい。 The position information may be, for example, the current position or the center position coordinates of the map. By doing so, the crackdown location can be specified by the information that can be obtained reliably and easily, and since voice recognition is used, the deviation from the actual crackdown position may be small.

認識ワードとしては、音声認識を起動させる語句と投稿の受け付けを開始させる語句とが登録されているとよい。このようにすれば、ユーザが、音声認識を起動させる語句と投稿の受け付けを開始させる語句とを発話することにより、音声認識と、投稿の受け付けという多段階の操作を簡単に実行させることができる。 As the recognition word, it is preferable that a phrase that activates voice recognition and a phrase that initiates acceptance of posts are registered. In this way, the user can easily execute the multi-step operation of voice recognition and acceptance of posts by uttering the phrase that activates speech recognition and the phrase that initiates acceptance of posts. ..

音声認識を起動させる語句と投稿の受け付けを開始させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けが開始してしまい、誤認識が生じることを防止できてよい。また、音声認識を起動させる語句と投稿の受け付けを開始させる語句として、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿の受け付けを一発で開始させることができるので、即座に投稿可能な状態とすることができてよい。 As the phrase that activates voice recognition and the phrase that initiates the acceptance of posts, for example, they may be registered as separate words and phrases. By doing so, for example, it may be possible to prevent erroneous recognition from occurring because the acceptance of posts starts at the same time as the start of voice recognition. Further, the phrase that activates voice recognition and the phrase that initiates the acceptance of posts may be set as, for example, a series of phrases. By doing so, for example, the acceptance of posts can be started in one shot at the same time as the start of voice recognition, so that the state in which posting can be performed immediately may be possible.

認識ワードとしては、音声認識を起動させる語句と投稿をさせる語句とが登録されていれば、ユーザが、音声認識を起動させる語句と投稿をさせる語句とを発話することにより、音声認識と、投稿という多段階の操作を簡単に行うことができる。 If a phrase that activates voice recognition and a phrase that causes posting are registered as recognition words, the user speaks the phrase that activates speech recognition and the phrase that causes posting, so that speech recognition and posting can be performed. You can easily perform the multi-step operation.

音声認識を起動させる語句と投稿させる語句としては、例えば、別々に分かれた語句として登録されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿されてしまい、誤って投稿されることを防止できてよい。また、音声認識を開始させる語句と投稿させる語句としては、例えば、一連の語句として設定されていてもよい。このようにすれば、例えば、音声認識の開始とともに投稿を一発で行わせることができるので、即座に投稿できて、取締場所と投稿場所とのずれを極力少なくすることができてよい。 As the phrase for activating voice recognition and the phrase for posting, for example, the phrase may be registered as a separate phrase. By doing so, for example, it may be possible to prevent posting by mistake because it is posted at the same time as the start of voice recognition. Further, the phrase for starting voice recognition and the phrase for posting may be set as, for example, a series of phrases. By doing so, for example, since the posting can be made in one shot at the start of voice recognition, the posting can be performed immediately, and the deviation between the control place and the posting place may be minimized.

なお、投稿のための認識ワードは、他の認識ワードよりも短くてもよい。このようにすれば、例えば、緊急性の高い投稿について、短時間で指示することができてよい。 The recognition word for posting may be shorter than other recognition words. By doing so, for example, it may be possible to instruct a post with high urgency in a short time.

また、投稿のための認識ワードは、他の認識ワードよりも冗長であってもよい。このようにすれば、例えば、通常の音声認識を利用している場合に、他の認識語句を言う可能性が少なくなり、誤って投稿がされてしまうことを防止できる。冗長であるとは、例えば、文字数が多い、複数に分かれているとするとよい。このようにすれば、例えば、投稿を意図していないユーザが、誤って発話してしまう可能性を低減できる。 Also, the recognition word for posting may be more verbose than other recognition words. By doing so, for example, when using normal voice recognition, the possibility of saying other recognition words is reduced, and it is possible to prevent accidental posting. Redundancy means, for example, that it has a large number of characters and is divided into a plurality of characters. By doing so, for example, it is possible to reduce the possibility that a user who does not intend to post will utter by mistake.

また、投稿のための認識ワードは、ユーザが普段言う可能性の低い語句であってもよい。このようにすれば、例えば、ユーザが車内で普段、頻繁に使用する語句によって頻繁に誤認識が生じることを防ぎ、ユーザが意図しない投稿を防止できる。 In addition, the recognition word for posting may be a phrase that is unlikely to be said by the user. By doing so, for example, it is possible to prevent frequent misrecognition due to words and phrases that the user usually uses frequently in the car, and to prevent posting that the user does not intend.

投稿のための認識ワードを認識した場合、制御部18が、これに応じて、あらかじめ登録されたキャラクターの音声を出力することにより、上記の実施形態のような対話機能を実現させてもよい。この場合、投稿のための対話におけるキャラクターの音声は、他の対話における音声よりも短くしてもよい。このようにすれば、例えば、対話の時間を短くして、素早く投稿させることができるのでよい。 When the recognition word for posting is recognized, the control unit 18 may realize the dialogue function as in the above embodiment by outputting the voice of the character registered in advance in response to the recognition word. In this case, the voice of the character in the dialogue for posting may be shorter than the voice in other dialogues. By doing so, for example, it is possible to shorten the dialogue time and have the user post quickly.

《応答フレーズのバリエーション》
データベース19にあらかじめ登録するキャラクターの応答フレーズは、以下のように種々の態様とすることができる。
検索された施設の選択を促すキャラクターの音声を、表示されたアイコンに合わせた内容で出力する場合、番号であれば何番がよいかを問い合わせる音声で、アルファベットであればアルファベットの何がよいかを問い合わせる音声で、形状であれば形状が何かを問い合わせる音声で、色であれば色が何かを問い合わせる音声にするとよい。このようにすれば、ユーザは、例えば、何を発話して施設を選択すればよいかが、簡単にわかるのでよい。
<< Variation of response phrase >>
The response phrase of the character registered in advance in the database 19 can be in various forms as follows.
If you want to output the voice of the character that prompts you to select the searched facility with the content that matches the displayed icon, it is a voice that asks what number is better if it is a number, and what is good in the alphabet if it is an alphabet. If it is a shape, it should be a voice that asks what the shape is, and if it is a color, it should be a voice that asks what the color is. In this way, the user may easily know, for example, what to say and select a facility.

また、例えば、表示されているアイコンに合わせた内容として、選択される候補の範囲を示す音声とするとよい。これにより、例えば、何番から何番というように音声を出力すれば、ユーザは、発話すべき内容とともに、選択すべき範囲も把握することができるのでよい。 Further, for example, the content according to the displayed icon may be a voice indicating a range of candidates to be selected. As a result, for example, if the voice is output from the number to the number, the user may be able to grasp not only the content to be spoken but also the range to be selected.

あらかじめ登録されたキャラクターの音声として、キャラクターの状況を示す内容の音声を挿入してもよい。このようにすれば、ユーザは、キャラクターの状況を聞くことができるので、例えば、キャラクターがネガティブな状況にあれば、ユーザにキャラクターを気遣う気持ちを起こさせることができ、キャラクターがポジティブな状況にあれば、ユーザにキャラクターに共感する気持ちを起こさせることができるのでよい。 As the voice of the character registered in advance, the voice of the content indicating the situation of the character may be inserted. In this way, the user can hear the situation of the character, so that, for example, if the character is in a negative situation, the user can be motivated to care for the character, and the character is in a positive situation. For example, it is good because it can make the user feel sympathetic to the character.

キャラクターの状況を示す発言としては、例えば、「わたし忙しいんだけど」というように、自らがポジティブな状態にあるかネガティブな状態にあるかがわかる発言とするとよい。このようにすれば、ユーザの指示にシステムが無条件に従うのではなく、ユーザに気遣いの気持ちや、共感の気持ちを生じさせることができるので、実際の人間を相手にした会話のような感覚が得られるのでよい。 As a statement indicating the situation of the character, for example, "I'm busy", it is good to say that you can tell whether you are in a positive state or a negative state. In this way, the system does not unconditionally follow the user's instructions, but can create a feeling of concern and empathy for the user, so that it feels like a conversation with a real human being. It is good because it can be obtained.

リストは複数設定され、応答フレーズにおける同一のリスト内であっても他のフレーズとは異質なフレーズが登録されているリストがあってもよい。このようにすれば、例えば、ユーザの同様の内容の発言に対する返答として、異質なフレーズが出力されることにより、ユーザに予想外の印象を与えることができ、キャラクターに対する印象を変化させて、飽きが来ることを防止できるのでよい。異質なフレーズとしては、例えば、図9(a)のレイ応答フレーズ3に示すように、「何か指示して。」、「どうすればい~い?」、「どうする?」、「どう変えるの?」という積極的な問いかけのフレーズの中に、「好きにして。」というように、曖昧なフレーズを挿入するとよい。また、図9(b)のレイ応答フレーズ24に示すように、「再検索」、「検索し直しね」、「も1回ね」、「やり直しま~す」というやり直しを示すフレーズの中に、「色々と私を試してるでしょ?」というように、ユーザの心理を読むようなフレーズを挿入するとよい。 A plurality of lists are set, and there may be a list in which phrases different from other phrases are registered even in the same list in the response phrase. By doing so, for example, by outputting a different phrase as a response to the user's remark with the same content, it is possible to give an unexpected impression to the user, change the impression of the character, and get tired of it. It is good because it can prevent the coming. As foreign phrases, for example, as shown in Ray response phrase 3 in FIG. 9 (a), "instruct something", "what should I do?", "What should I do?", "How do I change?" It's a good idea to insert an ambiguous phrase, such as "Let's like it." Further, as shown in the ray response phrase 24 of FIG. 9B, the phrases indicating "research", "search again", "again once", and "redo" are included in the phrases indicating redo. It's a good idea to insert a phrase that reads the user's psychology, such as "You're trying various things, right?"

音声認識を間違えた場合に、出力されるフレーズが登録されていてもよい。このようにすれば、例えば、認識を間違えた場合であっても、何等かのフレーズを返すことより、キャラクターとの対話が継続していることを、ユーザに認識させることができるのでよい。 The phrase to be output may be registered when the voice recognition is mistaken. By doing so, for example, even if the recognition is mistaken, the user can be made to recognize that the dialogue with the character is continuing by returning some phrase.

音声認識に誤りがあった場合に備えた逃げ口上となるフレーズが登録されているとよい。このようにすれば、例えば、音声認識に誤りが生じる可能性はあるが、たとえ誤りが生じたとしても、キャラクターの逃げ口上によって、ユーザの苛立ちや怒りを和らげることができるのでよい。 It is advisable to register a phrase that serves as an escape route in case there is an error in voice recognition. By doing so, for example, there is a possibility that an error may occur in voice recognition, but even if an error occurs, it is good that the user's annoyance and anger can be alleviated by the escape of the character.

逃げ口上としては、例えば、図8(a)のレイ応答フレーズ1に示す「音声認識頑張ります。100%認識できないかもしれないけれど」のように、正確に認識しようとする意欲を示す表現とともに、完全な達成は困難であることを示す表現とするとよい。このようにすれば、例えば、単に、認識ができないことを示すよりも、誤認識に対して、ユーザに許容する心理を生じさせることができるとよい。 As an escape route, for example, "I will do my best in voice recognition. I may not be able to recognize 100%," as shown in Ray Response Phrase 1 in Fig. 8 (a), along with an expression that shows the willingness to recognize accurately. It is good to use an expression that indicates that it is difficult to achieve such a goal. By doing so, for example, it is preferable to be able to give the user an acceptable psychology for misrecognition, rather than simply indicating that recognition is not possible.

ユーザが返答を望む内容とキャラクターの音声の出力の内容とが相違していることを指摘するユーザの音声の入力があった場合に、それに対するキャラクターからの返答のフレーズが登録されているとよい。このようにすれば、例えば、ユーザが、キャラクターの間違えを指摘すると、キャラクターからこれに対する返答があるので、誤解があった場合の人と人との自然なやり取りを楽しむことができるのでよい。 When there is a user's voice input that points out that the content that the user wants to respond to and the content of the character's voice output are different, it is preferable that the phrase of the response from the character to that input is registered. .. By doing so, for example, when the user points out a mistake in the character, the character responds to the mistake, so that it is possible to enjoy the natural interaction between the person and the person when there is a misunderstanding.

宣伝広告となるフレーズが登録されていてるとよい。このようにすれば、例えば、提携している施設にユーザを誘導することができるのでよい。例えば、「○○ショップはどう?」というように、特定の施設に誘うフレーズとするとよい。 It is good if the phrase that becomes an advertisement is registered. By doing so, for example, the user can be guided to the affiliated facility. For example, a phrase that invites you to a specific facility, such as "How about a XX shop?"

ユーザが行き先とする施設で行うことの原因についてのフレーズが登録されているとよい。このようにすれば、ある施設に行くことになった原因について発話することにより、当該施設に向かうユーザが耳を傾けやすくなる。例えば、その行き先に行く原因がユーザにとって好ましくない場合にも、ユーザにとって好ましい場合にも、ユーザの注意を引くことができる。 It is preferable that a phrase about the cause of what the user does at the destination facility is registered. By doing so, it becomes easier for the user who goes to the facility to listen by talking about the cause of going to the facility. For example, it is possible to draw the user's attention whether the cause of going to the destination is not preferable for the user or favorable for the user.

行き先へ行く原因がユーザにとって好ましいものでない施設としては、例えば、「病院」、「歯医者」、「薬局」のように、ユーザの病気に関係している施設とするとよい。行き先へ行く原因がユーザにとって好ましい施設としては、例えば、「デパート」「寿司」「うなぎ」のように、日常良く行く施設よりも、ややハードルが高い施設とするとよい。 Facilities where the cause of going to the destination is not preferable for the user may be a facility related to the user's illness, such as "hospital", "dentist", and "pharmacy". As a facility where the cause of going to the destination is preferable for the user, it is preferable to use a facility such as "department store", "sushi", and "eel", which has a slightly higher hurdle than a facility that is often visited on a daily basis.

キャラクターがユーザに対して種々の感情を起こさせるフレーズとしては、例えば、図9(c)の応答フレーズ6-8に示すように、「病院? どこか具合が悪いの? 大丈夫?」、「あまり無理しないでね。」のようにユーザの状態を思いやることによりキャラクターに愛着を感じさせるフレーズとするとよい。また、例えば、図9(d)の応答フレーズ6-29に示すように、「ちゃんと歯磨きしてる?」のようにユーザに後悔の念を起こさせるフレーズとするとよい。 As phrases that the character causes various emotions to the user, for example, as shown in the response phrases 6-8 of FIG. 9 (c), "hospital? Is something wrong? Is it okay?" Don't overdo it. ”It is a good idea to use a phrase that makes the character feel attached by caring for the user's condition. Further, for example, as shown in the response phrase 6-29 in FIG. 9 (d), it may be a phrase that causes the user to regret, such as "Are you brushing your teeth properly?".

ユーザが行き先とする施設で行うことについての肯定的又は否定的なアドバイスとなるフレーズが登録されているとよい。このようにすれば、例えば、キャラクターのアドバイスにより、ユーザが行き先ですべきことや、すべきでないことを判断できるのでよい。肯定的なアドバイスとしては、例えば、図9(d)の応答フレーズ6-29に示すように、「たまには歯垢をとってもらった方がいいよ。」のように何かを勧めるフレーズとするとよい。また、否定的なアドバイスとしては、例えば、図9(e)の応答フレーズ6-23に示すように、「苦しそうな顔しちゃダメ。涼しい顔して我慢するのが男なの。」のように何かを禁止するフレーズとするとよい。 It is good to have a phrase registered that gives positive or negative advice about what the user does at the destination facility. By doing so, for example, the advice of the character may be used to determine what the user should or should not do at the destination. As a positive advice, for example, as shown in the response phrase 6-29 in FIG. 9 (d), a phrase that recommends something such as "Occasionally it is better to have plaque removed." good. Also, as negative advice, for example, as shown in the response phrase 6-23 in FIG. 9 (e), "Don't look painful. It's a man who puts up with a cool face." It is good to use a phrase that prohibits something.

ユーザが行き先とする施設で行うことについてのキャラクターの一方的な感想となるフレーズが登録されているとよい。このようにすれば、例えば、キャラクターの感想が得られるので、ユーザは、行き先での行動についての参考とすることができてよい。 It is preferable that a phrase that is a one-sided impression of the character about what the user does at the destination facility is registered. By doing so, for example, since the impression of the character can be obtained, the user may be able to use it as a reference for the behavior at the destination.

キャラクターの一方的な感想としては、例えば、図9(f)の応答フレーズ6-14に示すように「お口の中でとろけるような黒ブタチャーシュー。ステキ~。」のように、肯定的な感想とするとよい。このようにすれば、ユーザが、同様の行動を施設でとりたくなるのでよい。また、例えば、「一人でレストランに行くの?寂しくない?・・ほっとけって?」のように否定的な感想とするとよい。このようにすれば、ユーザに行き先を変える気を起こさせるのでよい。さらに、例えば、図9(g)の応答フレーズ6-21に示すように、「ショッピングモールって見て回るだけで楽しそう。でも疲れそう。」のように、肯定的な感想と否定的な感想が混じっていてもよい。このようにすれば、行き先での状況について、ユーザにあらかじめ覚悟させることができるのでよい。 As a one-sided impression of the character, for example, as shown in the response phrase 6-14 of FIG. 9 (f), "black pork char siu that melts in the mouth. Nice ~." Is positive. It is good to make an impression. By doing so, the user may want to take the same action at the facility. Also, for example, "Are you going to a restaurant alone? Are you lonely? ... Are you relieved?" By doing this, the user may be motivated to change the destination. Furthermore, for example, as shown in the response phrase 6-21 of FIG. 9 (g), positive impressions and negative impressions such as "It seems to be fun just to look around the shopping mall, but it seems to be tiring." Impressions may be mixed. By doing so, the user can be prepared in advance about the situation at the destination.

キャラクターが、現実に存在することを思わせるフレーズが登録されていてもよい。このようにすれば、例えば、ユーザは、キャラクターが実際に存在するような感覚が得られるのでよい。 A phrase that makes the character think that it actually exists may be registered. By doing so, for example, the user may feel as if the character actually exists.

現実に存在することを思わせるフレーズとしては、例えば、図9(h)の応答フレーズ6-24に示すように、「出張にも私を連れて行ってくれるなんて、うれしいです~。」、図9(i)の応答フレーズ6-25に示すように、「私達、どこに泊まる?」のように、同行していることを思わせるフレーズとするとよい。このようにすれば、例えば、ユーザは、キャラクターといつも一緒にいる感覚が得られるのでよい。 As a phrase that reminds us of the fact that it actually exists, for example, as shown in the response phrase 6-24 in Fig. 9 (h), "I'm glad that you take me on a business trip." As shown in the response phrase 6-25 of 9 (i), it is preferable to use a phrase that reminds us of accompanying us, such as "Where are we staying?". By doing so, for example, the user may feel that he / she is always with the character.

あらかじめ認識語句として設定された語句以外の音声が入力された場合に、キャラクターが出力する音声データが登録されているとよい。このようにすれば、例えば、認識語句以外であっても、必ずキャラクターの反応があるため、対話が途切れたり、エラーとして報知する等によりシステムとのやり取りであることをユーザに想起させてしまうことがなく、キャラクターと対話を継続している感覚を維持できるのでよい。設定された語句以外の音声が入力された場合のフレーズとしては、図9(j)のレイ応答フレーズ50に示すような認識不可のフレーズとすることが考えられる。なお、応答フレーズは、複数の中からランダムに出力される態様には限定されない。複数の中から出力される順序が決まっていて、その順番で順次出力され、最後の順位の応答フレーズが出力されたら、最初の順位の応答フレーズに戻って出力するようにすれば、繰り返し同じ応答フレーズが出力されることを防止できる。さらに、認識語句毎に、対応する応答フレーズが、一対一に決まっていてもよい。このようにすれば、情報の記憶量を節約できるのでよい。このような場合でも、上記で示したような内容の応答フレーズが設定されていれば、同様の効果が得られる。 It is preferable that the voice data output by the character is registered when the voice other than the words set as the recognition words in advance is input. By doing so, for example, since there is always a reaction of the character even if it is not a recognition phrase, the user is reminded that the dialogue is interrupted or the communication is with the system by notifying as an error. It is good because it can maintain the feeling of continuing dialogue with the character. As a phrase when a voice other than the set phrase is input, it is conceivable to use an unrecognizable phrase as shown in the ray response phrase 50 of FIG. 9 (j). The response phrase is not limited to a mode in which it is randomly output from a plurality of responses. The order of output is fixed from multiple, and if the response phrase of the last rank is output, it is output back to the response phrase of the first rank, and the same response is repeated. It is possible to prevent the phrase from being output. Further, the corresponding response phrase may be determined one-to-one for each recognition phrase. By doing so, the amount of information stored can be saved. Even in such a case, the same effect can be obtained if a response phrase having the content shown above is set.

《音声出力と音声認識のタイミング》
音声出力と音声認識のタイミングは、以下のように種々の設定が可能である。
制御部18は、キャラクターの音声が出力されている間は、音声を出力し終えるまで、音声認識を停止してもよい。このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識により他の処理が実行されてしまうことを防止できてよい。他の処理としては、例えば、音量、輝度、スケール、周辺検索のように、緊急性の低い処理とするとよい。このようにすれば、必ずしも直ちに実行しなくてもよいものまで、音声認識により実行されてしまうことがなくてよい。
<< Timing of voice output and voice recognition >>
The timing of voice output and voice recognition can be set in various ways as follows.
While the character's voice is being output, the control unit 18 may stop voice recognition until the voice has been output. By doing so, for example, when there is a voice input from the user in the middle of the voice of the character, it may be possible to prevent other processing from being executed by voice recognition. As another process, for example, a process with low urgency such as volume, brightness, scale, and peripheral search may be used. By doing so, even things that do not necessarily have to be executed immediately do not have to be executed by voice recognition.

制御部18は、キャラクターの音声が出力されている間も、音声認識を受け付けてもよい。このようにすれば、例えば、キャラクターの音声の途中で、ユーザからの音声の入力があった場合に、音声認識より他の処理が中断されないのでよい。他の処理としては、例えば、取締場所に関する位置情報を情報収集サーバに送信する処理のように、緊急性の高い処理とするとよい。このようにすれば、ユーザが直ちに実行して欲しい処理が、中断されることがなくてよい。 The control unit 18 may accept voice recognition while the character's voice is being output. By doing so, for example, when there is a voice input from the user in the middle of the voice of the character, other processing than voice recognition may not be interrupted. As another process, for example, it is preferable to perform a process with high urgency, such as a process of transmitting location information regarding a control location to an information collection server. By doing so, the processing that the user wants to be executed immediately does not have to be interrupted.

制御部18は、キャラクターの音声が出力されている間に、ユーザからの音声の入力があった場合に、キャラクターの音声の出力を停止してもよい。このようにすれば、例えば、ユーザの音声によって、キャラクターの発言を遮ったような印象を与えることができる。停止したキャラクターの音声の出力は、例えば、あらためて出力しなければ、同じ発話が始めから繰り返されて不自然な印象を与えることがなくてよい。また、停止したキャラクターの音声の出力を、例えば、止めたところから開始すれば、ユーザの発言の間、キャラクターが待ってくれていた印象を与えることができてよい。 The control unit 18 may stop the output of the character's voice when the user inputs the voice while the character's voice is being output. By doing so, for example, the voice of the user can give the impression that the character's speech is blocked. For example, the voice output of the stopped character does not have to give an unnatural impression because the same utterance is repeated from the beginning unless it is output again. Further, if the voice output of the stopped character is started, for example, from the place where the character is stopped, it may be possible to give the impression that the character has been waiting for the user to speak.

制御部18は、キャラクターの音声が出力されている間に、所定の入力操作がなされた場合に、キャラクターの音声を停止してもよい。このようにすれば、例えば、キャラクターとの対話を第三者に聞かれたくないときに、所定の入力操作によって、キャラクターの音声を停止させることができてよい。所定の入力操作としては、例えば、物理キーの操作とするとよい。このようにすれば、常時、固定的に存在する箇所を操作すればよいので、とっさの操作がしやすい。 The control unit 18 may stop the voice of the character when a predetermined input operation is performed while the voice of the character is being output. By doing so, for example, when it is not desired for a third party to hear the dialogue with the character, the voice of the character may be stopped by a predetermined input operation. The predetermined input operation may be, for example, a physical key operation. By doing so, it is only necessary to operate a fixedly existing part at all times, so that it is easy to operate immediately.

《音声認識起動のタイミング》
音声認識起動のタイミングは、以下のように、種々の態様が可能である。
制御部18は、対話に応じて、ユーザが知りたい情報を出力するための所定の処理を、所定の認識ワードに対応するユーザからの音声の入力により開始するとよい。このようにすれば、例えば、所定の処理をユーザからの音声の入力があって開始するため、システムが勝手に開始して処理が実行されてしまうことがなくてよい。
《Timing of voice recognition activation》
The timing of voice recognition activation can be in various modes as follows.
The control unit 18 may start a predetermined process for outputting information that the user wants to know in response to a dialogue by inputting a voice from the user corresponding to the predetermined recognition word. By doing so, for example, since the predetermined process is started by the input of the voice from the user, it is not necessary for the system to start arbitrarily and execute the process.

制御部18は、対話に応じて、ユーザが知りたい情報を出力するための所定の処理を、所定のキャラクターの音声の出力に対し、所定の認識語句に対応するユーザからの音声の入力があって開始してもよい。このようにすれば、例えば、キャラクターの音声の出力が、ユーザが所定の処理を開始するか否かを判断する契機となるので、システムを利用する機会を増やすことができるのでよい。 The control unit 18 performs a predetermined process for outputting the information that the user wants to know in response to the dialogue, and receives a voice input from the user corresponding to the predetermined recognition phrase with respect to the voice output of the predetermined character. May start. By doing so, for example, the output of the voice of the character serves as an opportunity for the user to determine whether or not to start a predetermined process, so that it is possible to increase the chances of using the system.

キャラクターの音声の出力は、例えば、特定の処理の開始の有無を問い合わせるものとするとよい。このようにすれば、例えば、ユーザが、処理の利用を促されるのでよい。キャラクターの音声の出力のタイミングは、例えば、定期的とすれば、処理を利用させる頻度を高めるのでよい。また、タイミングを所定の条件を満たした場合とすれば、処理の利用に適したタイミングで、ユーザに利用を促すことができるのでよい。 The voice output of the character may, for example, inquire whether or not a specific process has started. By doing so, for example, the user may be prompted to use the process. If the timing of the character's voice output is, for example, periodic, the frequency of using the processing may be increased. Further, if the timing satisfies a predetermined condition, it may be possible to encourage the user to use the process at a timing suitable for the use of the process.

《その他》
周辺の施設を示すアイコンを、地図と比べて相対的に強調表示させる態様としては、施設の位置が明確となる表示とするとよい。例えば、アイコンと地図の明度、彩度、色相の少なくとも一つを変えれば、両者の対比が際立つのでよい。
"others"
As a mode for highlighting the icon indicating the surrounding facility relative to the map, it is preferable to display the location of the facility clearly. For example, changing at least one of the brightness, saturation, and hue of the icon and the map will make the contrast between the two stand out.

周辺の施設を示すアイコンに、所定の基準に従った順位が区別できる表示をする場合、所定の基準としては、例えば、ユーザにとっての重要度が高い順としてもよい。このようにすれば、ユーザが最も知りたい施設が優先的に表示されるのでよい。ユーザにとっての重要度とは、例えば、過去に行ったことがある、過去に行った頻度が高い、ユーザの好みに合う等とするとよい。このようにすれば、ユーザが行きたい施設を素早く知ることができるのでよい。また、例えば、過去に行ったけれども、二度と行きたくないなど、ユーザにとっての重要度が低いものが除外されるようにしてもよい。このようにすれば、例えば、ユーザが行く可能性があるもののみを表示させることができてよい。 When the icon indicating the surrounding facility is displayed so that the ranking according to the predetermined standard can be distinguished, the predetermined standard may be, for example, the order of high importance to the user. By doing so, the facility that the user wants to know most is displayed preferentially. The importance to the user may be, for example, a past visit, a high frequency of visits in the past, a user's preference, and the like. By doing this, the user can quickly know the facility he / she wants to go to. Further, for example, items that have been performed in the past but are not important to the user, such as those who do not want to go again, may be excluded. In this way, for example, it may be possible to display only the items that the user may go to.

順位が区別できる表示としては、例えば、◎、○、△、×等の形状や、明度、彩度、色相により段階的に変化をつける等、視覚的に順位を示す情報としてもよい。このようにすれば、例えば、順位を視覚により直感的に把握できるのでよい。 The display in which the order can be distinguished may be information indicating the order visually, for example, the shape such as ⊚, ◯, Δ, ×, etc., or the information gradually changing according to the lightness, saturation, and hue. By doing so, for example, the ranking can be visually and intuitively grasped.

表示されたアイコンに合わせた内容で、いずれかの施設を選択するユーザの音声を認識する場合、例えば、アルファベットであれば所望の施設のアイコンのアルファベット、形状であれば所望の施設のアイコンの形状、色であれば所望の施設のアイコンの色としてもよい。このようにしても、施設名よりも覚えやすい言葉で、施設を選択することができるのでよい。 When recognizing the voice of the user who selects one of the facilities with the contents according to the displayed icon, for example, if it is an alphabet, the alphabet of the icon of the desired facility, if it is the shape, the shape of the icon of the desired facility. , If it is a color, it may be the color of the icon of the desired facility. Even in this way, it is good because the facility can be selected with words that are easier to remember than the facility name.

ボタン表示された項目の表示領域において、背後の画像が見える部分としては、例えば、透過する部分としてもよい。このようにすれば、例えば、項目表示の視認性を確保したまま、背景の画像も、より良く見ることができるのでよい。 In the display area of the item displayed by the button, the portion where the image behind can be seen may be, for example, a transparent portion. By doing so, for example, the background image can be better viewed while ensuring the visibility of the item display.

ユーザの音声を認識するためにあらかじめ登録される認識ワードが、表示画面に表示されているものと、表示画面に表示されていないものとがあってもよい。このようにすれば、例えば、ユーザが、表示画面に表示されていない語句を発話した場合であっても、あらかじめ設定された認識語句であれば、キャラクターからの何らかの反応を得ることができるので、ユーザにとってサプライズとなり、ユーザに発見の喜びを与えることができる。 The recognition words registered in advance for recognizing the user's voice may be displayed on the display screen or not displayed on the display screen. By doing so, for example, even if the user utters a phrase that is not displayed on the display screen, if it is a preset recognition phrase, some reaction from the character can be obtained. It can be a surprise to the user and give the user the joy of discovery.

認識ワードとしての量的に変化する機能に対応する指示語と、量的レベルを示す数字としては、例えば、「おんりょうさん」、「きどに」、「すけーるにきろ」のように、名称と量的レベルとを1つの認識語句にまとめてもよい。このようにすれば、発話が一回で済むのでよい。 Demonstratives that correspond to quantitatively changing functions as recognition words and numbers that indicate quantitative levels include, for example, "Onryo-san," "Kidoni," and "Sukerunikiro." The name and the quantitative level may be combined into one recognition phrase. By doing this, only one utterance is required.

機能に対応する指示語が表示されるボタンは、別の表示画面に遷移せずに機能を実行させるボタンがあってもよい。このようにすれば、例えば、機能を実行させるために別の表示画面に遷移しなくても、対話により機能を実行させることができるので、現在の画面表示が邪魔されることがなくてよい。 The button on which the demonstrative word corresponding to the function is displayed may have a button for executing the function without transitioning to another display screen. By doing so, for example, the function can be executed by dialogue without transitioning to another display screen in order to execute the function, so that the current screen display does not have to be disturbed.

本実施形態では、ナビゲーション装置の例で説明したが、各種の電子機器の機能として実施することができる。たとえば、レーダー探知機、ドライブレコーダ、カーオーディオの機能として組み込んでもよい。また本実施形態で記載した量的レベルの値、表示部5の画面サイズ、各種の時間設定など、本発明の効果を奏する範囲で任意のものとすることができる。また、制御部18には、各機能や警報の優先順位をリモコン17等からのユーザからの指示に基づいて設定する機能を設け、この設定された優先順位で制御部18が処理を行うように構成してもよい。 In the present embodiment, the example of the navigation device has been described, but it can be implemented as a function of various electronic devices. For example, it may be incorporated as a function of a radar detector, a drive recorder, or a car audio. Further, the quantitative level values described in the present embodiment, the screen size of the display unit 5, various time settings, and the like can be arbitrary as long as the effects of the present invention are exhibited. Further, the control unit 18 is provided with a function of setting the priority of each function or alarm based on an instruction from the user from the remote controller 17 or the like, so that the control unit 18 performs processing in the set priority. It may be configured.

さらに、上述した実施形態では、装置内に各種の情報を記憶したデータベース19を備え、制御部18は係るデータベース19にアクセスして必要な情報を読み出し、各種の処理をしたが、本発明はこれに限ることはない。例えば、データベース19に登録する情報の一部または全部をサーバに登録しておく。そして、ナビゲーション装置、レーダー探知機その他の電子機器・装置は、係るサーバと通信する機能を備え、制御部18は、適宜サーバにアクセスし、必要な情報を取得して処理を実行するシステムとしてもよい。さらには、制御部18の機能の少なくとも一部をサーバにおき、当該機能をサーバで実行し、ユーザが持つ電子機器は、その実行結果を取得するようなシステムとしても良い。 Further, in the above-described embodiment, the apparatus is provided with a database 19 that stores various information, and the control unit 18 accesses the database 19 to read necessary information and performs various processes. It is not limited to. For example, a part or all of the information to be registered in the database 19 is registered in the server. The navigation device, radar detector, and other electronic devices / devices have a function of communicating with the server, and the control unit 18 can access the server as appropriate, acquire necessary information, and execute the process. good. Further, at least a part of the function of the control unit 18 may be placed on the server, the function may be executed on the server, and the electronic device owned by the user may be a system for acquiring the execution result.

上述した実施形態の制御システムとしての機能は制御部18に備えるコンピュータに実現させるためのプログラムとして構成されているが、これに限らずプログラムは複数のコンピュータに分散配置し、分散処理するようにしてもよい。 The function as the control system of the above-described embodiment is configured as a program to be realized by the computer provided in the control unit 18, but the program is not limited to this, and the program is distributed and distributed to a plurality of computers so as to perform distributed processing. May be good.

2 装置本体
3 クレードル
4 ケース本体
5 表示部
6 クレードル本体
7 台座部
8 タッチパネル
10 警報ランプ
11 マイクロ波受信機
12 GPS受信機
13 無線受信機
18 制御部
19 データベース
20 スピーカ
21 SDメモリカード用スロット
22 SDメモリカード
51 現在位置
52 目的地
53 ルート

2 Device body 3 Cradle 4 Case body 5 Display unit 6 Cradle body 7 Pedestal part 8 Touch panel 10 Alarm lamp 11 Microwave receiver 12 GPS receiver 13 Wireless receiver 18 Control unit 19 Database 20 Speaker 21 SD Memory card slot 22 SD Memory card 51 Current location 52 Destination 53 Route

Claims (7)

音声認識機能によりユーザの音声を認識した結果に基づいてキャラクターの音声を出力することにより対話を実現するシステムであって、
前記音声認識機能の起動待ちの状態から前記音声認識機能を起動させて前記ユーザの音声を認識する処理を開始させる機能と、
前記ユーザの音声から前記音声認識機能の起動待ちの状態にするためのフレーズを認識すると、第1の応答フレーズを前記キャラクターの音声により出力するとともに前記起動待ちの状態にさせる機能と、
を有するシステム。
It is a system that realizes dialogue by outputting the character's voice based on the result of recognizing the user's voice by the voice recognition function.
A function of activating the voice recognition function from a state of waiting for the start of the voice recognition function to start a process of recognizing the user's voice, and a function of starting the process of recognizing the user's voice.
When the phrase for putting the voice recognition function into the activation waiting state is recognized from the user's voice, the function of outputting the first response phrase by the voice of the character and making the voice recognition function waiting for activation, and the function of making the voice recognition function waiting for activation.
System with.
前記第1の応答フレーズは、、次回の利用を促す応答フレーズである
請求項1に記載のシステム。
The system according to claim 1, wherein the first response phrase is a response phrase that encourages the next use.
前記音声認識機能の起動待ちの状態において、前記ユーザの音声から前記音声認識機能を起動させるたるためのフレーズを認識すると、第2の応答フレーズを前記キャラクターの音声により出力するとともに前記音声認識機能を起動させる機能
を有する請求項1又は2に記載のシステム。
When the phrase for activating the voice recognition function is recognized from the voice of the user in the state of waiting for the activation of the voice recognition function, a second response phrase is output by the voice of the character and the voice recognition function is activated. The system according to claim 1 or 2, which has a function of activating.
前記ユーザの音声を認識した結果に応じた所定の処理を実行するとともに、当該実行する処理に対応する第3の応答フレーズを前記キャラクターの音声により出力する機能を有し、
同じ前記所定の処理に対応して複数の第3の応答フレーズが登録されており、
前記所定の処理を実行する場合、前記複数の第3の応答フレーズを選択の対象として、選択したいずれかの第3の応答フレーズを出力し、以降、前記所定の処理を実行する場合には、前記複数の第3の応答フレーズのうちの既に選択した第3の応答フレーズを除外したものを選択の対象として、選択したいずれかの第3の応答フレーズを出力するようにし、
前記複数の第3の応答フレーズのすべてを選択した後は、再び、前記複数の第3の応答フレーズのすべてを選択の対象とする
請求項1から3のいずれか1項に記載のシステンム。
It has a function of executing a predetermined process according to the result of recognizing the voice of the user and outputting a third response phrase corresponding to the process to be executed by the voice of the character.
A plurality of third response phrases are registered corresponding to the same predetermined process, and the third response phrase is registered.
When executing the predetermined process, the plurality of third response phrases are selected, any of the selected third response phrases is output, and when the predetermined process is subsequently executed, the predetermined process is executed. Of the plurality of third response phrases, the one excluding the already selected third response phrase is set as the selection target, and any of the selected third response phrases is output.
The system according to any one of claims 1 to 3, wherein all of the plurality of third response phrases are selected, and then all of the plurality of third response phrases are selected again.
前記対話における前記キャラクターの音声に前記ユーザの呼び名を挿入し、前記対話が進行するに従って、前記キャラクターの音声に前記ユーザの呼び名を挿入する頻度を低減させる機能を有する
請求項1から4のいずれか1項に記載のシステンム。
Any of claims 1 to 4, which has a function of inserting the user's name into the voice of the character in the dialogue and reducing the frequency of inserting the user's name into the voice of the character as the dialogue progresses. The system according to item 1.
前記音声認識機能による音声の認識を受け付けているか否かを前記キャラクターの様子を変化させる態様により表示させる機能を有する
請求項1から5のいずれか1項に記載のシステンム。
The system according to any one of claims 1 to 5, which has a function of displaying whether or not voice recognition by the voice recognition function is accepted by changing the appearance of the character.
請求項1から6のいずれか1項のシステムの機能を、コンピュータに実現させるためのプログラム。

A program for realizing the function of the system according to any one of claims 1 to 6 on a computer.

JP2021202205A 2019-09-24 2021-12-14 System and program Pending JP2022027882A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021202205A JP2022027882A (en) 2019-09-24 2021-12-14 System and program
JP2023143393A JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019172412A JP2020008876A (en) 2019-09-24 2019-09-24 System and program
JP2021202205A JP2022027882A (en) 2019-09-24 2021-12-14 System and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019172412A Division JP2020008876A (en) 2019-09-24 2019-09-24 System and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023143393A Division JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Publications (1)

Publication Number Publication Date
JP2022027882A true JP2022027882A (en) 2022-02-14

Family

ID=69151730

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019172412A Pending JP2020008876A (en) 2019-09-24 2019-09-24 System and program
JP2021202205A Pending JP2022027882A (en) 2019-09-24 2021-12-14 System and program
JP2023143393A Pending JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019172412A Pending JP2020008876A (en) 2019-09-24 2019-09-24 System and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023143393A Pending JP2023158056A (en) 2019-09-24 2023-09-05 System and program

Country Status (1)

Country Link
JP (3) JP2020008876A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067045A (en) * 1998-08-20 2000-03-03 Victor Co Of Japan Ltd Text converting device and computer readable recording medium stored with text conversion program
JP2001166794A (en) * 1999-12-08 2001-06-22 Denso Corp Voice recognition device and on-vehicle navigation system
JP2003219038A (en) * 2001-10-22 2003-07-31 Ntt Comware Corp Call center system apparatus and call method in interlocking with customer information
JP2003526120A (en) * 2000-03-09 2003-09-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Dialogue processing method with consumer electronic equipment system
WO2008001550A1 (en) * 2006-06-27 2008-01-03 Murata Kikai Kabushiki Kaisha Audio guidance apparatus, audio guidance method and audio guidance program
JP2011209786A (en) * 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3398401B2 (en) * 1992-03-16 2003-04-21 株式会社東芝 Voice recognition method and voice interaction device
JP3576850B2 (en) * 1999-01-22 2004-10-13 株式会社ケンウッド Navigation device with interactive function
JP2003169147A (en) * 2001-11-30 2003-06-13 Buzzhits Kk Client response system and method
JP2006154926A (en) * 2004-11-25 2006-06-15 Denso Corp Electronic equipment operation system using character display and electronic apparatuses
JP4491438B2 (en) * 2006-06-26 2010-06-30 Necシステムテクノロジー株式会社 Voice dialogue apparatus, voice dialogue method, and program
JP6312053B2 (en) * 2013-09-06 2018-04-18 株式会社ユピテル System and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067045A (en) * 1998-08-20 2000-03-03 Victor Co Of Japan Ltd Text converting device and computer readable recording medium stored with text conversion program
JP2001166794A (en) * 1999-12-08 2001-06-22 Denso Corp Voice recognition device and on-vehicle navigation system
JP2003526120A (en) * 2000-03-09 2003-09-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Dialogue processing method with consumer electronic equipment system
JP2003219038A (en) * 2001-10-22 2003-07-31 Ntt Comware Corp Call center system apparatus and call method in interlocking with customer information
WO2008001550A1 (en) * 2006-06-27 2008-01-03 Murata Kikai Kabushiki Kaisha Audio guidance apparatus, audio guidance method and audio guidance program
JP2011209786A (en) * 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program

Also Published As

Publication number Publication date
JP2023158056A (en) 2023-10-26
JP2020008876A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP6312053B2 (en) System and program
CN108337380A (en) Adjust automatically user interface is for hands-free interaction
KR20170080651A (en) Facilitating interaction between users and their environments using a headset having input mechanisms
JP2019008570A (en) Information processing device, information processing method, and program
CN104978015B (en) Navigation system and its control method with languages self application function
JP2000193480A (en) On-vehicle input/output device
JP6725933B2 (en) System and program
JP2024028844A (en) System and program
JP6601643B2 (en) System and program
JP4259054B2 (en) In-vehicle device
JP6807611B2 (en) Systems and programs
JP7199104B2 (en) System and program
JP2022027882A (en) System and program
JP6661859B2 (en) System and program
JP2018141742A (en) Navigation device, navigation method, and navigation program
JP6291643B2 (en) System and program
JP7296650B2 (en) System and program
JP4258607B2 (en) In-vehicle device
JP2004037953A (en) On-vehicle device, and device and program for data creation
JP2004053251A (en) In-vehicle device, data creating device and data creation program
JP5446540B2 (en) Information retrieval apparatus, control method, and program
KR20160082154A (en) Virtual reality based guide information terminal system interlocking with smart phone
JP2004061252A (en) On-vehicle device, data generation device and data generation program
JP2002350164A (en) Information providing device
US11270682B2 (en) Information processing device and information processing method for presentation of word-of-mouth information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230913

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240418