JP2017159850A - Response system and response program - Google Patents

Response system and response program Download PDF

Info

Publication number
JP2017159850A
JP2017159850A JP2016048020A JP2016048020A JP2017159850A JP 2017159850 A JP2017159850 A JP 2017159850A JP 2016048020 A JP2016048020 A JP 2016048020A JP 2016048020 A JP2016048020 A JP 2016048020A JP 2017159850 A JP2017159850 A JP 2017159850A
Authority
JP
Japan
Prior art keywords
response
user
steering
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016048020A
Other languages
Japanese (ja)
Inventor
泰 上澤
Yasushi Kamisawa
泰 上澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2016048020A priority Critical patent/JP2017159850A/en
Publication of JP2017159850A publication Critical patent/JP2017159850A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique that is able to reduce the possibility that concentration of a user may be decreased due to output of a response.SOLUTION: A response system comprises: an input acceptance section that accepts input of a user; a response generating section that generates a response to the input; a steering state determination section that determines whether the user is steering or not; and a response output section that, when input by the user to the response is requested once or more times and the user is steering, outputs the response after the steering is finished.SELECTED DRAWING: Figure 1

Description

本発明は、応答システムおよび応答プログラムに関する。   The present invention relates to a response system and a response program.

従来、車両等の利用者の発話を認識する音声認識技術が知られている。例えば、特許文献1には、端末から音声認識サーバに音声を送信して音声認識を行わせる構成において、電波状況等の車両状態が所定条件を満たしていないときに、音声の入力を禁止する構成が開示されている。また、特許文献2には、車載用音声認識装置において、車両の走行中にディクテーションが禁止される構成が開示されている。   Conventionally, a voice recognition technique for recognizing a user's utterance such as a vehicle is known. For example, Patent Document 1 discloses a configuration in which voice input is performed when a vehicle state such as a radio wave condition does not satisfy a predetermined condition in a configuration in which voice is transmitted from a terminal to a voice recognition server to perform voice recognition. Is disclosed. Patent Document 2 discloses a configuration in which dictation is prohibited while a vehicle is running in a vehicle-mounted speech recognition device.

特開2003−345391号公報JP 2003-345391 A 特開2003−162295号公報JP 2003-162295 A

上述した従来技術においては、特定の条件において音声認識の実行が禁止される(音声認識が開始されない)。しかし、音声認識の開始タイミングが限定されても利用者にメリットは少ない。例えば、運転中の種々の条件下において音声認識の開始トリガとなる発話を行うことが利用者の集中を妨げることは少ない。一方、車両の運転など、状況の変化に対する対応が必要な行為を行っている利用者に対して、利用者の操作や返答などの入力が要求されると、運転に集中しながら他の行為も行う必要が生じ、利用者の負担が過度になってしまう場合がある。
本発明は、前記課題にかんがみてなされたもので、応答の出力によって利用者の集中が妨げられる可能性を低減することが可能な技術を提供することを目的とする。
In the above-described prior art, execution of speech recognition is prohibited under specific conditions (speech recognition is not started). However, even if the start timing of voice recognition is limited, there are few merits for the user. For example, utterances that serve as triggers for starting speech recognition under various conditions during driving rarely hinder user concentration. On the other hand, when a user who needs to respond to changes in the situation, such as driving a vehicle, is requested to input a user's operation or reply, other actions may be performed while concentrating on driving. It may be necessary to do so, and the burden on the user may become excessive.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of reducing the possibility that the concentration of users is hindered by the output of responses.

上記の目的を達成するため、利用者の入力を受け付ける入力受付部と、入力に対する応答を生成する応答生成部と、利用者が操舵中であるか否かを判定する操舵状態判定部と、応答に対する利用者による入力が1回以上要求されており、かつ、利用者が操舵中である場合、操舵が終了した後に応答を出力する応答出力部と、を備える応答システムが構成される。   In order to achieve the above object, an input receiving unit that receives a user's input, a response generating unit that generates a response to the input, a steering state determination unit that determines whether the user is steering, a response A response system is provided that includes a response output unit that outputs a response after the steering ends when the user is requested to input at least once and the user is steering.

さらに、上記の目的を達成するため、コンピュータを、利用者の入力を受け付ける入力受付部、入力に対する応答を生成する応答生成部、利用者が操舵中であるか否かを判定する操舵状態判定部、応答に対する利用者による入力が1回以上要求されており、かつ、利用者が操舵中である場合、操舵が終了した後に応答を出力する応答出力部、として機能させる応答プログラムが構成される。   Furthermore, in order to achieve the above object, the computer includes an input receiving unit that receives a user's input, a response generating unit that generates a response to the input, and a steering state determination unit that determines whether or not the user is steering A response program is configured to function as a response output unit that outputs a response after the steering is completed when an input by the user for the response is requested at least once and the user is steering.

すなわち、応答システム、応答プログラムにおいては、応答に対する利用者による入力が1回以上要求されており、利用者が操舵中である場合、利用者の入力に対する応答を操舵が終了した後に出力する。応答に対する利用者による入力が1回以上要求されている場合、利用者は応答を認識した後に認識内容に応じた返答や行為を特定し、さらに、応答システムからの応答に対して当該返答や行為を行う必要がある。従って、利用者は、応答に対応する返答や行為を決定する思索のために集中する必要がある。   That is, in the response system and the response program, when the user inputs one or more responses to the response, and the user is steering, the response to the user input is output after the steering is completed. When the user inputs more than one response to the response, the user identifies the response or action corresponding to the recognized content after recognizing the response, and further responds to the response from the response system. Need to do. Therefore, the user needs to concentrate on the thought to determine the response or action corresponding to the response.

そして、利用者が操舵中である場合、利用者は運転に集中すべきであり、応答システムからの応答からの要求に対する返答や行為を行うための集中が要求されると、利用者にとって過度の負担になる可能性がある。そこで、応答に対する利用者による入力が1回以上要求されており、かつ、利用者が操舵中である場合、操舵が終了するまで応答の出力を延期する構成とすれば、応答の出力によって利用者の集中が妨げられる可能性を低減することが可能である。   And when the user is steering, the user should concentrate on driving, and if the user is required to concentrate on responding to the request from the response system or focusing on the action, There is a possibility of burden. Therefore, when the user is requested to input one or more times for the response and the user is steering, if the response output is postponed until the steering is completed, the user can output the response. It is possible to reduce the possibility that the concentration of the light is hindered.

ナビゲーションシステムを示すブロック図である。It is a block diagram which shows a navigation system. 図2Aは応答処理を示すフローチャート、図2Bは外部応答生成処理を示すフローチャートである。FIG. 2A is a flowchart showing response processing, and FIG. 2B is a flowchart showing external response generation processing. 図3Aは応答出力の延期例、図3Bは延期後の出力例、図3Cは応答出力の例を示す図である。3A is an example of postponing response output, FIG. 3B is an example of output after postponement, and FIG. 3C is a diagram illustrating an example of response output.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ナビゲーションシステムの構成:
(2)応答処理:
(3)外部応答生成処理:
(4)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of navigation system:
(2) Response processing:
(3) External response generation processing:
(4) Other embodiments:

(1)ナビゲーションシステムの構成:
図1は、本発明の一実施形態であるナビゲーションシステム10の構成を示すブロック図である。ナビゲーションシステム10は、CPU、RAM、ROM等を備える制御部20を備えており、制御部20は、当該ROMやローカル記憶媒体30に記録された所望のプログラムを実行することができる。本実施形態においては、このプログラムの一つとしてナビゲーションプログラムを実行可能である。当該ナビゲーションプログラムは、表示部に現在地と現在地周辺の地図を表示する機能と目的地までの経路を探索して案内する機能を制御部20に実現させることができる。
(1) Configuration of navigation system:
FIG. 1 is a block diagram showing a configuration of a navigation system 10 according to an embodiment of the present invention. The navigation system 10 includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and the control unit 20 can execute a desired program recorded in the ROM or the local storage medium 30. In this embodiment, a navigation program can be executed as one of the programs. The navigation program can cause the control unit 20 to realize a function of displaying a current location and a map around the current location on the display unit and a function of searching and guiding a route to the destination.

また、ナビゲーションプログラムは、応答プログラムを含んでおり、制御部20は、応答プログラム21の処理により、利用者とナビゲーションシステム10とで音声による対話を行う機能を実行する。対話は、利用者の発話音声による入力と、ナビゲーションシステム10からの応答とが実行されることによって実現される。   In addition, the navigation program includes a response program, and the control unit 20 executes a function of performing a voice conversation between the user and the navigation system 10 by the processing of the response program 21. The dialogue is realized by executing an input by the user's uttered voice and a response from the navigation system 10.

ナビゲーションシステム10が使用される車両は、GPS受信部41と車速センサ42とジャイロセンサ43とユーザI/F部44と通信部45とステアリングセンサ46とを備えている。GPS受信部41は、GPS衛星からの電波を受信し、図示しないインタフェースを介して車両の現在地を算出するための信号を出力する。車速センサ42は、車両が備える車輪の回転速度に対応した信号を出力する。制御部20は、図示しないインタフェースを介してこの信号を取得し、車速を取得する。ジャイロセンサ43は、車両の水平面内の旋回についての角加速度を検出し、車両の向きに対応した信号を出力する。   A vehicle in which the navigation system 10 is used includes a GPS receiver 41, a vehicle speed sensor 42, a gyro sensor 43, a user I / F unit 44, a communication unit 45, and a steering sensor 46. The GPS receiver 41 receives radio waves from GPS satellites and outputs a signal for calculating the current location of the vehicle via an interface (not shown). The vehicle speed sensor 42 outputs a signal corresponding to the rotational speed of the wheels provided in the vehicle. The control unit 20 acquires this signal via an interface (not shown) and acquires the vehicle speed. The gyro sensor 43 detects angular acceleration about turning in the horizontal plane of the vehicle, and outputs a signal corresponding to the direction of the vehicle.

制御部20は、この信号を取得して車両の進行方向を取得する。制御部20は、車速センサ42およびジャイロセンサ43等の出力信号に基づいて車両の走行軌跡を特定することで車両の現在地を取得する。GPS受信部41の出力信号は、車速センサ42およびジャイロセンサ43等から特定される車両の現在地を補正するなどのために利用される。   The control unit 20 acquires this signal and acquires the traveling direction of the vehicle. The control unit 20 acquires the current location of the vehicle by specifying the travel locus of the vehicle based on output signals from the vehicle speed sensor 42 and the gyro sensor 43 and the like. The output signal of the GPS receiver 41 is used for correcting the current location of the vehicle specified by the vehicle speed sensor 42, the gyro sensor 43, and the like.

ユーザI/F部44は、利用者に種々の情報を提供し、また、利用者から種々の入力を受け付けるためのインタフェース部であり、図示しない表示部や操作入力部、スピーカー、マイク等を備えている。制御部20は、ナビゲーションプログラムの機能により、当該車両の現在地周辺の地図や経路、施設の検索結果等を表示部に表示することができる。また、制御部20は、マイクによって利用者の発話音声を取得することが可能であり、各種の音データに基づいてスピーカーから音声を含む任意の音を出力することが可能である。   The user I / F unit 44 is an interface unit for providing various information to the user and receiving various inputs from the user, and includes a display unit, an operation input unit, a speaker, a microphone, and the like (not shown). ing. The control unit 20 can display, on the display unit, a map and route around the current location of the vehicle, a facility search result, and the like by the function of the navigation program. Moreover, the control part 20 can acquire a user's speech sound with a microphone, and can output arbitrary sounds including a sound from a speaker based on various sound data.

通信部45は、外部システム50と無線通信するための回路を備えており、制御部20と外部システム50の間では、通信部45を介して任意の情報が授受される。本実施形態において、制御部20は、利用者の発話音声を示す情報を、通信部45を介して外部システム50に対して送信することができる。   The communication unit 45 includes a circuit for wirelessly communicating with the external system 50, and arbitrary information is exchanged between the control unit 20 and the external system 50 via the communication unit 45. In the present embodiment, the control unit 20 can transmit information indicating the user's uttered voice to the external system 50 via the communication unit 45.

外部システム50は図示しない外部記憶媒体を備えており、当該外部記憶媒体には外部データベース50aが記録されている。外部システム50が、当該発話音声を示す情報を取得すると、外部システム50は、外部データベース50aに基づいて音声認識を行い、認識結果としての文字列に対する応答である外部応答を生成する。外部応答が生成されると、外部システム50は、外部応答を示す情報をナビゲーションシステム10に対して送信する。制御部20は、通信部45を介して、当該外部応答を示す情報を受信することができる。   The external system 50 includes an external storage medium (not shown), and an external database 50a is recorded on the external storage medium. When the external system 50 acquires information indicating the uttered voice, the external system 50 performs voice recognition based on the external database 50a, and generates an external response that is a response to the character string as a recognition result. When the external response is generated, the external system 50 transmits information indicating the external response to the navigation system 10. The control unit 20 can receive information indicating the external response via the communication unit 45.

なお、本実施形態において、外部データベース50aには、時間の経過とともに更新され得る情報や増加し得る情報が含まれる。例えば、外部システム50は、各種のニュース情報や、各地の天候情報、任意の道路の交通情報等を収集する処理を行っており、収集された情報を外部データベース50aとして記録、管理している。外部システム50は、検索対象の情報を外部データベース50aから検索し、外部応答として生成することが可能である。   In the present embodiment, the external database 50a includes information that can be updated and information that can be increased over time. For example, the external system 50 performs a process of collecting various news information, weather information of each place, traffic information of an arbitrary road, etc., and records and manages the collected information as an external database 50a. The external system 50 can search for information to be searched from the external database 50a and generate it as an external response.

ステアリングセンサ46は、車両が備えるステアリングの回転角度を出力するセンサであり、制御部20は、当該ステアリングセンサ46の出力信号に基づいて、操舵角を取得することができる。なお、操舵角は、例えば、ステアリングが操作されていない状態を0°、特定の回転方向を正、逆の回転方向を負とした角度として取得されれば良い。   The steering sensor 46 is a sensor that outputs the rotation angle of the steering included in the vehicle, and the control unit 20 can acquire the steering angle based on the output signal of the steering sensor 46. The steering angle may be acquired as, for example, an angle in which the steering operation is not performed at 0 °, a specific rotation direction is positive, and the reverse rotation direction is negative.

ローカル記憶媒体30には、ローカルデータベース30aが記録されている。ローカルデータベース30aには、地図情報30a1と音声データベース30a2とが含まれている。地図情報30a1は、現在地の特定や施設の検索等に利用される情報であり、道路上に設定されたノードの位置等を示すノードデータ,ノード間の道路の形状を特定するための形状補間点データ,ノード同士の連結を示すリンクデータ,道路やその周辺に存在する施設の位置、属性および名称等を示す施設データ等を含んでいる。   A local database 30a is recorded in the local storage medium 30. The local database 30a includes map information 30a1 and a voice database 30a2. The map information 30a1 is information used for specifying the current location, searching for facilities, and the like, node data indicating the positions of nodes set on the road, and shape interpolation points for specifying the shape of the road between the nodes. It includes data, link data indicating the connection between nodes, facility data indicating the location, attributes, names, etc. of facilities existing on and around the road.

従って、施設データは、複数個の施設のそれぞれに関するレコードによって構成され、各レコードに対して位置、属性、名称等の複数の項目毎の情報が対応づけられたデータである。なお、本実施形態において各施設の属性には、施設の種類、例えば、レストラン、コンビニエンスストア、公共施設等を示す情報が対応づけられている。また、本実施形態において利用者は、任意の施設や任意の住所を自宅地点として登録することが可能であり、自宅を示す情報が施設や住所等に対応づけられている。   Therefore, the facility data is data in which records for each of a plurality of facilities are configured, and information for each of a plurality of items such as a position, an attribute, and a name is associated with each record. In the present embodiment, the attributes of each facility are associated with information indicating the type of facility, for example, a restaurant, a convenience store, a public facility, and the like. In this embodiment, the user can register an arbitrary facility and an arbitrary address as a home point, and information indicating the home is associated with the facility, the address, and the like.

音声データベース30a2は、利用者の発話音声を認識して文字列化する際に参照される情報である。音声データベース30a2は、音声認識を実行するためのアルゴリズムに応じて種々の情報とすることができる。例えば、制御部20が、発話音声の波形から音素に対応した特徴量を調べて音素列を作成し、音響モデルおよび言語モデルと比較することによって音素列に対応する尤も確からしい文字列を取得する構成を有している場合、音声データベース30a2には、音響モデルおよび言語モデルを示す情報が含まれる。   The voice database 30a2 is information that is referred to when a user's uttered voice is recognized and converted into a character string. The voice database 30a2 can be various information according to an algorithm for executing voice recognition. For example, the control unit 20 creates a phoneme string by examining a feature amount corresponding to a phoneme from the waveform of a speech voice, and obtains a character string that is likely to correspond to the phoneme string by comparing the phoneme string with an acoustic model and a language model. When having the configuration, the voice database 30a2 includes information indicating the acoustic model and the language model.

応答プログラム21は、利用者の入力に対する応答を出力するために、入力受付部21aと応答生成部21bと操舵状態判定部21cと応答出力部21dとを備えている。入力受付部21aは、利用者の入力を受け付ける機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、利用者が応答を望む内容を、利用者の発話音声に基づいて制御部20が特定する構成が採用されており、制御部20は、マイクを介して利用者の発話音声を取得する。   The response program 21 includes an input reception unit 21a, a response generation unit 21b, a steering state determination unit 21c, and a response output unit 21d in order to output a response to a user input. The input receiving unit 21a is a program module that causes the control unit 20 to realize a function of receiving user input. In the present embodiment, a configuration is adopted in which the control unit 20 specifies the content that the user wants to respond to based on the user's utterance voice, and the control unit 20 uses the microphone to utter the user's utterance voice. To get.

応答生成部21bは、入力に対する応答である応答を生成する機能を制御部20に実現させるプログラムモジュールである。すなわち、制御部20は、入力受付部21aの処理によって受け付けた発話音声に対して、応答生成部21bの処理によって音声認識を行い、当該発話音声の認識結果に基づいてローカル応答を生成する。また、制御部20は、外部システム50に発話音声の音声認識を実行させ、認識結果に基づいて外部応答を生成する。そして、ローカル応答と外部応答を合成して応答システムの応答と見なす。   The response generation unit 21b is a program module that causes the control unit 20 to realize a function of generating a response that is a response to an input. That is, the control unit 20 performs voice recognition on the uttered voice received by the process of the input receiving unit 21a by the process of the response generation unit 21b, and generates a local response based on the recognition result of the uttered voice. In addition, the control unit 20 causes the external system 50 to perform speech recognition of the uttered speech, and generates an external response based on the recognition result. The local response and the external response are combined and regarded as a response system response.

入力と応答の態様は種々の態様が想定可能である。例えば、入力と応答が、情報の要求と情報の提示である例や、命令と実行である例が想定される。本実施形態においては、入力が目的地の指定または目的地としての施設の検索要求(検索条件の指定)であり、応答が指定された目的地の設定または検索結果の出力である例を想定する。音声認識は、例えば、制御部20が、入力受付部21aの処理によって受け付けた発話音声の波形から音素に対応した特徴量を調べて音素列を作成し、音声データベース30a2として記録された音響モデルおよび言語モデルと音素列とを比較することによって音素列に対応する尤も確からしい文字列を取得することによって実現可能である。   Various modes of input and response can be assumed. For example, an example in which the input and response are a request for information and presentation of information, or an example in which an instruction and execution are performed is assumed. In the present embodiment, an example is assumed in which an input is a destination designation or a facility search request (designation of a search condition) as a destination, and a response is a destination setting designated or an output of a search result. . In the speech recognition, for example, the control unit 20 creates a phoneme string by examining the feature amount corresponding to the phoneme from the waveform of the uttered speech accepted by the processing of the input accepting unit 21a, and the acoustic model recorded as the speech database 30a2. This can be realized by comparing the language model with the phoneme sequence to obtain a character string that is likely to correspond to the phoneme sequence.

文字列が取得されると、制御部20は、当該文字列から、利用者の入力が目的地の指定または目的地としての施設の検索要求のいずれであるのかを判定する。利用者の入力が目的地の指定である場合、制御部20は、地図情報30a1を参照して指定された地点や施設を検索し、目的地として取得する。この場合、制御部20は、取得された目的地を示す情報を応答と見なす(後述の処理によって、目的地を示す情報(文字列)が出力されることになる)。なお、利用者の入力が目的地の指定である場合、外部システム50による外部応答の生成は行われない。   When the character string is acquired, the control unit 20 determines from the character string whether the user input is a destination designation or a facility search request as a destination. When the user's input is designation of the destination, the control unit 20 searches for the designated spot or facility with reference to the map information 30a1 and acquires it as the destination. In this case, the control unit 20 regards the information indicating the acquired destination as a response (information (character string) indicating the destination is output by the processing described later). Note that when the user's input is the designation of the destination, the external response is not generated by the external system 50.

一方、利用者の入力が目的地としての施設の検索要求である場合、制御部20は、利用者の入力を示す文字列に基づいて検索対象及び検索条件を特定し、ローカルデータベース30aを参照し、当該検索条件によって検索対象を検索する。さらに、制御部20は、通信部45を介して発話音声を示す情報を外部システム50に送信する。外部システム50が当該発話音声を示す情報を取得すると、外部システム50は外部データベース50aを参照し、発話音声を認識する。音声認識は制御部20における認識と同様の処理等によって実現可能である。音声認識が行われて文字列が特定されると、外部システム50は、当該文字列が示す検索対象と検索条件を特定し、外部データベース50aを参照して検索結果を取得する。検索結果が得られると、外部システム50は当該検索結果をナビゲーションシステム10に送信し、制御部20は、通信部45を介して当該検索結果を取得する。   On the other hand, when the user input is a search request for a facility as a destination, the control unit 20 specifies a search target and a search condition based on a character string indicating the user input, and refers to the local database 30a. The search object is searched according to the search condition. Furthermore, the control unit 20 transmits information indicating the speech voice to the external system 50 via the communication unit 45. When the external system 50 acquires information indicating the uttered voice, the external system 50 refers to the external database 50a and recognizes the uttered voice. The voice recognition can be realized by the same processing as the recognition in the control unit 20. When voice recognition is performed and a character string is specified, the external system 50 specifies a search target and a search condition indicated by the character string, and acquires a search result by referring to the external database 50a. When the search result is obtained, the external system 50 transmits the search result to the navigation system 10, and the control unit 20 acquires the search result via the communication unit 45.

以上の処理により、ローカルデータベース30aによる応答生成または外部データベース50aも利用した応答生成が行われた状態となる。外部データベース50aも利用した応答生成が行われた場合、制御部20は、ローカルデータベース30aによる検索結果と外部データベース50aによる検索結果の重複を削除するなどして両者を結合し、入力に対する応答とする。   With the above processing, the response generation by the local database 30a or the response generation using the external database 50a is performed. When the response generation using the external database 50a is also performed, the control unit 20 combines both the search results by the local database 30a and the search results by the external database 50a, for example, and makes a response to the input. .

なお、外部システム50は、複数のナビゲーションシステム10と通信を行うことが可能であるため、外部データベース50aのメンテナンスを行えば、その効果を複数のナビゲーションシステム10で享受することが可能である。このため、外部データベース50aには、ローカルデータベース30aには含まれない検索対象や検索項目を示す単語を文字列から高い確率で認識するためのデータが含まれている。従って、外部システム50による音声認識および応答生成を併用することにより、より高度な認識や応答の生成が行われる可能性が高い。このように、ローカルデータベース30aのみならず、外部データベース50aを利用した応答の生成を行う構成においては、利用者が入力を行ってから応答が生成されるまでに、利用者が認識できるほどのタイムラグが生じる場合もあるため、応答の生成が完了した段階で利用者が操舵中になっている場合が発生しやすい。従って、外部データベース50aを利用して応答を生成する本実施形態においては、操舵中に応答を出力しない構成が採用されることの利点が現れやすい。   Since the external system 50 can communicate with a plurality of navigation systems 10, if the maintenance of the external database 50 a is performed, the effect can be enjoyed by the plurality of navigation systems 10. For this reason, the external database 50a includes data for recognizing words indicating search targets and search items that are not included in the local database 30a from the character string with high probability. Therefore, by using voice recognition and response generation by the external system 50 together, there is a high possibility that more advanced recognition and response generation will be performed. As described above, in a configuration in which a response is generated using not only the local database 30a but also the external database 50a, a time lag that can be recognized by the user from when the user inputs to when the response is generated. In some cases, the case where the user is steering is likely to occur when the generation of the response is completed. Therefore, in this embodiment in which a response is generated using the external database 50a, an advantage of adopting a configuration that does not output a response during steering tends to appear.

ただし、音声認識および認識結果に基づく応答の生成は、ローカルデータベース30a,外部データベース50aが双方において行われることは必須ではなく、各データベースのいずれかまたは双方によって音声認識や応答の生成が実施されてよい。例えば、制御部20が、各種の規則によって参照すべきデータベースを決定する構成が採用されてもよい。むろん、一方のデータベースのみが参照される構成であれば、他方のデータベースは省略されてよい。   However, it is not essential that both the local database 30a and the external database 50a generate voice recognition and a response based on the recognition result, and voice recognition and response generation are performed by either or both of the databases. Good. For example, a configuration in which the control unit 20 determines a database to be referred to according to various rules may be employed. Of course, if only one database is referred to, the other database may be omitted.

操舵状態判定部21cは、利用者が操舵中であるか否かを判定する機能を制御部20に実現させるプログラムモジュールである。すなわち、制御部20は、ステアリングセンサ46の出力信号を取得し、ステアリングの操舵角を取得する。そして、操舵角の絶対値が閾値以下ではない場合に車両が操舵中であるとみなす。   The steering state determination unit 21c is a program module that causes the control unit 20 to realize a function of determining whether or not the user is steering. That is, the control unit 20 acquires the output signal of the steering sensor 46 and acquires the steering angle of the steering. Then, when the absolute value of the steering angle is not less than or equal to the threshold value, it is considered that the vehicle is being steered.

応答出力部21dは、応答に対する利用者による入力が1回以上要求されており、かつ、利用者が操舵中である場合、操舵が終了した後に応答を出力する機能を制御部20に実現させるプログラムモジュールである。すなわち、利用者が操舵中である場合に応答が出力されると、利用者の集中が妨げられる可能性が高い。そこで、制御部20は、操舵中である場合、利用者による入力が要求されるような応答の出力を操舵が終了するまで延期する。具体的には、操舵状態判定部21cの処理による判定結果を参照し、操舵中である場合、制御部20は、応答の種類に基づいて応答の即時出力または出力の延期を行う。   The response output unit 21d is a program that causes the control unit 20 to implement a function of outputting a response after the steering is completed when the user is requested to input the response one or more times and the user is steering. It is a module. That is, if a response is output when the user is steering, the user's concentration is likely to be hindered. Therefore, when the steering is in progress, the control unit 20 postpones the output of a response that requires input by the user until the steering is completed. Specifically, referring to the determination result obtained by the process of the steering state determination unit 21c, when the steering is in progress, the control unit 20 performs immediate output of the response or postponement of the output based on the type of response.

このため、本実施形態においては、操舵中であっても出力される応答と、操舵中には出力が延期される応答とが応答の内容によって予め区別されている。すなわち、応答に対する利用者による入力が要求されている場合、利用者は応答を認識した後に認識内容に応じた返答や行為を特定し、さらに、応答システムからの応答に対して当該返答や行為を行う必要がある。従って、利用者は、応答に対応する返答や行為を決定する思索のために集中する必要がある。   For this reason, in this embodiment, a response output even during steering and a response whose output is postponed during steering are distinguished in advance by the content of the response. In other words, when the user is requested to input a response, the user identifies the response or action corresponding to the recognized content after recognizing the response, and further responds to the response from the response system. There is a need to do. Therefore, the user needs to concentrate on the thought to determine the response or action corresponding to the response.

そして、利用者が操舵中である場合、利用者は運転に集中すべきであり、応答システムからの応答からの要求に対する返答や行為を行うための集中が要求されると、利用者にとって過度の負担になる可能性がある。そこで、本実施形態においては、応答に対して利用者の返答や行為が行われる必要がある応答である場合、操舵中には出力が延期される応答とみなされる。   And when the user is steering, the user should concentrate on driving, and if the user is required to concentrate on responding to the request from the response system or focusing on the action, There is a possibility of burden. Therefore, in the present embodiment, when the response is a response that requires a user's response or action, the response is regarded as a response in which the output is postponed during steering.

一方、応答に対する利用者による入力が要求されていない場合、操舵中であっても出力される応答と見なされる。すなわち、本実施形態においては、利用者が操舵中であっても、応答に対する利用者による入力が要求されていないならば、応答が行われても利用者の操舵に対する集中が妨げられる可能性が小さいとみなされる。本実施形態においては、応答の際に制御部20が実施すべき処理の内容によって、応答に対する利用者による入力が要求されるか否かを判定することができる。むろん、応答に対する利用者による入力が要求されるか否かを示す情報が、各応答の態様に対して対応づけられており、制御部20が当該情報に基づいて、応答に対する利用者による入力が要求されるか否か判定する構成であってもよい。   On the other hand, when an input by the user for the response is not requested, it is regarded as an output response even during steering. That is, in this embodiment, even if the user is steering, if the user does not request an input for the response, the user may concentrate on the steering even if the response is made. Considered small. In the present embodiment, it is possible to determine whether or not an input by the user for the response is requested according to the content of the process to be performed by the control unit 20 in response. Of course, information indicating whether or not an input by the user for the response is requested is associated with each response mode, and the control unit 20 receives the input by the user for the response based on the information. It may be configured to determine whether or not it is required.

そして、操舵中であり、かつ、応答に対する利用者による入力が要求される場合、制御部20は応答を出力せず待機する。操舵中であっても応答に対する利用者による入力が要求されない場合、制御部20は応答を出力させる。なお、操舵状態判定部21cの処理による判定結果が操舵中であることを示していない場合、制御部20は、応答生成部21bの処理によって生成された応答をユーザI/F部44に出力させる。従って、操舵中であることによって応答の出力が延期されていた場合においても、操舵が終了すると当該応答が出力される。   When the steering is being performed and an input by the user for the response is requested, the control unit 20 waits without outputting the response. Even when the vehicle is being steered, if the user does not require an input for the response, the control unit 20 outputs the response. In addition, when the determination result by the process of the steering state determination unit 21c does not indicate that the steering is being performed, the control unit 20 causes the user I / F unit 44 to output the response generated by the process of the response generation unit 21b. . Therefore, even when the output of the response is postponed due to the steering, the response is output when the steering is completed.

応答の出力態様は種々の態様を想定可能であり、本実施形態において、制御部20は、応答を示す文字列に基づいて当該文字列の発話音である音声をユーザI/F部44に出力させる。このため、制御部20は、当該応答の発話音である音声を示す情報をユーザI/F部44のスピーカーに対して出力する。この結果、ユーザI/F部44のスピーカーから応答を示す音声が出力される。   Various modes of response can be assumed, and in the present embodiment, the control unit 20 outputs the voice that is the utterance sound of the character string to the user I / F unit 44 based on the character string indicating the response. Let Therefore, the control unit 20 outputs information indicating the voice that is the utterance sound of the response to the speaker of the user I / F unit 44. As a result, sound indicating a response is output from the speaker of the user I / F unit 44.

以上の構成によれば、操舵中において、利用者の集中を妨げ得る応答が出力されず、応答の出力によって利用者の集中が妨げられる可能性を低減することが可能である。さらに、利用者の集中を妨げる可能性が低く、応答の出力の延期が必要ではない場合にまで出力を延期することを防止することができる。従って、この場合には応答のレスポンスを高速化することが可能である。   According to the above configuration, during steering, a response that can hinder the user's concentration is not output, and it is possible to reduce the possibility that the user's concentration is hindered by the output of the response. Furthermore, it is unlikely that the user's concentration is disturbed, and it is possible to prevent the output from being postponed until it is not necessary to postpone the output of the response. Therefore, in this case, the response speed can be increased.

(2)応答処理:
次に、ナビゲーションシステム10が実行する応答処理を説明する。ナビゲーションシステム10においては、利用者の操作やマイクによる既定のワードの検出など種々のトリガによって図2Aに示す応答処理が開始される。応答処理において、制御部20は、入力受付部21aの処理により、発話音声による入力を受け付ける(ステップS100)。すなわち、制御部20は、ユーザI/F部44のマイクを介して利用者の発話音声を示す波形情報を取得する。図3A、図3Cにおいては、ユーザI/F部44の表示部の画面例44aを示しており、道路を線、予定経路を太い線、車両を符号C、目的地を符号Gで示している。また、図3Aにおいては、利用者Uが「近くのコンビニエンスストアを教えて」と発話した例を示しており、図3Cにおいては、利用者Uが「自宅に帰る」と発話した例を示している。
(2) Response processing:
Next, response processing executed by the navigation system 10 will be described. In the navigation system 10, the response process shown in FIG. 2A is started by various triggers such as a user operation and detection of a predetermined word by a microphone. In the response process, the control unit 20 receives an input by the uttered voice by the process of the input receiving unit 21a (step S100). That is, the control unit 20 acquires waveform information indicating the user's uttered voice via the microphone of the user I / F unit 44. 3A and 3C show a screen example 44a of the display unit of the user I / F unit 44. The road is shown as a line, the planned route is shown as a thick line, the vehicle is shown as C, and the destination is shown as G. . FIG. 3A shows an example in which the user U utters “tell me a convenience store nearby”, and FIG. 3C shows an example in which the user U utters “going home”. Yes.

次に、制御部20は、応答生成部21bの処理により、発話音声を外部システム50に送信する(ステップS105)。すなわち、制御部20は、ステップS100の処理によって取得した発話音声を示す波形情報を、通信部45を介して、外部システム50に対して送信する。ただし、利用者の入力に対する応答を生成するために外部データベース50aを利用する必要がない場合、例えば、図3Cのように利用者の発話による入力が目的地の指定である場合、ステップS105は省略されてよく、本実施形態においては、目的地の指定に際して発話音声が外部システム50に送信されない例が想定されている。むろん、利用者の入力が目的地としての施設の検索である場合、発話音声が外部システム50に送信される。   Next, the control unit 20 transmits the uttered voice to the external system 50 by the process of the response generation unit 21b (step S105). That is, the control unit 20 transmits the waveform information indicating the uttered voice acquired by the process of step S <b> 100 to the external system 50 via the communication unit 45. However, if it is not necessary to use the external database 50a to generate a response to the user's input, for example, if the input by the user's utterance is the designation of the destination as shown in FIG. 3C, step S105 is omitted. In the present embodiment, an example is assumed in which the uttered voice is not transmitted to the external system 50 when the destination is specified. Of course, when the user's input is a search for a facility as a destination, the uttered voice is transmitted to the external system 50.

次に、制御部20は、応答生成部21bの処理により、ローカルデータベース30aに基づいて音声認識を行う(ステップS110)。すなわち、制御部20は、音声データベース30a2を参照し、ステップS100の処理によって取得した発話音声を予め決められた音声認識アルゴリズムで解析し、発話音声の内容として尤も確率の高い文字列を取得する。ここでは、図3Aに示す例において「近くのコンビニエンスストアを教えて」が文字列として認識された状態または図3Cに示す例において「自宅に帰る」が文字列として認識された状態を想定する。   Next, the control unit 20 performs voice recognition based on the local database 30a by the processing of the response generation unit 21b (step S110). That is, the control unit 20 refers to the voice database 30a2, analyzes the uttered voice acquired by the process of step S100 using a predetermined voice recognition algorithm, and acquires a character string having a high probability as the content of the uttered voice. Here, it is assumed that “Tell me about a nearby convenience store” is recognized as a character string in the example shown in FIG. 3A, or “Return to home” is recognized as a character string in the example shown in FIG. 3C.

次に、制御部20は、応答生成部21bの処理により、ローカルデータベース30aに基づいて検索結果を取得する(ステップS115)。すなわち、制御部20は、ステップS110の処理で取得した文字列から検索対象と検索条件とを特定する。例えば、図3Aに示す例においては、「近くのコンビニエンスストアを教えて」という文字列が音声認識結果として得られているため、制御部20は、施設を検索対象とし、コンビニエンスストア属性が対応づけられていることおよび現在地から近いことを検索条件とする。図3Cに示す例においては、「自宅に帰る」という文字列が音声認識結果として得られているため、制御部20は、施設や住所を検索対象とし、自宅情報が対応づけられていることを検索条件とする。   Next, the control part 20 acquires a search result based on the local database 30a by the process of the response generation part 21b (step S115). That is, the control unit 20 specifies a search target and a search condition from the character string acquired in the process of step S110. For example, in the example shown in FIG. 3A, since the character string “Tell me about a nearby convenience store” is obtained as a speech recognition result, the control unit 20 makes the facility a search target and associates the convenience store attribute with it. The search condition is that the current location is close to the current location. In the example shown in FIG. 3C, since the character string “return to home” is obtained as the voice recognition result, the control unit 20 sets the facility or address as the search target and associates the home information. Search conditions.

そして、制御部20は、ローカルデータベース30aの地図情報30a1を参照して検索条件に合致する検索対象を取得する。図3Aに示す例であれば、制御部20は、コンビニエンスストア属性の施設を検索する。さらに、制御部20は、施設の検索の際に、GPS受信部41、車速センサ42、ジャイロセンサ43の出力に基づいて現在地を特定し、当該現在地から各施設までの距離が近い順に規定の数の施設を検索する。検索結果が得られると、制御部20は、検索された施設の名称、位置を示す情報を特定し、ローカル応答とする。図3Cに示す例であれば、制御部20は、自宅情報が対応づけられた施設や住所を検索し、検索された施設の位置または住所をローカル応答とする。   Then, the control unit 20 refers to the map information 30a1 in the local database 30a and acquires a search target that matches the search condition. In the example illustrated in FIG. 3A, the control unit 20 searches for a facility having a convenience store attribute. Further, when searching for facilities, the control unit 20 specifies the current location based on the outputs of the GPS receiving unit 41, the vehicle speed sensor 42, and the gyro sensor 43, and the specified number is in order of increasing distance from the current location to each facility. Search for facilities. When the search result is obtained, the control unit 20 specifies information indicating the name and position of the searched facility and sets it as a local response. In the example shown in FIG. 3C, the control unit 20 searches for a facility or address associated with home information, and uses the searched location or address of the facility as a local response.

次に、制御部20は、応答生成部21bの処理により、外部応答を受信したか否かを判定する(ステップS120)。すなわち、ステップS105によって送信された発話音声が外部システム50で受信されると、外部システム50において外部応答生成処理が行われ、外部応答が生成されると、外部応答を示す情報が外部システム50からナビゲーションシステム10に対して送信される。そこで、制御部20は、外部システム50が送信した外部応答が通信部45を介して取得されたか否かを判定する。ステップS120において、外部応答を受信したと判定されない場合、制御部20は、外部応答を受信したと判定されるまで待機する(ただし、図3Cの場合、発話音声を示す情報は外部システム50に送信されないため、制御部20は、ステップS120をスキップする。)。図3Aに示す例においては、制御部20の処理によって現在地を示す情報が外部システム50に送信され、外部システム50によって現在地の近くのコンビニエンスストア属性の施設が検索されて外部応答とされる。   Next, the control unit 20 determines whether or not an external response has been received by the processing of the response generation unit 21b (step S120). That is, when the utterance voice transmitted in step S105 is received by the external system 50, an external response generation process is performed in the external system 50. When an external response is generated, information indicating the external response is received from the external system 50. Sent to the navigation system 10. Therefore, the control unit 20 determines whether or not the external response transmitted by the external system 50 has been acquired via the communication unit 45. If it is not determined in step S120 that an external response has been received, the control unit 20 waits until it is determined that an external response has been received (however, in FIG. 3C, information indicating the utterance voice is transmitted to the external system 50). Therefore, the control unit 20 skips step S120.) In the example shown in FIG. 3A, information indicating the current location is transmitted to the external system 50 by the processing of the control unit 20, and the convenience store attribute facility near the current location is searched by the external system 50 to be an external response.

次に、制御部20は、応答生成部21bの処理により、応答を生成する(ステップS125)。すなわち、制御部20は、ステップS115において取得された検索結果(ローカル応答)とステップS120の処理によって外部システム50から取得された検索結果(外部応答)を結合する。この際、制御部20は、双方の検索結果にて重複する結果は削除する。図3Aに示す例であれば、ステップS115において検索結果と、ステップS120の処理によって外部システム50から取得された検索結果との重複が削除された検索結果を取得する。図3Cに示す例であれば、ステップS120において検索結果は取得されないため、制御部20は、ステップS115の処理によって取得された検索結果が取得された状態となる。   Next, the control part 20 produces | generates a response by the process of the response production | generation part 21b (step S125). That is, the control unit 20 combines the search result (local response) acquired in step S115 and the search result (external response) acquired from the external system 50 by the process of step S120. At this time, the control unit 20 deletes duplicate results in both search results. In the example shown in FIG. 3A, a search result in which the duplicate of the search result in step S115 and the search result acquired from the external system 50 by the process in step S120 is deleted is acquired. In the example shown in FIG. 3C, since the search result is not acquired in step S120, the control unit 20 is in a state where the search result acquired by the process of step S115 is acquired.

さらに、制御部20は、応答出力の際に実施すべき処理を決定する。本実施形態においては、利用者の入力内容毎に応答出力の際に実施すべき処理が予め決定されている。例えば、利用者の入力が図3Aのように目的地としての施設の検索要求である場合、検索結果の出力と目的地の選択の受け付けが実施すべき処理である。一方、利用者の入力が図3Cのように目的地の指定である場合、指定された目的地の出力と当該目的地までの経路の案内が実施すべき処理である。   Furthermore, the control unit 20 determines a process to be performed when a response is output. In the present embodiment, processing to be performed at the time of response output is determined in advance for each input content of the user. For example, when the user input is a search request for a facility as a destination as shown in FIG. 3A, the output of the search result and the reception of the selection of the destination are processes to be performed. On the other hand, when the user's input is designation of a destination as shown in FIG. 3C, output of the designated destination and guidance of the route to the destination are processing to be performed.

次に、制御部20は、応答出力部21dの処理により、ステップS125で生成された応答に対してさらに利用者の入力が必要であるか否かを判定する(ステップS127)。すなわち、制御部20は、ステップS125で取得された応答としての処理の内容に基づいて、応答に対してさらに利用者の入力が必要であるか否かを判定する。例えば、図3Aに示す例のように、応答の際に目的地の選択の受け付けが実施される場合、利用者は目的地を選択するための入力が必要であるため、制御部20は、応答に対してさらに利用者の入力が必要であると判定する。図3Cに示す例のように、応答の際にもっぱら情報の提示があるのみである場合、利用者は入力を行う必要がないため、制御部20は、応答に対してさらに利用者の入力は必要ないと判定する。   Next, the control unit 20 determines whether or not further user input is required for the response generated in step S125 by the processing of the response output unit 21d (step S127). That is, the control unit 20 determines whether or not further user input is required for the response based on the content of the processing as the response acquired in step S125. For example, as in the example shown in FIG. 3A, when the destination selection is accepted at the time of the response, the user needs to input to select the destination. It is determined that further user input is required. As in the example shown in FIG. 3C, when there is only presentation of information in response, the user does not need to input, so the control unit 20 does not further input the user in response to the response. Determine that it is not necessary.

ステップS127において、応答に対してさらに利用者の入力が必要であると判定されない場合、制御部20は、ステップS130をスキップし、応答出力部21dの処理により、応答を出力する(ステップS135)。すなわち、制御部20は、ステップS125において生成された応答を示す文字列を音声出力するための制御信号をユーザI/F部44に対して出力する。この結果、ユーザI/F部44においては、応答を示す文字列が音声によって出力される。図3Cにおいては、応答を示す文字列で構成される文である「目的地を自宅に設定しました」が出力されている例を示している。さらに、制御部20は、地図情報30a1を参照し、現在地から目的地である自宅までの経路を探索し、経路案内を開始する。   If it is not determined in step S127 that further user input is required for the response, the control unit 20 skips step S130 and outputs a response through the processing of the response output unit 21d (step S135). That is, the control unit 20 outputs a control signal for outputting the character string indicating the response generated in step S125 to the user I / F unit 44. As a result, the user I / F unit 44 outputs a character string indicating a response by voice. FIG. 3C shows an example in which “the destination is set at home”, which is a sentence composed of a character string indicating a response, is output. Further, the control unit 20 refers to the map information 30a1, searches for a route from the current location to the home which is the destination, and starts route guidance.

一方、ステップS127において、応答に対してさらに利用者の入力が必要であると判定された場合、制御部20は、操舵状態判定部21cの処理により、操舵中であるか否かを判定する(ステップS130)。すなわち、制御部20は、ステアリングセンサ46の出力信号を参照し、現在のステアリングの回転角度を取得する。そして、当該回転角度の絶対値が、回転していないと見なすことのできる閾値よりも大きければ、制御部20は、操舵中であると判定する。ステップS130において操舵中であると判定されない場合、制御部20は、ステップS130の判定を繰り返す。すなわち、車両において利用者が操舵中である場合、制御部20は、操舵が終了するまで応答の出力を延期する。図3Aにおいて、車両Cの利用者は右折するために操舵中である。従って、車両Cが図3Aに示す位置に存在する場合、利用者Uが「近くのコンビニエンスストアを教えて」と発話し、その応答が生成済であるとしても、応答の出力は延期される。   On the other hand, when it is determined in step S127 that further user input is required for the response, the control unit 20 determines whether or not the steering is being performed by the process of the steering state determination unit 21c ( Step S130). That is, the control unit 20 refers to the output signal of the steering sensor 46 and acquires the current steering rotation angle. And if the absolute value of the said rotation angle is larger than the threshold value which can be considered that it is not rotating, the control part 20 will determine with it being steering. If it is not determined in step S130 that the vehicle is steering, the control unit 20 repeats the determination in step S130. That is, when the user is steering in the vehicle, the control unit 20 postpones the output of the response until the steering is completed. In FIG. 3A, the user of vehicle C is steering to turn right. Therefore, when the vehicle C exists at the position shown in FIG. 3A, the output of the response is postponed even if the user U speaks “Tell me about a nearby convenience store” and the response has been generated.

なお、操舵が終了するまで応答の出力を延期している期間において、制御部20は、応答の出力が延期されていることを利用者に提示してもよい。この場合、制御部20は、応答の出力が延期されていることを示す情報を、既定の文字列や画像の選択等によって特定し、当該情報を出力するための制御信号をユーザI/F部44に対して出力する。この結果、ユーザI/F部44においては、応答の出力が延期されていることを示す情報を出力する。図3Aにおいては、応答の出力が延期されていることを示す情報が文字列「右折後にリストを表示します」であり、ユーザI/F部44のスピーカーから当該文字列の発話音が出力されている例を示している。   In the period in which the output of the response is postponed until the steering is finished, the control unit 20 may present to the user that the output of the response is postponed. In this case, the control unit 20 specifies information indicating that the output of the response has been postponed by selecting a predetermined character string or image, and outputs a control signal for outputting the information to the user I / F unit. 44 for output. As a result, the user I / F unit 44 outputs information indicating that the output of the response has been postponed. In FIG. 3A, the information indicating that the output of the response is postponed is the character string “display the list after turning right”, and the utterance sound of the character string is output from the speaker of the user I / F unit 44. An example is shown.

一方、ステップS130において操舵中であると判定された場合、制御部20は、応答出力部21dの処理により、応答を出力する(ステップS135)。図3Aに示す例であれば、制御部20は、現在地から近い順に検索結果を表示するための制御信号をユーザI/F部44に対して出力する。この結果、ユーザI/F部44の表示部においては、検索結果を現在地から近い順に表示する。また、制御部20は、表示内容を示す音声を出力するための制御信号をユーザI/F部44に対して出力する。この結果、ユーザI/F部44のスピーカーから表示内容を示す音声が出力される。   On the other hand, when it determines with it being steering in step S130, the control part 20 outputs a response by the process of the response output part 21d (step S135). In the example illustrated in FIG. 3A, the control unit 20 outputs a control signal for displaying the search results in order from the current location to the user I / F unit 44. As a result, on the display unit of the user I / F unit 44, the search results are displayed in order from the current location. In addition, the control unit 20 outputs a control signal for outputting sound indicating the display content to the user I / F unit 44. As a result, sound indicating the display content is output from the speaker of the user I / F unit 44.

図3Aにおいては、ユーザI/F部44の表示部の画面例44aを示している。この例において制御部20は、応答として取得された複数の施設の位置と現在地とに基づいて現在地から各施設までの距離を取得する。そして、制御部20は、距離によって各施設をソートし、ソートされた順序で各施設の名称と現在地からの距離を表示するための制御信号を出力する。図3Aの画面例44aにおいては、名称がコンビニエンスストアA,B,C,D,Eのそれぞれが現在地から0.5km,1.2km,2.2km,2.4km,2.7kmである例を示している。さらに、図3Aにおいては、表示内容を示す音声の例である「近くのコンビニエンスストアを表示します」が、ナビゲーションシステム10から出力される状態を模式的に示している。   FIG. 3A shows a screen example 44 a of the display unit of the user I / F unit 44. In this example, the control unit 20 acquires the distance from the current location to each facility based on the positions of the plurality of facilities acquired as responses and the current location. Then, the control unit 20 sorts each facility according to the distance, and outputs a control signal for displaying the name of each facility and the distance from the current location in the sorted order. In the screen example 44a of FIG. 3A, the names of convenience stores A, B, C, D, and E are 0.5 km, 1.2 km, 2.2 km, 2.4 km, and 2.7 km from the current location, respectively. Show. Further, FIG. 3A schematically shows a state in which “Nearby convenience store is displayed”, which is an example of sound indicating display contents, is output from the navigation system 10.

(3)外部応答生成処理:
次に、外部システム50が実行する外部応答生成処理を説明する。外部システム50は、ナビゲーションシステム10から発話音声の送信要求が行われた場合に、図2Bに示す外部応答生成処理を実行する。外部応答生成処理が開始されると、外部システム50は、入力内容を受信する(ステップS200)。すなわち、外部システム50は、ナビゲーションシステム10から送信される、発話音声を示す情報を図示しない通信部によって取得する。
(3) External response generation processing:
Next, an external response generation process executed by the external system 50 will be described. The external system 50 executes the external response generation process shown in FIG. 2B when a transmission request for the spoken voice is made from the navigation system 10. When the external response generation process is started, the external system 50 receives the input content (step S200). That is, the external system 50 acquires information indicating the speech voice transmitted from the navigation system 10 by a communication unit (not shown).

次に、外部システム50は、外部データベース50aに基づいて音声認識を行う(ステップS205)。すなわち、外部システム50は、外部データベース50aを参照し、ステップS200で受信された情報が示す発話音声を予め決められた音声認識アルゴリズムで解析し、発話音声の内容として尤も確率の高い文字列を取得する。図3Aに示す例において発話音声が外部システム50に送信された場合、「近くのコンビニエンスストアを教えて」が文字列として認識される。なお、この場合には、制御部20の処理により、車両の現在地を示す情報も外部システム50に対して送信される。   Next, the external system 50 performs voice recognition based on the external database 50a (step S205). That is, the external system 50 refers to the external database 50a, analyzes the utterance voice indicated by the information received in step S200 with a predetermined voice recognition algorithm, and obtains a character string having a high probability as the content of the utterance voice. To do. In the example shown in FIG. 3A, when the uttered voice is transmitted to the external system 50, “Tell me about a nearby convenience store” is recognized as a character string. In this case, information indicating the current location of the vehicle is also transmitted to the external system 50 by the processing of the control unit 20.

次に、外部システム50は、外部データベース50aに基づいて検索結果を取得する(ステップS210)。すなわち、外部システム50は、外部データベース50aを参照し、ステップS205の処理で取得した文字列から検索対象と検索条件とを特定する。例えば、図3Aに示す例においては、「近くのコンビニエンスストアを教えて」という文字列が音声認識結果として得られるため、制御部20は、施設を検索対象とし、コンビニエンスストア属性が対応づけられていることを検索条件とする。   Next, the external system 50 acquires a search result based on the external database 50a (step S210). That is, the external system 50 refers to the external database 50a, and specifies a search target and a search condition from the character string acquired in the process of step S205. For example, in the example shown in FIG. 3A, since the character string “Tell me about a nearby convenience store” is obtained as a voice recognition result, the control unit 20 makes the facility a search target and associates the convenience store attribute with it. Is a search condition.

そして、制御部20は、外部データベース50aを参照し、検索条件に合致する検索対象を検索し、当該現在地から各施設までの距離が近い順に規定の数の施設を検索結果として取得する。検索結果が得られると、制御部20は、検索された施設の名称、位置を示す情報を特定し、外部応答とする。外部応答が生成されると、外部システム50は、外部応答をナビゲーションシステム10に送信する(ステップS215)。すなわち、外部システム50は、ステップS210の処理によって取得した外部応答を示す情報を、通信部を介して、ナビゲーションシステム10に対して送信する。   Then, the control unit 20 refers to the external database 50a, searches for a search target that matches the search condition, and acquires a specified number of facilities in the order of the distance from the current location to each facility as a search result. When the search result is obtained, the control unit 20 specifies information indicating the name and position of the searched facility and sets it as an external response. When the external response is generated, the external system 50 transmits the external response to the navigation system 10 (step S215). That is, the external system 50 transmits information indicating the external response acquired by the process of step S210 to the navigation system 10 via the communication unit.

(4)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、応答に対する利用者による入力が1回以上要求されており、かつ、利用者が操舵中である場合、操舵が終了した後に応答を出力する限りにおいて、他にも種々の実施形態を採用可能である。例えば、ナビゲーションシステム10とともに移動する移動体は任意であり、車両であっても良いし、歩行者であっても良く、種々の例が想定される。また、応答システムは、車両等に搭載された装置であっても良いし、可搬型の端末によって実現される装置であっても良いし、複数の装置(例えば、クライアントとサーバ)によって実現されるシステムであっても良い。
(4) Other embodiments:
The above embodiment is an example for carrying out the present invention, and when a response is requested by the user one or more times and the user is steering, a response is output after the steering is completed. As long as this is done, various other embodiments can be adopted. For example, the moving body that moves together with the navigation system 10 is arbitrary, and may be a vehicle or a pedestrian, and various examples are assumed. The response system may be a device mounted on a vehicle or the like, a device realized by a portable terminal, or realized by a plurality of devices (for example, a client and a server). It may be a system.

さらに、応答システムを構成する入力受付部21a、応答生成部21b、操舵状態判定部21c、応答出力部21dの少なくとも一部が複数の装置に分かれて存在していても良い。例えば、制御部20が音声データベース30a2に基づいて音声認識を行った後、音声認識後の文字列を外部システム50に送信し、外部システム50において生成した外部応答を取得する構成や、車両に搭載されたECUが操舵状態を判定する構成等であってもよい。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。例えば、ステップS105は、ステップS110以降の処理と並列で実行されてもよいし、ステップS120の後に実行されてもよい。   Furthermore, at least a part of the input reception unit 21a, the response generation unit 21b, the steering state determination unit 21c, and the response output unit 21d constituting the response system may be divided into a plurality of devices. For example, after the controller 20 performs voice recognition based on the voice database 30a2, a character string after voice recognition is transmitted to the external system 50, and an external response generated in the external system 50 is acquired, or installed in a vehicle For example, the ECU may be configured to determine the steering state. Of course, a part of the configuration of the above-described embodiment may be omitted, and the processing order may be changed or omitted. For example, step S105 may be executed in parallel with the processing after step S110, or may be executed after step S120.

入力受付部は、利用者の入力を受け付けることができればよい。すなわち、応答システムは利用者の入力に対する応答を実行するシステムであり、入力受付部は、利用者が応答を望む内容を特定できるように、利用者の入力を受け付けることができればよい。入力は種々の態様を想定可能であり、例えば、利用者が操作部を操作することによって実現されても良いし、利用者の発話音声がマイク等によって取得されることによって実現されても良い。   The input reception part should just be able to receive a user's input. That is, the response system is a system that executes a response to the user's input, and the input receiving unit only needs to be able to receive the user's input so that the user can specify the content that the user wants to respond to. Various modes can be assumed for the input. For example, the input may be realized by the user operating the operation unit, or may be realized by acquiring the user's uttered voice using a microphone or the like.

応答生成部は、入力に対する応答を生成することができればよい。すなわち、利用者の入力内容は、応答システムへの応答を要求する内容であるため、応答生成部は、入力内容を特定し、入力内容に応じた応答を生成するための処理を実行する。入力内容の特定は、入力態様に応じた種々の手法によって実現可能である。例えば、入力が操作部の操作による選択肢の選択や、コマンドの入力等である場合、選択された選択肢を特定し、入力されたコマンドを特定するなどして入力内容を特定可能である。利用者の発話音声が入力である場合、音声認識を行って音声を文字列化するなどして入力内容を特定することができる。   The response generation unit only needs to be able to generate a response to the input. That is, since the user's input content is content that requests a response to the response system, the response generation unit identifies the input content and executes a process for generating a response according to the input content. The specification of the input content can be realized by various methods according to the input mode. For example, when the input is selection of an option by operating the operation unit, input of a command, or the like, the input content can be specified by specifying the selected option and specifying the input command. When the user's uttered voice is an input, the input content can be specified by performing voice recognition and converting the voice into a character string.

入力内容に応じた応答の生成は、入力内容に応じた種々の処理を実行することによって実現可能である。例えば、選択肢やコマンドによって入力内容が特定される構成であれば、これらの選択肢やコマンド毎に予め実行すべき処理が規定されていればよい。むろん、各処理においては、利用者が入力したパラメータが利用されて処理が実行されてもよい。また、利用者の発話音声が入力である場合、文字列化された内容を解析することで実行すべき処理が特定され、当該処理が実行されてもよい。例えば、「近くのコンビニエンスストアを教えて」という文字列であれば、現在地の取得と、現在周辺のコンビニエンスストアの検索と、現在地からコンビニエンスストアまでの距離によるソートが行われ、ソートされた結果が応答として取得される。   Generation of a response according to the input content can be realized by executing various processes according to the input content. For example, if the input content is specified by options and commands, it is only necessary to predetermine processing to be executed for each option and command. Of course, in each process, the process may be executed using parameters input by the user. Further, when the user's uttered voice is an input, a process to be executed may be specified by analyzing the contents converted into a character string, and the process may be executed. For example, if the string is "Tell me about a nearby convenience store", the current location is acquired, the convenience stores in the vicinity are searched, and the sorting from the current location to the convenience store is performed. Obtained as a response.

入力と応答の態様は種々の態様が想定可能である。例えば、入力と応答が、情報の要求と情報の提示である例や、命令と実行である例が想定される。入力と応答が情報の要求と情報の提示である場合の、より具体的な例としては、検索条件に合致する情報の要求と検索結果を示す情報の提示である例等が挙げられる。むろん、提供対象となる情報は各種の情報が想定可能であり、施設情報や天候情報、交通情報、新規開店した店舗の情報や店舗の価格帯や口コミ評価、おすすめの店舗等の情報等であってもよく、種々の情報が想定される。入力と応答が命令と実行である場合の、より具体的な例としては、記憶媒体に記憶されたファイルの再生(音楽や動画等の再生)命令と、その再生が挙げられる。   Various modes of input and response can be assumed. For example, an example in which the input and response are a request for information and presentation of information, or an example in which an instruction and execution are performed is assumed. More specific examples of the case where the input and response are information request and information presentation include an example of information request that matches the search condition and information showing the search result. Of course, various types of information can be assumed for the information to be provided, such as facility information, weather information, traffic information, information on newly opened stores, store price ranges, word-of-mouth reviews, and recommended stores. Various information may be assumed. As a more specific example in the case where the input and response are an instruction and an execution, a command for reproducing a file stored in a storage medium (reproduction of music, moving images, etc.) and its reproduction can be mentioned.

操舵状態判定部は、利用者が操舵中であるか否かを判定することができればよい。すなわち、操舵状態判定部は、操舵状態を検出するセンサ(例えば、ステアリング角度のセンサや加速度センサ、位置センサ等)の出力や操舵状態の変化の推定が行える車両の変化に基づいて、利用者が操舵中であるか否かを判定することができればよい。   The steering state determination unit only needs to be able to determine whether or not the user is steering. That is, the steering state determination unit determines whether the user can output the output of a sensor (for example, a steering angle sensor, an acceleration sensor, or a position sensor) that detects the steering state or a change in the vehicle that can estimate the change in the steering state. What is necessary is just to be able to determine whether it is steering.

操舵中とされる期間は、利用者が応答に集中すべきではない期間であればよく、利用者が現にステアリングを操作している期間の他、操舵の準備中である期間や、操舵が行われると推定される期間であってもよい。操舵の準備中である期間や、操舵が行われると推定される期間としては、例えば、ウインカーが点滅している期間や、走行予定経路等によって車線変更や非直進方向への走行等が行われると推定される期間、駐車操作等が行われている期間、利用者の目線や顔の方向によって車線変更や非直進方向への走行、駐車操作等が行われると推定される期間等が挙げられる。   The period during which the steering should be performed may be a period during which the user should not concentrate on the response. In addition to the period during which the user is actually operating the steering, the period during which the user is preparing for steering, It may be a period estimated to be released. As a period during which preparation for steering is being performed or a period during which steering is estimated to be performed, for example, a lane change or traveling in a non-straight direction is performed depending on a blinking period, a planned travel route, or the like. Estimated period, parking operation, etc., period of lane change, driving in a non-straight direction, parking operation, etc., depending on the user's line of sight and face, etc. .

応答出力部は、応答に対する利用者による入力が1回以上要求されており、かつ、利用者が操舵中である場合、操舵が終了した後に応答を出力することができればよい。すなわち、利用者が操舵中である場合に応答が出力されると、利用者の集中が妨げられる可能性が高い。そこで、応答出力部は、操舵中である場合、利用者による入力が1回以上要求されるような応答の出力を操舵が終了するまで延期する。   The response output unit only needs to be able to output a response after the steering is completed when an input by the user for the response is requested at least once and the user is steering. That is, if a response is output when the user is steering, the user's concentration is likely to be hindered. Therefore, when the steering is in progress, the response output unit postpones the output of a response that requires one or more inputs by the user until the steering is completed.

利用者による入力が1回以上要求されるような応答とは、当該応答に対する利用者の返答や行為が行われる必要がある応答である。このような応答は、例えば、当該応答のみでは機能の実現に不充分であり、利用者の返答や行為があることによって機能が実現されるような応答が想定される。   A response that requires one or more inputs by a user is a response that requires a user response or action to the response. Such a response is, for example, insufficient for realizing the function only by the response, and a response in which the function is realized by the user's response or action is assumed.

従って、利用者の入力に対して単に応答が返されるのみで機能の実現か可能な場合、例えば、経路案内における利用者の入力が目的地の指定であり、応答が目的地の発話確認である場合、応答に対する利用者のさらなる入力は要求されないため、当該応答は利用者による入力が1回以上要求される応答には該当しない。一方、経路案内における利用者の入力が目的地属性の指定であり、応答が目的地の候補の提示および目的地選択の要求である場合、応答に対する利用者のさらなる入力により目的地が指定される必要がある。従って、この場合、応答は利用者による入力が1回以上要求される応答に該当する。   Therefore, when the function can be realized simply by returning a response to the user's input, for example, the user's input in the route guidance is the designation of the destination, and the response is the utterance confirmation of the destination In this case, since the user's further input for the response is not required, the response does not correspond to a response that requires one or more inputs by the user. On the other hand, when the user input in the route guidance is the designation of the destination attribute, and the response is a request for destination candidate presentation and destination selection, the destination is designated by further input of the user to the response There is a need. Therefore, in this case, the response corresponds to a response that requires one or more inputs by the user.

なお、応答に対する入力の要求は、当該要求に応じた入力を行うことが利用者にとって負担になる、すなわち、認識や応答に対応する返答等の決定のために思索のために集中する必要があるような要求であれば良い。従って、このような要求としては、例えば、応答の内容に応じて入力内容が変化し得る状態での要求等が挙げられる。応答の出力態様は種々の態様を想定可能であり、情報の出力や命令の実行等であっても良い。前者としては、例えば、ディスプレイ等の出力部に対する表示やスピーカー等の出力部からの音声出力が応答の出力である例が挙げられ、後者としては、例えば、スピーカー等の出力部によって音楽が出力される構成が挙げられる。   It should be noted that input requests for responses are burdensome for the user to input in response to the requests, that is, it is necessary to concentrate for consideration in order to determine recognition and responses corresponding to responses. It is sufficient if it is such a request. Therefore, as such a request, for example, a request in a state where the input content can be changed according to the content of the response can be cited. Various modes of response output can be assumed, and information output, command execution, and the like may be used. Examples of the former include an example in which a display on an output unit such as a display or an audio output from an output unit such as a speaker is a response output. As the latter, for example, music is output by an output unit such as a speaker. Can be mentioned.

さらに、応答出力部は、利用者が操舵中である場合、応答に対する利用者による入力が要求されていないならば、応答を出力する構成であってもよい。すなわち、利用者が操舵中であっても、応答に対する利用者による入力が要求されていないならば、応答出力部は、応答が行われても利用者の操舵に対する集中が妨げられる可能性が小さいと見なし、応答を出力する。この構成によれば、応答の出力の延期が必要ではない場合にまで出力を延期することを防止することができ、応答のレスポンスを高速化することが可能である。   Further, the response output unit may be configured to output a response when the user is steering, and when an input by the user for the response is not requested. That is, even if the user is steering, if the user does not request an input for the response, the response output unit is less likely to prevent the user from concentrating on the steering even if the response is made. And output a response. According to this configuration, it is possible to prevent postponing the output until it is not necessary to postpone the output of the response, and it is possible to speed up the response of the response.

さらに、応答出力部は、応答に対する利用者の選択肢の数が閾値以上であり、かつ、利用者が操舵中である場合、操舵が終了した後に応答を出力する構成であってもよい。すなわち、応答に対して利用者が選択し得る選択肢が存在する場合に、利用者はいずれの選択肢を選択するのか思索して選択しなければならない。従って、操舵中である場合に、応答に対して選択肢を選択する入力が要求されるのであれば、応答に対する出力を延期することで、応答の出力によって利用者の集中が妨げられる可能性を低減することが可能である。   Further, the response output unit may be configured to output a response after the steering is completed when the number of user options for the response is equal to or greater than a threshold value and the user is steering. That is, when there are options that the user can select for the response, the user must consider and select which option to select. Therefore, if an input to select an option for a response is required when the vehicle is being steered, delaying the output for the response reduces the possibility of the user's concentration being hindered by the output of the response Is possible.

そして、利用者の集中が妨げられる度合いは、選択肢の数が増加するほど高くなる。そこで、操舵の過程で選択が要求されることによって、過度に集中が妨げられるような選択肢の数を予め決めておけば、要求される入力の複雑度合いに応じて出力が延期される場合と延期されない場合とを規定することができる。なお、閾値は予め決められていればよく、固定値であってもよいし、応答や入力の種類等に応じて動的に変化してもよい。   The degree to which the concentration of users is hindered increases as the number of options increases. Therefore, if the number of options is selected in advance so that the concentration is excessively hindered by the selection being requested during the steering process, the output is postponed depending on the required degree of input complexity. It is possible to specify when not to be performed. The threshold value may be determined in advance, may be a fixed value, or may dynamically change according to the response, the type of input, or the like.

このような構成は、例えば、上述の実施形態におけるステップS125で利用者に選択肢を提示する応答が生成された場合において、ステップS127で制御部20が当該選択肢の数を閾値と比較し、閾値以上である場合にステップS130を実行し、閾値以上でない場合にステップS130をスキップする構成等によって実現可能である。   In such a configuration, for example, in the case where a response for presenting options to the user is generated in step S125 in the above-described embodiment, the control unit 20 compares the number of the options with a threshold value in step S127, and exceeds the threshold value. This can be realized by a configuration in which step S130 is executed when the value is equal to or less than the threshold value and step S130 is skipped.

さらに、応答出力部は、応答の長さが既定の長さ以上であり、かつ、利用者が操舵中である場合、操舵が終了した後に応答を出力する構成であってもよい。すなわち、応答の長さが長くなるほど、利用者は応答の認識に集中を要する度合いが高くなる。そこで、応答の長さが既定の長さ以上であり、かつ、利用者が操舵中である場合、操舵が終了した後に前記応答を出力する構成とすれば、応答の認識に集中を要する度合いが高い場合に、利用者の操舵に対する集中力が妨げられることを防止することができる。   Further, the response output unit may be configured to output a response after the steering is finished when the length of the response is equal to or longer than a predetermined length and the user is steering. In other words, the longer the response length, the higher the degree of concentration required for the user to recognize the response. Therefore, if the length of the response is equal to or longer than the predetermined length and the user is steering, the response is output after the steering is completed. When it is high, it is possible to prevent the user's ability to concentrate on steering from being hindered.

このような構成は、例えば、ステップS127で制御部20が当該応答の長さを、文字数や音声が出力されている期間等によって特定し、当該長さを既定の長さと比較する構成等によって実現可能である。すなわち、ステップS127において、応答の長さが既定の長さ以上であると判定された場合に、制御部20がステップS130を実行し、応答の長さが既定の長さ以上であると判定されない場合に、制御部20がステップS130をスキップする構成等によって実現可能である。   Such a configuration is realized by, for example, a configuration in which the control unit 20 specifies the length of the response in step S127 based on the number of characters, the period during which the voice is output, and the like, and compares the length with a predetermined length. Is possible. That is, when it is determined in step S127 that the response length is equal to or longer than the predetermined length, the control unit 20 executes step S130, and the response length is not determined to be equal to or longer than the predetermined length. In this case, it can be realized by a configuration in which the control unit 20 skips step S130.

なお、ステップS127における判定の例は、他にも種々の例が想定可能であり、例えば、利用者の入力と応答との組を1回の対話と見なし、対話の回数が閾値以上である場合にステップS130を実行し、閾値以上でない場合にステップS130をスキップする構成等を採用してもよい。   Various other examples of the determination in step S127 can be assumed. For example, when a combination of a user input and a response is regarded as one dialogue, the number of dialogues is equal to or greater than a threshold value. Alternatively, a configuration in which step S130 is executed and step S130 is skipped when it is not equal to or greater than the threshold may be employed.

さらに、本発明のように、応答に対する利用者による入力が1回以上要求されており、かつ、利用者が操舵中である場合、操舵が終了した後に応答を出力する手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合や、複数の装置によって実現される場合が想定可能であり、各種の態様を含むものである。例えば、以上のような手段を備えたナビゲーションシステムや方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Furthermore, as in the present invention, when a user has requested input for a response one or more times and the user is steering, a method of outputting a response after the steering is completed is a program or method. Is also applicable. The system, program, and method as described above can be realized as a single device or can be realized as a plurality of devices, and include various aspects. For example, it is possible to provide a navigation system, method, and program provided with the above means. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention can be realized as a recording medium for a program for controlling the system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…ナビゲーションシステム、20…制御部、21…応答プログラム、21a…入力受付部、21b…応答生成部、21c…操舵状態判定部、21d…応答出力部、30…ローカル記憶媒体、30a…ローカルデータベース、30a1…地図情報、30a2…音声データベース、41…受信部、42…車速センサ、43…ジャイロセンサ、44…ユーザI/F部、44a…画面例、45…通信部、46…ステアリングセンサ、50…外部システム、50a…外部データベース   DESCRIPTION OF SYMBOLS 10 ... Navigation system, 20 ... Control part, 21 ... Response program, 21a ... Input reception part, 21b ... Response generation part, 21c ... Steering state determination part, 21d ... Response output part, 30 ... Local storage medium, 30a ... Local database , 30a1 ... map information, 30a2 ... voice database, 41 ... receiving unit, 42 ... vehicle speed sensor, 43 ... gyro sensor, 44 ... user I / F unit, 44a ... screen example, 45 ... communication unit, 46 ... steering sensor, 50 ... External system, 50a ... External database

Claims (6)

利用者の入力を受け付ける入力受付部と、
前記入力に対する応答を生成する応答生成部と、
前記利用者が操舵中であるか否かを判定する操舵状態判定部と、
前記応答に対する前記利用者による入力が1回以上要求されており、かつ、前記利用者が操舵中である場合、操舵が終了した後に前記応答を出力する応答出力部と、
を備える応答システム。
An input reception unit for receiving user input;
A response generator for generating a response to the input;
A steering state determination unit that determines whether or not the user is steering;
A response output unit that outputs the response after the steering is completed when the user is requested to input the response one or more times and the user is steering;
A response system comprising:
前記入力は、
前記利用者の発話音声であり、
前記応答は、
前記発話音声を認識した結果に基づいて生成される、
請求項1に記載の応答システム。
The input is
The spoken voice of the user,
The response is
Generated based on the recognition result of the speech,
The response system according to claim 1.
前記応答出力部は、
前記利用者が操舵中である場合、前記応答に対する前記利用者による入力が要求されていないならば、前記応答を出力する、
請求項1または請求項2のいずれかに記載の応答システム。
The response output unit
If the user is steering, the response is output if no input by the user for the response is required;
The response system according to claim 1.
前記応答出力部は、
前記応答に対する前記利用者の選択肢の数が閾値以上であり、かつ、前記利用者が操舵中である場合、操舵が終了した後に前記応答を出力する、
請求項1〜請求項3のいずれかに記載の応答システム。
The response output unit
If the number of options of the user for the response is greater than or equal to a threshold and the user is steering, the response is output after the steering is terminated;
The response system according to any one of claims 1 to 3.
前記応答出力部は、
前記応答の長さが既定の長さ以上であり、かつ、前記利用者が操舵中である場合、操舵が終了した後に前記応答を出力する、
請求項1〜請求項4のいずれかに記載の応答システム。
The response output unit
If the length of the response is equal to or longer than a predetermined length and the user is steering, the response is output after the steering is completed.
The response system in any one of Claims 1-4.
コンピュータを、
利用者の入力を受け付ける入力受付部、
前記入力に対する応答を生成する応答生成部、
前記利用者が操舵中であるか否かを判定する操舵状態判定部、
前記応答に対する前記利用者による入力が1回以上要求されており、かつ、前記利用者が操舵中である場合、操舵が終了した後に前記応答を出力する応答出力部、
として機能させる応答プログラム。
Computer
An input reception unit for receiving user input,
A response generator for generating a response to the input;
A steering state determination unit that determines whether or not the user is steering;
A response output unit that outputs the response after the steering is completed when the input by the user to the response is requested at least once and the user is steering;
As a response program to function as.
JP2016048020A 2016-03-11 2016-03-11 Response system and response program Pending JP2017159850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016048020A JP2017159850A (en) 2016-03-11 2016-03-11 Response system and response program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016048020A JP2017159850A (en) 2016-03-11 2016-03-11 Response system and response program

Publications (1)

Publication Number Publication Date
JP2017159850A true JP2017159850A (en) 2017-09-14

Family

ID=59854720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016048020A Pending JP2017159850A (en) 2016-03-11 2016-03-11 Response system and response program

Country Status (1)

Country Link
JP (1) JP2017159850A (en)

Similar Documents

Publication Publication Date Title
US10818286B2 (en) Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US8694323B2 (en) In-vehicle apparatus
US11295735B1 (en) Customizing voice-control for developer devices
JP6202041B2 (en) Spoken dialogue system for vehicles
KR20180086718A (en) Dialogue processing apparatus, vehicle having the same and dialogue processing method
KR20190041569A (en) Dialogue processing apparatus, vehicle having the same and dialogue service processing method
JP2008058409A (en) Speech recognizing method and speech recognizing device
JP2006317573A (en) Information terminal
WO2014057540A1 (en) Navigation device and navigation server
JP6597527B2 (en) Speech recognition apparatus and speech recognition method
JP6403927B2 (en) Information provision control device, navigation device, equipment inspection work support device, conversation robot control device, and information provision control method
JP2011179917A (en) Information recording device, information recording method, information recording program, and recording medium
US9791925B2 (en) Information acquisition method, information acquisition system, and non-transitory recording medium for user of motor vehicle
JP5181533B2 (en) Spoken dialogue device
JP7274404B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
JP6387287B2 (en) Unknown matter resolution processing system
JP2017159850A (en) Response system and response program
JP5160653B2 (en) Information providing apparatus, communication terminal, information providing system, information providing method, information output method, information providing program, information output program, and recording medium
JP7434016B2 (en) Activation word registration support method, support device, speech recognition device, and program
JP2017161813A (en) Response system and response program
KR20200095636A (en) Vehicle equipped with dialogue processing system and control method thereof
WO2023163047A1 (en) Terminal device, information providing system, information processing method, program, and storage medium
US11790898B1 (en) Resource selection for processing user inputs
JP2017161815A (en) Response system and response program
JP2023069721A (en) Information processing apparatus, information processing method, program, recording medium, and data structure