JP2017161813A - Response system and response program - Google Patents

Response system and response program Download PDF

Info

Publication number
JP2017161813A
JP2017161813A JP2016048013A JP2016048013A JP2017161813A JP 2017161813 A JP2017161813 A JP 2017161813A JP 2016048013 A JP2016048013 A JP 2016048013A JP 2016048013 A JP2016048013 A JP 2016048013A JP 2017161813 A JP2017161813 A JP 2017161813A
Authority
JP
Japan
Prior art keywords
response
user
steering
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016048013A
Other languages
Japanese (ja)
Inventor
泰 上澤
Yasushi Kamisawa
泰 上澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2016048013A priority Critical patent/JP2017161813A/en
Publication of JP2017161813A publication Critical patent/JP2017161813A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of reducing a possibility that a user's concentration is disturbed by an output of a response.SOLUTION: A response system includes: an input receiving part for receiving an input of a user; a response generating part for generating a response to the input; a steering state determining part for determining whether the user is steering or not; and a response outputting part for outputting the response when the user is not steering.SELECTED DRAWING: Figure 1

Description

本発明は、応答システムおよび応答プログラムに関する。   The present invention relates to a response system and a response program.

従来、車両等の利用者の発話を認識する音声認識技術が知られている。例えば、特許文献1には、端末から音声認識サーバに音声を送信して音声認識を行わせる構成において、電波状況等の車両状態が所定条件を満たしていないときに、音声の入力を禁止する構成が開示されている。また、特許文献2には、車載用音声認識装置において、車両の走行中にディクテーションが禁止される構成が開示されている。   Conventionally, a voice recognition technique for recognizing a user's utterance such as a vehicle is known. For example, Patent Document 1 discloses a configuration in which voice input is performed when a vehicle state such as a radio wave condition does not satisfy a predetermined condition in a configuration in which voice is transmitted from a terminal to a voice recognition server to perform voice recognition. Is disclosed. Patent Document 2 discloses a configuration in which dictation is prohibited while a vehicle is running in a vehicle-mounted speech recognition device.

特開2003−345391号公報JP 2003-345391 A 特開2003−162295号公報JP 2003-162295 A

上述した従来技術においては、特定の条件において音声認識の実行が禁止される(音声認識が開始されない)。しかし、音声認識の開始タイミングが限定されても利用者にメリットは少ない。例えば、運転中の種々の条件下において音声認識の開始トリガとなる発話を行うことが利用者の集中を妨げることは少ない。一方、車両の運転など、状況の変化に対する対応が必要な行為を行っている利用者に対して、音声認識結果の出力や音声認識結果に基づく応答の出力が開始されると、利用者は運転に加えて応答の認識に対しても集中する必要が生じ、利用者の負担が過度になってしまう場合がある。
本発明は、前記課題にかんがみてなされたもので、応答の出力によって利用者の集中が妨げられる可能性を低減することが可能な技術を提供することを目的とする。
In the above-described prior art, execution of speech recognition is prohibited under specific conditions (speech recognition is not started). However, even if the start timing of voice recognition is limited, there are few merits for the user. For example, utterances that serve as triggers for starting speech recognition under various conditions during driving rarely hinder user concentration. On the other hand, when a user who is taking action that needs to respond to changes in the situation, such as driving a vehicle, starts outputting a voice recognition result or a response based on the voice recognition result, the user drives In addition to this, it is necessary to concentrate on the recognition of responses, and the burden on the user may become excessive.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of reducing the possibility that the concentration of users is hindered by the output of responses.

上記の目的を達成するため、利用者の入力を受け付ける入力受付部と、入力に対する応答を生成する応答生成部と、利用者が操舵中であるか否かを判定する操舵状態判定部と、利用者が操舵中ではない場合、応答を出力する応答出力部と、を備える応答システムが構成される。   In order to achieve the above object, an input receiving unit that receives user input, a response generation unit that generates a response to the input, a steering state determination unit that determines whether or not the user is steering, and use When the person is not steering, a response system including a response output unit that outputs a response is configured.

さらに、上記の目的を達成するため、コンピュータを、利用者の入力を受け付ける入力受付部、入力に対する応答を生成する応答生成部、利用者が操舵中であるか否かを判定する操舵状態判定部、利用者が操舵中ではない場合、応答を出力する応答出力部、として機能させる応答プログラムが構成される。   Furthermore, in order to achieve the above object, the computer includes an input receiving unit that receives a user's input, a response generating unit that generates a response to the input, and a steering state determination unit that determines whether or not the user is steering A response program is configured to function as a response output unit that outputs a response when the user is not steering.

すなわち、応答システム、応答プログラムにおいては、利用者が操舵中ではない場合に、利用者の入力に対する応答を出力する。操舵中である場合、利用者は、運転に集中すべきであり、入力に対する応答(例えば、画面の注視が必要な表示や注意して聞くべき音声出力)が実行されると、利用者が応答を適切に認識できない可能性がある。そこで、操舵中でない場合に応答が出力される構成とすれば、応答の出力によって利用者の集中が妨げられる可能性を低減することが可能である。   That is, the response system and the response program output a response to the user's input when the user is not steering. When steering, the user should concentrate on driving, and when a response to an input (for example, a display that requires gaze on the screen or a sound output that should be listened carefully) is executed, the user responds May not be properly recognized. Therefore, if the response is output when the vehicle is not being steered, it is possible to reduce the possibility of the user's concentration being hindered by the output of the response.

ナビゲーションシステムを示すブロック図である。It is a block diagram which shows a navigation system. 図2Aは応答処理を示すフローチャート、図2Bは外部応答生成処理を示すフローチャートである。FIG. 2A is a flowchart showing response processing, and FIG. 2B is a flowchart showing external response generation processing. 図3Aは応答出力の延期例、図3Bは延期後の出力例を示す図である。FIG. 3A is a diagram showing an example of postponing response output, and FIG. 3B is a diagram showing an example of output after postponement.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ナビゲーションシステムの構成:
(2)応答処理:
(3)外部応答生成処理:
(4)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of navigation system:
(2) Response processing:
(3) External response generation processing:
(4) Other embodiments:

(1)ナビゲーションシステムの構成:
図1は、本発明の一実施形態であるナビゲーションシステム10の構成を示すブロック図である。ナビゲーションシステム10は、CPU、RAM、ROM等を備える制御部20を備えており、制御部20は、当該ROMやローカル記憶媒体30に記録された所望のプログラムを実行することができる。本実施形態においては、このプログラムの一つとしてナビゲーションプログラムを実行可能である。当該ナビゲーションプログラムは、表示部に現在地と現在地周辺の地図を表示する機能と目的地までの経路を探索して案内する機能を制御部20に実現させることができる。
(1) Configuration of navigation system:
FIG. 1 is a block diagram showing a configuration of a navigation system 10 according to an embodiment of the present invention. The navigation system 10 includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and the control unit 20 can execute a desired program recorded in the ROM or the local storage medium 30. In this embodiment, a navigation program can be executed as one of the programs. The navigation program can cause the control unit 20 to realize a function of displaying a current location and a map around the current location on the display unit and a function of searching and guiding a route to the destination.

また、ナビゲーションプログラムは、応答プログラムを含んでおり、制御部20は、応答プログラム21の処理により、利用者とナビゲーションシステム10とで音声による対話を行う機能を実行する。対話は、利用者の発話音声による入力と、ナビゲーションシステム10からの応答とが1回以上実行されることによって実現される。   In addition, the navigation program includes a response program, and the control unit 20 executes a function of performing a voice conversation between the user and the navigation system 10 by the processing of the response program 21. The dialogue is realized by executing the input by the user's uttered voice and the response from the navigation system 10 at least once.

ナビゲーションシステム10が使用される車両は、GPS受信部41と車速センサ42とジャイロセンサ43とユーザI/F部44と通信部45とステアリングセンサ46とを備えている。GPS受信部41は、GPS衛星からの電波を受信し、図示しないインタフェースを介して車両の現在地を算出するための信号を出力する。車速センサ42は、車両が備える車輪の回転速度に対応した信号を出力する。制御部20は、図示しないインタフェースを介してこの信号を取得し、車速を取得する。ジャイロセンサ43は、車両の水平面内の旋回についての角加速度を検出し、車両の向きに対応した信号を出力する。   A vehicle in which the navigation system 10 is used includes a GPS receiver 41, a vehicle speed sensor 42, a gyro sensor 43, a user I / F unit 44, a communication unit 45, and a steering sensor 46. The GPS receiver 41 receives radio waves from GPS satellites and outputs a signal for calculating the current location of the vehicle via an interface (not shown). The vehicle speed sensor 42 outputs a signal corresponding to the rotational speed of the wheels provided in the vehicle. The control unit 20 acquires this signal via an interface (not shown) and acquires the vehicle speed. The gyro sensor 43 detects angular acceleration about turning in the horizontal plane of the vehicle, and outputs a signal corresponding to the direction of the vehicle.

制御部20は、この信号を取得して車両の進行方向を取得する。制御部20は、車速センサ42およびジャイロセンサ43等の出力信号に基づいて車両の走行軌跡を特定することで車両の現在地を取得する。GPS受信部41の出力信号は、車速センサ42およびジャイロセンサ43等から特定される車両の現在地を補正するなどのために利用される。   The control unit 20 acquires this signal and acquires the traveling direction of the vehicle. The control unit 20 acquires the current location of the vehicle by specifying the travel locus of the vehicle based on output signals from the vehicle speed sensor 42 and the gyro sensor 43 and the like. The output signal of the GPS receiver 41 is used for correcting the current location of the vehicle specified by the vehicle speed sensor 42, the gyro sensor 43, and the like.

ユーザI/F部44は、利用者に種々の情報を提供し、また、利用者から種々の入力を受け付けるためのインタフェース部であり、図示しない表示部や操作入力部、スピーカー、マイク等を備えている。制御部20は、ナビゲーションプログラムの機能により、当該車両の現在地周辺の地図や経路、施設の検索結果等を表示部に表示することができる。また、制御部20は、マイクによって利用者の発話音声を取得することが可能であり、各種の音データに基づいてスピーカーから音声を含む任意の音を出力することが可能である。   The user I / F unit 44 is an interface unit for providing various information to the user and receiving various inputs from the user, and includes a display unit, an operation input unit, a speaker, a microphone, and the like (not shown). ing. The control unit 20 can display, on the display unit, a map and route around the current location of the vehicle, a facility search result, and the like by the function of the navigation program. Moreover, the control part 20 can acquire a user's speech sound with a microphone, and can output arbitrary sounds including a sound from a speaker based on various sound data.

通信部45は、外部システム50と無線通信するための回路を備えており、制御部20と外部システム50の間では、通信部45を介して任意の情報が授受される。本実施形態において、制御部20は、利用者の発話音声を示す情報を、通信部45を介して外部システム50に対して送信することができる。   The communication unit 45 includes a circuit for wirelessly communicating with the external system 50, and arbitrary information is exchanged between the control unit 20 and the external system 50 via the communication unit 45. In the present embodiment, the control unit 20 can transmit information indicating the user's uttered voice to the external system 50 via the communication unit 45.

外部システム50は図示しない外部記憶媒体を備えており、当該外部記憶媒体には外部データベース50aが記録されている。外部システム50が、当該発話音声を示す情報を取得すると、外部システム50は、外部データベース50aに基づいて音声認識を行い、認識結果としての文字列に対する応答である外部応答を生成する。外部応答が生成されると、外部システム50は、外部応答を示す情報をナビゲーションシステム10に対して送信する。制御部20は、通信部45を介して、当該外部応答を示す情報を受信することができる。   The external system 50 includes an external storage medium (not shown), and an external database 50a is recorded on the external storage medium. When the external system 50 acquires information indicating the uttered voice, the external system 50 performs voice recognition based on the external database 50a, and generates an external response that is a response to the character string as a recognition result. When the external response is generated, the external system 50 transmits information indicating the external response to the navigation system 10. The control unit 20 can receive information indicating the external response via the communication unit 45.

なお、本実施形態において、外部データベース50aには、時間の経過とともに更新され得る情報や増加し得る情報が含まれる。例えば、外部システム50は、各種のニュース情報や、各地の天候情報、任意の道路の交通情報等を収集する処理を行っており、収集された情報を外部データベース50aとして記録、管理している。外部システム50は、検索対象の情報を外部データベース50aから検索し、外部応答として生成することが可能である。   In the present embodiment, the external database 50a includes information that can be updated and information that can be increased over time. For example, the external system 50 performs a process of collecting various news information, weather information of each place, traffic information of an arbitrary road, etc., and records and manages the collected information as an external database 50a. The external system 50 can search for information to be searched from the external database 50a and generate it as an external response.

ステアリングセンサ46は、車両が備えるステアリングの回転角度を出力するセンサであり、制御部20は、当該ステアリングセンサ46の出力信号に基づいて、操舵角を取得することができる。なお、操舵角は、例えば、ステアリングが操作されていない状態を0°、特定の回転方向を正、逆の回転方向を負とした角度として取得されれば良い。   The steering sensor 46 is a sensor that outputs the rotation angle of the steering included in the vehicle, and the control unit 20 can acquire the steering angle based on the output signal of the steering sensor 46. The steering angle may be acquired as, for example, an angle in which the steering operation is not performed at 0 °, a specific rotation direction is positive, and the reverse rotation direction is negative.

ローカル記憶媒体30には、ローカルデータベース30aが記録されている。ローカルデータベース30aには、地図情報30a1と音声データベース30a2とが含まれている。地図情報30a1は、現在地の特定や施設の検索等に利用される情報であり、道路上に設定されたノードの位置等を示すノードデータ,ノード間の道路の形状を特定するための形状補間点データ,ノード同士の連結を示すリンクデータ,道路やその周辺に存在する施設の位置、属性および名称等を示す施設データ等を含んでいる。   A local database 30a is recorded in the local storage medium 30. The local database 30a includes map information 30a1 and a voice database 30a2. The map information 30a1 is information used for specifying the current location, searching for facilities, and the like, node data indicating the positions of nodes set on the road, and shape interpolation points for specifying the shape of the road between the nodes. It includes data, link data indicating the connection between nodes, facility data indicating the location, attributes, names, etc. of facilities existing on and around the road.

従って、施設データは、複数個の施設のそれぞれに関するレコードによって構成され、各レコードに対して位置、属性、名称等の複数の項目毎の情報が対応づけられたデータである。なお、本実施形態において各施設の属性には、施設の種類、例えば、レストラン、コンビニエンスストア、公共施設等を示す情報が対応づけられている。   Therefore, the facility data is data in which records for each of a plurality of facilities are configured, and information for each of a plurality of items such as a position, an attribute, and a name is associated with each record. In the present embodiment, the attributes of each facility are associated with information indicating the type of facility, for example, a restaurant, a convenience store, a public facility, and the like.

音声データベース30a2は、利用者の発話音声を認識して文字列化する際に参照される情報である。音声データベース30a2は、音声認識を実行するためのアルゴリズムに応じて種々の情報とすることができる。例えば、制御部20が、発話音声の波形から音素に対応した特徴量を調べて音素列を作成し、音響モデルおよび言語モデルと比較することによって音素列に対応する尤も確からしい文字列を取得する構成を有している場合、音声データベース30a2には、音響モデルおよび言語モデルを示す情報が含まれる。   The voice database 30a2 is information that is referred to when a user's uttered voice is recognized and converted into a character string. The voice database 30a2 can be various information according to an algorithm for executing voice recognition. For example, the control unit 20 creates a phoneme string by examining a feature amount corresponding to a phoneme from the waveform of a speech voice, and obtains a character string that is likely to correspond to the phoneme string by comparing the phoneme string with an acoustic model and a language model. When having the configuration, the voice database 30a2 includes information indicating the acoustic model and the language model.

応答プログラム21は、利用者の入力に対する応答を出力するために、入力受付部21aと応答生成部21bと操舵状態判定部21cと応答出力部21dとを備えている。入力受付部21aは、利用者の入力を受け付ける機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、利用者が応答を望む内容を、利用者の発話音声に基づいて制御部20が特定する構成が採用されており、制御部20は、マイクを介して利用者の発話音声を取得する。   The response program 21 includes an input reception unit 21a, a response generation unit 21b, a steering state determination unit 21c, and a response output unit 21d in order to output a response to a user input. The input receiving unit 21a is a program module that causes the control unit 20 to realize a function of receiving user input. In the present embodiment, a configuration is adopted in which the control unit 20 specifies the content that the user wants to respond to based on the user's utterance voice, and the control unit 20 uses the microphone to utter the user's utterance voice. To get.

応答生成部21bは、入力に対する応答である応答を生成する機能を制御部20に実現させるプログラムモジュールである。すなわち、制御部20は、入力受付部21aの処理によって受け付けた発話音声に対して、応答生成部21bの処理によって音声認識を行い、当該発話音声の認識結果に基づいて応答を生成する。ローカル応答を生成する。また、制御部20は、外部システム50に発話音声の音声認識を実行させ、認識結果に基づいて外部応答を生成する。そして、ローカル応答と外部応答を合成して応答システムの応答と見なす。   The response generation unit 21b is a program module that causes the control unit 20 to realize a function of generating a response that is a response to an input. That is, the control unit 20 performs voice recognition on the uttered voice received by the process of the input receiving unit 21a by the process of the response generation unit 21b, and generates a response based on the recognition result of the uttered voice. Generate a local response. In addition, the control unit 20 causes the external system 50 to perform speech recognition of the uttered speech, and generates an external response based on the recognition result. The local response and the external response are combined and regarded as a response system response.

入力と応答の態様は種々の態様が想定可能である。例えば、入力と応答が、情報の要求と情報の提示である例や、命令と実行である例が想定される。本実施形態においては、入力が検索要求(検索条件の指定)であり、応答が検索結果の出力である例を想定する。音声認識は、例えば、制御部20が、入力受付部21aの処理によって受け付けた発話音声の波形から音素に対応した特徴量を調べて音素列を作成し、音声データベース30a2として記録された音響モデルおよび言語モデルと音素列とを比較することによって音素列に対応する尤も確からしい文字列を取得することによって実現可能である。文字列が取得されると、制御部20は、当該文字列から検索対象及び検索条件を特定し、ローカルデータベース30aを参照し、当該検索条件によって検索対象を検索する。   Various modes of input and response can be assumed. For example, an example in which the input and response are a request for information and presentation of information, or an example in which an instruction and execution are performed is assumed. In the present embodiment, an example is assumed in which the input is a search request (designation of search conditions) and the response is an output of a search result. In the speech recognition, for example, the control unit 20 creates a phoneme string by examining the feature amount corresponding to the phoneme from the waveform of the uttered speech accepted by the processing of the input accepting unit 21a, and the acoustic model recorded as the speech database 30a2. This can be realized by comparing the language model with the phoneme sequence to obtain a character string that is likely to correspond to the phoneme sequence. When the character string is acquired, the control unit 20 specifies a search target and a search condition from the character string, refers to the local database 30a, and searches for the search target based on the search condition.

一方、制御部20は、通信部45を介して発話音声を示す情報を外部システム50に送信する。外部システム50が当該発話音声を示す情報を取得すると、外部システム50は外部データベース50aを参照し、発話音声を認識する。音声認識は制御部20における認識と同様の処理等によって実現可能である。音声認識が行われて文字列が特定されると、外部システム50は、当該文字列が示す検索対象と検索条件を特定し、外部データベース50aを参照して検索結果を取得する。検索結果が得られると、外部システム50は当該検索結果をナビゲーションシステム10に送信し、制御部20は、通信部45を介して当該検索結果を取得する。   On the other hand, the control unit 20 transmits information indicating the speech voice to the external system 50 via the communication unit 45. When the external system 50 acquires information indicating the uttered voice, the external system 50 refers to the external database 50a and recognizes the uttered voice. The voice recognition can be realized by the same processing as the recognition in the control unit 20. When voice recognition is performed and a character string is specified, the external system 50 specifies a search target and a search condition indicated by the character string, and acquires a search result by referring to the external database 50a. When the search result is obtained, the external system 50 transmits the search result to the navigation system 10, and the control unit 20 acquires the search result via the communication unit 45.

以上の処理により、ローカルデータベース30aおよび外部データベース50aによる応答生成が行われた状態となるため、制御部20は、両者の検索結果の重複を削除するなどして両者を結合し、入力に対する応答とする。なお、外部システム50は、複数のナビゲーションシステム10と通信を行うことが可能であるため、外部データベース50aのメンテナンスを行えば、その効果を複数のナビゲーションシステム10で享受することが可能である。   As a result of the above processing, a response is generated by the local database 30a and the external database 50a. Therefore, the control unit 20 combines the two by deleting duplicates of the search results, and the response to the input. To do. Since the external system 50 can communicate with a plurality of navigation systems 10, if the maintenance of the external database 50 a is performed, the effect can be enjoyed by the plurality of navigation systems 10.

このため、外部データベース50aには、ローカルデータベース30aには含まれない検索対象や検索項目を示す単語を文字列から高い確率で認識するためのデータが含まれている。従って、外部システム50による音声認識および応答生成を併用することにより、より高度な認識や応答の生成が行われる可能性が高い。このように、ローカルデータベース30aのみならず、外部データベース50aを利用した応答の生成を行う構成においては、利用者が入力を行ってから応答が生成されるまでに、利用者が認識できるほどのタイムラグが生じる場合もあるため、応答の生成が完了した段階で利用者が操舵中になっている場合が発生しやすい。従って、外部データベース50aを利用して応答を生成する本実施形態においては、操舵中に応答を出力しない構成が採用されることの利点が現れやすい。   For this reason, the external database 50a includes data for recognizing words indicating search targets and search items that are not included in the local database 30a from the character string with high probability. Therefore, by using voice recognition and response generation by the external system 50 together, there is a high possibility that more advanced recognition and response generation will be performed. As described above, in a configuration in which a response is generated using not only the local database 30a but also the external database 50a, a time lag that can be recognized by the user from when the user inputs to when the response is generated. In some cases, the case where the user is steering is likely to occur when the generation of the response is completed. Therefore, in this embodiment in which a response is generated using the external database 50a, an advantage of adopting a configuration that does not output a response during steering tends to appear.

ただし、音声認識および認識結果に基づく応答の生成は、ローカルデータベース30a,外部データベース50aが双方において行われることは必須ではなく、各データベースのいずれかまたは双方によって音声認識や応答の生成が実施されてよい。例えば、制御部20が、各種の規則によって参照すべきデータベースを決定する構成が採用されてもよい。むろん、一方のデータベースのみが参照される構成であれば、他方のデータベースは省略されてよい。   However, it is not essential that both the local database 30a and the external database 50a generate voice recognition and a response based on the recognition result, and voice recognition and response generation are performed by either or both of the databases. Good. For example, a configuration in which the control unit 20 determines a database to be referred to according to various rules may be employed. Of course, if only one database is referred to, the other database may be omitted.

ここでは、ローカルデータベース30a,外部データベース50aの双方に基づいて音声認識が行われ、認識結果に基づいてローカルデータベース30a,外部データベース50aの双方に基づいて認識結果に対する応答が生成される構成を想定する。むろん、認識結果に対する応答を作成するための情報が、ローカルデータベース30aと外部データベース50aとのいずれか一方のみに存在することはあり得る。この場合、いずれか一方のみのデータベースに基づいて応答が生成される。   Here, a configuration is assumed in which speech recognition is performed based on both the local database 30a and the external database 50a, and a response to the recognition result is generated based on both the local database 30a and the external database 50a. . Of course, it is possible that information for creating a response to the recognition result exists only in one of the local database 30a and the external database 50a. In this case, a response is generated based on only one of the databases.

例えば、利用者の入力が施設の検索等である場合、施設はローカルデータベース30a(地図情報30a1)、外部データベース50aの双方に存在し得るため、双方に基づいて応答が生成され得る。一方、利用者の入力がニュース情報の要求等である場合、経時的に変化し得るニュース情報は外部データベース50aに存在し、ローカルデータベース30aには存在しないため、外部データベース50aのみに基づいて応答が生成され得る。   For example, when the user's input is a facility search or the like, the facility can exist in both the local database 30a (map information 30a1) and the external database 50a, so that a response can be generated based on both. On the other hand, when the user input is a request for news information or the like, news information that can change over time exists in the external database 50a and does not exist in the local database 30a, so a response is made based only on the external database 50a. Can be generated.

例えば、「今日のニュースを教えて」という文字列である場合、制御部20は、ローカルデータベース30aを参照して今日のニュースを検索する。本実施形態において、ローカルデータベース30aには今日のニュースが記録されていないため、ローカルデータベース30aから検索結果は得られない。   For example, when the character string is “tell me today's news”, the control unit 20 refers to the local database 30a to search for today's news. In the present embodiment, since today's news is not recorded in the local database 30a, a search result cannot be obtained from the local database 30a.

外部システム50においては、外部データベース50aを参照して今日のニュースを検索する。本実施形態においては、外部データベース50aにおいて今日のニュースが管理されているため、検索結果が得られ、ナビゲーションシステム10に対して送信される。むろん、ローカルデータベース30aまたは外部データベース50aに検索対象が記録されていないことが明らかである場合、いずれか少なくとも一方のデータベースにおける検索処理は実行されなくてもよい。   In the external system 50, today's news is searched with reference to the external database 50a. In this embodiment, since today's news is managed in the external database 50a, a search result is obtained and transmitted to the navigation system 10. Of course, when it is clear that the search target is not recorded in the local database 30a or the external database 50a, the search processing in at least one of the databases may not be executed.

操舵状態判定部21cは、利用者が操舵中であるか否かを判定する機能を制御部20に実現させるプログラムモジュールである。すなわち、制御部20は、ステアリングセンサ46の出力信号を取得し、ステアリングの操舵角を取得する。そして、操舵角の絶対値が閾値以下ではない場合に車両が操舵中であるとみなす。   The steering state determination unit 21c is a program module that causes the control unit 20 to realize a function of determining whether or not the user is steering. That is, the control unit 20 acquires the output signal of the steering sensor 46 and acquires the steering angle of the steering. Then, when the absolute value of the steering angle is not less than or equal to the threshold value, it is considered that the vehicle is being steered.

応答出力部21dは、利用者が操舵中ではない場合に応答を出力する機能を制御部20に実現させるプログラムモジュールである。すなわち、利用者が操舵中である場合に応答が出力されると、利用者の集中が妨げられる可能性が高いため、制御部20は、操舵中には応答を出力せず、操舵中でない状態において応答を出力する。具体的には、操舵状態判定部21cの処理による判定結果を参照し、操舵中である場合、制御部20は応答を出力せず待機する。操舵状態判定部21cの処理による判定結果が操舵中であることを示していない場合、制御部20は、応答生成部21bの処理によって生成された応答をユーザI/F部44に出力させる。   The response output unit 21d is a program module that causes the control unit 20 to realize a function of outputting a response when the user is not steering. That is, if a response is output when the user is steering, there is a high possibility that the user's concentration will be hindered, so the control unit 20 does not output a response during steering and is not in steering. Output response at. Specifically, referring to the determination result obtained by the process of the steering state determination unit 21c, when the steering is in progress, the control unit 20 stands by without outputting a response. When the determination result by the process of the steering state determination unit 21c does not indicate that the steering is being performed, the control unit 20 causes the user I / F unit 44 to output the response generated by the process of the response generation unit 21b.

応答の出力態様は種々の態様を想定可能であり、本実施形態において、制御部20は、応答を示す文字列に基づいて当該文字列の発話音である音声をユーザI/F部44に出力させる。このため、制御部20は、当該応答の発話音である音声を示す情報をユーザI/F部44のスピーカーに対して出力する。この結果、ユーザI/F部44のスピーカーから応答を示す音声が出力される。   Various modes of response can be assumed, and in the present embodiment, the control unit 20 outputs the voice that is the utterance sound of the character string to the user I / F unit 44 based on the character string indicating the response. Let Therefore, the control unit 20 outputs information indicating the voice that is the utterance sound of the response to the speaker of the user I / F unit 44. As a result, sound indicating a response is output from the speaker of the user I / F unit 44.

以上の構成によれば、操舵中である場合には応答は出力されない。従って、応答の出力によって利用者の集中が妨げられる可能性を低減することが可能であり、利用者は、運転に集中することができる。また、利用者が操舵中ではない場合に応答が出力されるため、利用者は、運転中であっても応答を注意して聞くことができ、容易に内容を認識し、分析することができる。   According to the above configuration, no response is output during steering. Therefore, it is possible to reduce the possibility that the user's concentration is hindered by the output of the response, and the user can concentrate on driving. Also, since the response is output when the user is not steering, the user can listen carefully to the response even during driving, and can easily recognize and analyze the contents. .

(2)応答処理:
次に、ナビゲーションシステム10が実行する応答処理を説明する。ナビゲーションシステム10においては、利用者の操作やマイクによる既定のワードの検出など種々のトリガによって図2Aに示す応答処理が開始される。応答処理において、制御部20は、入力受付部21aの処理により、発話音声による入力を受け付ける(ステップS100)。すなわち、制御部20は、ユーザI/F部44のマイクを介して利用者の発話音声を示す波形情報を取得する。図3Aにおいては、利用者Uが「今日のニュースを教えて」と発話した例を示している。
(2) Response processing:
Next, response processing executed by the navigation system 10 will be described. In the navigation system 10, the response process shown in FIG. 2A is started by various triggers such as a user operation and detection of a predetermined word by a microphone. In the response process, the control unit 20 receives an input by the uttered voice by the process of the input receiving unit 21a (step S100). That is, the control unit 20 acquires waveform information indicating the user's uttered voice via the microphone of the user I / F unit 44. FIG. 3A shows an example in which the user U utters “Tell me today's news”.

次に、制御部20は、応答生成部21bの処理により、発話音声を外部システム50に送信する(ステップS105)。すなわち、制御部20は、ステップS100の処理によって取得した発話音声を示す波形情報を、通信部45を介して、外部システム50に対して送信する。   Next, the control unit 20 transmits the uttered voice to the external system 50 by the process of the response generation unit 21b (step S105). That is, the control unit 20 transmits the waveform information indicating the uttered voice acquired by the process of step S <b> 100 to the external system 50 via the communication unit 45.

次に、制御部20は、応答生成部21bの処理により、ローカルデータベース30aに基づいて音声認識を行う(ステップS110)。すなわち、制御部20は、音声データベース30a2を参照し、ステップS100の処理によって取得した発話音声を予め決められた音声認識アルゴリズムで解析し、発話音声の内容として尤も確率の高い文字列を取得する。ここでは、図3Aに示す例において「今日のニュースを教えて」が文字列として認識された状態を想定する。   Next, the control unit 20 performs voice recognition based on the local database 30a by the processing of the response generation unit 21b (step S110). That is, the control unit 20 refers to the voice database 30a2, analyzes the uttered voice acquired by the process of step S100 using a predetermined voice recognition algorithm, and acquires a character string having a high probability as the content of the uttered voice. Here, it is assumed that “tell me today's news” is recognized as a character string in the example shown in FIG. 3A.

次に、制御部20は、応答生成部21bの処理により、ローカルデータベース30aに基づいて検索結果を取得する(ステップS115)。すなわち、制御部20は、ステップS110の処理で取得した文字列から検索対象と検索条件とを特定する。例えば、図3Aに示す例においては、「今日のニュースを教えて」という文字列が音声認識結果として得られているため、制御部20は、ニュースを検索対象とし、今日の日付が対応づけられていることを検索条件とする。   Next, the control part 20 acquires a search result based on the local database 30a by the process of the response generation part 21b (step S115). That is, the control unit 20 specifies a search target and a search condition from the character string acquired in the process of step S110. For example, in the example shown in FIG. 3A, since the character string “Tell me today's news” is obtained as a speech recognition result, the control unit 20 uses the news as a search target and associates today's date with it. Is a search condition.

そして、制御部20は、ローカルデータベース30aを参照し、検索条件に合致する検索対象を検索する。本実施形態において、ローカルデータベース30aにはニュース情報が記録されていないため、ニュースは検索されない。なお、ニュース情報がローカルデータベース30aに記録されていないことが予め特定されているのであれば、ステップS115において検索は省略されてよい。   Then, the control unit 20 refers to the local database 30a and searches for a search target that matches the search condition. In the present embodiment, no news information is recorded in the local database 30a, so no news is searched. If it is previously specified that news information is not recorded in the local database 30a, the search may be omitted in step S115.

次に、制御部20は、応答生成部21bの処理により、外部応答を受信したか否かを判定する(ステップS120)。すなわち、ステップS105によって送信された発話音声が外部システム50で受信されると、外部システム50において外部応答生成処理が行われる。外部応答が生成されると、外部応答を示す情報が外部システム50からナビゲーションシステム10に対して送信される。そこで、制御部20は、外部システム50が送信した外部応答が通信部45を介して取得されたか否かを判定する。ステップS120において、外部応答を受信したと判定されない場合、制御部20は、外部応答を受信したと判定されるまで待機する。なお、図3Aに示す例であれば、外部システム50によって今日のニュースが検索され、予め決められた項目数のニュースが抽出されて外部応答とされる。   Next, the control unit 20 determines whether or not an external response has been received by the processing of the response generation unit 21b (step S120). In other words, when the uttered voice transmitted in step S105 is received by the external system 50, an external response generation process is performed in the external system 50. When the external response is generated, information indicating the external response is transmitted from the external system 50 to the navigation system 10. Therefore, the control unit 20 determines whether or not the external response transmitted by the external system 50 has been acquired via the communication unit 45. If it is not determined in step S120 that an external response has been received, the control unit 20 waits until it is determined that an external response has been received. In the example shown in FIG. 3A, today's news is searched by the external system 50, and news of a predetermined number of items is extracted and used as an external response.

次に、制御部20は、応答生成部21bの処理により、応答を生成する(ステップS125)。すなわち、ステップS115において取得された検索結果とステップS120の処理によって外部システム50から取得された検索結果を結合する。この際、制御部20は、双方の検索結果にて重複する結果は削除する。図3Aに示す例であれば、ステップS115において検索結果は取得されないため、制御部20は、ステップS120の処理によって外部システム50から取得された検索結果を応答と見なす。   Next, the control part 20 produces | generates a response by the process of the response production | generation part 21b (step S125). That is, the search result acquired in step S115 and the search result acquired from the external system 50 by the process of step S120 are combined. At this time, the control unit 20 deletes duplicate results in both search results. In the example shown in FIG. 3A, since the search result is not acquired in step S115, the control unit 20 regards the search result acquired from the external system 50 by the process of step S120 as a response.

次に、制御部20は、操舵状態判定部21cの処理により、操舵中であるか否かを判定する(ステップS130)。すなわち、制御部20は、ステアリングセンサ46の出力信号を参照し、現在のステアリングの回転角度を取得する。そして、当該回転角度の絶対値が、ステアリングが回転していないと見なすことのできる閾値よりも大きければ、制御部20は、操舵中であると判定する。ステップS130において操舵中であると判定されない場合、制御部20は、ステップS130の判定を繰り返す。すなわち、車両において利用者が操舵中である場合、制御部20は、操舵が終了するまで応答の出力を延期する。図3Aにおいては、ユーザI/F部44の表示部の画面例44aを示しており、道路を線、予定経路を太い線、車両を符号C、目的地を符号Gで示している。この例において、車両Cの利用者は右折するために操舵中である。従って、車両Cが図3Aに示す位置に存在する場合、応答の出力は延期される。   Next, the control unit 20 determines whether or not steering is being performed by the processing of the steering state determination unit 21c (step S130). That is, the control unit 20 refers to the output signal of the steering sensor 46 and acquires the current steering rotation angle. And if the absolute value of the said rotation angle is larger than the threshold value which can be considered that the steering is not rotating, the control part 20 will determine with it being steering. If it is not determined in step S130 that the vehicle is steering, the control unit 20 repeats the determination in step S130. That is, when the user is steering in the vehicle, the control unit 20 postpones the output of the response until the steering is completed. 3A shows a screen example 44a of the display unit of the user I / F unit 44. A road is indicated by a line, a planned route is indicated by a thick line, a vehicle is indicated by C, and a destination is indicated by G. In this example, the user of the vehicle C is steering to turn right. Therefore, when the vehicle C exists at the position shown in FIG. 3A, the output of the response is postponed.

なお、操舵が終了するまで応答の出力を延期している期間において、制御部20は、応答の出力が延期されていることを利用者に提示してもよい。この場合、制御部20は、応答の出力が延期されていることを示す情報を、既定の文字列や画像の選択等によって特定し、当該情報を出力するための制御信号をユーザI/F部44に対して出力する。この結果、ユーザI/F部44においては、応答の出力が延期されていることを示す情報を出力する。図3Aにおいては、応答の出力が延期されていることを示す情報が文字列「右折後に読み上げます」であり、ユーザI/F部44のスピーカーから当該文字列の発話音が出力されている例を示している。   In the period in which the output of the response is postponed until the steering is finished, the control unit 20 may present to the user that the output of the response is postponed. In this case, the control unit 20 specifies information indicating that the output of the response has been postponed by selecting a predetermined character string or image, and outputs a control signal for outputting the information to the user I / F unit. 44 for output. As a result, the user I / F unit 44 outputs information indicating that the output of the response has been postponed. In FIG. 3A, the information indicating that the output of the response has been postponed is the character string “read after right turn”, and the utterance sound of the character string is output from the speaker of the user I / F unit 44 Is shown.

一方、ステップS130において操舵中であると判定された場合、制御部20は、応答出力部21dの処理により、応答を出力する(ステップS135)。すなわち、制御部20は、ステップS125において生成された応答を示す文字列を音声出力するための制御信号をユーザI/F部44に対して出力する。この結果、ユーザI/F部44においては、応答を示す文字列が音声によって出力される。図3Aにおいては、応答を示す文字列で構成される最初の文である「今日のニュースを読み上げます」が出力されている例を示している。この文の後、ニュースの内容を示す音声が出力される。   On the other hand, when it determines with it being steering in step S130, the control part 20 outputs a response by the process of the response output part 21d (step S135). That is, the control unit 20 outputs a control signal for outputting the character string indicating the response generated in step S125 to the user I / F unit 44. As a result, the user I / F unit 44 outputs a character string indicating a response by voice. FIG. 3A shows an example in which “read today's news”, which is the first sentence composed of a character string indicating a response, is output. After this sentence, a voice indicating the content of the news is output.

(3)外部応答生成処理:
次に、外部システム50が実行する外部応答生成処理を説明する。外部システム50は、ナビゲーションシステム10から発話音声の送信要求が行われた場合に、図2Bに示す外部応答生成処理を実行する。外部応答生成処理が開始されると、外部システム50は、入力内容を受信する(ステップS200)。すなわち、外部システム50は、ナビゲーションシステム10から送信される、発話音声を示す情報を図示しない通信部によって取得する。
(3) External response generation processing:
Next, an external response generation process executed by the external system 50 will be described. The external system 50 executes the external response generation process shown in FIG. 2B when a transmission request for the spoken voice is made from the navigation system 10. When the external response generation process is started, the external system 50 receives the input content (step S200). That is, the external system 50 acquires information indicating the speech voice transmitted from the navigation system 10 by a communication unit (not shown).

次に、外部システム50は、外部データベース50aに基づいて音声認識を行う(ステップS205)。すなわち、外部システム50は、外部データベース50aを参照し、ステップS200で受信された情報が示す発話音声を予め決められた音声認識アルゴリズムで解析し、発話音声の内容として尤も確率の高い文字列を取得する。図3Aに示す例において発話音声が外部システム50に送信された場合、「今日のニュースを教えて」が文字列として認識される。   Next, the external system 50 performs voice recognition based on the external database 50a (step S205). That is, the external system 50 refers to the external database 50a, analyzes the utterance voice indicated by the information received in step S200 with a predetermined voice recognition algorithm, and obtains a character string having a high probability as the content of the utterance voice. To do. In the example shown in FIG. 3A, when the uttered voice is transmitted to the external system 50, “tell me today's news” is recognized as a character string.

次に、外部システム50は、外部データベース50aに基づいて検索結果を取得する(ステップS210)。すなわち、外部システム50は、外部データベース50aを参照し、ステップS205の処理で取得した文字列から検索対象と検索条件とを特定する。例えば、図3Aに示す例においては、「今日のニュースを教えて」という文字列が音声認識結果として得られるため、制御部20は、ニュースを検索対象とし、今日の日付が対応づけられていることを検索条件とする。   Next, the external system 50 acquires a search result based on the external database 50a (step S210). That is, the external system 50 refers to the external database 50a, and specifies a search target and a search condition from the character string acquired in the process of step S205. For example, in the example shown in FIG. 3A, since a character string “tell me today's news” is obtained as a speech recognition result, the control unit 20 uses news as a search target and associates today's date with it. This is the search condition.

そして、制御部20は、外部データベース50aを参照し、検索条件に合致する検索対象を検索する。本実施形態においては外部データベース50aにニュース情報が記録されているため、検索条件に合致したニュースが検索される。そこで、外部システム50は、得られた検索結果から予め決められた項目数のニュースを取得し、外部応答とする。外部応答が生成されると、外部システム50は、外部応答をナビゲーションシステム10に送信する(ステップS215)。すなわち、外部システム50は、ステップS210の処理によって取得した外部応答を示す情報を、通信部を介して、ナビゲーションシステム10に対して送信する。   Then, the control unit 20 refers to the external database 50a and searches for a search target that matches the search condition. In the present embodiment, since news information is recorded in the external database 50a, news that matches the search condition is searched. Therefore, the external system 50 acquires a predetermined number of items of news from the obtained search results and uses it as an external response. When the external response is generated, the external system 50 transmits the external response to the navigation system 10 (step S215). That is, the external system 50 transmits information indicating the external response acquired by the process of step S210 to the navigation system 10 via the communication unit.

(4)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、利用者が操舵中ではない場合に応答を出力する限りにおいて、他にも種々の実施形態を採用可能である。例えば、ナビゲーションシステム10とともに移動する移動体は任意であり、車両であっても良いし、歩行者であっても良く、種々の例が想定される。また、応答システムは、車両等に搭載された装置であっても良いし、可搬型の端末によって実現される装置であっても良いし、複数の装置(例えば、クライアントとサーバ)によって実現されるシステムであっても良い。
(4) Other embodiments:
The above embodiment is an example for carrying out the present invention, and various other embodiments can be adopted as long as a response is output when the user is not steering. For example, the moving body that moves together with the navigation system 10 is arbitrary, and may be a vehicle or a pedestrian, and various examples are assumed. The response system may be a device mounted on a vehicle or the like, a device realized by a portable terminal, or realized by a plurality of devices (for example, a client and a server). It may be a system.

さらに、応答システムを構成する入力受付部21a、応答生成部21b、操舵状態判定部21c、応答出力部21dの少なくとも一部が複数の装置に分かれて存在していても良い。例えば、制御部20が音声データベース30a2に基づいて音声認識を行った後、音声認識後の文字列を外部システム50に送信し、外部システム50において生成した外部応答を取得する構成や、車両に搭載されたECUが操舵状態を判定する構成等であってもよい。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。例えば、ステップS105は、ステップS110以降の処理と並列で実行されてもよいし、ステップS120の後に実行されてもよい。   Furthermore, at least a part of the input reception unit 21a, the response generation unit 21b, the steering state determination unit 21c, and the response output unit 21d constituting the response system may be divided into a plurality of devices. For example, after the controller 20 performs voice recognition based on the voice database 30a2, a character string after voice recognition is transmitted to the external system 50, and an external response generated in the external system 50 is acquired, or installed in a vehicle For example, the ECU may be configured to determine the steering state. Of course, a part of the configuration of the above-described embodiment may be omitted, and the processing order may be changed or omitted. For example, step S105 may be executed in parallel with the processing after step S110, or may be executed after step S120.

入力受付部は、利用者の入力を受け付けることができればよい。すなわち、応答システムは利用者の入力に対する応答を実行するシステムであり、入力受付部は、利用者が応答を望む内容を特定できるように、利用者の入力を受け付けることができればよい。入力は種々の態様を想定可能であり、例えば、利用者が操作部を操作することによって実現されても良いし、利用者の発話音声がマイク等によって取得されることによって実現されても良い。   The input reception part should just be able to receive a user's input. That is, the response system is a system that executes a response to the user's input, and the input receiving unit only needs to be able to receive the user's input so that the user can specify the content that the user wants to respond to. Various modes can be assumed for the input. For example, the input may be realized by the user operating the operation unit, or may be realized by acquiring the user's uttered voice using a microphone or the like.

応答生成部は、入力に対する応答を生成することができればよい。すなわち、利用者の入力内容は、応答システムへの応答を要求する内容であるため、応答生成部は、入力内容を特定し、入力内容に応じた応答を生成するための処理を実行する。入力内容の特定は、入力態様に応じた種々の手法によって実現可能である。例えば、入力が操作部の操作による選択肢の選択や、コマンドの入力等である場合、選択された選択肢を特定し、入力されたコマンドを特定するなどして入力内容を特定可能である。利用者の発話音声が入力である場合、音声認識を行って音声を文字列化するなどして入力内容を特定することができる。   The response generation unit only needs to be able to generate a response to the input. That is, since the user's input content is content that requests a response to the response system, the response generation unit identifies the input content and executes a process for generating a response according to the input content. The specification of the input content can be realized by various methods according to the input mode. For example, when the input is selection of an option by operating the operation unit, input of a command, or the like, the input content can be specified by specifying the selected option and specifying the input command. When the user's uttered voice is an input, the input content can be specified by performing voice recognition and converting the voice into a character string.

入力内容に応じた応答の生成は、入力内容に応じた種々の処理を実行することによって実現可能である。例えば、選択肢やコマンドによって入力内容が特定される構成であれば、これらの選択肢やコマンド毎に予め実行すべき処理が規定されていればよい。むろん、各処理においては、利用者が入力したパラメータが利用されて処理が実行されてもよい。また、利用者の発話音声が入力である場合、文字列化された内容を解析することで実行すべき処理が特定され、当該処理が実行されてもよい。例えば、「この先の交通情報」という文字列であれば、前方の道路や予定経路についての交通情報が取得される。   Generation of a response according to the input content can be realized by executing various processes according to the input content. For example, if the input content is specified by options and commands, it is only necessary to predetermine processing to be executed for each option and command. Of course, in each process, the process may be executed using parameters input by the user. Further, when the user's uttered voice is an input, a process to be executed may be specified by analyzing the contents converted into a character string, and the process may be executed. For example, in the case of the character string “the traffic information ahead”, the traffic information about the road ahead and the planned route is acquired.

入力と応答の態様は種々の態様が想定可能である。例えば、入力と応答が、情報の要求と情報の提示である例や、命令と実行である例が想定される。入力と応答が情報の要求と情報の提示である場合の、より具体的な例としては、検索条件に合致する情報の要求と検索結果を示す情報の提示である例等が挙げられる。むろん、提供対象となる情報は各種の情報が想定可能であり、施設情報や天候情報、交通情報、新規開店した店舗の情報や店舗の価格帯や口コミ評価、おすすめの店舗等の情報等であってもよく、種々の情報が想定される。入力と応答が命令と実行である場合の、より具体的な例としては、記憶媒体に記憶されたファイルの再生(音楽や動画等の再生)命令と、その再生が挙げられる。   Various modes of input and response can be assumed. For example, an example in which the input and response are a request for information and presentation of information, or an example in which an instruction and execution are performed is assumed. More specific examples of the case where the input and response are information request and information presentation include an example of information request that matches the search condition and information showing the search result. Of course, various types of information can be assumed for the information to be provided, such as facility information, weather information, traffic information, information on newly opened stores, store price ranges, word-of-mouth reviews, and recommended stores. Various information may be assumed. As a more specific example in the case where the input and response are an instruction and an execution, a command for reproducing a file stored in a storage medium (reproduction of music, moving images, etc.) and its reproduction can be mentioned.

操舵状態判定部は、利用者が操舵中であるか否かを判定することができればよい。すなわち、操舵状態判定部は、操舵状態を検出するセンサ(例えば、ステアリング角度のセンサや加速度センサ、位置センサ等)の出力や操舵状態の変化の推定が行える車両の変化に基づいて、利用者が操舵中であるか否かを判定することができればよい。   The steering state determination unit only needs to be able to determine whether or not the user is steering. That is, the steering state determination unit determines whether the user can output the output of a sensor (for example, a steering angle sensor, an acceleration sensor, or a position sensor) that detects the steering state or a change in the vehicle that can estimate the change in the steering state. What is necessary is just to be able to determine whether it is steering.

操舵中とされる期間は、利用者が応答に集中すべきではない期間であればよく、利用者が現にステアリングを操作している期間の他、操舵の準備中である期間や、操舵が行われると推定される期間であってもよい。操舵の準備中である期間や、操舵が行われると推定される期間としては、例えば、ウインカーが点滅している期間や、走行予定経路等によって車線変更や非直進方向への走行等が行われると推定される期間、駐車操作等が行われている期間、利用者の目線や顔の方向によって車線変更や非直進方向への走行、駐車操作等が行われると推定される期間等が挙げられる。   The period during which the steering should be performed may be a period during which the user should not concentrate on the response. In addition to the period during which the user is actually operating the steering, the period during which the user is preparing for steering, It may be a period estimated to be released. As a period during which preparation for steering is being performed or a period during which steering is estimated to be performed, for example, a lane change or traveling in a non-straight direction is performed depending on a blinking period, a planned travel route, or the like. Estimated period, parking operation, etc., period of lane change, driving in a non-straight direction, parking operation, etc., depending on the user's line of sight and face, etc. .

応答出力部は、利用者が操舵中ではない場合に応答を出力することができればよい。すなわち、利用者が操舵中である場合に応答が出力されると、利用者の集中が妨げられる可能性が高いため、応答出力部は、操舵中には応答を出力せず、操舵中でない状態において応答を出力する。応答の出力態様は種々の態様を想定可能であり、情報の出力や命令の実行等であっても良い。前者としては、例えば、ディスプレイ等の出力部に対する表示やスピーカー等の出力部からの音声出力が応答の出力である例が挙げられ、後者としては、例えば、スピーカー等の出力部によって音楽が出力される構成が挙げられる。   The response output unit only needs to be able to output a response when the user is not steering. That is, if a response is output when the user is steering, there is a high possibility that the user's concentration is hindered, so the response output unit does not output a response during steering and is not in steering Output response at. Various modes of response output can be assumed, and information output, command execution, and the like may be used. Examples of the former include an example in which a display on an output unit such as a display or an audio output from an output unit such as a speaker is a response output. As the latter, for example, music is output by an output unit such as a speaker. Can be mentioned.

さらに、応答生成部は、利用者が操舵中である場合、発話音声を認識するためのパラメータを初期の認識におけるパラメータから変化させて再認識を行う構成であってもよい。一般的な音声認識においては、発話音声である推定される文字列の候補は複数となり得るとともに、発話音声の文字列として尤も確からしい文字列が認識結果として得られる。従って、音声認識を行うためのパラメータが変更されると、尤も確からしい文字列は変化し得る。   Furthermore, the response generation unit may be configured to perform re-recognition by changing a parameter for recognizing the speech voice from the parameter in the initial recognition when the user is steering. In general speech recognition, there can be a plurality of estimated character string candidates that are uttered speech, and a character string that is most likely as a speech speech character string is obtained as a recognition result. Therefore, if the parameters for performing speech recognition are changed, the most likely character string can change.

そして、一般的にはパラメータの調整によって認識率が変化するが、高精度の認識を実行可能な状態にすると認識完了までに時間がかかる。そこで、応答の出力が延期されている操舵中において、初期の認識におけるパラメータを、より高精度の認識が行えるように変化させて発話音声の再認識を行う構成とすれば、操舵中でない状況においては正確性よりも高速性が相対的に重視された状態で早期に応答を出力することが可能である。一方、操舵中である状況においては高速性よりも正確性が重視された情報を取得して操舵後に出力することが可能である。   In general, the recognition rate is changed by adjusting the parameters. However, if high-accuracy recognition is enabled, it takes time to complete the recognition. Therefore, when the response output is postponed, if the configuration is such that the speech recognition speech is re-recognized by changing the initial recognition parameters so that more accurate recognition can be performed, Can output a response at an early stage in a state in which high speed is more important than accuracy. On the other hand, in a situation where steering is in progress, it is possible to acquire information in which accuracy is more important than high speed and output the information after steering.

なお、パラメータは、認識率が向上するように調整可能な可変の値、条件、情報等であれば良く、例えば、参照すべき音響モデルや言語モデルのデータ量や重み付けが調整されてもよいし、音声認識アルゴリズムで可変のパラメータ(ビーム幅、挿入ペナルティ等)が調整されてもよい。上述の実施形態であれば、音声データベース30a2や外部データベース50aにおいて参照されるデータ量等が可変であってもよいし、制御部20または外部システム50がビーム幅、挿入ペナルティ等の可変のパラメータを調整してもよい。   The parameters may be variable values, conditions, information, and the like that can be adjusted so as to improve the recognition rate. For example, the data amount and weight of the acoustic model or language model to be referred to may be adjusted. The variable parameters (beam width, insertion penalty, etc.) may be adjusted by the speech recognition algorithm. In the embodiment described above, the amount of data referred to in the audio database 30a2 or the external database 50a may be variable, or the control unit 20 or the external system 50 may change variable parameters such as beam width and insertion penalty. You may adjust.

なお、パラメータの変化は同一装置内で実施されてもよいし、装置を変化させることによって実施されてもよい。後者としては、例えば、上述の実施形態において、初期に制御部20がローカルデータベース30aに基づいて音声認識を行い、外部システム50においては音声認識を行わず、操舵中であれば外部データベース50aも利用して音声認識を行う構成とする。そして、外部システム50における外部データベース50aに基づく音声認識の方が制御部20におけるローカルデータベース30aにおける音声認識よりも高精度になるようにパラメータが設定されればよい。   Note that the parameter change may be performed within the same device, or may be performed by changing the device. As the latter, for example, in the above-described embodiment, the control unit 20 initially performs voice recognition based on the local database 30a, does not perform voice recognition in the external system 50, and also uses the external database 50a during steering. Thus, the voice recognition is performed. The parameters may be set so that the voice recognition based on the external database 50a in the external system 50 is more accurate than the voice recognition in the local database 30a in the control unit 20.

さらに、利用者が操舵中である場合、応答生成部が応答を再生成し、応答出力部が、再生成された応答を出力する構成であってもよい。すなわち、操舵中であることによって応答の出力が延期されている場合、延期されている間に既存の応答の価値が低下したり、応答内容が不正確、不適切になったりする場合がある。そこで、操舵中である場合に応答を再生成すれば、応答の価値の低下防止や、正確性や適切性を高めること等が可能になる。   Further, when the user is steering, the response generation unit may regenerate the response, and the response output unit may output the regenerated response. That is, when the output of the response is postponed due to the steering, the value of the existing response may be reduced while the postponement is made, or the response content may be inaccurate or inappropriate. Therefore, if the response is regenerated when the vehicle is being steered, it is possible to prevent a decrease in the value of the response, increase accuracy and appropriateness, and the like.

この構成は、例えば、上述の実施形態において、ステップS130で操舵中であると判定された場合、制御部20がステップS105やステップS115に戻って処理を続ける構成等が挙げられる。なお、応答の再生成は、初期の応答と同一の条件で実行されてもよいし、初期の条件と異なる条件を設定して応答を再生成してもよい。   This configuration includes, for example, a configuration in which the control unit 20 returns to step S105 or step S115 and continues processing when it is determined in step S130 that steering is in progress. Note that the regeneration of the response may be executed under the same conditions as the initial response, or the response may be regenerated by setting a condition different from the initial condition.

後者としては、例えば、応答が、入力が示す検索対象の検索結果を示している構成において、再生成された応答が、元の検索条件を変更した再検索の検索結果である構成が挙げられる。検索条件は、操舵中の状況変化に応じて変化されればよく、例えば、前方の道路の交通情報が応答である場合において、操舵によって車両が右左折等を行い、前方の道路が変化した場合に、変化後の前方の道路の交通情報が検索されて応答とされる構成が挙げられる。   As the latter, for example, in a configuration in which the response indicates a search target search result indicated by an input, a configuration in which the regenerated response is a search result of a re-search in which the original search condition is changed may be mentioned. The search condition only needs to be changed according to a change in the situation during steering. For example, when traffic information on the road ahead is a response, the vehicle turns right or left due to steering, and the road ahead changes. In addition, there is a configuration in which traffic information on the road ahead after the change is retrieved and used as a response.

この構成は、例えば、上述の実施形態を修正することによって実現可能である。具体的には、ステップS130で操舵中であると判定された場合、制御部20が操舵角に基づいて、車両の進行方向の変化を特定し、地図情報30a1に基づいて進行方向の変化後に走行される道路を推定する。そして、制御部20は、通信部45を介して外部システム50と通信を行い、推定された道路についての交通情報を取得して応答と見なす。   This configuration can be realized, for example, by modifying the above-described embodiment. Specifically, when it is determined in step S130 that the vehicle is being steered, the control unit 20 identifies a change in the traveling direction of the vehicle based on the steering angle, and travels after the change in the traveling direction based on the map information 30a1. Estimate the road that will be. And the control part 20 communicates with the external system 50 via the communication part 45, acquires the traffic information about the estimated road, and regards it as a response.

むろん、応答が再生成される際には、操舵中の状況変化に対応した条件の変更以外にも種々の変更が行われ得る。例えば、検索において、検索範囲を変化させる構成等が挙げられる。検索範囲を変化させる際には、例えば、検索対象の検索範囲を変化させてもよいし(例えば、交通情報を初期の領域よりも広域について検索する)、検索対象を変化させてもよいし(例えば、初期の検索で音楽ファイルを検索し、再検索で音楽ファイルの関連情報(アーティスト関連情報等)を検索する)、検索されるデータベースを変化させてもよく(例えば、初期の検索でローカルのデータベース、再検索で外部のデータベースを検索する)、種々の構成を採用し得る。   Of course, when the response is regenerated, various changes can be made in addition to the change in the condition corresponding to the situation change during steering. For example, in the search, a configuration for changing the search range can be cited. When changing the search range, for example, the search range of the search target may be changed (for example, the traffic information is searched for a wider area than the initial area), or the search target may be changed ( For example, a music file is searched by an initial search, and related information (artist related information, etc.) of a music file is searched by a re-search. Various structures can be employed by searching a database and searching an external database by re-search.

さらに、利用者が操舵中である場合、応答生成部が入力に関連する情報を取得し、利用者が操舵中である場合、応答出力部が入力に関連する情報を出力する構成であってもよい。すなわち、利用者が操舵中である場合に、入力に対応する応答に加えて入力に関連する情報が出力される構成であってもよい。入力に関連する情報は、例えば、利用者の入力によって直接的に要求された情報以外の情報が挙げられる。より具体的には、利用者が音楽ファイルの再生を指示する入力を行った場合に音楽ファイルの再生が行われ、当該音楽ファイルに関連する情報(例えば、アーティストに関する動画やニュース等)が検索されて応答として出力される構成が挙げられる。   Further, when the user is steering, the response generation unit acquires information related to input, and when the user is steering, the response output unit outputs information related to input. Good. That is, when the user is steering, information related to the input may be output in addition to the response corresponding to the input. The information related to the input includes, for example, information other than the information directly requested by the user input. More specifically, when a user inputs an instruction to play a music file, the music file is played, and information related to the music file (for example, videos and news about the artist) is searched. The configuration that is output as a response.

この構成は、例えば、上述の構成においてステップS105,S115,S120を省略し、ステップS110において認識された結果に基づいて、制御部20がステップS125において再生対象の音楽ファイルを特定し、この段階またはステップS135にて再生対象の音楽ファイルを再生する構成が想定される。そして、この構成において、ステップS130にて操舵中であると判定された場合に、制御部20が発話音声を外部システム50に送信し、外部システム50が外部データベース50aに基づいて音楽ファイルに関連する情報を検索して外部応答とし、制御部20が当該外部応答を取得してステップS135において当該外部応答を出力する構成等によって実現可能である。   In this configuration, for example, steps S105, S115, and S120 are omitted in the above-described configuration, and the control unit 20 specifies a music file to be played back in step S125 based on the result recognized in step S110. It is assumed that the music file to be played is played back in step S135. In this configuration, when it is determined in step S130 that the vehicle is being steered, the control unit 20 transmits the uttered voice to the external system 50, and the external system 50 relates to the music file based on the external database 50a. This can be realized by a configuration in which the information is searched for an external response, the control unit 20 acquires the external response, and outputs the external response in step S135.

さらに、本発明のように、利用者が操舵中ではない場合に応答を出力する手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合や、複数の装置によって実現される場合が想定可能であり、各種の態様を含むものである。例えば、以上のような手段を備えたナビゲーションシステムや方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Further, the method of outputting a response when the user is not steering as in the present invention can be applied as a program or a method. The system, program, and method as described above can be realized as a single device or can be realized as a plurality of devices, and include various aspects. For example, it is possible to provide a navigation system, method, and program provided with the above means. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention can be realized as a recording medium for a program for controlling the system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…ナビゲーションシステム、20…制御部、21…応答プログラム、21a…入力受付部、21b…応答生成部、21c…操舵状態判定部、21d…応答出力部、30…ローカル記憶媒体、30a…ローカルデータベース、30a1…地図情報、30a2…音声データベース、41…受信部、42…車速センサ、43…ジャイロセンサ、44…ユーザI/F部、45…通信部、46…ステアリングセンサ、50…外部システム、50a…外部データベース   DESCRIPTION OF SYMBOLS 10 ... Navigation system, 20 ... Control part, 21 ... Response program, 21a ... Input reception part, 21b ... Response generation part, 21c ... Steering state determination part, 21d ... Response output part, 30 ... Local storage medium, 30a ... Local database , 30a1 ... map information, 30a2 ... voice database, 41 ... receiving unit, 42 ... vehicle speed sensor, 43 ... gyro sensor, 44 ... user I / F unit, 45 ... communication unit, 46 ... steering sensor, 50 ... external system, 50a ... external database

Claims (7)

利用者の入力を受け付ける入力受付部と、
前記入力に対する応答を生成する応答生成部と、
前記利用者が操舵中であるか否かを判定する操舵状態判定部と、
前記利用者が操舵中ではない場合、前記応答を出力する応答出力部と、
を備える応答システム。
An input reception unit for receiving user input;
A response generator for generating a response to the input;
A steering state determination unit that determines whether or not the user is steering;
If the user is not steering, a response output unit for outputting the response;
A response system comprising:
前記入力は、
前記利用者の発話音声であり、
前記応答は、
前記発話音声を認識した結果に基づいて生成される、
請求項1に記載の応答システム。
The input is
The spoken voice of the user,
The response is
Generated based on the recognition result of the speech,
The response system according to claim 1.
前記応答生成部は、
前記利用者が操舵中である場合、前記発話音声を認識するためのパラメータを初期の認識におけるパラメータから変化させて再認識を行う、
請求項2に記載の応答システム。
The response generator is
When the user is steering, the parameter for recognizing the uttered voice is changed from the parameter in initial recognition, and re-recognition is performed.
The response system according to claim 2.
前記応答生成部は、
前記利用者が操舵中である場合、前記応答を再生成し、
前記応答出力部は、
再生成された前記応答を出力する、
請求項1〜請求項3のいずれかに記載の応答システム。
The response generator is
If the user is steering, regenerate the response,
The response output unit
Output the regenerated response,
The response system according to any one of claims 1 to 3.
前記応答は、
前記入力が示す検索対象の検索結果を示し、
再生成された前記応答は、
元の検索条件を変更した再検索の検索結果である、
請求項4に記載の応答システム。
The response is
Indicates the search result of the search target indicated by the input,
The regenerated response is
The search result of the re-search with the original search condition changed.
The response system according to claim 4.
前記応答生成部は
前記利用者が操舵中である場合、前記入力に関連する情報を取得し、
前記応答出力部は、
前記利用者が操舵中である場合、前記入力に関連する情報を出力する、
請求項1〜請求項5のいずれかに記載の応答システム。
The response generation unit obtains information related to the input when the user is steering,
The response output unit
If the user is steering, output information related to the input;
The response system according to any one of claims 1 to 5.
コンピュータを、
利用者の入力を受け付ける入力受付部、
前記入力に対する応答を生成する応答生成部、
前記利用者が操舵中であるか否かを判定する操舵状態判定部、
前記利用者が操舵中ではない場合、前記応答を出力する応答出力部、
として機能させる応答プログラム。
Computer
An input reception unit for receiving user input,
A response generator for generating a response to the input;
A steering state determination unit that determines whether or not the user is steering;
A response output unit that outputs the response when the user is not steering;
As a response program to function as.
JP2016048013A 2016-03-11 2016-03-11 Response system and response program Pending JP2017161813A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016048013A JP2017161813A (en) 2016-03-11 2016-03-11 Response system and response program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016048013A JP2017161813A (en) 2016-03-11 2016-03-11 Response system and response program

Publications (1)

Publication Number Publication Date
JP2017161813A true JP2017161813A (en) 2017-09-14

Family

ID=59857048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016048013A Pending JP2017161813A (en) 2016-03-11 2016-03-11 Response system and response program

Country Status (1)

Country Link
JP (1) JP2017161813A (en)

Similar Documents

Publication Publication Date Title
US10818286B2 (en) Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US20230019968A1 (en) Driving Control Method and Apparatus
US11295735B1 (en) Customizing voice-control for developer devices
US20070265844A1 (en) Audio Device Control Device, Audio Device Control Method, and Program
JP6173477B2 (en) Navigation server, navigation system, and navigation method
JP2008058409A (en) Speech recognizing method and speech recognizing device
US11200892B1 (en) Speech-enabled augmented reality user interface
JP2006317573A (en) Information terminal
JP2011179917A (en) Information recording device, information recording method, information recording program, and recording medium
JPWO2018055898A1 (en) INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING METHOD
CN116368353A (en) Content aware navigation instructions
US9791925B2 (en) Information acquisition method, information acquisition system, and non-transitory recording medium for user of motor vehicle
JP5181533B2 (en) Spoken dialogue device
JP2012173702A (en) Voice guidance system
US10884700B2 (en) Sound outputting device, sound outputting method, and sound outputting program storage medium
JP6387287B2 (en) Unknown matter resolution processing system
JP2021096717A (en) Information providing device, information providing method, and program
JP2017161813A (en) Response system and response program
JP6741387B2 (en) Audio output device
JP5160653B2 (en) Information providing apparatus, communication terminal, information providing system, information providing method, information output method, information providing program, information output program, and recording medium
JP7407047B2 (en) Audio output control method and audio output control device
US11797261B2 (en) On-vehicle device, method of controlling on-vehicle device, and storage medium
US20200308895A1 (en) Agent device, agent device control method, and storage medium
JP2017159850A (en) Response system and response program
JP7274901B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM