JP2020153678A - Notification controller and method for controlling notification - Google Patents

Notification controller and method for controlling notification Download PDF

Info

Publication number
JP2020153678A
JP2020153678A JP2019049669A JP2019049669A JP2020153678A JP 2020153678 A JP2020153678 A JP 2020153678A JP 2019049669 A JP2019049669 A JP 2019049669A JP 2019049669 A JP2019049669 A JP 2019049669A JP 2020153678 A JP2020153678 A JP 2020153678A
Authority
JP
Japan
Prior art keywords
notification
unit
guidance information
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019049669A
Other languages
Japanese (ja)
Inventor
昌宏 暮橋
Masahiro Kurehashi
昌宏 暮橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019049669A priority Critical patent/JP2020153678A/en
Publication of JP2020153678A publication Critical patent/JP2020153678A/en
Pending legal-status Critical Current

Links

Images

Abstract

To adjust the content or the state of notification according to a user when notifying the user of information on operations of a mobile body.SOLUTION: A notification controller includes: a notification unit for notifying a user of guidance information on operations of a mobile body; a voice recognition unit for detecting voice of a passenger in a mobile body and recognizing the content of a speech of the passenger; and a notification control unit for causing the notification unit to notify the user of the guidance information. The notification control unit performs notification adjusting processing for changing the content of the guidance information or the state of the notification if the content of the speech recognized by the voice recognition unit includes a speech on the guidance information issued by the notification unit.SELECTED DRAWING: Figure 2

Description

本発明は、報知制御装置、および、報知制御方法に関する。 The present invention relates to a notification control device and a notification control method.

従来、自動車などの移動体を操作するユーザに、経路案内等に関する情報を提供する装置が知られている(例えば、特許文献1参照)。特許文献1には、車両に搭載されるナビゲーション装置により、自車両が走行する経路を表示し、交差点を右折又は左折する場合に音声によって報知を行う例が開示されている。 Conventionally, a device for providing information on route guidance and the like to a user who operates a moving body such as an automobile is known (see, for example, Patent Document 1). Patent Document 1 discloses an example in which a navigation device mounted on a vehicle displays a route on which the own vehicle travels and gives a voice notification when turning right or left at an intersection.

特開2003−344082号公報Japanese Unexamined Patent Publication No. 2003-344882

ナビゲーション装置の音声を聞き逃してしまった場合、ユーザが、ナビゲーション装置を操作して再度の報知をさせることがあるが、操作の手間がかかるという課題がある。そこで、ユーザの聞き逃しに対応できるように、ナビゲーション装置が、報知を何度も繰り返して行うことが考えられる。道順に不案内なユーザが車両を運転する場合、ナビゲーション装置による報知はユーザの手助けとなるため、報知を繰り返すことによってユーザの満足度が高まる。しかしながら、道順に詳しいユーザには報知の繰り返しが煩雑に感じられるため、報知を繰り返すことによってユーザの満足度が低下するおそれがある。
本発明は、上述した事情に鑑みてなされたものであり、移動体の操作に関する情報をユーザに報知する場合に、報知の内容や報知状態をユーザに合わせて調整し、ユーザの満足度の向上を図ることを目的とする。
If the voice of the navigation device is missed, the user may operate the navigation device to re-notify, but there is a problem that the operation is troublesome. Therefore, it is conceivable that the navigation device repeatedly performs the notification so as to respond to the user's missed hearing. When a user who is unfamiliar with the route drives a vehicle, the notification by the navigation device helps the user, so that the user's satisfaction is increased by repeating the notification. However, since the user who is familiar with the route feels complicated to repeat the notification, the user's satisfaction may be lowered by repeating the notification.
The present invention has been made in view of the above-mentioned circumstances, and when notifying a user of information on the operation of a moving body, the content of the notification and the notification state are adjusted according to the user to improve the satisfaction of the user. The purpose is to plan.

本発明の一の態様は、移動体の操作に関する案内情報を報知する報知部と、前記移動体の搭乗者の音声を検知して、前記搭乗者の発話内容を認識する音声認識部と、前記報知部によって前記案内情報を報知させる報知制御部と、を備え、前記報知制御部は、前記音声認識部が認識した発話内容が、前記報知部によって報知された前記案内情報に関する発話を含む場合に、前記案内情報の内容または報知状態を変更する報知調整処理を行うことを特徴とする報知制御装置である。
本発明の他の態様によると、前記報知制御部により前記報知調整処理において変更される前記報知状態は、前記報知部により前記案内情報を報知する回数、および、前記報知部によって前記案内情報を報知するタイミングのうち少なくともいずれかを含む。
本発明の他の態様によると、前記報知制御部は、前記音声認識部が認識した発話内容に基づいて前記案内情報の内容を変更する処理を含む前記報知調整処理を実行する。
本発明の他の態様によると、前記報知制御部は、前記報知部により前記案内情報が報知された後に、前記音声認識部によって前記案内情報の報知に対する否定的な発話を認識した場合、前記報知部により前記案内情報を報知する回数を減少させる処理、および、前記報知部によって前記案内情報を報知するタイミングを変更する処理の少なくともいずれかを含む前記報知調整処理を実行する。
本発明の他の態様によると、前記報知制御部は、前記報知部により前記案内情報が報知された後に、前記音声認識部によって、報知された前記案内情報の再報知、前記案内情報に含まれる情報の提供、前記案内情報に関連する情報の提供のいずれかを要求する発話を認識した場合、前記報知部により前記案内情報を報知する回数を増加させる処理、および、前記報知部によって前記案内情報を報知するタイミングを変更する処理の少なくともいずれかを含む前記報知調整処理を実行する。
本発明の他の態様によると、前記案内情報は、前記報知部により報知される情報と、前記報知部により報知を行うタイミングを規定する情報とを含む案内シナリオで構成され、前記音声認識部により音声が検知された前記搭乗者、および、前記音声認識部により認識された発話内容に基づいて、前記案内シナリオを生成する案内情報生成部を備える。
本発明の他の態様によると、前記案内情報は、前記移動体の経路上において設定された報知位置と、前記報知位置における前記移動体の進路を示す情報とを含む経路案内用の情報であり、前記報知制御部は、前記案内情報に含まれる報知位置と、前記移動体の位置とに基づき、前記報知部により報知を実行させるタイミングを決定する。
本発明の他の態様によると、前記音声認識部により音声が検知された前記搭乗者を特定する搭乗者特定部と、前記音声認識部により認識された発話内容のうち前記報知制御部が実行した前記報知調整処理に関連する発話内容と、前記報知調整処理の対象となった前記案内情報とを、前記搭乗者特定部により特定された前記搭乗者に対応づけて記憶する履歴記憶部と、を備える。
本発明の他の態様は、移動体の操作に関する案内情報を報知部によって報知する報知制御方法であって、前記移動体の搭乗者の音声を検知して、前記搭乗者の発話内容を認識する音声認識ステップと、前記音声認識ステップで認識された発話内容が、前記報知部によって報知された前記案内情報に関する発話を含む場合に、前記案内情報の内容または報知状態を変更する報知調整処理を行う報知制御ステップと、を含むことを特徴とする報知制御方法である。
One aspect of the present invention includes a notification unit that notifies guidance information regarding the operation of the moving body, a voice recognition unit that detects the voice of the passenger of the moving body and recognizes the utterance content of the passenger, and the above. The notification control unit includes a notification control unit that notifies the guidance information by the notification unit, and the notification control unit includes a utterance related to the guidance information notified by the notification unit when the utterance content recognized by the voice recognition unit includes an utterance related to the guidance information notified by the notification unit. The notification control device is characterized in that it performs a notification adjustment process for changing the content of the guidance information or the notification state.
According to another aspect of the present invention, the notification state changed in the notification adjustment process by the notification control unit is the number of times the notification unit notifies the guidance information and the notification unit notifies the guidance information. Includes at least one of the timings to do.
According to another aspect of the present invention, the notification control unit executes the notification adjustment process including a process of changing the content of the guidance information based on the utterance content recognized by the voice recognition unit.
According to another aspect of the present invention, when the notification control unit recognizes a negative speech to the notification of the guidance information by the voice recognition unit after the guidance information is notified by the notification unit, the notification is performed. The notification adjustment process includes at least one of a process of reducing the number of times the guidance information is notified by the unit and a process of changing the timing of transmitting the guidance information by the notification unit.
According to another aspect of the present invention, the notification control unit is included in the re-notification of the guidance information notified by the voice recognition unit and the guidance information after the guidance information is notified by the notification unit. When an utterance requesting either provision of information or provision of information related to the guidance information is recognized, the notification unit increases the number of times the guidance information is notified, and the notification unit notifies the guidance information. The notification adjustment process including at least one of the processes for changing the timing of notifying the notification is executed.
According to another aspect of the present invention, the guidance information is composed of a guidance scenario including information notified by the notification unit and information defining the timing of notification by the notification unit, and is composed of the voice recognition unit. A guidance information generation unit that generates the guidance scenario based on the passenger whose voice is detected and the utterance content recognized by the voice recognition unit is provided.
According to another aspect of the present invention, the guidance information is information for route guidance including a notification position set on the route of the moving body and information indicating the course of the moving body at the notification position. The notification control unit determines the timing at which the notification unit executes notification based on the notification position included in the guidance information and the position of the moving body.
According to another aspect of the present invention, the passenger identification unit that identifies the passenger whose voice is detected by the voice recognition unit and the notification control unit among the utterance contents recognized by the voice recognition unit are executed. A history storage unit that stores the utterance content related to the notification adjustment processing and the guidance information that is the target of the notification adjustment processing in association with the passenger specified by the passenger identification unit. Be prepared.
Another aspect of the present invention is a notification control method in which a notification unit notifies guidance information regarding an operation of a moving body by detecting a voice of a passenger of the moving body and recognizing the utterance content of the passenger. When the voice recognition step and the utterance content recognized in the voice recognition step include an utterance related to the guidance information notified by the notification unit, a notification adjustment process for changing the content or notification state of the guidance information is performed. It is a notification control method including a notification control step.

本発明によれば、案内情報をユーザに報知する場合に、報知の内容や報知状態をユーザに合わせて調整することにより、ユーザの満足度の向上を図ることができる。 According to the present invention, when the guidance information is notified to the user, the satisfaction of the user can be improved by adjusting the content of the notification and the notification state according to the user.

第1実施形態に係るナビゲーションシステムの設置例を示す図。The figure which shows the installation example of the navigation system which concerns on 1st Embodiment. ナビゲーション装置のブロック図。Block diagram of the navigation device. ユーザモデルと報知内容との設定例を示す図。The figure which shows the setting example of a user model and a notification content. 案内シナリオの例を示す図。The figure which shows the example of the guidance scenario. ユーザモデルデータの例を示す図。The figure which shows the example of the user model data. ユーザモデルデータの適用例を示す説明図。The explanatory view which shows the application example of the user model data. ナビゲーション装置の動作を示すフローチャート。A flowchart showing the operation of the navigation device. ナビゲーション装置の動作を示すフローチャート。A flowchart showing the operation of the navigation device. ナビゲーション装置の動作を示すフローチャート。A flowchart showing the operation of the navigation device. 第2実施形態のナビゲーションシステムの構成を示す図。The figure which shows the structure of the navigation system of 2nd Embodiment.

以下、図面を参照して本発明の実施形態について説明する。
[1.第1実施形態]
[1−1.ナビゲーションシステムの構成]
図1は、本発明を適用した第1実施形態として、移動体に搭載されるナビゲーションシステム100の構成例を示す図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Navigation system configuration]
FIG. 1 is a diagram showing a configuration example of a navigation system 100 mounted on a moving body as a first embodiment to which the present invention is applied.

図1には、移動体としての車両1の車室10を平面視で示す。車両1は移動体の一例であり、四輪の乗用自動車を示す。本発明を適用する移動体は、乗用自動車に限定されず、列車、貨物自動車、自動二輪車、耕運機や建設機械などの作業用車両等であってもよく、その他、人間の操作により移動するものであればよい。
図1には、車両1が走行する場合の進行方向を符号DRで示し、以下の説明では進行方向DRを車両1の前方とする。
FIG. 1 shows the passenger compartment 10 of the vehicle 1 as a moving body in a plan view. The vehicle 1 is an example of a moving body, and indicates a four-wheeled passenger vehicle. The moving body to which the present invention is applied is not limited to a passenger vehicle, but may be a train, a freight vehicle, a motorcycle, a work vehicle such as a cultivator or a construction machine, or any other vehicle that moves by human operation. All you need is.
In FIG. 1, the traveling direction when the vehicle 1 is traveling is indicated by the symbol DR, and in the following description, the traveling direction DR is the front of the vehicle 1.

車室10にはシート21、23、および後部シート25が設置されている。車両1の乗員を以下では搭乗者と呼ぶ。搭乗者のうち、シート21に着座して車両1の運転操作を行う搭乗者を、以下の説明ではユーザUとする。ユーザUはいわゆる運転者である。 Seats 21, 23, and a rear seat 25 are installed in the passenger compartment 10. The occupants of vehicle 1 are hereinafter referred to as passengers. Among the passengers, the passenger who sits on the seat 21 and operates the vehicle 1 is referred to as the user U in the following description. User U is a so-called driver.

車室10には、前部パネル12が配置される。前部パネル12は、車両1に固定される車室10の内装部材であり、例えば、ダッシュボード、インストゥルメントパネル、センターコンソール、およびこれらを支持する不図示のフレーム等を含む。
ナビゲーションシステム100は、前部パネル12に設置されるナビゲーション装置120を含んで構成される。
A front panel 12 is arranged in the passenger compartment 10. The front panel 12 is an interior member of the vehicle interior 10 fixed to the vehicle 1, and includes, for example, a dashboard, an instrument panel, a center console, and a frame (not shown) that supports them.
The navigation system 100 includes a navigation device 120 installed on the front panel 12.

ナビゲーション装置120は、ディスプレイ101を備える。ディスプレイ101は、液晶表示パネル等の表示パネルで構成され、ナビゲーション装置120が内蔵する処理部130の制御に従って、各種の画像や文字を表示する。 The navigation device 120 includes a display 101. The display 101 is composed of a display panel such as a liquid crystal display panel, and displays various images and characters under the control of a processing unit 130 built in the navigation device 120.

ナビゲーションシステム100は、音声を入出力するマイク113およびスピーカ115を備える。マイク113は、前部パネル12など、車室10の音声を集音可能な位置に配置される。スピーカ115は、例えば、図1に示すように、車両1のドアトリム等に設置される。 The navigation system 100 includes a microphone 113 for inputting / outputting voice and a speaker 115. The microphone 113 is arranged at a position such as the front panel 12 where the sound of the vehicle interior 10 can be collected. The speaker 115 is installed, for example, on the door trim of the vehicle 1 as shown in FIG.

マイク113およびスピーカ115の位置や数は、図1の例に限定されない。マイク113およびスピーカ115は、スピーカーケーブルによりナビゲーション装置120に接続されてもよいし、無線通信によりナビゲーション装置120に接続されてもよい。例えば、車両1に固定的に設置されるマイク113およびスピーカ115に代えて、ユーザUの身体に装着されるヘッドセットを利用する構成であってもよい。また、マイク113およびスピーカ115は、ナビゲーション装置120に一体に設けられてもよい。 The positions and numbers of the microphone 113 and the speaker 115 are not limited to the example of FIG. The microphone 113 and the speaker 115 may be connected to the navigation device 120 by a speaker cable, or may be connected to the navigation device 120 by wireless communication. For example, instead of the microphone 113 and the speaker 115 fixedly installed in the vehicle 1, a headset worn on the body of the user U may be used. Further, the microphone 113 and the speaker 115 may be integrally provided with the navigation device 120.

ナビゲーションシステム100は、ナビゲーション装置120の制御により、車両1の経路を案内するナビゲーションを実行する。ナビゲーションとは、指定された目的地まで車両1が到達するための経路を決定し、決定した経路の通りにユーザUが車両1を走行させるために情報を提供する動作であり、経路案内とも呼ばれる。 The navigation system 100 executes navigation that guides the route of the vehicle 1 under the control of the navigation device 120. Navigation is an operation of determining a route for the vehicle 1 to reach a designated destination and providing information for the user U to drive the vehicle 1 according to the determined route, and is also called route guidance. ..

ナビゲーション装置120は、車両1の現在位置を含む範囲の地図を含むナビゲーション画面を、ディスプレイ101に表示させる。ナビゲーション画面は、車両1の現在位置を示すアイコン等のシンボル、および、車両1が進行する経路を地図に重畳した画像を含む。また、ナビゲーション画面には、車両1の現在位置、目的地、経由地等の位置を示す位置情報、目的地への到着予想時刻、渋滞の発生状況や交通規制等の交通情報等を、地図とともに含んでもよい。 The navigation device 120 causes the display 101 to display a navigation screen including a map of the range including the current position of the vehicle 1. The navigation screen includes symbols such as icons indicating the current position of the vehicle 1 and an image in which the route on which the vehicle 1 travels is superimposed on the map. In addition, on the navigation screen, position information indicating the current position, destination, waypoint, etc. of vehicle 1, estimated arrival time at the destination, traffic information such as traffic congestion occurrence status and traffic regulation, etc. are displayed together with a map. It may be included.

また、ナビゲーション装置120は、車両1の走行に関してユーザUが行う操作を案内する情報を、スピーカ115から音声または音として出力させる。例えば、ナビゲーション装置120は、車両1の右折、左折、直進等の走行方向を示す情報を、自然言語で読み上げる音声により、或いは、上記情報を示す音を出力する。ユーザUは、スピーカ115から発される音または音声の通りに車両1を操作することで、車両1の経路に沿って、目的地まで車両1を走行させることができる。 Further, the navigation device 120 causes the speaker 115 to output information for guiding the operation performed by the user U regarding the traveling of the vehicle 1 as voice or sound. For example, the navigation device 120 outputs information indicating a traveling direction such as a right turn, a left turn, a straight line, etc. of the vehicle 1 by a voice reading aloud in natural language or a sound indicating the above information. The user U can drive the vehicle 1 to the destination along the route of the vehicle 1 by operating the vehicle 1 according to the sound or the voice emitted from the speaker 115.

ナビゲーション動作においてディスプレイ101およびスピーカ115から出力される情報は、本発明の案内情報の一例であり、案内情報を出力する動作は、本発明の報知に相当する。ディスプレイ101による案内情報の表示は、視覚的な報知ということができ、スピーカ115による案内情報の音声出力は、聴覚的な報知ということができる。
ナビゲーション装置120は、本発明の報知制御装置として機能し、案内情報の報知を制御する。
The information output from the display 101 and the speaker 115 in the navigation operation is an example of the guidance information of the present invention, and the operation of outputting the guidance information corresponds to the notification of the present invention. The display of the guidance information on the display 101 can be called a visual notification, and the audio output of the guidance information by the speaker 115 can be called an auditory notification.
The navigation device 120 functions as the notification control device of the present invention and controls the notification of guidance information.

ナビゲーション装置120は、ディスプレイ101へのタッチ操作を検出するタッチセンサ103を備えている。ユーザUは、ディスプレイ101にタッチすることでナビゲーション装置120を操作できる。
また、ナビゲーション装置120は、マイク113が集音した音声に基づき音声コマンドを検知し、音声コマンドに従って動作する。ユーザUは、音声によってナビゲーション装置120を操作できる。
The navigation device 120 includes a touch sensor 103 that detects a touch operation on the display 101. The user U can operate the navigation device 120 by touching the display 101.
Further, the navigation device 120 detects a voice command based on the voice collected by the microphone 113, and operates according to the voice command. The user U can operate the navigation device 120 by voice.

[1−2.ナビゲーションシステムの制御系]
図2は、ナビゲーションシステム100の制御系の構成を示すブロック図である。
ナビゲーション装置120には、マイク113、スピーカ115、車速センサ117、およびGPS119が接続される。車両1にCAN(Controller Area Network)等の通信ネットワークが敷設されている場合、この通信ネットワークによって複数の装置を接続することにより、ナビゲーションシステム100が構成されてもよい。また、車両1が搭載する不図示のECU(Electronic Control Unit)等の他の装置と、ナビゲーション装置120とが、通信ネットワークにより接続された構成であってもよい。
[1-2. Navigation system control system]
FIG. 2 is a block diagram showing a configuration of a control system of the navigation system 100.
A microphone 113, a speaker 115, a vehicle speed sensor 117, and a GPS 119 are connected to the navigation device 120. When a communication network such as CAN (Control Area Network) is laid on the vehicle 1, the navigation system 100 may be configured by connecting a plurality of devices by this communication network. Further, another device such as an ECU (Electronic Control Unit) (not shown) mounted on the vehicle 1 and the navigation device 120 may be connected by a communication network.

車速センサ117は、車両1の車速パルス信号に基づいて、車両1の車速を示すデータを生成し、ナビゲーション装置120に出力する。
GPS(Global Positioning System)119は、不図示のアンテナによりGPS信号を受信して、受信したGPS信号に基づき車両1の位置を算出する。GPS119は、車両1の現在位置を示す位置データを生成し、ナビゲーション装置120に出力する。
The vehicle speed sensor 117 generates data indicating the vehicle speed of the vehicle 1 based on the vehicle speed pulse signal of the vehicle 1 and outputs the data to the navigation device 120.
The GPS (Global Positioning System) 119 receives a GPS signal by an antenna (not shown) and calculates the position of the vehicle 1 based on the received GPS signal. The GPS 119 generates position data indicating the current position of the vehicle 1 and outputs the position data to the navigation device 120.

ナビゲーション装置120は、ディスプレイ101、タッチセンサ103、処理部130、記憶部140、および音声処理回路151を備える。 The navigation device 120 includes a display 101, a touch sensor 103, a processing unit 130, a storage unit 140, and a voice processing circuit 151.

タッチセンサ103は、例えば静電容量式や感圧式のセンサであり、接触操作や押圧操作を検出する。タッチセンサ103は、ディスプレイ101に重畳して配置され、ディスプレイ101に対する接触操作や押圧操作を検出し、操作を検出した位置を示す信号を処理部130に出力する。 The touch sensor 103 is, for example, a capacitance type or pressure sensitive type sensor, and detects a contact operation or a pressing operation. The touch sensor 103 is arranged so as to be superimposed on the display 101, detects a contact operation or a pressing operation on the display 101, and outputs a signal indicating a position where the operation is detected to the processing unit 130.

音声処理回路151は、マイク113およびスピーカ115に接続される。マイク113は、音声処理回路151に音声信号を出力し、音声処理回路151は、マイク113から入力される信号をデジタルデータに変換して、処理部130に出力する。
音声処理回路151は、処理部130が出力するデジタル音声データに基づきスピーカ115に音声信号を出力し、スピーカ115から音を出力させる。
The voice processing circuit 151 is connected to the microphone 113 and the speaker 115. The microphone 113 outputs a voice signal to the voice processing circuit 151, and the voice processing circuit 151 converts the signal input from the microphone 113 into digital data and outputs the signal to the processing unit 130.
The voice processing circuit 151 outputs a voice signal to the speaker 115 based on the digital voice data output by the processing unit 130, and causes the speaker 115 to output sound.

また、ナビゲーション装置120は、通信部153を備えてもよい。通信部153は、例えば、携帯電話回線網、Wi−Fi(登録商標)、Bluetooth(登録商標)等の通信規格に準拠した無線通信を実行する通信モジュールである。通信部153は、処理部130の制御に従って、車室10に設置された装置または車両1の外の装置との間で、各種データを送受信する。 Further, the navigation device 120 may include a communication unit 153. The communication unit 153 is a communication module that executes wireless communication conforming to communication standards such as a mobile phone network, Wi-Fi (registered trademark), and Bluetooth (registered trademark). The communication unit 153 transmits and receives various data to and from the device installed in the vehicle interior 10 or the device outside the vehicle 1 under the control of the processing unit 130.

処理部130は、例えば、CPU(Central Processing Unit)等のプロセッサを備えるコンピュータである。処理部130には、記憶部140が接続される。記憶部140は、処理部130が実行するコンピュータプログラムである制御プログラム、および、処理部130によって処理される各種データを、処理部130によって読み取り可能に記憶する。 The processing unit 130 is, for example, a computer including a processor such as a CPU (Central Processing Unit). A storage unit 140 is connected to the processing unit 130. The storage unit 140 stores the control program, which is a computer program executed by the processing unit 130, and various data processed by the processing unit 130 so that the processing unit 130 can read the control program.

処理部130および記憶部140を構成するハードウェアは特定の態様に限定されない。例えば、処理部130は、単一のプロセッサで構成されてもよい。また、処理部130は、プロセッサと、ROM(Read Only Memory)、RAM(Random Access Memory)等を統合したデバイスであってもよい。記憶部140は、プログラムやデータを不揮発的に記憶する不揮発性記憶装置で構成されてもよく、具体的には、ハードディスク等の磁気的記憶装置や、フラッシュROM等の半導体記憶デバイスを備えてもよい。また、記憶部140は、処理部130が実行するプログラムやデータ等を一時的に記憶する揮発性記憶装置を備えてもよい。また、処理部130と記憶部140とは統合された1つのデバイスであってもよい。 The hardware constituting the processing unit 130 and the storage unit 140 is not limited to a specific aspect. For example, the processing unit 130 may be composed of a single processor. Further, the processing unit 130 may be a device in which a processor, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like are integrated. The storage unit 140 may be composed of a non-volatile storage device that non-volatilely stores programs and data, and specifically, may include a magnetic storage device such as a hard disk and a semiconductor storage device such as a flash ROM. Good. Further, the storage unit 140 may include a volatile storage device that temporarily stores programs, data, and the like executed by the processing unit 130. Further, the processing unit 130 and the storage unit 140 may be one integrated device.

処理部130は、記憶部140が記憶するプログラムを実行することにより、記憶部140が記憶するデータに基づいて、ナビゲーション装置120の各部を制御する。
処理部130は、機能要素又は機能ユニットとして、操作受付部131、音声認識部132、表示制御部133、ユーザ特定部134、案内情報生成部135、報知部136、報知制御部137、および、ユーザモデル生成部138を備える。処理部130が備えるこれらの機能要素は、コンピュータである処理部130が、記憶部140に記憶される制御プログラムを実行することにより実現される。
なお、処理部130が実行する制御プログラムは、コンピュータ読み取り可能な任意の記憶媒体に記憶させておくことができる。これに代えて、処理部130が備える上記機能要素の全部又は一部を、それぞれ一つ以上の電子回路部品を含むハードウェアにより構成することもできる。
The processing unit 130 controls each unit of the navigation device 120 based on the data stored in the storage unit 140 by executing the program stored in the storage unit 140.
The processing unit 130 is an operation reception unit 131, a voice recognition unit 132, a display control unit 133, a user identification unit 134, a guidance information generation unit 135, a notification unit 136, a notification control unit 137, and a user as functional elements or functional units. A model generation unit 138 is provided. These functional elements included in the processing unit 130 are realized by the processing unit 130, which is a computer, executing a control program stored in the storage unit 140.
The control program executed by the processing unit 130 can be stored in any computer-readable storage medium. Alternatively, all or part of the functional elements included in the processing unit 130 may be configured by hardware including one or more electronic circuit components.

記憶部140は、記憶部140の記憶領域を利用するデータベースとして、地図DB(データベース)141、経路DB142、音声認識DB143、ユーザモデルデータ記憶部144、および、履歴記憶部145を格納する。 The storage unit 140 stores a map DB (database) 141, a route DB 142, a voice recognition DB 143, a user model data storage unit 144, and a history storage unit 145 as a database that uses the storage area of the storage unit 140.

地図DB141および経路DB142は、ナビゲーション用のデータを格納したデータベースである。地図DB141は地図データを格納する。経路DB142は、車両1を含む自動車が走行可能な道路を示す情報、渋滞発生確率や渋滞発生状況を示す情報、交通規制に関する情報など、車両1の経路を決定する場合に使用されるデータを格納する。 The map DB 141 and the route DB 142 are databases that store data for navigation. Map DB 141 stores map data. The route DB 142 stores data used when determining the route of the vehicle 1, such as information indicating a road on which a vehicle including the vehicle 1 can travel, information indicating a congestion occurrence probability and a congestion occurrence status, and information on traffic regulation. To do.

また、地図DB141は、車両1が走行可能な道路に関するPOI(Point Of Interest)に関する情報を含む。具体的には、POIは、地理的ランドマーク、商業施設、公共施設、飲食店、その他の設置物等である。地図DB141は、POIの位置情報とPOIの種類や名称とを対応づけて格納する。 Further, the map DB 141 includes information on a POI (Point Of Interest) regarding a road on which the vehicle 1 can travel. Specifically, POIs are geographical landmarks, commercial facilities, public facilities, restaurants, other installations, and the like. The map DB 141 stores the POI position information and the POI type and name in association with each other.

音声認識DB143は、音声処理回路151が出力する音声データを音声コマンドとして認識するためのデータを格納する。音声認識DB143は、例えば、ナビゲーション装置120で使用可能な音声コマンドと、ナビゲーション装置120が音声コマンドとして認識する音声を特定するデータとを含む。音声を特定するデータは、例えば、音声データの周波数成分、音量レベルの変化等を抽出した音声特徴量を用いることができるが、その他のデータであってもよい。また、音声認識DB143は、音声データをテキスト認識するための辞書データと、音声コマンドのテキストデータとを含んでいてもよい。この場合、音声認識DB143は、マイク113が集音した音声をテキストに変換し、テキストデータに基づき音声コマンドとして認識するためのデータとして利用できる。 The voice recognition DB 143 stores data for recognizing the voice data output by the voice processing circuit 151 as a voice command. The voice recognition DB 143 includes, for example, voice commands that can be used by the navigation device 120 and data that identifies the voice that the navigation device 120 recognizes as voice commands. As the data for identifying the voice, for example, a voice feature amount extracted from the frequency component of the voice data, a change in the volume level, and the like can be used, but other data may be used. Further, the voice recognition DB 143 may include dictionary data for recognizing voice data as text and text data of voice commands. In this case, the voice recognition DB 143 can be used as data for converting the voice collected by the microphone 113 into text and recognizing it as a voice command based on the text data.

ユーザモデルデータ記憶部144は、後述するユーザモデル設定データ161、案内シナリオ、および、ユーザモデルデータ167を記憶する。
履歴記憶部145は、後述する履歴情報を記憶する。
The user model data storage unit 144 stores the user model setting data 161, the guidance scenario, and the user model data 167, which will be described later.
The history storage unit 145 stores the history information described later.

操作受付部131は、タッチセンサ103に対するユーザUの接触操作を検出し、操作位置を特定することにより、ユーザUの操作内容を取得する。
音声認識部132は、マイク113が出力する音声信号に基づいて音声処理回路151が出力するデジタル音声データを解析し、マイク113が集音した音声から、人間が発話した内容を認識する。音声認識部132は、例えば、音声処理回路151が出力する音声データの周波数解析を行い、音声特徴量を算出し、算出した音声特徴量に基づき音声認識DB143を参照して、集音した音声に該当する音声コマンドの有無を判定し、音声コマンドを特定する。音声認識部132は、例えば、ユーザUが、ナビゲーション装置120に対する指示を発話した場合に、この発話の内容を認識する。
The operation receiving unit 131 acquires the operation content of the user U by detecting the contact operation of the user U with respect to the touch sensor 103 and specifying the operation position.
The voice recognition unit 132 analyzes the digital voice data output by the voice processing circuit 151 based on the voice signal output by the microphone 113, and recognizes the content spoken by a human from the voice collected by the microphone 113. The voice recognition unit 132 performs frequency analysis of the voice data output by the voice processing circuit 151, calculates a voice feature amount, and refers to the voice recognition DB 143 based on the calculated voice feature amount to obtain the collected voice. Determine the presence or absence of the corresponding voice command and identify the voice command. The voice recognition unit 132 recognizes the content of the utterance when, for example, the user U utters an instruction to the navigation device 120.

表示制御部133は、ディスプレイ101に表示信号を出力して、画像や文字を含む各種画面を表示させる。 The display control unit 133 outputs a display signal to the display 101 to display various screens including images and characters.

ユーザ特定部134は、ナビゲーション装置120を操作するユーザUを特定する機能を有する。ユーザ特定部134は、本発明の搭乗者特定部の一例に対応する。 The user identification unit 134 has a function of specifying the user U who operates the navigation device 120. The user identification unit 134 corresponds to an example of the passenger identification unit of the present invention.

案内情報生成部135は、車両1のナビゲーション動作を実行する際に、車両1が進行する経路を決定する。例えば、案内情報生成部135は、ユーザUの操作によって指定される目的地、経由地、出発地等の位置を特定する。案内情報生成部135は、地図DB141および経路DB142のデータを参照し、車両1が出発地または現在位置から目的地に到達するための経路を決定する。 The guidance information generation unit 135 determines the route on which the vehicle 1 travels when executing the navigation operation of the vehicle 1. For example, the guidance information generation unit 135 specifies the position of a destination, a waypoint, a departure place, or the like designated by the operation of the user U. The guidance information generation unit 135 refers to the data of the map DB 141 and the route DB 142, and determines the route for the vehicle 1 to reach the destination from the departure place or the current position.

また、案内情報生成部135は、決定した車両1の経路の通りに車両1を走行させるための案内情報を生成する。案内情報生成部135は、視覚的に提供される案内情報として、ディスプレイ101に表示されるナビゲーション画面を表示するための表示データを生成する。 Further, the guidance information generation unit 135 generates guidance information for driving the vehicle 1 along the determined route of the vehicle 1. The guidance information generation unit 135 generates display data for displaying the navigation screen displayed on the display 101 as the guidance information visually provided.

案内情報生成部135は、スピーカ115により聴覚的に報知される案内情報として、自然言語により車両1の操作を案内するメッセージを生成する。案内情報生成部135は、メッセージを出力する回数、およびタイミングを決定する。 The guidance information generation unit 135 generates a message for guiding the operation of the vehicle 1 in natural language as the guidance information audibly notified by the speaker 115. The guidance information generation unit 135 determines the number of times and the timing of outputting a message.

案内情報生成部135が生成するメッセージは、車両1の経路上の地点に対応する。例えば、案内情報生成部135は、車両1の直進、右折、左折などの操作を指示するメッセージを生成するが、これらの操作は、車両1の経路における特定の地点で実行される操作である。案内情報の対象となっている地点を、以下の説明では案内地点という。案内地点は、本発明の報知位置の一例に対応する。例えば、交差点において車両1を右折させる指示を含む案内情報を報知する場合、この交差点が案内地点に相当する。
ナビゲーション装置120は、案内情報を、案内地点に対応して報知する。すなわち、ナビゲーション装置120は、車両1が経路上で案内地点より前に位置しており、案内地点に接近する間に、案内情報を報知する。
The message generated by the guidance information generation unit 135 corresponds to a point on the route of the vehicle 1. For example, the guidance information generation unit 135 generates messages instructing operations such as going straight, turning right, and turning left of the vehicle 1, and these operations are operations executed at specific points in the route of the vehicle 1. The point that is the target of the guidance information is called the guidance point in the following explanation. The guide point corresponds to an example of the notification position of the present invention. For example, when transmitting guidance information including an instruction to turn the vehicle 1 to the right at an intersection, this intersection corresponds to a guidance point.
The navigation device 120 notifies the guidance information corresponding to the guidance point. That is, the navigation device 120 notifies the guidance information while the vehicle 1 is located in front of the guidance point on the route and approaches the guidance point.

ナビゲーション装置120は、1つの案内地点について、1または複数回の報知を行う。例えば、ナビゲーション装置120は、交差点における右折を指示する案内情報を、車両1が交差点の1000m前に到達したとき、600m前に到達したとき、300m前に到達したとき、および、100m前に到達したときに報知する。
案内情報生成部135は、案内情報を生成する際に、報知を行うタイミングを指定する。報知を行うタイミングは、例えば、車両1と案内地点との間の距離により規定される。
The navigation device 120 makes one or a plurality of notifications for one guide point. For example, the navigation device 120 provides guidance information for instructing a right turn at an intersection when the vehicle 1 reaches 1000 m before the intersection, 600 m before, 300 m before, and 100 m before. Notify when.
The guidance information generation unit 135 specifies a timing for performing notification when generating guidance information. The timing of notification is defined by, for example, the distance between the vehicle 1 and the guide point.

1つの案内地点について報知を行う回数は、ユーザUの習熟度によって調整することが望ましい。例えば、報知の回数が多いと、報知の音声を聞き逃しても支障がないため、道順に不案内なユーザUにとっては満足度が高い。これに対し、ユーザUが道順を熟知している場合、報知の回数が多いとユーザUが報知を煩雑に感じ、ナビゲーションに対する満足度が低下することが懸念される。
報知を行うタイミング、および、報知の際に提供される情報量についても同様のことがいえる。
It is desirable to adjust the number of times of notification for one guide point according to the proficiency level of the user U. For example, if the number of notifications is large, there is no problem even if the voice of the notification is missed, so that the user U who is unfamiliar with the route is highly satisfied. On the other hand, when the user U is familiar with the route, if the number of notifications is large, the user U may feel the notification complicated, and the satisfaction level with the navigation may decrease.
The same can be said about the timing of notification and the amount of information provided at the time of notification.

ナビゲーション装置120は、ユーザUに適した頻度で報知を行えるように、ユーザモデルを利用する。ユーザモデルは、車両1を操作するユーザUが、ナビゲーション装置120のナビゲーションを必要とする度合いを反映する仮想のモデルである。例えば、道順に不案内なユーザUには、ナビゲーションを必要とする度合いが高いユーザモデルを設定し、道順を熟知しているユーザUにはナビゲーションを必要とする度合いが低いユーザモデルを設定する。ナビゲーション装置120は、ユーザUに報知する報知状態や案内情報の内容を、ユーザモデルに対応して設定すれば、ユーザUの習熟度に適した報知を行うことができ、ユーザUの高い満足度を得ることができる。 The navigation device 120 utilizes a user model so that the user U can be notified at a frequency suitable for the user U. The user model is a virtual model that reflects the degree to which the user U who operates the vehicle 1 needs navigation of the navigation device 120. For example, a user model who is unfamiliar with directions is set with a user model having a high degree of need for navigation, and a user U who is familiar with directions is set with a user model with a low degree of needing navigation. If the navigation device 120 sets the notification state and the content of the guidance information to be notified to the user U according to the user model, the navigation device 120 can perform the notification suitable for the proficiency level of the user U, and the user U has a high degree of satisfaction. Can be obtained.

本実施形態で、ナビゲーション装置120は、ユーザモデルに対応して、スピーカ115から音声により報知する案内情報を対象として、案内情報の内容および報知状態を変更する報知調整処理を実行する。案内情報の内容は、具体的には、報知する情報の種類および情報量である。情報量の多寡は、情報の詳しさと言い換えることができる。また、報知状態は、具体的には、報知のタイミングおよび回数である。 In the present embodiment, the navigation device 120 executes a notification adjustment process for changing the content of the guidance information and the notification state, targeting the guidance information to be notified by voice from the speaker 115, corresponding to the user model. Specifically, the content of the guidance information is the type and amount of information to be notified. The amount of information can be rephrased as the detail of information. Further, the notification state is specifically the timing and the number of notifications.

図3は、ユーザモデルと報知内容との設定例を示す図であり、ユーザモデルごとの報知内容を規定するユーザモデル設定データ161の構成例を示す。図3の例では、報知を行うタイミングが、案内地点と車両1との間の距離により規定されている。また、ユーザモデルがナビゲーションを必要とする度合いを、ナビゲーション利用度と表現している。 FIG. 3 is a diagram showing a setting example of the user model and the notification content, and shows a configuration example of the user model setting data 161 that defines the notification content for each user model. In the example of FIG. 3, the timing of notification is defined by the distance between the guide point and the vehicle 1. In addition, the degree to which the user model requires navigation is expressed as the navigation utilization.

図3のユーザモデル設定データ161を用いると、3種類のユーザモデルA、B、Cが設定可能である。ユーザモデルAは、道順に不案内であるユーザUなど、ナビゲーション利用度が高いユーザUを想定したモデルである。報知を行うタイミングは、案内地点の1000m前、600m前、300m前、100m前、0mを合わせた5回に決められている。ここで、0mとは案内地点に車両1が到達するタイミングを表す。
ユーザモデルCは、道順に習熟しているユーザUなど、ナビゲーション利用度が低いユーザUを想定したモデルであり、ユーザモデルAよりも報知を行うタイミングが少ない。ユーザモデルBは、ナビゲーション利用度が標準的なユーザUを想定したモデルである。ユーザモデルBは、例えば、デフォルトのユーザモデルとして使用される。
図3に示す報知タイミングは、報知のタイミングと報知の回数の両方を定める情報である。
Using the user model setting data 161 of FIG. 3, three types of user models A, B, and C can be set. The user model A is a model assuming a user U having a high degree of navigation usage, such as a user U who is unguided to directions. The timing of notification is determined to be five times, including 1000 m before, 600 m before, 300 m before, 100 m before, and 0 m before the guide point. Here, 0 m represents the timing at which the vehicle 1 reaches the guide point.
The user model C is a model assuming a user U having a low navigation usage such as a user U who is proficient in directions, and the timing of performing notification is less than that of the user model A. The user model B is a model assuming a user U having a standard navigation usage. The user model B is used, for example, as the default user model.
The notification timing shown in FIG. 3 is information that determines both the notification timing and the number of notifications.

ユーザモデル設定データ161は、ユーザモデルに対応づけて案内情報の内容を規定する。例えば、ユーザモデルAに対しては案内情報の情報量を多くすること、ユーザモデルCに対して情報量を少なくすること、ユーザモデルBに対しては情報量標準的な内容にすることが指定される。 The user model setting data 161 defines the content of the guidance information in association with the user model. For example, it is specified that the amount of guidance information is increased for the user model A, the amount of information is decreased for the user model C, and the amount of information is standard for the user model B. Will be done.

このように、ナビゲーション装置120では、ナビゲーション利用度が異なる複数のユーザモデルが設定され、各ユーザモデルに対応づけて、報知回数、報知タイミングおよび案内情報の内容が設定される。ユーザモデル設定データ161は、例えば、ユーザモデルデータ記憶部144に記憶される。 In this way, in the navigation device 120, a plurality of user models having different navigation usages are set, and the number of notifications, the notification timing, and the contents of the guidance information are set in association with each user model. The user model setting data 161 is stored in, for example, the user model data storage unit 144.

図3は一つの設定例に過ぎず、ユーザモデル設定データ161の内容は適宜に変更可能である。例えば、ユーザモデル設定データ161は、ユーザモデルごとに報知回数のみを設定する情報であってもよい。この場合、設定された報知回数に従って報知タイミングが自動的に決定される構成とすればよい。また、ユーザモデル設定データ161とは別の設定データにより、報知回数に対応づけて報知タイミングが予め設定されていてもよい。
また、ユーザモデル設定データ161は、報知タイミングおよび報知回数を含まず、案内情報の内容をユーザモデルごとに設定するデータであってもよい。この場合、報知回数および報知のタイミングは、例えば、全てのユーザモデルに共通する1つのパターンが適用される。
FIG. 3 is only one setting example, and the content of the user model setting data 161 can be changed as appropriate. For example, the user model setting data 161 may be information for setting only the number of notifications for each user model. In this case, the notification timing may be automatically determined according to the set number of notifications. Further, the notification timing may be set in advance in association with the number of notifications by setting data different from the user model setting data 161.
Further, the user model setting data 161 may be data that does not include the notification timing and the number of notifications and sets the content of the guidance information for each user model. In this case, for the number of notifications and the timing of notification, for example, one pattern common to all user models is applied.

図4は、ユーザモデルに基づき生成される案内情報の例を示している。
ナビゲーション装置120は、報知のタイミング指定する情報と案内情報の内容とが対応づけられたシナリオ形式の案内情報を生成する。この案内情報を、以下では案内シナリオと呼ぶ。本実施形態では、音声により報知される案内情報に関する案内シナリオが生成される。
FIG. 4 shows an example of guidance information generated based on the user model.
The navigation device 120 generates guidance information in a scenario format in which the information for specifying the timing of notification and the content of the guidance information are associated with each other. This guidance information will be referred to as a guidance scenario below. In the present embodiment, a guidance scenario regarding guidance information notified by voice is generated.

図4には、ユーザモデルAに対応して案内情報生成部135が生成する案内シナリオ163を符号Aで示す。また、ユーザモデルCに対応して案内情報生成部135が生成する案内シナリオ165を符号Bで示す。 In FIG. 4, the guidance scenario 163 generated by the guidance information generation unit 135 corresponding to the user model A is indicated by reference numeral A. Further, the guidance scenario 165 generated by the guidance information generation unit 135 corresponding to the user model C is indicated by reference numeral B.

案内シナリオ163、165は、報知タイミングと案内情報の内容とを含み、さらに、案内地点の位置情報を含む。
案内シナリオ163は、報知回数が多く、案内情報の情報量が多い。図4の例では、案内情報はPart.A、B、Cの3つの情報で構成され、Part.Aは車両1の現在位置と案内地点との間の距離を示す情報であり、Part.Cは車両1の操作を指示する情報である。Part.Bは案内地点の目安となるランドマークを知らせる情報である。Part.A、Cは必須の情報といえる。これに対し、Part.Bは補助的な情報である。案内シナリオ163は、Part.A、B、Cの全ての情報を含むので、案内地点に関して予備知識や経験の少ないユーザUに適している。
The guidance scenarios 163 and 165 include the notification timing and the content of the guidance information, and further include the position information of the guidance point.
In the guidance scenario 163, the number of notifications is large and the amount of guidance information is large. In the example of FIG. 4, the guidance information is Part. It is composed of three pieces of information, A, B, and C. A is information indicating the distance between the current position of the vehicle 1 and the guide point, and is described in Part. C is information instructing the operation of the vehicle 1. Part. B is information that informs a landmark that serves as a guide for guidance points. Part. It can be said that A and C are essential information. On the other hand, Part. B is auxiliary information. Guidance scenario 163 is described in Part. Since it contains all the information of A, B, and C, it is suitable for the user U who has little prior knowledge or experience regarding the guide point.

案内シナリオ165は、報知回数が少なく、案内情報に含まれる情報量が少ない。案内シナリオ165は、案内地点に関して詳細な案内を必要としない、ナビゲーション利用度の低いユーザUに適している。 In the guidance scenario 165, the number of notifications is small and the amount of information included in the guidance information is small. Guidance scenario 165 is suitable for user U, who does not need detailed guidance regarding the guidance point and has low navigation utilization.

ナビゲーション装置120は、ユーザ特定部134によりユーザUを特定する。ユーザ特定部134は、車両1を操作するユーザUの個人識別を行う。本実施形態では、各々のユーザUに対し、個人を特定可能な識別情報としてユーザIDが付与される。ユーザ特定部134は、ユーザUがナビゲーション装置120を操作する際に、ユーザUを識別してユーザIDを特定する。ユーザUの識別情報は、ユーザIDに限らず、ユーザUの氏名、ニックネーム、或いはその他の情報を用いてもよい。 The navigation device 120 identifies the user U by the user identification unit 134. The user identification unit 134 personally identifies the user U who operates the vehicle 1. In the present embodiment, a user ID is assigned to each user U as identification information that can identify an individual. When the user U operates the navigation device 120, the user identification unit 134 identifies the user U and identifies the user ID. The identification information of the user U is not limited to the user ID, and the name, nickname, or other information of the user U may be used.

ナビゲーション装置120では、1人のユーザUに対応づけて1つのユーザモデルが設定されてもよい。例えば、1つのユーザIDに1つのユーザモデルが対応づけて設定されてもよい。また、1人のユーザUに対応づけて複数のユーザモデルが設定されてもよい。例えば、ユーザUが詳しい知識を持っている地域や道路を車両1が走行する場合と、ユーザUが不案内な地域を車両1が走行する場合とで、異なるユーザモデルを適用することが考えられる。 In the navigation device 120, one user model may be set in association with one user U. For example, one user model may be set in association with one user ID. Further, a plurality of user models may be set in association with one user U. For example, it is conceivable to apply different user models depending on whether the vehicle 1 travels in an area or road where the user U has detailed knowledge and when the vehicle 1 travels in an area where the user U is unguided. ..

図5は、ユーザモデルデータ167の例を示す図である。ユーザモデルデータ167は、ユーザIDごとにユーザモデルを設定するデータであり、ユーザモデルデータ記憶部144に記憶される。ユーザモデルデータ167は、1つのユーザIDに1つのユーザモデルを対応づけてもよい。また、図5に示すように、1つのユーザIDに複数のユーザモデルを対応づけてもよい。 FIG. 5 is a diagram showing an example of user model data 167. The user model data 167 is data for setting a user model for each user ID, and is stored in the user model data storage unit 144. The user model data 167 may associate one user model with one user ID. Further, as shown in FIG. 5, a plurality of user models may be associated with one user ID.

図5の例では、1つのユーザIDに対して、場所ごとに、ユーザモデルが設定されている。例えば、ユーザID「0001」に対しては、4つの地域のそれぞれに対応するユーザモデルが設定されている。 In the example of FIG. 5, a user model is set for each location for one user ID. For example, for the user ID "0001", a user model corresponding to each of the four regions is set.

一般に、自動車の運転者は、走行機会の多い地域では道順に詳しく、走行機会の少ない地域では、道順に不案内である傾向がある。走行機会の多い地域は、例えば、居住地、勤務先、通勤経路等を含む地域である。このため、地域ごとにユーザモデルを設定することで、ユーザUが不案内な地域と、ユーザUが詳しく知っている地域とのそれぞれで、ユーザUに適した報知を行うことができる。図5のユーザモデルデータ167では、ユーザID「0001」に対し、居住地を含む「地域1」および勤務先を含む「地域2」では、ナビゲーション利用度の低いユーザモデルCが対応づけられる。 In general, car drivers tend to be familiar with directions in areas with many driving opportunities and unfamiliar with directions in areas with few driving opportunities. Areas with many driving opportunities are, for example, areas including places of residence, places of employment, commuting routes, and the like. Therefore, by setting the user model for each area, it is possible to perform notification suitable for the user U in each of the area where the user U is unfamiliar and the area where the user U knows in detail. In the user model data 167 of FIG. 5, the user ID “0001” is associated with the user model C having low navigation utilization in the “region 1” including the place of residence and the “region 2” including the place of work.

図6は、ユーザモデルデータ167の適用例を示す説明図である。図6には、地図上に、ユーザUの居住地である地点H1、ユーザUの勤務先である地点H2を示す。図において、経路PはユーザUの通勤経路を示す。地域C1、C2、C3は行政区分を示しており、市、町、村、郡、県等に相当する。 FIG. 6 is an explanatory diagram showing an application example of the user model data 167. FIG. 6 shows a point H1 where the user U lives and a point H2 where the user U works on the map. In the figure, the route P indicates the commuting route of the user U. Areas C1, C2, and C3 indicate administrative divisions and correspond to cities, towns, villages, counties, prefectures, and the like.

ユーザモデルデータ167においてユーザモデルに対応づけられる地域は、地域C1、C2、C3を単位としてもよい。また、地点H1、H2、経路P1を含む特定地域A1、A2、A3に、ユーザモデルを対応づけることもできる。特定地域A1、A2は、それぞれ地点H1、H2を中心とする半径1km以内の範囲である。特定地域A3は、経路Pから200m以内の範囲である。これらの距離は勿論一例に過ぎない。 The region associated with the user model in the user model data 167 may be in units of regions C1, C2, and C3. Further, the user model can be associated with the specific areas A1, A2, and A3 including the points H1, H2, and the route P1. The specific areas A1 and A2 are ranges within a radius of 1 km centered on the points H1 and H2, respectively. The specific area A3 is within 200 m from the route P. These distances are, of course, just an example.

特定地域A1、A2、A3は、ユーザUが道順等を詳しく知っている可能性の高い地域であるから、ユーザUが道順に詳しいと想定される。これに対し、地点H1、H2および経路Pから離れた地域C3は、ユーザUが不案内な地域と考えられる。このような地域ごとの差に対応して、ユーザモデルデータ167にユーザモデルを対応づけることで、ユーザUの習熟度や適性に合ったナビゲーションを行える。 Since the specific areas A1, A2, and A3 are areas in which the user U is likely to know the directions in detail, it is assumed that the user U is familiar with the directions. On the other hand, the area C3 away from the points H1 and H2 and the route P is considered to be an area where the user U is unguided. By associating the user model with the user model data 167 in response to such a difference in each region, navigation suitable for the proficiency level and aptitude of the user U can be performed.

ユーザモデルデータ167は、ナビゲーション装置120とは異なる装置により生成されて、ユーザモデルデータ記憶部144に記憶されてもよいが、ナビゲーション装置120が生成してもよい。この場合、ナビゲーション装置120は、ユーザUの操作によって自宅位置や勤務先位置として登録された位置情報に基づき、地点H1、H2の位置情報を取得できる。ナビゲーション装置120は、車両1が走行する頻度が高い経路を検索する処理や、車両1の移動の履歴を記録する処理により、経路Pの情報を取得できる。また、ユーザUがナビゲーション装置120を操作して登録した経路を、経路Pとしてもよい。また、地域C1、C2、C3の範囲および境界位置は、地図DB141に記憶されたデータから特定可能である。従って、地域C1、C2は、地点H1、H2の位置情報と地図DB141のデータに基づき、ナビゲーション装置120が判定できる。 The user model data 167 may be generated by a device different from the navigation device 120 and stored in the user model data storage unit 144, but may be generated by the navigation device 120. In this case, the navigation device 120 can acquire the position information of the points H1 and H2 based on the position information registered as the home position or the work position by the operation of the user U. The navigation device 120 can acquire information on the route P by a process of searching for a route on which the vehicle 1 frequently travels and a process of recording the movement history of the vehicle 1. Further, the route registered by the user U by operating the navigation device 120 may be set as the route P. Further, the range and boundary position of the areas C1, C2, and C3 can be specified from the data stored in the map DB 141. Therefore, the areas C1 and C2 can be determined by the navigation device 120 based on the position information of the points H1 and H2 and the data of the map DB 141.

ナビゲーション装置120は、ユーザIDごと、および、地域ごとに設定されたユーザモデルに基づき案内シナリオを生成する。ここで、ユーザモデルデータ167は、ユーザIDごと、および、時間帯ごとにユーザモデルを設定してもよい。具体的には、昼間と夜間のそれぞれにユーザモデルを設定してもよく、通勤・通学時間帯と、それ以外の時間帯とに分けてユーザモデルを設定してもよい。また、ユーザモデルデータ167は、天候や、積雪などの道路状況の分類ごとにユーザモデルを設定してもよい。 The navigation device 120 generates a guidance scenario based on a user model set for each user ID and for each region. Here, in the user model data 167, a user model may be set for each user ID and for each time zone. Specifically, the user model may be set for each of the daytime and the nighttime, and the user model may be set separately for the commuting time zone and the other time zone. Further, in the user model data 167, a user model may be set for each classification of road conditions such as weather and snow cover.

案内情報生成部135は、車両1の経路、ユーザモデル設定データ161、および、ユーザモデルデータ167に基づき、案内シナリオを生成する。 The guidance information generation unit 135 generates a guidance scenario based on the route of the vehicle 1, the user model setting data 161 and the user model data 167.

報知部136は、ディスプレイ101およびスピーカ115による報知を実行する。報知部136は、案内情報をディスプレイ101に出力する場合、案内情報生成部135が生成する表示データに基づいて、表示制御部133に制御を実行させ、ディスプレイ101にナビゲーション画面を表示させる。 The notification unit 136 executes notification by the display 101 and the speaker 115. When the guidance information is output to the display 101, the notification unit 136 causes the display control unit 133 to execute control based on the display data generated by the guidance information generation unit 135, and causes the display 101 to display the navigation screen.

また、報知部136は、案内シナリオに従って、音声による案内情報の報知を行う。報知部136は、案内シナリオの音声を発音するための音声データを生成し、音声処理回路151に出力する。これにより、案内シナリオの通りに、スピーカ115から音声が出力される。 In addition, the notification unit 136 notifies the guidance information by voice according to the guidance scenario. The notification unit 136 generates voice data for pronouncing the voice of the guidance scenario and outputs it to the voice processing circuit 151. As a result, the sound is output from the speaker 115 according to the guidance scenario.

報知制御部137は、報知部136が音声データを音声処理回路151に出力するタイミングを、案内シナリオに従って制御する。詳細には、報知制御部137は、車両1の現在位置の位置情報と、案内シナリオに設定された案内地点の位置情報と、案内シナリオに設定された報知タイミングとをもとに、音声データを出力するタイミングを決定する。報知制御部137は、決定したタイミングで報知部136を動作させる。
また、報知制御部137は、報知部136が報知を行った後、ユーザUが、報知された案内情報に対して要求や指示を行った場合に、案内シナリオを変更する。
The notification control unit 137 controls the timing at which the notification unit 136 outputs voice data to the voice processing circuit 151 according to a guidance scenario. Specifically, the notification control unit 137 outputs voice data based on the position information of the current position of the vehicle 1, the position information of the guidance point set in the guidance scenario, and the notification timing set in the guidance scenario. Determine the output timing. The notification control unit 137 operates the notification unit 136 at a determined timing.
Further, the notification control unit 137 changes the guidance scenario when the user U makes a request or an instruction to the notified guidance information after the notification unit 136 notifies.

ユーザモデル生成部138は、ユーザモデルデータ167を生成する。また、ユーザモデル生成部138は、報知制御部137が報知調整処理を実行した場合に、ユーザモデルデータ167を変更する。 The user model generation unit 138 generates the user model data 167. Further, the user model generation unit 138 changes the user model data 167 when the notification control unit 137 executes the notification adjustment process.

[1−3.ナビゲーション装置の動作]
図7、図8および図9は、ナビゲーション装置120の動作を示すフローチャートであり、図9は図8のステップS133の処理を詳細に示す。
[1-3. Operation of navigation device]
7, 8 and 9 are flowcharts showing the operation of the navigation device 120, and FIG. 9 shows in detail the process of step S133 of FIG.

図7、図8および図9の動作はナビゲーション装置120の処理部130により実行され、詳細には、ステップS101の処理はユーザ特定部134が実行し、S105、S106、S107、S130の処理は報知制御部137が実行する。ステップS102−S104、S121−S127、S131の処理は、案内情報生成部135が実行する。ステップS128の処理は、報知部136および報知制御部137が実行し、ステップS108、S129、S132の処理は、音声認識部132および報知制御部137が実行する。ステップS134の処理は、処理部130が実行する。 The operations of FIGS. 7, 8 and 9 are executed by the processing unit 130 of the navigation device 120. Specifically, the processing of step S101 is executed by the user identification unit 134, and the processing of S105, S106, S107, and S130 is notified. The control unit 137 executes the operation. The process of steps S102-S104, S121-S127, and S131 is executed by the guidance information generation unit 135. The processing of step S128 is executed by the notification unit 136 and the notification control unit 137, and the processing of steps S108, S129, and S132 is executed by the voice recognition unit 132 and the notification control unit 137. The processing of step S134 is executed by the processing unit 130.

また、ステップS151−S155、S157−S159、S161の処理は、報知部136および報知制御部137が実行し、ステップS156、S160の処理は、案内情報生成部135が実行する。ステップS162、S163の処理は、報知制御部137が実行し、ステップS164の処理はユーザモデル生成部138が実行する。 Further, the processing of steps S151-S155, S157-S159, and S161 is executed by the notification unit 136 and the notification control unit 137, and the processing of steps S156 and S160 is executed by the guidance information generation unit 135. The processing of steps S162 and S163 is executed by the notification control unit 137, and the processing of step S164 is executed by the user model generation unit 138.

処理部130は、ナビゲーション装置120を使用するユーザUを特定する(S101)。ステップS101で、処理部130は、例えば、ユーザUに対してタッチセンサ103または音声によるユーザ名やユーザIDの入力を求め、ユーザUを特定する。ステップS101では、ユーザ名やユーザIDとともに、パスワード等の認証用の情報の入力を求め、認証を行ってもよい。 The processing unit 130 identifies the user U who uses the navigation device 120 (S101). In step S101, the processing unit 130 requests the user U to input the user name or user ID by the touch sensor 103 or voice, and identifies the user U, for example. In step S101, authentication may be performed by requesting input of authentication information such as a password together with a user name and a user ID.

続いて、処理部130は、ナビゲーションの条件の入力を受け付ける(S102)。ナビゲーションの条件とは、車両1の経路を決定するための条件であり、少なくとも目的地の位置情報を含み、そのほかに、経由地、出発地等の位置情報、有料道路を使用するか否か、狭隘路を回避するか否か等を含んでもよい。 Subsequently, the processing unit 130 accepts the input of the navigation condition (S102). The navigation condition is a condition for determining the route of the vehicle 1, and includes at least the location information of the destination, the location information of the waypoint, the departure point, etc., and whether or not to use the toll road. It may include whether or not to avoid a narrow road.

処理部130は、ステップS102で入力された条件に基づき、車両1の経路探索を実行し(S103)、車両1の経路を決定する(S104)。
処理部130は、ユーザモデルデータ記憶部144に記憶されたユーザモデルデータ167を参照し、ステップS101で特定したユーザUに対応するユーザモデルデータ167があるか否かを判定する(S105)。該当するユーザモデルデータ167がある場合(S105;YES)、処理部130は、ユーザモデルデータ167を選択する(S106)。また、該当するユーザモデルデータ167がないか、ユーザモデルが設定されていない場合(S105;NO)、処理部130は、デフォルトのユーザモデルを利用する設定を行う(S107)。ステップS101でユーザIDを特定できなかった場合も、ステップS107の処理を実行する。
Based on the conditions input in step S102, the processing unit 130 executes the route search of the vehicle 1 (S103) and determines the route of the vehicle 1 (S104).
The processing unit 130 refers to the user model data 167 stored in the user model data storage unit 144, and determines whether or not there is the user model data 167 corresponding to the user U specified in step S101 (S105). When there is the corresponding user model data 167 (S105; YES), the processing unit 130 selects the user model data 167 (S106). If there is no corresponding user model data 167 or the user model is not set (S105; NO), the processing unit 130 makes a setting to use the default user model (S107). Even if the user ID cannot be specified in step S101, the process of step S107 is executed.

ステップS106またはステップS107の設定後、処理部130は、音声認識部132によって音声の検知および音声認識を開始する(S108)。これにより、ナビゲーション装置120は、ユーザUが声で指示を発話した場合に、この発話による指示を検知できる状態となる。 After setting step S106 or step S107, the processing unit 130 starts voice detection and voice recognition by the voice recognition unit 132 (S108). As a result, when the user U utters an instruction by voice, the navigation device 120 is in a state where the instruction by this utterance can be detected.

処理部130は、ステップS104で決定した経路に従って、車両1のナビゲーションを開始する(S121)。処理部130は、GPS119を利用して車両1の現在位置を特定して位置情報を取得する(S122)。 The processing unit 130 starts navigating the vehicle 1 according to the route determined in step S104 (S121). The processing unit 130 identifies the current position of the vehicle 1 by using GPS 119 and acquires the position information (S122).

処理部130は、案内シナリオの作成に使用するユーザモデルを選択する(S123)。ステップS123では、ステップS106で選択されたユーザモデルデータ167に設定されたユーザモデルのうち、ステップS122で特定した位置に対応するユーザモデルが選択される。また、ステップS108でデフォルトのユーザモデルが設定された場合には、ステップS123においてデフォルトのユーザモデルが採用される。 The processing unit 130 selects a user model to be used for creating the guidance scenario (S123). In step S123, among the user models set in the user model data 167 selected in step S106, the user model corresponding to the position specified in step S122 is selected. If the default user model is set in step S108, the default user model is adopted in step S123.

処理部130は、ステップS104で決定した経路における案内地点を探索し(S124)、車両1の現在位置に近い案内地点の有無を判定する(S125)。詳細には、ステップS125では、車両1の進行方向において、車両1の現在位置から所定範囲内に、ステップS127の処理対象となっていない案内地点があるか否かが判定される。 The processing unit 130 searches for a guide point on the route determined in step S104 (S124), and determines whether or not there is a guide point close to the current position of the vehicle 1 (S125). Specifically, in step S125, it is determined whether or not there is a guide point that is not the processing target of step S127 within a predetermined range from the current position of the vehicle 1 in the traveling direction of the vehicle 1.

該当する案内地点がないと判定した場合(S125;NO)、処理部130はステップS122に戻る。該当する案内地点があると判定した場合(S125;YES)、処理部130は、ステップS123で選択したユーザモデルに対応する報知回数、報知タイミング、および案内情報の内容を決定する(S126)。ステップS126で、処理部130は、例えば、ユーザモデル設定データ161を参照する。処理部130は、ステップS126で決定した内容に従って、案内シナリオを生成する(S127)。 If it is determined that there is no corresponding guide point (S125; NO), the processing unit 130 returns to step S122. When it is determined that there is a corresponding guidance point (S125; YES), the processing unit 130 determines the number of notifications, the notification timing, and the content of the guidance information corresponding to the user model selected in step S123 (S126). In step S126, the processing unit 130 refers to, for example, the user model setting data 161. The processing unit 130 generates a guidance scenario according to the content determined in step S126 (S127).

処理部130は、ステップS127で生成した案内シナリオに従って、報知を実行する(S128)。ステップS128では、案内シナリオで指定された報知タイミングのうち1回の報知を実行する。ステップS128で、処理部130は、車両1の位置が報知タイミングに該当する位置になるまで待機する。 The processing unit 130 executes the notification according to the guidance scenario generated in step S127 (S128). In step S128, one notification is executed out of the notification timings specified in the guidance scenario. In step S128, the processing unit 130 waits until the position of the vehicle 1 reaches the position corresponding to the notification timing.

報知を実行した後、処理部130は、ユーザUの発話を認識したか否かを判定する(S129)。ステップS129では、スピーカ115から案内情報の音声を出力した後に、マイク113により集音された音声から、ナビゲーション装置120に対する音声指示を認識したか否かを判定する。なお、案内情報を出力している間にマイク113により集音された音声を対象としてもよい。 After executing the notification, the processing unit 130 determines whether or not the utterance of the user U has been recognized (S129). In step S129, after the voice of the guidance information is output from the speaker 115, it is determined whether or not the voice instruction to the navigation device 120 is recognized from the voice collected by the microphone 113. Note that the voice collected by the microphone 113 while the guidance information is being output may be targeted.

指示の音声を認識していないと判定した場合(S129;NO)、処理部130は、ステップS127で生成した案内シナリオの報知が完了したか否かを判定する(S130)。例えば、案内シナリオで複数回の報知タイミングが指定されている場合であって、報知が実行されていない報知タイミングがある場合には、処理部130は、報知を完了していないと判定する。報知を完了していない場合(S130;NO)、処理部130はステップS128に戻る。 When it is determined that the instruction voice is not recognized (S129; NO), the processing unit 130 determines whether or not the notification of the guidance scenario generated in step S127 is completed (S130). For example, when a plurality of notification timings are specified in the guidance scenario and there is a notification timing in which the notification is not executed, the processing unit 130 determines that the notification has not been completed. If the notification is not completed (S130; NO), the processing unit 130 returns to step S128.

報知が完了したと判定した場合(S130;YES)、処理部130は、ナビゲーションを終了するか否かを判定する(S131)。処理部130は、ユーザUの操作によりナビゲーションの終了が指示された場合、車両1が目的地に到着した場合、ナビゲーション装置120の電源がシャットダウンされる場合等に、ナビゲーションを終了する(S131;YES)。ナビゲーションを終了しない場合(S131;NO)、処理部130はステップS122に戻る。 When it is determined that the notification is completed (S130; YES), the processing unit 130 determines whether or not to end the navigation (S131). The processing unit 130 ends the navigation when the end of the navigation is instructed by the operation of the user U, when the vehicle 1 arrives at the destination, when the power supply of the navigation device 120 is shut down, and the like (S131; YES). ). If the navigation is not finished (S131; NO), the processing unit 130 returns to step S122.

また、ユーザUの発話を認識した場合(S129;YES)、処理部130は、認識した発話が、報知調整処理の対象となる発話か否かを判定する(S132)。報知調整処理の対称となる発話は、報知回数、タイミング、案内情報の内容、またはその他の報知に関する指示である。 When the utterance of the user U is recognized (S129; YES), the processing unit 130 determines whether or not the recognized utterance is a utterance subject to the notification adjustment process (S132). The symmetrical utterances of the notification adjustment process are the number of notifications, the timing, the content of the guidance information, or other instructions regarding the notification.

ユーザUの発話が、報知調整処理の対象となる発話でないと判定した場合(S132;NO)、処理部130は、発話された指示に対応する処理を実行し(S134)、ステップS130に移行する。ステップS134で、例えば、処理部130は、スピーカ115の出力音量の調整等を行う。 When it is determined that the utterance of the user U is not the utterance subject to the notification adjustment process (S132; NO), the processing unit 130 executes the process corresponding to the uttered instruction (S134), and proceeds to step S130. .. In step S134, for example, the processing unit 130 adjusts the output volume of the speaker 115.

ユーザUの発話が、報知調整処理の対象となる発話であると判定した場合(S132;YES)、処理部130は、報知調整処理を実行し(S133)、実行後にステップS130に移行する。 When it is determined that the utterance of the user U is the utterance subject to the notification adjustment process (S132; YES), the processing unit 130 executes the notification adjustment process (S133), and then proceeds to step S130 after the execution.

図9は、報知調整処理を詳細に示すフローチャートである。
処理部130は、ユーザUの発話が、報知に対し否定的な内容の発話であるか否かを判定する(S151)。報知に対し否定的な内容の発話とは、例えば、「もういいよ」、「案内やめて」等、報知の拒否または報知が不要であることを示す発話が挙げられる。また、発話が認識されたタイミングが案内情報の音声と重なる場合に、報知に対し否定的な内容の発話として判定してもよい。報知に対し否定的な内容の発話であると判定した場合(S151;YES)、処理部130は、ステップS127で生成された案内シナリオを変更する(S152)。ステップS152で、処理部130は、報知回数および/または報知タイミングが減少するように案内シナリオを変更する。ステップS152の後、処理部130は後述するステップS162に移行する。
FIG. 9 is a flowchart showing the notification adjustment process in detail.
The processing unit 130 determines whether or not the utterance of the user U is an utterance having a content negative to the notification (S151). The utterances with negative contents to the notification include, for example, utterances such as "I'm okay" and "Stop guidance" indicating that the notification is rejected or the notification is unnecessary. Further, when the timing at which the utterance is recognized overlaps with the voice of the guidance information, it may be determined as the utterance having a content negative to the notification. When it is determined that the utterance has a negative content to the notification (S151; YES), the processing unit 130 changes the guidance scenario generated in step S127 (S152). In step S152, the processing unit 130 changes the guidance scenario so that the number of notifications and / or the notification timing is reduced. After step S152, the processing unit 130 shifts to step S162 described later.

報知に対し否定的な内容の発話でないと判定した場合(S151;NO)、処理部130は、案内情報の再度の報知を求める発話であるか否かを判定する(S153)。案内情報の再度の報知を求める発話であると判定した場合(S153;YES)、処理部130は、案内シナリオを参照し、ステップS128で報知した案内情報を再び報知し(S154)、ステップS162に移行する。 When it is determined that the utterance does not have a negative content with respect to the notification (S151; NO), the processing unit 130 determines whether or not the utterance is a request for re-notification of the guidance information (S153). When it is determined that the utterance requests the re-notification of the guidance information (S153; YES), the processing unit 130 refers to the guidance scenario, re-notifies the guidance information notified in step S128 (S154), and proceeds to step S162. Transition.

案内情報の再度の報知を求める発話でないと判定した場合(S153;NO)、処理部130は、ステップS127で報知した案内情報の内容に関する発話であるか否かを判定する(S155)。具体的には、ステップS127で、交差点で車両1を右折させる内容の音声を出力した場合に、ユーザUが「交差点のランドマークを教えて」と発話する例が挙げられる。案内情報の内容に関する発話であると判定した場合(S155;YES)、処理部130は、ステップS127で生成された案内シナリオを変更する(S156)。ステップS156で、処理部130は、案内情報の内容を増加させるように案内シナリオを変更する。処理部130は、変更した案内シナリオに従って報知を実行し(S157)、ステップS162に移行する。 When it is determined that the utterance does not require re-notification of the guidance information (S153; NO), the processing unit 130 determines whether or not the utterance is related to the content of the guidance information notified in step S127 (S155). Specifically, in step S127, when the voice of the content of turning the vehicle 1 to the right at the intersection is output, the user U may say "Tell me the landmark of the intersection". When it is determined that the utterance is related to the content of the guidance information (S155; YES), the processing unit 130 changes the guidance scenario generated in step S127 (S156). In step S156, the processing unit 130 changes the guidance scenario so as to increase the content of the guidance information. The processing unit 130 executes the notification according to the changed guidance scenario (S157), and proceeds to step S162.

案内情報の内容に関する発話でないと判定した場合(S155;NO)、処理部130は、ステップS127で報知した案内情報に関連する情報を要求する発話であるか否かを判定する(S158)。具体的には、ステップS127で、高速道路のインターチェンジを案内する音声を出力した場合に、ユーザUが、インターチェンジの前にガソリンスタンドがあるかどうか質問する例が挙げられる。案内情報に関連する情報の要求であると判定した場合(S158;YES)、処理部130は、地図DB141および経路DB142において、要求された情報を探索する(S159)。処理部130は、ステップS127で生成された案内シナリオに、ステップS159で探索した情報を含めるように、案内シナリオを変更する(S160)。処理部130は、変更した案内シナリオに従って報知を実行し(S161)、ステップS162に移行する。 When it is determined that the utterance is not related to the content of the guidance information (S155; NO), the processing unit 130 determines whether or not the utterance requests information related to the guidance information notified in step S127 (S158). Specifically, in step S127, when a voice for guiding an interchange on an expressway is output, a user U asks whether there is a gas station in front of the interchange. When it is determined that the request is for information related to the guidance information (S158; YES), the processing unit 130 searches for the requested information in the map DB 141 and the route DB 142 (S159). The processing unit 130 changes the guidance scenario so that the guidance scenario generated in step S127 includes the information searched in step S159 (S160). The processing unit 130 executes the notification according to the changed guidance scenario (S161), and proceeds to step S162.

また、案内情報に関連する情報を要求する発話でないと判定した場合(S158;NO)、処理部130は、図9の動作を終了して、ステップS130に移行する。 Further, when it is determined that the utterance does not require information related to the guidance information (S158; NO), the processing unit 130 ends the operation of FIG. 9 and proceeds to step S130.

ステップS162で、処理部130は、履歴情報を生成する(S162)。履歴情報は、図9の報知調整処理を実行した履歴に関する情報であり、少なくとも、報知調整処理の開始の要因となった発話、すなわちステップS128の報知の後に認識された発話の内容に関する情報を含む。例えば、認識された発話が、報知に対し否定的な内容の発話か、案内情報の再度の報知を求める発話か、案内情報の内容に関する発話か、案内情報に関連する情報を要求する発話かを示す情報を含む。履歴情報は、ステップS127で生成した案内シナリオ、または変更した案内シナリオの一部または全部を含んでもよい。例えば、案内地点の位置情報を含んでもよい。 In step S162, the processing unit 130 generates history information (S162). The history information is information on the history of executing the notification adjustment process of FIG. 9, and includes at least information on the utterance that caused the start of the notification adjustment process, that is, the content of the utterance recognized after the notification in step S128. .. For example, whether the recognized utterance is a utterance with negative content to the notification, a utterance requesting re-notification of the guidance information, a utterance regarding the content of the guidance information, or a utterance requesting information related to the guidance information. Contains information to indicate. The history information may include a part or all of the guidance scenario generated in step S127 or the modified guidance scenario. For example, the location information of the guide point may be included.

処理部130は、ステップS162で生成した履歴情報を、ユーザUに対応づけて履歴記憶部145に記憶させる(S163)。さらに、処理部130は、履歴記憶部145に記憶された履歴情報に基づいて、ユーザモデルデータ167を生成または更新し(S164)、ステップS130に移行する。 The processing unit 130 stores the history information generated in step S162 in the history storage unit 145 in association with the user U (S163). Further, the processing unit 130 generates or updates the user model data 167 based on the history information stored in the history storage unit 145 (S164), and proceeds to step S130.

ステップS164では、処理部130は、ユーザモデルデータ167に設定されるユーザモデルを、ユーザUの発話内容に対応して変更する。例えば、ユーザUが、報知に対して否定的な内容の発話をした場合、報知回数や案内情報の内容を少なくするため、ナビゲーション利用度が低いユーザモデルに変更する。また、例えば、ユーザUが、案内情報の再度の報知を求める発話、案内情報の内容に関する発話、案内情報に関連する情報を要求する発話等をした場合、ナビゲーション利用度が高いユーザモデルに変更する。 In step S164, the processing unit 130 changes the user model set in the user model data 167 according to the utterance content of the user U. For example, when the user U utters a content that is negative to the notification, the user model is changed to a user model with low navigation utilization in order to reduce the number of notifications and the content of the guidance information. Further, for example, when the user U makes an utterance requesting re-notification of the guidance information, a utterance regarding the content of the guidance information, a utterance requesting information related to the guidance information, etc., the user model is changed to a user model with high navigation usage. ..

[2.第2実施形態]
図10は、本発明を適用した第2実施形態のデータ管理システム200の構成を示す概略平面図である。
データ管理システム200は、ナビゲーションシステム100と、サーバー装置201とを通信可能に接続して構成される。
[2. Second Embodiment]
FIG. 10 is a schematic plan view showing the configuration of the data management system 200 of the second embodiment to which the present invention is applied.
The data management system 200 is configured by communicably connecting the navigation system 100 and the server device 201.

データ管理システム200は、ユーザモデルデータ記憶部144に相当するユーザモデルデータ記憶部211、および、履歴記憶部145に相当する履歴記憶部212を、サーバー装置201が備えている。ユーザモデルデータ記憶部211は、ナビゲーション装置120が生成または更新するユーザモデルデータ167を、ユーザモデルデータ記憶部211に記憶する。また、履歴記憶部212は、ナビゲーション装置120が生成する履歴情報を記憶する。 In the data management system 200, the server device 201 includes a user model data storage unit 211 corresponding to the user model data storage unit 144 and a history storage unit 212 corresponding to the history storage unit 145. The user model data storage unit 211 stores the user model data 167 generated or updated by the navigation device 120 in the user model data storage unit 211. Further, the history storage unit 212 stores the history information generated by the navigation device 120.

ナビゲーション装置120は、ステップS164でユーザモデルデータ167を生成または更新した場合に、ユーザモデルデータ167をサーバー装置201に送信する。また、ナビゲーション装置120は、ステップS162で履歴情報を生成した場合に、通信部153によって履歴情報をサーバー装置201に送信する。 When the user model data 167 is generated or updated in step S164, the navigation device 120 transmits the user model data 167 to the server device 201. Further, when the history information is generated in step S162, the navigation device 120 transmits the history information to the server device 201 by the communication unit 153.

データ管理システム200では、ナビゲーション装置120により生成または更新されたユーザモデルデータ167をサーバー装置201が記憶する。このため、ユーザIDに対応するユーザモデルデータ167を、複数のナビゲーション装置120において共通して利用できる。 In the data management system 200, the server device 201 stores the user model data 167 generated or updated by the navigation device 120. Therefore, the user model data 167 corresponding to the user ID can be commonly used in the plurality of navigation devices 120.

例えば、ナビゲーション装置120が、図7および図8に示す動作を実行する際に、ステップS105で、データ管理システム200から、ユーザIDに対応するユーザモデルデータ167をダウンロードする構成が考えられる。この構成では、複数のナビゲーションシステム100で、最新のユーザモデルデータ167を共通して利用できる。
このため、ユーザUが車両1を含む各種の移動体を操作する際に、この移動体に設置されるナビゲーション装置120が、サーバー装置201が記憶する最新のユーザモデルデータ167に従って、ナビゲーション動作を実行できる。従って、ユーザUがどの移動体を操作するときも、ユーザUに適した報知を行うことができ、ユーザUの満足度をより一層高めることができる。
For example, when the navigation device 120 executes the operations shown in FIGS. 7 and 8, it is conceivable that the user model data 167 corresponding to the user ID is downloaded from the data management system 200 in step S105. In this configuration, the latest user model data 167 can be commonly used by the plurality of navigation systems 100.
Therefore, when the user U operates various moving bodies including the vehicle 1, the navigation device 120 installed in the moving body executes the navigation operation according to the latest user model data 167 stored in the server device 201. it can. Therefore, when the user U operates any moving body, the notification suitable for the user U can be performed, and the satisfaction level of the user U can be further enhanced.

サーバー装置201は、履歴記憶部212に記憶される履歴情報に基づいて、ユーザモデルデータ167を更新する機能を備えてもよい。すなわち、図9のステップS164の処理を、サーバー装置201が実行してもよい。 The server device 201 may have a function of updating the user model data 167 based on the history information stored in the history storage unit 212. That is, the server device 201 may execute the process of step S164 of FIG.

また、サーバー装置201が、様々な移動体を操作する多数のユーザUに対応する履歴情報を収集できる場合、複数のユーザUに共通する傾向を分析できる。例えば、履歴情報に含まれる案内地点の情報に基づき、案内地点毎に、複数のユーザUに共通する発話の傾向を分析できる。これにより、案内地点に関する複数のユーザUの傾向に対応して、ユーザモデルデータ167を更新することで、この案内地点を通行したことのないユーザUに対し、適切な報知を行うことができる。 Further, when the server device 201 can collect the history information corresponding to a large number of users U who operate various mobile bodies, it is possible to analyze the tendency common to the plurality of users U. For example, based on the information of the guidance point included in the history information, the tendency of utterance common to a plurality of users U can be analyzed for each guidance point. As a result, by updating the user model data 167 in response to the tendency of the plurality of users U regarding the guidance point, it is possible to appropriately notify the user U who has never passed through the guidance point.

[3.他の実施形態]
なお、本発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
[3. Other embodiments]
The present invention is not limited to the configuration of the above embodiment, and can be implemented in various embodiments without departing from the gist thereof.

例えば、上記各実施形態では、音声による報知を対象として報知調整処理を実行する例に挙げて説明したが、本発明はこれに限定されない。例えば、案内情報をディスプレイ101に表示する場合の報知回数、報知タイミング、および案内情報の内容を対象として、報知調整処理を実行してもよい。
また、ナビゲーション装置120は、ディスプレイ101に代えて、或いはディスプレイ101に加えて、HUD(Head Up Display)による表示を行う構成としてもよい。この場合、ナビゲーション装置120は、案内情報の内容に対応する文字や画像をHUDに表示し、報知を行ってもよい。
For example, in each of the above embodiments, the description has been given as an example of executing the notification adjustment process for the notification by voice, but the present invention is not limited to this. For example, the notification adjustment process may be executed for the number of notifications, the notification timing, and the content of the guidance information when the guidance information is displayed on the display 101.
Further, the navigation device 120 may be configured to perform display by HUD (Head Up Display) instead of or in addition to the display 101. In this case, the navigation device 120 may display characters and images corresponding to the contents of the guidance information on the HUD to perform notification.

また、ユーザ特定部134は、ユーザIDの入力を操作受付部131によって受け付けることにより、ユーザUを特定する例を示したが、本発明はこれに限定されない。例えば、マイク113により集音したユーザUの音声のデータを対象として、声紋分析や、音声特徴量の解析を行うことにより、ユーザUの声をもとにユーザUを特定してもよい。 Further, the user identification unit 134 has shown an example in which the user U is specified by receiving the input of the user ID by the operation reception unit 131, but the present invention is not limited to this. For example, the user U may be specified based on the voice of the user U by performing voiceprint analysis or analysis of the voice feature amount on the voice data of the user U collected by the microphone 113.

また、上記各実施形態で説明した案内シナリオには、より多くの情報を含ませることが可能である。例えば、案内情報の内容として、Part.A、B、C以外に、車両1の操作に特に注意を要する場所であることを示す情報などを付加してもよい。また、人間の声を模した音声によって報知を行う場合に、報知音声の声調、音量、情報を読み上げる速さ等の情報を案内シナリオに含めてもよく、これらの情報がユーザモデルに合わせて設定されてもよい。 Further, it is possible to include more information in the guidance scenario described in each of the above embodiments. For example, as the content of the guidance information, Part. In addition to A, B, and C, information indicating that the location requires special attention for the operation of the vehicle 1 may be added. Further, when the notification is performed by a voice imitating a human voice, information such as the tone, volume, and speed of reading the information of the notification voice may be included in the guidance scenario, and these information are set according to the user model. May be done.

また、上記各実施形態で示したユーザUの発話の例は、あくまで一例である。報知に対し否定的な内容の発話、案内情報の再度の報知を求める発話、案内情報の内容に関する発話、案内情報に関連する情報を要求する発話の各分類に該当する具体的な発話内容は、任意に設定可能である。また、ユーザUの発話を、上述した分類以外の発話であると判定して、ユーザモデルデータ167を更新してもよい。 Further, the example of the utterance of the user U shown in each of the above embodiments is only an example. Specific utterances that correspond to each category of utterances that are negative to the notification, utterances that request re-notification of guidance information, utterances that relate to the content of guidance information, and utterances that request information related to guidance information are: It can be set arbitrarily. Further, the user model data 167 may be updated by determining that the utterance of the user U is an utterance other than the above-mentioned classification.

さらに、上記各実施形態において、車両1の位置の軌跡をもとにユーザモデルデータ167を更新する構成としてもよい。例えば、処理部130は、車両1が経路から逸脱したことを検知した場合に、逸脱が発生した案内地点を特定し、特定した案内地点におけるユーザモデルを、よりナビゲーション利用度が高いユーザモデルに変更してもよい。 Further, in each of the above embodiments, the user model data 167 may be updated based on the locus of the position of the vehicle 1. For example, when the processing unit 130 detects that the vehicle 1 has deviated from the route, the processing unit 130 identifies the guidance point where the deviation has occurred, and changes the user model at the specified guidance point to a user model with higher navigation utilization. You may.

本発明の適用対象は、車両1に固定的に設置されるナビゲーション装置120に限定されない。例えば、ナビゲーション装置120は、車両1から取り外して持ち運ぶことが可能な、いわゆるポータブルナビゲーション装置であってもよい。また、スマートフォンやパーソナルコンピュータ等の汎用コンピュータを、前部パネル12に設置して、ナビゲーション装置120として機能させてもよい。 The application target of the present invention is not limited to the navigation device 120 fixedly installed in the vehicle 1. For example, the navigation device 120 may be a so-called portable navigation device that can be removed from the vehicle 1 and carried around. Further, a general-purpose computer such as a smartphone or a personal computer may be installed on the front panel 12 to function as the navigation device 120.

また、上記各実施形態では、ナビゲーション装置120を搭載する移動体の具体的な態様は任意である。少なくとも1人のユーザUが搭乗し、移動体の操縦に関与する移動体であれば、本発明を適用可能である。 Further, in each of the above embodiments, the specific mode of the moving body on which the navigation device 120 is mounted is arbitrary. The present invention is applicable as long as it is a moving body in which at least one user U is on board and is involved in maneuvering the moving body.

[4.まとめ]
以上説明したように、実施形態のナビゲーション装置120は、車両1の操作に関する案内情報を報知する報知部136と、ユーザUの発話内容を認識する音声認識部132と、報知部136によって案内情報を報知させる報知制御部137と、を備える。報知制御部137は、音声認識部132が認識した発話内容が、報知部136によって報知された案内情報に関する発話を含む場合に、案内情報の内容または報知状態を変更する報知調整処理を行う。
[4. Summary]
As described above, in the navigation device 120 of the embodiment, the guidance information is transmitted by the notification unit 136 that notifies the guidance information regarding the operation of the vehicle 1, the voice recognition unit 132 that recognizes the utterance content of the user U, and the notification unit 136. A notification control unit 137 for notification is provided. When the utterance content recognized by the voice recognition unit 132 includes an utterance related to the guidance information notified by the notification unit 136, the notification control unit 137 performs a notification adjustment process for changing the content of the guidance information or the notification state.

また、ナビゲーション装置120は、車両1の操作に関する案内情報を報知部136によって報知する報知制御方法を実行する。この報知制御方法は、ユーザUの音声を検知して、ユーザUの発話内容を認識する音声認識ステップを含む。また、音声認識ステップで認識された発話内容が、報知部136によって報知された案内情報に関する発話を含む場合に、案内情報の内容または報知状態を変更する報知調整処理を行う報知制御ステップを含む。音声認識部132の動作は音声認識ステップの一例に対応し、報知制御部137の動作は報知制御ステップの一例に対応する。 In addition, the navigation device 120 executes a notification control method in which the notification unit 136 notifies guidance information regarding the operation of the vehicle 1. This notification control method includes a voice recognition step of detecting the voice of the user U and recognizing the utterance content of the user U. Further, when the utterance content recognized in the voice recognition step includes the utterance related to the guidance information notified by the notification unit 136, the notification control step for performing the notification adjustment process for changing the content of the guidance information or the notification state is included. The operation of the voice recognition unit 132 corresponds to an example of the voice recognition step, and the operation of the notification control unit 137 corresponds to an example of the notification control step.

ナビゲーション装置120、および、ナビゲーション装置120が実行する報知制御方法によれば、案内情報をユーザUに報知する場合に、ユーザUの発話に対応して、例えば案内シナリオにおける報知回数、報知タイミング、案内情報等を変更できる。このため、報知の内容や報知状態をユーザUに合わせて適切に調整することができ、ユーザUの満足度の向上を図ることができる。また、ユーザUの発話に対応して報知に関する変更を行うので、ユーザUの承認欲求を満たし、ユーザUの満足度を向上させることができる。 According to the navigation device 120 and the notification control method executed by the navigation device 120, when the guidance information is notified to the user U, for example, the number of notifications, the notification timing, and the guidance in the guidance scenario correspond to the utterance of the user U. Information etc. can be changed. Therefore, the content of the notification and the notification state can be appropriately adjusted according to the user U, and the satisfaction level of the user U can be improved. Further, since the notification is changed in response to the utterance of the user U, the approval desire of the user U can be satisfied and the satisfaction level of the user U can be improved.

報知制御部137により報知調整処理において変更される報知状態は、報知部136による報知回数、および、報知タイミングのうち少なくともいずれかを含む。
これにより、ユーザUに報知する回数や報知タイミングを、ユーザUの経験、知識、習熟度、スキル等に合わせて、或いはユーザUが期待する報知回数やタイミングに合わせて、適切に調整できる。
The notification state changed in the notification adjustment process by the notification control unit 137 includes at least one of the number of notifications by the notification unit 136 and the notification timing.
As a result, the number of notifications to the user U and the notification timing can be appropriately adjusted according to the experience, knowledge, proficiency, skill, etc. of the user U, or according to the number of notifications and timing expected by the user U.

報知制御部137は、音声認識部132が認識した発話内容に基づいて案内情報の内容を変更する処理を含む報知調整処理を実行する。例えば、図9に示した報知調整処理で、報知制御部137は、案内シナリオを変更し、報知回数、報知タイミング、案内情報の内容等を変更する。
このため、ユーザUに報知する情報の内容を、ユーザUの経験、知識、習熟度、スキル等に合わせて適切に調整できる。
The notification control unit 137 executes a notification adjustment process including a process of changing the content of the guidance information based on the utterance content recognized by the voice recognition unit 132. For example, in the notification adjustment process shown in FIG. 9, the notification control unit 137 changes the guidance scenario, and changes the number of notifications, the notification timing, the content of the guidance information, and the like.
Therefore, the content of the information to be notified to the user U can be appropriately adjusted according to the experience, knowledge, proficiency level, skill, and the like of the user U.

報知制御部137は、報知部136により案内情報が報知された後に、音声認識部132によって案内情報の報知に対する否定的な発話を認識した場合、報知部136により案内情報を報知する回数を減少させる処理、および、報知部136によって案内情報を報知するタイミングを変更する処理の少なくともいずれかを含む報知調整処理を実行する。
これにより、ユーザUが期待する回数を超える高頻度の報知や、ユーザUが望まない詳細な情報提供等を抑制し、ユーザUによる車両1の操作を妨げないように、報知を行うことができる。従って、ユーザUに十分な情報を提供することによる満足度の向上、および、ユーザUの承認欲求を満たし、快適性の向上を図ることができる。
When the voice recognition unit 132 recognizes a negative speech to the notification of the guidance information after the guidance information is notified by the notification unit 136, the notification control unit 137 reduces the number of times the guidance information is notified by the notification unit 136. A notification adjustment process including at least one of a process and a process of changing the timing of transmitting the guidance information by the notification unit 136 is executed.
As a result, it is possible to suppress frequent notifications exceeding the number of times the user U expects, detailed information provision not desired by the user U, and the like so as not to interfere with the operation of the vehicle 1 by the user U. .. Therefore, it is possible to improve the satisfaction level by providing sufficient information to the user U, satisfy the approval desire of the user U, and improve the comfort.

報知制御部137は、報知部136により案内情報が報知された後に、音声認識部132によって、報知された案内情報の再報知、案内情報に含まれる情報の提供、案内情報に関連する情報の提供のいずれかを要求する発話を認識した場合、報知調整処理を実行する。報知調整処理は、報知部136により案内情報を報知する回数を増加させる処理、および、報知部136によって案内情報を報知するタイミングを変更する処理の少なくともいずれかを含む。
これにより、例えば車両1の操作や、車両1の経路に関して不案内なユーザUに、必要な回数やタイミングで報知を行ったり、ユーザUが必要とする詳細な情報を提供したりすることができる。このため、ユーザUに十分な情報を提供することによる満足度の向上を図ることができる。
After the guidance information is notified by the notification unit 136, the notification control unit 137 re-notifies the notified guidance information by the voice recognition unit 132, provides the information included in the guidance information, and provides the information related to the guidance information. When the utterance requesting any of the above is recognized, the notification adjustment process is executed. The notification adjustment process includes at least one of a process of increasing the number of times the guidance information is notified by the notification unit 136 and a process of changing the timing of transmitting the guidance information by the notification unit 136.
Thereby, for example, it is possible to notify the user U who is unfamiliar with the operation of the vehicle 1 or the route of the vehicle 1 at the required number of times and timing, and to provide the detailed information required by the user U. .. Therefore, it is possible to improve the satisfaction level by providing sufficient information to the user U.

案内情報は、例えば、報知部136により報知される案内情報の内容と、報知部136により報知を行うタイミングを規定する情報とを含む案内シナリオで構成される。ナビゲーション装置120は、音声認識部132により音声が検知されたユーザUを特定するユーザID、および、音声認識部132により認識された発話内容に基づいて、案内シナリオを生成する案内情報生成部135を備える。
これにより、ユーザUに適合する報知を行うための情報をシナリオ形式にして、ユーザIDに基づいて生成する。このため、ユーザUに適合する報知を容易に、効率よく行うことができる。
The guidance information is composed of, for example, a guidance scenario including the content of the guidance information notified by the notification unit 136 and the information defining the timing of notification by the notification unit 136. The navigation device 120 includes a guidance information generation unit 135 that generates a guidance scenario based on the user ID that identifies the user U whose voice is detected by the voice recognition unit 132 and the utterance content recognized by the voice recognition unit 132. Be prepared.
As a result, the information for performing the notification suitable for the user U is generated in the scenario format based on the user ID. Therefore, the notification suitable for the user U can be easily and efficiently performed.

案内情報は、例えば、車両1の経路上において設定された報知位置としての案内地点の位置情報と、案内地点における車両1の進路を示す情報とを含むナビゲーション用の情報、すなわち経路案内用の情報である。報知制御部137は、案内情報に含まれる案内地点の位置と、車両1の位置とに基づき、報知部136により報知を実行させるタイミングを決定する。
これにより、ユーザUが操作する車両1の進行状態に合わせて、適切に報知を行うことができる。
The guidance information is, for example, navigation information including the position information of the guidance point as the notification position set on the route of the vehicle 1 and the information indicating the course of the vehicle 1 at the guidance point, that is, the information for route guidance. Is. The notification control unit 137 determines the timing at which the notification unit 136 executes notification based on the position of the guidance point included in the guidance information and the position of the vehicle 1.
As a result, the notification can be appropriately performed according to the progress state of the vehicle 1 operated by the user U.

ナビゲーション装置120は、音声認識部132により音声が検知されたユーザUを特定するユーザ特定部134を備える。ナビゲーション装置120は、音声認識部132により認識された発話内容のうち報知制御部137が実行した報知調整処理に関連する発話内容と、報知調整処理の対象となった案内情報とを、搭乗者特定部により特定されたユーザUに対応づけて記憶する履歴記憶部145を備える。
これにより、ユーザUが、報知に関して発話した内容の履歴が、ユーザUに対応づけて履歴記憶部145に記憶される。従って、ユーザUごとに、報知に対応して過去に行った発話を反映して、案内シナリオを生成し、報知を行うことができる。
The navigation device 120 includes a user identification unit 134 that identifies the user U whose voice is detected by the voice recognition unit 132. The navigation device 120 identifies the utterance content related to the notification adjustment process executed by the notification control unit 137 and the guidance information targeted for the notification adjustment processing among the utterance contents recognized by the voice recognition unit 132. A history storage unit 145 that stores the user U specified by the unit in association with the user U is provided.
As a result, the history of the content uttered by the user U regarding the notification is stored in the history storage unit 145 in association with the user U. Therefore, for each user U, it is possible to generate a guidance scenario and perform the notification by reflecting the utterances made in the past in response to the notification.

履歴記憶部145は、報知調整処理に関連する発話内容と、報知調整処理の対象となった案内情報と、車両1の位置とを対応づけて記憶する。
これにより、ユーザUが報知に関して過去に発話した内容の履歴を、車両1の位置を含む詳細な情報とともに利用することができる。このため、ユーザUの経験、知識、習熟度、スキル等をより高精度で反映した案内シナリオを生成し、適切に報知を行うことができる。
The history storage unit 145 stores the utterance content related to the notification adjustment processing, the guidance information targeted for the notification adjustment processing, and the position of the vehicle 1 in association with each other.
As a result, the history of the contents that the user U has uttered in the past regarding the notification can be used together with the detailed information including the position of the vehicle 1. Therefore, it is possible to generate a guidance scenario that reflects the experience, knowledge, proficiency, skill, etc. of the user U with higher accuracy, and appropriately notify the user.

1…車両(移動体)、100…ナビゲーションシステム、101…ディスプレイ、103…タッチセンサ、113…マイク、115…スピーカ、117…車速センサ、119…GPS、120…ナビゲーション装置(報知制御装置)、130…処理部、131…操作受付部、132…音声認識部、134…ユーザ特定部(搭乗者特定部)、135…案内情報生成部、136…報知部、137…報知制御部、138…ユーザモデル生成部、140…記憶部、141…地図DB、142…経路DB、143…音声認識DB、144…ユーザモデルデータ記憶部、145…履歴記憶部、151…音声処理回路、153…通信部、161…ユーザモデル設定データ、163…案内シナリオ、165…案内シナリオ、167…ユーザモデルデータ、200…データ管理システム、201…サーバー装置、211…ユーザモデルデータ記憶部、212…履歴記憶部。 1 ... Vehicle (moving body), 100 ... Navigation system, 101 ... Display, 103 ... Touch sensor, 113 ... Microphone, 115 ... Speaker, 117 ... Vehicle speed sensor, 119 ... GPS, 120 ... Navigation device (notification control device), 130 ... Processing unit, 131 ... Operation reception unit, 132 ... Voice recognition unit, 134 ... User identification unit (passenger identification unit), 135 ... Guidance information generation unit, 136 ... Notification unit, 137 ... Notification control unit, 138 ... User model Generation unit, 140 ... Storage unit, 141 ... Map DB, 142 ... Path DB, 143 ... Voice recognition DB, 144 ... User model data storage unit, 145 ... History storage unit, 151 ... Voice processing circuit, 153 ... Communication unit, 161 ... User model setting data, 163 ... Guidance scenario, 165 ... Guidance scenario, 167 ... User model data, 200 ... Data management system, 201 ... Server device, 211 ... User model data storage unit, 212 ... History storage unit.

Claims (9)

移動体の操作に関する案内情報を報知する報知部と、
前記移動体の搭乗者の音声を検知して、前記搭乗者の発話内容を認識する音声認識部と、
前記報知部によって前記案内情報を報知させる報知制御部と、を備え、
前記報知制御部は、前記音声認識部が認識した発話内容が、前記報知部によって報知された前記案内情報に関する発話を含む場合に、前記案内情報の内容または報知状態を変更する報知調整処理を行うこと、
を特徴とする報知制御装置。
A notification unit that notifies guidance information regarding the operation of moving objects,
A voice recognition unit that detects the voice of the passenger of the moving body and recognizes the utterance content of the passenger.
A notification control unit that notifies the guidance information by the notification unit is provided.
When the utterance content recognized by the voice recognition unit includes an utterance related to the guidance information notified by the notification unit, the notification control unit performs a notification adjustment process for changing the content of the guidance information or the notification state. thing,
A notification control device characterized by.
前記報知制御部により前記報知調整処理において変更される前記報知状態は、前記報知部により前記案内情報を報知する回数、および、前記報知部によって前記案内情報を報知するタイミングのうち少なくともいずれかを含むこと、
を特徴とする請求項1記載の報知制御装置。
The notification state changed in the notification adjustment process by the notification control unit includes at least one of the number of times the notification unit notifies the guidance information and the timing at which the notification unit notifies the guidance information. thing,
The notification control device according to claim 1.
前記報知制御部は、前記音声認識部が認識した発話内容に基づいて前記案内情報の内容を変更する処理を含む前記報知調整処理を実行すること、
を特徴とする請求項2記載の報知制御装置。
The notification control unit executes the notification adjustment process including a process of changing the content of the guidance information based on the utterance content recognized by the voice recognition unit.
2. The notification control device according to claim 2.
前記報知制御部は、前記報知部により前記案内情報が報知された後に、前記音声認識部によって前記案内情報の報知に対する否定的な発話を認識した場合、前記報知部により前記案内情報を報知する回数を減少させる処理、および、前記報知部によって前記案内情報を報知するタイミングを変更する処理の少なくともいずれかを含む前記報知調整処理を実行すること、
を特徴とする請求項2または3記載の報知制御装置。
When the voice recognition unit recognizes a negative speech to the notification of the guidance information after the guidance information is notified by the notification unit, the notification control unit notifies the guidance information by the notification unit the number of times. To execute the notification adjustment process including at least one of a process of reducing the number of people and a process of changing the timing of transmitting the guidance information by the notification unit.
The notification control device according to claim 2 or 3.
前記報知制御部は、前記報知部により前記案内情報が報知された後に、前記音声認識部によって、報知された前記案内情報の再報知、前記案内情報に含まれる情報の提供、前記案内情報に関連する情報の提供のいずれかを要求する発話を認識した場合、前記報知部により前記案内情報を報知する回数を増加させる処理、および、前記報知部によって前記案内情報を報知するタイミングを変更する処理の少なくともいずれかを含む前記報知調整処理を実行すること、
を特徴とする請求項2から4のいずれか1項に記載の報知制御装置。
After the guidance information is notified by the notification unit, the notification control unit re-notifies the guidance information notified by the voice recognition unit, provides information included in the guidance information, and is related to the guidance information. When recognizing an utterance requesting any of the provision of the information to be performed, the processing of increasing the number of times the guidance information is notified by the notification unit and the processing of changing the timing of notifying the guidance information by the notification unit. Executing the notification adjustment process including at least one,
The notification control device according to any one of claims 2 to 4, wherein the notification control device is characterized.
前記案内情報は、前記報知部により報知される情報と、前記報知部により報知を行うタイミングを規定する情報とを含む案内シナリオで構成され、
前記音声認識部により音声が検知された前記搭乗者、および、前記音声認識部により認識された発話内容に基づいて、前記案内シナリオを生成する案内情報生成部を備えること、
を特徴とする請求項1から5のいずれか1項に記載の報知制御装置。
The guidance information is composed of a guidance scenario including information notified by the notification unit and information defining the timing of notification by the notification unit.
A guidance information generation unit that generates the guidance scenario based on the passenger whose voice is detected by the voice recognition unit and the utterance content recognized by the voice recognition unit.
The notification control device according to any one of claims 1 to 5, wherein the notification control device is characterized.
前記案内情報は、前記移動体の経路上において設定された報知位置と、前記報知位置における前記移動体の進路を示す情報とを含む経路案内用の情報であり、
前記報知制御部は、前記案内情報に含まれる報知位置と、前記移動体の位置とに基づき、前記報知部により報知を実行させるタイミングを決定すること、
を特徴とする請求項1から6のいずれか1項に記載の報知制御装置。
The guidance information is information for route guidance including a notification position set on the route of the moving body and information indicating the course of the moving body at the notification position.
The notification control unit determines the timing at which the notification unit executes notification based on the notification position included in the guidance information and the position of the moving body.
The notification control device according to any one of claims 1 to 6, wherein the notification control device is characterized.
前記音声認識部により音声が検知された前記搭乗者を特定する搭乗者特定部と、
前記音声認識部により認識された発話内容のうち前記報知制御部が実行した前記報知調整処理に関連する発話内容と、前記報知調整処理の対象となった前記案内情報とを、前記搭乗者特定部により特定された前記搭乗者に対応づけて記憶する履歴記憶部と、を備えること、
を特徴とする請求項1から7のいずれか1項に記載の報知制御装置。
A passenger identification unit that identifies the passenger whose voice is detected by the voice recognition unit, and
Of the utterance contents recognized by the voice recognition unit, the utterance content related to the notification adjustment process executed by the notification control unit and the guidance information subject to the notification adjustment processing are combined with the passenger identification unit. Provided with a history storage unit that stores the passenger in association with the passenger specified by
The notification control device according to any one of claims 1 to 7, wherein the notification control device is characterized.
移動体の操作に関する案内情報を報知部によって報知する報知制御方法であって、
前記移動体の搭乗者の音声を検知して、前記搭乗者の発話内容を認識する音声認識ステップと、
前記音声認識ステップで認識された発話内容が、前記報知部によって報知された前記案内情報に関する発話を含む場合に、前記案内情報の内容または報知状態を変更する報知調整処理を行う報知制御ステップと、
を含むことを特徴とする報知制御方法。
This is a notification control method in which a notification unit notifies guidance information regarding the operation of a moving body.
A voice recognition step that detects the voice of the passenger of the moving body and recognizes the utterance content of the passenger.
When the utterance content recognized in the voice recognition step includes an utterance related to the guidance information notified by the notification unit, a notification control step for performing a notification adjustment process for changing the content or notification state of the guidance information, and a notification control step.
A notification control method comprising.
JP2019049669A 2019-03-18 2019-03-18 Notification controller and method for controlling notification Pending JP2020153678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019049669A JP2020153678A (en) 2019-03-18 2019-03-18 Notification controller and method for controlling notification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019049669A JP2020153678A (en) 2019-03-18 2019-03-18 Notification controller and method for controlling notification

Publications (1)

Publication Number Publication Date
JP2020153678A true JP2020153678A (en) 2020-09-24

Family

ID=72558512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019049669A Pending JP2020153678A (en) 2019-03-18 2019-03-18 Notification controller and method for controlling notification

Country Status (1)

Country Link
JP (1) JP2020153678A (en)

Similar Documents

Publication Publication Date Title
JP5385506B2 (en) Storage and visualization of target points in navigation systems
US20100324818A1 (en) Presentation of navigation instructions using variable content, context and/or formatting
US10949886B2 (en) System and method for providing content to a user based on a predicted route identified from audio or images
JP5102599B2 (en) Navigation device
JP4973331B2 (en) Information provision device
JP2020144663A (en) Agent device, control method of agent device, and program
JP2010145262A (en) Navigation apparatus
US20130013314A1 (en) Mobile computing apparatus and method of reducing user workload in relation to operation of a mobile computing apparatus
JPWO2008120290A1 (en) Route guidance device, route guidance method, route guidance program, and recording medium
JP4421667B2 (en) Information guidance device, information guidance method, information guidance program, and computer-readable recording medium
JP2018128466A (en) Navigation device, head-up display, control method, program, and storage medium
JP2019061480A (en) Driver support apparatus and driver support method
JP4305538B2 (en) Display device
JP2018141742A (en) Navigation device, navigation method, and navigation program
US20220208187A1 (en) Information processing device, information processing method, and storage medium
JP2020153678A (en) Notification controller and method for controlling notification
JP7280072B2 (en) Notification control device and notification control method
WO2021192511A1 (en) Information processing device, information output method, program and storage medium
JP4488365B2 (en) MAP INFORMATION DISPLAY DEVICE, MAP INFORMATION DISPLAY METHOD, MAP INFORMATION DISPLAY PROGRAM, AND RECORDING MEDIUM
US11437035B2 (en) Agent device, method for controlling agent device, and storage medium
JP2018081102A (en) Communication device, communication method, and program
US20200319634A1 (en) Agent device, method of controlling agent device, and storage medium
JP7175221B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
CN110556091A (en) Information providing device
JP2020157853A (en) In-vehicle agent system, control method of in-vehicle agent system, and program