JP7280072B2 - 報知制御装置、および、報知制御方法 - Google Patents

報知制御装置、および、報知制御方法 Download PDF

Info

Publication number
JP7280072B2
JP7280072B2 JP2019049670A JP2019049670A JP7280072B2 JP 7280072 B2 JP7280072 B2 JP 7280072B2 JP 2019049670 A JP2019049670 A JP 2019049670A JP 2019049670 A JP2019049670 A JP 2019049670A JP 7280072 B2 JP7280072 B2 JP 7280072B2
Authority
JP
Japan
Prior art keywords
notification
unit
guidance information
user
passenger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019049670A
Other languages
English (en)
Other versions
JP2020153679A (ja
Inventor
昌宏 暮橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019049670A priority Critical patent/JP7280072B2/ja
Publication of JP2020153679A publication Critical patent/JP2020153679A/ja
Application granted granted Critical
Publication of JP7280072B2 publication Critical patent/JP7280072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、報知制御装置、および、報知制御方法に関する。
従来、車両等の移動体において情報を表示する装置が、カメラを利用して乗員の視線の方向を検出する提案があった(例えば、特許文献1参照)。特許文献1には、バーチャル画像情報を現実の風景に重畳する装置が開示されている。この装置は、カメラを用いて検出した乗員の視線の方向と、車両の現在の位置および向きとに基づいて、視認されている現実の風景中の所定位置にバーチャル画像が配置されるように、バーチャル画像の表示位置を決める。
特開2005-98912号公報
特許文献1には、バーチャル画像情報の表示を乗員の視線に対応させる例の開示はあるが、ユーザが注目しているか否かに関する処理は、何ら開示はない。このように、従来、視覚的に提供される情報にユーザが注目することについて、対応する例は無かった。
本発明は、上述した事情に鑑みてなされたものであり、移動体に関する情報を表示し、表示された情報にユーザが注目する状態に対応することを目的とする。
本発明の一の態様は、移動体の操作に関する案内情報を表示部および音出力部によって報知させる報知部と、撮像部と、前記撮像部の撮像画像をもとに、前記移動体の搭乗者を特定する搭乗者特定部と、前記案内情報を報知する回数、および、前記報知部によって前記案内情報を報知するタイミングのうち少なくともいずれかを定めるユーザモデルを、前記搭乗者および地域に対応付けて記憶するユーザモデル記憶部と、前記移動体の位置を特定し、前記搭乗者特定部により特定された前記搭乗者および前記移動体の位置が属する地域に対応する前記ユーザモデルを選択し、選択した前記ユーザモデルに従って、前記案内情報を報知する回数およびタイミングのうち少なくともいずれかと前記案内情報とを含むシナリオを作成する処理部と、前記シナリオに従って前記報知部を動作させる報知制御部と、前記撮像部の撮像画像をもとに、前記乗者が前記表示部を注視する注視状態を検知する注視状態検知部と、を備え、前記報知制御部は、前記表示部によって前記案内情報が報知された際に前記注視状態検知部により検知された注視状態に基づき、前記シナリオに含まれる前記案内情報の内容または報知状態を変更する報知調整処理を行う、ことを特徴とする報知制御装置である。
本発明の他の態様によると、記報知調整処理の履歴に基づいて前記ユーザモデルを変更する
本発明の他の態様によると、前記報知制御部は、前記表示部によって前記案内情報が報知された後、前記搭乗者が継続して前記表示部を注視した時間が第1基準時間以上の場合に、前記報知調整処理を実行する。
本発明の他の態様によると、前記報知制御部は、前記表示部によって前記案内情報が報知された後、前記搭乗者が継続して前記表示部を注視した時間が第2基準時間以上の場合、または、第3基準時間内に前記搭乗者が前記表示部を注視した回数が第1閾値に達した場合に、前記報知部により前記表示部による報知を停止して前記音出力部による音声の報知を実行させる。
本発明の他の態様によると、前記撮像部の撮像画像をもとに前記搭乗者による操作を検知する操作検知部を備え、前記報知制御部は、前記表示部によって前記案内情報が報知された後、前記注視状態検知部によって特定の注視状態が検知され、かつ、前記操作検知部によって特定の操作が検知された場合に、前記報知調整処理において前記特定の操作に対応して前記案内情報の内容または報知状態を変更する。
本発明の他の態様によると、前記搭乗者の音声を検知して、前記搭乗者の発話内容を認識する音声認識部を備え、前記報知制御部は、前記表示部によって前記案内情報が報知された後、前記注視状態検知部によって特定の注視状態が検知され、かつ、前記音声認識部によって特定の発話が認識された場合に、前記報知調整処理において前記特定の発話に対応して前記案内情報の内容または報知状態を変更する。
本発明の他の態様によると、記搭乗者特定部により特定された前記搭乗者に対応する前記案内情報を生成する案内情報生成部備える。
本発明の他の態様によると、記報知調整処理で変更された前記案内情報と、前記報知調整処理を実行する要因となった情報とを、前記搭乗者特定部により特定された前記搭乗者に対応づけて記憶する履歴記憶部備える。
本発明の他の態様は、移動体の操作に関する案内情報を表示部および音出力部によって報知する報知制御方法であって、コンピュータにより、前記移動体の搭乗者を撮像した撮像画像をもとに、前記搭乗者を特定する搭乗者特定ステップと、前記案内情報を報知する回数、および、前記案内情報を報知するタイミングのうち少なくともいずれかを定めるユーザモデルを、前記搭乗者および地域に対応付けてユーザモデル記憶部に記憶するステップと、前記移動体の位置を特定し、前記搭乗者特定ステップで特定された前記搭乗者および前記移動体の位置が属する地域に対応する前記ユーザモデルを選択し、選択した前記ユーザモデルに従って、前記案内情報を報知する回数およびタイミングのうち少なくともいずれかと前記案内情報とを含むシナリオを作成するステップと、前記撮像画像をもとに、前記搭乗者が前記表示部を注視する注視状態を検知する注視状態検知ステップと、前記シナリオに従って前記案内情報を表示部および音出力部によって報知させるステップと、前記表示部によって前記案内情報が報知された際に、前記注視状態検知ステップで検知された注視状態に基づき、前記シナリオに含まれる前記案内情報の内容または報知状態を変更する報知調整処理を行う報知制御ステップと、を含む動作を実行することを特徴とする報知制御方法である。
本発明によれば、ユーザが情報に注目する状態に対応して、移動体の操作に関する情報の内容や報知状態を調整することができ、ユーザの満足度の向上を図ることができる。
第1実施形態に係るナビゲーション装置の設置例を示す図。 ナビゲーション装置のブロック図。 ユーザモデルと報知内容との設定例を示す図。 案内シナリオの例を示す図。 ユーザモデルデータの例を示す図。 ユーザモデルデータの適用例を示す説明図。 ナビゲーション装置の動作を示すフローチャート。 ナビゲーション装置の動作を示すフローチャート。 ナビゲーション装置の動作を示すフローチャート。 ナビゲーション装置の動作を示すフローチャート。 第2実施形態のナビゲーションシステムの構成を示す図。
以下、図面を参照して本発明の実施形態について説明する。
[1.第1実施形態]
[1-1.ナビゲーションシステムの構成]
図1は、本発明を適用した第1実施形態として、移動体に搭載されるナビゲーションシステム100の構成例を示す図である。
図1には、移動体としての車両1の車室10を平面視で示す。車両1は移動体の一例であり、四輪の乗用自動車を示す。本発明を適用する移動体は、乗用自動車に限定されず、列車、貨物自動車、自動二輪車、耕運機や建設機械などの作業用車両等であってもよく、その他、人間の操作により移動するものであればよい。
図1には、車両1が走行する場合の進行方向を符号DRで示し、以下の説明では進行方向DRを車両1の前方とする。
車室10にはシート21、23、および後部シート25が設置されている。車両1の乗員を以下では搭乗者と呼ぶ。搭乗者のうち、シート21に着座して車両1の運転操作を行う搭乗者を、以下の説明ではユーザUとする。ユーザUはいわゆる運転者である。
車室10には、前部パネル12が配置される。前部パネル12は、車両1に固定される車室10の内装部材であり、例えば、ダッシュボード、インストゥルメントパネル、センターコンソール、およびこれらを支持する不図示のフレーム等を含む。
ナビゲーションシステム100は、前部パネル12に設置されるナビゲーション装置120を含んで構成される。
ナビゲーション装置120は、ディスプレイ101を備える。ディスプレイ101は、液晶表示パネル等の表示パネルで構成され、ナビゲーション装置120が内蔵する処理部130の制御に従って、各種の画像や文字を表示する。
ナビゲーションシステム100は、カメラ111を備える。カメラ111は、シート21に着座する搭乗者を向くように設置されるデジタルカメラである。カメラ111の撮像範囲にシート21に着座する搭乗者の頭部が含まれるように、カメラ111の位置および角度が調整されている。カメラ111は、ナビゲーション装置120に有線または無線で接続され、後述する処理部130の制御に従って撮像を実行し、撮像画像データを出力する。カメラ111は、本発明の撮像部の一例に対応する。
ナビゲーションシステム100は、音声を入出力するマイク113およびスピーカ115を備える。マイク113およびスピーカ115は、有線または無線によりナビゲーション装置120に接続される。
マイク113は、前部パネル12など、車室10の音声を集音可能な位置に配置される。スピーカ115は、例えば、図1に示すように、車両1のドアトリム等に設置される。マイク113およびスピーカ115の位置や数は図1の例に限定されない。
ナビゲーションシステム100は、ナビゲーション装置120の制御により、車両1の経路を案内するナビゲーションを実行する。ナビゲーションとは、指定された目的地まで車両1が到達するための経路を決定し、決定した経路の通りにユーザUが車両1を走行させるために情報を提供する動作であり、経路案内とも呼ばれる。
ナビゲーション装置120は、車両1の現在位置を含む範囲の地図を含むナビゲーション画面を、ディスプレイ101に表示させる。ナビゲーション画面は、車両1の現在位置を示すアイコン等のシンボル、および、車両1が進行する経路を地図に重畳した画像を含む。また、ナビゲーション画面には、車両1の現在位置、目的地、経由地等の位置を示す位置情報、目的地への到着予想時刻、渋滞の発生状況や交通規制等の交通情報等を、地図とともに含んでもよい。ディスプレイ101は、本発明の表示部の一例に対応する。
また、ナビゲーション装置120は、車両1の走行に関してユーザUが行う操作を案内する情報を、スピーカ115から音声または音として出力させる。例えば、ナビゲーション装置120は、車両1の右折、左折、直進等の走行方向を示す情報を、自然言語で読み上げる音声により、或いは、上記情報を示す音を出力する。ユーザUは、スピーカ115から発される音または音声の通りに車両1を操作することで、車両1の経路に沿って、目的地まで車両1を走行させることができる。スピーカ115は、本発明の音出力部の一例に対応する。
ナビゲーション動作においてディスプレイ101およびスピーカ115から出力される情報は、本発明の案内情報の一例であり、案内情報を出力する動作は、本発明の報知に相当する。ディスプレイ101による案内情報の表示は、視覚的な報知ということができ、スピーカ115による案内情報の音声出力は、聴覚的な報知ということができる。
ナビゲーション装置120は、本発明の報知制御装置として機能し、案内情報の報知を制御する。
ナビゲーション装置120は、ディスプレイ101へのタッチ操作を検出するタッチセンサ103を備えている。ユーザUは、ディスプレイ101にタッチすることでナビゲーション装置120を操作できる。
また、ナビゲーション装置120は、マイク113が集音した音声に基づき音声コマンドを検知し、音声コマンドに従って動作する。ユーザUは、音声によってナビゲーション装置120を操作できる。
[1-2.ナビゲーションシステムの制御系]
図2は、ナビゲーションシステム100の制御系の構成を示すブロック図である。
ナビゲーション装置120には、カメラ111、マイク113、スピーカ115、車速センサ117、およびGPS119が接続される。車両1にCAN(Controller Area Network)等の通信ネットワークが敷設されている場合、この通信ネットワークによって複数の装置を接続することにより、ナビゲーションシステム100が構成されてもよい。また、車両1が搭載する不図示のECU(Electronic Control Unit)等の他の装置と、ナビゲーション装置120とが、通信ネットワークにより接続された構成であってもよい。
車速センサ117は、車両1の車速パルス信号に基づいて、車両1の車速を示すデータを生成し、ナビゲーション装置120に出力する。
GPS(Global Positioning System)119は、不図示のアンテナによりGPS信号を受信して、受信したGPS信号に基づき車両1の位置を算出する。GPS119は、車両1の現在位置を示す位置データを生成し、ナビゲーション装置120に出力する。
ナビゲーション装置120は、ディスプレイ101、タッチセンサ103、処理部130、記憶部140、および音声処理回路151を備える。
タッチセンサ103は、例えば静電容量式や感圧式のセンサであり、接触操作や押圧操作を検出する。タッチセンサ103は、ディスプレイ101に重畳して配置され、ディスプレイ101に対する接触操作や押圧操作を検出し、操作を検出した位置を示す信号を処理部130に出力する。
音声処理回路151は、マイク113およびスピーカ115に接続される。マイク113は、音声処理回路151に音声信号を出力し、音声処理回路151は、マイク113から入力される信号をデジタルデータに変換して、処理部130に出力する。
音声処理回路151は、処理部130が出力するデジタル音声データに基づきスピーカ115に音声信号を出力し、スピーカ115から音を出力させる。
また、ナビゲーション装置120は、通信部153を備えてもよい。通信部153は、例えば、携帯電話回線網、Wi-Fi(登録商標)、Bluetooth(登録商標)等の通信規格に準拠した無線通信を実行する通信モジュールである。通信部153は、処理部130の制御に従って、車室10に設置された装置または車両1の外の装置との間で、各種データを送受信する。
処理部130は、例えば、CPU(Central Processing Unit)等のプロセッサを備えるコンピュータである。処理部130には、記憶部140が接続される。記憶部140は、処理部130が実行するコンピュータプログラムである制御プログラム、および、処理部130によって処理される各種データを、処理部130によって読み取り可能に記憶する。
処理部130および記憶部140を構成するハードウェアは特定の態様に限定されない。例えば、処理部130は、単一のプロセッサで構成されてもよい。また、処理部130は、プロセッサと、ROM(Read Only Memory)、RAM(Random Access Memory)等を統合したデバイスであってもよい。記憶部140は、プログラムやデータを不揮発的に記憶する不揮発性記憶装置で構成されてもよく、具体的には、ハードディスク等の磁気的記憶装置や、フラッシュROM等の半導体記憶デバイスを備えてもよい。また、記憶部140は、処理部130が実行するプログラムやデータ等を一時的に記憶する揮発性記憶装置を備えてもよい。また、処理部130と記憶部140とは統合された1つのデバイスであってもよい。
処理部130は、記憶部140が記憶するプログラムを実行することにより、記憶部140が記憶するデータに基づいて、ナビゲーション装置120の各部を制御する。
処理部130は、機能要素又は機能ユニットとして、注視状態検知部131、操作受付部132、音声認識部133、表示制御部134、ユーザ特定部135、案内情報生成部136、報知部137、報知制御部138、および、ユーザモデル生成部139を備える。処理部130が備えるこれらの機能要素は、コンピュータである処理部130が、記憶部140に記憶される制御プログラムを実行することにより実現される。
なお、処理部130が実行する制御プログラムは、コンピュータ読み取り可能な任意の記憶媒体に記憶させておくことができる。これに代えて、処理部130が備える上記機能要素の全部又は一部を、それぞれ一つ以上の電子回路部品を含むハードウェアにより構成することもできる。
記憶部140は、記憶部140の記憶領域を利用するデータベースとして、地図DB(データベース)141、経路DB142、音声認識DB143、ユーザモデルデータ記憶部144、および、履歴記憶部145を格納する。
地図DB141および経路DB142は、ナビゲーション用のデータを格納したデータベースである。地図DB141は地図データを格納する。経路DB142は、車両1を含む自動車が走行可能な道路を示す情報、渋滞発生確率や渋滞発生状況を示す情報、交通規制に関する情報など、車両1の経路を決定する場合に使用されるデータを格納する。
また、地図DB141は、車両1が走行可能な道路に関するPOI(Point Of Interest)に関する情報を含む。具体的には、POIは、地理的ランドマーク、商業施設、公共施設、飲食店、その他の設置物等である。地図DB141は、POIの位置情報とPOIの種類や名称とを対応づけて格納する。
音声認識DB143は、音声処理回路151が出力する音声データを音声コマンドとして認識するためのデータを格納する。音声認識DB143は、例えば、ナビゲーション装置120で使用可能な音声コマンドと、ナビゲーション装置120が音声コマンドとして認識する音声を特定するデータとを含む。音声を特定するデータは、例えば、音声データの周波数成分、音量レベルの変化等を抽出した音声特徴量を用いることができるが、その他のデータであってもよい。また、音声認識DB143は、音声データをテキスト認識するための辞書データと、音声コマンドのテキストデータとを含んでいてもよい。この場合、音声認識DB143は、マイク113が集音した音声をテキストに変換し、テキストデータに基づき音声コマンドとして認識するためのデータとして利用できる。
ユーザモデルデータ記憶部144は、後述するユーザモデル設定データ161、案内シナリオ、および、ユーザモデルデータ167を記憶する。
履歴記憶部145は、後述する履歴情報を記憶する。
注視状態検知部131は、カメラ111が出力する撮像画像データを取得し、ユーザUのディスプレイ101への注視状態を検知する。例えば、注視状態検知部131は、撮像画像データから、パターンマッチング等の処理により、シート21に着座する人間の顔の画像を抽出する。注視状態検知部131は、抽出した顔の画像を解析し、ユーザUの顔の方向または目が向いている方向が、ディスプレイ101を注目する方向に該当するか否かを判定する。注視状態検知部131は、判定結果に基づき、ユーザUの注視状態を示すデータを生成する。
例えば、注視状態検知部131は、ユーザUがディスプレイ101を注視しているか否かを示すデータを逐次生成してもよい。また、注視状態検知部131は、ユーザUがディスプレイ101を注視している状態が継続した時間をカウントしてもよい。また、注視状態検知部131は、予め設定された時間内にユーザUがディスプレイ101を注視した回数をカウントしてもよい。また、注視状態検知部131は、これらのカウント値が設定された閾値を超えたか否かを判定してもよい。
操作受付部132は、タッチセンサ103に対するユーザUの接触操作を検出し、操作位置を特定することにより、ユーザUの操作内容を取得する。
また、操作受付部132は、カメラ111の撮像画像データをもとに、ユーザUのジェスチャ操作を検知する。例えば、操作受付部132は、パターンマッチング等の処理によりカメラ111の撮像画像データから物体の動きを検出し、予め設定されたジェスチャに該当する動きであるか否かを判定する。操作受付部132は、ジェスチャを検知する処理を行う場合に、本発明の操作検知部の一例に対応する。
音声認識部133は、音声処理回路151が出力するデジタル音声データを解析し、マイク113が集音した音声に含まれる人間の発話内容を認識する。音声認識部133は、例えば、音声処理回路151が出力する音声データの周波数解析を行い、音声特徴量を算出し、算出した音声特徴量に基づき音声認識DB143を参照して、集音した音声に該当する音声コマンドの有無を判定し、音声コマンドを特定する。音声認識部133は、例えば、ユーザUがナビゲーション装置120に対する指示を発話した場合に、この発話の内容を認識する。
表示制御部134は、ディスプレイ101に表示信号を出力して、画像や文字を含む各種画面を表示させる。
ユーザ特定部135は、カメラ111の撮像画像データに基づき、ナビゲーション装置120を操作するユーザUを特定する。ユーザ特定部135は、例えば、予め登録された複数の人の中から、カメラ111により撮像された一人のユーザUを特定する。この場合、ナビゲーション装置120は、予め登録された複数の人の顔画像に関するデータを記憶部140に記憶する。また、ユーザUを特定するための具体的な処理は公知の技術を用いればよい。例えば、カメラ111の撮像画像データから人間の顔の画像を抽出し、抽出した画像の特徴量を算出し、予め記憶したユーザUの顔画像の特徴量と照合することにより、ユーザUを特定する。ユーザ特定部135は、本発明の搭乗者特定部の一例に対応する。
案内情報生成部136は、車両1のナビゲーション動作を実行する際に、車両1が進行する経路を決定する。例えば、ユーザUの操作によって指定される目的地、経由地、出発地等の位置を特定し、地図DB141および経路DB142に格納されたデータを利用して、車両1が出発地または現在位置から目的地に到達するための経路を決定する。
また、案内情報生成部136は、決定した車両1の経路の通りに車両1を走行させるための案内情報を生成する。
案内情報生成部136は、視覚的に提供される案内情報として、ディスプレイ101に表示されるナビゲーション画面を表示するための表示データを生成する。また、案内情報生成部136は、スピーカ115により聴覚的に報知される案内情報として、自然言語により車両1の操作を案内するメッセージを生成する。
案内情報生成部136は、メッセージを出力する回数、およびタイミングを決定する。
案内情報生成部136が生成するメッセージは、車両1の経路上の地点に対応する。例えば、案内情報生成部136は、車両1の直進、右折、左折などの操作を指示するメッセージを生成するが、これらの操作は、車両1の経路における特定の地点で実行される操作である。案内情報の対象となっている地点を、以下の説明では案内地点という。案内地点は、本発明の報知位置の一例に対応する。例えば、交差点において車両1を右折させる指示を含む案内情報を報知する場合、この交差点が案内地点に相当する。報知の回数は、1つの案内地点について1回に限られず、複数回であってもよい。例えば、ナビゲーション装置120は、車両1が案内位置の1000m前に到達したとき、600m前に到達したとき、300m前に到達したとき、および、100m前に到達したときに報知を行う。
案内情報生成部136は、案内情報を生成する際に、報知を行うタイミングを指定する。
1つの案内地点について報知を行う回数は、ユーザUの習熟度によって調整することが望ましい。例えば、報知の回数が多いと、報知の音声を聞き逃しても支障がないため、道順に不案内なユーザUにとっては満足度が高い。これに対し、ユーザUが道順を熟知している場合、報知の回数が多いとユーザUが報知を煩雑に感じ、ナビゲーションに対する満足度が低下することが懸念される。報知を行うタイミング、および、報知の際に提供される情報量についても同様のことがいえる。
ナビゲーション装置120は、ユーザUに適した頻度で報知を行えるように、ユーザモデルを利用する。ユーザモデルは、車両1を操作するユーザUが、ナビゲーション装置120のナビゲーションを必要とする度合いを反映する仮想のモデルである。例えば、道順に不案内なユーザUには、ナビゲーションを必要とする度合いが高いユーザモデルを設定し、道順を熟知しているユーザUにはナビゲーションを必要とする度合いが低いユーザモデルを設定する。ナビゲーション装置120は、ユーザUに報知する報知状態や案内情報の内容を、ユーザモデルに対応して設定すれば、ユーザUの習熟度に適した報知を行うことができ、ユーザUの高い満足度を得ることができる。
本実施形態で、ナビゲーション装置120は、ユーザモデルに対応して案内情報の内容および報知状態を変更する報知調整処理を実行する。案内情報の内容は、具体的には、報知する情報の種類および情報量である。情報量の多寡は、情報の詳しさと言い換えることができる。また、報知状態は、具体的には、報知のタイミングおよび回数である。
報知調整処理では、視覚的に報知される案内情報、および、聴覚的に報知される案内情報のいずれか一方を変更してもよいし、両方を変更してもよい。本実施形態では、音声により聴覚的に報知される案内情報を対象とする例を説明する。
図3は、ユーザモデルと報知内容との設定例を示す図であり、ユーザモデルごとの報知内容を規定するユーザモデル設定データ161の構成例を示す。図3の例では、報知を行うタイミングが、案内地点と車両1との間の距離により規定されている。また、ユーザモデルがナビゲーションを必要とする度合いを、ナビゲーション利用度と表現している。
図3のユーザモデル設定データ161を用いると、3種類のユーザモデルA、B、Cが設定可能である。ユーザモデルAは、道順に不案内であるユーザUなど、ナビゲーション利用度が高いユーザUを想定したモデルである。報知を行うタイミングは、案内地点の1000m前、600m前、300m前、100m前、0mを合わせた5回に決められている。ここで、0mとは案内地点に車両1が到達するタイミングを表す。
ユーザモデルCは、道順に習熟しているユーザUなど、ナビゲーション利用度が低いユーザUを想定したモデルであり、ユーザモデルAよりも報知を行うタイミングが少ない。ユーザモデルBは、ナビゲーション利用度が標準的なユーザUを想定したモデルである。ユーザモデルBは、例えば、デフォルトのユーザモデルとして使用される。
図3に示す報知タイミングは、報知のタイミングと報知の回数の両方を定める情報である。
ユーザモデル設定データ161は、ユーザモデルに対応づけて案内情報の内容を規定する。例えば、ユーザモデルAに対しては案内情報の情報量を多くすること、ユーザモデルCに対して情報量を少なくすること、ユーザモデルBに対しては情報量を標準的な内容にすることが、それぞれ指定される。
図3は一つの設定例に過ぎず、ユーザモデル設定データ161の内容は適宜に変更可能である。例えば、ユーザモデル設定データ161は、ユーザモデルごとに報知回数のみを設定する情報であってもよい。この場合、設定された報知回数に従って報知タイミングが自動的に決定される構成とすればよい。また、ユーザモデル設定データ161とは別の設定データにより、報知回数に対応づけて報知タイミングが予め設定されていてもよい。
また、ユーザモデル設定データ161は、報知タイミングおよび報知回数を含まず、案内情報の内容をユーザモデルごとに設定するデータであってもよい。この場合、報知回数および報知のタイミングは、例えば、全てのユーザモデルに共通する1つのパターンが適用される。
図4は、ユーザモデルに基づき生成される案内情報の例を示している。
ナビゲーション装置120は、報知のタイミング指定する情報と案内情報の内容とが対応づけられたシナリオ形式の案内情報を生成する。この案内情報を、以下では案内シナリオと呼ぶ。本実施形態では、音声により報知される案内情報に関する案内シナリオが生成される。
図4には、ユーザモデルAに対応して案内情報生成部136が生成する案内シナリオ163を符号Aで示す。また、ユーザモデルCに対応して案内情報生成部136が生成する案内シナリオ165を符号Bで示す。
案内シナリオ163、165は、報知タイミングと案内情報の内容とを含み、さらに、案内地点の位置情報を含む。
案内シナリオ163は、報知回数が多く、案内情報の情報量が多い。図4の例では、案内情報はPart.A、B、Cの3つの情報で構成され、Part.Aは車両1の現在位置と案内地点との間の距離を示す情報であり、Part.Cは車両1の操作を指示する情報である。Part.Bは案内地点の目安となるランドマークを知らせる情報である。Part.A、Cは必須の情報といえる。これに対し、Part.Bは補助的な情報である。案内シナリオ163は、Part.A、B、Cの全ての情報を含むので、案内地点に関して予備知識や経験の少ないユーザUに適している。
案内シナリオ165は、報知回数が少なく、案内情報に含まれる情報量が少ない。案内シナリオ165は、案内地点に関して詳細な案内を必要としない、ナビゲーション利用度の低いユーザUに適している。
ナビゲーション装置120は、ユーザ特定部135によりユーザUを特定する。ユーザ特定部135は、車両1を操作するユーザUの個人識別を行う。本実施形態では、各々のユーザUに対し、個人を特定可能な識別情報としてユーザIDが付与される。ユーザ特定部135は、ユーザUがナビゲーション装置120を操作する際に、ユーザUを識別してユーザIDを特定する。ユーザUの識別情報は、ユーザIDに限らず、ユーザUの氏名、ニックネーム、或いはその他の情報を用いてもよい。
ナビゲーション装置120では、1人のユーザUに対応づけて1つのユーザモデルが設定されてもよい。例えば、1つのユーザIDに1つのユーザモデルが対応づけて設定されてもよい。また、1人のユーザUに対応づけて複数のユーザモデルが設定されてもよい。例えば、ユーザUが詳しい知識を持っている地域や道路を車両1が走行する場合と、ユーザUが不案内な地域を車両1が走行する場合とで、異なるユーザモデルを適用することが考えられる。
図5は、ユーザモデルデータ167の例を示す図である。ユーザモデルデータ167は、ユーザIDごとにユーザモデルを設定するデータであり、ユーザモデルデータ記憶部144に記憶される。ユーザモデルデータ167は、1つのユーザIDに1つのユーザモデルを対応づけてもよい。また、図5に示すように、1つのユーザIDに複数のユーザモデルを対応づけてもよい。
図5の例では、1つのユーザIDに対して、場所ごとに、ユーザモデルが設定されている。例えば、ユーザID「0001」に対しては、4つの地域のそれぞれに対応するユーザモデルが設定されている。
一般に、自動車の運転者は、走行機会の多い地域では道順に詳しく、走行機会の少ない地域では、道順に不案内である傾向がある。走行機会の多い地域は、例えば、居住地、勤務先、通勤経路等を含む地域である。このため、地域ごとにユーザモデルを設定することで、ユーザUが不案内な地域と、ユーザUが詳しく知っている地域とのそれぞれで、ユーザUに適した報知を行うことができる。図5のユーザモデルデータ167では、ユーザID「0001」に対し、居住地を含む「地域1」および勤務先を含む「地域2」では、ナビゲーション利用度の低いユーザモデルCが対応づけられる。
図6は、ユーザモデルデータ167の適用例を示す説明図である。図6には、地図上に、ユーザUの居住地である地点H1、ユーザUの勤務先である地点H2を示す。図において、経路PはユーザUの通勤経路を示す。地域C1、C2、C3は行政区分を示しており、市、町、村、郡、県等に相当する。
ユーザモデルデータ167においてユーザモデルに対応づけられる地域は、地域C1、C2、C3を単位としてもよい。また、地点H1、H2、経路P1を含む特定地域A1、A2、A3に、ユーザモデルを対応づけることもできる。特定地域A1、A2は、それぞれ地点H1、H2を中心とする半径1km以内の範囲である。特定地域A3は、経路Pから200m以内の範囲である。これらの距離は勿論一例に過ぎない。
特定地域A1、A2、A3は、ユーザUが道順等を詳しく知っている可能性の高い地域であるから、ユーザUが道順に詳しいと想定される。これに対し、地点H1、H2および経路Pから離れた地域C3は、ユーザUが不案内な地域と考えられる。このような地域ごとの差に対応して、ユーザモデルデータ167にユーザモデルを対応づけることで、ユーザUの習熟度や適性に合ったナビゲーションを行える。
ユーザモデルデータ167は、ナビゲーション装置120とは異なる装置により生成されて、ユーザモデルデータ記憶部144に記憶されてもよいが、ナビゲーション装置120が生成してもよい。この場合、ナビゲーション装置120は、ユーザUの操作によって自宅位置や勤務先位置として登録された位置情報に基づき、地点H1、H2の位置情報を取得できる。ナビゲーション装置120は、車両1が走行する頻度が高い経路を検索する処理や、車両1の移動の履歴を記録する処理により、経路Pの情報を取得できる。また、ユーザUがナビゲーション装置120を操作して登録した経路を、経路Pとしてもよい。また、地域C1、C2、C3の範囲および境界位置は、地図DB141に記憶されたデータから特定可能である。従って、地域C1、C2は、地点H1、H2の位置情報と地図DB141のデータに基づき、ナビゲーション装置120が判定できる。
ナビゲーション装置120は、ユーザIDごと、および、地域ごとに設定されたユーザモデルに基づき案内シナリオを生成する。ここで、ユーザモデルデータ167は、ユーザIDごと、および、時間帯ごとにユーザモデルを設定してもよい。具体的には、昼間と夜間のそれぞれにユーザモデルを設定してもよく、通勤・通学時間帯と、それ以外の時間帯とに分けてユーザモデルを設定してもよい。また、ユーザモデルデータ167は、天候や、積雪などの道路状況の分類ごとにユーザモデルを設定してもよい。
案内情報生成部136は、車両1の経路、ユーザモデル設定データ161、および、ユーザモデルデータ167に基づき、案内シナリオを生成する。
報知部137は、ディスプレイ101およびスピーカ115による報知を実行する。報知部137は、案内情報をディスプレイ101に出力する場合、案内情報生成部136が生成する表示データに基づいて、表示制御部134に制御を実行させ、ディスプレイ101にナビゲーション画面を表示させる。
また、報知部137は、案内シナリオに従って、音声による案内情報の報知を行う。報知部137は、案内シナリオの音声を発音するための音声データを生成し、音声処理回路151に出力する。これにより、案内シナリオの通りに、スピーカ115から音声が出力される。
報知制御部138は、報知部137が音声データを音声処理回路151に出力するタイミングを、案内シナリオに従って制御する。詳細には、報知制御部138は、車両1の現在位置の位置情報と、案内シナリオに設定された案内地点の位置情報と、案内シナリオに設定された報知タイミングとをもとに、音声データを出力するタイミングを決定する。報知制御部138は、決定したタイミングで報知部137を動作させる。
報知制御部138は、注視状態検知部131が検知するユーザUの注視状態が、予め設定された特定の注視状態に該当する場合に、報知調整処理を行う。特定の注視状態とは、ユーザUがディスプレイ101を強く注視している状態を指す。
ユーザUの注視状態の具体的な態様として、(1)ユーザUがディスプレイ101を注視する姿勢が設定された時間以上、継続している状態、および、(2)設定された時間内にユーザUがディスプレイ101を注視した回数が閾値に達した状態が挙げられる。ナビゲーション装置120には、(1)の態様を判定する閾値として第1基準時間、および、第2基準時間が設定され、(2)の態様を判定する閾値として第3基準時間および第1閾値が設定されている。
第1基準時間および第2基準時間は時間の長さの閾値であり、第2基準時間は第1基準時間より長い。(1)の態様ではユーザUがディスプレイ101を注視する姿勢の継続時間を判定する。継続時間が第2基準時間以上である場合、報知制御部138は、ディスプレイ101による報知を停止する。また、継続時間が第2基準時間未満で、第1基準時間以上である場合、報知制御部138は案内シナリオを変更する。
(2)の態様では第3基準時間内にユーザUがディスプレイ101を注視した回数を判定する。回数が第1閾値に達した場合、報知制御部138は、ディスプレイ101による報知を停止する。
さらに、報知制御部138は、報知部137が報知を行った後、注視状態検知部131がユーザUのジェスチャ操作を検知した場合に、案内シナリオを変更する。
また、報知制御部138は、報知部137が報知を行った後、ユーザUが、報知された案内情報に対して要求や指示を行った場合に、案内シナリオを変更する。
ユーザモデル生成部139は、ユーザモデルデータ167を生成する。また、ユーザモデル生成部139は、報知制御部138が報知調整処理を実行した場合に、ユーザモデルデータ167を変更する。
[1-3.ナビゲーション装置の動作]
図7、図8および図9は、ナビゲーション装置120の動作を示すフローチャートである。これら各図の動作はナビゲーション装置120の処理部130により実行され、詳細には、ステップS101の処理はユーザ特定部135が実行し、ステップS102-S104、S121-S127、S131の処理は、案内情報生成部136が実行する。ステップS105-S107、S130の処理は報知制御部138が実行する。ステップS108の処理は注視状態検知部131が実行し、ステップS109の処理は操作受付部132が実行し、ステップS110の処理は音声認識部133が実行する。ステップS128の処理は、報知部137および報知制御部138が実行する。
ステップS129の処理は、図9および図10に詳細に示される。ステップS140-S142の処理は、注視状態検知部131および報知制御部138が実行する。ステップS144、S152の処理は、操作受付部132および報知制御部138が実行する。ステップS148、S164、S167、S171の処理は、報知部137および報知制御部138が実行する。ステップS146、S147、S153、S162、S166、S169、S170の処理は案内情報生成部136が実行する。ステップS149、S150の処理は、報知制御部138が実行し、ステップS151の処理はユーザモデル生成部139が実行する。
処理部130は、ナビゲーション装置120を使用するユーザUを特定する(S101)。ステップS101で、処理部130は、カメラ111の撮像画像データに基づき、ナビゲーション装置120を操作するユーザUを特定する。ステップS101で、ユーザUを特定できない場合、処理を停止してもよいし、ユーザUが特定できない状態に対応する仮のユーザIDを付与して処理を進めてもよい。
続いて、処理部130は、ナビゲーションの条件の入力を受け付ける(S102)。ナビゲーションの条件とは、車両1の経路を決定するための条件であり、少なくとも目的地の位置情報を含み、そのほかに、経由地、出発地等の位置情報、有料道路を使用するか否か、狭隘路を回避するか否か等を含んでもよい。
処理部130は、ステップS102で入力された条件に基づき、車両1の経路探索を実行し(S103)、車両1の経路を決定する(S104)。
処理部130は、ユーザモデルデータ記憶部144に記憶されたユーザモデルデータ167を参照し、ステップS101で特定したユーザUに対応するユーザモデルデータ167があるか否かを判定する(S105)。該当するユーザモデルデータ167がある場合(S105;YES)、処理部130は、ユーザモデルデータ167を選択する(S106)。また、該当するユーザモデルデータ167がないか、ユーザモデルが設定されていない場合(S105;NO)、処理部130は、デフォルトのユーザモデルを利用する設定を行う(S107)。
ステップS106またはステップS107の設定後、処理部130は、注視状態検知部131によるユーザUの注視状態の検知を開始し(S108)、操作受付部132によるジェスチャの検知を開始する(S109)。また、処理部130は、音声認識部133による音声の検知および音声認識を開始する(S110)。
処理部130は、ステップS104で決定した経路に従って、車両1のナビゲーションを開始する(S121)。処理部130は、GPS119を利用して車両1の現在位置を特定して位置情報を取得する(S122)。
処理部130は、案内シナリオの作成に使用するユーザモデルを選択する(S123)。ステップS123では、ステップS106で選択されたユーザモデルデータ167に設定されたユーザモデルのうち、ステップS122で特定した位置に対応するユーザモデルが選択される。また、ステップS108でデフォルトのユーザモデルが設定された場合には、ステップS123においてデフォルトのユーザモデルが採用される。
処理部130は、ステップS104で決定した経路における案内地点を探索し(S124)、車両1の現在位置に近い案内地点の有無を判定する(S125)。詳細には、ステップS125では、車両1の進行方向において、車両1の現在位置から所定範囲内に、ステップS127の処理対象となっていない案内地点があるか否かが判定される。
該当する案内地点がないと判定した場合(S125;NO)、処理部130はステップS122に戻る。該当する案内地点があると判定した場合(S125;YES)、処理部130は、ステップS123で選択したユーザモデルに対応する報知回数、報知タイミング、および案内情報の内容を決定する(S126)。ステップS126で、処理部130は、例えば、ユーザモデル設定データ161を参照する。処理部130は、ステップS126で決定した内容に従って、案内シナリオを生成する(S127)。
処理部130は、ステップS127で生成した案内シナリオに従って、報知を実行する(S128)。ステップS128では、案内シナリオで指定された報知タイミングのうち1回の報知を実行する。ステップS128で、処理部130は、車両1の位置が報知タイミングに該当する位置になるまで待機する。
報知を実行した後、処理部130は、ユーザUのディスプレイ101に対する注視状態、ユーザUのジェスチャ操作、および、ユーザUの発話の状態に対応する操作検知処理を実行する(S129)。
操作検知処理の実行後、処理部130は、ステップS127で生成した案内シナリオの報知が完了したか否かを判定する(S130)。例えば、案内シナリオで複数回の報知タイミングが指定されている場合であって、報知が実行されていない報知タイミングがある場合には、処理部130は、報知を完了していないと判定する。報知を完了していない場合(S130;NO)、処理部130はステップS128に戻る。
報知が完了したと判定した場合(S130;YES)、処理部130は、ナビゲーションを終了するか否かを判定する(S131)。処理部130は、ユーザUの操作によりナビゲーションの終了が指示された場合、車両1が目的地に到着した場合、ナビゲーション装置120の電源がシャットダウンされる場合等に、ナビゲーションを終了する(S131;YES)。ナビゲーションを終了しない場合(S131;NO)、処理部130はステップS122に戻る。
ステップS129の操作検知処理の詳細を図9に示す。操作検知処理において、ステップS142、S152-S153、S156、S146-S151は、報知調整処理に該当する。
操作検知処理において、処理部130は、注視状態検知部131の検知結果に基づき、ユーザUがディスプレイ101を注視した姿勢の継続時間が、第1基準時間以上か否かを判定する(S140)。継続時間が第1基準時間未満である場合(S140;NO)、処理部130は、ユーザUが第3基準時間内にディスプレイ101を注視した注視回数が第1閾値以上であるか否かを判定する(S141)。ここで、注視回数が第1閾値以上の場合(S141;YES)、処理部130は、ディスプレイ101による案内情報の報知を停止し、スピーカ115のみによる報知を行う状態への切替を実行し(S142)、後述するステップS149に移行する。ステップS142では、ディスプレイ101に表示中のナビゲーション画面の表示を停止する処理や、ディスプレイ101が表示する画面の中で案内情報に該当する画像や文字を消す等の処理が行われる。また、注視回数が第1閾値未満の場合(S141;NO)、処理部130はステップS130(図8)に移行する。
ユーザUがディスプレイ101を注視した姿勢の継続時間が、第1基準時間以上である場合(S140;YES)、処理部130は、継続時間が第2基準時間以上であるか否かを判定する(S143)。継続時間が第2基準時間以上である場合(S143;YES)、処理部130は、ステップS142の動作を実行する。
また、継続時間が第2基準時間未満の場合(S143;NO)、処理部130は、操作受付部132より、設定されたジェスチャ操作が検知されたか否かを判定する(S144)。本実施形態の操作受付部132は、報知に対して否定的なジェスチャを検知する。具体的には、ユーザUが報知の中断や停止を望んでいる場合に自然に行う動作や、報知が不要であることの意思表示としてユーザUが行う動作であり、例えば、ユーザUが手を振り払う動作や、ディスプレイ101に掌を向ける動作が挙げられる。
ジェスチャ操作が検知されていない場合(S144;NO)、処理部130は、マイク113により集音された音声から、ユーザUの指示の発話を認識したか否かを判定する(S145)。ステップS145では、スピーカ115から案内情報の音声が報知された後のユーザUの発話を判定するが、案内情報を報知中にマイク113により集音された音声を対象としてもよい。
指示の音声を認識していないと判定した場合(S145;NO)、処理部130は、ステップS127で生成された案内シナリオを変更する(S146)。ステップS146で、処理部130は、報知回数および/または報知タイミングが、ナビゲーション利用度の高いユーザモデルに対応する値となるように、案内シナリオを変更する。例えば、処理部130は、案内シナリオに含まれる報知タイミングの数を増大させる。処理部130は、ステップS146の変更を反映するように案内シナリオを再生成し(S147)、再生成した案内シナリオに従って報知を実行する(S148)。
報知を実行した後、処理部130は、履歴情報を生成する(S149)。履歴情報は、報知調整処理を実行した履歴に関する情報であり、少なくとも、変更された案内シナリオ、案内シナリオに含まれる案内地点、および、報知調整処理の要因となった事象を示す情報を含む。要因となった事象を示す情報とは、ステップS140、S142、S143の判定結果等である。また、ステップS144、S145の判定結果に関する情報を含んでもよい。また、後述するステップS154の判定結果や、音声認識部133により認識した発話内容に関する情報を含んでもよい。
処理部130は、ステップS149で生成した履歴情報を、ユーザUのユーザIDに対応づけて履歴記憶部145に記憶させる(S150)。さらに、処理部130は、履歴記憶部145に記憶された履歴情報に基づいて、ユーザモデルデータ167を生成または更新し(S151)、ステップS130に移行する。
処理部130は、ジェスチャを検知した場合(S144;YES)、ステップS127で生成された案内シナリオを変更する(S152)。ステップS152で、処理部130は、報知回数および/または報知タイミングが、ナビゲーション利用度の低いユーザモデルに対応する値となるように、案内シナリオを変更する。例えば、処理部130は、案内シナリオに含まれる報知タイミングの数を減少させる。処理部130は、ステップS152の変更を反映するように案内シナリオを再生成し(S153)、ステップS149に移行する。
また、処理部130は、ユーザUの発話を認識した場合(S145;YES)、認識した発話が、報知調整処理の対象となる発話か否かを判定する(S154)。報知調整処理の対象となる発話は、報知回数、タイミング、案内情報の内容、またはその他の報知に関する指示である。
ユーザUの発話が、報知調整処理の対象となる発話でないと判定した場合(S154;NO)、処理部130は、発話された指示に対応する処理を実行し(S155)、ステップS149に移行する。
ユーザUの発話が、報知調整処理の対象となる発話であると判定した場合(S154;YES)、処理部130は、ユーザUの発話に対する報知調整処理である、音声対応調整処理を実行し(S156)、実行後にステップS149に移行する。
図10は、音声対応調整処理を詳細に示すフローチャートである。
処理部130は、ユーザUの発話が、報知に対し否定的な内容の発話であるか否かを判定する(S161)。報知に対し否定的な内容の発話とは、例えば、「もういいよ」、「案内やめて」等、報知の拒否または報知が不要であることを示す発話が挙げられる。また、発話が認識されたタイミングが案内情報の音声と重なる場合に、報知に対し否定的な内容の発話として判定してもよい。報知に対し否定的な内容の発話であると判定した場合(S161;YES)、処理部130は、ステップS127で生成された案内シナリオを、報知回数および/または報知タイミングが減少するよう変更する。ステップS152の後、処理部130はステップS149に移行する。
報知に対し否定的な内容の発話でないと判定した場合(S161;NO)、処理部130は、案内情報の再度の報知を求める発話であるか否かを判定する(S163)。案内情報の再度の報知を求める発話であると判定した場合(S163;YES)、処理部130は、案内シナリオを参照し、ステップS128で報知した案内情報を再び報知し(S164)、ステップS149に移行する。
案内情報の再度の報知を求める発話でないと判定した場合(S163;NO)、処理部130は、ステップS128で報知した案内情報の内容に関する発話であるか否かを判定する(S165)。具体的には、ステップS128で、交差点で車両1を右折させる内容の音声を出力した場合に、ユーザUが「交差点のランドマークを教えて」と発話する例が挙げられる。案内情報の内容に関する発話であると判定した場合(S165;YES)、処理部130は、ステップS127で生成された案内シナリオを、案内情報の内容を増加させるように変更する(ステップS166)。処理部130は、変更した案内シナリオに従って報知を実行し(S167)、ステップS149に移行する。
案内情報の内容に関する発話でないと判定した場合(S165;NO)、処理部130は、ステップS128で報知した案内情報に関連する情報を要求する発話であるか否かを判定する(S168)。例えば、ステップS128で、高速道路のインターチェンジを案内する音声を出力した場合に、ユーザUが、インターチェンジの前にガソリンスタンドがあるかどうか質問する例が挙げられる。案内情報に関連する情報の要求であると判定した場合(S168;YES)、処理部130は、地図DB141および経路DB142において、要求された情報を探索する(S169)。処理部130は、ステップS127で生成された案内シナリオに、ステップS169で探索した情報を追加して、案内シナリオを更新する(S170)。処理部130は、更新した案内シナリオに従って報知を実行し(S171)、ステップS149に移行する。
また、案内情報に関連する情報を要求する発話でないと判定した場合(S168;NO)、処理部130は、図10の動作を終了して、ステップS149に移行する。
[2.第2実施形態]
図11は、本発明を適用した第2実施形態のデータ管理システム200の構成を示す概略平面図である。
データ管理システム200は、ナビゲーションシステム100と、サーバー装置201とを通信可能に接続して構成される。
データ管理システム200は、ユーザモデルデータ記憶部144に相当するユーザモデルデータ記憶部211、および、履歴記憶部145に相当する履歴記憶部212を、サーバー装置201が備えている。ユーザモデルデータ記憶部211は、ナビゲーション装置120が生成または更新するユーザモデルデータ167を、ユーザモデルデータ記憶部211に記憶する。また、履歴記憶部212は、ナビゲーション装置120が生成する履歴情報を記憶する。
ナビゲーション装置120は、ステップS149で履歴情報を生成した場合に、通信部153によって履歴情報をサーバー装置201に送信する。また、ナビゲーション装置120は、ステップS151でユーザモデルデータ167を生成または更新した場合に、ユーザモデルデータ167を通信部153によってサーバー装置201に送信する。
データ管理システム200では、ナビゲーション装置120により生成または更新されたユーザモデルデータ167をサーバー装置201が記憶する。このため、ユーザIDに対応するユーザモデルデータ167を、複数のナビゲーション装置120において共通して利用できる。
例えば、ナビゲーション装置120が、図7-図10に示す動作を実行する際に、ステップS105で、データ管理システム200から、ユーザIDに対応するユーザモデルデータ167をダウンロードする構成が考えられる。この構成では、複数のナビゲーションシステム100で、最新のユーザモデルデータ167を共通して利用できる。
このため、ユーザUが車両1を含む各種の移動体を操作する際に、この移動体に設置されるナビゲーション装置120が、サーバー装置201が記憶する最新のユーザモデルデータ167に従って、ナビゲーション動作を実行できる。従って、ユーザUがどの移動体を操作するときも、ユーザUに適した報知を行うことができ、ユーザUの満足度をより一層高めることができる。
サーバー装置201は、履歴記憶部212に記憶される履歴情報に基づいて、ユーザモデルデータ167を更新する機能を備えてもよい。すなわち、図9のステップS151の処理を、サーバー装置201が実行してもよい。
また、サーバー装置201が、様々な移動体を操作する多数のユーザUに対応する履歴情報を収集できる場合、複数のユーザUに共通する傾向を分析できる。例えば、履歴情報に含まれる案内地点の情報に基づき、案内地点毎に、複数のユーザUに共通する発話の傾向を分析できる。これにより、案内地点に関する複数のユーザUの傾向に対応して、ユーザモデルデータ167を更新することで、この案内地点を通行したことのないユーザUに対し、適切な報知を行うことができる。
[3.他の実施形態]
なお、本発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記各実施形態では、音声による報知を対象として報知調整処理を実行する例に挙げて説明したが、本発明はこれに限定されない。例えば、案内情報をディスプレイ101に表示する場合の報知回数、報知タイミング、および案内情報の内容を対象として、報知調整処理を実行してもよい。また、案内情報の内容を、表示および音声出力の両方によって実行する構成としてもよい。すなわち、案内シナリオに含まれる案内情報のテキストを、案内情報の音声出力と同じタイミングでディスプレイ101に表示してもよい。この場合、処理部130は、案内シナリオを変更した場合には、変更後の案内シナリオに従って表示と音声出力の両方を行えばよい。
また、ナビゲーション装置120は、ディスプレイ101に代えて、或いはディスプレイ101に加えて、HUD(Head Up Display)による表示を行う構成としてもよい。この場合、ナビゲーション装置120は、案内情報の内容に対応する文字や画像をHUDに表示し、報知を行ってもよい。
また、ユーザ特定部135は、ユーザIDの入力を操作受付部132によって受け付けることにより、ユーザUを特定する例を示したが、本発明はこれに限定されない。例えば、マイク113により集音したユーザUの音声のデータを対象として、声紋分析や、音声特徴量の解析を行うことにより、ユーザUの声をもとにユーザUを特定してもよい。
また、操作受付部132が検知するジェスチャの種類や数に制限はなく、例えば、ユーザUの手のほか、ユーザUが首を傾げる動作やユーザUが上半身を動かす動作を、ジェスチャとして検知してもよい。また、操作受付部132は、報知に対して否定的なジェスチャに限らず、例えば、報知の再実行を要求するジェスチャを検知してもよい。
また、複数種類のジェスチャを操作受付部132が検知可能である場合に、ジェスチャの形態とジェスチャにより指示できる内容とを説明する画面を、ディスプレイ101の表示やスピーカ115から出力される音声によって、ユーザUに案内してもよい。
また、上記各実施形態で説明した案内シナリオには、より多くの情報を含ませることが可能である。例えば、案内情報の内容として、Part.A、B、C以外に、車両1の操作に特に注意を要する場所であることを示す情報などを付加してもよい。また、人間の声を模した音声によって報知を行う場合に、報知音声の声調、音量、情報を読み上げる速さ等の情報を案内シナリオに含めてもよく、これらの情報がユーザモデルに合わせて設定されてもよい。
また、上記各実施形態で示したユーザUの発話の例は、あくまで一例である。報知に対し否定的な内容の発話、案内情報の再度の報知を求める発話、案内情報の内容に関する発話、案内情報に関連する情報を要求する発話の各分類に該当する具体的な発話内容は、任意に設定可能である。また、ユーザUの発話を、上述した分類以外の発話であると判定して、ユーザモデルデータ167を更新してもよい。
さらに、上記各実施形態において、車両1の位置の軌跡をもとにユーザモデルデータ167を更新する構成としてもよい。例えば、処理部130は、車両1が経路から逸脱したことを検知した場合に、逸脱が発生した案内地点を特定し、特定した案内地点におけるユーザモデルを、よりナビゲーション利用度が高いユーザモデルに変更してもよい。
カメラ111は、ナビゲーション装置120とは別体として構成されるものに限定されず、ナビゲーション装置120に一体に設けられた構成であってもよい。
マイク113およびスピーカ115は、車両1に固定的に設置されるマイク113およびスピーカ115に限定されず、ユーザUの身体に装着されるヘッドセットを利用する構成であってもよい。また、マイク113およびスピーカ115は、ナビゲーション装置120に一体に設けられてもよい。
本発明の適用対象は、車両1に固定的に設置されるナビゲーション装置120に限定されない。例えば、ナビゲーション装置120は、車両1から取り外して持ち運ぶことが可能な、いわゆるポータブルナビゲーション装置であってもよい。また、スマートフォンやパーソナルコンピュータ等の汎用コンピュータを、車室10に設置して、ナビゲーション装置120として機能させてもよい。
また、上記各実施形態では、ナビゲーション装置120を搭載する移動体の具体的な態様は任意である。少なくとも1人のユーザUが搭乗し、移動体の操縦に関与する移動体であれば、本発明を適用可能である。
[4.まとめ]
以上説明したように、実施形態のナビゲーション装置120は、移動体である車両1の操作に関する案内情報をディスプレイ101およびスピーカ115によって報知させる報知部137と、カメラ111と、を備える。ナビゲーション装置120は、カメラ111の撮像画像をもとに、車両1の搭乗者であるユーザUがディスプレイ101を注視する注視状態を検知する注視状態検知部131と、ディスプレイ101によって案内情報が報知された際に注視状態検知部131により検知された注視状態に基づき、案内情報の内容または報知状態を変更する報知調整処理を行う報知制御部138と、を備える。
また、ナビゲーション装置120は、車両1の操作に関する案内情報をディスプレイ101およびスピーカ115によって報知する報知制御方法を実行する。この報知制御方法は、ユーザUを撮像した撮像画像をもとに、ユーザUがディスプレイ101を注視する注視状態を検知する注視状態検知ステップと、ディスプレイ101によって案内情報が報知された際に、注視状態検知ステップで検知された注視状態に基づき、案内情報の内容または報知状態を変更する報知調整処理を行う報知制御ステップと、を含む。注視状態検知部131の動作は注視状態検知ステップの一例に対応し、報知制御部138の動作は報知制御ステップの一例に対応する。
ナビゲーション装置120、および、ナビゲーション装置120が実行する報知制御方法によれば、車両1の操作に関する案内情報を報知する場合に、ユーザが案内情報に注目する状態に対応して、案内情報の内容や報知状態を調整できる。これにより、ユーザUがタッチセンサ103等の操作をしなくても、案内情報の内容や報知状態をユーザUに合わせることができる。従って、ユーザUの承認欲求を満たし、ユーザUの満足度を向上させることができる。
報知制御部138により報知調整処理において変更される報知状態は、報知部137により案内情報を報知する回数、および、報知部137によって案内情報を報知するタイミングのうち少なくともいずれかを含む。
これにより、ユーザUに報知する回数や報知タイミングを、ユーザUに合わせて適切に調整できる。
報知制御部138は、ディスプレイ101によって案内情報が報知された後、ユーザUが継続してディスプレイ101を注視した時間が第1基準時間以上の場合に、報知調整処理を実行する。
これにより、ユーザUがディスプレイ101を注視する状態が継続したことに対応して、報知調整処理を行う。従って、ユーザU自身が意図しない姿勢や状態をもとに、報知の態様をユーザUに合わせて調整できる。
報知制御部138は、ディスプレイ101によって案内情報が報知された後、ユーザUが継続してディスプレイ101を注視した時間が第2基準時間以上の場合、または、第3基準時間内にユーザUがディスプレイ101を注視した回数が第1閾値に達した場合に、報知部137によりディスプレイ101による報知を停止してスピーカ115による音声の報知を実行させる。
これにより、ユーザUの注意力や視線が強くディスプレイ101に集中していると思われる状態に対応して、ディスプレイ101への注視を逸らすことができる。このため、ユーザUが意図せずにディスプレイ101を強く注視している状態になっても、車両1の操作に支障を生じないように対処できる。また、スピーカ115による報知を行うので、案内情報をユーザUに伝達でき、ユーザUによる車両1の操作を適切に補助できる。
ナビゲーション装置120は、カメラ111の撮像画像をもとにユーザUによる操作を検知する操作受付部132を備える。報知制御部138は、ディスプレイ101によって案内情報が報知された後、注視状態検知部131によって特定の注視状態が検知され、かつ、操作受付部132によって特定の操作が検知された場合に、報知調整処理において特定の操作に対応して案内情報の内容または報知状態を変更する。
これにより、ユーザUがディスプレイ101を注視する状態と、カメラ111の撮像画像から検知されるユーザUの操作とに対応して、案内情報の内容または報知状態を変更できる。従って、ユーザUに煩雑な操作をさせることなく、よりユーザUに適した案内情報の報知を行うことができる。
ナビゲーション装置120は、ユーザUの音声を検知して、ユーザUの発話内容を認識する音声認識部133を備える。報知制御部138は、ディスプレイ101によって案内情報が報知された後、注視状態検知部131によって特定の注視状態が検知され、かつ、音声認識部133によって特定の発話が認識された場合に、報知調整処理において特定の発話に対応して案内情報の内容または報知状態を変更する。
これにより、ユーザUがディスプレイ101を注視する状態と、ユーザUの発話とに対応して、案内情報の内容または報知状態を変更できる。従って、ユーザUに煩雑な操作をさせることなく、よりユーザUに適した案内情報の報知を行うことができる。
ナビゲーション装置120は、カメラ111の撮像画像をもとに、ユーザUを特定するユーザ特定部135と、ユーザ特定部135により特定されたユーザUに対応する案内情報を生成する案内情報生成部136と、を備える。
これにより、ユーザUに特別な操作を求めることなく、個人に適した案内情報の報知を行うことができる。
ナビゲーション装置120は、ユーザ特定部135と、報知調整処理で変更された案内情報と、報知調整処理を実行する要因となった情報とを、ユーザ特定部135により特定されたユーザUに対応づけて記憶する履歴記憶部145と、を備える。
これにより、ユーザUの注視状態に対応して実行した処理の履歴を、ユーザUに対応づけて履歴記憶部145に記憶する。このため、履歴情報を利用して、過去にユーザUに対して行った処理を反映した報知を行うことができる。
1…車両(移動体)、100…ナビゲーションシステム、101…ディスプレイ(表示部)、103…タッチセンサ、111…カメラ(撮像部)、113…マイク、115…スピーカ(音出力部)、117…車速センサ、119…GPS、120…ナビゲーション装置(報知制御装置)、130…処理部、131…注視状態検知部、132…操作受付部(操作検知部)、133…音声認識部、134…表示制御部、135…ユーザ特定部(搭乗者特定部)、136…案内情報生成部、137…報知部、138…報知制御部、139…ユーザモデル生成部、140…記憶部、141…地図DB、142…経路DB、143…音声認識DB、144…ユーザモデルデータ記憶部、145…履歴記憶部、151…音声処理回路、153…通信部、161…ユーザモデル設定データ、163、165…案内シナリオ、167…ユーザモデルデータ、200…データ管理システム、201…サーバー装置、211…ユーザモデルデータ記憶部、212…履歴記憶部。

Claims (9)

  1. 移動体の操作に関する案内情報を表示部および音出力部によって報知させる報知部と、
    撮像部と、
    前記撮像部の撮像画像をもとに、前記移動体の搭乗者を特定する搭乗者特定部と、
    前記案内情報を報知する回数、および、前記報知部によって前記案内情報を報知するタイミングのうち少なくともいずれかを定めるユーザモデルを、前記搭乗者および地域に対応付けて記憶するユーザモデル記憶部と、
    前記移動体の位置を特定し、前記搭乗者特定部により特定された前記搭乗者および前記移動体の位置が属する地域に対応する前記ユーザモデルを選択し、選択した前記ユーザモデルに従って、前記案内情報を報知する回数およびタイミングのうち少なくともいずれかと前記案内情報とを含むシナリオを作成する処理部と、
    前記シナリオに従って前記報知部を動作させる報知制御部と、
    前記撮像部の撮像画像をもとに、前記乗者が前記表示部を注視する注視状態を検知する注視状態検知部と、を備え、
    前記報知制御部は、前記表示部によって前記案内情報が報知された際に前記注視状態検知部により検知された注視状態に基づき、前記シナリオに含まれる前記案内情報の内容または報知状態を変更する報知調整処理を行う
    とを特徴とする報知制御装置。
  2. 記報知調整処理の履歴に基づいて前記ユーザモデルを変更すること、
    を特徴とする請求項1記載の報知制御装置。
  3. 前記報知制御部は、前記表示部によって前記案内情報が報知された後、前記搭乗者が継続して前記表示部を注視した時間が第1基準時間以上の場合に、前記報知調整処理を実行すること、
    を特徴とする請求項1または2に記載の報知制御装置。
  4. 前記報知制御部は、前記表示部によって前記案内情報が報知された後、前記搭乗者が継続して前記表示部を注視した時間が第2基準時間以上の場合、または、第3基準時間内に前記搭乗者が前記表示部を注視した回数が第1閾値に達した場合に、前記報知部により前記表示部による報知を停止して前記音出力部による音声の報知を実行させること、
    を特徴とする請求項1から3のいずれか1項に記載の報知制御装置。
  5. 前記撮像部の撮像画像をもとに前記搭乗者による操作を検知する操作検知部を備え、
    前記報知制御部は、前記表示部によって前記案内情報が報知された後、前記注視状態検知部によって特定の注視状態が検知され、かつ、前記操作検知部によって特定の操作が検知された場合に、前記報知調整処理において前記特定の操作に対応して前記案内情報の内容または報知状態を変更すること、
    を特徴とする請求項1から4のいずれか1項に記載の報知制御装置。
  6. 前記搭乗者の音声を検知して、前記搭乗者の発話内容を認識する音声認識部を備え、
    前記報知制御部は、前記表示部によって前記案内情報が報知された後、前記注視状態検知部によって特定の注視状態が検知され、かつ、前記音声認識部によって特定の発話が認識された場合に、前記報知調整処理において前記特定の発話に対応して前記案内情報の内容または報知状態を変更すること、
    を特徴とする請求項1から5のいずれか1項に記載の報知制御装置。
  7. 記搭乗者特定部により特定された前記搭乗者に対応する前記案内情報を生成する案内情報生成部備えること、
    を特徴とする請求項1から6のいずれか1項に記載の報知制御装置。
  8. 記報知調整処理で変更された前記案内情報と、前記報知調整処理を実行する要因となった情報とを、前記搭乗者特定部により特定された前記搭乗者に対応づけて記憶する履歴記憶部備えること、
    を特徴とする請求項5または6記載の報知制御装置。
  9. 移動体の操作に関する案内情報を表示部および音出力部によって報知する報知制御方法であって、
    コンピュータにより、
    前記移動体の搭乗者を撮像した撮像画像をもとに、前記搭乗者を特定する搭乗者特定ステップと、
    前記案内情報を報知する回数、および、前記案内情報を報知するタイミングのうち少なくともいずれかを定めるユーザモデルを、前記搭乗者および地域に対応付けてユーザモデル記憶部に記憶するステップと、
    前記移動体の位置を特定し、前記搭乗者特定ステップで特定された前記搭乗者および前記移動体の位置が属する地域に対応する前記ユーザモデルを選択し、選択した前記ユーザモデルに従って、前記案内情報を報知する回数およびタイミングのうち少なくともいずれかと前記案内情報とを含むシナリオを作成するステップと、
    前記撮像画像をもとに、前記搭乗者が前記表示部を注視する注視状態を検知する注視状態検知ステップと、
    前記シナリオに従って前記案内情報を表示部および音出力部によって報知させるステップと、
    前記表示部によって前記案内情報が報知された際に、前記注視状態検知ステップで検知された注視状態に基づき、前記シナリオに含まれる前記案内情報の内容または報知状態を変更する報知調整処理を行う報知制御ステップと、
    を含む動作を実行することを特徴とする報知制御方法。
JP2019049670A 2019-03-18 2019-03-18 報知制御装置、および、報知制御方法 Active JP7280072B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019049670A JP7280072B2 (ja) 2019-03-18 2019-03-18 報知制御装置、および、報知制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019049670A JP7280072B2 (ja) 2019-03-18 2019-03-18 報知制御装置、および、報知制御方法

Publications (2)

Publication Number Publication Date
JP2020153679A JP2020153679A (ja) 2020-09-24
JP7280072B2 true JP7280072B2 (ja) 2023-05-23

Family

ID=72558544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019049670A Active JP7280072B2 (ja) 2019-03-18 2019-03-18 報知制御装置、および、報知制御方法

Country Status (1)

Country Link
JP (1) JP7280072B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003512244A (ja) 1999-10-22 2003-04-02 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 車両情報の表示装置
JP2008186281A (ja) 2007-01-30 2008-08-14 Toyota Motor Corp 車両用警報表示装置
JP2014181927A (ja) 2013-03-18 2014-09-29 Aisin Aw Co Ltd 情報提供装置、及び情報提供プログラム
JP2016126791A (ja) 2014-12-30 2016-07-11 ビステオン グローバル テクノロジーズ インコーポレイテッド 感覚フィードバックを備えた追跡のシステム及び方法
JP2018088118A (ja) 2016-11-29 2018-06-07 パイオニア株式会社 表示制御装置、制御方法、プログラム及び記憶媒体
WO2018189990A1 (ja) 2017-04-11 2018-10-18 株式会社デンソー 車両用報知装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003512244A (ja) 1999-10-22 2003-04-02 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 車両情報の表示装置
JP2008186281A (ja) 2007-01-30 2008-08-14 Toyota Motor Corp 車両用警報表示装置
JP2014181927A (ja) 2013-03-18 2014-09-29 Aisin Aw Co Ltd 情報提供装置、及び情報提供プログラム
JP2016126791A (ja) 2014-12-30 2016-07-11 ビステオン グローバル テクノロジーズ インコーポレイテッド 感覚フィードバックを備えた追跡のシステム及び方法
JP2018088118A (ja) 2016-11-29 2018-06-07 パイオニア株式会社 表示制御装置、制御方法、プログラム及び記憶媒体
WO2018189990A1 (ja) 2017-04-11 2018-10-18 株式会社デンソー 車両用報知装置

Also Published As

Publication number Publication date
JP2020153679A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US11685390B2 (en) Assistance method and assistance system and assistance device using assistance method that execute processing relating to a behavior model
JP6693354B2 (ja) 車両用情報提示装置
US20200216086A1 (en) Methods and systems for increasing autonomous vehicle safety and flexibility using voice interaction
US10949886B2 (en) System and method for providing content to a user based on a predicted route identified from audio or images
US20200309548A1 (en) Control apparatus, control method, and non-transitory computer-readable storage medium storing program
JP4973722B2 (ja) 音声認識装置、音声認識方法、及びナビゲーション装置
US10994612B2 (en) Agent system, agent control method, and storage medium
JP4973331B2 (ja) 情報提供装置
WO2018189990A1 (ja) 車両用報知装置
JP2008241309A (ja) 車両用サービス提示装置
US10901503B2 (en) Agent apparatus, agent control method, and storage medium
JP4524333B2 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体
JP2007145095A (ja) 走行制御装置、走行制御方法、走行制御プログラムおよび記録媒体
CN110920628A (zh) 车辆和车辆系统
JP4421667B2 (ja) 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体
JP2019061480A (ja) 運転者支援装置及び運転者支援方法
JP2008309966A (ja) 音声入力処理装置および音声入力処理方法
JP7280072B2 (ja) 報知制御装置、および、報知制御方法
JP2018059721A (ja) 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体
JP2014218124A (ja) 操作支援装置及び操作支援方法
JP4900197B2 (ja) 経路導出装置、車両制御装置、及びナビゲーション装置
JP2009098217A (ja) 音声認識装置、音声認識装置を備えたナビゲーション装置、音声認識方法、音声認識プログラム、および記録媒体
JP2020153678A (ja) 報知制御装置、および、報知制御方法
JP2020106997A (ja) 車載装置、通信システム
WO2020065892A1 (ja) 車両の走行制御方法及び走行制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150