JP2012112853A - 情報処理装置、車載用ナビゲーション装置、及び、情報処理方法 - Google Patents
情報処理装置、車載用ナビゲーション装置、及び、情報処理方法 Download PDFInfo
- Publication number
- JP2012112853A JP2012112853A JP2010263143A JP2010263143A JP2012112853A JP 2012112853 A JP2012112853 A JP 2012112853A JP 2010263143 A JP2010263143 A JP 2010263143A JP 2010263143 A JP2010263143 A JP 2010263143A JP 2012112853 A JP2012112853 A JP 2012112853A
- Authority
- JP
- Japan
- Prior art keywords
- information
- vehicle
- point
- user
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】ユーザの感情状態を正確に相手へ伝達する技術を提供する。
【解決手段】車両に備えられた複数の種類のセンサにより検出されたユーザの生体情報の検出結果が所定の条件を満足した時点における車両の地点の位置情報と、当該地点で検出された生体情報とを車両のナビゲーション装置からセンターへ送信する。センターに送信された位置情報及び生体情報に基づいて、ユーザの感情状態を導出する。そして、導出された感情状態を生体情報が検出された地点と対応付け、当該地点に対応付けられた感情状態のうちで最も多い感情状態を代表状態として車両に送信する。これにより、地点ごとのユーザの感情状態の情報を車両に提供できる。
【選択図】図2
【解決手段】車両に備えられた複数の種類のセンサにより検出されたユーザの生体情報の検出結果が所定の条件を満足した時点における車両の地点の位置情報と、当該地点で検出された生体情報とを車両のナビゲーション装置からセンターへ送信する。センターに送信された位置情報及び生体情報に基づいて、ユーザの感情状態を導出する。そして、導出された感情状態を生体情報が検出された地点と対応付け、当該地点に対応付けられた感情状態のうちで最も多い感情状態を代表状態として車両に送信する。これにより、地点ごとのユーザの感情状態の情報を車両に提供できる。
【選択図】図2
Description
本発明は、車両から出力された情報を処理する技術に関する。
従来、ユーザが車両に乗車して移動する間に車外の周辺の景観などによりユーザの感情に変化が生じることがある。また、車両が目的地に到達した後、車両からユーザが降車して目的地周辺を散策した際に、ユーザの感情に変化が生じることがある。そして、ある地点をユーザが訪れた後に、別の相手にユーザが口頭で訪れた地点の自身の感情状態を伝達する場合がある。さらに、別の相手にユーザがPC及び携帯端末などの少なくとも一の手段で文章、及び、画像により、訪れた地点の自身の感情状態を伝達する場合があった。
そして、ユーザの口頭による伝達情報と、文章及び画像による伝達情報とのうちの少なくとも一つを参照した別の相手が、ユーザが過去に訪れた地点を目的地として訪れる場合があった。なお、本発明と関連する技術を説明する資料としては特許文献1がある。
しかしながら、ユーザが車両に乗車して移動する間の感情の変化、及び、ユーザが車両から降車して目的地周辺を散策した際の感情の変化などの相手への伝達は、感情の変化が生じた地点をユーザが訪れてから時間が経過した後に行われることが多い。そのため、ユーザは訪れた地点の感情状態を自身の記憶をもとに相手に伝達することとなり、地点を訪れた時点のユーザの感情状態を相手へ正確に伝達できない場合があった。
本発明は、地点でのユーザの感情状態を正確に相手へ伝達することを目的とする。
上記課題を解決するため、請求項1の発明は、車両のユーザに関する情報を蓄積する情報処理装置であって、前記車両が備える前記車両のユーザの生体情報を検出する複数の種類のセンサの検出結果が所定の条件を満足した時点における、前記車両の地点を示す位置情報と、前記センサが検出した前記生体情報とを含む車両情報を、複数の車両から取得する取得手段と、前記生体情報に基づいて、前記車両のユーザの感情状態を導出する導出手段と、前記取得手段が取得した前記車両情報に基づいて、複数の地点に、該地点で検出された前記生体情報に基づく前記感情状態を対応付ける対応付け手段と、前記複数の地点ごとに、該地点に対応付けられた感情状態のうちで最も多い感情状態を代表状態として特定する感情特定手段と、前記複数の地点ごとの前記代表状態を示す地点情報を前記車両へ送信する送信手段と、を備える。
また、請求項2の発明は、請求項1に記載の情報処理装置において、対応付けられた前記感情状態のうち前記代表状態の割合が閾値を超える地点を、特別地点として特定する地点特定手段、をさらに備え、前記地点情報は、前記特別地点を示す情報を含む。
また、請求項3の発明は、車両に搭載される車載用ナビゲーション装置であって、請求項1または2に記載の情報処理装置から送信される前記地点情報を受信する受信手段と、地図を表示する表示手段と、前記地点情報に基づいて、前記表示手段に表示された地図上の地点近傍に、該地点に対応付けられた前記代表状態を示す指標を表示させる表示制御手段と、を備える。
また、請求項4の発明は、請求項3に記載の車載用ナビゲーション装置において、目的地までのルートを案内する案内手段と、前記地図上に表示された指標が前記車両のユーザに選択された場合に、前記指標に対応する地点を前記目的地に設定する設定手段と、をさらに備える。
また、請求項5の発明は、請求項3または4に記載の車載用ナビゲーション装置において、前記取得手段は、請求項2に記載の情報処理装置から送信される、前記特別地点を示す情報を含む前記地点情報を取得し、前記表示制御手段は、前記特別地点の前記指標と、前記特別地点以外の地点の前記指標とで表示態様を異ならせる。
さらに、請求項6の発明は、車両のユーザに関する情報を蓄積する情報処理方法であって、(a)前記車両が備える前記車両のユーザの生体情報を検出する複数の種類のセンサの検出結果が所定の条件を満足した時点における、前記車両の地点を示す位置情報と、前記センサが検出した前記生体情報とを含む車両情報を、複数の車両から取得する工程と、(b)前記生体情報に基づいて、前記車両のユーザの感情状態を導出する工程と、(c)前記工程(a)が取得した前記車両情報に基づいて、複数の地点に、該地点で検出された前記生体情報に基づく前記感情状態を対応付ける工程と、(d)前記複数の地点ごとに、該地点に対応付けられた感情状態のうちで最も多い感情状態を代表状態として特定する工程と、(e)前記複数の地点ごとの前記代表状態を示す地点情報を前記車両へ送信する工程と、を備える。
請求項1ないし6の発明によれば、複数の地点ごとの代表状態を示す地点情報を車両へ送信することで、地点ごとのユーザの感情状態の情報を車両に提供できる。
また、特に請求項2の発明によれば、地点情報は、特別地点を示す情報を含むことで、地点で収集された複数の車両のユーザの感情状態の代表状態の割合が所定の閾値を超えた感情状態の情報を車両に提供できる。
また、特に請求項3の発明によれば、地点情報に基づいて、表示手段に表示された地図上の地点近傍に、該地点に対応付けられた代表状態を示す指標を表示させることで、各地点で収集された車両のユーザの感情状態を他のユーザに対して正確に伝達できる。
また、特に請求項4の発明によれば、地図上に表示された指標が車両のユーザに選択された場合に、指標に対応する地点を目的地に設定することで、ユーザの感情状態の情報に基づいて他のユーザが目的地を設定できる。
さらに、特に請求項5の発明によれば、表示制御手段が特別地点の指標と、特別地点以外の地点の指標とで表示態様を異ならせることで、複数の地点で収集された複数の車両のユーザの感情状態の中から代表状態の割合が多い感情状態の情報を他のユーザが直感的に認識できる。
以下では、本発明の実施の形態について図面を参照して説明する。なお、以下の説明では、各データベースを「DB」と略称で示すこともある。
<1.構成>
<1−1.システム概要>
図1は、複数の車両1a、1b、1c(以下、「車両1」ともいう。)と情報処理装置31との間で情報の送受信を行う情報処理システム10を示す図である。情報処理システム10は、各車両1に搭載される車載用ナビゲーション装置(以下、「ナビゲーション装置」ともいう。)11と、サーバ装置である情報処理装置(以下、「センター」ともいう。)31との間で情報の送受信を行う。
<1−1.システム概要>
図1は、複数の車両1a、1b、1c(以下、「車両1」ともいう。)と情報処理装置31との間で情報の送受信を行う情報処理システム10を示す図である。情報処理システム10は、各車両1に搭載される車載用ナビゲーション装置(以下、「ナビゲーション装置」ともいう。)11と、サーバ装置である情報処理装置(以下、「センター」ともいう。)31との間で情報の送受信を行う。
<1−2.システム構成>
図2は、情報処理システム10のブロック図である。図に示すように、情報処理システム10は、相互に情報の送受信を行う車両1とセンター31とを備えている。
図2は、情報処理システム10のブロック図である。図に示すように、情報処理システム10は、相互に情報の送受信を行う車両1とセンター31とを備えている。
車両1は、ナビゲーション装置11、血圧センサ21、脈拍センサ22、マイク23、及び、車内カメラ24を備えている。
ナビゲーション装置11は、GPS(Glpbal Positioning System)情報受信部17が受信した信号により、車両1の現在位置を検出する。また、車両1の現在位置からユーザが設定する目的地までのルート案内を行う。そして、車両1の現在位置、及び、目的地などの情報を表示部14に表示される地図画像上に出力する。
ナビゲーション装置11は、制御部12、データ記録部13、表示部14、音声出力部15、操作部16、GPS情報受信部17、及び、通信部18を主に備えている。
制御部12はナビゲーション装置11の各部からの信号を受信して各種の制御処理を行う。また、制御部12は後述するセンター31から送信される各地点に関する情報を受信して表示部14に表示される地図画像上にユーザの感情状態を示す指標を表示する処理を行う。なお、このユーザの感情状態を示す指標の表示については後に詳述する。
データ記録部13は、例えば、ハードディスクであり、ナビゲーション装置11を制御する各種データを含むデータベースを記録している。データ記録部13には、個人情報DB113、車両ユーザDB123、指標DB133、および、地図DB143が主なデータベースとして記録している。
個人情報DB113は、車両1に備えられた各種センサから取得されるユーザの生体情報の基準値を記録するDBである。車両1は所定タイミングごとに各種センサにより車両1のユーザの生体情報を取得する。そして、各種センサにより取得されたユーザの生体情報と、個人情報DB113に記録された基準値とを比較して所定の条件を満足した場合に、取得したユーザの生体情報と、生体情報を取得した地点の位置情報とを車両ユーザDB123に記録する。
車両ユーザDB123は、ユーザの生体情報と当該生体情報を取得した地点の位置情報とを対応付けて記録するDBである。また、車両ユーザDB123には生体情報が記録されたユーザのユーザIDもあわせて記録されており、各車両のユーザごとの識別が可能である。
ここで、個人情報DB113、及び、車両ユーザDB123に記録されている生体情報の例としては、車両1に備えられた血圧センサ21、脈拍センサ22から取得されるユーザの血圧、脈拍の情報がある。また、別の生体情報の例としてはマイク23により取得される車両1のユーザの発話した音声情報があり、車内カメラ24により撮影される車両1のユーザの顔の画像データがある。
指標DB133は、ナビゲーション装置11の表示部14に表示される指標となる画像情報を記録するDBである。指標の画像情報は生体情報から導出されるユーザの感情状態の情報に対応付けられている。指標と感情状態の情報との関係については後に詳述する。
地図DB143は、表示部14に表示される地図画像を記録するDBである。また、地図DB304には各地点ごとの緯度、及び、経度の情報が記録されている。
表示部14は、ナビゲーション装置11に備えられたディスプレイであり、制御部12の処理により地図DB143に記録されている地図画像、及び、車両1の現在位置を示す画像を表示する。また、表示部14は、指標DB133に記録された指標情報のうちユーザの感情状態を示す指標画像を対応付けられた地図画像上の地点近傍に表示する。なお、表示部14はタッチパネルとしても用いられ、ユーザの指などが表示部14に接触することで制御部12に信号が出力され、ナビゲーション装置11の各種機能の操作が可能となる。
音声出力部15は、制御部12の処理によるルート案内時に行われる音声出力、及び、オーディオ機能による音響情報の出力などを行う。
操作部16はナビゲーション装置11に設けられたハードスイッチ、及び、リモコンなどであり、ユーザの操作により制御部12に信号が出力され、ナビゲーション装置11の各種機能が実行される。
GPS情報受信部17は、GPS衛星からの電波の信号を受信し、受信した信号を制御部12へ出力する。GPSは、地球を周回する多数のGPS衛星のうち少なくとも3つ以上の衛星からの電波に基づいて車両の位置を測位するシステムである。通信部18はナビゲーション装置11とセンター31との双方向の通信を実施する際の信号の送受信を行う。
血圧センサ21は、車両1のユーザの血圧情報を検出して、血圧情報を制御部12に出力する。血圧センサ21は、例えば車両1のステアリングホイールに設けられており、車両1を運転するユーザがステアリングホイールを握っている際の手のひらから所定タイミングごとにユーザの血圧を測定する。
脈拍センサ22は、車両1のユーザの脈拍情報を検出して、脈拍情報を制御部12に出力する。脈拍センサ22は、例えば車両1のステアリングホイールに設けられており、車両1を運転するユーザがステアリングホイールを握っている際の手のひらから所定のタイミングごとにユーザの脈拍が測定される。
マイク23は、車両1のユーザが車室内で発話した音声情報が入力され、車室内で取得した音声情報が制御部12に出力される。
車内カメラ24は、車両1のユーザの顔の画像を撮影し、撮影した画像情報が制御部12に出力される。
センター31は、CPU、RAM、ROM、ハードディスク等を備えた一般的なコンピュータで構成される。また、センター31は、ナビゲーション装置11から通信部18を介して送信される車両1からの各種情報を通信部34を介して受信する。
具体的には、ナビゲーション装置11に備えられた複数の種類のセンサがユーザの生体情報を検出した結果が、所定の条件を満足した時点における車両1の地点情報と、当該地点で検出したユーザの生体情報とをセンター31が通信部34を介して受信する。そして、センター31は、ユーザの生体情報に基づき各地点のユーザの感情状態を導出する。
なお、以下では車両1で検出したユーザの生体情報を複数の種類のセンサが検出した結果が所定の条件を満足した時点における車両1の地点情報と、当該地点で検出したユーザの生体情報とを合わせて車両情報ともいう。
センター31は制御部32、データ記録部33、及び、通信部34を主に備えている。制御部32は、ナビゲーション装置11から受信した車両情報に含まれるユーザの生体情報に基づいて、ユーザの感情状態を導出するなどの各種処理を行う。
データ記録部33は、例えば、ハードディスクであり、感情状態DB301、地点情報DB302、感情マップDB303、及び、地図DB304を主なデータベースとして記録している。
感情状態DB301は、ユーザの生体情報からユーザの感情状態を導出するための情報が記録されたDBであり、所定の条件を満足した生体情報に対応する感情状態の情報が記録されたDBである。なお、生体情報が所定の条件を満足する例については、後に詳述する。
地点情報DB302は、車両情報に含まれるユーザの生体情報に基づいて導出された感情状態と、感情状態を導出する際に用いられた生体情報が検出された地点(車両1で検出したユーザの生体情報を複数の各種センサが検出した結果が所定の条件を満足した時点における車両1の地点)とが対応付けられた情報が記録されたDBである。
感情マップDB303は、地点情報DB302の情報に基づいて、複数の地点ごとに、当該地点に対応づけられた感情状態のうちで情報数が最も多い感情状態を代表状態として記録したDBである。
地図DB304は、生体情報が検出される各地点を含む地図画像を記録したDBである。また、地図DB304には各地点ごとの緯度、及び、経度の情報が記録されている。通信部34はセンター31とナビゲーション装置11との双方向の通信を実施する際の信号の送受信を行う。
<2.データベース>
以下に、ナビゲーション装置11のデータ記録部13、及び、センター31のデータ記録部33が備える各種DBのうち主要なDBについて詳細に述べる。
以下に、ナビゲーション装置11のデータ記録部13、及び、センター31のデータ記録部33が備える各種DBのうち主要なDBについて詳細に述べる。
<2−1.個人情報DB>
図3は、ナビゲーション装置11におけるデータ記録部13の個人情報DB113の一例を示す図である。個人情報DB113は、車両1に備えられた複数の種類のセンサから取得されるユーザの生体情報の基準値が記録されたDBである。図3では車両1aのユーザの個人情報DB113a、車両1bのユーザの個人情報DB113b、及び、車両1cのユーザの個人情報DB113cを一例として示しており、各車両ごとに個人情報DB113が備えられている。
図3は、ナビゲーション装置11におけるデータ記録部13の個人情報DB113の一例を示す図である。個人情報DB113は、車両1に備えられた複数の種類のセンサから取得されるユーザの生体情報の基準値が記録されたDBである。図3では車両1aのユーザの個人情報DB113a、車両1bのユーザの個人情報DB113b、及び、車両1cのユーザの個人情報DB113cを一例として示しており、各車両ごとに個人情報DB113が備えられている。
図3に示す個人情報DB113には、車両1のユーザを識別する情報である「ユーザID」の項目がある。また、他の項目にはユーザの生体情報の基準情報となる「基準生体情報」の各項目として、ユーザの血圧の基準値となる「基準血圧(mmHg)」、ユーザの脈拍の基準値となる「基準脈拍(回/分)」、ユーザが車両1の車室内で発話した音声の周波数の基準値となる「基準発話周波数(Hz)」、及び、ユーザが車両1の車室内で発話した音声の振幅の基準値となる「基準発話振幅(V)」の項目がある。
個人情報DB113のうち、車両1aのユーザの個人情報DB113aには、「ユーザID」123、「基準血圧(mmHg)」の最大値120、最小値70、「基準脈拍(回/分)」70、「基準発話周波数(Hz)」500、及び「基準発話振幅(V)」6の情報が記録されている。
また、車両1bのユーザの個人情報DB113bには、「ユーザID」456、「基準血圧(mmHg)」の最大値100、最小値60、「基準脈拍(回/分)」60、「基準発話周波数(Hz)」550、及び「基準発話振幅(V)」3の情報が記録されている。
さらに、車両1cのユーザの個人情報DB113cには、「ユーザID」789、「基準血圧(mmHg)」の最大値130、最小値70、「基準脈拍(回/分)」80、「基準発話周波数(Hz)」450、及び「基準発話振幅(V)」5の情報が記録されている。
このように個人情報DB113に記録されている情報は、車両1のユーザの感情状態を導出する際に車両1に備えられた複数の種類のセンサにより検出される生体情報が、所定の条件を満足したか否かを判定するための基準となる情報である。
ここで、生体情報が所定の条件を満足する場合とは、車両1に備えられた各種センサから検出された生体情報が個人情報DB113に記録されている基準となる情報と比べて所定の値の差を有する場合をいう。
例えば、以下に述べるいずれか一つの場合に該当すれば、生体情報が所定条件を満たすと判断される。(1)センサから検出された「血圧」が「基準血圧」と比べて±10mmHg以上変化がある場合。(2)センサから検出された「脈拍」が「基準脈拍」と比べて±10回/分以上変化がある場合。(3)センサから検出された発話周波数が「基準発話周波数」と比べて±80Hz以上変化がある場合。(4)センサから検出された発話振幅が「基準発話振幅」と比べて±3V以上変化がある場合。
なお、上記の個人情報DB113では各車両のユーザを一人としたDBを示したが、複数のユーザの情報が記録されていてもよい。
<2−2.車両ユーザDB>
図4は、ナビゲーション装置11におけるデータ記録部13の車両ユーザDB123の一例を示す図である。車両ユーザDB123は、複数の種類のセンサにより検出したユーザの生体情報と、生体情報を取得した地点の位置情報とが記録されている。
<2−2.車両ユーザDB>
図4は、ナビゲーション装置11におけるデータ記録部13の車両ユーザDB123の一例を示す図である。車両ユーザDB123は、複数の種類のセンサにより検出したユーザの生体情報と、生体情報を取得した地点の位置情報とが記録されている。
図4に示す車両ユーザDB123には、車両1に備えられた複数のセンサの検出結果が所定の条件を満足した時点における、車両の地点を示す位置情報である「地点」の項目、及び、車両1のユーザを識別する情報である「ユーザID」の項目がある。
また、他の項目としては複数の種類のセンサの検出による生体情報が所定の条件を満足した時点における車両1の地点でのユーザの「生体情報」がある。さらに、生体情報の各項目として、ユーザの血圧値である「血圧(mmHg)」、ユーザの脈拍値である「脈拍(回/分)」、ユーザが車両1の車室内で発話した音声の周波数である「発話周波数(Hz)」、及び、ユーザが車両1の車室内で発話した音声の振幅である「発話振幅(V)」の項目がある。
車両ユーザDB123のうち、車両1aのユーザの車両ユーザDB123aには、「地点」A、「ユーザID」123、「血圧(mmHg)」の最大値120、最小値70、「脈拍(回/分)」72、「発話周波数(Hz)」600、及び「発話振幅(V)」9の情報が記録されている。
車両ユーザDB123aの生体情報のうち「発話周波数」の値が個人情報DB113aの「基準発話周波数」の値よりも100Hz高い値であり、かつ、車両ユーザDB123a「発話振幅」の値が個人情報DB113aの「基準発話振幅」の値よりも3V高い値である。そのため、地点Aにおいて車両1aの複数の種類のセンサにより検出された車両1aのユーザの生体情報が、所定の条件を満足した車両情報として車両ユーザDB123aに記録されている。
車両1bのユーザの車両ユーザDB123bには、「地点」A、「ユーザID」456、「血圧(mmHg)」の最大値110、最小値60、「脈拍(回/分)」60、「発話周波数(Hz)」650、及び「発話振幅(V)」6の情報が記録されている。
車両ユーザDB123bの生体情報のうち地点Aについては、「血圧」の最大値が個人情報DB113bの「基準血圧」の最大値よりも10mmHg高い値であり、かつ、車両ユーザDB123b「発話振幅」の値が個人情報DB113bの「基準発話振幅」の値よりも3V高い値である。そのため、地点Aにおいて車両1bの複数の種類のセンサにより検出された車両1bのユーザの生体情報が、所定の条件を満足した車両情報として車両ユーザDB123bに記録されている。
また、車両ユーザDB123bには、別の地点の情報として、「地点」B、「ユーザID」456、「血圧(mmHg)」の最大値130、最小値70、「脈拍(回/分)」75、「発話周波数(Hz)」発話なし、及び「発話振幅(V)」発話なしの情報が記録されている。
車両ユーザDB123bの生体情報のうち地点Bについては、「血圧」の最大値が個人情報DB113bの「基準血圧」の最大値よりも30mmHg高い値であり、かつ、「血圧」の最小値が個人情報DB113bの「基準血圧」の最小値よりも10mmHg高い値である。また、車両ユーザDB123bの「脈拍」の値が個人情報DB113bの「基準脈拍」の値よりも15分/回高い値である。そのため、地点Bにおいて車両1bの複数の種類のセンサにより検出された車両1bのユーザの生体情報が、所定の条件を満足した車両情報として車両ユーザDB123bに記録されている。
さらに、車両ユーザDB123cには、「地点」B、「ユーザID」789、「血圧(mmHg)」の最大値150、最小値80、「基準脈拍(回/分)」85、「発話周波数(Hz)」発話なし、及び「発話振幅(V)」発話なしの情報が記録されている。
車両ユーザDB123cの生体情報のうち「血圧」の最大値が個人情報DB113cの「基準血圧」の最大値よりも20mmHg高い値であり、かつ、「血圧」の最小値が個人情報DB113cの「基準血圧」の最小値よりも10mmHg高い値である。そのため、地点Cにおいて車両1cの複数の種類のセンサにより検出された車両1cのユーザの生体情報が、所定の条件を満足した車両情報として車両ユーザDB123cに記録されている。
このように車両ユーザDB123は、車両1の複数の種類のセンサに検出された生体情報が、個人情報DB113の基準生体情報に基づいて、所定の条件を満足した時点における、車両の地点を示す位置情報と、複数の種類のセンサが検出した生体情報とを含む車両情報を記録する。
<2−3.感情状態DB>
図5は、センター31におけるデータ記録部33の感情状態DBの301の一例を示す図である。感情状態DB301は、ユーザの生体情報からユーザの感情状態を導出するための基準情報であり、所定の条件を満足した生体情報に対応する感情状態の情報が記録されたDBである。図5に示す感情状態DB301は、所定の条件を満足した生体情報の要素を示す「ユーザ状態」の項目、及び、所定の条件を満足した生体情報の要素の組み合わせから導出されるユーザの感情状態を示す「感情状態」の項目がある。
図5は、センター31におけるデータ記録部33の感情状態DBの301の一例を示す図である。感情状態DB301は、ユーザの生体情報からユーザの感情状態を導出するための基準情報であり、所定の条件を満足した生体情報に対応する感情状態の情報が記録されたDBである。図5に示す感情状態DB301は、所定の条件を満足した生体情報の要素を示す「ユーザ状態」の項目、及び、所定の条件を満足した生体情報の要素の組み合わせから導出されるユーザの感情状態を示す「感情状態」の項目がある。
例えば、「ユーザ状態」の項目における生体情報が、血圧及び脈拍の値が所定の条件を満足しない値で、発話周波数及び発話振幅の値が所定の条件を満足する値の場合、「感情状態」の項目は喜びとなる。また、「ユーザ状態」の項目における生体情報が、血圧及び脈拍の値が所定の条件を満足する値で、発話周波数なし、及び、発話振幅なしの場合、「感情状態」の項目はイライラとなる。
このように感情状態DB301は、車両1のナビゲーション装置11から送信された車両情報に含まれる生体情報に基づいて、センター31の制御部32がユーザの感情状態を導出する際に用いられる。なお、感情状態DB301には上記の2種類のユーザ状態に対応する感情状態以外の情報も記録されている。
<2−4.地点情報DB>
図6は、センター31におけるデータ記録部33の地点情報DBの302の一例を示す図である。地点情報DB302は、車両情報に含まれるユーザの生体情報に基づいて導出された感情状態と、感情状態を導出する際に用いられた生体情報が検出された地点とが対応づけられて記録されたDBである。
図6は、センター31におけるデータ記録部33の地点情報DBの302の一例を示す図である。地点情報DB302は、車両情報に含まれるユーザの生体情報に基づいて導出された感情状態と、感情状態を導出する際に用いられた生体情報が検出された地点とが対応づけられて記録されたDBである。
図6に示す地点情報DB302には、生体情報が検出された地点を示す「地点」の項目、感情状態DB301に基づいて所定の条件を満足した生体情報の要素の組み合わせから導出されるユーザの感情状態を示す「感情状態」の項目、及び、車両1のユーザの識別情報である「ユーザID」の項目がある。
例えば、「地点」Aにおいて生体情報が検出された「ユーザID」123に該当する車両1aのユーザについては、「感情状態」喜びとして情報が記録されている。また、「地点A」において生体情報を検出された「ユーザID」456に該当する車両1bのユーザについては、「感情状態」喜びとして情報が記録されている。さらに、「ユーザID」987のユーザは他の車両のユーザであり、「感情状態」イライラとして情報が記録されている。このように同地点において複数のユーザによる複数の種類の感情状態が記録されている。
次に、「地点」Bにおいて生体情報を検出された「ユーザID」456に該当する車両1bのユーザについては、「感情状態」イライラとして情報が記録されている。また、「地点」Bにおいて生体情報を検出された「ユーザID」789に該当する車両1cのユーザについては、「感情状態」イライラとして情報が記録されている。さらに、「ユーザID」321のユーザは他の車両のユーザであり、「感情状態」喜びとして情報が記録されている。
このように車両ユーザDB123に記録された生体情報から制御部32が感情状態DB301を用いて導出した各車両のユーザの感情状態と、生体情報が検出された地点とを対応づけた情報を記録したDBが地点情報DB302である。
<2−5.感情マップDB>
図7は、センター31におけるデータ記録部33の感情マップDBの303の一例を示す図である。感情マップDB303は、地点情報DB302の情報に基づいて、複数の地点ごとに、当該地点に対応づけられた感情状態のうちで情報数が最も多い感情状態を代表状態として記録したDBである。
図7は、センター31におけるデータ記録部33の感情マップDBの303の一例を示す図である。感情マップDB303は、地点情報DB302の情報に基づいて、複数の地点ごとに、当該地点に対応づけられた感情状態のうちで情報数が最も多い感情状態を代表状態として記録したDBである。
図7に示す感情マップDB303には、生体情報が検出された地点を示す「地点」の項目、複数の地点ごとに、当該地点に対応付けられたユーザの感情状態のうちで最も多い感情状態を示す「代表状態」の項目、及び、複数の地点ごとに、当該地点に対応付けられたユーザの感情状態のうち最も多い感情状態の情報数を示す「情報数」の項目がある。
「地点」Aでは、「代表状態」は喜びであり、「情報数」は10である。また、「地点」Bでは、「代表状態」はイライラであり、「情報数」は5である。このように各地点の感情状態のうち最も多い数の感情状態を代表状態とすることで、各地点の主となる感情状態を特定できる。
なお、この感情マップDBに記録された複数地点ごとの代表状態を示す情報はセンター31の通信部34から出力され、ナビゲーション装置11の通信部18を介して車両1に送信される。
<2−6.指標DB>
図8は、ナビゲーション装置11におけるデータ記録部13の指標DB133の一例を示す図である。指標DB133は、ナビゲーション装置11の表示部14に表示される指標の画像情報を記録するDBである。
図8に示す指標DB133には、ユーザの感情状態を示す「感情状態」の項目、及び、感情状態に応じて表示部14に表示される指標の画像情報の種類を示す「指標」の項目がある。
図8は、ナビゲーション装置11におけるデータ記録部13の指標DB133の一例を示す図である。指標DB133は、ナビゲーション装置11の表示部14に表示される指標の画像情報を記録するDBである。
図8に示す指標DB133には、ユーザの感情状態を示す「感情状態」の項目、及び、感情状態に応じて表示部14に表示される指標の画像情報の種類を示す「指標」の項目がある。
「感情状態」が喜びの場合は、指標「MA11」の画像情報が対応する。また、「感情状態」がイライラの場合は、指標「MA12」の画像情報が対応する。このように指標DB133には、車両1のユーザの感情状態に応じてナビゲーション装置11の表示部14に表示される指標の画像情報が記録されている。なお、指標DB133には上記2種類以外の感情状態に対応する複数の指標の画像情報が記録されている。
<3.表示画像>
図9は、表示部14に表示される指標画像の一例を示した図である。表示部14に表示される画像IM1には制御部12により読みだされた地図DB143の地図画像が表示されている。そして、地図画像上のA地点の近傍に、感情マップDB303によりA地点に対応付けられた代表状態の喜びに対応する指標M11が表示される。また、地図画像上のB地点の近傍に、感情マップDB303によりB地点に対応付けられた代表状態のイライラに対応する指標M12が表示される。これにより、地点で収集されたユーザの感情状態を正確に他のユーザに伝達できる。
図9は、表示部14に表示される指標画像の一例を示した図である。表示部14に表示される画像IM1には制御部12により読みだされた地図DB143の地図画像が表示されている。そして、地図画像上のA地点の近傍に、感情マップDB303によりA地点に対応付けられた代表状態の喜びに対応する指標M11が表示される。また、地図画像上のB地点の近傍に、感情マップDB303によりB地点に対応付けられた代表状態のイライラに対応する指標M12が表示される。これにより、地点で収集されたユーザの感情状態を正確に他のユーザに伝達できる。
<4.処理フローチャート>
<4−1.車両における生体情報検出>
図10は、車両1で検出した生体情報をセンター31に送信する処理を示すフローチャートである。
車両1に備えられた複数の種類のセンサにより所定のタイミングで検出された生体情報が、個人情報DB113の基準生体情報と比べて所定の条件を満足した場合(ステップS101がYes)は、所定の条件を満足した時点における、車両1の地点である位置情報を制御部12が取得して(ステップS102)、ステップS103の処理へ進む。なお、検出した生体情報が所定条件を満足しない場合(ステップS101がNo)は、処理を終了する。
<4−1.車両における生体情報検出>
図10は、車両1で検出した生体情報をセンター31に送信する処理を示すフローチャートである。
車両1に備えられた複数の種類のセンサにより所定のタイミングで検出された生体情報が、個人情報DB113の基準生体情報と比べて所定の条件を満足した場合(ステップS101がYes)は、所定の条件を満足した時点における、車両1の地点である位置情報を制御部12が取得して(ステップS102)、ステップS103の処理へ進む。なお、検出した生体情報が所定条件を満足しない場合(ステップS101がNo)は、処理を終了する。
ステップS103では、所定の条件を満足した生体情報、所定の条件を満足した時点における車両1の地点である位置情報、及び、ユーザIDを車両ユーザDB123に記録して(ステップS103)、ステップS104の処理へ進む。
ステップS104では、車両ユーザDB123に記録した情報が所定の情報数蓄積された場合に車両ユーザDB123に記録された車両情報を通信部18を介してセンター31に送信して(ステップS104)、ステップS201の処理へ進む。
ステップS201では、車両1のナビゲーション装置11から送信された車両情報をセンター31が通信部34を介して受信して(ステップS201)、ステップS202の処理へ進む。
ステップS202では、通信部34を介して受信した車両情報をセンター31のデータ記録部33に記録して処理を終了する。
<4−2.センターにおける感情状態導出>
図11は、センター31におけるユーザの感情状態の導出処理を示すフローチャートである。制御部32は、データ記録部33に記録されている感情状態DB301を読み出して(ステップS301)、データ記録部33に記録された車両情報に含まれる生体情報に基づき、車両1のユーザの感情状態を導出して(ステップS302)、ステップS303の処理に進む。
図11は、センター31におけるユーザの感情状態の導出処理を示すフローチャートである。制御部32は、データ記録部33に記録されている感情状態DB301を読み出して(ステップS301)、データ記録部33に記録された車両情報に含まれる生体情報に基づき、車両1のユーザの感情状態を導出して(ステップS302)、ステップS303の処理に進む。
ステップS303では、制御部32は複数の地点に、当該地点で検出された生体情報に基づいて、導出された感情状態を対応付けて、地点情報DB302に記録して(ステップS303)、ステップS304の処理へ進む。
ステップS304では、制御部32は地点情報DB302に記録された情報のうち複数の地点ごとに、当該地点に対応付けられた感情状態のうちで最も多い感情状態を代表状態として特定して(ステップS304)、ステップS305の処理へ進む。
ステップS305では、地点ごとの代表状態として特定された感情状態、及び、代表状態の感情状態の情報数を感情マップDBに記録して(ステップS305)、処理を終了する。
<4−3.ナビゲーション装置における指標画像表示>
図12は、ナビゲーション装置11の表示部14に指標画像を表示する処理を示すフローチャートである。センター31の通信部34を介して感情マップDB303の情報をナビゲーション装置11に送信する(ステップS401)。そして、通信部18を介してナビゲーション装置11が感情マップDB303の情報を受信し(ステップS501)、ステップS502の処理へ進む。つまり、ナビゲーション装置11は、複数の地点ごとの代表状態を示す情報をセンター31から受信する。これにより、地点ごとのユーザの感情状態を車両1に提供できる。
図12は、ナビゲーション装置11の表示部14に指標画像を表示する処理を示すフローチャートである。センター31の通信部34を介して感情マップDB303の情報をナビゲーション装置11に送信する(ステップS401)。そして、通信部18を介してナビゲーション装置11が感情マップDB303の情報を受信し(ステップS501)、ステップS502の処理へ進む。つまり、ナビゲーション装置11は、複数の地点ごとの代表状態を示す情報をセンター31から受信する。これにより、地点ごとのユーザの感情状態を車両1に提供できる。
ステップS502では、代表状態の地点がナビゲーション装置11の表示部14に表示されている地図上に該当するか否かを判定する(ステップS502)。表示されている地図上に該当する場合(ステップS502がYes)は、ステップS503の処理に進み、表示されている地図上に該当しない場合(ステップS502がNo)は、処理を終了する。
ステップS503では、表示部14に表示されている地図画像上における地点のユーザの感情状態の代表状態を示す指標画像の情報を指標DB133から読み出し(ステップS503)、ステップS504の処理に進む。
ステップS504では、表示部14に表示されている地図画像上の地点で、ユーザの代表状態を示す地点近傍に、当該地点に対応付けられたユーザの感情状態の代表状態を示す指標画像を制御部32が表示する。これにより、各地点で収集された車両1のユーザの感情状態を正確に他のユーザに伝達できる。
<第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の情報処理システム10の構成及び処理は第1の実施の形態とほぼ同様であるが、センター31のデータ記録部33に記録された感情マップDBに記録された情報が一部相違する。このため以下、相違点を中心に説明する。
次に、第2の実施の形態について説明する。第2の実施の形態の情報処理システム10の構成及び処理は第1の実施の形態とほぼ同様であるが、センター31のデータ記録部33に記録された感情マップDBに記録された情報が一部相違する。このため以下、相違点を中心に説明する。
<5.DB、表示画像、及び、処理フローチャート>
<5−1.感情マップDB>
図13は、センター31におけるデータ記録部33の感情マップDBの303aの一例を示す図である。感情マップDB303aは、地点情報DB302の情報に基づいて、複数の地点ごとに、当該地点に対応づけられた感情状態のうちでデータ数が最も多い感情状態を代表状態として記録したDBである。また、各地点の代表状態の割合が閾値を超える地点を特別地点として特定している。
<5−1.感情マップDB>
図13は、センター31におけるデータ記録部33の感情マップDBの303aの一例を示す図である。感情マップDB303aは、地点情報DB302の情報に基づいて、複数の地点ごとに、当該地点に対応づけられた感情状態のうちでデータ数が最も多い感情状態を代表状態として記録したDBである。また、各地点の代表状態の割合が閾値を超える地点を特別地点として特定している。
図13に示す感情マップDB303aは、生体情報が検出された地点を示す「地点」の項目、複数の地点ごとに、当該地点に対応付けられたユーザの感情状態のうちで最も多い感情状態を示す「代表状態」の項目、複数の地点ごとに、当該地点に対応付けられたユーザの感情状態のうち最も多い感情状態の情報数を示す「情報数」の項目がある。また、代表状態を含む地点に対応付けられた感情状態の全件の情報数を示す「全体情報数」の項目がある。さらに、代表状態の割合が閾値を超える地点を示す「特別地点」の項目を備えている。特別地点となるための閾値は、例えば代表状態の割合が当該地点の全体情報数の80%の値である。そのため、地点の代表状態の割合が当該地点の全体の感情状態の情報数の80%を超える場合に、当該地点が特別地点となる。
「地点」Aでは、「代表状態」は喜びであり、「情報数」は10である。地点Aの「全体情報数」が12の場合、代表状態の割合が閾値の80%を超える地点となるため、A地点は特別地点となる。
また、「地点」Bでは、「代表状態」はイライラであり、「情報数」は5である。地点Bの「全体情報数」が10の場合、代表状態の割合が閾値の80%を下回る地点となるため、B地点は特別地点とはならない。
このように各地点の感情状態のうち最も多い数の感情状態である代表状態の割合に基づいて特別地点を特定することで、特定の感情状態が頻発する地点を特定できる。
なお、この感情マップDBに記録された複数地点ごとの代表状態を示す情報、及び、特別地点を示す情報は、センター31の通信部34から出力され、ナビゲーション装置11の通信部18を介して車両1に送信される。このため、地点における複数の車両1のユーザの感情状態の代表状態の割合が所定の閾値を超えた感情状態の情報を車両1に提供できる。
<5−2.表示画像>
図14は、第2の実施の形態において表示部14に表示される指標画像の一例を示した図である。表示部14に表示される画像IM2には制御部12により読みだされた地図DB143の地図画像が表示されている。そして、地図画像上のA地点の近傍に、感情マップDB303によりA地点に対応付けられた代表状態の喜びに対応する指標M11aが表示される。また、地図画像上のB地点の近傍に、感情マップDB303によりB地点に対応付けられた代表状態のイライラに対応する指標M12aが表示される。
図14は、第2の実施の形態において表示部14に表示される指標画像の一例を示した図である。表示部14に表示される画像IM2には制御部12により読みだされた地図DB143の地図画像が表示されている。そして、地図画像上のA地点の近傍に、感情マップDB303によりA地点に対応付けられた代表状態の喜びに対応する指標M11aが表示される。また、地図画像上のB地点の近傍に、感情マップDB303によりB地点に対応付けられた代表状態のイライラに対応する指標M12aが表示される。
そして、指標M11が近傍に表示されている地点Aは、対応付けられた感情状態のうち代表状態の割合が閾値を超える特別地点であるため、閾値を超えない地点Bに表示される指標M12よりも表示される指標のサイズが大きい表示形態で制御部12が表示する。つまり、表示部14に表示される特別地点の指標と特別地点以外の指標とで制御部12が表示態様を異ならせる。これにより、複数の地点における複数の車両のユーザの感情状態の中から代表状態の割合が多い感情状態の情報を他のユーザが直感的に認識できる。
<5−3.処理フローチャート>
図15は、第2の実施形態におけるセンター31におけるユーザの感情状態の導出処理を示すフローチャートである。図15の処理フローチャートは、第1の実施の形態で説明した図11に示すフローチャートと同じ処理を含む。図15に示すステップS301〜ステップS305は図11の処理フローチャートと同じ処理であり、異なる点はステップS601及びステップS602の処理が追加されたことである。
図15は、第2の実施形態におけるセンター31におけるユーザの感情状態の導出処理を示すフローチャートである。図15の処理フローチャートは、第1の実施の形態で説明した図11に示すフローチャートと同じ処理を含む。図15に示すステップS301〜ステップS305は図11の処理フローチャートと同じ処理であり、異なる点はステップS601及びステップS602の処理が追加されたことである。
ステップS304で、制御部32が地点情報DB302に記録された情報のうち複数の地点ごとに、当該地点に対応付けられた感情状態のうちで最も多い感情状態を代表状態として特定して(ステップS304)、ステップS601の処理へ進む。
ステップS601では、制御部32は地点に対応付けられた感情状態のうち代表状態の割合が閾値を超える(例えば、80%を超える)地点があるか否かを判定する(ステップS601)。
地点の代表状態の割合が閾値を超える場合(ステップS601がYes)、制御部32は当該地点を特別地点に指定して(ステップS602)、ステップS305の処理に進む。なお、ステップS601において、地点の代表状態の割合が閾値を超えない場合(ステップS601がNo)は、ステップS305の処理へ進む。
ステップS305では、地点ごとの代表状態として特定された感情状態、及び、代表状態の感情状態の情報数を感情マップDB303に記録して(ステップS305)処理を終了する。
<第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態の情報処理システム10の構成及び処理は第1の実施の形態とほぼ同様であるが、表示部14に表示される指標がユーザに選択された場合に、指標に対応する地点を制御部12が車両1の目的地に設定する点が異なる。このため以下、相違点を中心に説明する。
次に、第3の実施の形態について説明する。第3の実施の形態の情報処理システム10の構成及び処理は第1の実施の形態とほぼ同様であるが、表示部14に表示される指標がユーザに選択された場合に、指標に対応する地点を制御部12が車両1の目的地に設定する点が異なる。このため以下、相違点を中心に説明する。
<6.表示画像、及び、フローチャート>
<6−1.表示画像>
図16、及び、図17は、第3の実施の形態において表示部14に表示される指標画像の一例を示した図である。表示部14に表示される画像IM3には制御部12により読みだされた地図DB143の地図画像が表示されている。そして、地図画像上に示す地点Cの近傍に、感情マップDB303により地点Cに対応付けられた代表状態の喜びに対応する指標M21が表示されている。
<6−1.表示画像>
図16、及び、図17は、第3の実施の形態において表示部14に表示される指標画像の一例を示した図である。表示部14に表示される画像IM3には制御部12により読みだされた地図DB143の地図画像が表示されている。そして、地図画像上に示す地点Cの近傍に、感情マップDB303により地点Cに対応付けられた代表状態の喜びに対応する指標M21が表示されている。
ユーザが、タッチパネルである表示部14に指などを接触させて指標M21を選択して車両1の目的地として設定すると、図17に示すように車両1の現在位置を示す車両位置P501から目的地の地点CまでのルートRU601が、地図画像上に表示される。つまり、地図画像上に表示された指標M21が車両1のユーザに選択された場合、指標M21に対応する地点を目的地として制御部12が設定する。これにより、ユーザの感情状態の情報に基づいて目的地を設定できる。
<6−2.処理フローチャート>
図18は、第3の実施形態におけるナビゲーション装置11における目的地設定の処理を示すフローチャートである。ユーザが、タッチパネルである表示部14に指などを接触させて指標を選択した目的地選択信号を制御部12が受信した場合(ステップS601がYes)、車両1の現在位置から目的地までのルートを導出する演算を制御部12が行い(ステップS602)、ステップS603の処理へ進む。なお、ステップS601において、制御部12がユーザの目的地選択信号を受信していない場合(ステップS601がNo)は、処理を終了する。
図18は、第3の実施形態におけるナビゲーション装置11における目的地設定の処理を示すフローチャートである。ユーザが、タッチパネルである表示部14に指などを接触させて指標を選択した目的地選択信号を制御部12が受信した場合(ステップS601がYes)、車両1の現在位置から目的地までのルートを導出する演算を制御部12が行い(ステップS602)、ステップS603の処理へ進む。なお、ステップS601において、制御部12がユーザの目的地選択信号を受信していない場合(ステップS601がNo)は、処理を終了する。
ステップS603では、制御部12は演算した車両1の現在位置から目的地までのルートを表示部14の地図画像上に表示して(ステップS603)、ステップS604の処理に進む。
ステップS604では、表示部14の地図画像上に表示されたルートに従って、車両1に対する目的地までのルート案内を制御部12が行い、ステップS605の処理へ進む。
ステップS605では、車両1が目的地に到達した場合(ステップS605がYes)は、ルート案内の処理を終了する。なお、車両1が目的地に到達していない場合(ステップS605がNo)は、ステップS604に戻り、引き続き車両1への目的地までのルート案内を制御部12が行う。
<変形例>
以下、変形例について説明する。なお、上記の実施の形態、及び、下記で説明する形態を含む全ての形態は適宜に組み合わせ可能である。
以下、変形例について説明する。なお、上記の実施の形態、及び、下記で説明する形態を含む全ての形態は適宜に組み合わせ可能である。
上記実施の形態では、複数の種類のセンサの例として血圧センサ、脈拍センサなどについて述べたが、それ以外にもユーザの生体情報を取得するセンサを用いてもよい。例えば、車両1のユーザが着座するシートにユーザの心拍を検出する着座センサを設けてもよい。また、車両1のユーザの呼吸のリズムを検知するセンサを車両1に設けてもよい。つまり、ユーザの呼吸の速度、及び、荒さの少なくともいずれかの情報を取得する呼吸センサを車両1に設けてもよい。そして、呼吸センサで取得したユーザの生体情報に基づいて、センター31では、ユーザの感情状態を導出する。例えば、ユーザの呼吸の速度が速ければ、ユーザが緊張状態にあるなどである。
また、上記実施の形態では、地図上に地点近傍に当該地点に対応付けられた代表状態を示す指標を表示させることとした。この場合の地点近傍とは、地点と当該地点に対応付けられた指標との両者の位置関係が地図上でユーザに認識できることをいい、例えば、地図上の地点周辺に指標を設けたり、地点から離れた位置であっても、指標から延びる矢印などで地点を指し示した状態をいう。
また、上記実施の形態では、代表状態の割合が閾値を超える地点である特別地点における指標と特別地点以外の地点の指標とで表示部14に表示される表示形態を異ならせる例として、特別地点以外の地点の指標と比べて特別地点の指標のサイズを大きくすることについて述べた。それ以外の表示形態として、特別地点の指標を代表状態の指標で複数個表示し、特別地点以外の地点の指標を代表状態の指標で1個表示するようにしてもよい。また、特別地点及び特別地点以外の地点において、代表状態の指標を複数個表示部14に表示し、かつ、特別地点以外の地点の指標よりも特別地点の指標の数を多く表示するようにしてもよい。
また、上記実施の形態では、生体情報が検出される可能性の高い地点について予め当該地点の景観などの情報を示す画像情報をセンター31のデータ記録部33に記録しておいて、画像情報を備える地点の指標がナビゲーション装置11に出力される場合は、地点の指標情報とともに画像情報を出力する。そして、ユーザがタッチパネルである表示部14を指で接触するなどの操作で指標を選択した場合に、画像情報を表示するようにしてもよい。
また、上記実施の形態では、特別地点について収集されたデータ量の多い順に表示部14に表示するようにしてもよい。例えば、ユーザの喜びの感情状態の割合が地点の全体の感情状態のうち80%を超えている地点のうち、喜びの感情状態の合計データ数が多い地点から順に地点の名称、及び、データ数などをランキング形式で表示するようにしてもよい。
また、上記実施の形態では、センター31のデータ記録部33の地点情報DB302の各ユーザのデータ項目としてユーザIDの他にユーザの年齢及び性別の少なくとも一のデータ項目を記録しておく。そして、通信部34及び通信部18を介してナビゲーション装置11に複数の地点ごとの代表状態を示す情報を出力する際に、各ユーザの年齢及び性別などのデータ項目の情報もあわせて出力する。
そして、ナビゲーション装置11の表示部14に指標を表示する際に、ユーザの操作に伴い、ユーザが選択した年齢に該当するユーザの感情状態に基づく指標のみ表示部14に表示する。また、ユーザの性別の情報に基づいて男性のユーザの感情状態に基づく指標を表示部14に表示する。さらに、女性のユーザの感情状態に基づく指標のみを表示部14に表示するようにしてもよい。
また、上記実施の形態では、過去に取得したユーザの感情状態に基づく指標をセンターのデータ記録部33に記録しておく。そして、天候、時刻、及び、季節の少なくとも一の条件に基づいてデータ記録部33から過去の指標のデータを読み出して通信部34及び通信部18を介してナビゲーション装置11に出力し、表示部14に対象の指標を表示するようにしてもよい。
また、上記実施の形態では、車両が走行する経路上でのユーザの感情の変化の情報を時系列で表示部14に表示するようにしてもよい。例えば、車道を走行する車両を運転するドライバーの感情の起伏を時系列で複数のセンサにより取得しておき、その起伏のデータがセンター31のデータ記録部33に蓄積される。そして、ナビゲーション装置11の表示部14に時間ごとの感情状態に対応する指標を表示するようにしてもよい。
また、上記実施の形態では、ナビゲーション装置11において、目的地を設定するための目的地検索を行う場合、特定の指標に対応する感情状態(例えば、喜びの感情状態)を目的地を検索する条件に含めて検索を行うようにしてもよい。
さらに、上記実施の形態では、ナビゲーション装置11が車両に備えられた各種センサ及びセンター31からの情報に基づいて導出されたユーザの感情状態の指標を表示部14に表示される地図上の対応する地点に表示することについて述べた。これ以外にもユーザが所持する携帯端末が各種センサ及びセンター31からの情報に基づいて導出されたユーザの感情状態の指標を携帯端末の表示部に表示される地図上に対応する地点に表示させるようにしてもよい。
1・・・・・車両
10・・・・情報処理システム
11・・・・ナビゲーション装置
12・・・・制御部
13・・・・データ記憶部
14・・・・表示部
15・・・・音声出力部
16・・・・操作部
17・・・・GPS情報受信部
21・・・・血圧センサ
22・・・・脈拍センサ
23・・・・マイク
24・・・・車内カメラ
31・・・・センター
10・・・・情報処理システム
11・・・・ナビゲーション装置
12・・・・制御部
13・・・・データ記憶部
14・・・・表示部
15・・・・音声出力部
16・・・・操作部
17・・・・GPS情報受信部
21・・・・血圧センサ
22・・・・脈拍センサ
23・・・・マイク
24・・・・車内カメラ
31・・・・センター
Claims (6)
- 車両のユーザに関する情報を蓄積する情報処理装置であって、
前記車両が備える前記車両のユーザの生体情報を検出する複数の種類のセンサの検出結果が所定の条件を満足した時点における、前記車両の地点を示す位置情報と、前記センサが検出した前記生体情報とを含む車両情報を、複数の車両から取得する取得手段と、
前記生体情報に基づいて、前記車両のユーザの感情状態を導出する導出手段と、
前記取得手段が取得した前記車両情報に基づいて、複数の地点に、該地点で検出された前記生体情報に基づく前記感情状態を対応付ける対応付け手段と、
前記複数の地点ごとに、該地点に対応付けられた感情状態のうちで最も多い感情状態を代表状態として特定する感情特定手段と、
前記複数の地点ごとの前記代表状態を示す地点情報を前記車両へ送信する送信手段と、
を備えることを特徴とする情報処理装置。 - 請求項1に記載の情報処理装置において、
対応付けられた前記感情状態のうち前記代表状態の割合が閾値を超える地点を、特別地点として特定する地点特定手段、
をさらに備え、
前記地点情報は、前記特別地点を示す情報を含むことを特徴とする情報処理装置。 - 車両に搭載される車載用ナビゲーション装置であって、
請求項1または2に記載の情報処理装置から送信される前記地点情報を受信する受信手段と、
地図を表示する表示手段と、
前記地点情報に基づいて、前記表示手段に表示された地図上の地点近傍に、該地点に対応付けられた前記代表状態を示す指標を表示させる表示制御手段と、
を備えることを特徴とする車載用ナビゲーション装置。 - 請求項3に記載の車載用ナビゲーション装置において、
目的地までのルートを案内する案内手段と、
前記地図上に表示された指標が前記車両のユーザに選択された場合に、前記指標に対応する地点を前記目的地に設定する設定手段と、
をさらに備えることを特徴とする車載用ナビゲーション装置。 - 請求項3または4に記載の車載用ナビゲーション装置において、
前記取得手段は、請求項2に記載の情報処理装置から送信される、前記特別地点を示す情報を含む前記地点情報を取得し、
前記表示制御手段は、前記特別地点の前記指標と、前記特別地点以外の地点の前記指標とで表示態様を異ならせることを特徴とする車載用ナビゲーション装置。 - 車両のユーザに関する情報を蓄積する情報処理方法であって、
(a)前記車両が備える前記車両のユーザの生体情報を検出する複数の種類のセンサの検出結果が所定の条件を満足した時点における、前記車両の地点を示す位置情報と、前記センサが検出した前記生体情報とを含む車両情報を、複数の車両から取得する工程と、
(b)前記生体情報に基づいて、前記車両のユーザの感情状態を導出する工程と、
(c)前記工程(a)が取得した前記車両情報に基づいて、複数の地点に、該地点で検出された前記生体情報に基づく前記感情状態を対応付ける工程と、
(d)前記複数の地点ごとに、該地点に対応付けられた感情状態のうちで最も多い感情状態を代表状態として特定する工程と、
(e)前記複数の地点ごとの前記代表状態を示す地点情報を前記車両へ送信する工程と、
を備えることを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010263143A JP2012112853A (ja) | 2010-11-26 | 2010-11-26 | 情報処理装置、車載用ナビゲーション装置、及び、情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010263143A JP2012112853A (ja) | 2010-11-26 | 2010-11-26 | 情報処理装置、車載用ナビゲーション装置、及び、情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012112853A true JP2012112853A (ja) | 2012-06-14 |
Family
ID=46497215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010263143A Withdrawn JP2012112853A (ja) | 2010-11-26 | 2010-11-26 | 情報処理装置、車載用ナビゲーション装置、及び、情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012112853A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016126376A (ja) * | 2014-12-26 | 2016-07-11 | 株式会社タニタ | 安全運転管理システム、睡眠不足判定装置、睡眠データ測定装置、ユーザ識別情報入力装置、制御方法及びプログラム |
JP2016521393A (ja) * | 2013-03-13 | 2016-07-21 | ゴゴロ インク | モバイル・デバイスを介して車両に関する情報を提供するための装置、方法、および物品 |
US9801580B2 (en) | 2013-03-22 | 2017-10-31 | Toyota Jidosha Kabushiki Kaisha | Driving assistance device, driving assistance method, information-providing device, information-providing method, navigation device and navigation method |
WO2018061840A1 (ja) * | 2016-09-29 | 2018-04-05 | 株式会社村田製作所 | 情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法 |
WO2018179406A1 (ja) * | 2017-03-31 | 2018-10-04 | 本田技研工業株式会社 | 車載装置、情報管理サーバ、情報管理システム、および方法 |
US10318994B2 (en) | 2012-11-30 | 2019-06-11 | Panasonic Intellectual Property Corporation Of America | Information providing method |
JP2019207722A (ja) * | 2019-07-18 | 2019-12-05 | 株式会社タニタ | 安全運転管理システム、睡眠不足判定装置、睡眠データ測定装置、ユーザ識別情報入力装置、制御方法及びプログラム |
JP2020201844A (ja) * | 2019-06-12 | 2020-12-17 | 東京瓦斯株式会社 | 業務適合性判定システムおよびプログラム |
JP2021061007A (ja) * | 2020-12-09 | 2021-04-15 | 株式会社タニタ | 安全運転管理システム、睡眠不足判定装置、睡眠データ測定装置、ユーザ識別情報入力装置、制御方法及びプログラム |
DE102021107562A1 (de) | 2020-04-03 | 2021-10-28 | Subaru Corporation | Fahrassistenzvorrichtung und datensammelsystem |
US11222485B2 (en) | 2013-03-12 | 2022-01-11 | Gogoro Inc. | Apparatus, method and article for providing information regarding a vehicle via a mobile device |
JP7098067B1 (ja) * | 2021-03-26 | 2022-07-08 | 三菱電機株式会社 | 案内表示制御装置、案内表示制御方法及び経路案内システム |
US11392992B2 (en) | 2012-11-30 | 2022-07-19 | Panasonic Intellectual Property Corporation Of America | Information providing method |
-
2010
- 2010-11-26 JP JP2010263143A patent/JP2012112853A/ja not_active Withdrawn
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10318994B2 (en) | 2012-11-30 | 2019-06-11 | Panasonic Intellectual Property Corporation Of America | Information providing method |
US10373208B2 (en) | 2012-11-30 | 2019-08-06 | Panasonic Intellectual Property Corporation Of America | Information providing method |
US11392992B2 (en) | 2012-11-30 | 2022-07-19 | Panasonic Intellectual Property Corporation Of America | Information providing method |
US11222485B2 (en) | 2013-03-12 | 2022-01-11 | Gogoro Inc. | Apparatus, method and article for providing information regarding a vehicle via a mobile device |
JP2020191116A (ja) * | 2013-03-13 | 2020-11-26 | ゴゴロ インク | モバイル・デバイスを介して車両に関する情報を提供するための装置、方法、および物品 |
JP2016521393A (ja) * | 2013-03-13 | 2016-07-21 | ゴゴロ インク | モバイル・デバイスを介して車両に関する情報を提供するための装置、方法、および物品 |
JP7145913B2 (ja) | 2013-03-13 | 2022-10-03 | ゴゴロ インク | モバイル・デバイスを介して車両に関する情報を提供するための装置、方法、および物品 |
US9801580B2 (en) | 2013-03-22 | 2017-10-31 | Toyota Jidosha Kabushiki Kaisha | Driving assistance device, driving assistance method, information-providing device, information-providing method, navigation device and navigation method |
JP2016126376A (ja) * | 2014-12-26 | 2016-07-11 | 株式会社タニタ | 安全運転管理システム、睡眠不足判定装置、睡眠データ測定装置、ユーザ識別情報入力装置、制御方法及びプログラム |
WO2018061840A1 (ja) * | 2016-09-29 | 2018-04-05 | 株式会社村田製作所 | 情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法 |
JPWO2018061840A1 (ja) * | 2016-09-29 | 2019-08-29 | 株式会社村田製作所 | 情報表示プログラム、データ送信プログラム、データ送信装置、データ送信方法、情報提供装置及び情報提供方法 |
JPWO2018179406A1 (ja) * | 2017-03-31 | 2020-05-21 | 本田技研工業株式会社 | 車載装置、情報管理サーバ、情報管理システム、および方法 |
US11203347B2 (en) | 2017-03-31 | 2021-12-21 | Honda Motor Co., Ltd. | In-vehicle device, information management server, information management system, and method |
CN110431610A (zh) * | 2017-03-31 | 2019-11-08 | 本田技研工业株式会社 | 车载装置、信息管理服务器、信息管理系统及方法 |
WO2018179406A1 (ja) * | 2017-03-31 | 2018-10-04 | 本田技研工業株式会社 | 車載装置、情報管理サーバ、情報管理システム、および方法 |
JP2020201844A (ja) * | 2019-06-12 | 2020-12-17 | 東京瓦斯株式会社 | 業務適合性判定システムおよびプログラム |
JP7216372B2 (ja) | 2019-06-12 | 2023-02-01 | 東京瓦斯株式会社 | 業務適合性判定システムおよびプログラム |
JP2019207722A (ja) * | 2019-07-18 | 2019-12-05 | 株式会社タニタ | 安全運転管理システム、睡眠不足判定装置、睡眠データ測定装置、ユーザ識別情報入力装置、制御方法及びプログラム |
DE102021107562A1 (de) | 2020-04-03 | 2021-10-28 | Subaru Corporation | Fahrassistenzvorrichtung und datensammelsystem |
US11643085B2 (en) | 2020-04-03 | 2023-05-09 | Subaru Corporation | Drive assist apparatus and data collection system |
JP2021061007A (ja) * | 2020-12-09 | 2021-04-15 | 株式会社タニタ | 安全運転管理システム、睡眠不足判定装置、睡眠データ測定装置、ユーザ識別情報入力装置、制御方法及びプログラム |
JP7098067B1 (ja) * | 2021-03-26 | 2022-07-08 | 三菱電機株式会社 | 案内表示制御装置、案内表示制御方法及び経路案内システム |
WO2022201500A1 (ja) * | 2021-03-26 | 2022-09-29 | 三菱電機株式会社 | 案内表示制御装置、案内表示制御方法及び経路案内システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012112853A (ja) | 情報処理装置、車載用ナビゲーション装置、及び、情報処理方法 | |
CN103038818B (zh) | 在车载语音识别系统与车外语音识别系统之间的通信系统和方法 | |
US8655740B2 (en) | Information providing apparatus and system | |
US20180149489A1 (en) | In-vehicle device, information distribution server, and facility information display method | |
US9881605B2 (en) | In-vehicle control apparatus and in-vehicle control method | |
US20180172464A1 (en) | In-vehicle device and route information presentation system | |
US20200000392A1 (en) | Vehicular notification apparatus | |
JP2007122579A (ja) | 車両制御装置 | |
US11415429B2 (en) | Control apparatus and control system | |
CN102652250A (zh) | 导航装置 | |
WO2016181670A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2011179917A (ja) | 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体 | |
JP6608199B2 (ja) | 情報システムおよびコンテンツ開始方法 | |
JP2012024481A (ja) | 健康管理支援システム | |
JP2003109162A (ja) | エージェント装置 | |
JP7060014B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2013181908A (ja) | 中継地案内システム | |
JP3752159B2 (ja) | 情報記録装置 | |
JP6552548B2 (ja) | 地点提案装置及び地点提案方法 | |
JP4876198B1 (ja) | 情報出力装置、情報出力方法、情報出力プログラム及び情報システム | |
JP5107819B2 (ja) | サーバ、車載装置、及び、評価システム | |
JP4960167B2 (ja) | ドライブプラン作成装置、ドライブプラン作成方法、ドライブプラン作成プログラムおよび記録媒体 | |
EP3112807B1 (en) | Mobile terminal and method for controlling the same | |
JP6225520B2 (ja) | 情報提供装置 | |
US10475470B2 (en) | Processing result error detection device, processing result error detection program, processing result error detection method, and moving entity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140204 |