JP6642401B2 - 情報提供システム - Google Patents

情報提供システム Download PDF

Info

Publication number
JP6642401B2
JP6642401B2 JP2016239582A JP2016239582A JP6642401B2 JP 6642401 B2 JP6642401 B2 JP 6642401B2 JP 2016239582 A JP2016239582 A JP 2016239582A JP 2016239582 A JP2016239582 A JP 2016239582A JP 6642401 B2 JP6642401 B2 JP 6642401B2
Authority
JP
Japan
Prior art keywords
user
proposal
state
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016239582A
Other languages
English (en)
Other versions
JP2018097474A (ja
Inventor
光 古賀
光 古賀
卓司 山田
卓司 山田
鈴木 恵子
恵子 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016239582A priority Critical patent/JP6642401B2/ja
Publication of JP2018097474A publication Critical patent/JP2018097474A/ja
Application granted granted Critical
Publication of JP6642401B2 publication Critical patent/JP6642401B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、提案に対するユーザの受け入れ結果を学習し、その学習結果に基づきユーザに提案を行なう情報提供システムに関する。
従来、この種の情報提供システムとして、例えば特許文献1に記載のナビゲーション装置が知られている。このナビゲーション装置は、当該装置が搭載された車両の走行予定経路から所定の提案距離以内に位置する施設を、立ち寄り地点としてユーザに提案する。提案距離は、提案対象となる施設のジャンルや環境毎に設定され、過去にユーザが提案を受け入れた度合いに基づいて修正される。例えば、提案回数に対する受け入れ回数が80%以上である場合、提案距離を長くなる方向に修正する。提案回数に対する受け入れ回数が60%未満である場合には、提案距離を短くなる方向に修正する。そして、次回の提案からは、そのように修正した提案距離が用いられることとなる。
特開2016−121879号公報
しかし、上記ナビゲーション装置は、ユーザに車両での走行予定があることを前提としている。一方、ユーザの中には、走行予定は無いもののドライブへの潜在的な要望があるユーザが存在しうる。このようなユーザにドライブ内容を提案できれば、有用性の高い内容の提案を行うことができると考えられる。
しかし、ユーザが乗車していないときに頻繁に提案が行われると、ユーザが外出したくないとき等、ユーザがドライブの要望を全く有していない場合にも提案が行われる可能性もある。このようにユーザの要望に相反するタイミングでドライブの提案が行われると、かえって有用性の低い提案が行われることとなる。
本発明は、このような実情に鑑みてなされたものであり、その目的は、提案結果を学習することにより適切なタイミングで提案を行うことのできる情報提供システムを提供することにある。
以下、上記課題を解決するための手段及びその作用効果について記載する。
上記課題を解決する情報提供システムは、ユーザに対する提案を取得する提案取得部と、前記ユーザの居場所及び当該居場所でのユーザ状態を特徴量として含む状態を特定する状態特定部と、提案が行なわれたときに、当該提案の受け入れ結果に応じて、当該提案が行なわれたときの前記状態に対して報酬を付与して学習情報とする提案結果学習部と、前記状態特定部により新たに特定された状態と、前記提案結果学習部により学習され前記特定された状態と同じ状態の学習情報とを参照して、前記特定した状態が提案に適したタイミングに相当するか否かを判定し、前記特定した状態が提案に適したタイミングに相当すると判定した際に、前記ユーザに対して提案を行なう提案タイミング判定部と、を備える。
上記構成によれば、過去に行われた提案の受け入れ結果を、ユーザの居場所やユーザ状態を特徴量として含む状態とともに学習する。そして、その学習結果に基づいて、提案に適したタイミングであるか否かが判定され、提案に適したタイミングであるときに提案が行われる。このため、ユーザに対し、有用性の高い提案を、提案が受け入れられやすいタイミングで行うことができる。
情報提供システムの一実施形態について、概略構成を示すブロック図。 同実施形態における学習テーブルの概念図。 同実施形態における状態特定の手順を示すフローチャート。 同実施形態における強化学習の手順を示すフローチャート。 同実施形態における提案タイミングの判定処理の手順を示すフローチャート。
以下、情報提供システムの一実施形態について説明する。
本実施形態の情報提供システムは、車両に持ち込み可能な装置であって、ユーザに対してドライブに関する提案を行うエージェントECU(電子制御装置)を有している。エージェントECUは、提案内容を行ったときの受け入れ結果に基づき強化学習を行う。強化学習とは、エージェントECUが環境に基づきある行動を選択したとき、当該選択した行動に基づく環境の変化に伴って何らかの報酬をエージェントに与えることにより、試行錯誤を通じてエージェントECUを環境に適応させていく学習手法である。なお、本実施形態では、エージェントECUは、ユーザの居場所、居場所でのユーザの状態(ユーザ状態)等を含む「状態」によって、複数の状態の集合である状態空間を構成している。また、各状態でのユーザ提案の受け入れの可否が、強化学習でいうところの報酬に相当する。エージェントECUは、所定のタイミングで、状態空間を構成する状態を特定し、特定した状態と強化学習の結果とを照らし合わせ、特定した状態が提案の受け入れの可能性が高い状態であって、提案のタイミングとして適していると判定したときに、ユーザとの対話を通じて提案を行う。
図1を参照して、情報提供システム10の構成について説明する。情報提供システム10は、エージェントECU11、及びエージェントECU11に接続されたセンター12のタイミング学習部35を有している。本実施形態では、エージェントECU11は、車両に持込が可能な携帯情報端末に搭載されている。エージェントECU11は、通信部15を介して、センター12と接続されている。センター12は、携帯情報端末を用いるユーザの属性や趣向に合わせたドライブ情報を取得する。センター12は、ドライブ情報を取得すると、エージェントECU11にドライブ情報を送信する。ドライブ情報は、目的地、経由地等を含む情報であって、ユーザが車内に居る場合及び自宅に居る場合の両方において提供される。エージェントECU11は、ドライブ情報として、例えば目的地又は自宅へ向かう車両内に居るユーザに対し、ユーザの興味があると推定される場所であって車両で向かうことができる経由地を提供する。また、エージェントECU11は、ドライブ情報として、自宅にいるユーザに対し、ユーザの興味があると推定される場所であって車両で向かうことができる目的地を提供する。
エージェントECU11の構成について説明する。エージェントECU11は、カメラ50から画像を取得して画像認識を行う画像認識部16を備える。画像認識部16は、携帯情報端末に設けられたカメラ50から画像情報を取得する。カメラ50が取得する画像は、ユーザ又はユーザの周辺環境の画像である。又は、画像認識部16は、車内を撮像する車載カメラ、自宅内を撮像するカメラから画像情報を取得するようにしてもよい。画像認識部16は、取得した画像に対して画像処理を行って、物体等の認識を行い、画像認識結果を、ユーザ状態推定部17及びユーザ行動推定部18に出力する。
ユーザ状態推定部17は、画像認識結果を画像認識部16から取得するほかに、車載機器54から無線通信等を介して車両情報及び操作情報を取得し、家電機器55から無線通信等を介して家電機器55の操作情報を取得する。車載機器54は、例えばナビゲーションシステムや、空調システムの操作装置等である。家電機器55は、テレビ、オーディオシステム等である。ユーザ状態推定部17は、画像認識結果、車両情報及び車載機器54の操作情報、家電機器55の操作情報を取得すると、それらの情報を統合してユーザ状態推定情報としてセンター12に送信する。また、ユーザ状態推定部17は、ユーザ状態推定情報に対するユーザ状態の学習結果を、センター12から受信して、ユーザ状態を判定する。
具体的には、ユーザ状態推定部17は、センター12から取得したユーザ状態の学習結果に基づき、ユーザの居場所が、「車内」、「自宅」又はそれ以外のいずれであるかを判定する。また、ユーザ状態推定部17は、ユーザの居場所が車内であると判定したとき、ユーザ状態の学習結果に基づき、車両の走行エリア及び車両の周辺状況を判定する。走行エリアは、例えば「高速道路」、「一般道」等の道路種別であってもよいし、自宅周辺(生活圏)、自宅から離れた遠方のエリア(生活圏外)であるか否かを示す情報であってもよい。車両の周辺状況は、「渋滞」、「道路規制中」、「それ以外」等といった交通情報である。また、ユーザ状態推定部17は、ユーザの居場所が車内であると判定したとき、ユーザ状態の学習結果又は車両情報に基づき、例えば「前進」、「後進」、「停車」「乗降中」等の車両状態を判定する。「前進」、「後進」、「停車」及び「乗降中」は、例えばナビゲーションシステム等、車載ネットワークに接続された制御装置から取得することが可能である。また、ユーザ状態推定部17は、ユーザの居場所が自宅であると判定したとき、ユーザ状態の学習結果に基づき、例えば「立ち」、「座り」、「歩き」、「寝そべり」等のユーザの自宅での状態を判定する。
ユーザ行動推定部18は、ユーザ状態推定部17と同様に、画像認識結果を画像認識部16から取得するほかに、車載機器54から無線通信等を介して車両情報及び操作情報を取得し、家電機器55から無線通信等を介して家電機器55の操作情報を取得する。ユーザ行動推定部18は、画像認識結果、及び車載機器54の操作情報、家電機器55の操作情報を取得すると、それらの情報を統合してユーザ行動推定情報としてセンター12に送信する。また、ユーザ行動推定部18は、ユーザ行動推定情報に対するユーザ行動の学習結果を、センター12から受信して、ユーザ行動を判定する。
具体的には、ユーザ行動推定部18は、ユーザの居場所が車内であると判定されたとき、センター12から取得したユーザ行動の学習結果に基づき、例えば「機器操作中」、「会話中」、「睡眠中」等の車内でのユーザの行動を判定する。一方、ユーザ行動推定部18は、ユーザの居場所が自宅であると判定されたとき、センター12から取得したユーザ行動の学習結果に基づき、例えば「飲食中」、「オーディオ視聴中」、「電話中」等の自宅でのユーザの行動を推定する。
また、エージェントECU11は、タイミング判定部20を備える。タイミング判定部20は、エージェントECU11がドライブ情報を受信したとき等の所定のタイミングで、ユーザ状態推定部17からユーザの状態を取得するとともに、ユーザ行動推定部18からユーザの行動を取得する。エージェントECU11は、取得したユーザ状態及びユーザ行動をセンター12に送信する。また、タイミング判定部20は、センター12からタイミング判定状況の強化学習の結果を受信し、この強化学習結果に基づき、ユーザ状態及びユーザ行動で特定される状態S(i)が、ドライブの提案を行うタイミングに適したものであるか否かを判定する。そして、タイミング判定部20は、状態S(i)が、ドライブを行うタイミングに適したものであると判定したとき、対話制御部25に対してドライブ情報の出力要求を行う。対話制御部25は、センター12から受信したドライブ情報を、音声合成部26に出力する。音声合成部26は、ドライブ情報の内容を音声化し、携帯情報端末に設けられたスピーカ52を介してドライブ情報を音声で出力する。
対話制御部25は、ユーザが提案の受け入れの可否をユーザとの対話によって判定する。ユーザの発話による音声は、携帯情報端末のマイク51を通じて信号化され、音声認識部27に入力される。音声認識部27は、入力した音声信号を解析して音声認識を行い、提案が受け入れられたか否かを判定する。そして、受け入れの可否を示す提案結果情報をセンター12に送信する。
次に、センター12の構成について説明する。センター12は、エージェントECU11と通信を行う通信部30と、ユーザ状態学習部31及びユーザ行動学習部32を備える。ユーザ状態学習部31は、エージェントECU11が送信したユーザ状態推定情報やユーザとの対話を通じて得られた情報等を学習して、学習結果を学習結果記憶部33に記録する。例えば、ユーザ状態学習部31は、ユーザ状態を特定したとき、ユーザとの対話を通じて特定したユーザ状態が実際の状態に合致したものであるか否かを学習する。さらに、ユーザ状態学習部31は、エージェントECU11からユーザ状態推定情報を受信した際に、学習結果記憶部33に記憶された学習結果に基づき、ユーザ状態推定情報と類似度の高いユーザ状態をエージェントECU11に送信する。
ユーザ行動学習部32は、エージェントECU11が送信したユーザ行動推定情報やユーザとの対話を通じて得られた情報等を学習して、学習結果を学習結果記憶部33に記録する。さらに、ユーザ行動学習部32は、エージェントECU11からユーザ行動推定情報を受信した際に、学習結果記憶部33に記憶された学習結果に基づき、ユーザ行動推定情報と類似度の高いユーザ状態をエージェントECU11に送信する。
また、センター12は、タイミング学習部35を備える。タイミング学習部35は、エージェントECU11から送信された提案結果情報を、提案履歴情報として提案履歴記憶部36に記憶する。また、タイミング学習部35は、一つの状態の提案履歴情報に基づき強化学習を行い、その状態の強化学習結果を状態と関連付けて学習結果記憶部33に記録する。
さらに、センター12は、提案取得部38を備える。提案取得部38は、ユーザの属性(年齢、性別、住所、居所…)、状況(天候、時間帯…)、ユーザの趣向等に基づき、ユーザに提案しうるドライブ情報を取得する。
次に、提案タイミングの強化学習について説明する。提案タイミングを判定するための状態S(i)の特徴量X(j)は、例えば以下のように定義される。
・X1:ユーザの居場所…車内、自宅
・X2:車両の居場所詳細…運転席、助手席、後席
・X3:自宅の居場所詳細…リビング、ダイニング、台所、寝室、浴室、トイレ
・X4:車両の走行エリア…高速道路、一般道路(生活圏)、一般道路(生活圏外)
・X5:車両の周辺状況…渋滞中、道路規制中、その他の状態
・X6:車両でのユーザ状態…前進中、後退中、停車中、乗降中
・X7:自宅でのユーザ状態…立ち姿勢、座り姿勢、歩行中、横臥
・X8:車両でのユーザ行動…機器操作中、会話中、睡眠中
・X9:自宅でのユーザ行動…飲食中、オーディオ視聴中、作業中、電話中、会話中、睡眠中、スマートフォン操作中
図2に示すように、学習情報としての強化学習情報100は、学習結果記憶部33に記録されている。タイミング学習部35は、提案結果情報をエージェントECU11から取得したとき、その提案結果情報を提案履歴情報として提案履歴記憶部36に記録する。また、その提案結果情報に対応するユーザ状態学習部31により特定されたユーザ状態(X1〜X7)、ユーザ行動学習部32により特定されたユーザ行動(X8,X9)で定められる状態S(i)を特定する。状態S(i)は、既に学習されている場合もあるし、新たに得られる場合もある。
タイミング学習部35は、特定した状態S(i)に対し、新たに取得された提案結果情報に基づき報酬R(Si)を算出する。例えば状態S(i)のときにドライブ情報に基づく提案を行った際に、受け入れられた場合の報酬をR(Si)を高くし(例えば「1」)、受け入れられなかった場合の報酬R(Si)を低くする(例えば「0」)。
そして、タイミング学習部35は、算出した報酬R(Si)に基づき、状態価値関数V(Si)を算出する。タイミング学習部35は、過去に算出した報酬R(Si)´と、新たに算出した報酬R(Si)との平均を、その状態S(i)の状態価値関数V(Si)とする。例えば、特定した状態S(i)が過去に学習されていない場合には、算出した報酬R(Si)が状態価値関数V(Si)となる。一方、状態S(i)に対し、既に報酬R(Si)が付与されており、新たに報酬R(Si)´を算出した場合には、報酬R(Si)及びR(Si)´の相加平均が状態価値関数V(Si)となる。なお、過去の報酬R(Si)を状態価値関数V(Si)に反映できればよいため、報酬R(Si)及びR(Si)´の中央値、相乗平均等の相加平均以外の平均値を「平均」としてもよい。
図2に示す状態S(1)〜S(5)は、過去に提案が1回だけ行われたものである。例えば状態S(1)のときには提案が受け入れられなかったため(「失敗」)、状態価値関数V(Si)は「0」等の低い値である。また、状態S(2)のときには提案が受け入れられたため(「成功」)、状態価値関数V(Si)は「1」等の高い値である。
提案しうるドライブ情報が存在した時点から、状態S(i)が、図2に示すS(3)、S(4)、S(5)のように遷移し、状態S(5)のときに提案がなされ、提案が受け入れられたとすると、報酬をS(3)、S(4)、S(5)の全てに高い報酬が付与される。その結果、各状態S(3)〜S(5)の状態価値関数V(Si)が高くなる。
図2に示す状態S(6)は、平均化された報酬R(Si)を状態価値関数V(Si)としたものである。同じ状態S(i)での提案回数が多い場合において、提案タイミングによって報酬R(Si)が「0」や「1」等に変化しても、報酬R(Si)が平均化されることによって、状態価値関数V(Si)の値が過大又は過小となることを抑制することができる。
状態価値関数V(Si)が高い状態S(i)は、ユーザが提案を受け入れやすいと推定される状態であり、提案を行うタイミングとして適している。状態価値関数V(Si)が低い状態S(i)は、ユーザが提案を受け入れにくいと推定される状態であり、提案を行うタイミングとして適していない。エージェントECU11は、この強化学習結果に基づき、特定された状態S(i)がドライブ情報に基づく提案を行うタイミングとして適しているか否かを判定する。
次に図3〜図5を参照して、センター12及びエージェントECU11による処理手順を説明する。
まず図3を参照して、センター12による状態S(i)の特定処理を説明する。タイミング学習部35は、エージェントECU11から取得したユーザ状態推定情報及びユーザ行動推定情報と、学習結果記憶部33に記録された学習情報に基づき、ユーザの居場所を推定する(ステップS10)。また、タイミング学習部35は、居場所の推定結果に基づき、ユーザが車内にいるか否かを推定する(ステップS11)。タイミング学習部35は、ユーザが車内にいると推定すると(ステップS11:YES)、エージェントECU11から取得した車両情報に基づき走行エリアを特定し(ステップS12)、走行エリアの状況を特定する(ステップS13)。また、タイミング学習部35は、車両の状態を推定し(ステップS14)、車内でのユーザの行動を推定する(ステップS15)。
一方、タイミング学習部35は、ユーザの居場所が車内ではないと推定すると(ステップS11:NO)、ユーザの居場所が自宅であるか否かを推定する(ステップS16)。タイミング学習部35は、ユーザの居場所が自宅ではないと推定すると(ステップS16:NO)、状態S(i)が特定できない旨の通知をエージェントECU11に送信し、特定処理を終了する。タイミング学習部35は、ユーザの居場所が自宅であると推定すると(ステップS16:YES)、自宅でのユーザの状態を推定するとともに(ステップS17)、自宅でのユーザの行動を推定する(ステップS18)。
次に図4を参照して、センター12による提案タイミングの強化学習の手順について説明する。この処理は、センター12が、提案の受け入れ結果をエージェントECU11から受信した時に行われる。タイミング学習部35は、エージェントECU11から送信された提案結果情報に基づき、状態S(i)に対して報酬R(Si)を付与する(ステップS20)。例えばタイミング学習部35は、提案が受け入れられたと判断すると「1」を報酬R(Si)とし、提案が受け入れられていないと判断すると報酬R(Si)を「0」とする。
次に、タイミング学習部35は、状態価値関数V(Si)を更新する(ステップS21)。タイミング学習部35は、状態S(i)に対して算出した報酬と、状態S(i)に既に付与されている報酬との平均「mean(R(Si))」を求めて、この平均を新たな状態価値関数V(Si)とする。タイミング学習部35は、状態価値関数V(Si)を算出すると、強化学習情報100として学習結果記憶部33に記録する。
次に図5を参照して、エージェントECU11による提案タイミングの判定処理について説明する。エージェントECU11のタイミング判定部20は、ドライブについて提案内容があるか否かを判断する(ステップS1)。このとき、エージェントECU11は、センター12からドライブ情報を受信したか否かを判断する。例えば、ドライブ情報は、目的地又は経由地、出発地から目的地までの経路、所要時間等を含む。
エージェントECU11のタイミング判定部20は、提案内容がないと判断すると(ステップS1:NO)、提案タイミングの判定処理を終了してステップS1に戻り、センター12からのドライブ情報の提供を待機する。一方、エージェントECU11のタイミング判定部20は、ドライブの提案内容があると判断すると(ステップS1:YES)、状態S(i)を推定する(ステップS2)。具体的には、タイミング判定部20は、ユーザ状態推定部17及びユーザ行動推定部18に対して推定情報の出力を要求する。ユーザ状態推定部17及びユーザ行動推定部18は、画像認識部16から認識結果を取得し、車載機器54及び家電機器55から各種情報を取得する。タイミング判定部20は、ユーザ状態推定部17からユーザ状態推定情報を取得し、ユーザ行動推定部18からユーザ行動推定情報を取得して、センター12に送信する。
センター12の通信部30が、エージェントECU11からユーザ状態推定情報及びユーザ行動推定情報を取得すると、ユーザ状態学習部31及びユーザ行動学習部32が状態S(i)を特定する。ユーザ状態学習部31及びユーザ行動学習部32により特定された状態S(i)はタイミング学習部35に出力される。タイミング学習部35は、強化学習情報100の中から、特定された状態S(i)を検索する。タイミング学習部35は、検索の結果、同じ状態S(i)を抽出した場合には、その状態S(i)の状態価値関数V(Si)を強化学習結果としてエージェントECU11に送信する。一方、タイミング学習部35は、同じ状態S(i)を抽出できなかった場合には、同じ状態S(i)がないことを示す検索結果を強化学習結果としてエージェントECU11に送信する。
エージェントECU11のタイミング判定部20は、強化学習結果をセンター12から取得したか否かを判断する(ステップS3)。タイミング判定部20は、例えばユーザの居場所等が特定できなかった場合等、強化学習結果をセンター12から取得できない場合には(ステップS3:NO)、ドライブ情報の提案内容に基づく提案を行う(ステップS5)。具体的には、タイミング判定部20は、対話制御部25に提案要求を出力する。対話制御部25は、音声合成部26を介して、スピーカ52から提案内容に基づく音声を出力する。
一方、タイミング判定部20は、強化学習結果を取得すると(ステップS3:YES)、取得した強化学習結果に基づき、特定された状態S(i)が提案に適したタイミングである否かを判断する(ステップS4)。このとき、タイミング判定部20は、強化学習結果である状態価値関数V(Si)が所定値以上であるか否かを判断する。そして、状態価値関数V(Si)が所定値以上である場合には、状態S(i)が提案に適したタイミングであるとして、ドライブ情報の提案内容に基づく提案を行う(ステップS5)。一方、タイミング判定部20は、状態価値関数V(Si)が所定値未満である場合には、ドライブ情報の提案を行わず、一旦処理を終了して、ステップS1に戻る。さらに、タイミング判定部20は、同じ状態S(i)がないことを示す検索結果を受信した場合には、提案に適したタイミングであるとみなして、ドライブ情報の提案内容に基づく提案を行う(ステップS5)。
提案が実行されると、対話制御部25は、ユーザとの対話を通じて提案結果を取得する(ステップS6)。音声認識部27は、提案に対するユーザの発話音声を認識して、発話内容を対話制御部25に出力する。対話制御部25は、発話内容に基づき、ユーザが提案を受け入れたか否かを判断し、提案結果情報をセンター12に送信する。センター12は、提案結果情報を受信して、受信した提案結果情報に基づき提案タイミングの強化学習を行う(ステップS7、図4参照)。
このように、エージェントECU11は、常にドライブ情報が取得される都度、ユーザに提案を行うのではなく、ユーザが提案を受け入れやすいタイミングをユーザ毎に強化学習し、強化学習結果に基づき提案に適したタイミングのときに提案を行う。このため、ユーザは、ドライブ情報が取得される度に提案が行われる場合に比べ、煩わしさを感じない。また、潜在的にドライブの希望があるユーザに、提案に適したタイミングでドライブの提案を行うことで、ユーザにとって有用性の高い情報を提供できる。
以上説明したように、本実施形態によれば、以下の効果が得られるようになる。
(1)上記実施形態では、センター12は、過去に行われた提案の受け入れ結果を、ユーザの居場所、居場所でのユーザ状態及びユーザ行動を特徴量として含む状態とともに強化学習する。そして、エージェントECU11によって、センター12から取得された強化学習結果に基づいて、提案に適したタイミングであるか否かが判定され、提案に適したタイミングであるときに提案が行われる。このため、ユーザに対し、有用性の高い提案を、提案が受け入れられやすいタイミングで行うことができる。
(他の実施形態)
なお、上記実施形態は、以下のような形態をもって実施することもできる。
・上記実施形態では、対話制御部25を介したユーザとの対話を通じて、提案が受け入れられたかを判断した。これに代えて、携帯情報端末のタッチパネルディスプレイ、又は操作ボタンが提案受け入れの際にオン操作されることによって、提案が受け入れられたかを判断するようにしてもよい。
・上記実施形態では、センター12のタイミング学習部35が、ユーザ状態の特徴量及びユーザ行動の特徴量で定められる状態を特定するようにした。これ以外に、ユーザ状態学習部31及びユーザ行動学習部32のいずれか一方が、それらの特徴量で定められる状態を特定するようにしてもよい。又は、エージェントECU11が、画像認識結果に基づきユーザ状態及びユーザ行動を学習し、ユーザ状態の特徴量及びユーザ行動の特徴量で定められる状態を特定してもよい。
・上記実施形態では、エージェントECU11は、センター12から強化学習結果が得られない場合に(ステップS3:NO)、提案を実行するようにした(ステップS5)。これに代えて、センター12から強化学習結果が得られない場合には(ステップS3:NO)、提案を実行しないようにしてもよい。この態様においては、例えば、強化学習結果に基づかないタイミングでの提案が所定回数繰り返され、その提案の受け入れ結果を学習した強化学習結果を蓄積する。
・上記実施形態では、ユーザの居場所が「車内」又は「自宅」である場合に提案を行うようにした。これに加えて、ユーザの居場所が「車内」又は「自宅」以外である場合に提案を行うようにしてもよい。例えば、ユーザの居場所が「会社」、「電車」であって所定の時間帯の場合において提案を行うようにしてもよい。
・上記実施形態では、タイミング学習部35は、提案が受け入れられたときの報酬を例えば「1」として、状態S(i)に対して付与するようにした。これ以外に、ユーザとの対話を通じて、提案に対するユーザの感情を推定し、ユーザの感情に応じて報酬を変更するようにしてもよい。例えば、提案が受け入れられたときの提案に対するユーザの感情が肯定的であって「喜び」等が含まれるものであれば報酬を高くし、提案を受け入れたものの提案に対するユーザの感情が「喜び」等の肯定的な感情が含まれないものであれば報酬を低くしてもよい。
・上記実施形態では、強化学習を行うタイミング学習部35をセンター12に設けたが、エージェントECU11が強化学習を行うようにしてもよい。
・上記実施形態では、エージェントECU11は、ドライブ情報を提案するようにしたが、電車、自転車、徒歩により目的地又は経由地に向かうための情報(おでかけ情報)を提供するようにしてもよい。
・上記実施形態では、状態空間を構成する状態を、ユーザ状態及びユーザ行動によって定めた。これに代えて、状態を、ユーザ状態のみで定めるようにしてもよい。
・上記実施形態では、強化学習を行うタイミング学習部35をセンター12に設けた。これに代えて、タイミング学習部35を、エージェントECU11に設けるようにしてもよい。
・上記実施形態では、エージェントECU11を、携帯情報端末が備えるものとしたが、これに代えて、エージェントECU11を、車両に設けられたナビゲーションシステム等の車載機器54に設けてもよい。この場合、車内でのユーザ状態及びユーザ行動と、提案結果とが学習される。又は、エージェントECU11を、家電機器55に設けてもよい。この場合、自宅でのユーザ状態及びユーザ行動と、提案結果とが学習される。また、車載機器54に設けられたエージェントECU11からの情報及び家電機器55にも受けられたエージェントECU11からの情報をセンター12が統合するようにしてもよい。若しくは、エージェントECU11を、携帯情報端末、車載機器54、及び家電機器55以外の装置又はシステムに設けるようにしてもよい。
10…情報提供システム、11…エージェントECU、12…センター、15,30…通信部、16…画像認識部、17…ユーザ状態推定部、18…ユーザ行動推定部、20…タイミング判定部、25…対話制御部、26…音声合成部、27…音声認識部、31…ユーザ状態学習部、32…ユーザ行動学習部、33…学習結果記憶部、35…タイミング学習部、36…提案履歴記憶部、38…提案取得部、50…カメラ、51…マイク、52…スピーカ、54…車載機器、55…家電機器、100…強化学習情報。

Claims (1)

  1. ユーザに対する提案を取得する提案取得部と、
    前記ユーザの居場所及び当該居場所でのユーザ状態を特徴量として含む状態を特定する状態特定部と、
    提案が行なわれたときに、当該提案の受け入れ結果に応じて、当該提案が行なわれたときの前記状態に対して報酬を付与して学習情報とする提案結果学習部と、
    前記状態特定部により新たに特定された状態と、前記提案結果学習部により学習され前記特定された状態と類似度の高い状態の学習情報とを参照して、前記特定した状態が提案に適したタイミングに相当するか否かを判定し、前記特定した状態が提案に適したタイミングに相当すると判定した際に、前記ユーザに対して提案を行なう提案タイミング判定部と、を備える
    情報提供システム。
JP2016239582A 2016-12-09 2016-12-09 情報提供システム Active JP6642401B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016239582A JP6642401B2 (ja) 2016-12-09 2016-12-09 情報提供システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016239582A JP6642401B2 (ja) 2016-12-09 2016-12-09 情報提供システム

Publications (2)

Publication Number Publication Date
JP2018097474A JP2018097474A (ja) 2018-06-21
JP6642401B2 true JP6642401B2 (ja) 2020-02-05

Family

ID=62632970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016239582A Active JP6642401B2 (ja) 2016-12-09 2016-12-09 情報提供システム

Country Status (1)

Country Link
JP (1) JP6642401B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7048893B2 (ja) * 2018-07-26 2022-04-06 日本電信電話株式会社 学習装置、学習方法及びコンピュータプログラム
KR20210027396A (ko) * 2019-02-25 2021-03-10 가부시키가이샤 큐빗 로보틱스 정보 처리 시스템 및 정보 처리 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100979516B1 (ko) * 2007-09-19 2010-09-01 한국전자통신연구원 네트워크 기반 로봇을 위한 서비스 추천 방법 및 서비스추천 장치
JP5520886B2 (ja) * 2011-05-27 2014-06-11 日本電信電話株式会社 行動モデル学習装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2018097474A (ja) 2018-06-21

Similar Documents

Publication Publication Date Title
US10302444B2 (en) Information processing system and control method
US20140257989A1 (en) Method and system for selecting in-vehicle advertisement
JP6466385B2 (ja) サービス提供装置、サービス提供方法およびサービス提供プログラム
JP2018100936A (ja) 車載装置及び経路情報提示システム
WO2018134960A1 (ja) 会話処理サーバー、会話処理サーバーの制御方法、及び端末
CN102652250A (zh) 导航装置
JP7139904B2 (ja) 情報処理装置及び情報処理プログラム
US20200191583A1 (en) Matching method, matching server, matching system, and storage medium
JP6642401B2 (ja) 情報提供システム
JP6552548B2 (ja) 地点提案装置及び地点提案方法
JPWO2018061353A1 (ja) 情報提供装置、及び移動体
JP2018133696A (ja) 車載装置、コンテンツ提供システムおよびコンテンツ提供方法
JP5769904B2 (ja) 評価情報投稿装置および評価情報投稿方法
JP6785889B2 (ja) サービス提供装置
JP6387287B2 (ja) 不明事項解消処理システム
US20220357172A1 (en) Sentiment-based navigation
JP2019207544A (ja) 走行制御装置、走行制御方法、及び走行制御プログラム
US20210107492A1 (en) Information output control method and information output control system
JP7013729B2 (ja) 関係性推定方法、関係性推定装置、及び情報提供方法
WO2023062814A1 (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
CN111754288A (zh) 服务器装置、信息提供系统、信息提供方法及存储介质
JP2019105966A (ja) 情報処理方法及び情報処理装置
JP2023059442A (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP2023059444A (ja) 音声出力装置、音声出力方法、プログラム及び記憶媒体
JP7226233B2 (ja) 車両、情報処理システム、プログラム及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191216

R151 Written notification of patent or utility model registration

Ref document number: 6642401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151