JP6816247B2 - 情報提供装置 - Google Patents

情報提供装置 Download PDF

Info

Publication number
JP6816247B2
JP6816247B2 JP2019233169A JP2019233169A JP6816247B2 JP 6816247 B2 JP6816247 B2 JP 6816247B2 JP 2019233169 A JP2019233169 A JP 2019233169A JP 2019233169 A JP2019233169 A JP 2019233169A JP 6816247 B2 JP6816247 B2 JP 6816247B2
Authority
JP
Japan
Prior art keywords
user
information
emotion
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019233169A
Other languages
English (en)
Other versions
JP2020061177A (ja
Inventor
英輔 相馬
英輔 相馬
博光 湯原
博光 湯原
滝川 桂一
桂一 滝川
後藤 紳一郎
紳一郎 後藤
聡 今泉
聡 今泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019233169A priority Critical patent/JP6816247B2/ja
Publication of JP2020061177A publication Critical patent/JP2020061177A/ja
Application granted granted Critical
Publication of JP6816247B2 publication Critical patent/JP6816247B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、情報提供装置に関する。
従来、車両の乗員に対して情報を提供する装置が知られている。
例えば、特許文献1の技術は、運転者の運転負荷レベルに応じて、運転負荷が高い場合には情報を提示せずに保留し、運転負荷が低い場合に情報を提示することにより、運転者の注意を妨げることなく情報を提供することができる装置が開示されている。
特開2008−241309号公報
特許文献1の技術は、運転負荷レベルに基づいて情報の提示の要不要を判断している。運転の負荷状況は刻一刻と変化するものであるから、運転負荷レベルの変化に応じて頻繁に情報の出力と非出力とが切り替わる可能性があり、車両のユーザに違和感を覚えさせるおそれがあった。
そこで、本発明は、車両のユーザの違和感を軽減または解消しながら、運転負荷に応じて情報を提供することができる情報提供装置を提供することを目的とする。
本発明の情報提供装置は、
情報を出力する出力部と、
車両の走行状態を検出する走行状態検出部と、
前記車両の仮想的な感情を決定する感情決定部と、
前記車両の仮想的な感情に応じて、前記出力部に出力させる情報の内容及び出力態様の一方または両方を決定する出力制御部と、
前記情報に対する前記車両のユーザの反応を検知する入力部と、を備え、
前記感情決定部は、前記走行状態検出部により検出された前記車両の走行状態が所定の走行状態である期間が所定の期間以上継続したという条件を充足する場合に、所定の感情を前記車両の仮想的な感情として決定するように構成され、
さらに、
前記条件が充足されている期間において、前記入力部により検知された前記情報に対する前記ユーザの反応に基づいて、前記ユーザの嗜好を推定する嗜好推定部と、
前記車両のユーザの感情を推定するユーザ感情推定部と、を備え、
前記嗜好推定部は、前記ユーザ感情推定部により推定された前記ユーザの感情に応じて、前記入力部により検知された前記情報に対する前記ユーザの反応に対する信頼度を決定し、前記信頼度に基づいて前記ユーザの反応の確度を決定し、前記ユーザの反応と前記ユーザの反応の確度とに基づいて、前記ユーザの嗜好を推定するように構成されている。
当該構成の情報提供装置によれば、車両の仮想的な感情に応じて出力部に出力される情報の内容及び出力態様の一方または両方が決定される。出力される情報の内容または出力態様に、車両の仮想的な感情に応じた傾向が反映されることとなる。種々の傾向の情報の内容または出力態様を認知したユーザに対して、あたかも車両が感情を有しているかのような印象を与えうる。ひいては、情報の内容及び出力態様の一方または両方が変更されたとしても、車両の感情が変わったことが原因だとユーザに印象を与えうることができ、ユーザに与えられる違和感を軽減または解消しうる。
また、前記車両の走行状態が所定の走行状態である期間が所定の期間以上継続したという条件が充足される場合、車両の走行が安定しており、条件を満たさない場合と比べれば長期にわたって運転負荷が低い状態が継続しやすい。車両の走行が安定している場合には、ユーザの運転負荷が低いと推察される。運転負荷が低い場合、ユーザは出力される情報に注意を払いやすい。このようなユーザが情報に注意を払いやすい期間に、所定の感情に応じた傾向の情報の内容及び出力態様の一方または両方で情報が出力されることで、情報に注意を払っているときに情報の内容及び出力態様の一方または両方が頻繁に変化する場合よりも、ユーザに与えられる違和感を軽減または解消しながら、情報を適切に与えうる。
これにより、ユーザに与えられる違和感を軽減または解消しながら、ユーザの運転負荷に応じてユーザに対して適切に情報を与えうる。
本発明の情報提供装置において、
前記情報に対する前記車両のユーザの反応を検知する入力部と、
前記条件が充足されている期間において、前記入力部により検知された前記情報に対する前記ユーザの反応に基づいて、前記ユーザの嗜好を推定する嗜好推定部とを備えることが好ましい。
本明細書において「反応」とは、無条件反射もしくは条件反射等の、生体において刺激にもとづいて起こる運動に加え、ある出来事もしくは動作などに対するコミュニケーションもしくは動作等の応答も含む用語として用いる。
当該構成の情報提供装置によれば、前記条件が充足されている期間における出力部に出力される情報に対するユーザの反応に基づいて、ユーザの嗜好が推定される。前述したとおり、条件が充足する期間は、運転負荷が低いと推定される期間であるところ、運転負荷が低いときにはユーザが提供された情報に注意を払いやすいと推察される。したがって、運転負荷が低いときの反応は、ユーザが提供された情報に注意を払った上での反応であると推察されるから、ユーザの嗜好を信頼性高く示している蓋然性が高い。
したがって、当該構成の情報提供装置によれば、信頼性の高い反応に基づいてユーザの嗜好が精度よく推定されうる。
当該構成の情報提供装置において、
前記所定の感情に応じて出力される情報は、前記ユーザの嗜好を推定するための質問を含むことが好ましい。
当該構成の情報提供装置によれば、車両の所定の感情に応じて出力される情報が前記ユーザの嗜好を推定するための質問を含むので、効率よくユーザの嗜好を推定するための信頼性の高い情報を収集しうる。
本発明によれば、前記ユーザ感情推定部により推定された前記ユーザの感情に応じて、ユーザの反応に対する信頼性を決定するように構成されている。
ここで、ユーザの機嫌が悪いときにはユーザが提供された情報にあまり注意を払わなかったり、逆にユーザの機嫌がよいときにはユーザが提供された情報に注意を払い、真摯に対応するなど、ユーザの反応の信頼性はユーザの感情に応じて変化すると推察される。
したがって、ユーザの感情に応じてユーザの反応に信頼度が付加されることにより、ユーザの嗜好を推定するにあたって基礎となる情報を適切に信頼度を評価することができる。
本発明の情報提供装置において、
前記車両の走行状態は、前記車両の走行速度を含み、
前記条件は、前記車両の走行速度がゼロを含まない速度範囲に含まれる期間が所定の期間以上継続したという条件であることが好ましい。
当該構成の情報提供装置によれば、条件が充足される期間においては、車両の走行速度が一定の範囲で安定しているので、ユーザの運転負荷が低くなり、ユーザが出力部から出力される情報に注意を払いやすくなると推察される。この期間に車両の所定の感情に応じて出力部から出力される情報の内容及び出力態様の一方または両方が決定されることで、ユーザに与えられる違和感を軽減または解消しながら、ユーザの運転負荷に応じてユーザに対して適切に情報を与えうる。
本発明の情報提供装置において、
前記車両の走行状態は、前記車両の加速度を含み、
前記条件は、前記車両の加速度がゼロを含む加速度範囲に含まれる期間が所定の期間以上継続したという条件であることが好ましい。
当該構成の情報提供装置によれば、条件が充足される期間においては、車両の加速度が一定の範囲で安定しているので、ユーザの運転負荷が低くなり、ユーザが出力部から出力される情報に注意を払いやすくなると推察される。この期間に車両の所定の感情に応じて出力部から出力される情報の内容及び出力態様の一方または両方が決定されることで、ユーザに与えられる違和感を軽減または解消しながら、ユーザの運転負荷に応じてユーザに対して適切に情報を与えうる。
基本システムの構成説明図。 エージェント装置の構成説明図。 携帯端末装置の構成説明図。 エージェントの感情表現の構成を説明する図。 情報出力処理のフローチャート。 基本感情表現のマップの説明図。 付加パーツのマップの説明図。
(基本システムの構成)
図1に示されている基本システムは、対象車両X(移動体)に搭載されているエージェント装置1、乗員により対象車両Xの内部に持ち込み可能な携帯端末装置2(例えばスマートホン)およびサーバ3により構成されている。エージェント装置1、携帯端末装置2およびサーバ3は無線通信網(例えばインターネット)を通じて相互に無線通信する機能を備えている。エージェント装置1および携帯端末装置2は、同一の対象車両Xの空間内に共存するなど、物理的に近接している場合、近接無線方式(例えばBluetooth(登録商標))により相互に無線通信する機能を備えている。対象車両Xが、本発明の「車両」に相当する。
(エージェント装置の構成)
エージェント装置1は、例えば図2に示されているように、制御部100、センサ部11(GPSセンサ111、車速センサ112およびジャイロセンサ113を備えている。)、車両情報部12、記憶部13、無線部14(近接無線通信部141および無線通信網通信部142を備えている。)、表示部15、操作入力部16、オーディオ部17(音声出力部)、ナビゲーション部18、撮像部191(車内カメラ)および音声入力部192(マイク)を備えている。エージェント装置1が、本発明の「情報提供装置」の一例に相
当する。表示部15及びオーディオ部17のそれぞれが、本発明の「出力部」の一例に相当する。操作入力部16及び音声入力部192のそれぞれが、本発明の「入力部」の一例に相当する。センサ部11が、本発明の「走行状態検出部」に相当する。制御部100が、後述する演算を実行することにより、本発明の「感情決定部」「出力制御部」「嗜好推定部」「ユーザ感情推定部」として機能する。なお、情報提供装置のすべての構成要素がエージェント装置1に含まれる必要はなく、エージェント装置1が通信を介して外部のサーバ等に必要な機能を実行させることにより、情報提供装置の構成要素として機能させてもよい。
センサ部11のGPSセンサ111はGPS(Global Positioning System)衛星からの信号を基に現在位置を算出する。車速センサ112は回転軸からのパルス信号を基に対象車両Xの速度を算出する。ジャイロセンサ113は角速度を検出する。これらGPSセンサ、車速センサ、ジャイロセンサにより、対象車両Xの現在位置や向きを正確に算出することが可能となっている。また、GPSセンサ111は、GPS衛星から現在日時を示す情報を取得してもよい。
車両情報部12は、CAN−BUSなどの車内ネットワークを通じて車両情報を取得する。車両情報には、例えばイグニッションSWのON/OFF、安全装置系の動作状況(ADAS、ABSおよびエアバッグなど)の情報が含まれている。操作入力部16は、スイッチ押下等の操作のほか、乗員の感情推定に利用可能なステアリング、アクセルペダルまたはブレーキペダルの操作量、窓およびエアコンの操作(温度設定など)などの入力を検知する。
記憶部13は、エージェント画像131を記憶する。
エージェント画像131は、車両Xの仮想的なキャラクターの顔の画像として、人の顔を模した画像である。エージェント画像131は、図4に示されるように、基本表情画像41と、付加パーツ42とを含む。基本表情画像41と付加パーツ42とを組み合わせることにより、応用表情画像43が構成される。エージェント画像131は、例えばサーバ3からダウンロードされた画像である。
基本表情画像41は、例えば、図4に示されるように、好き、平穏、嫌い及び耐えるという感情に対応する夫々の画像である。付加パーツ42は、基本表情画像41のそれぞれに対応する愛しい、楽しい、機嫌がいい、安心、悲しい、怒り、苦しい及び辛いに関するパーツである。
例えば、好きの基本表情画像411と、好きに対応する愛しいの付加パーツ421とが組み合わされることにより、愛しいの応用表現画像431が構成される。
無線部14の近接無線通信部141は、例えばWi−Fi: Wireless Fidelity(登録商標)、Bluetooth(登録商標)等の通信部であり、無線通信網通信部142は、3Gやセルラー、LTE通信等のいわゆる携帯電話網に代表される無線通信網に接続される通信部である。
(携帯端末装置の構成)
携帯端末装置2は、例えば図3に示されているように、制御部200、センサ部21(GPSセンサ211およびジャイロセンサ213を備えている。)、記憶部23(データ記憶部231およびアプリケーション記憶部232を備えている。)、無線部24(近接無線通信部241および無線通信網通信部242を備えている。)、表示部25、操作入力部26、音声出力部27、撮像部291(カメラ)および音声入力部292(マイク)
を備えている。携帯端末装置2が、本発明の「情報提供装置」として機能してもよい。この場合、表示部25及び音声出力部27のそれぞれが、本発明の「出力部」の一例に相当する。操作入力部26及び音声入力部292のそれぞれが、本発明の「入力部」の一例に相当する。制御部200が、本発明の「感情決定部」「出力制御部」「嗜好推定部」「ユーザ感情推定部」として機能しうる。
携帯端末装置2は、エージェント装置1と共通する構成要素を備えている。携帯端末装置2は、車両情報を取得する構成要素(図2/車両情報部12参照)を備えていないが、例えば近接無線通信部241を通じてエージェント装置1又は対象車両Xに備えられた「走行状態検出部」から車両情報を取得することが可能である。また、アプリケーション記憶部232に記憶されているアプリケーション(ソフトウェア)にしたがって、エージェント装置1のオーディオ部17およびナビゲーション部18のそれぞれと同様の機能を携帯端末装置2が備えていてもよい。
(サーバの構成)
サーバ3は、一又は複数のコンピュータにより構成されている。サーバ3は、それぞれのエージェント装置1または携帯端末装置2から、データ及びリクエストを受信し、データをデータベース等の記憶部に記憶し、リクエストに応じた処理を実行し、処理結果をエージェント装置1または携帯端末装置2に送信するように構成されている。
サーバ3を構成するコンピュータの一部又は全部が、移動局、例えば、一又は複数のエージェント装置1または携帯端末装置2の構成要素により構成されていてもよい。
本発明の構成要素が担当演算処理を実行するように「構成されている」とは、当該構成要素を構成するCPU等の演算処理装置が、ROM、RAM等のメモリ又は記録媒体から必要な情報に加えてソフトウェアを読み出し、当該情報に対して当該ソフトウェアにしたがって演算処理を実行するように「プログラムされている」又は「デザイン(設計)されている」ことを意味する。各構成要素が共通のプロセッサ(演算処理装置)により構成されてもよく、各構成要素が相互通信可能な複数のプロセッサにより構成されてもよい。
(情報出力処理)
次に、図5〜図7を参照して、情報出力処理を説明する。
エージェント装置1の制御部100は、センサ部11により取得された情報、操作入力部16により検知された操作、撮像部191により撮像された画像、音声入力部192により検知された音声及び不図示の対象車両Xのユーザである対象ユーザが装着しているウェアラブルセンサから取得された対象ユーザの生体情報のうちの少なくとも1つに基づいて、対象車両Xの走行状態及び対象ユーザの状態の一方または両方を認識する(図5/STEP102)。また、制御部100は、認識した対象車両Xの走行状態及び対象ユーザの状態の一方または両方の時系列データを記憶部13に記憶する。
例えば、制御部100は、センサ部11により取得された情報に基づいて、対象車両Xの動作状態としての、時系列的な位置、対象車両Xの走行速度、対象車両Xの向きを認識する。
また、例えば、制御部100は、操作入力部16により検知された操作に基づいて、対象ユーザの状態としての、「今の気分は?」等のアンケートに対する回答を認識する。
また、例えば、制御部100は、撮像部191により撮像された画像に基づいて、対象ユーザの状態としての、対象ユーザの表情及び挙動を認識する。
また、例えば、制御部100は、音声入力部192により検知された音声に基づいて、対象ユーザの状態としての、対象ユーザの発言内容及び発言する際の声の高さを認識する。
また、例えば、制御部100は、対象ユーザが装着したウェアラブルデバイスから受信した生体情報(筋電、脈拍、血圧、血中酸素濃度、体温等)を認識する。
制御部100は、対象車両Xの走行状態及び対象ユーザの状態の一方または両方に基づいて、対象ユーザの感情を推定する(図5/STEP104)。
例えば、制御部100は、あらかじめ定められた規則に従って、対象車両Xの走行状態及び対象ユーザの状態の一方または両方に基づいて、対象ユーザの感情を推定してもよい。
感情を示す情報は、好き、平穏、嫌い、耐えるのような感情の種別と、整数で表され、感情の強弱を示す強度とを含む。感情の種別は、好き、平穏のように肯定的な感情と、嫌い、耐えるのような否定的な感情とを少なくとも含む。
たとえば、対象車両Xの速度が所定の速度以上である状態が所定の時間以上続いている場合、制御部100は、肯定的な感情、例えば好きを対象ユーザの感情の種別として推定してもよい。また、対象車両Xの速度が所定の速度未満である状態が所定の時間以上続いていたり、対象車両Xの速度が短期間で頻繁に増減しているような場合には、制御部100は、否定的な感情、肯定的な感情、例えば嫌いを対象ユーザの感情の種別として推定してもよい。
また、制御部100は、これらの状態が長く続いているほど、高い値を対象ユーザの感情の強度として推定してもよい。
また、制御部100は、例えば、アンケートに対する回答に基づいて、対象ユーザの感情を推定してもよい。たとえば、アンケートに対する回答が「とても落ち着いている」であった場合には、制御部100は、対象ユーザの感情の種別を肯定的な感情の「平穏」、対象ユーザの感情の強度を高い値(たとえば3)として推定してもよい。アンケートに対する回答が「少しイライラしている」であった場合には、制御部100は、対象ユーザの感情の種別を否定的な感情の「嫌い」、対象ユーザの感情の強度を低い値(たとえば1)として推定してもよい。
また、制御部100は、対象ユーザの表情に基づいて、対象ユーザの感情を推定してもよい。たとえば、制御部100は、画像解析を行って対象ユーザが笑っているような表情をしていると判断した場合、対象ユーザの感情の種別を肯定的な感情の「好き」、対象ユーザの感情の強度を高い値(たとえば5)として推定してもよい。また、たとえば、制御部100は、画像解析を行って対象ユーザがむっとした表情をしていると判断した場合、制御部100は、対象ユーザの感情の種別を否定的な感情の「嫌い」、対象ユーザの感情の強度を低い値(たとえば2)として推定してもよい。これに加えて又は代えて、制御部100は、対象ユーザの視線または顔の向きを加味して対象ユーザの感情を推定してもよい。
また、制御部100は、対象ユーザの挙動に基づいて、対象ユーザの感情を推定してもよい。たとえば、制御部100は、画像解析を行って対象ユーザの動きがほとんどないと判断した場合、制御部100は、対象ユーザの感情の種別を肯定的な感情の「平穏」、感
情の強度を低い値(たとえば2)として推定してもよい。また、たとえば、制御部100は、画像解析をおこなって対象ユーザが落ち着きなく動いていると判断した場合、制御部100は、対象ユーザの感情の種別を否定的な感情の「嫌い」、感情の強度を高い値(たとえば4)として推定してもよい。
また、制御部100は、対象ユーザの発言内容に基づいて、対象ユーザの感情を推定してもよい。たとえば、制御部100は、音声解析を行って対象ユーザの発言内容が何かをほめたり、期待したりしている等肯定的な内容であると判断した場合には、対象ユーザの感情を肯定的な感情である「好き」、対象ユーザの感情の強度を低い値(たとえば1)として推定してもよい。たとえば、制御部100は、音声解析を行って対象ユーザの発言内容が何かを非難したりする等否定的な内容であると判断した場合には、対象ユーザの感情を否定的な感情である「嫌い」、対象ユーザの感情の強度を高い値(たとえば5)として推定してもよい。また、制御部100は、対象ユーザの発言内容に特定のキーワードが含まれる場合(「いいね」「超いいね」等)に、当該キーワードに関連付けられた感情の種別と、感情の強度とを対象ユーザの感情として推定してもよい。
また、制御部100は、対象ユーザの発言する際の声の高さに基づいて、対象ユーザの感情を推定してもよい。たとえば、制御部100は、対象ユーザの発言する際の声の高さが所定の高さ以上である場合、対象ユーザの感情を肯定的な感情である「好き」、対象ユーザの感情の強度を高い値(たとえば5)として推定してもよい。制御部100は、対象ユーザの発言する際の声の高さが所定の高さ未満である場合、対象ユーザの感情を否定的な感情である「耐える」、対象ユーザの感情の強度を中程度の値(たとえば3)として推定してもよい。
また、制御部100は、対象ユーザが装着したウェアラブルデバイスからの生体情報(筋電、脈拍、血圧、血中酸素濃度、体温等)を用いて対象ユーザの感情を推定してもよい。
また、例えば、制御部100は、機械学習によって生成された対象車両Xの走行状態及び対象ユーザの状態から対象ユーザの感情を出力する感情エンジンを用いて、対象車両Xの走行状態及び対象ユーザの状態に基づいて、対象ユーザの感情を推定してもよい。
また、例えば、制御部100は、あらかじめ定められたテーブルを参照して、対象車両Xの走行状態及び対象ユーザの状態に基づいて、対象ユーザの感情を推定してもよい。
制御部100は、これらを組み合わせて対象ユーザの感情を推定してもよい。
制御部100は、対象車両Xの走行状態が所定の走行状態である期間が所定の期間以上継続しているという条件が充足しているかを判定する(図5/STEP106)。
所定の走行状態とは、例えば、対象車両Xが高速道路を走行しているなど、対象車両Xの走行が安定している可能性がある状態であることが好ましい。例えば、所定の走行状態とは、対象車両Xの走行速度が所定の速度範囲(ゼロkm/hより大きい第1速度以上、かつ、第1速度以上の第2速度以下)に含まれるような状態であってもよい。また、例えば、所定の走行状態とは、対象車両Xの前後加速度または横加速度が急加速または急減速がない所定の加速度範囲(ゼロkm/h2以下の第1加速度以上、かつ、ゼロkm/h2以上の第2加速度以下)に含まれるような状態であってもよい。また、例えば、所定の走行状態とは、対象車両Xの向きがある方向から所定の角度範囲に含まれるような状態であってもよい。ある方向とは、例えば、対象車両Xの時系列的な位置から推定される対象車両Xの進行方向であってもよい。
所定の期間とは、対象車両Xが高速道路を走行しているなど、対象車両Xの走行が安定している蓋然性が高いと判断できるような期間(たとえば30秒、1分または5分)であることが好ましい。
当該判定結果が肯定的である場合(図5/STEP106・・YES)、制御部100は、第1感情を対象車両Xの仮想的な感情として決定する(図5/STEP108A)。第1感情は、例えば、肯定的な感情であり、好き、平穏、愛しい、楽しい、機嫌がいい、安心である。
制御部100は、さらに、対象ユーザの感情を勘案して、対象ユーザの感情に近くなるように、対象車両Xの仮想的な感情を決定してもよい。制御部100は、エージェント感情指標値を第1感情(たとえば「楽しい」)になるように調整したうえで、後述する図5/STEP108Bと同様の処理により対象車両Xの仮想的な感情を決定してもよい。
制御部100は、第1の感情に対応するエージェント画像を作成する(図5/STEP110A)。例えば、楽しいの感情であれば、図4の基本表現41のうち好きの基本表現と、付加パーツ42のうち楽しいの付加パーツとを組み合わせることで、楽しいの応用表現を作成する。
制御部100は、第1の感情に応じて、出力する情報の内容及び出力態様を選択する(図5/STEP112A)。出力する情報の内容は、ユーザの嗜好に関する質問、その他の質問、ニュース、豆知識、ユーザが走行している地域の紹介、有名な地点の紹介、音楽等のコンテンツ及びその説明等、様々な内容であってもよいが、ユーザの嗜好に関する質問が含まれていることが好ましい。また、出力される情報の情報量は、豊富であることが好ましく、所定の閾値以上の情報量であることが好ましい。また、情報を出力する間隔は、比較的頻繁であることが好ましく、所定の間隔以下で情報が出力されることが好ましい。また、出力される情報の出力態様は、第1の感情を反映したものであることが好ましく、例えば、出力される音声のトーンが高いものであることが好ましい。
制御部100は、選択された出力する情報の内容及び出力態様に従って、表示部15及びオーディオ部17の一方または両方に情報を出力する(図5/STEP114A)。
制御部100は、操作入力部16、撮像部191、音声入力部192及びウェアラブルセンサを介して、対象ユーザの反応としての、操作情報、対象ユーザの表情、対象ユーザの挙動、対象ユーザの音声および対象ユーザの生体情報のうちの少なくとも1つを認識する(図5/STEP116A)。
制御部100は、対象ユーザの感情に基づいて、ユーザの反応の信頼度を評価する(図5/STEP118A)。例えば、制御部100は、対象ユーザの感情が肯定的な感情である場合、感情の強度が高いほど、ユーザの反応の信頼度が高いと評価する。例えば、制御部100は、対象ユーザの感情が肯定的な感情である場合のほうが、対象ユーザの感情が否定的な感情である場合よりもユーザの反応の信頼性が高いと評価する。例えば、制御部100は、対象ユーザの感情が否定的な感情である場合、対象ユーザの感情の強度が低い(否定的な感情が弱い)ほど、ユーザの反応の信頼性が高いと評価する。
制御部100は、対象ユーザの反応とその信頼度とに基づいて、対象ユーザの嗜好を推定する(図5/STEP120A)。
例えば、図5/STEP114Aで出力された質問が「海を好き?」であり、図5/S
TEP116Aでのユーザの反応がその質問を肯定するような内容であり、図5/STEP118Aでの信頼度が高い場合、制御部100は、ユーザが海を好きな確度は高いと判断する。また、例えば、図5/STEP114Aで出力された質問が「海を好き?」であり、図5/STEP116Aでのユーザの反応がその質問を肯定するような内容であり、図5/STEP118Aでの信頼度が低い場合、制御部100は、ユーザが海を好きな確度は低いと判断する。
また,例えば、図5/STEP114Aで出力された質問が「海を好き?」であり、図5/STEP116Aでのユーザの反応がその質問を否定するような内容であり、図5/STEP118Aでの信頼度が高い場合、制御部100は、ユーザが海を嫌い確度は高いと判断する。また、例えば、図5/STEP114Aで出力された質問が「海を好き?」であり、図5/STEP116Aでのユーザの反応がその質問を否定するような内容であり、図5/STEP118Aでの信頼度が低い場合、制御部100は、ユーザが海を嫌いな確度は低いと判断する。
制御部100は、推定されたユーザの嗜好を示す情報を記憶部13に記憶するとともに、サーバ3に送信する。サーバ3は、受信した推定されたユーザの嗜好を示す情報を対象ユーザを識別する情報とともに記憶する。
制御部100は、推定されたユーザの嗜好に基づいて、出力する情報を決定し、表示部15およびオーディオ部17の一方または両方に出力する(図5/STEP122A)。
例えば、制御部100は、ユーザが海を好きであるとの確度が高いと判断した場合には、海に関する情報(海に関するニュース、海に関する話題、海に関する音楽、所定距離以内の海の紹介)の出力頻度を所定の基準よりも高めてもよいし、出力内容を所定の基準よりもより詳細にしてもよいし、出力時間を所定の基準よりも長くしてもよいし、出力音量等を所定の基準よりも大きくしてもよい。
また、例えば、制御部100は、ユーザが海を嫌いであるとの確度が高いと判断した場合には、海に関する情報(海に関するニュース、海に関する話題、海に関する音楽、所定距離以内の海の紹介)の出力頻度を所定の基準よりも低めてもよいし、出力内容をより所定の基準よりも簡素にしてもよいし、出力時間を所定の基準よりも短くしてもよいし、出力音量等を所定の基準よりも小さくしてもよい。
また、制御部100は、ユーザの嗜好の確度が低い場合には、ユーザの嗜好の確度を高めるため、同種の情報を出力するようにしてもよい。
図5/STEP106の判定結果が否定的である場合(図5/STEP106・・NO)、制御部100は、対象車両Xの仮想的な感情として、第2感情を決定し、第2感情に応じた表現を決定する(図5/STEP108B、図5/STEP110B)。制御部100は、ユーザの感情と類似した感情となるように、対象車両Xの仮想的な感情を決定する。制御部100は、さらに、安定的な走行の際には肯定的な感情になりやすくなり、急ブレーキ、急ハンドルがあった場合には否定的感情になりやすくなるなど、ユーザ感情に加えて対象車両Xの走行状態を加味して対象車両Xの仮想的な感情を決定してもよい。
例えば、制御部100は、ユーザの感情を、定常状態の第1値および穏やかさの第2値で評価し、第1値および第2値をエージェント感情指標値として評価する。
そして、制御部100は、エージェント感情指標値を元に図6または図7に示される感情マップに基づいて、対象車両Xの仮想的な感情を決定し、当該感情に対応する表現を決
定する。なお、図6および図7の感情マップは、定常状態の第1軸と、穏やかさの第2軸であらわされている。
例えば、エージェント感情指標値が図6の第1象限に含まれる場合、制御部100は、対象車両Xの仮想的な感情を「好き」と決定し、エージェントの感情表現の基本表現として、好きの基本表情画像411を選択する。制御部100は、画像に代えてまたは加えて、エージェントの感情表現の基本表現として、内容又は発声態様がエージェントの感情に対応するような音声メッセージ又は音楽を選択してもよい。
また、例えば、エージェント感情指標値が第1軸の値が第1閾値T1以上かつ及び第2軸の値が第2閾値T2以上である場合、制御部100は、図7に示されるようなマップを用いて、対象車両Xの仮想的な感情を「愛しい」と決定し、エージェントの感情表現の応用表現として、「愛しい」の付加パーツ421を選択する。また、例えば、エージェント感情指標値が第1軸の値が第1閾値T1以上かつ及び第2軸の値がゼロ以上第2閾値T2未満である場合、制御部100は、対象車両Xの仮想的な感情を「楽しい」と決定し、エージェントの感情表現の応用表現として、「楽しい」の付加パーツ422を選択する。また、例えば、エージェント感情指標値が第1軸の値が0以上第1閾値T1未満である場合、制御部100は、エージェントの感情表現の応用表現としての付加パーツを選択しない。また、制御部100は、第1軸又は第2軸とは異なる評価軸を基にして、付加パーツを選択してもよい。
制御部100は、画像に代えてまたは加えて、エージェントの感情表現の付加パーツとして、内容又は発声態様がエージェントの感情に対応するような音声メッセージ又は音楽を選択してもよい。
制御部100は、第2の感情に応じて、出力する情報の内容及び出力態様を選択する(図5/STEP112B)。出力する情報の内容は、ニュース、豆知識、ユーザが走行している地域の紹介、有名な地点の紹介、音楽等のコンテンツ及びその説明等、様々な内容であってもよいが、ユーザの嗜好に関する質問が含まれないことが好ましい。また、出力される情報の情報量は、少ないことが好ましく、所定の閾値未満の情報量であることが好ましい。また、情報を出力する間隔は、比較的長いことが好ましく、所定の間隔以上の間隔をあけて情報が出力されることが好ましい。また、出力される情報の出力態様は、第2の感情を反映したものであることが好ましく、例えば、出力される音声のトーンが低いものであることが好ましい。
制御部100は、選択された出力する情報の内容及び出力態様に従って、表示部15及びオーディオ部17の一方または両方に情報を出力する(図5/STEP114B)。
(本実施形態の作用効果)
当該構成のエージェント装置1によれば、対象車両Xの仮想的な感情に応じて表示部15またはオーディオ部17の一方または両方に出力される情報の内容及び出力態様の一方または両方が決定される(図5/STEP112A又はSTEP112B)。出力される情報の内容または出力態様に、対象車両Xの仮想的な感情に応じた傾向が反映されることとなる。種々の傾向の情報の内容または出力態様を認知したユーザに対して、あたかも対象車両Xが感情を有しているかのような印象を与えうる。ひいては、情報の内容及び出力態様の一方または両方が変更されたとしても、対象車両Xの感情が変わったことが原因だとユーザに印象を与えうることができ、ユーザに与えられる違和感を軽減または解消しうる。
また、対象車両Xの走行状態が所定の走行状態である期間が所定の期間以上継続したと
いう条件が充足される場合(図5/STEP106・・YES)、対象車両Xの走行が安定しており、条件を満たさない場合と比べれば長期にわたって運転負荷が低い状態が継続しやすい。対象車両Xの走行が安定している場合には、ユーザの運転負荷が低いと推察される。運転負荷が低い場合、ユーザは出力される情報に注意を払いやすい。このようなユーザが情報に注意を払いやすい期間に、所定の感情に応じた傾向の情報の内容及び出力態様の一方または両方で情報が出力されることで(図5/STEP114A)、情報に注意を払っているときに情報の内容及び出力態様の一方または両方が頻繁に変化する場合よりも、ユーザに与えられる違和感を軽減または解消しながら、情報を適切に与えうる。
これにより、ユーザに与えられる違和感を軽減または解消しながら、ユーザの運転負荷に応じてユーザに対して適切に情報を与えうる。
当該構成のエージェント装置1によれば、条件が充足されている期間における表示部15及びオーディオ部17の一方または両方に出力される情報に対するユーザの反応に基づいて、ユーザの嗜好が推定される(図5/STEP120A)。前述したとおり、条件が充足する期間は、運転負荷が低いと推定される期間であるところ、運転負荷が低いときにはユーザが提供された情報に注意を払いやすいと推察される。したがって、運転負荷が低いときの反応は、ユーザが提供された情報に注意を払った上での反応であると推察されるから、ユーザの嗜好を信頼性高く示している蓋然性が高い。
したがって、当該構成のエージェント装置1によれば、信頼性の高い反応に基づいてユーザの嗜好が精度よく推定されうる。
当該構成のエージェント装置1によれば、車両の所定の感情に応じて出力される情報が前記ユーザの嗜好を推定するための質問を含むので、効率よくユーザの嗜好を推定するための信頼性の高い情報を収集しうる。
当該構成のエージェント装置1によれば、制御部100により推定された前記ユーザの感情に応じて、ユーザの反応に対する信頼性を決定するように構成されている(図5/STEP118A)。
ここで、ユーザの機嫌が悪いときにはユーザが提供された情報にあまり注意を払わなかったり、逆にユーザの機嫌がよいときにはユーザが提供された情報に注意を払い、真摯に対応するなど、ユーザの反応の信頼性はユーザの感情に応じて変化すると推察される。
したがって、ユーザの感情に応じてユーザの反応に信頼度が付加されることにより、ユーザの嗜好を推定するにあたって基礎となる情報を適切に信頼度を評価することができる。
当該構成のエージェント装置1によれば、条件が充足される期間においては、対象車両Xの走行速度が一定の範囲で安定しているので、ユーザの運転負荷が低くなり、ユーザが出力部から出力される情報に注意を払いやすくなると推察される。この期間に車両の所定の感情に応じて出力部から出力される情報の内容及び出力態様の一方または両方が決定されることで(図5/STEP112A)、ユーザに与えられる違和感を軽減または解消しながら、ユーザの運転負荷に応じてユーザに対して適切に情報を与えうる。
当該構成のエージェント装置1によれば、条件が充足される期間においては、対象車両Xの加速度が一定の範囲で安定しているので、ユーザの運転負荷が低くなり、ユーザが出力部から出力される情報に注意を払いやすくなると推察される。この期間に車両の所定の感情に応じて出力部から出力される情報の内容及び出力態様の一方または両方が決定され
ることで(図5/STEP112A)、ユーザに与えられる違和感を軽減または解消しながら、ユーザの運転負荷に応じてユーザに対して適切に情報を与えうる。
1‥エージェント装置、2‥携帯端末装置、3‥サーバ、11‥センサ部、111‥GPSセンサ、112‥車速センサ、113‥ジャイロセンサ、12‥車両情報部、13‥記憶部、14‥無線部、141‥近接無線通信部、142‥無線通信網通信部、15‥表示部、16‥操作入力部、17‥オーディオ部、18‥ナビゲーション部、191‥撮像部(車内カメラ)、192‥音声入力部(マイク)、21‥センサ部、211‥GPSセンサ、213‥ジャイロセンサ、23‥記憶部、231‥データ記憶部、232‥アプリケーション記憶部、24‥無線部、241‥近接無線通信部、242‥無線通信網通信部、25‥表示部、26‥操作入力部、27‥音声出力部、291‥撮像部(カメラ)、292‥音声入力部(マイク)、X‥車両(移動体)。

Claims (5)

  1. 所定の嗜好対象についての情報を出力する出力部と、
    前記所定の嗜好対象についての情報に対するユーザの反応を検知する入力部と、
    前記入力部により検知された前記所定の嗜好対象についての情報に対する前記ユーザの反応に基づいて、前記所定の嗜好対象についての前記ユーザの嗜好を推定する嗜好推定部と、
    前記ユーザの感情を推定するユーザ感情推定部と、を備え、
    前記嗜好推定部は、
    前記ユーザ感情推定部により推定された前記ユーザの感情に応じて、前記入力部により検知された前記所定の嗜好対象についての情報に対する前記ユーザの反応に対する信頼度を決定し、
    前記ユーザの反応が前記所定の嗜好対象についての情報に対して肯定的である場合は、前記信頼度が高いほど前記ユーザが前記所定の嗜好対象を好む確度を高く決定し、前記ユーザの反応が前記所定の嗜好対象についての情報に対して否定的である場合は、前記信頼度が高いほど前記ユーザが前記所定の嗜好対象を嫌う確度を高く決定し、
    前記所定の嗜好対象に対する前記ユーザの好む確度及び嫌う確度に基づいて、前記所定の嗜好対象に対する前記ユーザの嗜好を推定するように構成されている情報提供装置。
  2. 請求項1記載の情報提供装置において、
    出力される情報は、前記ユーザの嗜好を推定するための質問を含む情報提供装置。
  3. 請求項1又は2記載の情報提供装置において、
    前記ユーザの感情が肯定的な感情である場合、感情の強度が高いほど、ユーザの反応の信頼度が高いと評価する情報提供装置。
  4. 請求項1〜3のいずれか1項に記載の情報提供装置において、
    前記ユーザの感情が否定的な感情である場合、感情の強度が高いほど、ユーザの反応の信頼度が低いと評価する情報提供装置。
  5. 請求項1〜4のいずれか1項に記載の情報提供装置において、
    前記ユーザの反応が前記所定の嗜好対象についての情報に対して肯定的である場合及び否定的である場合のいずれの場合も、前記確度が低い場合には、出力した情報と同種の情報を再度出力し、再度出力した情報に対する前記ユーザの反応に基づいて、ユーザの嗜好を推定する情報提供装置。
JP2019233169A 2019-12-24 2019-12-24 情報提供装置 Active JP6816247B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019233169A JP6816247B2 (ja) 2019-12-24 2019-12-24 情報提供装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019233169A JP6816247B2 (ja) 2019-12-24 2019-12-24 情報提供装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017112831A Division JP6639444B2 (ja) 2017-06-07 2017-06-07 情報提供装置及び情報提供方法

Publications (2)

Publication Number Publication Date
JP2020061177A JP2020061177A (ja) 2020-04-16
JP6816247B2 true JP6816247B2 (ja) 2021-01-20

Family

ID=70219036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019233169A Active JP6816247B2 (ja) 2019-12-24 2019-12-24 情報提供装置

Country Status (1)

Country Link
JP (1) JP6816247B2 (ja)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249949A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法、感情生成装置、記録媒体
JP2001249945A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法および感情生成装置
JP4682714B2 (ja) * 2005-06-14 2011-05-11 トヨタ自動車株式会社 対話システム
EP2343660A1 (en) * 2007-03-31 2011-07-13 Sony Deutschland GmbH Method for content recommendation
JP4389973B2 (ja) * 2007-06-26 2009-12-24 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5286062B2 (ja) * 2008-12-11 2013-09-11 日本電信電話株式会社 対話装置、対話方法、対話プログラムおよび記録媒体
JP4992925B2 (ja) * 2009-03-23 2012-08-08 トヨタ自動車株式会社 音声対話装置及びプログラム
CN102142253B (zh) * 2010-01-29 2013-05-29 富士通株式会社 语音情感识别设备及方法
CN102200969A (zh) * 2010-03-25 2011-09-28 日电(中国)有限公司 基于句子顺序的文本情感极性分类系统和方法
US9348479B2 (en) * 2011-12-08 2016-05-24 Microsoft Technology Licensing, Llc Sentiment aware user interface customization
US10176619B2 (en) * 2015-07-30 2019-01-08 Intel Corporation Emotion augmented avatar animation
JP6601069B2 (ja) * 2015-09-01 2019-11-06 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム

Also Published As

Publication number Publication date
JP2020061177A (ja) 2020-04-16

Similar Documents

Publication Publication Date Title
JP6639444B2 (ja) 情報提供装置及び情報提供方法
CN110147160B (zh) 信息提供装置和信息提供方法
CN110505837B (zh) 信息处理设备、信息处理方法和记录介质
CN107886045B (zh) 设施满意度计算装置
JP4682714B2 (ja) 対話システム
JP4534925B2 (ja) 車両用情報提供装置
JP2018180983A (ja) 情報処理装置、情報処理方法、及び、プログラム
CN108932290B (zh) 地点提案装置及地点提案方法
JP2009168773A (ja) ナビゲーション装置および情報提供方法
JP2024041746A (ja) 情報処理装置
CN113401129B (zh) 信息处理装置、记录介质以及信息处理方法
JP6816247B2 (ja) 情報提供装置
JP6657048B2 (ja) 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
CN111568447A (zh) 信息处理装置和信息处理方法
JP7375705B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20240025253A1 (en) Apparatus and method for providing information and entertainment in a motor vehicle
JP2024026816A (ja) 情報処理システム、情報処理装置、情報処理方法、及び、プログラム
JP6660863B2 (ja) 移動体用出力生成装置、移動体用出力生成プログラム、移動体用出力生成方法及び移動体
CN116569236A (zh) 车辆用辅助装置以及车辆用辅助方法
CN116897118A (zh) 检查机动车辆驾驶员的驾驶能力的方法以及机动车辆
FR3089323A1 (fr) Procédé de détermination d’un mode d’interaction d’un assistant personnel virtuel embarqué dans un véhicule terrestre à moteur

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201223

R150 Certificate of patent or registration of utility model

Ref document number: 6816247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150