JP2020068973A - 感情推定統合装置、感情推定統合方法およびプログラム - Google Patents
感情推定統合装置、感情推定統合方法およびプログラム Download PDFInfo
- Publication number
- JP2020068973A JP2020068973A JP2018203933A JP2018203933A JP2020068973A JP 2020068973 A JP2020068973 A JP 2020068973A JP 2018203933 A JP2018203933 A JP 2018203933A JP 2018203933 A JP2018203933 A JP 2018203933A JP 2020068973 A JP2020068973 A JP 2020068973A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- estimation
- user
- unit
- integration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】車内環境を考慮し、より精度良くユーザの感情を推定することができる。【解決手段】 ユーザの周囲の環境と、ユーザの生体情報を観測したモニタリング情報毎に算出された重み値と、が対応付けられた統合用重み付け情報を記憶した記憶部と、前記ユーザの周囲の環境を推定する環境推定部と、相互に異なる種類の前記モニタリング情報を用いてユーザの感情を推定した推定結果を出力する複数の感情推定部と、前記感情推定部が用いた前記モニタリング情報と、前記推定結果を取得したタイミングにおける前記ユーザの周囲の環境と、に基づき前記重み値を特定し、前記感情推定部による推定結果に該重み値を用いた重み付けを行うことによりユーザの感情を推定する推定結果統合部と、を備える。【選択図】図1
Description
本発明は、感情推定統合装置、感情推定統合方法およびプログラムに関する。
特許文献1には、音声対話装置に関し、「ユーザが発した音声と、当該音声を認識した結果を取得する音声処理手段と、それぞれ異なる方法によってユーザの感情を推定する複数の推定手段と、推定したユーザの感情に基づいて応答文を生成し、前記ユーザに提供する応答手段と、を有し、前記応答手段は、前記複数の推定手段がそれぞれ推定したユーザの感情が一致しない場合に、前記ユーザに対して問い掛けを行い、得られた応答の内容に基づいて、いずれの推定結果を採用するかを決定する」と記載されている。
特許文献1の音声対話装置は、複数の要素に基づいてユーザの感情推定を行う。しかしながら、音声対話装置では、時々刻々と装置を取り巻く環境が変化した場合の影響が考慮されていない。そのため、音声対話装置では、周囲の環境の影響によって適切な推定結果を得られないという懸念がある。
そこで、本発明は、ユーザの周囲の環境を考慮し、より精度良くユーザの感情を推定することができる感情推定統合装置の提供を目的とする。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記の課題を解決する本発明の一態様に係る感情推定統合装置は、ユーザの周囲の環境と、ユーザの生体情報を観測したモニタリング情報毎に算出された重み値と、が対応付けられた統合用重み付け情報を記憶した記憶部と、前記ユーザの周囲の環境を推定する環境推定部と、相互に異なる種類の前記モニタリング情報を用いてユーザの感情を推定した推定結果を出力する複数の感情推定部と、前記感情推定部が用いた前記モニタリング情報と、前記推定結果を取得したタイミングにおける前記ユーザの周囲の環境と、に基づき前記重み値を特定し、前記感情推定部による推定結果に該重み値を用いた重み付けを行うことによりユーザの感情を推定する推定結果統合部と、を備える。
本発明に係る感情推定統合装置によれば、ユーザの周囲の環境を考慮し、より精度良くユーザの感情を推定することができる。
なお、上記以外の課題、構成および効果等は、以下の実施形態の説明により明らかにされる。
以下、本発明の各実施形態について図面を用いて説明する。
[第一実施形態]
図1は、本実施形態に係る感情推定統合装置100の機能構成および感情推定統合システムの概略構成の一例を示した図である。感情推定統合システムは、車両1000内に搭載された感情推定統合装置100と、車載装置200とから構成されるシステムである。また、感情推定統合装置100および車載装置200は、ネットワークNを介して相互通信可能に接続されている。なお、ネットワークNは、基本的には所定の車内ネットワーク(例えば、CAN:Controller Area Networkあるいは車載用のイーサネットなど)であるが、感情推定統合装置100および車載装置200は、例えばインターネット等の公衆網やLAN(Local Area Network)、WAN(Wide Area Network)などを介して相互通信可能に接続されていても良い。
図1は、本実施形態に係る感情推定統合装置100の機能構成および感情推定統合システムの概略構成の一例を示した図である。感情推定統合システムは、車両1000内に搭載された感情推定統合装置100と、車載装置200とから構成されるシステムである。また、感情推定統合装置100および車載装置200は、ネットワークNを介して相互通信可能に接続されている。なお、ネットワークNは、基本的には所定の車内ネットワーク(例えば、CAN:Controller Area Networkあるいは車載用のイーサネットなど)であるが、感情推定統合装置100および車載装置200は、例えばインターネット等の公衆網やLAN(Local Area Network)、WAN(Wide Area Network)などを介して相互通信可能に接続されていても良い。
車載装置200の一例としては、例えば、出発地から目的地までを結ぶ推奨経路の探索や、地図情報および交通情報の表示など、いわゆるナビゲーション機能を備えた車載のナビゲーション装置が挙げられる。なお、車載装置200は、車載のナビゲーション装置に限られるものではなく、例えばナビゲーション機能を実現するためのソフトウェアがインストールされたタブレット端末やスマートフォンなどの電子機器であっても良い。
感情推定統合装置100は、ユーザ(主に運転者)の生体情報を用いてユーザの感情を推定する装置である。具体的には、感情推定統合装置100は、ユーザの発話や表情などを観測/測定したモニタリング情報を用いてユーザの感情を推定する。
また、感情推定統合装置100は、推定したユーザの感情に関する情報(後述する推定結果統合情報)を車載装置200に送信する。なお、車載装置200では、かかる情報により示されるユーザの感情に応じた様々な処理が実行される。
なお、感情推定統合装置100が推定する感情には、平静や怒りなどの感情に加え、眠気や疲れなどのユーザの身体的な状態も含み、以下で感情推定という場合、ユーザの身体的な状態の推定も含むものである。
図1に示すように、感情推定統合装置100は、演算部110と、記憶部120と、通信部130とを有している。演算部110は、感情推定統合装置100の様々な処理を実行する機能部である。具体的には、演算部110は、入力受付部111と、出力処理部112と、重み値算出部113と、感情推定部a114と、感情推定部b115と、環境推定部116と、推定結果統合部117とを有している。
入力受付部111は、他の装置や機能部から様々な情報の入力やユーザ指示を受け付ける機能部である。具体的には、入力受付部111は、ユーザのモニタリング情報を受け付ける。より具体的には、入力受付部111は、車内の音声情報をマイクロフォンから受け付ける。なお、マイクロフォンは、車内の音声を取得できる場所に設置されていれば良く、例えば感情推定統合装置100に内蔵されていても、感情推定統合装置100とは別体に設けられていても良い。また、入力受付部111は、受け付けた音声情報を感情推定部a114に出力する。
また、入力受付部111は、ユーザを撮像した映像情報を車内カメラから受け付ける。なお、車内カメラは、ユーザを含む車内の様子を撮像可能な場所に設置されていれば良く、例えば感情推定統合装置100に内蔵されていても、感情推定統合装置100とは別体(例えば、ドライブレコーダーなど)に設けられていても良い。また、入力受付部111は、受け付けた映像情報を感情推定部b115に出力する。また、入力受付部111は、音声情報および映像情報を環境推定部116に出力する。
なお、入力受付部111は、常時、車内の音声情報をマイクロフォンから取得する。また、入力受付部111は、常時、ユーザの表情を含む車内の映像情報を車内カメラから取得する。
出力処理部112は、他の装置や機能部に種々の情報を出力する機能部である。具体的には、出力処理部112は、通信部130を介して感情の推定結果に関する情報(推定結果統合情報)を車載装置200に送信する。
重み値算出部113は、複数の感情推定部から出力される推定結果に重み付けを行うための重み値を算出する機能部である。具体的には、重み値算出部113は、重み値算出処理の実行により重み値を算出(あるいは更新)する。なお、重み値算出処理の詳細は後述する。
感情推定部a114は、車内の音声情報を用いてユーザの感情を推定する機能部である。具体的には、感情推定部a114は、入力受付部111を介して取得した車内の音声情報を用いてユーザの感情を推定し、推定した感情毎の検知レベルを算出する。また、感情推定部a114は、検知レベルが所定の閾値を超えた感情を推定結果として出力する。
より具体的には、感情推定部a114は、音声情報からユーザの発話部分を抽出する。また、感情推定部a114は、発話音声の高さ(周波数)や大きさ(パワー)など所定の要素に基づきユーザの発話音声についてその特徴量を抽出する。また、感情推定部a114は、抽出した特徴量を用いて特徴量ベクトルを求め、怒りや疲れといった所定の感情カテゴリの中で特徴量ベクトルが属するカテゴリを特定することによりユーザの感情を推定し、推定した感情毎の検知レベルを算出する。また、感情推定部a114は、検知レベルが所定の閾値を超えた感情を推定結果として出力する。なお、音声情報を用いた感情推定の方法は、このような方法に限定されるものではなく、公知の技術が用いられれば良い。
なお、感情推定部a114は、感情の推定結果に感情ごとの確信度を対応付けて出力する。確信度は、推定した感情の推定精度の度合いを示すものである。一例を示すならば、感情推定部a114は、音声情報を用いて感情推定を行い、検知レベルが閾値を超えた「平静」(確信度=0.7)と「疲れ」(確信度=0.3)という推定結果を出力する。
感情推定部b115は、ユーザの表情などを撮像した映像情報を用いてユーザの感情を推定する機能部である。具体的には、感情推定部b115は、入力受付部111を介して取得した車内の映像情報を用いてユーザの感情を推定し、推定した感情毎の検知レベルを算出する。また、感情推定部b115は、検知レベルが所定の閾値を超えた感情を推定結果として出力する。
より具体的には、感情推定部b115は、映像情報からユーザの表情を形成する特徴点を抽出する。例えば、感情推定部b115は、ユーザの目や眉、口などの動きに応じてユーザの表情を形成する複数の特徴点を抽出する。そして、感情推定部b115は、抽出した特徴点に基づきユーザの感情を推定し、推定した感情毎の検知レベルを算出する。また、感情推定部b115は、検知レベルが所定の閾値を超えた感情を推定結果として出力する。なお、映像情報を用いた感情推定の方法は、このような方法に限定されるものではなく、公知の技術が用いられれば良い。
なお、感情推定部b115は、感情の推定結果に感情ごとの確信度を対応付けて出力する。一例を示すならば、感情推定部a114は、映像情報を用いて感情推定を行い、検知レベルが閾値を超えた「怒り」(確信度=0.6)と「喜び」(確信度=0.4)という推定結果を出力する。
環境推定部116は、自動車の車内環境を推定する機能部である。具体的には、環境推定部116は、騒音レベルおよび光の種別に関する車内環境を推定する。より具体的には、環境推定部116は、入力受付部111から取得した音声情報を用いて、車内の騒音レベル(例えば、大、中、小)を算出する。
また、環境推定部116は、入力受付部111から取得した情報を用いて、車内の光の種別を特定する。具体的には、環境推定部116は、映像情報から車内の輝度や色温度など所定の要素ごとにそれらの大きさを算出し、総合的に車内の光種別を特定する。ここで、特定される光の種別には、例えば標準と、逆光と、トンネル照明と、夜間などがある。
なお、環境推定部116が推定する車内環境は、前述のような評価方式に限られるものではない。例えば、環境推定部116は、所定情報(現在地を示す情報や、騒音量を示す情報など)を用いて、トンネルや高速道路など具体的な走行場所や**dB(デシベル)のような具体的な騒音の大きさによって車内環境を評価しても良い。
推定結果統合部117は、感情推定統合処理を実行し、各感情推定部から出力された感情の推定結果を統合する機能部である。具体的には、推定結果統合部117は、感情推定部a114および感情推定部b115から出力された推定結果の確信度に対して所定の重み値を乗算する。また、推定結果統合部117は、感情ごとに重み付け後の確信度を加算し、最も大きい値の確信度に対応付けられた感情をユーザの感情として推定する。また、推定結果統合部117は、かかるユーザの感情を推定結果統合情報として車載装置200に送信する。
次に、記憶部120について説明する。記憶部120は、感情推定統合装置100が実行する処理に用いられる様々な情報を記憶した機能部である。具体的には、記憶部120は、重み値算出用情報121と、統合用重み付け情報122とを記憶している。
図2は、重み値算出用情報121の一例を示した図である。重み値算出用情報121は、統合用重み付け情報122の重み値を算出するために用いられる学習用のサンプル情報である。重み値算出用情報121は、例えば定期的(例えば、1週間に1回あるいは1ヶ月に1回など)に外部装置(例えば、情報センタのサーバ装置など)から感情推定統合装置100に送信され記憶部120に格納される。
重み値算出用情報121には、車内環境を示す所定の項目と、その環境下において出力された音声情報と、映像情報と、かかる音声情報および映像情報を用いて評価者が正しく評価したユーザの感情とが含まれている。
なお、これらの情報を含む重み値算出用情報121は、図示するように、サンプルNo121aと、入力情報1(121b)と、入力情報2(121c)と、環境121dと、感情ラベル121eといった各項目が対応付けられたレコードを有している。
サンプルNo121aは、重み値算出用情報121の各レコードを一意に識別する情報である。入力情報1(121b)および入力情報2(121c)は各々、感情推定部a114および感情推定部b115が感情推定を行うために用いるサンプル情報を特定する情報である。例えば、入力情報1(121b)には感情推定部a114へ入力されるサンプル情報(例えば、音声情報1〜n)が対応付けられている。また、例えば、入力情報2(121c)には感情推定部b115へ入力されるサンプル情報(例えば、映像情報1〜n)が対応付けられている。
環境121dは、入力情報1(121b)に対応付けられた音声情報および入力情報2(121c)に対応付けられた映像情報が生成されたタイミングにおける車内環境を示す情報である。例えば、環境121dには、騒音レベルと光種別とがある。また、騒音レベルの種類には、例えば大、中、小がある。また、光の種別には、例えば標準、逆光、トンネル照明および夜間などがある。
感情ラベル121eは、対応付けられた音声情報および画像情報を用いて評価者が評価したユーザの感情種類を示す情報である。すなわち、感情ラベル121eに対応付けられた感情は、その環境下において正しく評価されたユーザの感情である。
このような重み値算出用情報121は、重み値算出処理に用いられる。重み値算出処理の詳細は後述する。
図3は、統合用重み付け情報122の一例を示した図である。統合用重み付け情報122は、感情推定部a114および感情推定部b115による推定結果を統合する際に用いられる重み値を含む情報である。具体的には、統合用重み付け情報122は、環境122aと、重み値1(122b)と、重み値2(122c)とが対応付けられたレコードを有している。
環境122aは、車内環境を示す情報である。重み値1(122b)は、対応付けられた環境下において感情推定部a114が出力した感情推定結果に対する重み値を示す情報である。重み値2(122c)は、対応付けられた環境下において感情推定部b115が出力した感情推定結果に対する重み値を示す情報である。
なお、後述するように、感情推定部a114および感情推定部b115は各々、音声情報および映像情報を用いて感情推定を行うため、各環境122aは、音声情報および映像情報といったモニタリング情報の種類ごとに対応付けられていることになる。
このような統合用重み付け情報122は、感情推定結果統合処理に用いられる。感情推定結果統合処理の詳細は後述する。
図1に戻って説明する。通信部130は、外部装置との間で情報通信を行う機能部である。具体的には、通信部130は、推定結果統合部117により生成された推定結果統合情報を車載装置200に送信する。また、通信部130は、例えば外部装置(例えば、後述の車内カメラやマイクロフォン)から取得した映像情報や音声情報を入力受付部111に出力する。
以上、感情推定統合装置100の機能構成について説明した。
図4は、感情推定統合装置100のハードウェア構成の一例を示した図である。感情推定統合装置100は、例えば高性能な情報処理装置により実現される。なお、感情推定統合装置100は、例えば車内の所定の場所に設置して使用しても良く、全部または一部の機能を車外(例えば、情報センタなど)に設置されたサーバ装置上で実現しても良い。また、感情推定統合装置100は、車載のナビゲーション装置に搭載されていても良い。
図示するように、感情推定統合装置100は、演算装置301と、主記憶装置302と、外部記憶装置303と、通信装置304と、入出力インターフェース305と、これらを電気的に相互接続するバス306とを有している。
演算装置301は、例えばCPUなどの処理装置である。主記憶装置302は、RAM(Random Access Memory)やROM(Read Only Memory)などのメモリ装置である。
外部記憶装置303は、例えばデジタル情報を記憶可能なフラッシュメモリやSD(Secure Digital)メモリカードなどの不揮発性記憶装置である。通信装置304は、ネットワークを介して外部装置(例えば、車載装置200)との間で情報通信(無線通信または有線通信)を行うための通信モジュールなどである。
入出力インターフェース305は、感情推定統合装置100と車内カメラ150およびマイクロフォン160とを電気的に接続し、車内カメラ150およびマイクロフォン160から映像情報および音声情報を取得することを可能とするコネクタ端子などである。なお、車内カメラ150およびマイクロフォン160から出力される映像情報および音声情報は、例えば通信装置304を経由して感情推定統合装置100に入力されても良い。
なお、車内カメラ150は、ユーザを含む車内の様子を撮像可能な場所に設置されていれば良く、例えば感情推定統合装置100に内蔵されていても、感情推定統合装置100とは別体(例えば、ドライブレコーダなど)に設けられていても良い。また、マイクロフォン160は、車内の音声を取得できる場所に設置されていれば良く、例えば感情推定統合装置100に内蔵されていても、感情推定統合装置100とは別体に設けられていても良い。
また、図示しないものの、感情推定統合装置100は、タッチパネルやテンキーなどのポインティングデバイスを入力装置として備えていても良い。また、感情推定統合装置100は、ディスプレイやスピーカを出力装置として備えていても良い。
なお、感情推定統合装置100の演算部110に含まれる各機能部は、CPUに処理を行わせるプログラムによって実現される。これらのプログラムは、ROMあるいは外部記憶装置303に格納されており、実行にあたってRAM上にロードされ、CPUにより実行される。また、記憶部120は、RAM、ROMまたは外部記憶装置303によって実現されても良く、これらの組み合わせによって実現されても良い。また、通信部130は、通信装置304によって実現される。
また、感情推定統合装置100の機能ブロックは、本実施形態に係るこれらの装置の機能を理解容易にするために、主な処理内容に応じて分類したものである。したがって、各機能の分類の仕方やその名称によって、本発明が制限されることはない。また、感情推定統合装置100の各構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
また、各機能部の全部または一部は、コンピュータに実装されるハードウェア(ASICといった集積回路など)により構築されてもよい。また、各機能部の処理が1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
[動作の説明]
図5は、感情推定統合装置100で実行される重み値算出処理の一例を示したフロー図である。かかる処理は、所定のタイミング(例えば、毎月1回あるいは感情推定統合装置100が重み値算出用情報121を取得した時など)で実行される。なお、重み値算出処理は、現在の重み値を更新するための処理である。
図5は、感情推定統合装置100で実行される重み値算出処理の一例を示したフロー図である。かかる処理は、所定のタイミング(例えば、毎月1回あるいは感情推定統合装置100が重み値算出用情報121を取得した時など)で実行される。なお、重み値算出処理は、現在の重み値を更新するための処理である。
処理が開始されると、入力受付部111は、重み値算出用情報121からサンプル番号nのレコードに含まれる音声情報および映像情報を取得する(ステップS001)。また、入力受付部111は、取得した音声情報および映像情報を各々、感情推定部a114および感情推定部b115に出力する。
次に、感情推定部a114は、音声情報を用いて所定の方法によりユーザの感情を推定する(ステップS002a)。また、感情推定部b115は、映像情報を用いて所定の方法によりユーザの感情を推定する(ステップS002b)。
なお、ステップS002aおよびS002bでは、感情推定部a114および感情推定部b115は各々、推定したユーザの感情が複数ある場合、最も確信度の高い感情を推定結果として出力する。例えば、感情推定部a114が推定したユーザの感情が「平静」および「喜び」である場合、確信度(例えば、「平静」の確信度が0.8、「喜び」の確信度が0.2)のより大きい感情(この場合、「平静」)を推定結果として出力する。
次に、重み値算出部113は、感情推定部a114および感情推定部b115が出力した推定結果と、サンプル番号nのレコードに対応付けられた感情ラベルとが一致するか否かを判定する(ステップS003aおよびS003b)。そして、一致すると判定した場合(ステップS003aおよびS003bでYes)、重み値算出部113は、処理をステップS004aおよびS004bに移行する。
一方で、一致しないと判定した場合(ステップS003aおよびS003bでNo)、重み値算出部113は、処理をステップS005およびS005bに移行する。
ステップS004aでは、重み値算出部113は、現在の重み値w1に所定値δw(δwは正数)を加算することにより更新後の新たな重み値w1を算出する。これは、対応付けられた環境下において感情推定部a114が出力した推定結果が正しい場合、その結果の比重が大きくなるようするためである。重み値算出部113は、w1の算出後、処理をステップS006に移行する。
同様に、ステップS004bでも、重み値算出部113は、現在の重み値w2に所定値δw(δwは正数)を加算することにより更新後の新たな重み値w2を算出する。また、重み値算出部113は、w2の算出後、処理をステップS006に移行する。
一方で、推定結果と感情ラベルとが一致しない場合に移行されるステップS005aでは、重み値算出部113は、現在の重み値w1から所定値δw(δwは正数)を減算することにより更新後の新たな重み値w1を算出する。これは、対応付けられた環境下において感情推定部a114が出力した推定結果が誤っている場合、その結果の比重が小さくなるようするためである。重み値算出部113は、w1の算出後、処理をステップS006に移行する。
同様に、ステップS005bでも、重み値算出部113は、現在の重み値w2から所定値δw(δwは正数)を減算することにより更新後の新たな重み値w2を算出する。また、重み値算出部113は、w2の算出後、処理をステップS006に移行する。
次に、重み値算出部113は、算出された重み値w1およびw2の各々について正規化を行う(ステップS006)。具体的には、重み値算出部113は、重み値の和(w1+w2)が1になるように正規化を行う。より具体的には、重み値算出部113は、w1/(w1+w2)を計算することにより、w1を正規化する。同様に、重み値算出部113は、w2/(w1+w2)を計算することにより、w2を正規化する。
次に、重み値算出部113は、正規化した重み値w1およびw2の各々を所定の環境に対応付けることで統合用重み付け情報122を更新する(ステップS007)。具体的には、重み値算出部113は、ステップS001で取得した音声情報等が含まれるレコードの環境を特定し、これに正規化後のw1およびw2を各々、重み値1および重み値2として対応付けることで統合用重み付け情報122を更新する。
次に、重み値算出部113は、全てのサンプルについて前述の処理を実施したか否かを判定する(ステップS008)。そして、全てのサンプルについて処理を行っていない、すなわち未処理のサンプルがあると判定した場合(ステップS008でNo)、重み値算出部113は、処理をステップS001に戻し、再びステップS001〜ステップS008の処理を行う。なお、重み値算出部113は、ステップS001で取得した音声情報および映像情報が対応付けられているレコードの環境と同一の環境における重み値w1およびw2を用いてステップS004aおよびステップS004bの処理を行う。同一の環境下で推定された感情毎に重み値を更新するためである。
一方で、全てのサンプルについて処理を実施したと判定した場合(ステップS008でNo)、重み値算出部113は、本フローの処理を終了する。
以上、重み値算出処理について説明した。このような重み値算出処理によれば、車内環境によるモニタリング情報の得手不得手を反映した重み値を算出することができる。例えば、音声情報を用いた感情推定では、車内の騒音が推定性能に影響する。その一方で、音声情報による感情推定は、逆光など車内の光の影響を受けることはない。また、映像情報を用いた感情推定では、逆光など車内の光が推定性能に影響する。その一方で、映像情報を用いた感情推定では、車内の騒音が推定性能に影響することはない。本実施形態に係る重み値算出処理では、このような感情推定における車内環境とモニタリング情報との相性を考慮し、車内環境毎にモニタリング情報の種類に応じた重み値を算出することができる。
図6は、感情推定結果統合処理の一例を示したフロー図である。かかる処理は、例えば感情推定統合装置100の起動と共に開始される。なお、感情推定統合装置100が起動されると、感情推定部a114および感情推定部b115は各々、入力受付部111を介して音声情報および映像情報を取得し、常時ユーザの感情推定を行っているものとする。
感情推定結果統合処理が開始されると、感情推定統合部117は、感情の推定結果が出力されたか否かを判定する(ステップS021)。具体的には、感情推定統合部117は、感情推定部a114および感情推定部b115のうち、少なくとも一方から感情の推定結果が出力されたか否かを判定する(ステップS021)。そして、推定結果が出力されていないと判定した場合(ステップS021でNo)、推定結果統合部117は、再度ステップS021の処理を行う。一方で、推定結果が出力されたと判定した場合(ステップS021でYes)、推定結果統合部117は、処理をステップS022に移行する。
ステップS022では、推定結果統合部117は、推定結果を出力していない他方の感情推定部が推定したユーザの感情を取得する。具体的には、推定結果統合部117は、他方の感情推定部が推定した感情のうち、検知レベルが所定の閾値に最も近い感情を推定結果として取得する。
次に、推定結果統合部117は、環境推定部116から環境の推定結果を取得する(ステップS023)。具体的には、推定結果統合部117は、感情推定部a115および感情推定部b116から各々、感情の推定結果を取得したタイミングにおける車内環境の推定結果を環境推定部116から取得する。
次に、推定結果統合部117は、感情推定部a114および感情推定部b115が各々出力した推定結果を統合し、推定されるユーザの感情を確定する(ステップS024)。なお、本例では、感情推定部a114が「平静」(確信度=0.7)および「喜び」(確信度=0.3)という推定結果を出力し、感情推定部b115が「平静」(確信度=0.5)、「喜び」(確信度=0.3)および「怒り」(確信度=0.2)という推定結果を出力したものとして以下の説明を行う。
まず、推定結果統合部117は、統合用重み付け情報122を用いて、ステップS023で推定された環境に対応付けられている重み値w1およびw2を特定する。次に、推定結果統合部117は、感情推定部a114の出力結果である「平静」および「喜び」の各確信度に対して重み値w1を乗算し、感情推定部b115の出力結果である「平静」、「喜び」および「怒り」の各確信度に対して重み値w2を乗算する。そして、推定結果統合部117は、重み値を乗算した値を感情ごとに加算することにより、感情ごとの確信度の合計値を算出する。なお、本例では、「平静」の確信度=0.7×w1+0.5×w2、「喜び」の確信度=0.3×w1+0.3×w2、「怒り」の確信度=0.2×w2となる。
そして、推定結果統合部117は、確信度の値が最も大きい感情を、推定されるユーザの感情として確定する。
次に、出力処理部112は、通信部130を介して、推定されるユーザの感情(例えば、「喜び」)を所定装置(例えば、車載装置200)に送信し(ステップS025)、本フローの処理を終了する。
なお、推定結果を取得した車載装置200は、ユーザの感情に応じて様々な処理を行う。例えば、推定結果が「疲れ」の場合、車載装置200は、「少し休憩しませんか?」など所定のメッセージを車載のスピーカから出力する。また、推定結果が「怒り」の場合、車載装置200は、例えばクラシック音楽などユーザがリラックスする音楽を出力する。
以上、推定結果統合処理について説明した。このような感情推定統合装置100によれば、車内環境を考慮し、より精度良くユーザの感情を推定することができる。特に、感情推定統合装置100は、車内環境を考慮してモニタリング情報の種類ごとに算出された重み値を用いてユーザの感情を推定する。そのため、感情推定統合装置100は、より精度良くユーザの感情を推定することができる。
[第二実施形態]
次に、本発明の第二実施形態に係る感情推定統合装置100について説明する。前述の第一実施形態に係る感情推定統合装置100は、環境毎に各感情推定部による推定結果に対する重み値(w1、w2)を算出したが、感情毎に推定のし易さが異なることもある。そこで、第二実施形態に係る感情推定統合装置100は、環境毎および感情毎の重み値を用いて各感情推定部から出力された推定結果を統合し、ユーザの感情を推定する。
次に、本発明の第二実施形態に係る感情推定統合装置100について説明する。前述の第一実施形態に係る感情推定統合装置100は、環境毎に各感情推定部による推定結果に対する重み値(w1、w2)を算出したが、感情毎に推定のし易さが異なることもある。そこで、第二実施形態に係る感情推定統合装置100は、環境毎および感情毎の重み値を用いて各感情推定部から出力された推定結果を統合し、ユーザの感情を推定する。
図7は、本実施形態に係る統合用重み付け情報122の一例を示した図である。図示するように、統合用重み付け情報122は、環境122aaと、感情122bbと、重み値1(122cc)と、重み値2(122dd)とが対応付けられたレコードを有している。
環境122aaは、車内環境を示す情報である。感情122bbは、ユーザの複数の感情を示す情報である。重み値1(122cc)は、対応付けられた環境下における感情推定部a114の出力結果に対する重み値を示す情報である。重み値2(122dd)は、対応付けられた環境下における感情推定部b115の出力結果に対する重み値を示す情報である。
例えば、レコード122eeの重み値1(122cc)には、「平静」、「怒り」、「疲れ」および「喜び」などの感情ごとに算出された重み値w(平)11、w(怒)11、w(疲)11およびw(喜)11が対応付けられている。また、レコード122eeの重み値2(122dd)には、「平静」、「怒り」、「疲れ」および「喜び」などの感情ごとに算出された重み値w(平)12、w(怒)12、w(疲)12およびw(喜)12が対応付けられている。
このような統合用重み付け情報122を用いて感情推定結果統合処理が行われることにより、より精度良くユーザの感情を推定することができる。具体的には、前述の感情推定結果統合処理のステップS024において、推定結果統合部117は、感情推定部a114および感情推定部b115から各々取得した推定結果の感情ごとに重み値を特定する。
例えば、騒音:大、光種別:標準といった環境下において、感情推定部a114が出力した推定結果が「平静」(確信度:0.7)および「喜び」(確信度:0.3)であって、感情推定部b115が出力した推定結果が「平静」(確信度:0.6)および「怒り」(確信度:0.4)の場合、推定結果統合部117は、統合用重み付け情報122を用いて、w(平)11およびw(喜)11という重み値1と、w(平)12およびw(怒)12という重み値2とを特定する。
また、推定結果統合部117は、感情推定部a114の出力結果である「平静」の確信度に対してw(平)11を乗算し、「喜び」の確信度に対してw(喜)11を乗算する。また、推定結果統合部117は、感情推定部b115の出力結果である「平静」の確信度に対してw(平)12を乗算し、「怒り」の確信度に対してw(怒)12を乗算する。そして、推定結果統合部117は、確信度の値が最も大きい感情を、推定されるユーザの感情として確定する。
このような第二実施形態に係る感情推定統合装置100によれば、感情推定の精度をより高めることができる。例えば、ユーザが怒っている場合の発話音声は大きくなる傾向があり、騒音の影響を比較的受けにくいと考えられる。一方で、ユーザが疲れている場合の発話音声は小声になる傾向があり、騒音の影響を比較的受けやすいと考えられる。
このように、本実施形態に係る感情推定統合装置100は、車内環境とモニタリング情報との関係のみならず、モニタリング情報とユーザの感情との関係についても考慮して算出された重み値を用いた感情推定を行う。これにより、感情推定統合装置100は、より精度よくユーザの感情を推定することができる。
[第三実施形態]
次に、本発明の第三実施形態に係る感情推定統合装置100について説明する。本実施形態に係る感情推定統合装置100は、一方の感情推定部から感情の推定結果が出力された場合、他方の感情推定部が推定したユーザの感情を取得せず、確信度を用いたスコア(以下、確信度スコアという)を用いてユーザの感情を確定する。
次に、本発明の第三実施形態に係る感情推定統合装置100について説明する。本実施形態に係る感情推定統合装置100は、一方の感情推定部から感情の推定結果が出力された場合、他方の感情推定部が推定したユーザの感情を取得せず、確信度を用いたスコア(以下、確信度スコアという)を用いてユーザの感情を確定する。
図8は、本実施形態に係る感情推定結果統合処理の一例を示した図である。かかる処理は、感情推定統合装置100の起動と共に開始される。なお、感情推定統合装置100が起動されると、第一実施形態と同様、感情推定部a114および感情推定部b115は各々、入力受付部111を介して音声情報および映像情報を取得し、常時ユーザの感情推定を行っているものとする。
処理が開始されると、推定結果統合部117は、感情の推定結果が出力されたか否かを判定する(ステップS031)。具体的には、感情推定統合部117は、感情推定部a114および感情推定部b115のうち、少なくとも一方から感情の推定結果が出力されたか否かを判定する。そして、推定結果が出力されていないと判定した場合(ステップS031でNo)、推定結果統合部117は、再度ステップS031の処理を行う。一方で、推定結果が出力されたと判定した場合(ステップS031でYes)、推定結果統合部117は、処理をステップS032に移行する。
次に、推定結果統合部117は、環境推定部116から環境の推定結果を取得する(ステップS032)。具体的には、推定結果統合部117は、感情推定部a115または感情推定部b116から感情の推定結果を取得したタイミングにおける車内環境の推定結果を環境推定部116から取得する。
次に、推定結果統合部117は、確信度スコアが所定の閾値よりも大きいか否かを判定する(ステップS033)。具体的には、推定結果統合部117は、ステップS032の推定結果が示す環境に対応付けられた重み値1を統合用重み付け情報122から特定する。
また、推定結果統合部117は、ステップS031で出力されたユーザの感情(例えば、「平静」および「喜び」)に対応付けられている確信度(例えば、平静=0.7、喜び=0.3)のうち、より大きい値の確信度に重み値1を乗算することにより確信度スコアを算出する(例えば、確信度スコア=0.7(平静)×w11)。
そして、算出した確信度スコアが所定の閾値よりも小さいと判定した場合(ステップS033でNo)、推定結果統合部117は、処理をステップS031に戻す。
一方で、算出した確信度スコアが所定の閾値よりも大きいと判定した場合(ステップS033でYes)、推定結果統合部117は、処理をステップS034に移行する。
ステップS034では、推定結果統合部117は、出力された感情の推定結果に基づき、推定されるユーザの感情を確定する。本例では、推定結果統合部117は、ユーザの感情が「平静」であることを確定する。また、推定結果統合部117は、推定されるユーザの感情を確定すると、処理をステップS035に移行し、前述のステップS025と同様、推定した(確定した)ユーザの感情を通信部を介して所定装置に送信する。
以上、本実施形態に係る感情推定結果統合処理について説明した。
このような感情推定統合装置100によれば、車内環境を考慮し、より精度良くユーザの感情を推定することができる。特に、本実施形態に係る感情推定統合装置100では、所定の検知レベルを超えている感情の推定結果のみを用いてユーザの感情を推定および確定する。すなわち、検知レベルに達していない推定のユーザ感情を用いず、検知レベルに達して出力された推定結果の確信度をスコアとして用いることで、推定されるユーザの感情を確定する。このような感情推定統合装置100によってもユーザの感情を精度良く推定することができる。
なお、前述の実施形態では、演算部110が感情推定部aおよび感情推定部bを有している場合について説明したが、本発明はこれに限られるものではなく、演算部110は、3つ以上の感情推定部を有していても良い。
また、前述の実施形態では、音声情報および映像情報をモニタリング情報の例に説明したが、ユーザの心拍数、呼吸数および発汗量といったその他ユーザの生体情報をモニタリング情報として取得し、感情推定に用いても良い。
また、感情推定統合装置100は、複数ある感情推定部の全ての機能を備えている必要はなく、例えば感情推定部a(または感情推定部b)の機能が実現されたサーバ装置(外部装置)から推定結果を取得し、感情推定部b(または感情推定部a)の推定結果と統合することでユーザの感情を推定するようにしても良い。
また、本発明は、上記の実施形態や変形例などに限られるものではなく、これら以外にも様々な実施形態および変形例が含まれる。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態や変形例の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100・・・感情推定統合装置、110・・・演算部、120・・・記憶部、130・・・通信部、111・・・入力受付部、112・・・出力処理部、113・・・重み値算出部、114・・・感情推定部a、115・・・感情推定部b、116・・・環境推定部、117・・・推定結果統合部、121・・・重み値算出用情報、122・・・統合用重み付け情報、200・・・車載装置、301・・・演算装置、302・・・主記憶装置、303・・・外部記憶装置、304・・・通信装置、305・・・入出力インターフェース、306・・・バス、150・・・車内カメラ、160・・・マイクロフォン、N・・・ネットワーク
Claims (9)
- ユーザの周囲の環境と、ユーザの生体情報を観測したモニタリング情報毎に算出された重み値と、が対応付けられた統合用重み付け情報を記憶した記憶部と、
前記ユーザの周囲の環境を推定する環境推定部と、
相互に異なる種類の前記モニタリング情報を用いてユーザの感情を推定した推定結果を出力する複数の感情推定部と、
前記感情推定部が用いた前記モニタリング情報と、前記推定結果を取得したタイミングにおける前記ユーザの周囲の環境と、に基づき前記重み値を特定し、前記感情推定部による推定結果に該重み値を用いた重み付けを行うことによりユーザの感情を推定する推定結果統合部と、を備える
ことを特徴とする感情推定統合装置。 - 請求項1に記載の感情推定統合装置であって、
前記感情推定部は、
前記モニタリング情報を用いて推定したユーザの感情にその確信度を対応付けた前記推定結果を出力する
ことを特徴とする感情推定統合装置。 - 請求項2に記載の感情推定統合装置であって、
前記推定結果統合部は、
前記複数の感情推定部から前記推定結果として取得したユーザの感情に対応付けられた前記確信度に前記重み値を用いた重み付けを行い、
前記各推定結果が示すユーザの感情のうち、同一の感情ごとに前記重み付け後の確信度を加算して比較することによりユーザの感情を推定する
ことを特徴とする感情推定統合装置。 - 請求項1に記載の感情推定統合装置であって、
前記モニタリング情報には、ユーザの発話音声を含む車内の音声情報と、ユーザの表情を含む車内の映像情報とが含まれる
ことを特徴とする感情推定統合装置。 - ユーザの周囲の環境と、ユーザの生体情報を観測したモニタリング情報毎に算出されたユーザの感情毎の重み値とが対応付けられた統合用重み付け情報を記憶した記憶部と、
前記ユーザの周囲の環境を推定する環境推定部と、
相互に異なる種類の前記モニタリング情報を用いてユーザの感情を推定した推定結果を出力する複数の感情推定部と、
前記感情推定部が用いた前記モニタリング情報と、前記推定結果を取得したタイミングにおける前記ユーザの周囲の環境と、前記推定結果が示すユーザの感情とに基づき前記重み値を特定し、前記感情推定部による前記推定結果に特定した前記重み値を用いた重み付けを行うことによりユーザの感情を推定する推定結果統合部と、を備える
ことを特徴とする感情推定統合装置。 - ユーザの周囲の環境と、ユーザの生体情報を観測したモニタリング情報の種類毎に算出された重み値と、が対応付けられた統合用重み付け情報を記憶した記憶部と、
前記ユーザの周囲の環境を推定する環境推定部と、
相互に異なる種類の前記モニタリング情報を用いてユーザの感情を推定した推定結果を出力する複数の感情推定部と、
いずれかの前記感情推定部が前記推定結果を出力した場合、当該推定結果と、所定の閾値との比較に基づき、前記感情推定部による推定結果をユーザの感情として確定する推定結果統合部と、を備える
ことを特徴とする感情推定統合装置。 - 請求項1に記載の感情推定統合装置であって、
前記統合用重み付け情報を生成する重み値算出部をさらに備え、
前記重み値算出部は、
前記ユーザの周囲の環境が対応付けられた前記モニタリング情報のサンプルを用いた前記感情推定部による推定結果の正否に基づき、該環境下における該モニタリング情報の種類ごとに前記重み値を算出する
ことを特徴とする感情推定統合装置。 - ユーザの周囲の環境と、ユーザの生体情報を観測したモニタリング情報毎に算出された重み値とが対応付けられた統合用重み付け情報を記憶する記憶ステップと、
前記ユーザの周囲の環境を推定する環境推定ステップと、
相互に異なる種類の前記モニタリング情報を用いてユーザの感情を推定した推定結果を出力する感情推定ステップと、
前記感情推定ステップで用いた前記モニタリング情報と、前記推定結果を取得したタイミングにおける前記ユーザの周囲の環境と、に基づき前記重み値を特定し、前記感情推定ステップによる推定結果に該重み値を用いた重み付けを行うことによりユーザの感情を推定する推定結果統合ステップと、を行う
ことを特徴とする感情推定統合方法。 - コンピュータを、感情推定統合装置として機能させるプログラムであって、
前記コンピュータを、
ユーザの周囲の環境と、ユーザの生体情報を観測したモニタリング情報毎に算出された重み値とが対応付けられた統合用重み付け情報を記憶した記憶部と、
前記ユーザの周囲の環境を推定する環境推定部と、
相互に異なる種類の前記モニタリング情報を用いてユーザの感情を推定した推定結果を出力する複数の感情推定部と、
前記感情推定部が用いた前記モニタリング情報と、前記推定結果を取得したタイミングにおける前記ユーザの周囲の環境とに基づき前記重み値を特定し、前記感情推定部による推定結果に該重み値を用いた重み付けを行うことによりユーザの感情を推定する推定結果統合部として機能させる
ことを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018203933A JP2020068973A (ja) | 2018-10-30 | 2018-10-30 | 感情推定統合装置、感情推定統合方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018203933A JP2020068973A (ja) | 2018-10-30 | 2018-10-30 | 感情推定統合装置、感情推定統合方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020068973A true JP2020068973A (ja) | 2020-05-07 |
Family
ID=70548450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018203933A Pending JP2020068973A (ja) | 2018-10-30 | 2018-10-30 | 感情推定統合装置、感情推定統合方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020068973A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020103702A (ja) * | 2018-12-28 | 2020-07-09 | 本田技研工業株式会社 | 情報処理装置及びプログラム |
CN112562687A (zh) * | 2020-12-11 | 2021-03-26 | 天津讯飞极智科技有限公司 | 音视频处理方法、装置、录音笔和存储介质 |
CN113806620A (zh) * | 2020-05-30 | 2021-12-17 | 华为技术有限公司 | 内容推荐方法、设备、系统及存储介质 |
WO2023243468A1 (ja) * | 2022-06-15 | 2023-12-21 | 京セラ株式会社 | 電子機器、電子機器の制御方法及び制御プログラム |
-
2018
- 2018-10-30 JP JP2018203933A patent/JP2020068973A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020103702A (ja) * | 2018-12-28 | 2020-07-09 | 本田技研工業株式会社 | 情報処理装置及びプログラム |
JP7100575B2 (ja) | 2018-12-28 | 2022-07-13 | 本田技研工業株式会社 | 情報処理装置及びプログラム |
US11443533B2 (en) | 2018-12-28 | 2022-09-13 | Honda Motor Co., Ltd. | Information processing apparatus and computer readable storage medium |
CN113806620A (zh) * | 2020-05-30 | 2021-12-17 | 华为技术有限公司 | 内容推荐方法、设备、系统及存储介质 |
CN113806620B (zh) * | 2020-05-30 | 2023-11-21 | 华为技术有限公司 | 内容推荐方法、设备、系统及存储介质 |
CN112562687A (zh) * | 2020-12-11 | 2021-03-26 | 天津讯飞极智科技有限公司 | 音视频处理方法、装置、录音笔和存储介质 |
WO2023243468A1 (ja) * | 2022-06-15 | 2023-12-21 | 京セラ株式会社 | 電子機器、電子機器の制御方法及び制御プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020068973A (ja) | 感情推定統合装置、感情推定統合方法およびプログラム | |
EP3816868A1 (en) | Method and apparatus for training neural network, and storage medium | |
CN109243432B (zh) | 话音处理方法以及支持该话音处理方法的电子设备 | |
JP7091807B2 (ja) | 情報提供システムおよび情報提供方法 | |
US10931772B2 (en) | Method and apparatus for pushing information | |
US10438586B2 (en) | Voice dialog device and voice dialog method | |
CN110534099B (zh) | 语音唤醒处理方法、装置、存储介质及电子设备 | |
JP6453025B2 (ja) | ランダムフォレストモデルを用いた、リアルタイムの多クラス運転者動作認識 | |
JP2021509979A (ja) | 画像の記述文位置決定方法及び装置、電子機器並びに記憶媒体 | |
JP6713490B2 (ja) | 情報提供装置及び情報提供方法 | |
US20180096699A1 (en) | Information-providing device | |
CN109448737B (zh) | 虚拟形象的创建方法、装置、电子设备与存储介质 | |
US20190279629A1 (en) | Speech system | |
CN113392236A (zh) | 一种数据分类方法、计算机设备及可读存储介质 | |
KR20180081922A (ko) | 전자 장치의 입력 음성에 대한 응답 방법 및 그 전자 장치 | |
EP0905677A1 (fr) | Procédé de reconnaissance de parole | |
KR20210062704A (ko) | 인간-컴퓨터 상호작용 방법 및 전자 장치 | |
US20180342005A1 (en) | Place recommendation device and place recommendation method | |
CN110945455A (zh) | 处理用户话语以用于控制外部电子装置的电子装置及其控制方法 | |
WO2016006038A1 (ja) | 音声認識システム及び音声認識方法 | |
US10878325B2 (en) | Method and device for acquiring state data indicating state of user | |
CN111276127B (zh) | 语音唤醒方法、装置、存储介质及电子设备 | |
FR2769117A1 (fr) | Procede d'apprentissage dans un systeme de reconnaissance de parole | |
CN112002339B (zh) | 语音降噪方法和装置、计算机可读的存储介质及电子装置 | |
WO2017166727A1 (zh) | 终端方位的提示方法及装置 |