JP2020160598A - 情報処理装置、制御システム、情報処理装置の制御方法 - Google Patents

情報処理装置、制御システム、情報処理装置の制御方法 Download PDF

Info

Publication number
JP2020160598A
JP2020160598A JP2019057050A JP2019057050A JP2020160598A JP 2020160598 A JP2020160598 A JP 2020160598A JP 2019057050 A JP2019057050 A JP 2019057050A JP 2019057050 A JP2019057050 A JP 2019057050A JP 2020160598 A JP2020160598 A JP 2020160598A
Authority
JP
Japan
Prior art keywords
occupant
unit
output
conversation
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019057050A
Other languages
English (en)
Inventor
正之 遠山
Masayuki Toyama
正之 遠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Boshoku Corp
Original Assignee
Toyota Boshoku Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Boshoku Corp filed Critical Toyota Boshoku Corp
Priority to JP2019057050A priority Critical patent/JP2020160598A/ja
Publication of JP2020160598A publication Critical patent/JP2020160598A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】所定空間に滞在している複数人のうち少なくとも一名の感情をポジティブ側に変化させ、所定空間内における会話を活性化する。【解決手段】情報処理装置(1)は、所定空間に滞在している人数を判定する人数判定部(12)と、複数人それぞれの表情を特定する表情特定部(15)と、表情から複数人それぞれの感情を推定する感情推定部(16)と、複数人それぞれの感情の組合せに応じて出力装置(4)を制御し、複数人のうち少なくとも一名の感情を現在よりポジティブ側に変化させるための出力を実行させる出力制御部(19)と、を備える。【選択図】図1

Description

本発明は、感情に作用する情報処理装置等に関する。
従来、車両の乗員全員に対し、サービスを提供する技術が知られている。例えば、特許文献1に記載のサービス提供装置は、乗員全体の感情である全体感情を推定し、推定された全体感情に基づいて、乗員に提供するサービスを決定する。
特開2018−63486号公報(2018年4月19日公開)
特許文献1に記載のサービス提供装置は、車内が盛り上がった雰囲気のときには、その盛り上がりを継続するような話題を音声によって提供し、車内が静かな雰囲気の時には、その静けさに見合った音楽を提供する。
すなわち、特許文献1に記載のサービス提供装置は、車内の雰囲気に適したサービスを提供するものであって、乗員間の会話を活性化するものではない。
本発明の一態様は、所定空間に滞在している複数人のうち少なくとも一名の感情をポジティブ側に変化させ、所定空間内における会話を活性化することを目的とする。
上記の課題を解決するために、本発明の態様1に係る情報処理装置は、所定空間に配置されたカメラの撮像画像に基づいて、該所定空間に滞在している人数を判定する人数判定部と、前記人数判定部により前記所定空間に複数人が滞在していると判定された場合、前記撮像画像に基づいて、前記複数人それぞれの表情を特定する表情特定部と、前記表情から前記複数人それぞれの感情を推定する感情推定部と、前記複数人それぞれの感情の組合せに応じて出力装置を制御する出力制御部と、を備え、前記出力制御部は、前記出力装置に、前記複数人のうち少なくとも一名の感情を現在よりポジティブ側に変化させるための出力を実行させる。
上記の構成によれば、所定空間に滞在している複数人それぞれの感情の組合せに応じて、そのうち少なくとも一名の感情を現在よりポジティブ側に変化させるための出力を実行する。これにより、所定空間に滞在している複数人の会話などのコミュニケーションを効果的に活性化するように出力装置を制御することができる。
本発明の態様2に係る情報処理装置は、上記態様1において、前記感情推定部は、前記複数人それぞれが抱いている感情が、ポジティブ、ネガティブ、および中立のいずれであるかを特定する構成であってもよい。
所定空間に滞在している複数人の会話などのコミュニケーションを活性化するためには、感情がネガティブおよび中立である人の感情をポジティブ側に変化させる必要がある。上記の構成によれば、所定空間に滞在している複数人のうち、感情を現在よりポジティブ側に変化させるべき人を特定することができる。
本発明の態様3に係る情報処理装置は、上記態様1または2において、前記カメラの撮像画像、および前記所定空間に配置されたマイクの取得音声の少なくともいずれかから、前記複数人の間の、会話の弾み度合いを示す指標値を算出する、指標値算出部を備え、前記出力制御部は、前記複数人それぞれの感情の組合せおよび前記指標値に応じて、前記出力装置を制御してもよい。
複数人の間の会話の弾み度合いは、表情および発している声の音圧などによって判定できる。上記の構成によれば、複数人の間の会話の弾み度合いを示す指標値を適切に算出し、複数人それぞれの感情の組合せおよび指標値に応じて少なくとも一名の感情を現在よりポジティブ側に変化させるための出力を実行する。これにより、所定空間に滞在している複数人の会話の弾み度合いに応じて、該会話を活性化するために有効な態様で出力するよう出力装置を制御することができる。
本発明の態様4に係る情報処理装置は、上記態様1から3のいずれかにおいて、前記所定空間に配置されたマイクの取得音声から、前記複数人の少なくとも二名が会話中か否かを判定する会話処理部を備え、前記感情推定部は、前記会話処理部により前記複数人の少なくとも二名が会話中と判定された場合に、前記複数人それぞれの感情を推定する構成であってもよい。
上記の構成によれば、会話中の複数人それぞれの感情を推定する。これにより、会話をしている状態において、感情を現在よりポジティブ側に変化させるべき人を特定することができる。
本発明の態様5に係る情報処理装置は、上記態様1から4のいずれかにおいて、前記表情特定部が特定した表情から、前記複数人それぞれが開眼しているか否かを判定する開眼判定部を備え、前記出力制御部は、前記開眼判定部により前記複数人のいずれかが開眼していないと判定された場合、前記出力装置からの前記出力を停止する構成であってもよい。
上記の構成によれば、複数人のうちのいずれかが開眼していない場合、出力装置からの出力を停止する。ここで、開眼とは、瞼が所定時間(例えば、10秒)継続して閉じていない状態を意図している。すなわち、複数人のうちのいずれかが眠っている場合には、眠っている人の眠りを邪魔しないように、出力装置から、感情を現在よりポジティブ側に変化させるための出力を停止することができる。
本発明の態様6に係る情報処理装置は、上記態様1から5のいずれかにおいて、前記所定空間は移動体の内部空間であって、前記内部空間の滞在者は前記移動体の乗員であり、前記出力装置は、前記移動体に搭載された出力装置であってもよい。
上記の構成によれば、移動体の内部空間に滞在している複数人それぞれの感情の組合せに応じて、そのうち少なくとも一名の感情を現在よりポジティブ側に変化させるための出力を実行する。これにより、移動体の内部空間に滞在している複数人の会話などのコミュニケーションを効果的に活性化し、移動体の内部空間の雰囲気をより良くすることができる。
上記の課題を解決するために、本発明の一態様に係る制御システムは、前記態様1から6のいずれかに記載の情報処理装置と、前記カメラと、前記出力装置と、を含む。上記の構成によれば、本発明の一態様に係る情報処理装置と同様の効果を奏する。
上記の課題を解決するために、本発明の一態様に係る情報処理装置の制御方法は、所定空間に配置されたカメラの撮像画像に基づいて、該所定空間に滞在している人数を判定する人数判定ステップと、前記人数判定ステップにおいて、前記所定空間に複数人が滞在していると判定された場合、前記撮像画像に基づいて、前記複数人それぞれの表情を特定する表情特定ステップと、前記表情から前記複数人それぞれの感情を推定する感情推定ステップと、前記複数人それぞれの感情の組合せに応じて出力装置を制御する出力制御ステップと、を含み、前記出力制御ステップでは、前記出力装置に、前記複数人のうち少なくとも一名の感情を現在よりポジティブ側に変化させるための出力を実行させる。上記の構成によれば、本発明の一態様に係る情報処理装置と同様の効果を奏する。
また、本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより前記情報処理装置をコンピュータにて実現させる制御プログラムおよびそれを記録したコンピュータ読取り可能な記録媒体も、本発明の範疇に入る。
本発明の一態様によれば、所定空間に滞在している複数人のうち少なくとも一名の感情をポジティブ側に変化させ、所定空間内における会話を活性化することができる。
本発明の一実施形態に係る制御システムの構成例を示す図である。 車室を上方から見た模式図である。 センサ群および出力装置の配置例を示す模式図である。 情報処理装置が行う処理の流れの一例を示すフローチャートである。 乗員毎の指標値を算出する処理の流れの一例を示すフローチャートである。 乗員間の感情の組み合わせに応じた出力装置および該出力装置に実行させる処理を決定する処理の流れの一例を示すフローチャートである。 出力態様テーブルの一例を示す図である。 笑い増幅処理の流れの一例を示すフローチャートである。 手振り反応処理の流れの一例を示すフローチャートである。 キーワード反応処理の流れの一例を示すフローチャートである。 頷き反応処理の流れの一例を示すフローチャートである。 振向き反応処理の流れの一例を示すフローチャートである。 乗員に対して笑顔誘導プログラムに基づく映像および音声を出力する処理の流れの一例を示すフローチャートである。 乗員に対して音楽コンテンツを出力する処理の流れの一例を示すフローチャートである。
〔実施形態1〕
以下、本発明の一実施形態について、詳細に説明する。
(制御システム100の概要)
本発明の一態様に係る制御システム100は、概すれば、所定空間に滞在している複数の人の各々の表情から、各人の感情を推定し、各人の感情の組合せに応じて、該複数の人のうち、少なくとも一名の感情を現在よりポジティブ側に変化させるための処理を出力装置4に実行させるシステムである。
ここで、「所定空間」は、複数の人が滞在可能であり、その中で会話することが可能な任意の空間であればよく、移動体内に限定されない。制御システム100は、例えば、複数の人が利用する娯楽施設内の空間、会議室および待合室などの室内においても適用され得る。
本明細書では、「所定空間」として、移動体である車両200の車室の内部空間Rを例に挙げ、「所定空間に滞在している人」として、車両200の乗員を例に挙げて説明する。乗員は、車両200の車室の内部空間Rに滞在している滞在者である。乗員には、車両200の運転者が含まれていてもよい。図2は、車室を上方から見た模式図である。
図2において、車室の内部空間Rには乗員A〜Cの3名が滞在している。乗員Aは後方のシート400aに着座しており、乗員BおよびCは前方のシート400b、および400cに着座している。乗員Bは車両200のハンドルHを操作する運転者である。
図2に示すように、車室の内部空間Rに複数の乗員が滞在している場合、車室の内部空間Rの雰囲気は、乗員間の会話の有無および会話の弾み度合いによって影響される。制御システム100は、乗員の少なくとも一名の感情がポジティブ側に変化するよう働きかけることによって、乗員間の会話が弾むように誘導し、車室の内部空間Rの雰囲気をより良くするシステムである。ここで、ポジティブな感情とは、喜び、および驚きなどの感情である。一方、ネガティブな感情とは、怒り、悲しみ、嫌悪、および恐れなどの感情である。
(制御システム100の構成)
次に、制御システム100の構成について、図3を参照しながら、図1を用いて説明する。図1は、制御システム100の構成例を示す図である。図3は、センサ群3および出力装置4の配置例を示す模式図である。制御システム100は、センサ群3、出力装置4、および情報処理装置1を備えている。
<センサ群3>
センサ群3は、各乗員の顔の表情、頷き、および手振りなどの動作を撮像するカメラ31、および、各乗員が発する声などを取得するマイク32などを含んでいる。カメラ31は、デジタルカメラまたはデジタルビデオである。図3に示すように、カメラ31は、例えば、各乗員の前方に配置されており、各乗員を撮像する。マイク32は、カメラ31と同様の位置に配置されている。カメラ31によって撮像された撮像画像のデータ、およびマイク32によって取得された取得音声のデータは、検知情報として情報処理装置1に送信される。なお、センサ群3は、乗員A〜Cの少なくとも一名の状態および動作などを検知可能な任意の装置であればよく、これらに限定されない。
<出力装置4>
出力装置4は、情報処理装置1の制御部10からの駆動指示に応じて、車室の内部空間Rに滞在する乗員A〜Cの少なくとも一名に対して駆動する各種出力装置である。出力装置4は、例えば、表示装置41、シートスピーカ42、シート送風装置43、シート駆動装置44、シート振動装置45、およびアームレスト駆動装置46などを含んでいてもよい。なお、出力装置4は、駆動したときに乗員A〜Cの少なくとも一名に対して何らかの刺激を与える任意の装置であればよく、これらに限定されない。
表示装置41は、車室の内部空間Rに設けられた表示装置であり、図3に示すように、着座している乗員が表示画面41aを視認可能な位置に設置されている。なお、乗員毎に個別の表示装置41が設けられていてもよい。この場合、表示装置41は、例えば、映像を乗員毎に出力可能である。
シートスピーカ42は、車室の内部空間Rに設けられたシート400a〜400cに配され、着座している各乗員の耳元に向けた音声および音楽コンテンツの出力を個別に制御可能なスピーカである。シートスピーカ42は、図3に示すように、シート400a〜400cの背凭れに配されていてもよい。
シート送風装置43は、車室の内部空間Rに設けられたシート400a〜400cに配され、着座している各乗員の両耳から首あたりに向けて送風することが可能な送風装置である。シート送風装置43は、着座した乗員の右側および左側に1つずつ送風口を備えている。シート送風装置43の送風口は、図3に示すように、シート400a〜400cの背凭れの、乗員の肩口付近に配されていてもよい。シート送風装置43は、出力制御部19によって各乗員に対して個別に駆動させることが可能である。また、シート送風装置43は、出力制御部19によって乗員の左右のいずれかの送風口から送風するかを制御することが可能である。なお、シート送風装置43は、出力制御部19によって、送風口からの空気に芳香を含ませるように制御され得る。
シート駆動装置44は、車室の内部空間Rに設けられたシート400a〜400cに配され、着座している各乗員の身体を押したり叩いたりすることによる刺激を個別に制御可能な装置である。シート駆動装置44が刺激を与える部位は、頭、肩、首、背中、腰、および足などであってもよい。乗員の頭および肩に刺激を与える場合、例えば、乗員のシート駆動装置44は、図3に示すように、シート400a〜400cの背凭れの、乗員の後頭部から肩のあたりに埋め込まれていてもよい。
シート振動装置45は、車室の内部空間Rに設けられたシート400a〜400cに配され、着座している各乗員の身体に振動刺激を個別に与えることが可能な装置である。シート振動装置45が振動を与える部位は、頭、肩、首、背中、腰、および足などであってもよい。乗員の腰および太ももに振動刺激を与える場合、例えば、シート振動装置45は、図3に示すように、シート400a〜400cの、乗員の腰から太もも付近に埋め込まれていてもよい。
アームレスト駆動装置46は、図3に示すように、車室の内部空間Rに設けられたシート400a〜400cに配されたアームレストを備え、アームレストに戴置されている各乗員の腕に作用し、手振り動作などを個別に行わせることが可能な装置である。
<情報処理装置1>
情報処理装置1は、センサ群3および出力装置4と通信可能に接続されているコンピュータであり、制御部10および記憶部2を備えている。制御部10はCPUであり、制御部10は、情報処理装置1が備える各機能の処理を実行するように制御する。記憶部2は、制御部10によって読み出される各種コンピュータプログラム、および、制御部10が実行する各種処理において利用されるデータなどが格納されている記憶装置である。
制御部10は、カメラ制御部11、人数判定部12、開眼判定部13、会話処理部14、表情特定部15、感情推定部16、指標値算出部17、出力態様決定部18、および出力制御部19を備えている。
カメラ制御部11は、乗員A〜Cの顔、腕、および上半身が適切に撮像されるようにカメラ31の向きを調節する。また、カメラ制御部11は、カメラ31に装着されているレンズを制御し、画角、絞り、および焦点などを調節する。
人数判定部12は、カメラ31によって撮像された撮像画像に基づいて、車室の内部空間Rの乗員の人数を判定する。
開眼判定部13は、カメラ31によって撮像された撮像画像に基づいて、各乗員が開眼しているか否かを判定する。ここで、開眼とは、瞼が所定時間(例えば、10秒)継続して閉じていない状態を意図しており、まばたきをしている状態を含んでいる。すなわち、開眼判定部13は、乗員が眠っているか否かを判定する。眠っている乗員が車室の内部空間Rに存在しているときには、乗員間のコミュニケーションを活性化することより、該乗員の眠りを妨げない方が優先され得る。開眼判定部13は、眠っている乗員が存在する場合に情報処理装置1の機能を停止させるためのものであり、情報処理装置1の必須の構成ではない。
会話処理部14は、マイク32が取得する音声に基づいて、各乗員の少なくとも二名が会話をしているか否かを判定する。会話処理部14は、記憶部2に格納されている話題素材データベース22を参照して話題を提供するための音声を生成してもよい。話題素材データベース22は、乗員に対して、マイク32から音声として出力させる問いかけ文およびフレーズに盛り込む話題の候補を含んでいてもよい。話題素材データベース22には、例えば、話題素材データベース22には、最近のニュースに関連するキーワード、天候、および車両200の現在位置及びその周辺に関する情報など、乗員の関心を惹く任意の話題が含まれていてもよい。あるいは、話題素材データベース22には、乗員への声かけ文(例えば、「いい天気ですね。」など)、および質問文(例えば、「起きてますか?」、および「目的地はどこですか?」など)が含まれていてもよい。会話処理部14は、生成した音声を聞かせた乗員からの返事をマイク32が検知しない場合、話題提供を再度行う。なお、会話処理部14は乗員が会話をしていることを検知できればよく、話題を提供するための音声を生成する機能は必須ではない。
表情特定部15は、カメラ31によって撮像された撮像画像から、各乗員の顔の画像を検出し、表情を特定する。
感情推定部16は、表情特定部15によって特定された表情に基づいて、記憶部2に記憶されている感情推定基準21を参照して、各乗員の感情を推定する。
[表情から推定される感情]
感情推定基準21は、感情を推定するために利用される顔の表情および表情の変化に関する基準である。ここで、表情解析によって推定可能な感情について説明する。顔の表情に表れる感情としては、喜び(Happiness)、悲しみ(Sadness)、怒り(Anger)、嫌悪(Disgust)、恐れ(Fear)、驚き(Surprise)、および軽蔑(Contempt)が知られている。すなわち、各乗員の下記のような表情を検知した場合、各乗員が抱いている感情を推定することが可能である。
・喜びの感情を抱いている乗員の顔では、頬が押し上げられ、両唇が上に上がる。
・悲しみの感情を抱いている乗員の顔では、眉毛の下隅がつり上がり、上瞼が垂れ下がり、わずかに唇の両端が引き下がる。
・怒りの感情を抱いている乗員の顔では、眉毛が左右同時に引き下がり、上瞼がつり上がる。口が閉じている場合、唇が緊張してきつく結ばれる。一方、口が開いている場合、唇が緊張して薄くなっている。
・嫌悪の感情を抱いている乗員の顔では、眉毛が引き下がり、目が細くなり、鼻孔から唇にかけてU字型の皺が見られる。
・恐れの感情を抱いている乗員の顔では、眉毛がつり上がり額に対して水平に波上の形状となり、上瞼が強く引き下がり、唇が水平方向に引き延びる。
・驚きの感情を抱いている乗員の顔では、眉毛が上がりアーチ状に丸い形になり、上瞼が上がり、口がリラックスして丸く開く。
・軽蔑の感情を抱いている乗員の顔は、唇の片側の端がつり上がる。
感情推定部16は、喜び、および驚きと推定される感情に対しては「ポジティブ(P)」と特定し、悲しみ、怒り、嫌悪、および恐れと推定される感情に対しては「ネガティブ(N)」と特定し、軽蔑などと推定される感情に対しては「中立(T)」と特定する。
指標値算出部17は、乗員毎に特定された感情を用いて、乗員間の会話の弾み度合いを示す指標値Wを乗員毎に算出する。指標値算出部17が指標値を乗員毎に算出する処理の詳細は後に具体例を挙げて説明する。なお、情報処理装置1において、乗員間の会話の弾み度合いを示す指標値Wを算出することは必須の構成ではない。なぜなら、乗員間の会話の弾み度合いは、指標値Wの算出以外によっても評価され得るからである。例えば、会話中の乗員の声の音圧、および各乗員が声を発するタイミングが早いか遅いか(すなわち、会話のテンポ)などに基づいて、乗員間の会話の弾み度を評価し得る。
出力態様決定部18は、記憶部2に格納されている出力態様テーブル23を参照して、乗員間の感情の組み合わせに応じた出力装置4および該出力装置4に実行させる処理を決定する。
出力制御部19は、出力装置を駆動させ、後述の笑い増幅処理、手振り反応処理、キーワード反応処理、頷き反応処理、振向き反応処理、笑顔誘導処理、音楽出力処理、および芳香出力処理の少なくともいずれかの処理を実行させる。
なお、情報処理装置1は、車両200の車体の任意の位置に配置され得るが、これに限定されない。例えば、情報処理装置1が無線通信を介して、センサ群3からの検知情報を取得したり、出力装置4への駆動指示を送信したりする機能を備えていてもよい。この場合、情報処理装置1は車両200の車体とは異なる場所に配置可能である。
また、情報処理装置1が、複数の車両200のセンサ群3および出力装置4と通信可能であり、複数のセンサ群3からの検知情報を各センサ群の機器に固有の識別情報とともに取得したり、複数の出力装置4への駆動指示を各出力機器に固有の識別情報とともに送信したりする機能を備えていてもよい。ここで、機器に固有の識別情報とは、例えば、MAC(Media Access Control)アドレスなどである。このように構成すれば、情報処理装置1は、複数の車両200の車室の内部空間Rの各々において、乗員の少なくとも一名の感情がポジティブ側に変化するよう働きかけ、各車両200の車室の内部空間Rにおいて乗員間の会話が弾むように誘導することができる。
(情報処理装置1の処理の流れ)
続いて、情報処理装置1の処理の流れについて図4を用いて説明する。図4は、情報処理装置1が行う処理の流れの一例を示すフローチャートである。
まずカメラ制御部11は、乗員の撮像をカメラ31が開始するよう制御する(ステップS11)。
次に、人数判定部12は、カメラ31によって撮像された撮像画像に基づいて、車室の内部空間Rの乗員の人数を判定する(ステップS12:人数判定ステップ)。人数判定部12が、車室の内部空間Rの乗員が一人であると判定した場合(ステップS12にてNO)、情報処理装置1は動作を終了する。
一方、人数判定部12が、車室の内部空間Rの乗員が複数人であると判定した場合(ステップS12にてYES)、表情特定部15は、カメラ31によって撮像された撮像画像から、各乗員の顔の画像を検出し、表情を特定する(ステップS13)。
続いて、開眼判定部13は、カメラ31によって撮像された撮像画像に基づいて、各乗員が開眼しているか否かを判定する(ステップS14)。開眼判定部13が、車室の内部空間Rの乗員のいずれかが開眼していないと判定した場合(ステップS14にてNO)、情報処理装置1は動作を停止する。
一方、開眼判定部13が、車室の内部空間Rの乗員がいずれも開眼していると判定した場合(ステップS14にてYES)、会話処理部14は、乗員が会話をしているか否かを判定する(ステップS15)。
乗員が会話をしていないと判定した場合(ステップS15にてNO)、会話処理部14は、任意の話題を乗員に提供してもよい(ステップS16)。この場合、会話処理部14は、記憶部2に格納されている話題素材データベース22を参照して話題を提供するための音声を生成する。出力制御部19は、会話処理部14によって生成された音声をシートスピーカ42から出力させる。
会話処理部14は、提供した話題に対する乗員からの返事を検知しない場合(ステップS17にてNO)、ステップS16に戻り、話題提供を再度行う。ただし、会話処理部14が、話題提供を既にQ回行っている場合(ステップS18にてYES)、情報処理装置1は動作を終了する。
会話処理部14が、乗員が会話をしていると判定した場合(ステップS15にてYES)、および、提供した話題に対する乗員からの返事を検知した場合(ステップS17にてYES)、指標値算出部17は、乗員間の会話の弾み度合いを示す指標値を乗員毎に算出する(ステップS19)。
次に、出力態様決定部18は、記憶部2に格納されている出力態様テーブル23を参照して、乗員間の感情の組み合わせに応じた出力装置4および該出力装置4に実行させる処理を決定する(ステップS20)。出力態様決定部18は、例えば、笑い増幅処理、手振り反応処理、キーワード反応処理、頷き反応処理、振向き反応処理、笑顔誘導処理、音楽出力処理、および芳香出力処理のうちの1つの処理を決定してもよいし、複数の処理を決定してもよい。出力態様決定部18が、出力装置4および該出力装置4に実行させる処理を決定する処理の詳細は後に具体例を挙げて説明する。
出力制御部19は、出力態様決定部18によって決定された出力装置を駆動させ、出力態様決定部18によって決定された処理を実行させる(ステップS21:出力制御ステップ)。
(乗員間の会話の弾み度合いを示す指標値を乗員毎に算出する処理)
次に、指標値算出部17が、乗員間の会話の弾み度合いを示す指標値を乗員毎に算出する処理の流れについて、図5を用いて説明する。図5は、乗員毎の指標値を算出する処理の流れの一例を示すフローチャートである。
<音声解析>
会話が弾んでいるとき、会話している乗員が発する声の音圧は高くなる傾向がある。そこで、指標値算出部17は、乗員毎の指標値を算出するために、会話をしている各乗員が発する声の音圧を利用する。
指標値算出部17は、乗員間の会話においてマイク32によって取得された各乗員の発言時の声の音圧を計測する(ステップS901)。また、指標値算出部17は、各乗員が発声した発声時間の長さを計測する(ステップS902)。指標値算出部17は、計測した音圧、および発声時間の長さに基づいて、発話レベル値Sを算出する(ステップS903)。
指標値算出部17は、これに限定されるものではないが、例えば、計測した音圧のデータから、各乗員の発言における平均音圧およびピーク音圧を算出し、下記の式Iによって発話レベル値Sを算出する。なお、下記の式Iにおいて、(発声時間)および(単位時間)の単位は「分」であってもよく、(平均音圧)および(ピーク音圧)の単位は「デシベル(dB)」であってもよい。
S=(発声時間)×(平均音圧)×(ピーク音圧)/(単位時間) (式I)
指標値算出部17は、算出した発話レベル値Sの大きさに応じて5段階に評価した結果を、例えば、S1〜S5として出力してもよい。「S1」から「S5」になるにつれて発話レベル値が大きいことを示している。
<動作解析>
会話が弾んでいるとき、会話中の乗員の動作の回数は増える傾向があり、また、その動作は大きくなる傾向がある。そこで、指標値算出部17は、乗員毎の指標値を算出するために、会話をしている各乗員の動作の回数と大きさとを利用する。ここでは、各乗員の頷き動作、手振り動作、および振向き動作に関するレベル値を算出する場合を例に挙げて説明するが、これに限定されない。
[頷き動作解析]
指標値算出部17は、乗員間の会話においてカメラ31によって撮像された各乗員の頷き回数を計測する(ステップS904)。また、指標値算出部17は、各乗員が頷いたときの頷き動作の大きさを計測する(ステップS905)。頷き動作の大きさとは、例えば、乗員が縦に首を振って頷くときの顔(または視線)の向きの変位量などである。指標値算出部17は、計測した頷き回数、および頷き動作の大きさに基づいて、頷き動作レベル値Uを算出する(ステップS906)。
指標値算出部17は、これに限定されるものではないが、例えば、計測した回数、および頷き動作に伴う顔の向きの平均変位量および最大変位量を算出し、下記の式IIによって頷きレベル値Uを算出する。なお、下記の式IIにおいて、(平均変位量)および(最大変位量)の単位は「度(°)」または「cm」であってもよい。(単位時間)の単位は「分」であってもよい。
U=(頷き回数)×(平均変位量)×(最大変位量)/(単位時間) (式II)
指標値算出部17は、算出した頷きレベル値Uの大きさに応じて5段階に評価した結果を、例えば、U1〜U5として出力してもよい。「U1」から「U5」になるにつれて頷きレベル値が大きいことを示している。
[手振り動作解析]
指標値算出部17は、乗員間の会話においてカメラ31によって撮像された各乗員の手振り回数を計測する(ステップS907)。また、指標値算出部17は、各乗員が手を振ったときの手振り動作の大きさを計測する(ステップS908)。手振り動作の大きさとは、例えば、乗員の手の位置の変位量などである。指標値算出部17は、計測した手振り回数、および手振り動作の大きさに基づいて、手振り動作レベル値Gを算出する(ステップS909)。
指標値算出部17は、これに限定されるものではないが、例えば、計測した回数、および手振り動作に伴う手の位置の平均変位量および最大変位量を算出し、下記の式IIIによって手振りレベル値Gを算出する。なお、下記の式IIIにおいて、(平均変位量)および(最大変位量)の単位は「cm」であってもよい。(単位時間)の単位は「分」であってもよい。
G=(手振り回数)×(平均変位量)×(最大変位量)/(単位時間) (式III)
指標値算出部17は、算出した手振りレベル値Gの大きさに応じて5段階に評価した結果を、例えば、G1〜G5として出力してもよい。「G1」から「G5」になるにつれて手振りレベル値が大きいことを示している。
[振向き動作解析]
指標値算出部17は、乗員間の会話においてカメラ31によって撮像された各乗員の振向き回数を計測する(ステップS910)。また、指標値算出部17は、各乗員が振向いたときの動作の大きさを計測する(ステップS911)。振向き動作の大きさとは、例えば、乗員の顔(または視線)の向きの変位量などである。指標値算出部17は、計測した振向き回数、および振向き動作の大きさに基づいて、振向き動作レベル値Lを算出する(ステップS912)。
指標値算出部17は、これに限定されるものではないが、例えば、計測した回数、および振向き動作に伴う顔の向きの平均変位量および最大変位量を算出し、下記の式IVによって振向きレベル値Lを算出する。なお、下記の式IVにおいて、(平均変位量)および(最大変位量)の単位は「度(°)」または「cm」であってもよい。(単位時間)の単位は「分」であってもよい。
L=(振向き回数)×(平均変位量)×(最大変位量)/(単位時間) (式IV)
指標値算出部17は、算出した振向きレベル値Lの大きさに応じて5段階に評価した結果を、例えば、L1〜L5として出力してもよい。「L1」から「L5」になるにつれて振向きレベル値が大きいことを示している。
<表情解析>
各乗員の顔の表情から、各乗員の感情を推定することができる。そこで、指標値算出部17は、乗員毎の指標値を算出するために、会話をしている各乗員の顔の表情から推定した各乗員の感情を利用する。
乗員間の会話の弾み度合いは、各乗員の感情がポジティブか、ネガティブかに影響される。具体的には、会話において乗員が喜び、および驚きを感じている場合、会話は弾む傾向があり、乗員が悲しみ、嫌悪などを感じている場合、会話は弾みにくい傾向がある。
表情特定部15は、乗員間の会話中にカメラ31によって撮像された各乗員の顔の表情を特定する(ステップS913:表情特定ステップ)。次に、感情推定部16は、記憶部2に記憶されている感情推定基準21を参照して、各乗員の感情を推定する。指標値算出部17は、推定した感情を、ポジティブ(P)、ネガティブ(N)、および中立(T)のいずれかに特定する(ステップS914:感情推定ステップ)。
なお、これは一例にすぎず、感情推定部16が、各乗員の感情をより詳細に特定してもよい。例えば、感情推定部16が、ポジティブ(P)な感情をさらに、完全なポジティブ(PP)と中立に近いポジティブ(PT)とを区別してもよい。完全なポジティブ(PP)か中立に近いポジティブ(PT)かは、感情推定部16が推定する感情の確からしさに応じて区別され得る。
<指標値算出>
次に、指標値算出部17は、音声解析において算出した音圧レベル値S、動作解析において算出した頷きレベル値U、手振りレベル値G、および振向きレベル値Lに基づいて、パフォーマンスレベル値nを算出する(ステップS915)。
指標値算出部17は、パフォーマンスレベル値nを、音圧レベル値S、頷きレベル値U、手振りレベル値G、および振向きレベル値Lを5段階に評価した結果を用いて算出してもよい。例えば、ある乗員の音圧レベル値がS4、頷きレベル値がU4、手振りレベル値がG4、および振向きレベル値がL4であれば、指標値算出部17は、この乗員のパフォーマンスレベル値nを「16」(=4+4+4+4)と算出すればよい。例えば、ある乗員の音圧レベル値がS3、頷きレベル値がU1、手振りレベル値がG1、および振向きレベル値がL1であれば、指標値算出部17は、この乗員のパフォーマンスレベル値nを「6」(=3+1+1+1)と算出すればよい。
なお、指標値算出部17は、音圧レベル値S、頷きレベル値U、手振りレベル値G、および振向きレベル値Lの少なくともいずれかを用いてパフォーマンスレベル値nを算出すればよく、各レベル値の総和を算出する構成に限定されない。例えば、指標値算出部17は、音圧レベル値S、頷きレベル値U、手振りレベル値G、および振向きレベル値Lの少なくともいずれかを用いた任意の関数に基づいてパフォーマンスレベル値nを算出してもよい。
次に、指標値算出部17は、パフォーマンスレベル値nと特定した感情とを組み合わせて、会話の弾み度合いを示す指標値Wを乗員毎に算出する(ステップS916)。すなわち、指標値算出部17によって算出される指標値Wは、(P×n)、(T×n)、および(N×n)のいずれかである。
(出力態様を決定する処理)
次に、出力態様決定部18が、乗員間の感情の組み合わせに応じて出力態様を決定する処理の流れについて、図6を用いて説明する。図6は、乗員間の感情の組み合わせに応じた出力装置4および該出力装置4に実行させる処理を決定する処理の流れの一例を示すフローチャートである。
乗員間の会話の弾み度合いを示す指標値Wの組み合わせを判定する(ステップS1001)。2乗員間の会話の場合、指標値Wの組み合わせは、(P×n)と(P×n)、(T×n)と(P×n)、(P×n)と(N×n)、(T×n)と(T×n)、(T×n)と(N×n)、および(N×n)と(N×n)の6通りである。
出力態様決定部18は、例えば、記憶部2の出力態様テーブル23を参照して、指標値Wの組み合わせに応じた、出力装置および実行する処理を決定する。
指標値Wの組み合わせが、(P×n)と(P×n)または(T×n)と(P×n)であれば、出力態様決定部18は、乗員の少なくとも一名の指標値Wを、さらにポジティブ側へと変化させる出力装置および処理を決定する(ステップS1002)。
指標値Wの組み合わせが、(P×n)と(N×n)または(T×n)と(T×n)であれば、出力態様決定部18は、乗員の少なくとも一名の指標値Wを、ポジティブ側へと変化させる出力装置および処理を決定する(ステップS1003)。
指標値Wの組み合わせが、(T×n)と(N×n)または(N×n)と(N×n)であれば、出力態様決定部18は、乗員の少なくとも一名の指標値Wを、中立へ変化させる出力装置および処理を決定する(ステップS1004)。
(出力態様テーブル23)
ここで、出力態様テーブル23について、図7を用いて説明する。図7は、出力態様テーブル23の一例を示す図である。
出力態様テーブル23は、出力装置4および該出力装置4によって実行させる処理が、会話における各乗員の指標値Wの組み合わせに対応付けられている。以下、各処理について、具体例を挙げて説明する。
[笑い増幅処理]
会話が弾んでいるときの笑い声には、当該会話の楽しさを増し、会話をしている乗員間の共感度を向上させる効果がある。笑い増幅処理は、会話中に生じた笑いを増幅し、会話をしている乗員間の共感度を向上させる処理である。
ここでは、乗員Aと乗員Bとが会話している場合を例に挙げて、笑い増幅処理について図8を用いて説明する。図8は、笑い増幅処理の流れの一例を示すフローチャートである。
出力制御部19は、マイク32によって取得された乗員Bの音声を解析し、乗員Bが笑ったことを検知する。乗員Bが笑ったことを検知した場合(ステップS1111にてYES)、出力制御部19は、疑似笑い声を生成する(ステップS1112)。次に、出力制御部19は、生成した疑似笑い声を乗員Aおよび乗員Bのシートスピーカ42から出力させる(ステップS1113)。出力制御部19は、疑似笑い声を所定回出力した場合(ステップS1114にてYES)、笑い増幅処理を終了する。これにより、情報処理装置1は、乗員Aと乗員Bの会話を活性化し、両者のうちの少なくとも一方の感情をより一層ポジティブ側へ変化するように促すことができる。
疑似笑い声は、ステップS1111において検知した乗員Bの笑い声の音声データを用いて、その周波数および音圧を変更した笑い声の音声データを複数準備し、それらを重ねあわせることによって生成され得る。複数の笑い声の音声データを重ね合せるときに、各音声データの最初の時間をずらして重ね合わせてもよい。このように生成された疑似笑い声は、大勢の人の笑い声のような音声となる。
出力制御部19は、ステップS1111において、マイク32によって取得された乗員Bの笑い声の音圧、およびカメラ31によって撮像された乗員Bの撮像画像を解析してもよい。この場合、出力制御部19は、ステップS1112において、例えば、乗員Bの笑い声の音圧、および乗員Bの感情に応じて、生成する疑似笑い声のレベルを調節してもよい。疑似笑い声のレベルの調節は、例えば、重ね合わせる笑い声の音声の数を調節したり、疑似笑い声を出力するときの音量を調節したりすることによって行われる。
なお、ステップS1113において、出力制御部19は、乗員Aおよび乗員Bの何れか一方のシートスピーカ42から疑似笑い声を出力させてもよい。
[手振り反応処理]
会話が弾んでいるとき、会話中の乗員は、会話中に手振りを加える傾向がある。しかし、例えば、図2に示す乗員Cと乗員Aとが会話している場合、助手席に着座している乗員Cは前方を向いているため、後部座席に着座している乗員Aが手振りを加えていてもそれに気付くことができない。それゆえ、乗員Cには、乗員Aが乗員Cとの会話にどれだけ共感しているかが伝わりにくい。手振り反応処理は、このような場合に、乗員Aが乗員Cとの会話中に頷いたことを、乗員Cに知らせる効果がある処理である。
ここでは、乗員Aと乗員Cとが会話している場合を例に挙げて、手振り反応処理について図9を用いて説明する。図9は、手振り反応処理の流れの一例を示すフローチャートである。
出力制御部19は、カメラ31によって撮像された乗員Aの撮像画像を解析し、会話中の乗員Aの手振り動作を検知する。乗員Aの手振り動作を検知した場合(ステップS1121にてYES)、出力制御部19は、乗員Aの手振り動作の大きさを計測する(ステップS1122)。次に、出力制御部19は、乗員Cが着座しているシート400cのアームレスト駆動装置46を駆動させる(ステップS1123)。このとき、アームレスト駆動装置46は、アームレストに載せられている乗員Cの腕を、乗員Aの手振り動作および該動作の大きさに合わせて動かす。このアームレスト駆動装置46の動作によって、乗員Aが手振り動作を行っていることを乗員Cに知らせることができる。出力制御部19は、アームレスト駆動装置46を所定回駆動した場合(ステップS1124にてYES)、頷き反応処理を終了する。これにより、情報処理装置1は、乗員Aと乗員Cの会話を活性化し、両者のうちの少なくとも一方の感情をより一層ポジティブ側へ変化するように促すことができる。
出力制御部19は、ステップS1121において、カメラ31によって撮像された乗員Aの撮像画像に加え、会話中に乗員Aが発する声を解析してもよい。この場合、ステップS1123において、例えば、乗員Aの手振り動作が検知され、かつ、乗員Aが発話している場合にのみ、出力制御部19がアームレスト駆動装置46を駆動させる構成であってもよい。
なお、運転者である乗員Bが対象となる場合、乗員Bの腕に作用するアームレスト駆動装置46を駆動させるのではなく、シート振動装置45などの他の出力装置4を代用させて、手振り反応処理を行うことが望ましい。
[キーワード反応処理]
他の乗員に共感して欲しい話題およびキーワードが会話に含まれる場合、当該会話に対して他の乗員の共感を得ることができれば、会話はより一層弾み、会話から満足感および幸福感が得られる。例えば、乗員A、B、およびCが会話している場合、乗員Aが発した話題の中に乗員Aが乗員BおよびCに共感して欲しい話題が含まれていても、乗員BおよびCが、そのことに気付かない場合があり得る。そのような場合、乗員Aは落胆し、それ以降の会話を楽しむことができなくなるかもしれない。キーワード反応処理は、乗員Aが共感を得たいと所望するキーワードを、乗員Aが発したことを他の乗員に知らせる効果がある処理である。キーワード反応処理は、乗員Bと乗員Cとの会話においても適用され得る。
ここでは、乗員Aと乗員Bとが会話している場合を例に挙げて、キーワード反応処理について図10を用いて説明する。図10は、キーワード反応処理の流れの一例を示すフローチャートである。
出力制御部19は、マイク32によって取得された乗員Aの音声を解析し、乗員Aが共感を望むキーワードを発話したことを検知する。乗員Aが当該キーワードを発話したことを検知した場合(ステップS1131にてYES)、出力制御部19は、乗員Bのシート送風装置43、およびシート振動装置45を駆動させる(ステップS1132)。シート送風装置43は乗員Bに向けて送風し、シート振動装置45は乗員Bに振動刺激を与えることによって、乗員Aが共感を望むキーワードを発話したことを乗員Bに知らせる。出力制御部19は、シート送風装置43、およびシート振動装置45を所定回駆動した場合(ステップS1133にてYES)、キーワード反応処理を終了する。
なお、ステップS1132において、出力制御部19は、乗員Aのシート送風装置43、およびシート振動装置45も駆動させてもよい。
ステップS1131において検知するキーワードは、乗員Aによって予め登録されたキーワードである。登録されたキーワードは、登録した乗員毎に共感キーワード24に記憶される。
なお、共感キーワード24に登録されるキーワードは、人物名および食べ物などの事象を表す任意の単語であってもよい。あるいは、共感キーワード24に登録されるキーワードとして、「・・・ですよね。」および「・・・ですか?」などの問いかけおよび質問の一部分であってもよい。このように構成すれば、情報処理装置1は、乗員Aが他の乗員に対して問いかけたり、質問したりした場合に、他の乗員が着実に該問いかけおよび質問に応答するよう促すことができる。これにより、情報処理装置1は、乗員Aと乗員Cの会話を活性化し、両者のうちの少なくとも一方の感情をよりポジティブ側へ変化するように促すことができる。
[頷き反応処理]
会話中の乗員は、会話中に頷く場合がある。しかし、例えば、図2に示す乗員Cと乗員Aとが会話している場合、助手席に着座している乗員Cは前方を向いているため、後部座席に着座している乗員Aが自分の話に頷いていてもそれに気付くことができない。それゆえ、乗員Cには、乗員Aが乗員Cとの会話にどれだけ共感しているかが伝わりにくい。頷き反応処理は、このような場合に、乗員Aが乗員Cとの会話中に頷いたことを、乗員Cに知らせる効果がある処理である。頷き反応処理は、乗員Bと乗員Cとの会話においても、乗員Aと乗員Bとの会話においても適用され得る。
ここでは、乗員Aと乗員Cとが会話している場合を例に挙げて、頷き反応処理について図11を用いて説明する。図11は、頷き反応処理の流れの一例を示すフローチャートである。
出力制御部19は、カメラ31によって撮像された乗員Aの撮像画像を解析し、会話中の乗員Aの頷き動作を検知する。乗員Aの頷き動作を検知した場合(ステップS1141にてYES)、出力制御部19は、乗員Cが着座しているシート400cのシート駆動装置44を駆動させる(ステップS1142)。このとき、シート駆動装置44は、例えば、乗員Cの肩口付近を後方から押したり、振動を与えたりする。このシート駆動装置44の動作によって、乗員Aが頷いていることを乗員Cに知らせることができる。出力制御部19は、シート駆動装置44を所定回駆動した場合(ステップS1143にてYES)、頷き反応処理を終了する。これにより、情報処理装置1は、乗員Aと乗員Cの会話を活性化し、両者のうちの少なくとも一方の感情をポジティブ側へ変化するように促すことができる。
なお、ステップS1142において、出力制御部19は、乗員Aが着座しているシート400aのシート駆動装置44を駆動させてもよい。
出力制御部19は、ステップS1141において、カメラ31によって撮像された乗員Aの撮像画像に加え、会話中に乗員Aが発する声を解析してもよい。この場合、ステップS1142において、例えば、乗員Aの頷きが検知され、かつ、乗員Aが発話している場合にのみ、出力制御部19がシート駆動装置44を駆動させる構成であってもよい。
[振向き反応処理]
会話中の乗員は、会話の相手の方に顔を向けて話を聞いたり、発話したりする場合がある。しかし、例えば、図2に示す乗員Cと乗員Aとが会話している場合、助手席に着座している乗員Cは前方を向いているため、後部座席に着座している乗員Aが自分の方を振向いてもそれに気付くことができない。それゆえ、乗員Cには、乗員Aが乗員Cとの会話にどれだけ共感しているかが伝わりにくい。振向き反応処理は、このような場合に、乗員Aが乗員Cの方に振向いたことを、乗員Cに知らせる効果がある処理である。振向き反応処理は、乗員Bと乗員Cとの会話においても、乗員Aと乗員Bとの会話においても適用され得る。
ここでは、乗員Aと乗員Cとが会話している場合を例に挙げて、振向き反応処理について図12を用いて説明する。図12は、振向き反応処理の流れの一例を示すフローチャートである。
出力制御部19は、カメラ31によって撮像された乗員Aの撮像画像を解析し、会話中の乗員Aの振向き動作を検知する。乗員Aの振向き動作を検知した場合(ステップS1151にてYES)、出力制御部19は、乗員Cが着座しているシート400cのシート送風装置43を駆動させる(ステップS1152)。このとき、乗員Aが着座している側の送風口から送風してもよい。例えば、出力制御部19は、乗員Aが乗員Cの右または右後方に着座している場合には、右側の送風口から送風し、乗員Aが乗員Cの左または左後方に着座している場合には、左側の送風口から送風する。このシート送風装置43の動作によって、乗員Aが振向いたことを乗員Cに知らせることができる。これにより、情報処理装置1は、乗員Aと乗員Cの会話を活性化し、両者のうちの少なくとも一方の感情をポジティブ側へ変化するように促すことができる。出力制御部19は、シート送風装置43を所定回駆動した場合(ステップS1153にてYES)、振向き反応処理を終了する。
出力制御部19は、乗員Aの振向き動作の大きさに応じて、シート送風装置43から送風する風量を調節してもよい。例えば、出力制御部19は、乗員Aが大きく振向いた場合にはシート送風装置43から強い風を送風し、小さく振向いた場合には弱い風を送風する。出力制御部19は、乗員Aによる振向き動作の大きさに応じて、シート送風装置43から送風する風量を調節してもよい。例えば、乗員Aが大きく振向いた場合にはシート送風装置43から強い風を送風し、小さく振向いた場合には弱い風を送風する。
出力制御部19は、ステップS1151において、カメラ31によって撮像された乗員Aの撮像画像に加え、会話中に乗員Aが発する声を解析してもよい。この場合、ステップS1152において、例えば、乗員Aの振向きが検知され、かつ、乗員Aが発話している場合にのみ、出力制御部19がシート送風装置43を駆動させる構成であってもよい。
[笑顔誘導処理]
人は、ネガティブな感情のときであっても、笑顔になることによって、ストレスが軽減したり、不安が和らいだりすることが知られている。また、笑顔には、他の人の感情をポジティブ側に変化させる効果もある。
そこで、情報処理装置1は、乗員に対して笑顔になることを誘導するための笑顔誘導プログラム25を記憶部2に格納している。図13は、乗員に対して笑顔誘導プログラム25に基づく映像および音声を出力する処理の流れの一例を示すフローチャートである。ここで、笑顔誘導プログラムは、笑顔誘導用の映像および音声を含むコンテンツを含んでいる。笑顔誘導プログラムは、例えば、子供および動物などの映像コンテンツを含んでいてもよいし、笑顔になるための表情筋のエクササイズなどをキャラクターが解説する映像コンテンツを含んでいてもよい。
乗員Aがネガティブな感情を抱いている場合、出力制御部19は、記憶部2から笑顔誘導プログラム25を読み出し(ステップS1161)、乗員Aが表示画面41aを視認可能な表示装置41および着座しているシート400aのシートスピーカ42を駆動して、笑顔誘導用の映像および音声を出力する(ステップS1162)。これにより、情報処理装置1は、乗員Aの感情が中立へ変化するように促すことができる。
なお、ステップS1162において、出力制御部19は、乗員Aの顔を撮像した撮像画像に基づいてアバターを生成し、笑顔のアバターを表示画面41aに表示させてもよい。また、出力制御部19は、映像および音声の出力に加えて、シート振動装置45などを駆動させてもよい。あるいは、出力制御部19は、笑顔誘導プログラムを実行しているときにカメラ31によって撮像された乗員Aの顔の表情を特定し、特定した表情に応じたコメントをシートスピーカ42から出力させてもよい。
[音楽出力処理]
音楽には、人の感情および行動を誘導する効果があることが知られている。乗員に対して音楽コンテンツを出力する処理の流れについて図14を用いて説明する。図14は、乗員に対して音楽コンテンツを出力する処理の流れの一例を示すフローチャートである。
そこで、乗員Aがネガティブな感情を抱いている場合、出力制御部19は、記憶部2の音楽コンテンツ26に格納されている音楽コンテンツを読み出し(ステップS1171)、乗員Aが着座しているシート400aのシートスピーカ42から該音楽コンテンツを出力する(ステップS1172)。これにより、情報処理装置1は、乗員Aの感情が中立へ変化するように促すことができる。
ただし、音楽の好みは乗員毎に異なっている可能性がある。そこで、情報処理装置1は、予め各乗員の好みの音楽を登録させ、各乗員用の音楽を音楽コンテンツ26に記憶してもよい。乗員Aがネガティブな感情を抱いている場合、出力制御部19は、乗員Aに対して、乗員Aによって予め登録された音楽を音楽コンテンツ26から読み出して、乗員Aが着座しているシート400aのシートスピーカ42から出力すればよい。
[芳香出力処理]
人の感情および行動をポジティブ側に変化させる効果が期待されるさまざまな芳香が知られている。芳香には、緊張状態を緩和し、不安を軽減し、落ち込んだ気分を浮上させる効果がある。このような芳香の例としては、レモン、オレンジ、およびグレープフルーツなどの柑橘系の芳香、ローズなどのフローラル系の芳香、および樹木系の芳香などが挙げられる。
そこで、乗員Aがネガティブな感情を抱いている場合、出力制御部19は、乗員Aに対して、乗員Aが着座しているシート400aのシート送風装置43から芳香を出力し、乗員Aのネガティブな感情が中立側(または、ポジティブ側)へと変化するように促す。
〔ソフトウェアによる実現例〕
情報処理装置1の制御ブロック(特に、制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、情報処理装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 情報処理装置
2 記憶装置
3 センサ群
4 出力装置
10 制御部
11 カメラ制御部
12 人数判定部
13 開眼判定部
14 会話処理部
15 表情特定部
16 感情推定部
17 指標値算出部
18 出力態様決定部
19 出力制御部
21 感情推定基準
22 話題データベース
23 出力態様テーブル
24 共感キーワード
25 笑顔誘導プログラム
26 音楽コンテンツ
31 カメラ
32 マイク
41 表示装置
42 シートスピーカ
43 シート送風機
44 シート駆動装置
45 シート振動装置
46 アームレスト駆動装置
100 制御システム
200 車両
400a〜400d シート
S12 人数判定ステップ
S913 表情特定ステップ
S914 感情推定ステップ
S21 出力制御ステップ

Claims (8)

  1. 所定空間に配置されたカメラの撮像画像に基づいて、該所定空間に滞在している人数を判定する人数判定部と、
    前記人数判定部により前記所定空間に複数人が滞在していると判定された場合、前記撮像画像に基づいて、前記複数人それぞれの表情を特定する表情特定部と、
    前記表情から前記複数人それぞれの感情を推定する感情推定部と、
    前記複数人それぞれの感情の組合せに応じて出力装置を制御する出力制御部と、を備え、
    前記出力制御部は、前記出力装置に、前記複数人のうち少なくとも一名の感情を現在よりポジティブ側に変化させるための出力を実行させることを特徴とする、情報処理装置。
  2. 前記感情推定部は、前記複数人それぞれが抱いている感情が、ポジティブ、ネガティブ、および中立のいずれであるかを特定することを特徴とする、請求項1に記載の情報処理装置。
  3. 前記カメラの撮像画像、および前記所定空間に配置されたマイクの取得音声の少なくともいずれかから、前記複数人の間の、会話の弾み度合いを示す指標値を算出する、指標値算出部を備え、
    前記出力制御部は、前記複数人それぞれの感情の組合せおよび前記指標値に応じて、前記出力装置を制御することを特徴とする、請求項1または2に記載の情報処理装置。
  4. 前記所定空間に配置されたマイクの取得音声から、前記複数人の少なくとも二名が会話中か否かを判定する会話処理部を備え、
    前記感情推定部は、前記会話処理部により前記複数人の少なくとも二名が会話中と判定された場合に、前記複数人それぞれの感情を推定することを特徴とする、請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記表情特定部が特定した表情から、前記複数人それぞれが開眼しているか否かを判定する開眼判定部を備え、
    前記出力制御部は、前記開眼判定部により前記複数人の全てが開眼していないと判定された場合、前記出力装置からの前記出力を停止することを特徴とする、請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記所定空間は移動体の内部空間であって、
    前記内部空間の滞在者は前記移動体の乗員であり、
    前記出力装置は、前記移動体に搭載された出力装置であることを特徴とする、請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 請求項1〜6のいずれか1項に記載の情報処理装置と、
    前記カメラと、
    前記出力装置と、を含むことを特徴とする、制御システム。
  8. 所定空間に配置されたカメラの撮像画像に基づいて、該所定空間に滞在している人数を判定する人数判定ステップと、
    前記人数判定ステップにおいて、前記所定空間に複数人が滞在していると判定された場合、前記撮像画像に基づいて、前記複数人それぞれの表情を特定する表情特定ステップと、
    前記表情から前記複数人それぞれの感情を推定する感情推定ステップと、
    前記複数人それぞれの感情の組合せに応じて出力装置を制御する出力制御ステップと、を含み、
    前記出力制御ステップでは、前記出力装置に、前記複数人のうち少なくとも一名の感情を現在よりポジティブ側に変化させるための出力を実行させることを特徴とする、情報処理装置の制御方法。
JP2019057050A 2019-03-25 2019-03-25 情報処理装置、制御システム、情報処理装置の制御方法 Pending JP2020160598A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019057050A JP2020160598A (ja) 2019-03-25 2019-03-25 情報処理装置、制御システム、情報処理装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019057050A JP2020160598A (ja) 2019-03-25 2019-03-25 情報処理装置、制御システム、情報処理装置の制御方法

Publications (1)

Publication Number Publication Date
JP2020160598A true JP2020160598A (ja) 2020-10-01

Family

ID=72643312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019057050A Pending JP2020160598A (ja) 2019-03-25 2019-03-25 情報処理装置、制御システム、情報処理装置の制御方法

Country Status (1)

Country Link
JP (1) JP2020160598A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113248A1 (ja) * 2020-11-26 2022-06-02 株式会社I’mbesideyou ビデオミーティング評価端末及びビデオミーティング評価方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113248A1 (ja) * 2020-11-26 2022-06-02 株式会社I’mbesideyou ビデオミーティング評価端末及びビデオミーティング評価方法

Similar Documents

Publication Publication Date Title
US10614203B2 (en) Robot-human interactive device which performs control for authenticating a user, robot, interaction method, and recording medium storing program
CA2953539C (en) Voice affect modification
JP2004310034A (ja) 対話エージェントシステム
JP6466385B2 (ja) サービス提供装置、サービス提供方法およびサービス提供プログラム
JP7192222B2 (ja) 発話システム
US11014508B2 (en) Communication support system, communication support method, and storage medium
KR102351008B1 (ko) 감정 인식 장치 및 감정 인식 방법
JP7180139B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP7120060B2 (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
JP2020160598A (ja) 情報処理装置、制御システム、情報処理装置の制御方法
JP7204283B2 (ja) 雰囲気推測装置およびコンテンツの提示方法
JP6874437B2 (ja) コミュニケーションロボット、プログラム及びシステム
JP7296626B2 (ja) 情報処理装置及びプログラム
WO2020175969A1 (ko) 감정 인식 장치 및 감정 인식 방법
JP2019053785A (ja) サービス提供装置
JP2020124392A (ja) 情報処理装置および情報処理システム
JP2020091636A (ja) 音声対話装置の制御方法
JP7443908B2 (ja) 制御装置、情報処理システム、および制御方法
JP7254345B2 (ja) 情報処理装置及びプログラム
JP7286303B2 (ja) 会議支援システム及び会議用ロボット
KR20200057810A (ko) 차량 및 그 제어방법
JP7255437B2 (ja) 拡散対象制御方法、拡散対象制御プログラムおよび拡散対象制御装置
US20240078732A1 (en) Avatar facial expressions based on semantical context
US20240078731A1 (en) Avatar representation and audio generation
JP7380622B2 (ja) 覚醒システムおよび覚醒制御装置