JP2013000300A - 気分判定装置及び気分判定方法 - Google Patents

気分判定装置及び気分判定方法 Download PDF

Info

Publication number
JP2013000300A
JP2013000300A JP2011133667A JP2011133667A JP2013000300A JP 2013000300 A JP2013000300 A JP 2013000300A JP 2011133667 A JP2011133667 A JP 2011133667A JP 2011133667 A JP2011133667 A JP 2011133667A JP 2013000300 A JP2013000300 A JP 2013000300A
Authority
JP
Japan
Prior art keywords
user
mood
tracking time
level
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011133667A
Other languages
English (en)
Other versions
JP5917841B2 (ja
Inventor
Abdelaziz Khiat
アブデラジズ キアット
Takeshi Moriyama
剛 森山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Tokyo Polytechnic University
Original Assignee
Nissan Motor Co Ltd
Tokyo Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd, Tokyo Polytechnic University filed Critical Nissan Motor Co Ltd
Priority to JP2011133667A priority Critical patent/JP5917841B2/ja
Publication of JP2013000300A publication Critical patent/JP2013000300A/ja
Application granted granted Critical
Publication of JP5917841B2 publication Critical patent/JP5917841B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】ユーザの心理状態を基礎づける、ユーザの気分のレベルを判定する。
【解決手段】ユーザの頭部領域を撮像可能なカメラ1を用いて、予め設定された追跡時間T内に撮像された複数の撮像画像を取得する画像取得手機能と、各撮像画像からユーザの顔の特徴領域をそれぞれ抽出する特徴領域抽出機能と、追跡時間Tにおける各特徴領域の指標量をそれぞれ算出する指標量算出機能と、算出された追跡時間における指標量と、ユーザが追跡時間Tにおいて平常状態であるときに予め算出された各特徴領域の基準指標量との相関度を算出する相関度算出機能と、相関度に基づいてユーザの気分の度合いを判定する判定機能と、実行する制御装置10を備える気分判定装置を提供する。
【選択図】 図1

Description

本発明は、人間の気分を判定する気分判定装置及び気分判定方法に関するものである。
運転者の顔の表情、しぐさ、発話音声などの挙動情報、生体情報、車外環境要因、車内システム不調要因に基づいて、イライラレベルを推定する心理状態推定装置が知られている(特許文献1)。
特開2010−94439号公報
しかしながら、従来の技術では、運転者の顔に瞬間的に表された表情に基づいてイライラレベルを推定するので、運転者の心理状態を基礎づける気分の状態を判定することができないという問題がある。
本発明が解決しようとする課題は、人間の心理状態を基礎づける気分がどのような状態であるのかを判定できる気分判定装置及び気分判定方法を提供することである。
本発明は、予め設定された追跡時間内に撮像された複数の撮像画像に含まれる顔の各特徴領域に基づいて追跡時間における指標量をそれぞれ算出し、追跡時間における各指標量に基づいてユーザの気分の度合いを判定することにより、上記課題を解決する。
本発明によれば、予め設定された追跡時間における指標量に基づいてユーザの気分の度合いを判定するので、ユーザの顔に瞬間的に表わされる表情によっては判断することができないユーザの気分の度合いを判定することができる。この結果、ユーザの心理状態を基礎づける気分の移り変わりを知ることができ、ユーザの心理状態を高い精度で推測することができる。
本発明の実施形態を適用した運転支援システムの概略構成を示すブロック図である。 本発明の実施形態の気分判定装置の処理内容を説明するための図である。 本発明の実施形態の気分判定処理に用いられる特徴領域を説明するための図である。 気分のレベルの定義の一例を示す図である。 本発明の実施形態の気分判定装置の制御手順を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る気分判定装置を、車両の運転を支援するための運転支援システム1000に適用した場合を例にして説明する。本例では、車両に搭載される例を説明するが、飛行機、船、重機などの移動体に搭載することができる。また、気分判定装置の適用は、移動体の操縦装置に限定されず、作業・操作に高い確実性が求められる工場、作業所、管理塔に設けられた各種のオペレーション装置に組み込むことができる。また自宅のコンピュータやテレビなどに組み込むことで、自宅において健康状態を判断する用途に適用することができる。
図1は、本実施形態に係る気分判定装置100を含む運転支援システム1000のブロック構成図である。図1に示すように、本実施形態の運転支援システム1000は、車両に設置されたカメラ1と、気分判定装置100と、車両コントローラ200と、報知装置300と、記憶装置400と、通信装置500とを備えることができる。また、本実施形態の運転支援システム1000は、走行支援装置610、制動装置620、出力装置630、エアコンディショナー640、座席ヒータ650、メモリ660、ナビゲーション装置670を備えることができる。これらの各装置はCAN(Controller Area Network)その他の車載LANによって接続され、相互に情報の授受を行うことができる。さらに、通信装置500を介して通信による情報の授受が可能な外部装置(コンピュータ)を備えることができる。
カメラ1は、CCD(Charge Coupled Devices)等の撮像素子を用いて構成され、乗員(ユーザである人間、人物)の顔を撮像するため、乗員の頭部領域を撮像可能な位置に設置されている。カメラ1は、予め設定された追跡時間内に乗員の頭部領域を複数回撮像し、撮像した撮像画像を撮像タイミングの情報を付して気分判定装置100に送出する。
図1に示すように、本実施形態に係る気分判定装置100の制御装置10は、乗員の気分を判定するプログラムが格納されたROM(Read Only Memory)12と、このROM12に格納されたプログラムを実行することで、気分判定装置100として機能する動作回路としてのCPU(Central Processing Unit)11と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)13と、を備えている。
本実施形態に係る気分判定装置100の制御装置10は、画像取得機能と、画像選択機能と、特徴領域抽出機能と、指標量算出機能と、相関度算出機能と、判定機能と、出力機能とを実現するためのソフトウェアと、上述したハードウェアの協働により各機能を実行することができる。本実施形態では、制御装置10が各制御命令を送出する態様を例にして説明するが、本実施形態の制御装置10は、車両コントローラ200を介してカメラ1、報知装置300、記憶装置400、通信装置500、車載装置600を制御することも可能である。
以下、本発明の本実施形態に係る気分判定装置100が実現する各機能について図2、図3に基づいて説明する。
まず、本実施形態に係る気分判定装置100の画像取得機能について説明する。本実施形態の気分判定装置100の制御装置10は、カメラ1が追跡時間内に撮像した、複数の撮像画像を取得する。各撮像画像には撮像時刻情報が付されており、所定の追跡時間内に撮像された撮像画像ごとにグループ化されている。
特に限定されないが、ユーザの気分を判定するために設定される追跡時間は、数分から数時間の所定の長さの時間、具体的には、2分以上、120分以下とすることができる。追跡時間は、上記範囲以内で車両搭乗時間(オペレーション時間)に応じて設定してもよいし、ユーザが任意に設定してもよい。特に限定されないが、下限は3分以上、5分以上、10分以上、15分上、20分以上とすることができ、上限は、120分以下、90分以下、60分以下、40分以下とすることができる。1分以下、数秒以下、又は1/10秒乃至1/100秒以下といった一瞬の撮像時間の間に捉えられる断片的な顔の表情によってはユーザの気分のレベルを判定することができないからである。
また、追跡時間内における撮像回数については、予め設定することができる。追跡時間内の撮像回数が多いほど気分レベル判定の精度が高まる傾向があるが、追跡時間内の撮像回数が多いほど処理負荷が高まるので、処理能力と気分レベル判定の精度に応じて任意に設定することができる。
ところで、一般に、人間は、ある事象に対峙したときに喜び、怒り、悲しみ、楽しみ、怨みなどの感情を持ち、生じた感情に応じて30〜40種以上あるといわれる顔の表情筋を動かして動き、笑う、泣く、顔をしかめるといった表情を示す。このように、発生する感情の種類に応じて異なる表情を示すので、顔の表情の変化に基づいて、感情の変化を知ることができる。
しかし、感情に応じた表情の変化は一時的に示されるものであり、ある情報に接して顔をしかめて不快な表情を見せても、その直後に笑うことや、誰かと話していて目を見開いて驚いた表情を見せても、その直後に悲しみを表現することなどはよくあることである。
一方、本発明の本実施形態において判定対象となる「気分」は、感情のように一瞬の表情に示されるものではなく、無意識のうちに形成され、不随意筋肉(自律神経系によって支配され意識によっては動かせない筋肉)の動きによって、数分〜数時間の比較的長い時間に渡って表情に表われるものである。このように、「気分」は、ユーザの健康状態、自律神経の状態、ユーザの家庭や仕事の状態などの影響を複合的に受けて、特に原因もなく無意識に生じ、比較的長い時間に渡って保たれるものであり、ある事象の発生に呼応して自覚の下に直ちに生じる「感情」とは異なるものといえる。
また、「気分」は、感情を基礎づけるユーザの心理状態の支配的な要素である。特に原因がないのに、気分が良い状態であったり、又は気分が悪い状態であったりすることや、また、同じ事象が生じた場合であっても気分が良いときに生じる感情と、気分が悪いときに生じる感情とは異なることは一般的に経験されることである。例えば、一般に、緊張しているときやイライラしているときなどの覚醒度が高い気分のときに事象Aが起きた場合には怒りの感情を感じるが、ゆったりしているときなどの覚醒度の低い気分のときに事象Aが起きた場合には何も感じることなく平常の感情を保つことができる。このように、人の心理状態は気分によって支配される傾向がある。
本実施形態では、人の心理状態の支配的な要因である「気分」を、一瞬の表情(ある事象に対する表情筋の動き)によってではなく、比較的長い時間において示された複数の表情を統計的に解析することにより、その(気分の)レベルを推測する。具体的に、本実施形態では、数分から数時間の追跡時間を設定し、この追跡時間内に撮像された複数の撮像画像に基づいて、そのユーザの心理状態を基礎づける、支配的な要因としてのユーザの気分の度合いを判定することができる。ユーザの気分はユーザの感情の動向を基礎づけるものであり、心理状態の支配的な要因となりうるので、ユーザの気分を判断することにより、ユーザに生じる感情を正確に推測乃至判断することができる。また、気分の度合いに基づいてユーザに生じる感情の傾向を正確に予測することができる。また、従来の感情判定においても、基準となる平静の表情が気分により変動していることを考慮することにより、その精度を高めることもできる。
ちなみに、数秒以下、1/10乃至1/100〜数秒の撮像タイミングにおいて瞬間的に示された表情に基づいてユーザに瞬間的に生じた感情を判断することは可能であるが、瞬間的に示された表情に基づいて感情を基礎づけるユーザの気分を判断することは困難である。逆に、数分から数時間の長さの追跡時間に渡って観察された表情に基づいて気分を判断することは可能であるが、数分から数時間の長さの追跡時間に渡って観察された表情に基づいて、ある事象によって一時的に喚起された感情を判断することは困難である。
次に、本実施形態に係る気分判定装置100の画像選択機能について説明する。図2に画像選択処理以降の処理の概要を示す。
本実施形態の気分判定装置100の制御装置10は、取得された複数の撮像画像について、ユーザの顔が正面方向を向いているか否か及びユーザの顔が隠されているか否かを判断し、ユーザの顔が正面方向を向いており、ユーザの顔が隠されていないと判断された撮像画像を選択する。なお、制御装置10は、画像処理コントロールユニット(Image Processing Control Unit: IPCU)を備え、撮像画像のデータを解析し、撮像画像のデータから処理対象に対応する画像を抽出し、抽出された画像に基づいて処理対象の評価をすることができる。
図2に示すように、追跡時間Tの間に撮像された複数の撮像画像の中から、ユーザの顔が手などで隠されておらず、かつ顔が正面方向を向いている画像を選択する。撮像画像に隠れ部分があるか否かは、処理対象となる顔の外形線の態様、顔の基準形状、顔の面積等に基づいて判断することができる。また、顔が正面を向いているか否かは、撮像画像から抽出された顔画像の三次元座標の座標軸(図3のXYZ座標を参照)の方向に基づいて判断することができる。選択された隠れ部分が無く、正面を向いた撮像画像は次に説明する特徴領域の抽出処理に用いられる。なお、撮像画像に含まれる顔の画像に隠れ部分(欠け部分)があるか否か、撮像画像に含まれる顔が正面を向いているか否かについては、出願時に知られている手法を適宜に用いることができる。これにより、特徴領域の抽出処理が正確に行われ、結果としてユーザの気分判定処理を正確に行うことができる。
次に、本実施形態に係る気分判定装置100の特徴領域抽出機能について説明する。本実施形態の気分判定装置100の制御装置10は、図2に示すように、取得した各撮像画像からユーザの顔の特徴領域に対応するパッチをそれぞれ抽出する。
図3はユーザの顔の特徴領域の一例を示す。図3は、ユーザの顔が図面の紙面と垂直方向(Z軸方向)に向いている、すなわちユーザの顔が正面を向いている図である。本実施形態の気分判定装置100では、左右の眉の間の額領域(又は眉間領域)、眉間から鼻先までの部分であり、鼻筋に相当する鼻梁領域、左右の目の下であり鼻の左右の右頬領域及び左頬領域、口の左右の窪みであり、笑ったときに凹みが深くなる右笑窪領域及び左笑窪領域、口の下にある顎領域を、特徴領域として定義する。
本実施形態の気分判定装置100においては、ユーザの顔の眉間又は頬領域のうち、何れか一つ以上の特徴領域を撮像画像から抽出する。気分の判定処理において、抽出する特徴領域は、上述の各領域の全部であってもよいし、一部であってもよい。本実施形態において判定する「気分」のレベルはユーザの覚醒度に応じるという知見に基づいて、ユーザの覚醒度に応じた指標量変化が比較的大きい眉間領域及び/又は左右の頬領域を特徴領域として定義し、眉間領域及び/又は左右の頬領域を撮像画像から抽出する。
特に限定されないが、本実施形態の気分判定装置100は、正面を向いた顔を撮像した撮像画像から、左右の目、鼻、口の位置を抽出し、目、鼻、口の配置及び位置関係に基づいて上述の各特徴領域に対応する各パッチの画像データを抽出する。抽出した各特徴領域は、特徴領域ごとに識別され、次の相関度の算出処理に用いられる。なお、特徴領域の抽出手法は限定されず、出願時に知られた手法を適宜に用いることができる。
続いて、本実施形態に係る気分判定装置100の指標量算出機能について説明する。本実施形態の気分判定装置100の制御装置10は、図2に示すように、特徴領域に対応する各パッチの画像データを取得し、特徴領域ごとの追跡時間Tにおける指標量をそれぞれ算出する。本実施形態において算出される指標量の内容は、特徴領域に表された特徴量を示すものであれば特に限定されず、その算出手法も限定されない。特に限定されないが、本実施形態では、ある主成分に関する総合的な指標を統計的に設定し,変数間の関係を把握するための主成分分析(PCA: Principal Component Analysis)を用いて主成分スコア(指標量)を求める。特徴領域ごとの追跡時間Tにおける指標量は、出願時に知られた分析手法、統計手法などを適宜に用いることができる。
さらに、本実施形態に係る気分判定装置100の相関度算出機能について説明する。本実施形態の気分判定装置100の制御装置10は、今回相関度の算出が行われる判定追跡時間Txに撮像された撮像画像を用いて、先に説明した手法により算出された特徴領域ごとの追跡時間Tにおける主成分スコア(指標量)を得るとともに、ユーザが平常状態である基準追跡時間T0において予め算出された各特徴領域の基準指標量をRAM13から読みだす。この基準指標量は、初回の処理において算出してRAM13に記憶しておくことができる。
そして、本実施形態の気分判定装置100は、判定追跡時間Txにおける指標量(主成分スコア)に対応する観察ベクトルと、基準指標量(基準となる主成分スコア)に対応する固有ベクトルとの相関度βiを下掲の数1の式により算出することができる。なお、相関度の算出手法は特に限定されず、他の相関度の算出手法を用いることができる。
Figure 2013000300
続いて、本実施形態に係る気分判定装置100の判定機能について説明する。本実施形態の気分判定装置100の制御装置10は、算出された相関度に基づいてユーザの気分の度合いを判定する。
本実施形態の気分判定装置100は、図2に示すように、各特徴領域の相関度について、緊張レベルに応じた相関度と、イライラレベルに応じた相関度を求め、これらの各相関度を加えて(足して)総合的な相関度を算出し、総合的な相関度に基づいて追跡時間Tにおける気分レベルを判断する。特に限定されないが、本実施形態において、気分判定装置100は、緊張レベルに応じた相関度を顔の頬領域(特徴領域)の指標量に基づいて算出し、イライラレベルに応じた相関度を顔の眉間領域(特徴領域)の指標量に基づいて算出することができる。
特に限定されないが、本実施形態の気分判定装置100は、ユーザの気分の度合いを、第1〜第4の四つのレベルに区分して判定することができる。気分の度合いの定義例を図4に示す。図4に示すように、本実施形態では、覚醒度の高さに応じて気分を4つのレベルに分けている。気分のレベルはユーザ自身が自覚できないことがあるので、各気分のレベルをユーザ自身が自覚することができる感情の種別を用いて表現すると、本実施形態の気分のレベルは、平常な状態である第1レベル、緊張を感じやすい傾向にある第2レベル、怒りを感じやすい傾向にある第3レベル、及び激しい怒りを感じやすい傾向にある第4レベルと表現することができる。
本実施形態に係る気分判定装置100は、算出された相関度に基づいて判定された気分の度合いと追跡時間Tとを対応づけて少なくとも一時的に記憶する。
最後に、本実施形態に係る気分判定装置100の出力機能について説明する。図1に示すように、本実施形態の気分判定装置100は、車両に搭載された車両コントローラ200、報知装置300、記憶装置400、通信装置500、車載装置600、及び外部装置700とともに、運転支援システムを構成する。気分判定装置100により出力されるユーザの追跡時間Tにおける気分レベルの判定結果は、より安全な運転を支援するために利用される。
本実施形態の気分判定装置100の制御装置10は、判定されたユーザの気分の度合いを、両の駆動を制御可能な車両コントローラ200、ユーザに報知するための報知装置300、記憶装置400、及び外部と情報の送受信が可能な通信装置500のうちの何れか一つ以上に出力する。
本実施形態において出力された気分レベルの判定結果は、ユーザの運転操作、車両の駆動制御、次回の運転操作、他のユーザの運転操作などの制御にフィードバックされる。本実施形態における気分レベルの判定結果のフィードバック手法を、以下に例示する。
第1の例として、気分レベルの判定結果を取得した車両コントローラ200は、安全な走行を確保するため、気分レベルの高さに応じて(第4レベルに近いほど)、維持する車間距離を長く設定する指令を車間維持装置611に送出し、気分レベルの高さに応じて(第4レベルに近いほど)、維持する車速を低く設定する指令を車速維持装置620に送出する。同様に、安全走行を実現するための制御指令を他の走行支援装置610に対して送出することができる。また、安全な走行を確保するため、車両コントローラ200は、気分レベルの高さに応じて(第4レベルに近いほど)、制動装置620に車両を減速させ、車両を停止に導く指令を送出することができる。これにより、ユーザの気分レベルに応じた走行支援を行うことができる。
第2の例として、気分レベルの判定結果を取得した報知装置300は、ディスプレイ631及び/又はスピーカ632を介して、現在のユーザの気分レベルを文字、図形、点滅信号、音声などによりユーザに報知することができる。また、気分レベルの判定結果を取得した報知装置300は、ユーザに気分レベルを知らせるとともにユーザの気分を転換させるため、エアコンディショナー640に温風又は冷風を送風する指令を送出することができる。さらにまた、気分レベルの判定結果を取得した報知装置300は、ユーザに気分レベルを知らせるとともにユーザの覚醒度を緩めるため、座席ヒータ650に加温指令を送出することができる。このように、報知装置300は、ユーザの気分レベルをユーザ自身に直接的又は間接的に知らせることができる。
第3の例として、気分レベルの判定結果を取得した記憶装置400は、記憶メモリ660に追跡時間Tと対応づけて記憶することができる。また、記憶装置400は、取得した気分レベルの判定結果を、ナビゲーション装置670が利用する車載又はサーバに配置されている地図情報671、道路情報672に追跡時間T及び追跡時間Tにおける走行位置と、を対応づけて記憶することができる。これにより、走行中のユーザの気分を地図情報671、道路情報672に書き込むことができる。
第4の例として、気分レベルの判定結果を取得した通信装置500は、取得した気分レベルの判定結果を、外部装置700へ通信回線を介して送出することができる。これにより、走行中の多数のユーザの気分レベルの情報を外部装置700に集約することができる。
このように、追跡時間Tの間におけるユーザの気分レベルの判定結果を車両コントローラ200、報知装置300、記憶装置400、通信装置500などに出力し、各装置が気分レベルの判定結果をフィードバックすることにより、後に行われる車両制御、ユーザの操作、他のユーザの操作に役立てることができる。
続いて、本実施形態の気分判定装置100の制御手順を、図5に示すフローチャートに基づいて説明する。
ステップ101において、気分判定処理を行うため、本実施形態の気分判定装置100は、追跡時間Tを設定し、カメラ1によるユーザの頭部近傍の撮像を開始する。追跡時間Tは数分から数時間の所定の長さで予め設定しておくことができる。気分判定処理のトリガは特に限定されず、イグニッションオンの情報が入力された場合や、ユーザが気分判定処理の開始を命令した場合などとすることができる。
次に、ステップ102において、本実施形態の気分判定装置100は、撮像画像から顔に対応する画像を検出し、目、鼻、口などの顔の特徴を追跡し、顔に対応する画像に手などによって隠された部分(欠け)が有るか否か、及びユーザの顔の向き(図3に示すZ軸方向からのずれ量)に基づいて、撮像画像に含まれる顔が正面を向いているか否かを判断する。
ステップ103において、本実施形態の気分判定装置100は、顔に対応する画像に隠れ部分が無く、顔が正面を向いている(図3に示すZ軸方向のずれ量が所定値未満である)撮像画像を選択する。気分判定装置100は、追跡時間Tの間に所定数以上の撮像画像を選択する。特に限定されないが、追跡時間Tの間に選択された撮像画像の数が所定数未満である場合には、正確な判定ができないとして気分判定処理を中止するようにすることもできる。
ステップ104において、本実施形態の気分判定装置100は、選択された各撮像画像から特徴領域を抽出する。特に限定されないが、本処理においては、覚醒度の影響が現れやすい眉間領域の画像と左右の頬領域の画像とを特徴領域として抽出する。
ステップ105において、本実施形態の気分判定装置100は、各特徴領域(パッチ)の画像データを少なくとも一時的に記憶する。
続いてステップ106において、本実施形態の気分判定装置100は、主成分分析(PCA)の手法を用いて、各特徴領域の指標量(主成分スコア)をそれぞれ算出する。
ステップ107において、本実施形態の気分判定装置100は、ステップ106において算出された指標量が最初の処理によって求められた初期値であるか否かを判断する。算出された指標量が最初の処理によって求められた初期値である場合には、ステップ108へ進み、相関度を算出する際に基準とされる基準指標量として記憶する。なお、最初に算出する指標量(初期値)は、基準指標量となるため、ユーザが平常の気分であるときに算出することが好ましい。
ステップ107において、算出された指標量が初期値でない場合には、ステップ109へ進み、今回の判定対象となる判定追跡時間Txにおける指標量と、基準となる基準追跡時間T0における指標量との相関度を算出する。
続いて、ステップ110において、本実施形態の気分判定装置100は、ステップ109において算出された相関度に基づいて、判定追跡時間Txにおけるユーザの気分が図4に示す四つの気分レベルのうち、いずれのレベルに属するのかを判定する。
最後に、ステップ111において、本実施形態の気分判定装置100は、気分レベルの判定結果を、車両コントローラ200、報知装置300、記憶装置400、及び通信装置500のうちの何れか一つ以上の装置へ出力する。
なお、本実施形態では、気分判定装置100が車両に搭載された場合を例にして説明したが、本発明の本実施形態に係る気分判定方法を、カメラ1、ユーザが操作するクライアントコンピュータ(車載コンピュータ、管理装置、作業装置)と情報の授受が可能なサーバ(コンピュータ・制御装置)において実行することもできる。サーバは、クライアントと離隔した場所に配置することができる。
クライアントコンピュータと情報の授受が可能なサーバは、カメラ1、ユーザが操作するクライアントに以下の指令を送出して、気分判定方法を実行することができる。指令の内容は、予め設定された追跡時間T内にユーザの頭部領域をカメラ1で複数回撮像させて、これにより得た複数の撮像画像から、ユーザの顔の特徴領域をそれぞれ抽出し(ステップ)、追跡時間Tにおける各特徴領域の特徴成分量をそれぞれ算出し(ステップ)、算出された追跡時間における特徴成分量と、ユーザが追跡時間において平常状態であるときに予め算出された各特徴領域の基準特徴成分量との相関度を算出し(ステップ)、相関度に基づいて追跡時間Tにおけるユーザの気分の度合いを判定する(ステップ)と、を含む。さらに、サーバは、判定した追跡時間Tにおけるユーザの気分の度合いを、ユーザが操作する車両の車両コントローラ200、車両の報知装置300、記憶装置400へ送出することができる。なお、処理の具体的な内容は、本実施形態の気分判定装置100、運転支援システム1000と共通するのでこれらの説明を援用する。
本発明の本実施形態の気分判定装置100は以上のように構成され、以上のように動作するので、以下の効果を奏する。
本発明の本実施形態に係る気分判定装置100によれば、予め設定された追跡時間Tにおける指標量に基づいてユーザの気分の度合いを判定するので、ユーザの顔に瞬間的に表わされる表情によっては判断することができないユーザの気分の度合いを判定することができる。この結果、ユーザの心理状態を基礎づけ、ユーザの心理状態の支配的な要因となる気分の状態を知ることができ、ユーザの心理状態を高い精度で推測することができる。また、従来の瞬間的な表情からの感情判定においても、本発明により、基準となる平静の表情が気分により変動していることを考慮することができるため、その精度を高めることができる。
本発明の本実施形態に係る気分判定装置100によれば、追跡時間Tを数分から数時間の所定の長さとすることにより、一瞬の表情からではなく、追跡時間Tにおいて撮像された複数の撮像画像に基づく特徴領域の指標量に基づいて、ユーザの気分を正確に判断することができる。
本発明の本実施形態に係る気分判定装置100によれば、選択された隠れ部分が無く、正面を向いた撮像画像のみが、特徴領域の抽出処理に用いられるので、特徴領域の抽出処理が正確に行われ、結果としてユーザの気分判定処理を正確に行うことができる。
本発明の本実施形態に係る気分判定装置100によれば、「気分」のレベルがユーザの覚醒度に応じる場合には、ユーザの覚醒度に応じた指標量変化が比較的大きい眉間領域及び/又は左右の頬領域を特徴領域として定義するので、ユーザの気分レベルを正確に判定することができる。
本発明の本実施形態に係る気分判定装置100によれば、追跡時間Tにおけるユーザの気分の度合いを平常な状態である第1レベル、緊張を感じやすい第2レベル、怒りを感じやすい第3レベル、激しい怒りを感じやすい第4レベルのうちのいずれのレベルであるかを判定するので、数分から数時間という比較的長い時間に渡って維持されるユーザの気分のレベルに基づき、気分のレベルに応じて生じる感情の傾向を予測することができる。
本発明の本実施形態に係る気分判定装置100及び運転支援システム1000によれば、判定された追跡時間Tにおけるユーザの気分の度合いを、車両に搭載された、車両コントローラ200、報知装置300、記憶装置400、及び通信装置500のうちの何れか一つ以上に出力するので、追跡時間Tにおけるユーザの気分の度合いを、現在の走行、次の走行、他のユーザの走行にフィードバックすることができる。各種のフィードバック制御により、ユーザの気分レベルを低く、つまり、ユーザの覚醒度を適正に保つようにすることができる。
本発明に係る実施形態の気分判定方法によっても、同様の作用を奏し、同様の効果を得ることができる。
なお、以上説明したすべての実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
本明細書では、本発明に係る気分判定装置の一態様として気分判定装置100及び走行支援装置1000を例にして説明するが、本発明はこれに限定されるものではない。
また、本明細書では、本発明に係る気分判定装置の一態様として、CPU11、ROM12、RAM13を含む制御装置10を備える気分判定装置100を一例として説明するが、これに限定されるものではない。
また、本明細書では、カメラと、画像取得手段と、特徴領域抽出手段と、指標量算出手段と、相関度算出手段と、判定手段とを有する本発明に係る気分判定装置の一態様として、気分判定装置100を説明するが、これに限定されるものではない。
本明細書では、本発明に係る気分判定装置の一態様として、本願発明に係る気分判定装置100と、車両コントローラ200と、報知装置300と、記憶装置400と、通信装置500とを備えた走行支援システム1000を例にして説明するが、本発明はこれに限定されるものではない。
1000…運転支援システム
100…気分判定装置
10…制御装置
11…CPU
12…ROM
13…RAM
1…カメラ
200…車両コントローラ
300…報知装置
400…記憶装置
500…通信装置
600…車載装置
610…走行支援装置
611…車間維持装置
612…キープレーン装置
620…制動装置
630…出力装置
631…ディスプレイ
632…スピーカ
640…エアコンディショナー
650…座席ヒータ
660…メモリ
670…ナビゲーション装置
700…外部装置

Claims (7)

  1. ユーザの頭部領域を撮像可能なカメラを用いて、予め設定された追跡時間内に撮像された複数の撮像画像を取得する画像取得手段と、
    前記複数の撮像画像から前記ユーザの顔の特徴領域をそれぞれ抽出する特徴領域抽出手段と、
    前記追跡時間における前記各特徴領域の指標量をそれぞれ算出する指標量算出手段と、
    前記算出された追跡時間における指標量と、前記ユーザが前記追跡時間において平常状態であるときに予め算出された各特徴領域の基準指標量との相関度を算出する相関度算出手段と、
    前記相関度に基づいて前記ユーザの気分の度合いを判定する判定手段と、を備える気分判定装置。
  2. 前記追跡時間は、数分から数時間の所定の長さの時間であることを特徴とする請求項1に記載の気分判定装置。
  3. 前記画像取得手段により取得された複数の撮像画像について、前記ユーザの顔が正面方向を向いているか否か及び前記ユーザの顔が隠されているか否かを判断し、前記ユーザの顔が正面方向を向いており、前記ユーザの顔が隠されていないと判断された撮像画像を選択する画像選択手段をさらに備え、
    前記特徴領域抽出手段は、前記画像選択手段により選択された各撮像画像から前記ユーザの顔の特徴領域をそれぞれ抽出することを特徴とする請求項1又は2に記載の気分判定装置。
  4. 前記特徴領域抽出手段は、前記ユーザの顔の眉間領域及び左右の頬領域のうち、何れか一つ以上の領域を特徴領域として前記撮像画像から抽出することを特徴とする請求項1〜3の何れか一項に記載の気分判定装置。
  5. 前記判定手段は、前記相関度に基づいて前記ユーザの気分の度合いを、平常な状態である第1レベル、緊張を感じやすい第2レベル、怒りを感じやすい第3レベル、激しい怒りを感じやすい第4レベルのうちのいずれのレベルであるかを判定することを特徴とする請求項1〜4の何れか一項に記載の気分判定装置。
  6. 前記気分判定装置は、車両に搭載され、
    前記判定手段により判定された前記ユーザの気分の度合いを、前記車両に搭載された、前記車両の駆動を制御可能な車両コントローラ、前記ユーザに報知するための報知装置、前記判定された気分の度合いを格納可能な記憶装置、及び外部と情報の送受信が可能な通信装置のうちの何れか一つ以上に出力する出力手段をさらに備えることを特徴とする請求項1〜5の何れか一項に記載の気分判定装置。
  7. 予め設定された追跡時間内にユーザの頭部領域をカメラで複数回撮像して得た複数の撮像画像から、前記ユーザの顔の特徴領域をそれぞれ抽出し、
    前記追跡時間における前記各特徴領域の特徴成分量をそれぞれ算出し、
    前記算出された追跡時間における特徴成分量と、前記ユーザが前記追跡時間において平常状態であるときに予め算出された各特徴領域の基準特徴成分量との相関度を算出し、
    前記相関度に基づいて前記ユーザの追跡時間における気分の度合いを判定する、気分判定方法。
JP2011133667A 2011-06-15 2011-06-15 気分判定装置及び気分判定装置の作動方法 Active JP5917841B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011133667A JP5917841B2 (ja) 2011-06-15 2011-06-15 気分判定装置及び気分判定装置の作動方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011133667A JP5917841B2 (ja) 2011-06-15 2011-06-15 気分判定装置及び気分判定装置の作動方法

Publications (2)

Publication Number Publication Date
JP2013000300A true JP2013000300A (ja) 2013-01-07
JP5917841B2 JP5917841B2 (ja) 2016-05-18

Family

ID=47669521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011133667A Active JP5917841B2 (ja) 2011-06-15 2011-06-15 気分判定装置及び気分判定装置の作動方法

Country Status (1)

Country Link
JP (1) JP5917841B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016106689A (ja) * 2014-12-03 2016-06-20 日本電信電話株式会社 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム
US9665567B2 (en) 2015-09-21 2017-05-30 International Business Machines Corporation Suggesting emoji characters based on current contextual emotional state of user
JP2017209516A (ja) * 2015-06-12 2017-11-30 ダイキン工業株式会社 脳活動推定装置
JP2018116428A (ja) * 2017-01-17 2018-07-26 トヨタ自動車株式会社 ドライバ状態検出装置
US20180218199A1 (en) * 2015-02-10 2018-08-02 Baidu Online Network Technology Beijing Co., Ltd. Information pushing method and apparatus
CN110087451A (zh) * 2016-12-27 2019-08-02 本田技研工业株式会社 情绪改善装置以及情绪改善方法
US10409132B2 (en) 2017-08-30 2019-09-10 International Business Machines Corporation Dynamically changing vehicle interior
CN111079692A (zh) * 2019-12-27 2020-04-28 广东德融汇科技有限公司 用于k12教育阶段基于人脸识别的校园行为分析方法
WO2020151339A1 (zh) * 2019-01-24 2020-07-30 平安科技(深圳)有限公司 基于无人驾驶车辆的异常处理方法、装置及相关设备
CN112168190A (zh) * 2020-10-23 2021-01-05 清华大学 驾驶压力实时监测系统及方法
CN115762772A (zh) * 2022-10-10 2023-03-07 北京中科睿医信息科技有限公司 目标对象的情绪特征确定方法、装置、设备及存储介质
US11935329B2 (en) 2021-03-24 2024-03-19 I'mbesideyou Inc. Video analysis program
JP7553128B2 (ja) 2020-09-24 2024-09-18 株式会社I’mbesideyou 感情解析システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076421A (ja) * 1998-08-28 2000-03-14 Nec Corp 感情解析システム
JP2003339681A (ja) * 2002-05-27 2003-12-02 Denso Corp 車両用表示装置
JP2007264785A (ja) * 2006-03-27 2007-10-11 Toyota Motor Corp 眠気検出装置
JP2008046691A (ja) * 2006-08-10 2008-02-28 Fuji Xerox Co Ltd 顔画像処理装置及びコンピュータのプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076421A (ja) * 1998-08-28 2000-03-14 Nec Corp 感情解析システム
JP2003339681A (ja) * 2002-05-27 2003-12-02 Denso Corp 車両用表示装置
JP2007264785A (ja) * 2006-03-27 2007-10-11 Toyota Motor Corp 眠気検出装置
JP2008046691A (ja) * 2006-08-10 2008-02-28 Fuji Xerox Co Ltd 顔画像処理装置及びコンピュータのプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016106689A (ja) * 2014-12-03 2016-06-20 日本電信電話株式会社 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム
US10460152B2 (en) * 2015-02-10 2019-10-29 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for pushing information
US20180218199A1 (en) * 2015-02-10 2018-08-02 Baidu Online Network Technology Beijing Co., Ltd. Information pushing method and apparatus
JP2017209516A (ja) * 2015-06-12 2017-11-30 ダイキン工業株式会社 脳活動推定装置
US9665567B2 (en) 2015-09-21 2017-05-30 International Business Machines Corporation Suggesting emoji characters based on current contextual emotional state of user
CN110087451A (zh) * 2016-12-27 2019-08-02 本田技研工业株式会社 情绪改善装置以及情绪改善方法
JP2018116428A (ja) * 2017-01-17 2018-07-26 トヨタ自動車株式会社 ドライバ状態検出装置
US10409132B2 (en) 2017-08-30 2019-09-10 International Business Machines Corporation Dynamically changing vehicle interior
WO2020151339A1 (zh) * 2019-01-24 2020-07-30 平安科技(深圳)有限公司 基于无人驾驶车辆的异常处理方法、装置及相关设备
CN111079692A (zh) * 2019-12-27 2020-04-28 广东德融汇科技有限公司 用于k12教育阶段基于人脸识别的校园行为分析方法
CN111079692B (zh) * 2019-12-27 2023-07-07 广东德融汇科技有限公司 用于k12教育阶段基于人脸识别的校园行为分析方法
JP7553128B2 (ja) 2020-09-24 2024-09-18 株式会社I’mbesideyou 感情解析システム
CN112168190A (zh) * 2020-10-23 2021-01-05 清华大学 驾驶压力实时监测系统及方法
US11935329B2 (en) 2021-03-24 2024-03-19 I'mbesideyou Inc. Video analysis program
CN115762772A (zh) * 2022-10-10 2023-03-07 北京中科睿医信息科技有限公司 目标对象的情绪特征确定方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP5917841B2 (ja) 2016-05-18

Similar Documents

Publication Publication Date Title
JP5917841B2 (ja) 気分判定装置及び気分判定装置の作動方法
US11027608B2 (en) Driving assistance apparatus and driving assistance method
JP7324716B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP7299840B2 (ja) 情報処理装置および情報処理方法
WO2020054458A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US20230211810A1 (en) Information processing device, mobile device, information processing system, and method
JP6113440B2 (ja) 乗り物の操作者の視覚的入力
US20210221404A1 (en) Driver predictive mental response profile and application to automated vehicle brain interface control
JP2010128649A (ja) 覚醒状態判断装置及び覚醒状態判断方法
US20230054024A1 (en) Information processing apparatus, information processing system, information processing method, and information processing program
JP2017136922A (ja) 車両制御装置、車載機器制御装置、地図情報生成装置、車両制御方法及び車載機器制御方法
JPWO2019082774A1 (ja) 情報処理装置および情報処理方法
JP4811255B2 (ja) 状態推定装置
CN113491519A (zh) 基于情感-认知负荷的数字助理
US20240034362A1 (en) Information processing device, information processing method, and information processing program
JP2019195377A (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
WO2019208450A1 (ja) 運転支援装置、運転支援方法及びプログラム
US10899356B2 (en) Drowsiness prevention device, drowsiness prevention method, and recording medium
JP2018518205A (ja) 動力車両の運転手の覚醒レベルを予知する装置および方法
US20210290134A1 (en) Systems and methods for detecting drowsiness in a driver of a vehicle
US11866073B2 (en) Information processing device, information processing system, and information processing method for wearable information terminal for a driver of an automatic driving vehicle
EP3939837A1 (en) Control system and presentation system
KR20200069585A (ko) 지능형 차량 편의 제어 장치 및 방법
CN117227740B (zh) 一种智能驾驶车辆的多模态感知系统及方法
JP2019006183A (ja) 操縦支援装置、操縦支援方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160407

R150 Certificate of patent or registration of utility model

Ref document number: 5917841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150