JP2017138762A - 運転者の感情推定装置 - Google Patents
運転者の感情推定装置 Download PDFInfo
- Publication number
- JP2017138762A JP2017138762A JP2016018706A JP2016018706A JP2017138762A JP 2017138762 A JP2017138762 A JP 2017138762A JP 2016018706 A JP2016018706 A JP 2016018706A JP 2016018706 A JP2016018706 A JP 2016018706A JP 2017138762 A JP2017138762 A JP 2017138762A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- emotion
- behavior
- vehicle
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】車両の走行時における運転者の感情を簡易かつ精度よく推定することのできる運転者の感情推定装置を提供する。【解決手段】運転者の感情推定装置は、車両100の走行時における運転者及び同乗者の動作及び姿勢を含めた挙動を車室内カメラ110を通じて検出し、当該検出される運転者の挙動の変化量及び同乗者の挙動の変化量を比較しつつ運転者の感情を感情推定部140を通じて推定する。【選択図】図1
Description
本発明は、車両の走行時における運転者の感情を推定する運転者の感情推定装置に関する。
従来、この種の感情推定装置として、例えば特許文献1に記載の装置が知られている。この装置は、車両の走行時における運転者の感情の推定結果に基づいて運転支援を行うものである。そして、運転支援の一例として駐車支援を行うときにはまず、駐車の際の運転操作に関する技量を運転者の運転技量として算出するとともに、駐車の難易度を環境難易度として算出する。また、それら運転者の運転技量及び環境難易度をその都度取得される運転者の感情の情報と関連付けして感情マップとして予め作成する。その後、運転者の運転技量及び環境難易度に関するデータが新たに入力されたときには、上述した感情マップを参照しつつ運転者の感情を推定する。
ところで、上記文献に記載の装置において、運転者の運転技量及び環境難易度に関するデータは、例えば日常生活におけるログデータを取得する場合と比較して、データ取得の機会が制限される。そのため、信頼性の高い感情マップを作成する上で必要とされるデータを事前に十分な数だけ用意することは必ずしも容易ではない。
本発明は、このような実情に鑑みてなされたものであり、その目的は、車両の走行時における運転者の感情を簡易かつ精度よく推定することのできる運転者の感情推定装置を提供することにある。
上記課題を解決する運転者の感情推定装置は、車両の走行時における運転者及び同乗者の動作及び姿勢を含めた挙動を検出する挙動検出部と、前記挙動検出部により検出される運転者の挙動の変化量及び同乗者の挙動の変化量を比較しつつ運転者の感情を推定する感情推定部とを備える。
これまで、機械学習等により姿勢変化から感情を推定する研究は多く行われている。ただし、車内での姿勢変化はあまり自由が効かなかったり車両運動により特性の変化が出やすかったりするなど、車外のそれとは異なったパターンを示す。そのため、車内での感情推定には独自の推定モデルを構築することが必須となるが、道のパターンやその走行順は無限にあり、全てを考慮したモデルの構築は不可能である。そこで、上記構成によるように、運転者の感情推定に同乗者の姿勢変化を利用することで、簡易ながらも、様々なパターンに対応した車内での感情推定が高い精度で可能になる。
以下、運転者の感情推定装置の一実施の形態について説明する。
本実施の形態の感情推定装置は、車両の走行時における運転者の動作及び姿勢を含めた挙動の特徴量だけでなく、同乗者の動作及び姿勢を含めた挙動の特徴量も併せて検出し、それら検出した特徴量を比較しつつ運転者の感情を推定するものである。
本実施の形態の感情推定装置は、車両の走行時における運転者の動作及び姿勢を含めた挙動の特徴量だけでなく、同乗者の動作及び姿勢を含めた挙動の特徴量も併せて検出し、それら検出した特徴量を比較しつつ運転者の感情を推定するものである。
はじめに、本実施の形態の装置の構成について図面を参照して説明する。
図1に示すように、車両100は、例えばキネクト(登録商標:KINECT)等、各画素値を距離の値に置き換えて生成した運転者及び同乗者の距離画像を撮影する車室内カメラ110を備えている。この車室内カメラ110を通じて撮影された運転者の距離画像は第1の特徴量算出部120に送られ、運転者の挙動を表す第1の特徴量の算出に用いられる。また、同じく車室内カメラ110を通じて撮影された同乗者の距離画像は第2の特徴量算出部130に送られ、同乗者の挙動を表す第2の特徴量の算出に用いられる。なお、各特徴量算出部120,130により算出される特徴量の種類は共通である。
図1に示すように、車両100は、例えばキネクト(登録商標:KINECT)等、各画素値を距離の値に置き換えて生成した運転者及び同乗者の距離画像を撮影する車室内カメラ110を備えている。この車室内カメラ110を通じて撮影された運転者の距離画像は第1の特徴量算出部120に送られ、運転者の挙動を表す第1の特徴量の算出に用いられる。また、同じく車室内カメラ110を通じて撮影された同乗者の距離画像は第2の特徴量算出部130に送られ、同乗者の挙動を表す第2の特徴量の算出に用いられる。なお、各特徴量算出部120,130により算出される特徴量の種類は共通である。
具体的には、各特徴量算出部120,130はまず、車室内カメラ110から入力される各フレーム画像毎の距離画像から運転者又は同乗者の手、頭、足といった各部位の三次元配置を抽出する。そして、各特徴量算出部120,130は、こうして抽出した各部位の三次元配置から擬似的な骨格モデルを生成し、この生成した骨格モデルから特徴量を算出する。ここで、特徴量は、例えば上半身の傾き度合いや座り直しの頻度等、複数のデータ要素により構成されている。そして、各特徴量算出部120,130による特徴量の算出結果は、車両の走行が開始された直後にあっては各対応する特徴量データベースDB1,DB2に初期値として格納される。また、車両の走行を開始してから所定時間が経過したときには、これら特徴量の初期値が特徴量データベースDB1,DB2から読み出され、各特徴量算出部120,130がその都度算出する特徴量の現在値と併せて感情推定部140による運転者の感情の推定に用いられる。
こうした運転者の感情の推定方法の具体例として、感情推定部140はまず、第1の特徴量データベースDB1から読み出される第1の特徴量の初期値をP1sとし、第1の特徴量算出部120からその都度入力される第1の特徴量の現在値をP1としたとき、これらの差分をとることにより車両の走行開始からの第1の特徴量の変化量ΔP1(=P1−P1s)を算出する。また、感情推定部140は、第2の特徴量データベースDB2から読み出される第2の特徴量の初期値をP2sとし、第2の特徴量算出部130からその都度入力される第2の特徴量の現在値をP2としたとき、これらの差分をとることにより車両の走行開始からの第2の特徴量の変化量ΔP2(=P2−P2s)を算出する。そして、感情推定部140は、第2の特徴量の変化量ΔP2に対する第1の特徴量の変化量ΔP1の比率をVp(=ΔP1/ΔP2)としたとき、車両の走行開始からの比率の変化量ΔVp(=|Vp−1|)を運転者の感情の推定に用いる入力値として算出する。
ここで、感情推定部140による運転者の感情の推定は、例えばラッセルの円環モデルで表される感情の種類を対象とするものであり、本実施の形態では、対象とする種類の感情に該当するか否かの識別手法の一例としてSVM(サポートベクトルマシン)を採用している。このSVMは、二つのクラスに予め分類された教師データに対する統計処理を通じてそれらクラスを識別する判断基準を定めておき、未知のデータが新たに入力されたときにその定めておいた判断基準を基にクラス分けを行う識別手法の一種である。
図2(a)は、対象とする感情の種類が「いらだち」という感情とし、特徴量を構成する複数のデータ要素のうち上半身の傾き度合い及び座り直しの頻度という二種類のデータ要素をそれぞれ縦軸及び横軸としたときに、上述した入力値の教師データを二次元状にプロットした学習モデル140Aの一例を示している。同図に示す例では、「いらだち」という感情に該当するときの教師データが○印で表記されるとともに、「いらだち」という感情に該当しないときの教師データが×印で表記されている。同図に示されるように、「いらだち」という感情に該当するときの教師データは上述した各データ要素についての入力値が大きい傾向にあるデータ群となる一方で、「いらだち」という感情に該当しないときの教師データは上述した各データ要素についての入力値が小さい傾向にあるデータ群となる。
これは、例えば運転者の運転姿勢に制約がある点に着目すれば、車両の走行に伴って運転者及び同乗者の双方が同様に「いらだち」という感情に達したとしても運転者の挙動の頻度が相対的に多くなりやすく、同乗者の挙動を表す第2の特徴量の変化量ΔP2に対する運転者の挙動を表す第1の特徴量の変化量ΔP1の比率Vpが低下して上述した入力値(比率Vpの変化量ΔVp)が大きくなると考えられるためである。
また、例えば車両の運転操作を行うのが運転者のみである点に着目すれば、車両の走行に伴って運転者が「いらだち」という感情に達したとしても運転操作を何ら行っていない同乗者の挙動は相対的に変化しにくく、同乗者の挙動を表す第2の特徴量の変化量ΔP2に対する運転者の挙動を表す第1の特徴量の変化量ΔP1の比率Vpが増大してこの場合も上述した入力値(比率Vpの変化量ΔVp)が大きくなると考えられるためである。
このように上述した何れの点に着目するかによって、車両の走行に伴って特徴量の変化量の比率Vpが増加傾向及び減少傾向の何れを示すかは異なるものの、比率Vpの変化量ΔVpが大きくなる点では共通した傾向を示す。そのため、車両の走行に伴って上述した何れかの点の傾向が相対的に強く見られるような状況では、比率Vpの変化量ΔVpが大きくなりやすく、図2(a)に示した教師データのデータ群と分布の傾向が一致することとなる。
そして図2(a)に示すように、「いらだち」という感情に該当するときの教師データと「いらだち」という感情に該当しないときの教師データとを識別する境界線が算出される。このとき、双方の教師データについて境界線から最も近い位置にある教師データと境界線との距離をマージンDとしたとき、マージンDを最大化する境界線がSVMによる判断基準STとして設定される。こうして判断基準STが設定されて以降は、車両100の走行時に新たに算出された入力値に対して判断基準STを適用することにより、「いらだち」という感情に該当するか否かが推定される。
具体的には、図2(b)において白抜きの星印「☆」で示すように、車両100の走行時に新たに算出された各データ要素についての入力値の組み合わせが判断基準STよりも大きい傾向にあるときには、運転者の感情が「いらだち」という状態にあると推定される。また、図2(b)において黒塗りの星印「★」で示すように、車両100の走行時に新たに算出された各データ要素についての入力値の組み合わせが判断基準STよりも小さい傾向にあるときには、運転者の感情が「いらだち」という状態にはないと推定される。そして、こうして運転者の感情が推定されると、その推定に用いた入力値のデータが運転者の感情の推定結果と関連付けられつつ教師データとして追加される。すなわち、図2(b)において白抜きの星印「☆」で示された入力値のデータが「いらだち」という感情に該当するときの教師データとして追加される一方で、図2(b)において黒塗りの星印「★」で示された入力値のデータが「いらだち」という感情に該当しないときの教師データとして追加される。
これにより、図2(c)に示すように、追加された教師データも含め、SVMによる判断基準STが新たに設定される。同図に示す例では、白抜きの星印「☆」で示された入力値のデータが図2(b)に示す例において「いらだち」という感情に該当するときの何れの教師データよりも境界線(判断基準ST)に近い位置にある。そのため、白抜きの星印「☆」で示された入力値、及び「いらだち」という感情に該当しないときの教師データの双方からの距離(マージンD’)が最大となる境界線がSVMによる判断基準STとして新たに設定される。すなわち、車両100の運転者ごとの特性を加味しつつ、SVMによる判断基準STが次第に更新されていく。
次に、上記実施の形態の感情推定装置が実行する運転者の感情推定処理について、その具体的な処理手順を説明する。ここで、感情推定装置は、車両100のイグニッションスイッチがオンとなったことを条件に、図3に示す感情推定処理を開始する。
図3に示すように、この感情推定処理ではまず、乗車後から所定時間内(例えば60秒以内)であるときには(ステップS10=YES)、すなわち車両100のイグニッションスイッチがオンとなってからの経過時間が所定時間内であるときには、運転者の動作及び姿勢を含めた挙動を車室内カメラ110を通じて検出するとともに(ステップS11)、当該検出した運転者の挙動を表す特徴量を第1の特徴量として第1の特徴量算出部120を通じて算出する(ステップS12)。また同様に、同乗者の動作及び姿勢を含めた挙動を車室内カメラ110を通じて検出するとともに(ステップS13)、当該検出した同乗者の挙動を表す特徴量を第2の特徴量として第2の特徴量算出部130を通じて算出する(ステップS14)。また、先のステップS12において算出した第1の特徴量、及び先のステップS14において算出した第2の特徴量を各対応する特徴量データベースDB1,DB2に格納する(ステップS15)。そして以降、乗車後から所定時間が経過するまでの間は(ステップS10=YES)、先のステップS10〜S15の処理を繰り返すことにより、運転者及び同乗者の乗車後の早い段階における挙動の特徴量を各対応する特徴量データベースDB1,DB2に蓄積する。
一方、乗車から所定時間が経過したときには(ステップS10=NO)、まず最初に運転者の動作及び姿勢を含む挙動を車室内カメラ110を通じて検出するとともに(ステップS16)、当該検出した運転者の挙動の特徴量の現在値を第1の特徴量として第1の特徴量算出部120を通じて算出する(ステップS17)。そして、こうして算出した第1の特徴量の現在値から第1の特徴量の初期値を差し引くことにより、運転開始からの第1の特徴量の変化量を感情推定部140を通じて算出する(ステップS18)。ここで、第1の特徴量の初期値としては、例えば先のステップS10〜S15の処理を繰り返す中で第1の特徴量データベースDB1に蓄積された第1の特徴量の平均値が用いられる。また同様に、同乗者の動作及び姿勢を含む挙動を車室内カメラ110を通じて検出するとともに(ステップS19)、当該検出した同乗者の挙動の特徴量の現在値を第2の特徴量として第2の特徴量算出部130を通じて算出する(ステップS20)。そして、こうして算出した第2の特徴量の現在値から第2の特徴量の初期値を差し引くことにより、運転開始からの第2の特徴量の変化量を感情推定部140を通じて算出する(ステップS21)。ここでも、第2の特徴量の初期値としては、例えば先のステップS10〜S15の処理を繰り返す中で第2の特徴量データベースDB2に蓄積された第2の特徴量の平均値が用いられる。また、先のステップS18において算出した第1の特徴量の変化量及び先のステップS21において算出した第2の特徴量の変化量を用いつつ、運転者の感情の推定に用いる入力値を感情推定部140を通じて算出する(ステップS22)。そして、こうして算出した入力値を入力として、学習モデル140Aを参照しつつ運転者の感情を感情推定部140を通じて推定するとともに(ステップS23)、運転者の感情の推定に用いられた入力値を教師データとして追加しつつ学習モデル140Aを更新する(ステップS24)。その後、車両100のイグニッションスイッチがオンとなっている間は(ステップS25=NO)、その処理をステップS10に戻し、ステップS10,S16〜S24の処理を繰り返す。そして、車両100のイグニッションスイッチがオフとなった時点で(ステップS25=YES)、図3に示す運転者の感情推定処理を終了する。
以上説明したように、本実施の形態によれば、以下に示す効果を得ることができる。
車両100の走行時に運転者及び同乗者の各々が置かれる環境が互いに異なる点に鑑みて、車両の走行時における運転者の挙動の変化量だけでなく同乗者の挙動の変化量も併せて検出し、それら挙動の変化量を比較しつつ運転者の感情の推定を行うようにしている。これにより、簡易ながらも、様々なパターンに対応した車内での運転者の感情推定を高い精度で行うことが可能となる。
車両100の走行時に運転者及び同乗者の各々が置かれる環境が互いに異なる点に鑑みて、車両の走行時における運転者の挙動の変化量だけでなく同乗者の挙動の変化量も併せて検出し、それら挙動の変化量を比較しつつ運転者の感情の推定を行うようにしている。これにより、簡易ながらも、様々なパターンに対応した車内での運転者の感情推定を高い精度で行うことが可能となる。
なお、上記実施の形態は、以下のような形態にて実施することもできる。
・上記実施の形態においては、運転者及び同乗者の挙動の検出に用いる映像として車室内カメラ110を通じて撮影される距離画像を用いるようにした。ただし、運転者及び同乗者の挙動を検出することが可能であれば、当該挙動の検出に用いる映像として二次元画像を用いるようにしてもよい。
・上記実施の形態においては、運転者及び同乗者の挙動の検出に用いる映像として車室内カメラ110を通じて撮影される距離画像を用いるようにした。ただし、運転者及び同乗者の挙動を検出することが可能であれば、当該挙動の検出に用いる映像として二次元画像を用いるようにしてもよい。
・上記実施の形態においては、図2(a)〜(c)に示したように運転者及び同乗者の挙動の特徴量が、上半身の傾き度合い及び座り直しの頻度という二種類のデータ要素を用いる場合を例に挙げて説明した。ただし、挙動の特徴量を構成するデータ要素はこれに限らず、例えば右手の速度、頭の速度、肩の移動量、手首の速度、左手の速度等、他のデータ要素を用いることも可能である。
・上記実施の形態においては、運転者の感情の推定に用いる入力値として、運転者の挙動を表す第1の特徴量の変化量ΔP1及び同乗者の挙動を表す第2の特徴量の変化量ΔP2についての運転開始からの比率Vpの変化量ΔVpを用いるようにした。これに代えて、例えばこれら第1の特徴量の変化量ΔP1及び第2の特徴量の変化量ΔP2の差分の絶対値Z(=|ΔP1−ΔP2|)を用いるようにしてもよい。要は、運転者の挙動の変化量と同乗者の挙動の変化量とを比較しつつ得られるパラメータであればよい。
・上記実施の形態においては、運転者の感情の推定に用いる識別手法としてSVMを用いるようにした。これに代えて、ナイーブベイズ識別法やニューラルネットワーク等の他の識別手法を用いるようにしてもよい。
100…車両、110…車室内カメラ、120…第1の特徴量算出部、130…第2の特徴量算出部、140…感情推定部、140A…学習モデル、DB1…第1の特徴量データベース、DB2…第2の特徴量データベース。
Claims (1)
- 車両の走行時における運転者及び同乗者の動作及び姿勢を含めた挙動を検出する挙動検出部と、
前記挙動検出部により検出される運転者の挙動の変化量及び同乗者の挙動の変化量を比較しつつ運転者の感情を推定する感情推定部と
を備える
運転者の感情推定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018706A JP2017138762A (ja) | 2016-02-03 | 2016-02-03 | 運転者の感情推定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018706A JP2017138762A (ja) | 2016-02-03 | 2016-02-03 | 運転者の感情推定装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017138762A true JP2017138762A (ja) | 2017-08-10 |
Family
ID=59565075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016018706A Pending JP2017138762A (ja) | 2016-02-03 | 2016-02-03 | 運転者の感情推定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017138762A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109835346A (zh) * | 2017-11-28 | 2019-06-04 | 株式会社斯巴鲁 | 驾驶建议装置和驾驶建议方法 |
JP2020071561A (ja) * | 2018-10-30 | 2020-05-07 | 本田技研工業株式会社 | 感情推定装置 |
WO2020161854A1 (ja) * | 2019-02-07 | 2020-08-13 | 三菱電機株式会社 | 車両用機器制御システム、車両用機器制御方法及び車両用機器制御装置 |
JPWO2021149593A1 (ja) * | 2020-01-21 | 2021-07-29 | ||
WO2022018781A1 (ja) * | 2020-07-20 | 2022-01-27 | 三菱電機株式会社 | 車両制御装置、プログラム及び車両制御方法 |
US11587336B2 (en) | 2020-03-17 | 2023-02-21 | Subaru Corporation | Gaze target detector |
-
2016
- 2016-02-03 JP JP2016018706A patent/JP2017138762A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109835346A (zh) * | 2017-11-28 | 2019-06-04 | 株式会社斯巴鲁 | 驾驶建议装置和驾驶建议方法 |
JP2020071561A (ja) * | 2018-10-30 | 2020-05-07 | 本田技研工業株式会社 | 感情推定装置 |
CN111128239A (zh) * | 2018-10-30 | 2020-05-08 | 本田技研工业株式会社 | 情感推定装置 |
JP7076357B2 (ja) | 2018-10-30 | 2022-05-27 | 本田技研工業株式会社 | 感情推定装置 |
US11657626B2 (en) | 2018-10-30 | 2023-05-23 | Honda Motor Co., Ltd. | Emotion estimation apparatus |
CN111128239B (zh) * | 2018-10-30 | 2023-10-17 | 本田技研工业株式会社 | 情感推定装置 |
WO2020161854A1 (ja) * | 2019-02-07 | 2020-08-13 | 三菱電機株式会社 | 車両用機器制御システム、車両用機器制御方法及び車両用機器制御装置 |
JPWO2021149593A1 (ja) * | 2020-01-21 | 2021-07-29 | ||
WO2021149593A1 (ja) * | 2020-01-21 | 2021-07-29 | パイオニア株式会社 | 情報処理装置、情報処理方法、情報処理プログラム及び記憶媒体 |
US11587336B2 (en) | 2020-03-17 | 2023-02-21 | Subaru Corporation | Gaze target detector |
WO2022018781A1 (ja) * | 2020-07-20 | 2022-01-27 | 三菱電機株式会社 | 車両制御装置、プログラム及び車両制御方法 |
JP7361929B2 (ja) | 2020-07-20 | 2023-10-16 | 三菱電機株式会社 | 車両制御装置、プログラム及び車両制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017138762A (ja) | 運転者の感情推定装置 | |
US11557150B2 (en) | Gesture control for communication with an autonomous vehicle on the basis of a simple 2D camera | |
US10467771B2 (en) | Method and system for vehicle localization from camera image | |
US10255485B2 (en) | Identification device, identification method, and recording medium recording identification program | |
JP4940168B2 (ja) | 駐車スペース認識装置 | |
DE112017007713T5 (de) | Systeme und Verfahren zur Fahrzeugbelegungsverwaltung | |
US10210420B2 (en) | Image processing method, image processing apparatus, and recording medium | |
JP6509361B2 (ja) | 駐車支援装置及び駐車支援方法 | |
JP6613290B2 (ja) | 運転アドバイス装置及び運転アドバイス方法 | |
JP2019040465A (ja) | 行動認識装置,学習装置,並びに方法およびプログラム | |
KR20230125091A (ko) | 승객 관련 물품 손실 완화 | |
JP2007188417A (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
JP2017215861A (ja) | 行動認識装置,学習装置,並びに方法およびプログラム | |
JP6805716B2 (ja) | 表示装置、表示方法、プログラム | |
CN110809749A (zh) | 互动装置、互动方法及程序 | |
Martin et al. | Real time driver body pose estimation for novel assistance systems | |
JP6459856B2 (ja) | 車両運転支援装置、車両運転支援方法、およびプログラム | |
US10916018B2 (en) | Camera motion estimation device, camera motion estimation method, and computer program product | |
JP2010079639A (ja) | 車両の歩行者検出装置 | |
JP2010003253A (ja) | 運動推定装置 | |
JP7068156B2 (ja) | 情報処理装置及びプログラム | |
JP6746043B2 (ja) | 運転支援装置および運転モード判断モデル生成装置 | |
WO2020104551A1 (de) | Objekterkennung mittels sensorsystem von fahrzeugen | |
JP2006085270A (ja) | 画像分析システム及び画像分析方法 | |
JP2018124786A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム |