JP6320942B2 - 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法 - Google Patents

重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法 Download PDF

Info

Publication number
JP6320942B2
JP6320942B2 JP2015005166A JP2015005166A JP6320942B2 JP 6320942 B2 JP6320942 B2 JP 6320942B2 JP 2015005166 A JP2015005166 A JP 2015005166A JP 2015005166 A JP2015005166 A JP 2015005166A JP 6320942 B2 JP6320942 B2 JP 6320942B2
Authority
JP
Japan
Prior art keywords
line
gaze direction
matrix
sight
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015005166A
Other languages
English (en)
Other versions
JP2016130959A (ja
Inventor
佑介 可児
佑介 可児
顕 吉澤
顕 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2015005166A priority Critical patent/JP6320942B2/ja
Publication of JP2016130959A publication Critical patent/JP2016130959A/ja
Application granted granted Critical
Publication of JP6320942B2 publication Critical patent/JP6320942B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、所定期間の視線方向を予測するための重み行列を生成する重み行列学習装置および重み行列学習方法に関する。また、本発明は、そのような重み行列学習装置を用いた視線方向予測システムおよび警告システムに関する。
交通事故の原因の1つとして、ドライバの見落としが挙げられる。よって、ドライバの将来の視線を予測し、見落としのおそれがある場合に警告を発することで交通事故を減らすことができると考えられる。
視線を予測する技術として、特許文献1には、Web閲覧者を対象として、視線位置の移動速度から視線位置の移動先を予測することが開示されている。特許文献2には、ドライバを対象として、将来の車両位置を予測注視点と設定することが開示されている。特許文献3には、走行環境情報を取得し、特定の走行環境下で走行支援画像の表示面を注視していた時間や回数を記憶し、ドライバが表示面を見る確率を判定することが開示されている。非特許文献1には、テレビゲームの画面やコントローラの操作と、視線方向との関係を学習することで、現在の視線を推定することが開示されている。
特開2009−15610号公報 特開2014−127936号公報 特開2013−225131号公報 Borji Ali, Sihite Dicky N, Itti Laurent,"Computational Modeling of Top-down Visual Attention in Interactive Environments", BMVC, pp. 85.1-85.12, 2011
しかしながら、特許文献1に記載の手法では、極めて短い時間における視線を予測するにすぎない。特許文献2に記載の手法は、単調にカーブしている道での運転など、限られた状況でなければ適切な予測ができない。特許文献3に記載の手法は、走行環境情報としてのパラメータ数が増大であるとともに、特定の走行環境下以外では高精度な予測が期待できない。非特許文献1に記載の手法は現在の視線を推定するものであり、将来の視線を予測するものではない。
本発明はこのような問題点に鑑みてなされたものであり、本発明の課題は、現在から将来にかけての所定期間における視線方向を予測するための重み行列を生成する重み行列学習装置および重み行列学習方法、ならびに、そのような重み行列学習装置を用いた視線方向予測システムおよび警告システムを提供することである。
本発明の一態様によれば、対象者の、現在から所定期間における視線方向を予測するための重み行列を生成する学習装置であって、前記対象者の視線方向を取得する視線方向取得部と、前記視線方向に影響を与える視線影響情報を取得する視線影響情報取得部と、前記所定期間における前記視線方向に基づいて累積視線方向ベクトルを生成し、複数の前記累積視線方向ベクトルから累積視線方向行列を生成する累積視線方向行列生成部と、前記所定期間における前記視線影響情報に基づいて特徴行列を生成する特徴行列生成部と、前記累積視線方向行列と前記特徴行列とを関連付ける重み行列を生成する学習部と、を備える、重み行列学習装置が提供される。
所定期間における視線方向に基づく視線方向行列と、所定期間における視線影響情報に基づく特徴行列とから重み行列を生成するため、所定期間における視線方向を予測できる。
前記学習部は、前記特徴行列と前記重み行列との積が前記累積視線方向行列に近づくよう、前記重み行列を生成するのが望ましい。
前記視線影響情報は、前記対象者の前方の画像情報、前記対象者の行動情報、および、環境情報のうちの少なくとも1つを含んでいてもよい。また、前記特徴行列生成部は、前記対象者の現在の視線方向も考慮して、前記特徴行列を生成してもよい。このようにすることで、予測精度が向上する。
また、本発明の別の態様によれば、対象者の、現在から所定期間における視線方向を予測する視線方向予測システムであって、前記対象者の視線方向を取得する視線方向取得部と、前記視線方向に影響を与える視線影響情報を取得する視線影響情報取得部と、前記所定期間における前記視線方向に基づいて累積視線方向ベクトルを生成し、複数の前記累積視線方向ベクトルから累積視線方向行列を生成する累積視線方向行列生成部と、前記所定期間における前記視線影響情報に基づいて特徴行列を生成する特徴行列生成部と、前記累積視線方向行列と前記特徴行列とを関連付ける重み行列を生成する学習部と、前記視線影響情報に基づいて特徴ベクトルを生成する特徴ベクトル生成部と、前記重み行列および前記特徴ベクトルに基づいて、前記所定期間における前記対象者の視線方向を予測する予測部と、を備える、視線方向予測システムが提供される。
当該視線方向予測システムは、ネットワークを介して接続された予測装置および学習装置から構成され、前記予測装置は、少なくとも前記予測部を有し、前記学習装置は、少なくとも前記学習部と、前記重み行列を前記予測装置に送信する第1通信部と、を有するのが望ましい。これにより、処理負荷が大きい学習部と、処理負荷が小さい予測部とを別個の装置とすることができる。
前記予測装置は、前記視線方向取得部と、前記視線影響情報取得部と、前記視線方向および前記視線影響情報を前記学習装置に送信する第2通信部と、を有し、前記学習装置は、前記累積視線方向行列生成部と、前記特徴行列生成部と、を有するのが望ましい。これにより、学習部は多くの視線方向や視線影響情報を取得でき、予測精度が向上する。
前記予測部は、前記対象者の前方の画像情報における目立つ位置、および/または、前記対象者の頭部方向も考慮して、前記対象者の視線方向を予測してもよい。これにより、予測精度が向上する。
また、本発明の別の態様によれば、上記視線方向予測システムと、前記予測された視線方向に基づいて警告するか否かを判定する警告判定部と、を備える警告システムが提供される。
前記対象者が注目すべき対象物の位置を検出する対象物検出部を備え、前記警告判定部は、前記対象物の位置と前記予測された視線方向とを比較して、警告するか否かを判定してもよい。あるいは、前記警告判定部は、前記対象者の実際の視線方向と、前記予測された視線方向とを比較して、警告するか否かを判定してもよい。これにより、事故を減らすことができる。
また、本発明の別の態様によれば、対象者の、現在から所定期間における視線方向を予測するための重み行列を生成する学習方法であって、前記対象者の視線方向を取得するステップと、前記視線方向に影響を与える視線影響情報を取得するステップと、前記所定期間における前記視線方向に基づいて累積視線方向ベクトルを生成し、複数の前記累積視線方向ベクトルから累積視線方向行列を生成するステップと、前記所定期間における前記視線影響情報に基づいて特徴行列を生成するステップと、前記累積視線方向行列と前記特徴行列とを関連付ける重み行列を生成するステップと、を備える、重み行列学習方法が提供される。
所定期間における視線方向に基づく視線方向行列と、所定期間における視線影響情報に基づく特徴行列とから重み行列を生成するため、所定期間における視線方向を予測できる。
警告システム50の概略構成を示すブロック図。 予測システム100の詳細な構成を示すブロック図。 予測機能の処理を示すフローチャート。 予測部22の処理を説明する図。 学習機能の処理を示すフローチャート。 累積視線方向行列生成部14の処理を説明する図。 警告機能の処理を示すフローチャート。 複数の装置に分散された予測システム100’の構成例を示すブロック図。
以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。まずは、本発明の実施形態に係る予測システムを、車載される警告システムに用いる例を説明する。
図1は、警告システム50の概略構成を示すブロック図である。この警告システム50には、車両のドライバ(特にドライバの目)を撮影するドライバカメラ10、および、車外(特に車両の前方)を撮影する車外カメラ20で撮影された画像が入力される。また、警告システム50が生成した警告は、ディスプレイ30および/またはスピーカ40から出力される。ディスプレイ30は例えば車両のダッシュボードやオーディオスペースに設けられる。スピーカ40は例えばディスプレイ30と一体であってもよいし、車両に内蔵されたオーディオスピーカであってもよい。
警告システム50は、予測システム100と、警告装置200とを備えている。
車両のドライバが視線予測の対象者であり、予測システム100は、ドライバカメラ10や車外カメラ20からの画像などに基づいて、現在から将来にかけての所定期間(例えば現在から3秒間)のドライバの実際の視線方向を予測する。より具体的には、予測システム100は、ドライバカメラ10および車外カメラ20からの画像などに基づいて重み行列Wを生成する学習装置1と、重み行列Wを用いて視線方向を予測する予測装置2とから構成される。
警告装置200は、予測された視線方向を考慮して、ドライバに警告を発する。より具体的には、警告装置200は、対象物検出部3と、警告判定部4と、表示制御部5と、音声出力制御部6とから構成される。対象物検出部3は、車外カメラ20からの画像などから、ドライバが注目すべき対象物があるか否か、ある場合にはどの方向にあるかを検出する。警告判定部4は、予測されたドライバの視線方向と、注目すべき対象物の方向とを比較し、警告をするか否かを判定する。表示制御部5は警告をディスプレイ30に表示するためのデータを生成する。音声出力制御部6は警告をスピーカ40から出力するためのデータを生成する。
図2は、予測システム100の詳細な構成を示すブロック図である。
予測システム100の学習装置1は、視線方向取得部11と、視線影響情報取得部12と、記憶部13と、累積視線方向行列生成部14と、特徴行列生成部15と、学習部16とを有する。これら各部の少なくとも一部は、プロセッサ(不図示)が所定のプログラムを実行することによって実現されてもよいし、ハードウェアで実装されてもよい。
視線方向取得部11はドライバカメラ10からの画像に基づいて実際のドライバの視線方向を取得する。視線影響情報取得部12は、車外カメラ20からの画像などに基づいて、ドライバの視線方向に影響を与える情報(以下、視線影響情報という)を取得する。視線方向および視線影響情報は互いに関連付けて記憶部13に記憶される。また、視線影響情報は予測装置2にも出力される。
累積視線方向行列生成部14は、所定期間における視線方向を累積して、累積視線方向行列Gを生成する。特徴行列生成部15は、同じ所定期間における視線影響情報に基づいて特徴行列Mを生成する。このように所定期間における視線方向および視線影響情報を用いて学習を行うため、ある時点ではなく所定期間における視線方向を予測できる。
学習部16は累積視線方向行列Gと特徴行列Mとを関連付ける重み行列Wを生成する。より具体的には、学習部16は、特徴行列Mと重み行列Wとの積が累積視線方向行列Gに近づくよう、重み行列Wを生成する。重み行列Wは学習部16が記憶しておき、予測装置2に出力される。
一方、予測システム100の予測装置2は、特徴ベクトル生成部21と、予測部22とを有する。これら各部の少なくとも一部は、プロセッサ(不図示)が所定のプログラムを実行することによって実現されてもよいし、ハードウェアで実装されてもよい。
特徴ベクトル生成部21は学習装置1からの視線影響情報に基づいて特徴ベクトルmを生成する。予測部22は、特徴ベクトルmと、学習装置1からの重み行列Wとに基づいて、現在から所定期間(例えば現在から3秒間)のドライバの視線方向を予測する。後述するように、予測結果は予測視線方向分布pとして表される。
図1において、警告システム50における予測システム100は、重み行列Wを生成する学習機能と、視線方向を予測して予測視線方向分布pを生成する予測機能とを有する。そして、警告装置200は視線方向の予測結果を用いた警告機能を有する。まずは、適切な重み行列Wがすでに生成されているとして、予測システム100における予測機能について説明する。
図3は、予測機能の処理を示すフローチャートである。
まず、学習装置1の視線影響情報取得部12は視線影響情報を取得する(ステップS1)。この視線影響情報は予測装置2の特徴ベクトル生成部21に出力される。視線影響情報は、画像情報、行動情報、環境情報などである。
画像情報とは、車外カメラ20によって撮影された車両の前方すなわちドライバ前方の画像などである。例えば車両前方に極めて明るい物体がある場合、ドライバはその物体の方向に視線を向ける可能性が高いと考えられる。あるいは閑散とした道路と混雑した道路とでは、視線の動きが異なることが知られており、前方の画像から閑散または混雑が判別できれば、視線の方向が推測しやすくなると考えられる。
行動情報とは、アクセル操作、ステア操作、ウィンカなどの運転操作や、頭部の向きなど、ドライバの行動を示す情報である。例えば、右方向のウィンカを出している場合、ドライバは視線を右方向に向ける可能性が高いと考えられる。
環境情報とは、上記の行動情報とは異なる情報であり、車両CAN(Controller Area Network)から取得できる車速などの車両挙動や位置情報、先行車との距離などである。例えば、車速が高く、かつ先行車との距離が近づいている場合には、ドライバは車線変更する可能性が高く、先行車と車線変更先の進路を交互に見る可能性が高い。
視線影響情報は、画像情報、行動情報および環境情報のすべてを含んでいてもよいし、その一部を含んでいてもよし、視線方向に影響を与える他の情報を含んでいてもよい。
次に、特徴ベクトル生成部21は視線影響情報から1行a列の特徴ベクトルmを生成する(ステップS2)。視線影響情報における画像情報は、例えば大局的特徴量GISTに変換したものを用いる(例えばSiagian, Itti, "Rapid Biologically-Inspired Scene Classification Using Features Shared with Visual Attention", Pattern Analysis and Machine Intelligence, IEEE Transactions on, Vol.29, Issue 2, pp.300-312, 2007やOLIVA, TORRALBA, "Modeling the Shape of the Scene", International Journal of Computer Vision , Vol. 42, Issue3, pp 145-175 , 2001参照)。視線影響情報における行動情報や環境情報は各要素を1列ずつ割り当てる。視線影響情報の要素の数がaである。また、特徴ベクトル生成部21は、視線方向取得部11が取得した、ドライバの現在の視線方向も考慮して特徴ベクトルmを生成してもよい。
続いて、予測部22は、特徴ベクトルmおよび重み行列Wから、所定期間内におけるドライバの視線方向分布を予測する(ステップS3)。予測された視線方向分布を予測視線方向分布pと呼ぶ。
図4は、予測部22の処理を説明する図である。図4(a)に示すように、特徴ベクトルmは1行a列のベクトルであり、重み行列Wはa行b列の行列である。そして、予測視線方向分布pは特徴ベクトルmと重み行列Wとの積であり、よって予測視線方向分布pは1行b列のベクトルとなる。重み行列Wの列数bは図4(b)のように定められる。すなわち、ドライバの視線方向を垂直方向にb1ブロック、水平方向にb2ブロックに分割し、b1×b2ブロックを列方向に並べてb=b1×b2列とする。
予測視線方向分布pは現在から所定期間におけるドライバの視線を累積したものとなっている。例えば、予測視線方向分布pにおけるb個の要素のうちb0列目の値が大きい場合、所定期間における少なくともある時点で、b0行目と対応するブロックにドライバが視線を向ける確率が高いことを意味する。図4(c)はb2=1(つまり垂直方向には視線方向を分割しない)とした場合の予測視線方向分布pの一例であり、縦軸を予測視線方向分布pの各成分の値、横軸を予測視線方向分布pの水平成分としている。これによればドライバは右方向に視線を向ける確率は高いが左方向に視線を向ける確率は低い、という予測結果を示している。
なお、予測部22は、特徴ベクトルmおよび重み行列Wとの積を補正して、予測視線方向分布pを生成してもよい。例えば、視覚的に目立つ特徴への注意であるボトムアップ注意が視線方向に影響を与え得ることが知られている。そこで、視線影響情報における画像情報のどの部分が目立つかを示す顕著性マップを、特徴ベクトルmと重み行列Wとの積に加算することで予測視線方向分布pの精度を向上できる。また、加算する顕著性マップの重みを予め調整しておくことで、さらに精度を向上できる。
顕著性マップの生成には種々の手法が考えられ、公知の手法(例えばItti, Koch, Niebur, "A model of saliency-based visual attention for rapid scene analysis", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 20 (11), pp. 1254-1259, 1998、Harel, Koch, Perona, "Graph-Based Visual Saliency" NIPS, vol.19, pp.545-552, 2006,)を利用してもよい。また、人が動くものに目を向けやすいことを利用し、画像中の動き(Optical Flow)がある箇所を目立つ部分としてもよい。また、人が人物や顔に目を向けやすいことを利用し、歩行者検出技術や顔検出技術を用いて推定された人物や顔の位置を目立つ部分としてもよい。さらに、人の視線方向は顔の向きの中心に偏りやすいことを利用し、ドライバの顔の方向に重みをかけることを考慮して顕著性マップを生成してもよい(Judd, Ehinger, "Learning to predict where humans look", Computer Vision, 2009 IEEE 12th International Conference on, pp. 2106 - 2113, 2009)。
予測部22は、顕著性マップの他、ドライバの頭部方向を中心とするガウス分布を生成し、このガウス分布を特徴ベクトルmおよび重み行列Wとの積に加算して、予測視線方向分布pを生成してもよい。
以上の予測機能が運転中継続的に行われる(ステップS4)。
続いて、予測システム100における学習機能について説明する。
図5は、学習機能の処理を示すフローチャートである。
まず、学習装置1の視線方向取得部11はドライバの視線方向を所定周期(例えば25Hz)で取得する(ステップS11)。視線方向は、各時点において、図4(b)に示すb1×b2ブロックのうちのどこにドライバの視線が向いているかを示す。
視線方向の取得手法は特に問わないが、例えば、視線方向取得部11はドライバカメラ10からの画像からドライバの瞳孔位置を検出し、その瞳孔位置に基づいて視線方向を推定することができる。あるいは、視線方向取得部11は、近赤外線をドライバに照射してその反射点と瞳孔位置を用いる角膜反射法や、眼球付近の電位を計測してその変化量から視線方向を推定するEOG法によって視線方向を取得してもよい。
続いて、視線影響情報取得部12は、図3のステップS2と同様の視線影響情報を、視線方向の取得と同じ周期で取得する(ステップS12)。
そして、記憶部13は視線方向および視線影響情報のデータを保存するか否かを判定する(ステップS13)。例えば、カーナビ操作や信号停止などで運転中でない場合のデータは不要である。よって、行動情報や環境情報などから運転中でないと判断される場合、記憶部13はデータを保存しないと判定してもよい。また、取得された視線方向の精度が低いと考えられる場合、記憶部13はデータを保存しないと判定してもよい。精度が低い場合とは、瞳孔の大きさや視線方向が急激に変化した場合や、日光などの外乱が強い場合などである。
データを保存しないと判定された場合(ステップS13のNO)、引き続き視線方向および視線影響情報の取得が行われる(ステップS11,S12)。データを保存すると判定された場合(ステップS13のYES)、記憶部13は視線方向および視線影響情報を互いに関連付けて保存する。(ステップS14)。
続いて、学習部16は学習を行うタイミングであるか否かを判定する(ステップS15)。例えば、学習部16は、運転中でない場合などの、視線方向および視線影響情報の取得が不要であるときに学習を行うと判定してもよい。あるいは、学習部16は、所定数のデータが記憶部13に記憶された場合に学習を行うと判定してもよいし、所定間隔で学習を行うことにしてもよい。
学習を行うタイミングでないと判定された場合(ステップS15のNO)、引き続き視線方向および視線影響情報の取得が行われる(ステップS11,S12)。学習を行うタイミングであると判定された場合(ステップS15のYES)、累積視線方向行列生成部14は所定期間における視線方向を累積して累積視線方向ベクトルを生成し(ステップS16)、累積視線方向ベクトルから累積視線方向行列Gを生成する(ステップS17)。
図6は、累積視線方向行列生成部14の処理を説明する図である。
まず、図6(a)に示すように、累積視線方向行列生成部14は所定期間の視線方向を記憶部13から読み出す。例えば、視線方向の取得が25Hzで行われ、現在から3秒間の視線方向の予測をする場合、25×3=75個の視線方向が記憶部13から読みだされる。
続いて、図6(b)に示すように、累積視線方向行列生成部14は読み出された所定期間の視線方向を足し合わせる。これにより、所定期間において、b1×b2ブロックのうちのどの部分に視線を向けられたかを示すデータが生成される。
さらに、図6(c)に示すように、累積視線方向行列生成部14は図6(b)のデータに対してガウス畳み込みを行う。その理由は、固視微動という1deg程度以下の小さな視線方向変動の影響や、眼球の歪みや視線方向取得時のエラーなどによって発生する誤差の影響を表現するためである。
そして、図6(d)に示すように、累積視線方向行列生成部14は図6(c)のデータを列方向に並べて1行b列の累積視線方向ベクトルとする。記憶部13にn個の視線方向が記憶されている場合、累積視線方向行列生成部14は、用いる視線方向を1つずつずらしながら、n個の累積視線方向ベクトルを生成する。各累積視線方向ベクトルは、ある時点での視線方向ではなく、所定期間の視線方向を累積したものとなっている。
その後、図6(e)に示すように、累積視線方向行列生成部14はn個の累積視線方向ベクトルを行方向に並べてn行b列の累積視線方向行列Gを生成する。
より詳しく説明する。図6(f)は、記憶部13に記憶されたn個の視線方向を模式的に示しており、4個の視線方向から1つの累積視線方向ベクトルが生成される例を示している。まず、累積視線方向行列生成部14は1〜4個目の視線方向から1番目の累積視線方向ベクトルを生成する。続いて、累積視線方向行列生成部14は2〜5個目の視線方向から2番目の累積視線方向ベクトルを生成する。以下同様にして、累積視線方向行列生成部14は(n−3)〜n個目の視線方向からn番目(正確にはn−3番目)の累積視線方向ベクトルを生成する。そして、これらn個の累積視線方向ベクトルから図6(e)に示す累積視線方向行列Gが生成される。
図5に戻り、特徴行列生成部15は、記憶部13から視線影響情報を読み出して、図3のステップS2と同様にして1行a列の特徴ベクトルmを生成する(ステップS18)。記憶部13には、視線方向と同数であるn個の視線影響情報がそれぞれ視線方向と関連付けて記憶されており、特徴行列生成部15はn個の特徴ベクトルmを生成する。さらに、特徴行列生成部15はn個の特徴ベクトルmを行方向に並べて、n行a列の特徴行列Mを生成する(ステップS19)。
ここで、特徴行列Mにおけるa次元の各要素について、アクセルペダル開度など連続値で表現される要素は、低分解能の離散値に置き換えてもよい。これにより、特徴行列Mにおける特徴の各要素のデータ量が減り、計算に必要なメモリ量を削減できる。例えば、k−meansを適用することで、必要な情報の欠損を抑えつつ、分解能を下げられることが知られている。
あるいは、a次元の各要素のうち、視線方向への影響が特に大きい要素のみを残し、他の要素を削除してもよい。これにより、やはりメモリ量を削減できる。例えば、主成分分析を用いることで、視線方向のばらつきが大きくなる成分、つまり、視線方向に大きな影響を与える成分のみを残すことができる。さらに、視線方向にあまり影響を与えない成分はノイズの影響を受けやすいため、削除することで視線の予測精度も向上する。
以上のようにして生成された累積視線方向行列Gおよび特徴行列Mから、学習部16は重み行列Wを更新・生成する(ステップS20)。例えば、学習部16は下記(1)式に示す線形回帰モデルを用いて重み行列Wを更新できる。
あるいは、学習部16は下記(2)式に示すように正則化項を含む線形回帰モデルを用いてもよい。
正則化項を加えることにより、重み行列Wに大きな値が入るのを抑えることができる。よって、データの変更や外乱の混入に強いロバストな視線予測が可能となる。正則化項の重みλは、正規化項の強さを表す。λを大きくするほどロバスト性は向上するが、予測精度が低下する。λを小さくするほど予測精度は向上するが、ロバスト性が低下する。重みλは経験的に適切な値に設定すればよい。
学習部16は、線形回帰モデルに代えて、SVM(Support Vector Machine)を用いて重み行列Wを生成してもよい。すなわち、累積視線方向行列Gを1または−1で二値化し、1をポジティブラベル、−1をネガティブラベルとして、両者を分ける境界線を探索してもよい。
このようにして、学習部16は、特徴行列Mと重み行列Wとの積ができるだけ累積視線方向行列Gに近づくよう、重み行列Wを算出する。新たな重み行列Wが予測装置2の予測部22において用いられる。
以上の学習機能が運転中継続的に行われる(ステップS21)。
以上、予測システム100について説明した。続いて、図1の警告装置200による警告機能について説明する。
図7は、警告機能の処理を示すフローチャートである。
警告装置200の対象物検出部3はドライバが注目すべき対象物があるか否か、ある場合にはどの方向にあるかを検出する(ステップS31)。対象物とは、例えば歩行者、自転車、先行車、信号、道路標識が挙げられる。対象物の検出には公知の手法を適用すればよい。例えば、対象物検出部3は、車外カメラ20からの画像からHOG(Histograms of Oriented Gradients)特徴量を抽出し、予め学習されたパラメータを用いて歩行者らしさを推定することができる。あるいは、レーダなどの測距装置を車両に取り付けておき、対象物検出部3はドップラー効果を利用して歩行者らしさを推定してもよい。
なお、対象物検出部3は車両の進行方向から一定の範囲の領域のみから対象物を検出してもよい。例えば、空の領域に歩行者が検出されたといても誤検出の可能性が高いし、仮に正しい検出結果であったとしても車両と衝突する可能性は低く注目する必要がないためである。
そして、対象物が検出された場合(ステップS32のYES)、警告判定部4は、検出された対象物の位置と、予測視線方向分布pとを比較し、ドライバに対して警告すべきか否かを判定する(ステップS33)。より具体的には、警告判定部4は、対象物の位置に対応する予測視線方向分布pの要素の値が閾値r以上であれば、警告不要と判断する。ドライバが所定期間内にその対象物を見る可能性が高いためである。
図4(c)の例では、対象物が位置Aに検出された場合、位置Aに対応する予測視線方向分布pの要素の値が閾値r未満であって所定期間内にドライバが対象物を見る可能性は低いため、警告判定部4は警告すべきと判定する。一方、対象物が位置Bに検出された場合、警告判定部4は警告不要と判定する。
なお、閾値rは固定値であってもよいしダイナミックに変動してもよい。例えば、対象物までの距離や車速に応じて閾値rを変動させてもよく、具体的には距離が近いほど、また車速が速いほど閾値rを小さくしてもよい。
図7に戻り、警告すべきと判定された場合(ステップS33のYES)、表示制御部5および/または音声出力制御部6はディスプレイ30および/またはスピーカ40から警告を出力する(ステップS34)。これにより、ドライバの視線が向かないと予測された位置に対象物がある場合に、危険を早めに警告でき事故の低減に役立つ。
警告の内容として、対象物の位置を含んでいてもよい。例えば、図4(c)の例では左方向に注目すべき対象物があることを警告してもよい。これにより、ドライバの勘違いを防止でき、事故発生を低減する効果を高めることができる。
以上の警告機能が運転中継続的に行われる(ステップS35)。
ステップS33における警告判定部4の別の処理例として、視線方向取得部11によって取得されたドライバの現在の視線方向と、予測視線方向分布pとを比較して、警告すべきか否かを判定してもよい。両者が大幅に異なる場合、例えば図4(c)において右側に視線を向けると予測されているにもかかわらず、実際のドライバの視線方向が左側である場合、体調不良や脇見運転などドライバが正常に運転できていない状態にあるおそれがある。よって、このような場合に警告を発することでやはり事故の発生を低減できる。
なお、予測機能に引き続いて警告機能が行われるが、これらと同時並行で学習機能が行われてもよいし、別個に行われてもよい。
このように、本実施形態では、現在から将来にかけての所定期間での視線方向を累積した累積視線方向行列Gと、同期間での視線影響情報に基づく特徴行列Mとを用いて重み行列Wを生成する。そのため、ある時点ではなく同期間での視線方向を精度よく予測できる。
ところで、図1に示した警告システム50内の各部は1つの装置内にあってもよいし、複数の装置に分散していてもよい。同様に、図2に示した予測システム100内の各部は、1つの装置内にあってもよいし、複数の装置に分散していてもよい。また、学習装置1内の少なくとも一部が予測装置2内にあってもよいし、予測装置2内の少なくとも一部が学習装置1内にあってもよい。
図8は、複数の装置に分散された予測システム100’の構成例を示すブロック図である。この予測システム100’は学習装置1’および予測装置2’がネットワーク60を介して接続されて構成される。ネットワーク60は有線ネットワークでもよいし無線ネットワークでもよいし、両者が混在していてもよい。学習装置1’は、例えば処理能力が高いサーバである。予測装置2’は、例えばユーザが用いる端末装置であり、学習装置1’よりは処理能力が低くてもよい。
学習装置1’は少なくとも学習部16を有し、望ましくは記憶部13、累積視線方向行列生成部14および特徴行列生成部15を有する。さらに、学習装置1’はネットワーク60を介して予測装置2’と通信するための通信部17を有する。
予測装置2’は少なくとも予測部22を有し、望ましくは視線方向取得部11、視線影響情報取得部12および特徴ベクトル生成部21を有する。さらに、予測装置2’はネットワーク60を介して学習装置1’と通信するための通信部23を有する。また、予測装置2’にドライバカメラ10および車外カメラ20が接続される。
この予測システム100’では、ユーザが用いる予測装置2’が視線方向および視線影響情報を取得し、通信部23が学習装置1’にこれらを送信する。そして、重み行列Wの生成は処理能力が高い学習装置1’で行う。得られた重み行列Wは通信部17によって予測装置2’に送信される。そのため、予測装置2’は負荷が大きい学習処理を行う必要がない。
1台の学習装置1’に対して複数の予測装置2’から視線方向および視線影響情報が送信されてもよい。これにより、複数のドライバからのデータを集約でき、予測の精度を向上できる。また、視線の予測対象となるドライバと、学習用の視線方向および視線影響情報が取得されるドライバは異なっていてもよい。例えば後者を教習所の指導教官とすることで模範的な視線方向を予測できる。そして、模範的な視線方向と、ドライバの予測視線方向分布pとが大きく異なる場合に警告判定部4が警告を発することで、ドライバの運転技能の向上が期待できる。
また、本予測システム100の用途は車両用の警告システムに限られるものではない。例えば、パソコンに搭載してもよい。そして、Web閲覧中のユーザを視線方向予測の対象者とし、ユーザが視線を向けると予測された方向に広告を表示することが考えられる。この用途においては、図1のドライバカメラ10や車外カメラ20の代わりに、ノートパソコンのディスプレイ上部に内蔵カメラを用いてもよいし、外付けカメラを用いるようにしてもよい。
そして、図3のステップS1において、視線影響情報における画像情報として、ディスプレイに表示されている画像を用いることができる。行動情報として、マウスやキーボードなど入力インターフェースに対する操作を用いることができる。環境情報としては、当該パソコンにおける他のソフトウェアの実行状況を用いることができる。
図5のステップS13において、広告を表示予定のページ以外をユーザが閲覧している場合には、データ保存の必要がないと判定してもよい。同ステップS15において、パソコンの処理負荷が低いときにバックグラウンドで学習を行うと判定してもよい。
その他の用途例として、テレビゲームやアトラクションに適用してもよい。ユーザの視線方向を予測し、視線が向かないと予測された方向にイベントを発生させることで、意外性からユーザの満足度を向上できる。
上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうることである。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲とすべきである。
1,1’ 学習装置
11 視線方向取得部
12 視線影響情報取得部
13 記憶部
14 累積方向行列生成部
15 特徴行列生成部
16 学習部
17 通信部
2,2’ 予測装置
21 特徴ベクトル生成部
22 予測部
23 通信部
3 対象物検出部
4 警告判定部

Claims (12)

  1. 対象者の、現在から所定期間における視線方向を予測するための重み行列を生成する学習装置であって、
    前記対象者の視線方向を取得する視線方向取得部と、
    前記視線方向に影響を与える視線影響情報を取得する視線影響情報取得部と、
    前記所定期間における前記視線方向に基づいて累積視線方向ベクトルを生成し、複数の前記累積視線方向ベクトルから累積視線方向行列を生成する累積視線方向行列生成部と、
    前記所定期間における前記視線影響情報に基づいて特徴行列を生成する特徴行列生成部と、
    前記累積視線方向行列と前記特徴行列とを関連付ける重み行列を生成する学習部と、を備える、重み行列学習装置。
  2. 前記学習部は、前記特徴行列と前記重み行列との積が前記累積視線方向行列に近づくよう、前記重み行列を生成する、請求項1に記載の重み行列学習装置。
  3. 前記視線影響情報は、前記対象者の前方の画像情報、前記対象者の行動情報、および、環境情報のうちの少なくとも1つを含む、請求項1または2に記載の重み行列学習装置。
  4. 前記特徴行列生成部は、前記対象者の現在の視線方向も考慮して、前記特徴行列を生成する、請求項1乃至3のいずれかに記載の重み行列学習装置。
  5. 対象者の、現在から所定期間における視線方向を予測する視線方向予測システムであって、
    前記対象者の視線方向を取得する視線方向取得部と、
    前記視線方向に影響を与える視線影響情報を取得する視線影響情報取得部と、
    前記所定期間における前記視線方向に基づいて累積視線方向ベクトルを生成し、複数の前記累積視線方向ベクトルから累積視線方向行列を生成する累積視線方向行列生成部と、
    前記所定期間における前記視線影響情報に基づいて特徴行列を生成する特徴行列生成部と、
    前記累積視線方向行列と前記特徴行列とを関連付ける重み行列を生成する学習部と、
    前記視線影響情報に基づいて特徴ベクトルを生成する特徴ベクトル生成部と、
    前記重み行列および前記特徴ベクトルに基づいて、前記所定期間における前記対象者の視線方向を予測する予測部と、を備える、視線方向予測システム。
  6. 当該視線方向予測システムは、ネットワークを介して接続された予測装置および学習装置から構成され、
    前記予測装置は、少なくとも前記予測部を有し、
    前記学習装置は、少なくとも前記学習部と、前記重み行列を前記予測装置に送信する第1通信部と、を有する、請求項5に記載の視線方向予測システム。
  7. 前記予測装置は、前記視線方向取得部と、前記視線影響情報取得部と、前記視線方向および前記視線影響情報を前記学習装置に送信する第2通信部と、を有し、
    前記学習装置は、前記累積視線方向行列生成部と、前記特徴行列生成部と、を有する、請求項6に記載の視線方向予測システム。
  8. 前記予測部は、前記対象者の前方の画像情報における目立つ位置、および/または、前記対象者の頭部方向も考慮して、前記対象者の視線方向を予測する、請求項5乃至7のいずれかに記載の視線方向予測システム。
  9. 請求項5乃至8のいずれかに記載の視線方向予測システムと、
    前記予測された視線方向に基づいて警告するか否かを判定する警告判定部と、を備える警告システム。
  10. 前記対象者が注目すべき対象物の位置を検出する対象物検出部を備え、
    前記警告判定部は、前記対象物の位置と前記予測された視線方向とを比較して、警告するか否かを判定する、請求項9に記載の警告システム。
  11. 前記警告判定部は、前記対象者の実際の視線方向と、前記予測された視線方向とを比較して、警告するか否かを判定する、請求項9に記載の警告システム。
  12. 対象者の、現在から所定期間における視線方向を予測するための重み行列を生成する学習方法であって、
    前記対象者の視線方向を取得するステップと、
    前記視線方向に影響を与える視線影響情報を取得するステップと、
    前記所定期間における前記視線方向に基づいて累積視線方向ベクトルを生成し、複数の前記累積視線方向ベクトルから累積視線方向行列を生成するステップと、
    前記所定期間における前記視線影響情報に基づいて特徴行列を生成するステップと、
    前記累積視線方向行列と前記特徴行列とを関連付ける重み行列を生成するステップと、を備える、重み行列学習方法。
JP2015005166A 2015-01-14 2015-01-14 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法 Expired - Fee Related JP6320942B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015005166A JP6320942B2 (ja) 2015-01-14 2015-01-14 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015005166A JP6320942B2 (ja) 2015-01-14 2015-01-14 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法

Publications (2)

Publication Number Publication Date
JP2016130959A JP2016130959A (ja) 2016-07-21
JP6320942B2 true JP6320942B2 (ja) 2018-05-09

Family

ID=56415541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015005166A Expired - Fee Related JP6320942B2 (ja) 2015-01-14 2015-01-14 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法

Country Status (1)

Country Link
JP (1) JP6320942B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101986734B1 (ko) * 2017-05-25 2019-06-07 (주)에이다스원 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
JP7263734B2 (ja) 2018-10-29 2023-04-25 株式会社アイシン 視認対象判定装置
JP2022088962A (ja) * 2020-12-03 2022-06-15 京セラ株式会社 電子機器、情報処理装置、集中度算出プログラム、及び集中度算出方法
JPWO2022162770A1 (ja) 2021-01-27 2022-08-04

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH097100A (ja) * 1995-06-19 1997-01-10 Honda Motor Co Ltd 運転者注視点予測装置及びこれを用いた車両用運転支援システム
JP4342708B2 (ja) * 2000-09-06 2009-10-14 本田技研工業株式会社 ドライバの視線領域の適合性を判定する車載情報処理装置
JP2003327009A (ja) * 2002-05-14 2003-11-19 Toyota Central Res & Dev Lab Inc 注意喚起装置
US6989754B2 (en) * 2003-06-02 2006-01-24 Delphi Technologies, Inc. Target awareness determination system and method
JP2006215728A (ja) * 2005-02-02 2006-08-17 Matsushita Electric Ind Co Ltd 運転情報提供装置
JP5360143B2 (ja) * 2011-07-04 2013-12-04 株式会社豊田中央研究所 走行場面認識モデル生成装置、運転支援装置、及びプログラム

Also Published As

Publication number Publication date
JP2016130959A (ja) 2016-07-21

Similar Documents

Publication Publication Date Title
JP6934574B2 (ja) 前方衝突制御方法および装置、電子機器、プログラムならびに媒体
US20200216078A1 (en) Driver attentiveness detection system
US10546201B2 (en) Method and apparatus for determining abnormal object
You et al. Carsafe app: Alerting drowsy and distracted drivers using dual cameras on smartphones
JP5841538B2 (ja) 関心度推定装置および関心度推定方法
US11945435B2 (en) Devices and methods for predicting collisions and/or intersection violations
JP2022523730A (ja) 交通エンティティの間を縫っての自律車両のニューラルネットワークベースのナビゲーション
US20140354684A1 (en) Symbology system and augmented reality heads up display (hud) for communicating safety information
JP4173902B2 (ja) 車両周辺監視装置
JP6320942B2 (ja) 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法
KR101986734B1 (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
JP2019195377A (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
US20210312193A1 (en) Devices and methods for predicting intersection violations and/or collisions
Rezaei et al. Simultaneous analysis of driver behaviour and road condition for driver distraction detection
Lashkov et al. Ontology-based approach and implementation of ADAS system for mobile device use while driving
Billah et al. Tracking-based detection of driving distraction from vehicular interior video
US11046247B1 (en) System and method for predicting effects of forward glance durations on latent hazard detection
Shahid et al. Eye-gaze and augmented reality framework for driver assistance
EP3882744A1 (en) State estimation device
Mihai et al. Using dual camera smartphones as advanced driver assistance systems: Navieyes system architecture
Jewel et al. Design and Implementation of a Drowsiness Detection System Up to Extended Head Angle Using FaceMesh Machine Learning Solution
EP3882745B1 (en) State estimation device
JP7418683B2 (ja) 評価装置、評価方法
US20220153282A1 (en) Attention level determination
JP7363378B2 (ja) 運転支援装置、運転支援方法、及び運転支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180404

R150 Certificate of patent or registration of utility model

Ref document number: 6320942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees