JP2019101520A - 視認対象検知装置、視認対象検知方法、およびプログラム - Google Patents

視認対象検知装置、視認対象検知方法、およびプログラム Download PDF

Info

Publication number
JP2019101520A
JP2019101520A JP2017228599A JP2017228599A JP2019101520A JP 2019101520 A JP2019101520 A JP 2019101520A JP 2017228599 A JP2017228599 A JP 2017228599A JP 2017228599 A JP2017228599 A JP 2017228599A JP 2019101520 A JP2019101520 A JP 2019101520A
Authority
JP
Japan
Prior art keywords
visual
line
sight
driver
face direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017228599A
Other languages
English (en)
Other versions
JP7019394B2 (ja
Inventor
伸洋 水野
Nobuhiro Mizuno
伸洋 水野
顕 吉澤
Akira Yoshizawa
顕 吉澤
哲洋 林
Tetsuhiro Hayashi
哲洋 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2017228599A priority Critical patent/JP7019394B2/ja
Publication of JP2019101520A publication Critical patent/JP2019101520A/ja
Application granted granted Critical
Publication of JP7019394B2 publication Critical patent/JP7019394B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】運転者が視認している対象を適切に検知できる視認対象検知装置を提供する。【解決手段】視認対象検知装置1は、運転者を撮影するカメラ10と、カメラ10にて撮影した画像から運転者の顔向きを検知する顔向き検知部11と、カメラ10にて撮影した画像から運転者の視線を検知する視線検知部12と、視線または顔向きから運転者が視認している視認対象を推定する視認対象推定部13と、視認対象推定部13にて推定した視認対象を示す情報を出力する出力部14とを備える。視認対象推定部13は、視線検知部12にて検知した視線の検知精度が所定の閾値以上の場合には、視線検知部12にて検知した視線に基づいて視認対象の推定を行い、視線の検知精度が所定の閾値より小さい場合には、顔向き検知部11にて検知した顔向きに基づいて視認対象の推定を行う。【選択図】図1

Description

本発明は、運転者が視認した対象を検知する技術に関する。
例えば、自動車の運転中に車線変更を行うとき等に、運転者が安全確認を行ったか判定する技術や、脇見運転を検知して警報を行う技術が知られている。特許文献1は、運転者の脇見状態の詳細に応じて適切な警報を行う脇見警報装置を開示している。この脇見警報装置は、運転者の注視又は脇見が視線方向のみに拠る状態か、顔向き方向に拠る状態かを判定し、顔向き状態に拠る場合には、脇見と判定するための時間を視線のみに拠る場合よりも長く設定する。
特開2011−164712号公報
上記した特許文献1に見られるように、運転者による視認状態を検知する方法として、カメラで撮影した画像から検知した運転者の顔向き、視線を用いることが知られていた。視線を用いて視認状態を検知する方法は、運転者が見ている方向を検知する精度は高いが、1台のカメラで視線を検知できる範囲が狭い。逆に、顔向きを用いて視認状態を検知する方法は、検知できる範囲が広いが、視認状態を検知する精度は低い。例えば、運転者がスピードメーターやバックミラーを見るときには、ほとんど顔を動かさず、目だけ動かすことが、これまでの発明者らの研究から分かった。また、同一の対象物を見る際にも、顔向きをどれだけ変化させるかは、個々人によって、あるいは状況によって差がある。
本発明は、上記背景に鑑み、運転者が視認している対象を適切に検知できる視認対象検知装置を提供することを目的とする。
本発明の視認対象検知装置は、運転者を撮影するカメラと、前記カメラにて撮影した画像から運転者の顔向きを検知する顔向き検知部と、前記カメラにて撮影した画像から運転者の視線を検知する視線検知部と、視線または顔向きから運転者が視認している視認対象を推定する視認対象推定部と、前記視認対象推定部にて推定した視認対象を示す情報を出力する出力部とを備え、前記視認対象推定部は、前記視線検知部にて検知した視線の検知精度が所定の閾値以上の場合には、前記視線検知部にて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向き検知部にて検知した顔向きに基づいて視認対象の推定を行う。
この構成により、運転者の視線の検知精度が高いときには視線にて視認対象の推定を行い、視線の検知精度が低いときには、運転者の顔向きにて視認対象の推定を行うので、推定精度の高さと検出できる範囲の広さの両立を図れる。
本発明の視認対象検知装置において、前記視認対象推定部は、顔向きと視線と視認対象とをノードとし、顔向きと視認対象、視線と視認対象の関係が確率伝搬で表現されたネットワークのモデルを記憶部から読み出し、顔向きから視認対象を推定する場合には、視線のノードにはエビデンスを入力せず、顔向きのノードに検知された顔向きのデータを入力し、視線から視認対象を推定する場合には、顔向きのノードにはエビデンスを入力せず、視線のノードに検知された視線のデータを入力することにより注視対象を推定してもよい。この構成により、適切に視認対象の推定を行なえる。
本発明の視認対象検知装置において、前記視認対象推定部は、前記視線の検知精度が所定の閾値より小さい場合には、顔向きと視線に基づいて視認対象の推定を行ってもよい。この構成により、視線と顔向きの両方のデータを用いることで、視認対象の推定を精度良く行える。
本発明の別の態様の視認対象検知装置は、運転者を撮影するカメラと、前記カメラにて撮影した画像から運転者の顔向きを検知する顔向き検知部と、前記カメラにて撮影した画像から運転者の視線を検知する視線検知部と、顔向きから運転者の視線を推定する視線推定部と、視線から運転者が視認している視認対象を推定する視認対象推定部と、前記視認対象推定部にて推定した視認対象を示す情報を出力する出力部とを備え、前記視認対象推定部は、前記視線検知部にて検知した視線の検知精度が所定の閾値以上の場合には、前記視認対象推定部が前記視線検知部にて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向き検知部にて検知した顔向きから視線を推定し、前記視線推定部にて推定した視線に基づいて視認対象の推定を行う。
この構成により、運転者の視線の検知精度が高いときには視線にて視認対象の推定を行い、視線の検知精度が低いときには、運転者の顔向きから推定した視線を用いて視認対象の推定を行うので、推定精度の高さと検出できる範囲の広さの両立を図れる。
本発明の視認対象検知装置において、前記視認対象推定部は、顔向きと視線と視認対象とをノードとし、顔向きと視線、視線と視認対象の関係が確率伝搬で表現されたネットワークのモデルを記憶部から読み出し、顔向きから視認対象を推定する場合には、顔向きのノードに検知された顔向きのデータを入力し、視線から視認対象を推定する場合には、顔向きのノードにはエビデンスを入力せず、視線のノードに検知された視線のデータを入力することにより注視対象を推定してもよい。この構成により、適切に視認対象の推定を行なえる。
本発明の視認対象検知装置において、前記視認対象推定部は、前記視線の検知精度が所定の閾値より小さい場合に、前記顔向き検知部にて検知した顔向きから推定した視線と、前記視線検知部にて検知した視線に、前記視線検知部による視線の検知精度に基づく重みづけをして運転者の視線を推定し、推定された視線を用いて視認対象を推定してもよい。この構成により、顔向きの検知結果と視線の検知結果に基づいて適切に視線を推定し、ひいては視認対象を精度良く推定できる。
本発明の視認対象検知装置において、前記カメラは、運転者を正面から撮影する単一のカメラであってもよい。所定の範囲においてしか視線を精度良く検知できない単一のカメラの場合でも、本発明の構成により、適切に視認対象の推定を行なえる。
本発明の視認対象検知方法は、視認対象検知装置によって運転者が視認している視認対象を検知する方法であって、前記視認対象検知装置が、カメラにて運転者を撮影するステップと、前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の顔向きを検知するステップと、前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の視線を検知するステップと、前記視認対象検知装置が、視線または顔向きから運転者が視認している視認対象を推定するステップと、前記視認対象検知装置が、前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップとを備え、前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視認対象の推定を行う。
本発明の別の態様の視認対象検知方法は、視認対象検知装置によって運転者が視認している視認対象を検知する方法であって、前記視認対象検知装置が、カメラにて運転者を撮影するステップと、前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の顔向きを検知するステップと、前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の視線を検知するステップと、前記視認対象検知装置が、顔向きから運転者の視線を推定するステップと、前記視認対象検知装置が、視線から運転者が視認している視認対象を推定するステップと、前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップとを備え、前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視線の推定を行い、推定された視線に基づいて視認対象の推定を行う。
本発明のプログラムは、運転者が視認している視認対象を検知するためのプログラムであって、コンピュータに、カメラにて撮影した運転者の画像データを入力するステップと、前記画像データに基づいて運転者の顔向きを検知するステップと、前記画像データに基づいて運転者の視線を検知するステップと、視線または顔向きから運転者が視認している視認対象を推定するステップと、前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップとを実行させ、前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視認対象の推定を行う。
本発明のプログラムは、運転者が視認している視認対象を検知するためのプログラムであって、コンピュータに、カメラにて撮影された運転者の画像データを入力するステップと、前記画像データに基づいて運転者の顔向きを検知するステップと、前記画像データに基づいて運転者の視線を検知するステップと、顔向きから運転者の視線を推定するステップと、視線から運転者が視認している視認対象を推定するステップと、前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップとを備え、前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視線の推定を行い、推定された視線に基づいて視認対象の推定を行う。
本発明によれば、運転者が視認している視認対象を推定する推定精度の高さと視認物を検知できる範囲の広さの両立を図ることができる。
第1の実施の形態の視認対象検知装置の構成を示す図である。 車内において視認される対象物の例を示す図である。 視認対象推定部の構成を示す図である。 第1の実施の形態の視認対象検知装置の動作を示す図である。 第2の実施の形態の視認対象検知装置の構成を示す図である。 視認対象推定部の構成を示す図である。 第2の実施の形態の視認対象検知装置の動作を示す図である。
以下、本発明の実施の形態の視認対象検知装置について図面を参照して説明する。
(第1の実施の形態)
図1は、第1の実施の形態の視認対象検知装置1の構成を示す図である。視認対象検知装置1は、自動車の運転者が視認している対象物(視認対象)を検知する装置である。視認対象検知装置1にて、視認対象を検知することにより、運転者が脇見をしていないかどうか、例えば、車線変更や右左折をするときに運転者が適切な安全行動をとったかどうかを判断することができる。
第1の実施の形態の視認対象検知装置1は、カメラ10と、顔向き検知部11と、視線検知部12と、視認対象推定部13と、出力部14とを備えている。
カメラ10は近赤外線カメラであり、車室内が暗くなっても安定して運転者を撮影することができる。カメラ10は、運転者を正面から撮影する位置、例えば、メーターバイザーの下に搭載される。株式会社デンソーが開発した「ドライバーステータスモニタ」のカメラ10を用いることとしてもよい。
顔向き検知部11は、カメラ10にて撮影した運転者の顔画像に基づいて、運転者の顔向きを検知する機能を有する。視線検知部12は、カメラ10にて撮影した運転者の目の画像から運転者の視線を検知する機能を有する。視線検知部12は、運転者の黒目の向いている方向を検知することで運転者の顔に対する視線の方向に、運転者の顔の向きを加味して、運転者の視線がどの方向を向いているかを検知する。視線検知部12は、運転者の視線を検知する際に、その検知精度を計測し、その確信度を表す値(品質値)を求める。ここで、検知精度は、例えば、検知された視線の方向の正しさを確率で示す値である。ドライバ自身の瞬きや閉眼やカメラと目の位置関係の結果、眼球の白と黒い部分の映り具合から、視線方向の検知の正確性を判定する精度である。
視認対象推定部13は、運転者の顔向きおよび視線に基づいて、運転者が視認している対象物を推定する機能を有する。視認対象推定部13は、SVMモデル記憶部15に記憶された視認対象を推定するためのSVMモデルを読み出し、このSVMモデルに顔向きデータ、視線データを適用することで、視認対象の推定を行う。
図2は、車内において視認される対象物の例を示す図である。車内における視認対象の例としては、図2では、ウィンドウシールドディスプレイ、スピードメーター、カーナビゲーション、バックミラー、右ミラー、左ミラー、右側方、左側方を示している。図2に示しているのは一例であり、視認対象検知装置1で視認可能な視認対象はこれらに限られることはない。
なお、図2において、正面の方向にある、ウィンドウシールドディスプレイ、スピードメーター、カーナビゲーション、右ミラーは、視線によって検知できる範囲にある対象物である。そして、この視線による検知範囲を含む全視認対象が顔向きによる検知範囲である。つまり、顔向きを用いた検知範囲の方が、視線を用いた検知範囲よりも広い。
図3は、視認対象推定部13の構成を示す図である。視認対象推定部13は、ノイズフィルタ20と、評価部21と、決定部22とを有している。ノイズフィルタ20は、顔向き検知部11から入力される顔向きのデータ、または、視線検知部12から入力される視線データに含まれるノイズを除去する機能を有する。評価部21は、多クラスのSVMモデルを用いた処理によって、入力された顔向きデータ又は視線データからそれぞれの視認対象を見ている可能性を表すスコアを評価する。なお、SVMのモデルは、SVMモデル記憶部15から読み出したSVMモデルを用いる。視線から視認対象を推定したい場合には、視線を用いて学習したSVMモデルを読み出し、顔向きから視認対象を推定したい場合には、顔向きを用いて学習したSVMモデルを用いる。視線と顔向きの両方に基づいて視認対象を推定したい場合には、視線と顔向きの両方を用いて学習したSVMモデルを用いる。決定部22は、評価部21にて求めた各視認対象のスコアに基づいて、最大のスコアを有する視認対象を決定し、視認対象データを出力する。
出力部14は、視認対象推定部13にて推定された視認対象データを、脇見判定装置等の運転支援装置に対して出力する。
以上、本実施の形態の視認対象検知装置1の構成について説明したが、上記した視認対象検知装置1のハードウェアの例は、CPU、RAM、ROM、ハードディスク、ディスプレイ、キーボード、マウス、通信インターフェース等を備えたコンピュータである。上記した顔向き検知部11、視線検知部12、視認対象推定部13の各機能を実現するモジュールを有するプログラムをRAMまたはROMに格納しておき、CPUによって当該プログラムを実行することによって、上記した視認対象検知装置1の機能が実現される。このようなプログラムも本発明の範囲に含まれる。また、出力部14の一例は、通信インターフェースである。
図4は、第1の実施の形態の視認対象検知装置1の動作を示す図である。第1の実施の形態の視認対象検知装置1は、カメラ10によってドライバを撮影する(S10)。続いて、視認対象検知装置1は、撮影で得られた画像に基づいて、顔向き検知部11にてドライバの顔向きを検知すると共に(S11)、視線検知部12にてドライバの視線を検知する(S12)。視線検知部12は、ドライバの視線を検知する際に、その検知精度の品質値を求める。
視認対象検知装置1は、視線検知部12における視線検知の品質値に基づいて、視線の検知精度が閾値以上であるか否かを判定する(S13)。視線の検知精度が閾値以上である場合には(S13でYES)、視線検知部12にて検知した視線から視認対象を推定する(S15)。視認対象推定部13は、SVMモデル記憶部15から視線を用いて学習したSVMモデルを読み出し、検知した視線データをSVMモデルに入力することで、視認対象を推定する。
視線の検知精度が閾値以上でない場合には(S13でNO)、顔向き検知部11にて検知した顔向きから視認対象を推定する(S14)。視認対象推定部13は、SVMモデル記憶部15から顔向きを用いて学習したモデルを読み出し、検知した顔向きデータをモデルに入力することで、視認対象を推定する。視認対象検知装置1は、視認対象推定部13にて推定した視認対象のデータを他の装置に出力する(S16)。
以上、第1の実施の形態の視認対象検知装置1の構成及び動作について説明した。第1の実施の形態の視認対象検知装置1は、視線検知部12による視線の検知精度によって視線による視認対象推定を行うか、顔向きによる視認対象推定を行うかを選択するので、検知精度の高さと検知範囲の広さを両立することができる。
上記した実施の形態の視認対象検知装置1は、視線の検知精度が閾値以上ではない場合には、検知した顔向きデータを用いて、視認対象を推定する構成について説明したが、視線の検知精度が閾値以上ではない場合には、検知した顔向きデータと共に視線データをSVMモデルに適用して、視認対象を推定する構成を採用してもよい。
(第2の実施の形態)
図5は、第2の実施の形態の視認対象検知装置2の構成を示す図である。第2の実施の形態の視認対象検知装置2の基本的な構成は、第1の実施の形態の視認対象検知装置1と同じであるが、視認対象推定部13による視認対象の処理が異なる。視認対象推定部13は、ベイジアンモデル記憶部16に記憶されているベイジアンネットワークモデルを読み出し、読み出したモデルに顔向きデータおよび視線データを適用することによって視認対象を推定する。
図6は、視認対象推定部13の構成を示す図である。視認対象推定部13は、確率分布化部30と、ベイジアンネット推定部31とを有している。確率分布化部30は、顔向き検知部11から入力される顔向きのデータ、または、視線検知部12から入力される視線データを確率分布化する機能を有する。ベイジアンネット推定部31は、ベイジアンモデル記憶部16から読み出したベイジアンネットワークモデルに対して、確率分布化された顔向きデータ、視線データを適用して視認対象の確率を推定する。図6に示すベイジアンネットワークモデルは、顔向きのノード、視線のノード、視認対象のノードが順に接続されたモデルである。
視認対象推定部13は、視線検知部12での視線の検知精度によって、ベイジアンネット推定部31に適用するデータを変える。具体的には、視線の検知精度が所定の閾値以上の場合には、顔向きのノードにはエビデンスを入力せず、視線のノードに、検知された視線データの確率分布を入力する。これにより、視認対象推定部13は、視線データに基づいて視認対象を推定することができる。
視線の検知精度が所定の閾値以上ではない場合には、顔向きのノードに、検知された顔向きデータの確率分布を入力し、視線データのノードにはエビデンスを入力しない。顔向きノードの確率分布から視線ノードの確率分布が計算され、視線ノードの確率分布に基づいて視認対象を推定することができる。これにより、一つのベイジアンネットモデルによって、視線の検知精度が高い場合と低い場合の両方の場合について、視認対象を推定できる。
図7は、第2の実施の形態の視認対象検知装置2の動作を示す図である。第2の実施の形態の視認対象検知装置2は、カメラ10によってドライバを撮影する(S20)。続いて、視認対象検知装置2は、撮影で得られた画像に基づいて、顔向き検知部11にてドライバの顔向きを検知すると共に(S21)、視線検知部12にてドライバの視線を検知する(S22)。視線検知部12は、ドライバの視線を検知する際に、その検知精度の品質値を求める。
視認対象検知装置2は、視線検知部12における視線検知の品質値に基づいて、視線の検知精度が閾値以上であるか否かを判定する(S23)。視線の検知精度が閾値以上である場合には(S23でYES)、視認対象推定部13は、ベイジアンネット推定部31の視線データのノードに、検知した視線データの確率分布を入力し、視認対象を推定する(S25)。
視線の検知精度が閾値以上でない場合には(S23でNO)、顔向き検知部11にて検知した顔向きデータの確率分布を、ベイジアンネット推定部31の顔向きデータのノードに入力する。顔向きデータの確率分布から視線データの確率分布を求め(S24)、視線データの確率分布から視認対象を推定する(S25)。視認対象検知装置2は、視認対象推定部13にて推定した視認対象のデータを他の装置に出力する(S26)。
以上、第2の実施の形態の視認対象検知装置2の構成及び動作について説明した。第2の実施の形態の視認対象検知装置2は、視線検知部12による視線の検知精度によって視線による視認対象推定を行うか、顔向きから推定した視線を基づいて視認対象推定を行うので、検知精度の高さと検知範囲の広さを両立することができる。
なお、第2の実施の形態では、視線の検知精度が閾値以上でない場合に(S23でNO)、顔向きデータから推定した視線に基づいて視認対象を推定したが(S24〜S25)、顔向きデータから推定した視線に加えて、視線検知部12にて求めた視線のデータも使って、ドライバの視線を推定し、推定した視線に基づいて視認対象を求めてもよい。この場合、顔向きから推定した視線と視線検知部12にて検知した視線とを組み合わせる方法として、視線検知部12による視線の検知精度を用いて重み付けを行う構成が考えられる。例えば、視線検知部12による視線の検知結果が右に30度、検知精度が10%であり、顔向きデータから推定した視線が右に40度であったとする。この場合、30×0.1+40×(1−0.1)=3+36=39度というように、視線方向を推定してもよい。
この構成により、顔向きの検知結果と視線の検知結果に基づいて適切に視線を推定し、ひいては視認対象を精度良く推定できる。
以上、本発明の視認対象検知装置について、実施の形態を例として詳細に説明したが、本発明の視認対象検知装置は、上記した実施の形態に限定されるものではない。上記説明では、視認対象推定部13として、第1の実施の形態でSVMモデルを用い、第2の実施の形態でベイジアンネットワークモデルを用いる例を挙げたが、第1の実施の形態の視認対象検知装置1でベイジアンネットワークモデルを用いてもよいし、第2の実施の形態の視認対象検知装置2でSVMモデルを用いてもよい。
また、第2の実施の形態で用いたベイジアンネットワークモデルに代えて、ガウシアンネットワークやマルコフチェーン、隠れマルコフモデル等のノード間の関係が確率伝搬で表現されたネットワークモデルを用いてもよい。
1、2 視認対象検知装置
10 カメラ
11 顔向き検知部
12 視線検知部
13 視認対象推定部
14 出力部
15 SVMモデル記憶部
16 ベイジアンモデル記憶部
20 ノイズフィルタ
21 評価部
22 決定部
30 確率分布化部
31 ベイジアンネット推定部

Claims (11)

  1. 運転者を撮影するカメラと、
    前記カメラにて撮影した画像から運転者の顔向きを検知する顔向き検知部と、
    前記カメラにて撮影した画像から運転者の視線を検知する視線検知部と、
    視線または顔向きから運転者が視認している視認対象を推定する視認対象推定部と、
    前記視認対象推定部にて推定した視認対象を示す情報を出力する出力部と、
    を備え、
    前記視認対象推定部は、前記視線検知部にて検知した視線の検知精度が所定の閾値以上の場合には、前記視線検知部にて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向き検知部にて検知した顔向きに基づいて視認対象の推定を行う視認対象検知装置。
  2. 前記視認対象推定部は、顔向きと視線と視認対象とをノードとし、顔向きと視認対象、視線と視認対象の関係が確率伝搬で表現されたネットワークのモデルを記憶部から読み出し、
    顔向きから視認対象を推定する場合には、視線のノードにはエビデンスを入力せず、顔向きのノードに検知された顔向きのデータを入力し、視線から視認対象を推定する場合には、顔向きのノードにはエビデンスを入力せず、視線のノードに検知された視線のデータを入力することにより注視対象を推定する請求項1に記載の視認対象検知装置。
  3. 前記視認対象推定部は、前記視線の検知精度が所定の閾値より小さい場合には、顔向きと視線に基づいて視認対象の推定を行う請求項1に記載の視認対象検知装置。
  4. 運転者を撮影するカメラと、
    前記カメラにて撮影した画像から運転者の顔向きを検知する顔向き検知部と、
    前記カメラにて撮影した画像から運転者の視線を検知する視線検知部と、
    顔向きから運転者の視線を推定する視線推定部と、
    視線から運転者が視認している視認対象を推定する視認対象推定部と、
    前記視認対象推定部にて推定した視認対象を示す情報を出力する出力部と、
    を備え、
    前記視認対象推定部は、前記視線検知部にて検知した視線の検知精度が所定の閾値以上の場合には、前記視認対象推定部が前記視線検知部にて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向き検知部にて検知した顔向きから視線を推定し、前記視線推定部にて推定した視線に基づいて視認対象の推定を行う視認対象検知装置。
  5. 前記視認対象推定部は、顔向きと視線と視認対象とをノードとし、顔向きと視線、視線と視認対象の関係が確率伝搬で表現されたネットワークのモデルを記憶部から読み出し、
    顔向きから視認対象を推定する場合には、顔向きのノードに検知された顔向きのデータを入力し、視線から視認対象を推定する場合には、顔向きのノードにはエビデンスを入力せず、視線のノードに検知された視線のデータを入力することにより注視対象を推定する請求項4に記載の視認対象検知装置。
  6. 前記視認対象推定部は、前記視線検知部にて検知した視線の検知精度が所定の閾値より小さい場合に、前記顔向き検知部にて検知した顔向きから推定した視線と前記視線検知部にて検知した視線とに、前記視線検知部による視線の検知精度に基づく重みづけをして運転者の視線を推定し、推定された視線を用いて視認対象を推定する請求項4に記載の視認対象検知装置。
  7. 前記カメラは、運転者を正面から撮影する単一のカメラである請求項1乃至6のいずれかに記載の視認対象検知装置。
  8. 視認対象検知装置によって運転者が視認している視認対象を検知する方法であって、
    前記視認対象検知装置が、カメラにて運転者を撮影するステップと、
    前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の顔向きを検知するステップと、
    前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の視線を検知するステップと、
    前記視認対象検知装置が、視線または顔向きから運転者が視認している視認対象を推定するステップと、
    前記視認対象検知装置が、前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップと、
    を備え、
    前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視認対象の推定を行う視認対象検知方法。
  9. 視認対象検知装置によって運転者が視認している視認対象を検知する方法であって、
    前記視認対象検知装置が、カメラにて運転者を撮影するステップと、
    前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の顔向きを検知するステップと、
    前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の視線を検知するステップと、
    前記視認対象検知装置が、顔向きから運転者の視線を推定するステップと、
    前記視認対象検知装置が、視線から運転者が視認している視認対象を推定するステップと、
    前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップと、
    を備え、
    前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視線の推定を行い、推定された視線に基づいて視認対象の推定を行う視認対象検知方法。
  10. 運転者が視認している視認対象を検知するためのプログラムであって、コンピュータに、
    カメラにて撮影した運転者の画像データを入力するステップと、
    前記画像データに基づいて運転者の顔向きを検知するステップと、
    前記画像データに基づいて運転者の視線を検知するステップと、
    視線または顔向きから運転者が視認している視認対象を推定するステップと、
    前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップと、
    を実行させ、
    前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視認対象の推定を行うプログラム。
  11. 運転者が視認している視認対象を検知するためのプログラムであって、コンピュータに、
    カメラにて撮影された運転者の画像データを入力するステップと、
    前記画像データに基づいて運転者の顔向きを検知するステップと、
    前記画像データに基づいて運転者の視線を検知するステップと、
    顔向きから運転者の視線を推定するステップと、
    視線から運転者が視認している視認対象を推定するステップと、
    前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップと、
    を備え、
    前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視線の推定を行い、推定された視線に基づいて視認対象の推定を行うプログラム。
JP2017228599A 2017-11-29 2017-11-29 視認対象検知装置、視認対象検知方法、およびプログラム Active JP7019394B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017228599A JP7019394B2 (ja) 2017-11-29 2017-11-29 視認対象検知装置、視認対象検知方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017228599A JP7019394B2 (ja) 2017-11-29 2017-11-29 視認対象検知装置、視認対象検知方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019101520A true JP2019101520A (ja) 2019-06-24
JP7019394B2 JP7019394B2 (ja) 2022-02-15

Family

ID=66973654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017228599A Active JP7019394B2 (ja) 2017-11-29 2017-11-29 視認対象検知装置、視認対象検知方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7019394B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166791A1 (ja) * 2020-02-21 2021-08-26 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム
JP2008146356A (ja) * 2006-12-11 2008-06-26 Nissan Motor Co Ltd 視線方向推定装置及び視線方向推定方法
JP2015102498A (ja) * 2013-11-27 2015-06-04 株式会社デンソー 視認領域推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム
JP2008146356A (ja) * 2006-12-11 2008-06-26 Nissan Motor Co Ltd 視線方向推定装置及び視線方向推定方法
JP2015102498A (ja) * 2013-11-27 2015-06-04 株式会社デンソー 視認領域推定装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166791A1 (ja) * 2020-02-21 2021-08-26 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP7019394B2 (ja) 2022-02-15

Similar Documents

Publication Publication Date Title
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
EP3185211B1 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
KR20160108388A (ko) 복수의 광원들과 센서들을 사용한 눈 시선 검출
Qiao et al. A smartphone-based driver fatigue detection using fusion of multiple real-time facial features
EP4009287A1 (en) Devices and methods for monitoring drivers of vehicles
KR102037417B1 (ko) 홍채 영상 촬영 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 홍채 영상 촬영 장치
US11455810B2 (en) Driver attention state estimation
JP6213435B2 (ja) 注意過多状態判定装置及び注意過多状態判定プログラム
JP7019394B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
Lollett et al. A Robust Driver’s Gaze Zone Classification using a Single Camera for Self-occlusions and Non-aligned Head and Eyes Direction Driving Situations
Bisogni et al. IoT-enabled biometric security: enhancing smart car safety with depth-based head pose estimation
WO2023108364A1 (zh) 驾驶员状态检测方法、装置及存储介质
JP2017138645A (ja) 視線検出装置
US9818040B2 (en) Method and device for detecting an object
US20220301185A1 (en) Information processing apparatus, information processing method, and storage medium for estimating movement amount of moving object
JP6169446B2 (ja) 視線検出装置
JP7072491B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
JP6468755B2 (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
WO2022234632A1 (ja) 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法
US20140126776A1 (en) Eyelid detection device, eyelid detection method, and recording medium
EP4160552A1 (en) Triggering a head-pose dependent action
US20240153136A1 (en) Eye tracking
WO2024095362A1 (ja) 情報処理システム、情報処理装置、情報処理方法、および記録媒体
Saranya et al. An Improved Driver Drowsiness Detection using Haar Cascade Classifier
JP2022161318A (ja) 顔認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220202

R150 Certificate of patent or registration of utility model

Ref document number: 7019394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150