JP4826506B2 - 視線推定装置 - Google Patents
視線推定装置 Download PDFInfo
- Publication number
- JP4826506B2 JP4826506B2 JP2007047424A JP2007047424A JP4826506B2 JP 4826506 B2 JP4826506 B2 JP 4826506B2 JP 2007047424 A JP2007047424 A JP 2007047424A JP 2007047424 A JP2007047424 A JP 2007047424A JP 4826506 B2 JP4826506 B2 JP 4826506B2
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- gaze
- line
- sight
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
Description
本発明を適用した視線推定装置1は、例えば図1に示すような車載システムで利用される。
図2は、本発明を適用した視線推定装置1内部の機能構成及び各構成要素間でのデータの流れを示すデータフロー図である。
図3は、本発明を適用した視線推定装置1における処理の概要を説明するフローチャートである。本発明を適用した視線推定装置1は、図3のフローチャートで示す処理を所定周期で繰り返し行って、視線信号や注視方向信号を随時出力する。
車両運転者Dの顔画像から特徴部位を検出するには、例えば、顔画像データに対してエッジ検出処理やグラフマッチング処理などの画像処理を行い、顔画像上で濃度変化が大きく現われる点、例えば、左右の目(上瞼や下瞼、目頭、目じりなど)、左右の眉、左右の輪郭、鼻孔、口裂などを特徴部位として検出すればよい。
車両運転者Dの顔向きを推定は、例えば、顔画像に対する画像処理で検出した複数の特徴部位の位置関係をもとに、顔の左右の対称性を評価することによって推定できる。すなわち、人の顔は一般的に左右対称に近い形状をしており、顔が回転することによって顔の特徴部位の見かけの位置がずれて対称性に歪が生じる。したがって、これを評価することで顔向きを推定することが可能である。
本発明を適用した視線推定装置1では、図4に示す手法により、車両運転者Dの瞳の位置を検出する。
P(cx,cy,pr)=C(cx,cy,pr)×D(cx,cy,pr)
まず、顔画像から特徴部位として検出された目の座標データをもとに、顔画像から目の周囲の領域を切り出して目の周囲元画像Goとして使用する。切り出す範囲(横sw, 縦sh)は、目の座標データに目頭、目じりの位置が含まれている場合は、この座標を元に算出することが望ましいが、カメラ2の設置位置と画角によって、運転者の顔の位置と撮像される顔のサイズはある程度の予測が可能であるので、固定値としてもかまわない。
次に、2値画像G2に対して、低輝度領域として抽出される領域ごとにラベリングを行う。そして、画像の中央付近にあるラベルを探索する。このラベルの探索は、図7に示すように、画像の中央から放射状に行うものとする。これにより画像中央付近のラベルの付いた領域(図7中の(c)の領域)が探索される。そして、図8に示すように、この画像中央付近のラベルの付いた領域の上端のエッジラインを抽出することで上瞼の候補ラインとする。なお、上述した顔の特徴部位の検出処理において、目頭・目じりが検出対象として含まれていない場合は、このラインの両端を目頭、目じりと仮定し、目の特徴点として検出する。これらの情報は、瞳は上瞼より下に存在するため、瞳の検出範囲を上瞼の候補ラインの下に限定するために用いることができる。
次に、目の周囲画像から瞳の位置を検出するための方法として、画像中の任意の座標(cx,cy)に瞳の候補である円の中心があると仮定し、この座標(cx,cy)を中心とする円形領域に対し評価関数を適応する。図9に示すように、画像中全ての点を円の中心であると仮定して評価を行い、画像中で評価結果の高い位置を瞳の可能性の高い位置として特定する。
低輝度領域を表す2値画像G2および仮想背景画像Gbを用いて、円形フィッティングを行う。
if d < r1 : s=s+p×(1−q/255)
else if d > r2 : s=s−p×(1−q/255)
D(cx,cy)=s/(π(pr)2)
低輝度領域の抽出結果である2値画像G2のエッジ部分の円形状へのフィッティングを行い、これを評価する。
cosθ=v1・v2/(|v1||v2|)
t=t+cosθ
C(cx,cy)=t/(π(r2)2−π(r1)2)
実際にエッジ情報から求められる法線ベクトルおよび評価結果の一例を図13に示す。
以上のように求めた暗さを評価する評価関数Dの結果と円形状を評価する評価関数Cの結果とを用い、図14に示すように、これら評価関数Dおよび評価関数Cの結果の積算値Pを得ることで、低輝度でかつ円形の領域、つまり瞳の可能性の高い位置を特定することができる。ここで、瞳は上瞼の下に位置するので、図15に示すように、2値画像G2から抽出した上端エッジ(上瞼候補ライン)の下にある積算値Pが最大の位置を瞳の位置として決定する。
図16は、カメラ2を基準とした車両運転者Dの視線方向を推定する視線方向推定部15の詳細を示すデータフロー図である。視線方向推定部15は、図16に示すように、顔向き・位置データおよび目特徴点の座標データ(少なくとも目頭、目じり、瞳の中心を含む)を入力とし、画像上の見かけの視線方向を示す目向きデータを出力する見かけの視線推定部15aと、顔向き・位置データ、目特徴座標データ、カメラパラメータ(少なくともカメラ2の画角と車両進行方向に対する向きを含む)および目向きデータを入力とし、カメラ基準の視線データを出力するカメラ補正部15bとからなる。
図17は、目頭、目じり、瞳の中心の3点の見かけの座標と、眼球の断面を上から見た場合の各点の位置との関係、眼球の断面を横から見た場合の各点の位置との関係を示す図である。
まず、目の特徴点として検出された目頭、目じり、瞳の中心の3点から、左右方向の眼球回転角ψyを推定する方法を以下に説明する。
a=Ax−Ox=r sin(θy+ω)
Ox=Ax−r sin(θy+ω) ・・・(1)
b=Bx−Ox=r sin(θy−ω)
Ox=Bx−r sin(θy−ω) ・・・(2)
(1)=(2)より、
Ax−Bx=r{sin(θy+ω)−sin(θy−ω)}
r=(Ax−Bx)/{sin(θy+ω)−sin(θy−ω)} ・・・(3)
p=Px−Ox=r sin(θy+ψy)
(1)より、
Px−Ax−r sin(θy+ω)=r sin(θy+ψy)
sin(θy+ψy)=(Px−Ax)/r+sin(θy+ω)
(3)より、
sin(θy+ψy)=sin(θy+ω)−{sin(θy+ω)−sin(θy−ω)}(Px−Ax)/(Bx−Ax)
次に、上下方向の眼球回転角ψxを推定する方法について説明する。
c=Cy−Oy=r sinθx
Oy=Cy−r sinθx ・・・(4)
p=Py−Oy=r sin(θx+ψx)
(4)より、
Py−Cy+r sinθx=r sin(θx+ψx)
sin(θx+ψx)=(Py−Cy)/r+sinθx
眼球半径rは式(3)にて算出済みであるから、
sin(θx+ψx)=sinθx−{sin(θy+ω)−sin(θy−ω)} (Py−Cy)/(Bx−Ax)
視線方向は、顔向き(θy,θx)と目向き(ψy,ψx)とを合成した方向として捉えられる。ここで、前項までに求めた顔向き(θy,θx)や目向き(ψy,ψx)は、画像上の見かけの回転角であるため、視線方向が同じ方向であっても、カメラ2の撮像位置によっては実際の向きは異なっている。このため、カメラ2の撮像位置に応じた画像上の見かけの角度を補正する必要がある。
θyd=arctan(2 Fx tan(φy/2)/w)−σy
θxd=arctan(2 Fy tan(φx/2)/h)−σx
ψyd=arctan(2 Ex tan(φy/2)/w)−σy
ψxd=arctan(2 Ey tan(φx/2)/h)−σx
以上の処理で得られる視線データ(θy’+ψy’,θx’+ψx’)は、顔の左右対称性や平均的な運転姿勢などを前提とし、カメラを基準として一般的に正面と捉えられる方向を視線方向の基準となる正面方向とした視線データである。このため、この視線データ(θy’+ψy’,θx’+ψx’)は、車両運転者Dごとの個人差や運転環境に応じた姿勢変化などは考慮されておらず、実際の車両運転者Dの視線方向とは必ずしも一致していない。そこで、本発明を適用した視線推定装置1では、基準正面推定部16で車両運転者Dが正面と認識していると仮定される基準正面を推定し、この基準正面の推定結果を用いてカメラ基準の視線方向(θy’+ψy’,θx’+ψx’)を補正するようにしている。
ところで、車両運転中の運転者Dの基準正面は、車両の走行状態によって変化する。例えば、車両運転者Dが将来(n秒後)に到達する位置を推定して視線を送っていると仮定すると、直進時、右旋回時、左旋回時によって、図23に示すように、基準正面が変化することがわかる。
本発明を適用した視線推定装置1では、上述したように、車両運転者Dの顔画像を画像処理することで顔の回転角と目の回転角とを合成したカメラ基準の視線方向を求め、このカメラ基準の視線方向を、車両運転者Dが正面と認識していると仮定される基準正面を用いて補正することにより、車両運転者Dごとの個人差や運転環境に応じた姿勢変化なども考慮した正確な視線方向を求めるようにしている。具体的には、視線方向補正部17において、視線方向推定部15より出力された視線データ(θ'y+ψ'x,θ'x+ψ'y)から、基準正面推定部16で推定された基準正面(ξy,ξx)を減じることで視線方向を補正し、その結果を視線信号として視線推定装置1の出力としている。
本発明を適用した視線推定装置1は、以上のような視線信号を出力する機能のほか、注視方向推定部18において車両運転者Dの注視状態を推定し、その注視方向を注視方向信号として出力する機能も有している。注視方向推定部18は、簡易的には正面および左右の識別結果を注視方向信号として出力するが、注視方向が特定の注視対象の方向と推定できる場合には、その注視方向と注視時間とを出力する。
正面および左右の識別は、まず、基準正面推定部16で推定された基準正面を中心とした所定の範囲を設定し、視線方向推定部15で推定された視線方向がこの設定した範囲内であるか否かを識別するといった手法で行う。すなわち、注視方向推定部18は、図27に示すように、基準正面(度数分布の最大値)を中心とした横方向の所定角度の幅を、正面方向とする幅として設定する。そして、視線方向推定部15で推定された視線方向が、この正面方向として設定した範囲内であれば視線方向が正面であると判定し、この範囲よりも右側であれば視線が右に変化したと判定し、この範囲よりも左側であれば視線が左に変化したと判定して、その結果を注視方向信号として出力する。なお、正面方向として設定する幅は、例えば、基準正面を示す度数分布の最大値の半値をとる位置(角度)を基準として設定するようにしてもよいし、また、予め定めた規定値を用いて設定してもよい。
注視対象の特定には、基準正面推定部16で基準正面を推定する際に用いた度数分布データを利用する。例えば、車両運転者Dが正面以外に右ドアミラー、左ドアミラー、ルームミラー、ナビゲーション画面、ナビゲーション操作部をそれぞれ3秒程度注視した場合の視線データを2次元にプロットすると、図28のような視線分布が得られる。このときの視線データの横方向の視線成分を度数分布として表すと図29のようになる。
以上説明したように、本発明を適用した視線推定装置1では、車両運転者Dの顔特徴部位の位置関係から把握される顔の回転角(顔向き)と、瞳位置を含む目の特徴点の位置関係から把握される目の回転角(目向き)とからカメラ基準の視線方向を推定し、これを基準正面で補正して出力している。ここで、視線方向の推定に用いる目向きは、車両運転者Dの右目と左目のどちらでもよいが、車両運転者Dの顔の位置の移動、光の影響により、一方の目が他の顔部位により隠蔽されたり、顔が撮像範囲外に出たり、影の影響により撮像できないといった場面が存在する。このため、視線方向の推定に用いる目は、顔向きや位置の移動、顔特徴部位の検出の状態などに応じて、適宜切り替えられるようにすることが望ましい。以下、この視線方向の推定に用いる目を切り替える基準の一例について説明する。
まず、予め登録した車両運転者Dの個人情報などから車両運転者Dの利き目が分かっている場合には、車両運転者Dの右目と左目の双方の目の瞳位置が検出可能であれば、利き目を対象とした瞳位置の検出結果を用いて視線方向を推定することが望ましい。車両運転者Dの利き目は、物を見るときに主となる目であるので、この利き目を対象とした瞳位置の検出結果を用いて視線方向を推定することで、視線推定の精度を向上させることができる。
また、車両運転者Dの右目と左目の直近の一定期間の間における瞳位置の検出結果を記憶しておいて、検出率が高い方の目を対象とした瞳位置の検出結果を用いて視線方向を推定するようにしてもよい。このように、瞳位置の検出率が高い方の目を対象とした検出結果を用いて視線方向を推定することで、例えば、強い斜光により片方の瞳しか検出できないような場面においても、視線方向を安定して推定できる。また、現在、瞳位置が検出できている方の目を対象とした検出結果を用いて視線方向を推定するようにしても、同様の効果が期待できる。
また、車両運転者Dの右目と左目の双方の目の瞳位置が検出できている場合には、右目の瞳位置の検出結果を用いた視線方向の推定と、左目の瞳位置の検出結果を用いた視線方向の推定との双方を行うようにしてもよい。この場合、視線方向の推定結果として2つの結果が得られるが、これらの視線方向の推定結果の安定度合いをそれぞれ評価して、安定度合いの評価値に差があれば評価値の高い方の視線方向を選択して推定結果として出力し、安定度合いの評価値が同程度であれば双方の視線方向の平均値を推定結果として出力すればよい。視線方向推定結果の安定度合いを評価する手法としては、例えば、上述した度数分布により求めた基準正面の存在するピークの尖度を比較して、より尖った方が安定度合いが高いと評価するといった手法が考えられる。このように、視線方向推定結果の安定度合いを考慮することで、突発的なノイズの影響などを有効に抑制することが可能となる。
また、車両運転者Dの顔向きの推定結果に基づいて右目と左目の隠蔽度合いを評価し、隠蔽の可能性が低い方の目を優先して瞳位置の検出を行い、その検出結果を用いて視線方向の推定を行うようにしてもよい。すなわち、顔が右を向くもしくは顔の位置が右へ動くと右目が隠蔽される可能性が高く、逆に、顔が左を向くもしくは顔の位置が左へ動くと左目が隠蔽される可能性が高くなる。このため、顔の向き、顔の位置に閾値を設けて、右目、左目のいずれか一方の目を利用するように切り替えを行う。このように、顔の位置、向き、移動方向によって、隠蔽の可能性の少ない方の瞳の検出を優先して行って、その結果を視線方向の推定に用いるようにすれば、瞳位置の検出をより確実に行うことができ、視線推定の精度を向上させることができる。
車両運転者Dが眼鏡やサングラスを着用している場合には、眼鏡の映り込みなどにより両目ともに瞳の位置が検出できない場合がある。このような場合には、目の向きを推定できないので、顔の向きの情報のみから視線方向を推定する。このときの視線方向の推定結果は精度が劣るが、視線方向の推定処理を中断させることなく、眼鏡の映り込みなどが解消されて精度のよい推定が行われるまで、処理を継続させることが可能となる。
以上、具体的な例を挙げながら詳細に説明したように、本発明を適用した視線推定装置1によれば、車両運転者Dの顔画像から顔向きと目向きを検出してカメラ2を基準とした視線方向を推定するとともに、このカメラ2を基準とした視線方向の時系列変化から車両運転者Dが正面と認識していると仮定される基準正面、つまり個々の車両運転者Dにとって視線の基準となる基準正面を推定し、この基準正面を用いてカメラ2を基準とした視線方向を補正した上で視線信号として出力するようにしているので、車両運転者Dごとの個人差や運転環境に応じた運転姿勢の変化などに拘わらず、車両運転者Dの視線を常に精度良く推定することができる。
2 カメラ
11 顔画像取得部
12 顔特徴検出部
13 顔向き推定部
14 瞳検出部
15 視線方向推定部
16 基準正面推定部
17 視線方向補正部
18 注視方向推定部
Claims (17)
- 車両運転者の顔を被写体として時系列に映像を撮影するカメラからの映像信号をフレーム単位の顔画像として取得する顔画像取得手段と、
前記顔画像取得手段で取得された顔画像を画像処理して、車両運転者の顔の複数の特徴部位を検出する顔特徴検出手段と、
前記顔特徴検出手段で検出された複数の特徴部位の位置関係に基づいて、車両運転者の顔向きを推定する顔向き推定手段と、
前記顔画像取得手段で取得された顔画像の中の目の周囲の画像を切り出して画像処理を行い、少なくとも瞳の位置を含む目の特徴点を検出する瞳検出手段と、
前記顔向き推定手段の推定結果と前記瞳検出手段の検出結果とに基づいて、前記カメラを基準とした車両運転者の視線方向を推定する視線方向推定手段と、
前記視線方向推定手段による推定結果を所定回数分蓄積して度数分布を作成し、前記度数分布に基づいて最も視線が集中している方向を、車両運転者が正面として認識していると仮定される基準正面として推定する基準正面推定手段と、
前記基準正面推定手段による推定結果を用いて前記視線方向推定手段の推定結果を補正する視線方向補正手段とを備えることを特徴とする視線推定装置。 - 前記瞳検出手段は、前記顔画像から切り出した目の周囲の画像に対して低輝度部分の評価と円形部分の評価の少なくとも一方を行い、最も評価が高くなる位置を瞳の位置として検出することを特徴とする請求項1に記載の視線推定装置。
- 前記瞳検出手段は、前記顔画像から切り出した目の周囲の画像において輝度値が所定値以下の低輝度部分を抽出して、抽出した低輝度部分から瞳の位置を検出することを特徴とする請求項2に記載の視線推定装置。
- 前記瞳検出手段は、前記低輝度部分のうちで画像中央付近に位置する低輝度部分の上端エッジを上瞼の候補ラインとし、当該上瞼の候補ラインの下方の領域を対象として瞳の位置を検出することを特徴とする請求項3に記載の視線推定装置。
- 前記瞳検出手段は、前記上瞼の候補ラインの一端を目頭、他端を目じりとして検出することを特徴とする請求項4に記載の視線推定装置。
- 前記視線方向推定手段は、前記顔向き推定手段の推定結果と、前記瞳検出手段により検出された目の特徴点の位置関係とに基づいて見かけの視線方向を推定し、当該見かけの視線方向に対してカメラパラメータを用いた補正を行って前記カメラを基準とした車両運転者の視線方向を推定することを特徴とする請求項1に記載の視線推定装置。
- 前記視線方向推定手段は、さらに、目のパラメータとして目の横方向の眼裂角を用いて見かけの視線方向を推定することを特徴とする請求項6に記載の視線推定装置。
- 前記視線方向推定手段は、前記カメラの設置位置に起因する見かけの視線方向と、前記カメラのレンズの画角内のどの位置で車両運転者の顔又は特徴部位が撮影されるかに起因する見かけの視線方向との双方を、少なくとも車両運転者の顔の位置及びその向きと、目の位置及びその向きと、前記カメラのレンズの画角と、前記カメラの基準面に対する向きとに基づいて補正することを特徴とする請求項6に記載の視線推定装置。
- 前記基準正面推定手段が作成した前記度数分布を用いて、前記基準正面以外に視線が集中している方向を注視対象が存在する方向と推定するとともに、前記視線方向推定手段で推定された視線方向が前記注視対象が存在する方向に集中したときに、その方向を車両運転者の注視方向と推定する第1の注視方向推定手段をさらに備えることを特徴とする請求項1に記載の視線推定装置。
- 前記基準正面推定手段で推定された基準正面を中心とした所定の範囲を設定し、前記視線方向推定手段で推定された視線方向が前記基準正面を中心とした所定の範囲内であるか否かを識別する第2の注視方向推定手段をさらに備えることを特徴とする請求項1に記載の視線推定装置。
- 前記視線方向推定手段は、前記瞳検出手段が瞳の位置を検出できない場合に、前記顔向き推定手段の推定結果に基づいて前記カメラを基準とした車両運転者の視線方向を推定することを特徴とする請求項1に記載の視線推定装置。
- 前記視線方向推定手段は、車両運転者の左右の目のうち、直近の一定期間の間で前記瞳検出手段による瞳の位置の検出率が高い方の目、又は、現在、前記瞳検出手段により瞳の位置が検出できている方の目を対象とした前記瞳検出手段の検出結果を用いて、前記カメラを基準とした車両運転者の視線方向を推定することを特徴とする請求項1に記載の視線推定装置。
- 前記視線方向推定手段は、前記瞳検出手段により車両運転者の左右双方の目の瞳の位置が検出されている場合に、右目の瞳の位置を用いた視線方向と左目の瞳の位置を用いた視線方向とをそれぞれ推定して双方の視線方向の安定度合いを評価し、安定度合いの評価値に差があれば評価値の高い方の視線方向を選択して推定結果として出力し、安定度合いの評価値が同程度であれば双方の視線方向の平均値を推定結果として出力することを特徴とする請求項1に記載の視線推定装置。
- 前記視線方向推定手段は、前記瞳検出手段により車両運転者の左右双方の目の瞳の位置が検出可能な場合に、車両運転者の利き目を対象とした前記瞳検出手段の検出結果を用いて、前記カメラを基準とした車両運転者の視線方向を推定することを特徴とする請求項1に記載の視線推定装置。
- 前記瞳検出手段は、前記顔向き推定手段の推定結果に基づいて車両運転者の左右の目の隠蔽度合いを評価し、隠蔽の可能性が低い方の目を優先して瞳の位置を検出することを特徴とする請求項1に記載の視線推定装置。
- 車両信号及び/又は車両周辺情報から現在の車両の走行状態を判定する走行状態判定手段をさらに備え、
前記基準正面推定手段は、前記走行状態判定手段により現在の車両の走行状態が旋回走行であると判定され、且つ、前記視線方向推定手段により推定された視線方向が変化したときに、現在の視線方向の変化量、又は、過去の同様の旋回走行状態のときの視線方向の変化量に基づいて、前記視線方向推定手段による推定結果の時系列変化に基づいて推定した基準正面を補正することを特徴とする請求項1に記載の視線推定装置。 - 車両信号及び/又は車両周辺情報から今後の車両の走行状態を予測する走行状態予測手段をさらに備え、
前記基準正面推定手段は、前記走行状態予測手段により今後の車両の走行状態が旋回走行となることが予測され、且つ、前記視線方向推定手段により推定された視線方向が変化したときに、現在の視線方向の変化量、又は、過去の同様の旋回走行状態のときの視線方向の変化量に基づいて、前記視線方向推定手段による推定結果の時系列変化に基づいて推定した基準正面を補正することを特徴とする請求項1に記載の視線推定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007047424A JP4826506B2 (ja) | 2007-02-27 | 2007-02-27 | 視線推定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007047424A JP4826506B2 (ja) | 2007-02-27 | 2007-02-27 | 視線推定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008210239A JP2008210239A (ja) | 2008-09-11 |
JP4826506B2 true JP4826506B2 (ja) | 2011-11-30 |
Family
ID=39786468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007047424A Expired - Fee Related JP4826506B2 (ja) | 2007-02-27 | 2007-02-27 | 視線推定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4826506B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11983896B2 (en) | 2018-10-09 | 2024-05-14 | Mitsubishi Electric Corporation | Line-of-sight detection apparatus and line-of-sight detection method |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010134489A (ja) * | 2008-12-02 | 2010-06-17 | Omron Corp | 視線検出装置および方法、並びに、プログラム |
JP4915413B2 (ja) * | 2008-12-03 | 2012-04-11 | オムロン株式会社 | 検出装置および方法、並びに、プログラム |
JP5128454B2 (ja) * | 2008-12-17 | 2013-01-23 | アイシン精機株式会社 | 瞼検出装置、瞼検出方法及びプログラム |
JP5272819B2 (ja) * | 2009-03-13 | 2013-08-28 | オムロン株式会社 | 情報処理装置及び方法、並びにプログラム |
JP5353416B2 (ja) * | 2009-04-27 | 2013-11-27 | トヨタ自動車株式会社 | ドライバ状態監視装置及び車両制御装置 |
JP5397103B2 (ja) * | 2009-09-03 | 2014-01-22 | アイシン精機株式会社 | 顔位置検出装置、顔位置検出方法及びプログラム |
JP5503432B2 (ja) * | 2009-10-02 | 2014-05-28 | 花王株式会社 | 美容カウンセリングシステム |
JP5297415B2 (ja) | 2010-04-30 | 2013-09-25 | キヤノン株式会社 | 眼科装置及び眼科方法 |
JP5618686B2 (ja) | 2010-08-03 | 2014-11-05 | キヤノン株式会社 | 視線検出装置、視線検出方法及びプログラム |
JP5641813B2 (ja) | 2010-08-17 | 2014-12-17 | キヤノン株式会社 | 撮像装置及び撮像方法、画像処理装置及び画像処理方法 |
JP5755012B2 (ja) | 2011-04-21 | 2015-07-29 | キヤノン株式会社 | 情報処理装置、その処理方法、プログラム及び撮像装置 |
JP6316559B2 (ja) * | 2013-09-11 | 2018-04-25 | クラリオン株式会社 | 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム |
JP6187155B2 (ja) * | 2013-10-28 | 2017-08-30 | 株式会社デンソーアイティーラボラトリ | 注視対象物推定装置 |
JPWO2015136908A1 (ja) | 2014-03-13 | 2017-04-06 | パナソニックIpマネジメント株式会社 | 視線検出装置 |
KR101628493B1 (ko) * | 2014-10-10 | 2016-06-21 | 현대자동차주식회사 | 안경 착용자의 시선 추적 장치 및 그 방법 |
KR101710007B1 (ko) * | 2015-06-26 | 2017-02-24 | 성균관대학교산학협력단 | 운전자의 운전행위를 언어적으로 모델링하여 인식하는 방법 및 이를 수행하는 시스템 |
JP6533707B2 (ja) * | 2015-07-15 | 2019-06-19 | 日立オートモティブシステムズ株式会社 | 運転状態監視方法,装置,およびそれを備えた車両 |
JP5913709B1 (ja) * | 2015-09-29 | 2016-04-27 | 株式会社コロプラ | 画像生成装置、画像生成方法、及び画像生成プログラム |
US20190143989A1 (en) * | 2016-05-11 | 2019-05-16 | Sony Corporation | Image processing device, image processing method, and movable body |
JP2019535089A (ja) * | 2016-08-19 | 2019-12-05 | マサチューセッツ インスティテュート オブ テクノロジー | 視覚配分管理を提供するシステムおよび方法 |
JP6880615B2 (ja) * | 2016-09-22 | 2021-06-02 | 株式会社デンソー | ドライバ状態判定装置及び運転支援システム |
JP2018097398A (ja) | 2016-12-07 | 2018-06-21 | トヨタ自動車株式会社 | 視線推定システム |
JP2019017988A (ja) * | 2017-07-18 | 2019-02-07 | 富士通株式会社 | 視線位置検出プログラム、視線位置検出装置及び視線位置検出方法 |
JP6683185B2 (ja) * | 2017-11-15 | 2020-04-15 | オムロン株式会社 | 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム |
JP6693489B2 (ja) * | 2017-11-15 | 2020-05-13 | オムロン株式会社 | 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム |
JP6711346B2 (ja) * | 2017-12-13 | 2020-06-17 | オムロン株式会社 | 状態推定装置とその方法およびプログラム |
JP7066541B2 (ja) * | 2018-06-19 | 2022-05-13 | 本田技研工業株式会社 | 制御装置および制御方法 |
US20220036581A1 (en) | 2018-09-26 | 2022-02-03 | Nec Corporation | Estimation device, estimation method, and storage medium |
JP7146585B2 (ja) * | 2018-11-13 | 2022-10-04 | 本田技研工業株式会社 | 視線検出装置、プログラム、及び、視線検出方法 |
JP6887578B2 (ja) * | 2019-02-06 | 2021-06-16 | 三菱電機株式会社 | 情報処理装置、プログラム及び情報処理方法 |
JP7344051B2 (ja) * | 2019-08-30 | 2023-09-13 | ダイハツ工業株式会社 | 情報表示システム |
JP6717477B1 (ja) * | 2019-09-13 | 2020-07-01 | 株式会社スワローインキュベート | 画像処理方法、画像処理装置、及び画像処理プログラム |
JP6725121B1 (ja) * | 2019-11-13 | 2020-07-15 | 株式会社スワローインキュベート | 視線検出方法、視線検出装置、及び制御プログラム |
KR20210109275A (ko) | 2020-02-27 | 2021-09-06 | 삼성전자주식회사 | 사용자의 관심 객체를 예측하는 방법 및 장치 |
JP6757949B1 (ja) * | 2020-05-28 | 2020-09-23 | 株式会社スワローインキュベート | 画像処理方法、画像処理装置、及び画像処理プログラム |
JP6994704B1 (ja) | 2020-12-22 | 2022-01-14 | 株式会社スワローインキュベート | 虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム |
JP2022136843A (ja) * | 2021-03-08 | 2022-09-21 | 本田技研工業株式会社 | 較正装置及び較正方法 |
CN114189612B (zh) * | 2021-11-18 | 2023-08-11 | 深圳市锐明技术股份有限公司 | 摄像头的安装角度确定方法、装置及终端设备 |
WO2023144951A1 (ja) * | 2022-01-27 | 2023-08-03 | 三菱電機株式会社 | 乗員状態検知装置および乗員状態検知方法 |
CN115914583B (zh) * | 2023-02-28 | 2023-06-02 | 中国科学院长春光学精密机械与物理研究所 | 基于视觉识别的老人监控设备及监控方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0761257A (ja) * | 1993-08-26 | 1995-03-07 | Nissan Motor Co Ltd | 車両用表示装置 |
JP4342708B2 (ja) * | 2000-09-06 | 2009-10-14 | 本田技研工業株式会社 | ドライバの視線領域の適合性を判定する車載情報処理装置 |
JP3797253B2 (ja) * | 2002-03-14 | 2006-07-12 | 日産自動車株式会社 | 視線方向検出装置 |
-
2007
- 2007-02-27 JP JP2007047424A patent/JP4826506B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11983896B2 (en) | 2018-10-09 | 2024-05-14 | Mitsubishi Electric Corporation | Line-of-sight detection apparatus and line-of-sight detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2008210239A (ja) | 2008-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4826506B2 (ja) | 視線推定装置 | |
EP3488382B1 (en) | Method and system for monitoring the status of the driver of a vehicle | |
CN110167823B (zh) | 用于驾驶员监测的系统和方法 | |
JP4811259B2 (ja) | 視線方向推定装置及び視線方向推定方法 | |
US10521683B2 (en) | Glare reduction | |
AU2015276536B2 (en) | Device, method, and computer program for detecting momentary sleep | |
US7331671B2 (en) | Eye tracking method based on correlation and detected eye movement | |
EP1589485B1 (en) | Object tracking and eye state identification method | |
JP5359266B2 (ja) | 顔認識装置、顔認識方法及び顔認識プログラム | |
EP1933256B1 (en) | Eye closure recognition system and method | |
EP1868139B1 (en) | Spectacles detection method | |
US10311583B2 (en) | Eye motion detection method, program, program storage medium, and eye motion detection device | |
CN113544749A (zh) | 用于在增强现实装置上显示内容的设备和方法 | |
JP4770218B2 (ja) | 視認行動判定装置 | |
US20210374443A1 (en) | Driver attention state estimation | |
JP2010191793A (ja) | 警告表示装置及び警告表示方法 | |
KR20200092739A (ko) | 운전자 상태 모니터링 방법 및 장치 | |
US11161470B2 (en) | Occupant observation device | |
JP7019394B2 (ja) | 視認対象検知装置、視認対象検知方法、およびプログラム | |
CN111696312B (zh) | 乘员观察装置 | |
WO2019159229A1 (ja) | 誤検出判定装置及び誤検出判定方法 | |
KR102038371B1 (ko) | 운전자의 눈 위치 검출 장치 및 방법 | |
Azim et al. | Automatic fatigue detection of drivers through real time eye tracking | |
JP2011095826A (ja) | 眼部検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110419 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110816 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110829 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140922 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |