JP2018004325A - 注視点検出装置、注視点検出方法、注視点検出システム、及び車両 - Google Patents
注視点検出装置、注視点検出方法、注視点検出システム、及び車両 Download PDFInfo
- Publication number
- JP2018004325A JP2018004325A JP2016127979A JP2016127979A JP2018004325A JP 2018004325 A JP2018004325 A JP 2018004325A JP 2016127979 A JP2016127979 A JP 2016127979A JP 2016127979 A JP2016127979 A JP 2016127979A JP 2018004325 A JP2018004325 A JP 2018004325A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- gaze
- gazing point
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】搭乗者が注視している注視点を検出し、利便性を向上させる。【解決手段】注視点検出装置30は、車両3の第1の位置P1、及び第1の位置P1とは異なる、車両3の第2の位置P2において、車両3の搭乗者の目を含む顔をそれぞれ撮像した第1の画像及び第2の画像を取得し、第1の位置P1及び第1の位置P1における車両3の進行方向を含む第1の車両情報と、第2の位置P2及び第2の位置P2における車両3の進行方向を含む第2の車両情報を取得する情報取得部と、第1の画像及び第1の車両情報に基づいて搭乗者の第1の視線方向D1を特定し、第2の画像及び第2の車両情報に基づいて搭乗者の第2の視線方向D2を特定し、第1の位置P1、第1の視線方向D1、第2の位置P2、及び第2の視線方向D2に基づいて注視点を検出するプロセッサと、を備える。【選択図】図2
Description
本発明は、注視点検出装置、注視点検出方法、注視点検出システム、及び車両に関する。
従来、車両を運転している運転者の顔を撮像した画像を用いて、運転者の視線方向を検出する視線方向検出装置が提案されている(例えば、特許文献1)。この視線方向検出装置は、運転者の視線方向と車両の進行方向とに基づいて、運転者のわき見運転を防ぐよう警告を発することにより安全性の向上を図っている。
しかしながら、上述のような従来技術の方法では、運転者のわき見運転を防ぐよう警告を発するために、車両の運転者の視線方向が車両の進行方向と一致しているかを判定している。したがって、搭乗者が、視線方向にある位置のうちいずれの位置を注視しているかを検出することはできない。
したがって、これらの点に着目してなされた本発明の目的は、搭乗者が注視している注視点を検出し、利便性を向上させる注視点検出装置、注視点検出方法、注視点検出システム、及び車両を提供することにある。
上記目的を達成する注視点検出装置は、車両の第1の位置、及び前記第1の位置とは異なる、前記車両の第2の位置において、前記車両の搭乗者の目を含む顔をそれぞれ撮像した第1の画像及び第2の画像を取得し、前記第1の位置及び前記第1の位置における前記車両の進行方向を含む第1の車両情報と、前記第2の位置及び前記第2の位置における前記車両の進行方向を含む第2の車両情報を取得する情報取得部と、前記第1の画像、及び前記第1の車両情報に基づいて前記搭乗者の第1の視線方向を特定し、前記第2の画像、及び前記第2の車両情報に基づいて前記搭乗者の第2の視線方向を特定し、前記第1の位置、前記第1の視線方向、前記第2の位置、及び前記第2の視線方向に基づいて注視点を検出するプロセッサと、を備える。
上記目的を達成する注視点検出方法は、前記注視点検出装置が、車両の第1の位置、及び前記第1の位置とは異なる、前記車両の第2の位置において、前記車両の搭乗者の目を含む顔をそれぞれ撮像した第1の画像及び第2の画像を取得し、前記第1の位置及び前記第1の位置における前記車両の進行方向を含む第1の車両情報と、前記第2の位置及び前記第2の位置における前記車両の進行方向を含む第2の車両情報とを取得するステップと、前記注視点検出装置が、前記第1の画像及び前記第1の車両情報に基づいて前記搭乗者の第1の視線方向を特定し、前記第2の画像及び前記第2の車両情報に基づいて前記搭乗者の第2の視線方向を特定し、前記第1の位置、前記第1の視線方向、前記第2の位置、及び前記第2の視線方向に基づいて注視点を検出するステップと、を含む。
上記目的を達成する注視点検出システムは、車両の第1の位置、及び前記第1の位置とは異なる、前記車両の第2の位置において、前記車両の搭乗者の目を含む顔をそれぞれ撮像した第1の画像及び第2の画像を撮像するカメラと、前記第1の位置及び前記第1の位置における前記車両の進行方向を含む第1の車両情報と、前記第2の位置及び前記第2の位置における前記車両の進行方向を含む第2の車両情報を取得する情報取得部と、前記第1の画像及び前記第1の車両情報に基づいて前記搭乗者の第1の視線方向を特定し、前記第2の画像及び前記第2の車両情報に基づいて前記搭乗者の第2の視線方向を特定し、前記第1の位置、前記第1の視線方向、前記第2の位置、及び前記第2の視線方向に基づいて注視点を検出するプロセッサと、前記プロセッサによって検出された注視点に係る情報を表示する表示装置と、を備える。
上記目的を達成する車両は、車両の第1の位置、及び前記第1の位置とは異なる、前記車両の第2の位置において、前記車両の搭乗者の目を含む顔をそれぞれ撮像した第1の画像及び第2の画像を撮像するカメラと、前記第1の位置及び前記第1の位置における前記車両の進行方向を含む第1の車両情報と、前記第2の位置及び前記第2の位置における前記車両の進行方向を含む第2の車両情報を取得する情報取得部と、前記第1の画像及び前記第1の車両情報に基づいて前記搭乗者の第1の視線方向を特定し、前記第2の画像及び前記第2の車両情報に基づいて前記搭乗者の第2の視線方向を特定し、前記第1の位置、前記第1の視線方向、前記第2の位置、及び前記第2の視線方向に基づいて注視点を検出するプロセッサと、前記プロセッサによって検出された注視点に係る情報を表示する表示装置と、を含む注視点検出システムを備える。
本発明の一実施形態によれば、搭乗者が注視している注視点を検出し、利便性を向上させることを可能とする。
<第1の実施形態>
以下、本発明の第1の実施形態について、図面を参照して説明する。
以下、本発明の第1の実施形態について、図面を参照して説明する。
図1に示すように、第1の実施形態に係る注視点検出システム1は、車両3に搭載されたカメラ10、GPS(Global Positioning System)受信機(位置検出部)20、注視点検出装置30、及び表示装置40等を含んで構成される。カメラ10及びGPS受信機20は、通信ネットワークを介して注視点検出装置30と接続されて情報を送受信する。また、注視点検出装置30は、通信ネットワークを介して表示装置40と接続されて情報を送受信する。
カメラ10は、車両3に搭乗している搭乗者の顔を所定のタイミングで連続して撮像する。所定のタイミングは、例えば一定時間おきである。所定のタイミングは、例えば、車両3から速度信号を取得し、車両の速度に基づいて決定された時間間隔としうる。車両の速度が速いときは、時間間隔を短くし、車両の速度が遅いときは時間間隔を長くしてよい。速度信号は、注視点検出装置30を経由して受信しうる。そのため、カメラ10は、後部座席の略上半分の領域を撮像するように、例えば車両3のサイドウィンドウの枠の上部に設置される。カメラ10が設置される位置はこれに限られず、例えば、フロントウィンドウの枠の上部、車両3の天井であってもよい。
図2に示すように、カメラ10は、光学系11、撮像素子12、信号処理部13、及び通信インタフェース14等を含んで構成される。
光学系11は、該光学系11に入射した光が撮像素子12で結像するように集光するレンズである。光学系11は、例えば、魚眼レンズ、超広角レンズで構成されてもよい。光学系11は、単レンズで構成されてもよいし、複数枚のレンズで構成されてもよい。
撮像素子12は、光学系11によって結像された画像を撮像する固体撮像素子である。固体撮像素子は、CCDイメージセンサ(Charge-Coupled Device Image Sensor)、及びCMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)を含む。
信号処理部13は、画像信号を処理するプロセッサであり、例えば特定の機能を実行するように形成した専用のマイクロプロセッサや特定のプログラムを読出すことにより特定の機能を実行する汎用のCPU(中央処理装置:Central Processing Unit)である。
信号処理部13は、該撮像素子12で結像された画像を表す画像信号を生成する。また、信号処理部13は、画像に対して、歪み補正、明度調整、コントラスト調整、ガンマ補正等の任意の処理を行ってもよい。
通信インタフェース14は、信号処理部13によって生成された画像信号を注視点検出装置30に出力する。
GPS受信機20は、GPS衛星が発信した電波を受信して、該GPS受信機20の、世界座標系における三次元での位置及び進行方向を特定する。世界座標系とは、地球上の地点を一意に識別するための座標で表される系である。しかし、GPS受信機20が特定する位置は、世界座標系で表されるものに限らず、本注視点検出システムが用いられる系において各位置を一意に識別することのできる任意の座標系を用いて表すことができるものであればよい。本実施形態では、GPS受信機20の位置及び進行方向を、該GPS受信機20を搭載した車両3の位置及び進行方向とする。また、GPS受信機20は、特定した車両3の位置及び進行方向を含む車両情報を生成して、注視点検出装置30に出力する。
本実施形態では、抽出点検出システム1は、GPS受信機20の代わりに任意の位置検出部を備えてもよい。位置検出部は、例えば、GPS衛星によって受信したGPS信号によって特定した車両3の位置を、例えばナビゲーションシステムなどの車両3の有する地図情報を用いて、マップマッチングにより補正してもよい。また、代替的に又は付加的に、携帯電話と携帯電話基地局との距離から位置を測定する方式や、路側に配置したサインポストから位置を取得する方法を採用し得る。所定位置における位置情報に加え、地図の道路データ及び車両3からの車速信号を組み合わせることによって、走行中の位置の検出精度を高めることができる。
注視点検出装置30は、通信インタフェース31、カメラ情報メモリ32、制御部33(プロセッサ)、視線情報メモリ34等を含んで構成される。
通信インタフェース31は、カメラ10及びGPS受信機20から情報を取得する情報取得部として機能する。具体的には、通信インタフェース31は、カメラ10によって出力された画像信号の入力を受けることによって画像を取得する。このとき、通信インタフェース31は、カメラ10が撮像する時間間隔で順次画像を取得する。画像を取得する時間間隔は、一定間隔でもよく、車両3の速度に基づいて決定された時間間隔でもよい。また、通信インタフェース31は、GPS受信機20によって特定された、世界座標系における車両3の位置及び進行方向を含む車両情報を取得する。また、通信インタフェース31は、制御部33によって検出された情報を表示装置40に出力する。
カメラ情報メモリ32は、カメラ10の設置方向を記憶する。カメラ10の設置方向とは、車両3についての所定の方向、例えば車両3が前方に直進する場合の進行方向を基準とした、カメラ10の光軸の角度である。
制御部33は、画像信号を処理するプロセッサであり、例えば特定の機能を実行するように形成した専用のマイクロプロセッサや特定のプログラムを読出すことにより特定の機能を実行する汎用のCPU(中央処理装置:Central Processing Unit)である。
制御部33は、通信インタフェース31によって取得した画像、車両情報に基づいて、車両3の搭乗者の、世界座標系における三次元での視線方向を表す視線情報を取得する視線情報取得処理を行う。ここで、制御部33が行う視線情報取得処理の方法について詳細に説明する。ここで説明する方法は一例であって、制御部33は、この方法に限られることなく任意の方法で視線情報取得処理を行うことができる。
制御部33は、画像における人物の目を含む顔が表されている顔領域を抽出する。そして、制御部33は、画像から抽出された顔領域に基づいて、搭乗者の顔が向いている方向(以降、「顔方向」という)を特定する。具体的には、制御部33は、カメラ10の光軸方向を基準とした顔方向を特定する。ここで、制御部33は画像から、1つの顔領域を抽出してもよいし、複数の顔領域を抽出してもよい。複数の顔領域が抽出された場合、制御部33は、それぞれの顔領域について以降の処理を行う。
また、制御部33は、顔領域から目、及び目に含まれる瞳孔の位置を抽出する。そして、制御部33は、顔領域から抽出された目及び瞳孔の位置に基づいて、顔方向を基準とした視線方向を特定する。また、制御部33は、上述のように特定された、カメラ10の光軸方向を基準とした顔方向と、顔方向を基準とした視線方向とに基づいて、カメラ10の光軸方向を基準とした視線方向を特定する。
また、制御部33は、カメラ情報メモリ32に記憶されているカメラ10の設置方向と、カメラ10の光軸方向を基準とした視線方向とに基づいて、車両3の進行方向に対する視線方向を特定する。
そして、制御部33は、車両情報に含まれる進行方向と、車両3の進行方向に対する視線方向とに基づいて、世界座標系における視線方向を特定する。
制御部33は、上述のようにして、車両3が異なる複数の位置にいるときにカメラ10によって撮像された複数の画像、及び複数の位置それぞれで取得された車両情報に基づいて、上述のような視線方向取得処理で視線方向を特定することによって、複数の視線方向それぞれを表す複数の視線情報を取得する。すなわち、制御部33は、インタフェース31によって順次、取得された画像のうち連続して取得された2つの画像の、一方を第1の画像とし、他方を第2の画像とする。そして、制御部33は、第1の画像と、第1の画像が撮像されたときに車両3がいた第1の位置P1で取得された第1の車両情報とに基づいて、第1の視線方向D1を表す第1の視線情報を取得する。また、制御部33は、第2の画像と、第2の画像が撮像されたときに車両3がいた第2の位置P2で取得された第2の車両情報とに基づいて、第2の視線方向D2を表す第2の視線情報を取得する。
さらに、制御部33は、第1の位置P1、第1の視線情報、第2の位置P2、及び第2の視線情報に基づいて、搭乗者の注視点を検出する注視点検出処理を行う。また、制御部33は、注視点検出処理によって検出された注視点を表す注視点情報を出力する。ここで、注視点検出処理の詳細について、図3を参照して説明する。
この説明では、注視点検出処理が実行される以前に、第1の位置P1(xp1,yp1,zp1)を含む車両情報が取得されたときに、制御部33によって、第1の視線方向D1(xd1,yd1,zd1)を表す視線情報が取得されていたとする。また、第1の位置P1とは異なる第2の位置P2(xp2,yp2,zp2)を含む車両情報が取得されたときに、制御部33によって、第2の視線方向D2(xd2,yd2,zd2)を表す視線情報が取得されていたとする。
この場合、制御部33は、世界座標系において、第1の位置P1を起点とし、第1の視線方向D1に伸びる第1の半直線L1を算出する。同様にして、制御部33は、第2の位置P2を起点とし、第2の視線方向D2に伸びる第2の半直線L2を算出する。そして、制御部33は、第1の半直線L1と第2の半直線L2との直線間距離dを算出する。さらに、制御部33は、直線間距離dが所定の閾値dth以下であるか否かを判定する。
直線間距離dが所定の閾値dth以下である場合、制御部33は、第1の半直線L1上の第2の半直線L2に最も近い点と第2の半直線L2上の第1の半直線L1に最も近い点との間の中点PM、又は第1の半直線L1と第2の半直線L2との交点を注視点として決定する。直線間距離dが所定の閾値dthより長い場合、制御部33は、搭乗者が、車両3が第1の位置P1にいるときと、第2の位置P2にいるときとで異なる対象を見ていたと判定し、注視点を決定しない。
所定の閾値dthは、搭乗者が、車両3が第1の位置P1にいるときに見ていた対象と、第2の位置P2にいるときに見ていた対象が僅かに異なっていても、同一の対象をみているとみなせる範囲である。所定の閾値dthは、例えば、車両3の速度等に基づいて設定されればよい。
視線情報メモリ34は、制御部33によって取得された複数の視線情報に含まれる視線方向それぞれを、各視線方向に係る位置で、取得された車両情報に含まれる車両3の位置に関連付けて記憶する。
表示装置40は、通信インタフェース41、表示制御部42、ディスプレイ43(43は「表示素子」「表示パネル」などにしてはどうか。)等を含んで構成される。
通信インタフェース41は、注視点検出装置30の制御部33から通信インタフェース31を介して出力された注視点情報の入力を受ける。
表示制御部42は、ディスプレイ43への情報の表示を制御するプロセッサである。表示制御部42は、注視点検出装置30から出力され、通信インタフェース41によって入力を受けた注視点情報に基づいて、メモリにあらかじめ記憶されている地図及び建物情報から、注視点の位置を表す地図、注視点がある建物の情報等の注視点関連情報を抽出する。また、表示制御部42は、抽出した注視点関連情報をディスプレイ43に表示させるよう制御する。
ディスプレイ43は、車両3の内部における任意の位置に設置される。具体的には、運転者が視認できるようにダッシュボードに設置されてもよいし、運転者以外の搭乗者が視認できるように運転席又は助手席の裏面に設置されてもよい。ディスプレイ43は、好ましくは液晶ディスプレイである。ディスプレイ43は、液晶ディスプレイに限らず、有機EL(electroluminescence)ディスプレイ、無機ELディスプレイ等であってもよい。
ディスプレイ43は、表示制御部42による制御に基づいて注視点関連情報を表示する。
次に、第1の実施形態における注視点検出システム1の注視点検出方法について、図4を参照して説明する。
カメラ10が撮像を開始して(ステップS11)、車両3が第1の位置P1及び第2の位置P2にいるときにそれぞれの位置で撮像した第1の画像及び第2の画像を注視点検出装置30に出力する(ステップS12、S18)。
一方、GPS受信機20がGPS情報を受信して、車両3の位置及び進行方向の特定を開始する(ステップS13)。ステップS13で位置及び進行方向の特定が開始されると、注視点検出装置30の通信インタフェース31を介して制御部33は、車両3が第1の位置P1及び第2の位置P2にいるときにそれぞれ特定された位置及び進行方向を含む第1の車両情報及び第2の車両情報を取得する(ステップS14、S19)
ステップS12で注視点検出装置30に第1の画像が入力されると、制御部33は、第1の画像に基づいてカメラ10の光軸方向を基準とした搭乗者の視線方向を特定する(ステップS15)。
ステップS15で、カメラ10の光軸方向を基準とした搭乗者の視線方向が検出されると、制御部33は、カメラ10の光軸方向を基準とした視線方向と、カメラ10の設置方向とに基づいて、車両3の進行方向を基準とした視線方向を特定する(ステップS16)。
ステップS16で、車両3の進行方向を基準とした視線方向が検出されると、制御部33は、視線方向、及び第1の車両情報に含まれる進行方向に基づいて、世界座標系での搭乗者の視線方向を特定し、該視線方向を含む第1の視線情報を取得する(ステップS17)。
同様にして、ステップS18で注視点検出装置30に第2の画像が入力されると、制御部33は、第2の画像に基づいてカメラ10の光軸方向を基準とした搭乗者の視線方向を特定する(ステップS20)。
ステップS20で、カメラ10の光軸方向を基準とした搭乗者の視線方向が検出されると、制御部33は、カメラ10の光軸方向を基準とした視線方向と、カメラ10の設置方向とに基づいて、車両3の進行方向を基準とした視線方向を特定する(ステップS21)。
ステップS21で、車両3の進行方向を基準とした視線方向が検出されると、制御部33は、視線方向、及び第2の画像が撮像されたときに取得された第2の車両情報に含まれる進行方向に基づいて、世界座標系での搭乗者の視線方向を特定し、該視線方向を含む第2の視線情報を取得する(ステップS22)。
ステップS17第1の視線情報が取得され、ステップS22で第2の視線情報が検出されると、制御部33は注視点を検出する(ステップS23)。
ここで、制御部33が注視点を検出する処理の詳細について図5を参照して説明する。
まず、制御部33は、第1の位置P1、第1の視線方向D1に基づいて第1の半直線L1を算出する(ステップS231)。次に、制御部33は、第2の位置P2、第2の視線方向D2に基づいて第2の半直線L2を算出する(ステップS232)。制御部33は、ステップS232の処理をステップS231の処理より先に行ってもよいし、制御部33がマルチプロセッサである場合、ステップS232の処理とステップS231の処理とを同時に行ってもよい。
ステップS231及びS232で第1の半直線L1及び第2の半直線L2が算出されると、制御部33は第1の半直線L1及び第2の半直線L2の直線間距離dを算出して、直線間距離dが所定の閾値dth以下であるか否かを判定する(ステップS233)。
ステップS233で直線間距離dが所定の閾値dth以下であると判定されると、制御部33は、第1の半直線L1上の第2の半直線L2に最も近い点と第2の半直線L2上の第1の半直線L1に最も近い点との間の中点PMを注視点として検出する(ステップS234)。
ステップS233で直線間距離dが所定の閾値dthより長いと判定されると、制御部33は、注視点を検出せずに処理を終了する。
図4に戻って、ステップS23で注視点検出処理が終了すると、通信インタフェース31は、制御部33によって検出された注視点を表す注視点情報を表示装置40に出力する(ステップS24)。
ステップS24で、注視点情報が出力されると、表示装置40は注視点情報の入力を受け、注視点情報に係る注視点関連情報を表示する(ステップS25)。
第1の実施形態においては、注視点検出装置30は、複数の画像、及び複数の画像がそれぞれ撮像されたときの車両3の位置及び進行方向に基づいて、車両3に対する搭乗者の視線方向を特定し、複数の位置、進行方向、及び視線方向に基づいて注視点を検出する。そのため、注視点に存在する建物、施設等に関する情報を表示装置40に表示させることができ、搭乗者の利便性を向上させることができる。
また、第1の実施形態においては、制御部33が車両3の第1の位置P1を起点とし搭乗者の視線方向に伸びる第1の半直線L1と、車両3の第2の位置P2を起点とし搭乗者の視線方向に伸びる第2の半直線L2との直線間距離に基づいて注視点を検出する。具体的には、制御部33は、直線間距離dが所定の閾値dthより長い場合には注視点を検出しない。これにより、車両3が第1の位置P1から第2の位置P2に移動したときに搭乗者の注視点が変化した場合に、注視点を誤検出するのを防ぐことができる。すなわち、高い精度で注視点を検出することが可能となる。
<第2の実施形態>
続いて、第2の実施形態について、図面を参照して説明する。
続いて、第2の実施形態について、図面を参照して説明する。
第2の実施形態に係る注視点検出システム1は、図1に示す、第1の実施形態に係る注視点検出システム1と同様に、車両3に搭載されたカメラ10、GPS受信機20、注視点検出装置30、及び表示装置40等を含んで構成される。
第2の実施形態における制御部33は、第1の実施形態における制御部33と異なり、カメラ10によって生成された画像に基づいて、車両3の搭乗者の、第1の位置における世界座標系での二次元の視線方向である第1の視線方向D1(xd1,yd1)を検出して、第1の視線方向D1を含む視線情報を取得する。同様にして、制御部33は、車両3の搭乗者の、第2の位置における世界座標系での二次元の視線方向である第2の視線方向D2(xd2,yd2)を検出して、第2の視線方向D2を含む視線情報を取得する。
また、第2の実施形態における制御部33は、第1の視線情報、第1の位置P1(xp1,yp1)、第2の視線情報、及び第2の位置P2(xp2,yp2)に基づいて注視点検出処理を行う。
具体的には、制御部33は、世界座標系において、第1の位置P1を起点とし、第1の視線情報に含まれる第1の視線方向D1に伸びる第1の半直線L1を二次元で算出する。同様にして、制御部33は、第2の位置P2を起点とし、第2の視線情報に含まれる第2の視線方向D2に伸びる第2の半直線L2を算出する。そして、制御部33は、第1の半直線L1と第2の半直線L2との交点が位置する座標を二次元で算出する。本実施形態での二次元は、水平面に沿う方向を意味し、鉛直方向については考えない。
制御部33は、第1の半直線L1と第2の半直線L2とが交差しなかった場合、車両3が第1の位置P1にいるときと、第2の位置P2にいるときとで、搭乗者は異なる対象を見ていたと判定し、注視点を決定しない。
この場合、GPS受信機20は、GPS受信機20は、車両3の、世界座標系における二次元での位置及び進行方向を表す車両情報を生成してもよい。
第2の実施形態におけるその他の構成、作用は第1の実施形態と同様なので、同一又は対応する構成要素には、同一参照符号を付して説明を省略する。
次に、第2の実施形態における注視点検出システム2の注視点検出方法について説明する。
注視点検出システム2の検出方法は、第1の実施形態における注視点検出システム1の注視点検出方法と概ね同様であるが、図4のステップS23に示す注視点の検出の詳細が異なる。ここで、第2の実施形態における注視点検出システム2における注視点の検出の詳細について図6を参照して説明する。
まず、制御部33は、第1の位置P1及び第1の視線方向D1に基づいて第1の半直線L1を算出する(ステップS235)。次に、制御部33は、第2の位置P2及び第2の視線方向D2に基づいて第2の半直線L2を算出する(ステップS236)。制御部33は、ステップS236の処理をステップS235の処理より先に行ってもよいし、制御部33がマルチプロセッサである場合、ステップS235の処理とステップS236の処理とを同時に行ってもよい。
ステップS235及びS236で第1の半直線L1及び第2の半直線L2が算出されると、制御部33は第1の半直線L1及び第2の半直線L2との交点があるか否かを判定する(ステップS237)。
ステップS237で交点があると判定されると、制御部33は、第1の半直線L1と第2の半直線L2との交点を注視点として検出する(ステップS238)。
ステップS237で交点がないと判定されると、制御部33は、注視点を検出せずに処理を終了する。
以上説明したように、第2の実施形態によれば、搭乗者の注視点を検出することができる。これにより、注視点に存在する建物、施設等に関する情報を表示装置40に表示させることができ、搭乗者の利便性を向上させることができ、第1の実施形態と同様の効果が得られる。
上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態及び実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態及び実施例に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
例えば、上述の実施形態において、注視点検出装置30の制御部33が視線情報取得処理及び注視点検出処理を行うとしたが、これに限られず、カメラ10の備えるプロセッサが、視線情報取得処理及び注視点検出処理を行ってもよい。また、カメラ10及び注視点検出装置30が一体として構成されてもよい。
また、上述の実施形態において、表示制御部42が注視点情報に基づいて注視点関連情報を抽出するとしたが、これに限られない。例えば、注視点検出装置30が注視点関連情報をメモリに記憶し、制御部33が注視点検出処理で検出した注視点に基づいて注視点関連情報を抽出してもよい。この場合、注視点検出装置30の通信インタフェース31が表示装置40に注視点関連情報を送信する。
また、上述の実施形態において、通信インタフェース31が、GPS受信機20から第1の位置P1及び第2の位置P2を取得するとしたが、この限りではない。例えば、車両3があらかじめ決められた走行路上を移動している場合、又は車両3が移動できる走行路が1つしかない場合、通信インタフェース31が、GPS受信機20から第1の位置P1を表す車両情報を取得し、制御部33が第1の視線情報が取得されてから第2の視線情報が取得されるまでの時間、及び車両3の移動速度を用いて、第2の位置P2を算出してもよい。
1,2 注視点検出システム
3 車両
10 カメラ
11 光学系
12 撮像素子
13 信号処理部
14,31,41 通信インタフェース
20 GPS受信機
30 注視点検出装置
32 カメラ情報メモリ
33 制御部
34 視線情報メモリ
40 表示装置
42 表示制御部
43 ディスプレイ
3 車両
10 カメラ
11 光学系
12 撮像素子
13 信号処理部
14,31,41 通信インタフェース
20 GPS受信機
30 注視点検出装置
32 カメラ情報メモリ
33 制御部
34 視線情報メモリ
40 表示装置
42 表示制御部
43 ディスプレイ
Claims (9)
- 車両の第1の位置、及び前記第1の位置とは異なる、前記車両の第2の位置において、前記車両の搭乗者の目を含む顔をそれぞれ撮像した第1の画像及び第2の画像を取得し、前記第1の位置及び前記第1の位置における前記車両の進行方向を含む第1の車両情報と、前記第2の位置及び前記第2の位置における前記車両の進行方向を含む第2の車両情報とを取得する情報取得部と、
前記第1の画像及び前記第1の車両情報に基づいて前記搭乗者の第1の視線方向を特定し、前記第2の画像及び前記第2の車両情報に基づいて前記搭乗者の第2の視線方向を特定し、前記第1の位置、前記第1の視線方向、前記第2の位置、及び前記第2の視線方向に基づいて注視点を検出するプロセッサと、
を備える注視点検出装置。 - 前記プロセッサは、前記視線方向を三次元座標系で特定し、前記第1の位置を起点として、前記第1の視線方向に伸びる第1の半直線と、前記第2の位置を起点として前記第2の視線方向に伸びる第2の半直線とに基づいて注視点を検出する、請求項1に記載の注視点検出装置。
- 前記プロセッサは、前記第1の半直線上の前記第2の半直線に最も近い点と前記第2の半直線上の前記第1の半直線に最も近い点との間の中点、又は前記第1と第2の半直線の交点を注視点として検出する、請求項2に記載の注視点検出装置。
- 前記プロセッサは、前記視線方向を二次元座標系で検出し、前記第1の位置を起点として、前記第1の視線方向に伸びる第1の半直線と、前記第2の位置を起点として前記第2の視線方向に伸びる第2の半直線との交点を注視点として検出する、請求項1に記載の注視点検出装置。
- 前記プロセッサは、前記注視点を地図上の位置として検出する、請求項1から4の何れか一項に記載の注視点検出装置。
- 前記情報取得部は、前記車両の速度に基づいて決定された時間間隔で、順次画像を取得し、順次、取得された前記画像における連続して取得された2つの画像の一方を前記第1の画像とし、他方を第2の画像とする、請求項1から5の何れか一項に記載の注視点検出装置。
- 注視点検出装置が実行する注視点検出方法であって、
前記注視点検出装置が、車両の第1の位置、及び前記第1の位置とは異なる、前記車両の第2の位置において、前記車両の搭乗者の目を含む顔をそれぞれ撮像した第1の画像及び第2の画像を取得し、前記第1の位置及び前記第1の位置における前記車両の進行方向を含む第1の車両情報と、前記第2の位置及び前記第2の位置における前記車両の進行方向を含む第2の車両情報とを取得するステップと、
前記注視点検出装置が、前記第1の画像及び前記第1の車両情報に基づいて前記搭乗者の第1の視線方向を特定し、前記第2の画像及び前記第2の車両情報に基づいて前記搭乗者の第2の視線方向を特定し、前記第1の位置、前記第1の視線方向、前記第2の位置、及び前記第2の視線方向に基づいて注視点を検出するステップと、
を含む注視点検出方法。 - 車両の第1の位置、及び前記第1の位置とは異なる、前記車両の第2の位置において、前記車両の搭乗者の目を含む顔をそれぞれ撮像した第1の画像及び第2の画像を撮像するカメラと、
前記第1の位置及び前記第1の位置における前記車両の進行方向を含む第1の車両情報と、前記第2の位置及び前記第2の位置における前記車両の進行方向を含む第2の車両情報を取得する情報取得部と、
前記第1の画像及び前記第1の車両情報に基づいて前記搭乗者の第1の視線方向を特定し、前記第2の画像及び前記第2の車両情報に基づいて前記搭乗者の第2の視線方向を特定し、前記第1の位置、前記第1の視線方向、前記第2の位置、及び前記第2の視線方向に基づいて注視点を検出するプロセッサと、
前記プロセッサによって検出された注視点に係る情報を表示する表示装置と、
を備える注視点検出システム。 - 車両の第1の位置、及び前記第1の位置とは異なる、車両の第2の位置において、前記車両の搭乗者の目を含む顔をそれぞれ撮像した第1の画像及び第2の画像を撮像するカメラと、
前記第1の位置及び前記第1の位置における前記車両の進行方向を含む第1の車両情報と、前記第2の位置及び前記第2の位置における前記車両の進行方向を含む第2の車両情報とを取得する情報取得部と、
前記第1の画像及び前記第1の車両情報に基づいて前記搭乗者の第1の視線方向を特定し、前記第2の画像及び前記第2の車両情報に基づいて前記搭乗者の第2の視線方向を特定し、前記第1の位置、前記第1の視線方向、前記第2の位置、及び前記第2の視線方向に基づいて注視点を検出するプロセッサと、
前記プロセッサによって検出された注視点に係る情報を表示する表示装置と、
を含む注視点検出システムを備える車両。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016127979A JP2018004325A (ja) | 2016-06-28 | 2016-06-28 | 注視点検出装置、注視点検出方法、注視点検出システム、及び車両 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016127979A JP2018004325A (ja) | 2016-06-28 | 2016-06-28 | 注視点検出装置、注視点検出方法、注視点検出システム、及び車両 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018004325A true JP2018004325A (ja) | 2018-01-11 |
Family
ID=60946202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016127979A Pending JP2018004325A (ja) | 2016-06-28 | 2016-06-28 | 注視点検出装置、注視点検出方法、注視点検出システム、及び車両 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018004325A (ja) |
-
2016
- 2016-06-28 JP JP2016127979A patent/JP2018004325A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10183621B2 (en) | Vehicular image processing apparatus and vehicular image processing system | |
EP2544449B1 (en) | Vehicle perimeter monitoring device | |
JP6036065B2 (ja) | 注視位置検出装置及び注視位置検出方法 | |
US8395490B2 (en) | Blind spot display apparatus | |
JP5706874B2 (ja) | 車両の周辺監視装置 | |
JP2020064068A (ja) | 視覚強化ナビゲーション | |
JP5798392B2 (ja) | 駐車支援装置 | |
JP6311646B2 (ja) | 画像処理装置、電子ミラーシステム、及び画像処理方法 | |
JPWO2018193708A1 (ja) | ヘッドアップディスプレイ装置およびその表示制御方法 | |
WO2015146068A1 (ja) | 情報表示装置、情報表示方法及びプログラム | |
JPWO2013035353A1 (ja) | 画像処理装置及び画像処理方法 | |
US10099617B2 (en) | Driving assistance device and driving assistance method | |
JP2012010036A (ja) | カメラキャリブレーションシステムと、その計測車両及び路側機 | |
WO2015129280A1 (ja) | 画像処理装置および画像処理方法 | |
JP6669182B2 (ja) | 乗員監視装置 | |
JP2010134640A (ja) | 情報取得装置 | |
JP2010276583A (ja) | 車両用位置測定装置 | |
US11903647B2 (en) | Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium | |
KR20130119144A (ko) | 투명 디스플레이 패널을 이용한 객체 표시 방법 및 장치 | |
KR101767435B1 (ko) | 헤드업 디스플레이의 표시 제어 장치 및 방법 | |
US10474912B2 (en) | Vehicle display controller, vehicle display system, vehicle display control method, and non-transitory storage medium | |
JP2021150871A (ja) | 車両用画像処理装置 | |
JP2008286648A (ja) | 距離計測装置、距離計測システム、距離計測方法 | |
JP2018004325A (ja) | 注視点検出装置、注視点検出方法、注視点検出システム、及び車両 | |
US20190193634A1 (en) | Vehicle |