JP4502844B2 - Warning device and warning method - Google Patents
Warning device and warning method Download PDFInfo
- Publication number
- JP4502844B2 JP4502844B2 JP2005050152A JP2005050152A JP4502844B2 JP 4502844 B2 JP4502844 B2 JP 4502844B2 JP 2005050152 A JP2005050152 A JP 2005050152A JP 2005050152 A JP2005050152 A JP 2005050152A JP 4502844 B2 JP4502844 B2 JP 4502844B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- driver
- sight
- detection target
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000001514 detection method Methods 0.000 claims description 195
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 claims 2
- 238000004891 communication Methods 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Description
本発明は、警告装置及び警告方法に関し、特に、ドライバが適切な運転をしていない場合に警告を発する警告装置及び警告方法に関するものである。 The present invention relates to a warning device and a warning method, and more particularly, to a warning device and a warning method for issuing a warning when a driver is not operating properly.
一般に、走行中の車両の周囲における危険要因は、ドライバ自身の観察力及び注意力によって把握されている。しかしながら、ドライバの心理状態や身体状態の不調などによって危険要因を見落とすことがある。その場合には事故を起こしかねない。また、自分が充分に注意をはらって運転していても、他車両の不注意なドライバによる不適切な運転によってもらい事故を被ることがある。 In general, risk factors around a running vehicle are grasped by the driver's own observation and attention. However, risk factors may be overlooked depending on the driver's psychological and physical condition. In that case, an accident may occur. In addition, even if you are driving with sufficient caution, you may get an accident if you are driven by an inadvertent driver of another vehicle.
危険要因の見落としを防止するために、車両の走行環境に基づいてドライバが目を向けるべき視線領域を予測し、実際に検出されたドライバの視線領域が目を向けるべき視線領域と適合するか否かを判定し、不適合の場合に警告を発する技術が知られている(例えば特許文献1など)。これにより、危険要因があると予想される領域をドライバが見ていないと判定されるときに、そのドライバに対して注意を促すことができる。
しかしながら、特許文献1に記載の車載情報処理装置では、不注意なドライバが危険領域を見ていない場合に、そのドライバに対して注意を喚起することはできるが、不注意なドライバが運転する不注意車両の周囲に存在する周辺車両のドライバに対して注意を喚起することはできない。そのため、周辺車両のドライバは、他の車両(例えば不注意車両など)のドライバが危険要因に対して注意をはらって運転しているか否かを把握することができず、必要以上に注意をはらわなければならないという問題があった。
However, in the in-vehicle information processing apparatus described in
本発明は、このような問題を解決するために成されたものであり、周辺車両のドライバが必要以上に注意をはらうことなく、不注意車両のドライバが危険要因に注意をはらって運転しているか否かを把握できるようにすることで、もらい事故を防止することを目的とする。 The present invention has been made to solve such a problem, and a driver of an inadvertent vehicle pays attention to a risk factor without driving the driver of a surrounding vehicle more than necessary. The purpose is to prevent accidents by being able to grasp whether or not there is.
上記した課題を解決するために、本発明では、視線検出対象車両のドライバの実視線方向を検出し、視線検出対象車両の走行状況を示す情報及び視線検出対象車両の周辺に存在する周辺車両の走行状況を示す情報に基づいてドライバが目を向けるべきドライバ予測視線方向を含む所定の範囲を予測して、検出されたドライバの実視線方向が所定の範囲に適合するか否かを判定する。そして、その判定結果に応じて、注意を促す警告情報を周辺車両に出力するようにしている。 In order to solve the above-described problems, in the present invention, the actual line-of-sight direction of the driver of the line-of-sight detection target vehicle is detected, information indicating the traveling state of the line-of-sight detection target vehicle, and surrounding vehicles existing around the line-of-sight detection target vehicle A predetermined range including the driver predicted line-of-sight direction that the driver should look at is predicted based on the information indicating the traveling state, and it is determined whether or not the detected actual line-of-sight direction of the driver is compatible with the predetermined range . Then, warning information for calling attention is output to the surrounding vehicles according to the determination result.
上記のように構成した本発明によれば、視線検出対象車両のドライバが目を向けるべき方向を見ているか否かを周辺車両に対して認識させることができるので、周辺車両のドライバは、視線検出対象車両のドライバが危険要因に注意をはらって運転しているか否かを把握することができ、視線検出対象車両に対して必要以上に注意をはらわなくても良くなる。また、周辺車両のドライバは、視線検出対象車両のドライバによる不適切な運転を把握することができるので、不適切に運転されている視線検出対象車両を回避することができ、もらい事故を防止することができる。さらに、ドライバ予測視線方向を含む所定の範囲を視線検出対象車両の動きに応じて変えることができるので、視線検出車両のドライバが注意をはらうべき対象をより明確にすることができる。
According to the present invention configured as described above, it is possible to make the peripheral vehicle recognize whether or not the driver of the line-of-sight detection target vehicle is looking in the direction in which the driver is looking. It is possible to grasp whether or not the driver of the detection target vehicle is driving while paying attention to the risk factor, and it is not necessary to pay more attention to the gaze detection target vehicle. Moreover, since the driver of a surrounding vehicle can grasp | ascertain the improper driving | operation by the driver of a gaze detection target vehicle, it can avoid the gaze detection target vehicle which is driving improperly, and prevents an accident. be able to. Furthermore, since the predetermined range including the driver predicted line-of-sight direction can be changed in accordance with the movement of the line-of-sight detection target vehicle, it is possible to further clarify the target to which the driver of the line-of-sight detection vehicle should pay attention.
(第1の実施形態)
以下、本発明による第1の実施形態を図面に基づいて説明する。図1は、第1の実施形態による警告装置1の構成を示すブロック図である。ここで、第1の実施形態による警告装置1は、視線検出対象車両に搭載されている。
(First embodiment)
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a first embodiment of the invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a
図1において、2は視線センサであり、視線検出対象車両内のドライバの前方にドライバに向かって取り付けられている。視線センサ2は、例えば赤外線照射装置と赤外線カメラとにより構成されており、赤外線照射装置がドライバの顔付近に赤外線を照射し、赤外線カメラがドライバの顔付近の像を捕捉する。 In FIG. 1, reference numeral 2 denotes a line-of-sight sensor, which is attached toward the driver in front of the driver in the line-of-sight detection target vehicle. The line-of-sight sensor 2 includes, for example, an infrared irradiation device and an infrared camera. The infrared irradiation device irradiates infrared rays near the driver's face, and the infrared camera captures an image near the driver's face.
3は視線方向検出部であり、視線センサ2にて捕捉された視線検出対象車両のドライバの顔付近の像を使用して周知の技術によりドライバの実際の視線方向(以下、実視線方向と記述する)を検出し、実視線方向の情報を出力する。ここで、ドライバの実視線方向を検出する際に、好ましくは、ドライバの顔付近の画像からドライバの顔の向きを検出してドライバの実視線方向を取得する。更に好ましくは、ドライバの眼球に赤外線を照射し、角膜表面に生じる反射像と瞳孔との距離によって実視線方向を取得する角膜反射法などを使用する。 Reference numeral 3 denotes a gaze direction detection unit, which uses an image of the vicinity of the driver's face of the gaze detection target vehicle captured by the gaze sensor 2 and uses a known technique to describe the driver's actual gaze direction (hereinafter referred to as a real gaze direction). ) And outputs information on the actual line-of-sight direction. Here, when detecting the driver's actual line-of-sight direction, preferably, the driver's face direction is detected by detecting the driver's face direction from an image near the driver's face. More preferably, a corneal reflection method that irradiates the driver's eyeball with infrared rays and acquires the actual line-of-sight direction based on the distance between the reflected image generated on the corneal surface and the pupil is used.
4は視線方向予測部であり、視線検出対象車両の走行状況を示す情報を入力して、その情報に基づいてドライバが視線を向けるべき方向(以下、ドライバ予測視線方向と記述する)を予測する。また、視線方向予測部4は、予測したドライバ予測視線方向を含む適合条件の情報を出力する。ドライバ予測視線方向は、ドライバが安全確認を行うべき方向である。視線検出対象車両の走行状況を示す情報としては、後述する運転装置9から入力する運転情報や、後述するナビゲーション装置10から入力するナビゲーション情報などがある。
Reference numeral 4 denotes a gaze direction predicting unit which inputs information indicating the traveling state of the gaze detection target vehicle and predicts a direction in which the driver should turn his gaze based on the information (hereinafter referred to as a driver predicted gaze direction). . In addition, the line-of-sight direction prediction unit 4 outputs information on the matching conditions including the predicted driver predicted line-of-sight direction. The driver predicted line-of-sight direction is a direction in which the driver should confirm safety. The information indicating the traveling state of the line-of-sight detection target vehicle includes driving information input from a driving device 9 described later, navigation information input from a
ここで、視線方向予測部4は、視線検出対象車両の走行状況を示す情報によって、ドライバ予測視線方向などの適合条件を決定するためのテーブル情報を持っている。ここで、適合条件としては、ドライバ予測視線方向や、ドライバ予測視線方向を含む所定の範囲、視線検出対象車両のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である場合の時間情報を含む。ここで、所定の範囲とは、ドライバが安全確認を行うべき範囲であり、ドライバが目を向けるべき対象によってその範囲が異なる。例えば、ドライバ予測視線方向が車外の道路上などである場合には、所定の範囲が広くなり、ドライバ予測視線方向が車内のルームミラーや車外のドアミラーなどである場合には、所定の範囲が狭くなる。 Here, the line-of-sight direction prediction unit 4 has table information for determining a matching condition such as a driver predicted line-of-sight direction based on information indicating the traveling state of the line-of-sight detection target vehicle. Here, as the matching conditions, the driver predicted line-of-sight direction, a predetermined range including the driver predicted line-of-sight direction, and the difference between the driver's actual line-of-sight direction and the driver predicted line-of-sight direction within the predetermined range Includes time information. Here, the predetermined range is a range in which the driver should perform safety confirmation, and the range varies depending on an object to which the driver should pay attention. For example, when the driver predicted line-of-sight direction is on a road outside the vehicle, the predetermined range is widened, and when the driver predicted line-of-sight direction is a vehicle interior mirror or a door mirror outside the vehicle, the predetermined range is narrow. Become.
また、時間情報とは、例えば、実視線方向が所定の範囲内に含まれる時間の所定の時間に対する割合を示す時間率である。また、所定の時間とは、視線検出対象車両のドライバの実視線方向の検出を開始してから現在までの時間である。ここで、実視線方向の検出を開始するタイミングは、視線検出対象車両が右折や左折、発車、停車などの動作を行うために、右左折のウインカーを出したり、発車のためにアクセルを操作したり、停車のためにハザードやブレーキを操作したりする待機状態や、視線検出対象車両のドライバの実視線方向を検出すべき場所(例えば交差点やカーブ、停止線など)に視線検出対象車両が進入した状態などである。また、現在とは、実視線方向とドライバ予測視線方向との差分が所定の範囲内であるか否かを判定する時点である。 The time information is, for example, a time rate indicating a ratio of a time in which the actual line-of-sight direction is included in a predetermined range to a predetermined time. The predetermined time is the time from the start of detection of the actual line-of-sight direction of the driver of the line-of-sight detection target vehicle to the present. Here, the timing for starting the detection of the actual line-of-sight direction is such that the line-of-sight detection target vehicle performs a right turn, a left turn, a departure, a stop, etc., and a right / left turn turn signal is issued or the accelerator is operated for departure. The target vehicle for the line of sight detection enters the standby state where the hazard or brake is operated to stop the vehicle, or where the actual line of sight of the driver of the vehicle for the line of sight detection should be detected (for example, an intersection, a curve, a stop line, etc.) It is a state that has been. Further, the current time is a time point when it is determined whether or not the difference between the actual visual line direction and the driver predicted visual line direction is within a predetermined range.
なお、時間情報として、時間率ではなく時間の長さを用いるようにしても良い。例えば、視線検出対象車両のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の長さ以上であるか否かによって判定するようにしても良い。また、視線検出対象車両のドライバの実視線方向の検出を開始してから現在までの時間を所定の時間としているが、これに限定されない。例えば、視線検出対象車両のドライバの実視線方向の検出を開始してからしばらくの間を所定の時間に含めないようにしても良い。これにより、現在の時間により近い状態での実視線方向とドライバ予測視線方向との差分が得られる。また、実視線方向とドライバ予測視線方向との差分が所定の範囲内であるか否かを判定する時点を現在としているが、これに限定されない。例えば、視線検出対象車両のドライバが車両を動かそうとする時点や予め定めた所定の時点であっても良い。 In addition, you may make it use not the time rate but the length of time as time information. For example, the determination may be made based on whether or not the time during which the difference between the driver's actual line-of-sight direction and the driver predicted line-of-sight direction is within a predetermined range is greater than or equal to a predetermined length. In addition, the time from the start of detection of the actual line-of-sight direction of the driver of the line-of-sight detection target vehicle to the present is set as the predetermined time, but the present invention is not limited to this. For example, a predetermined time may not be included for a while after the detection of the actual gaze direction of the driver of the gaze detection target vehicle is started. Thereby, the difference between the actual visual line direction and the driver predicted visual line direction in a state closer to the current time is obtained. Moreover, although the time of determining whether the difference of a real gaze direction and a driver prediction gaze direction is in a predetermined range is made into the present, it is not limited to this. For example, it may be a time when the driver of the line-of-sight detection target vehicle tries to move the vehicle or a predetermined time.
また、テーブル情報は、視線検出対象車両の走行状況とドライバ予測視線方向などの適合条件とを対応付けて記憶したものである。例えば、図2(a)に示すように、視線検出対象車両50の現在位置が交差点の道路60上の右折レーンであるという走行状況に対して、ドライバ予測視線方向は、左側から交差点に進入してくる周辺車両70に対する左方向Aと対向する周辺車両70が存在する正面方向Bと視線検出対象車両50の進行方向である右方向Cとの三方向であることがテーブル情報によって定義されている。また、各ドライバ予測視線方向A,B,Cに対して夫々所定の範囲a,b,cがテーブル情報によって定義されている。また、各ドライバ予測視線方向A,B,Cに対する所定の時間率がテーブル情報によって定義されている。
The table information is stored in association with the traveling condition of the line-of-sight detection target vehicle and the matching conditions such as the driver predicted line-of-sight direction. For example, as shown in FIG. 2A, the driver predicted line-of-sight direction enters the intersection from the left side with respect to a driving situation in which the current position of the line-of-sight
また、図2(b)に示すように、視線検出対象車両50の現在位置が右カーブの道路60上を走行中であるという走行状況に対して、ドライバ予測視線方向は、視線検出対象車両50の進行方向である右方向Dであることがテーブル情報によって定義されている。また、ドライバ予測視線方向Dに対して所定の範囲dがテーブル情報によって定義されている。また、ドライバ予測視線方向Dに対する所定の時間率がテーブル情報によって定義されている。
Further, as illustrated in FIG. 2B, the driver predicted line-of-sight direction is the line-of-sight
また、図2(b)に示すように、視線検出対象車両50の現在位置が右カーブの道路60上を走行中であり、所定の速度よりも速い速度で走行しているという走行状況に対して、ドライバ予測視線方向は、視線検出対象車両50の進行方向である右方向遠方Eであることがテーブル情報によって定義されている。また、ドライバ予測視線方向Eに対して所定の範囲eがテーブル情報によって定義されている。また、ドライバ予測視線方向Eに対する所定の時間率がテーブル情報によって定義されている。
Further, as shown in FIG. 2 (b), in response to a traveling situation in which the current position of the line-of-sight
また、図3(a)に示すように、視線検出対象車両50の現在位置が道路60上を走行中であり、ドライバがブレーキを操作しているという走行状況に対して、ドライバ予測視線方向は、視線検出対象車両50の進行方向である前方Fと後方の車両を確認するためのルームミラー(バックミラー)50aの鏡面方向Gとの二方向であることがテーブル情報によって定義されている。また、各ドライバ予測視線方向F,Gに対して夫々所定の範囲f,gがテーブル情報によって定義されている。また、各ドライバ予測視線方向F,Gに対する所定の時間率がテーブル情報によって定義されている。
In addition, as shown in FIG. 3A, the driver predicted line-of-sight direction is the driving situation where the current position of the line-of-sight
また、図3(b)に示すように、視線検出対象車両50の現在位置が道路60の左側であり(左側通行の場合)、車両が停止している状態から右前方にウインカーを出しながら発進したという走行状況に対して、視線検出対象車両50が駐車状態から発進するものとして、ドライバ予測視線方向は、視線検出対象車両50の進行方向である前方Hと後方の車両を確認するための左右ドアミラー(フェンダーミラー)50bの鏡面方向I,Jとの三方向であることがテーブル情報によって定義されている。また、各ドライバ予測視線方向H,I,Jに対して夫々所定の範囲h,i,jがテーブル情報によって定義されている。また、各ドライバ予測視線方向H,I,Jに対する所定の時間率がテーブル情報によって定義されている。
Further, as shown in FIG. 3B, the current position of the line-of-sight
警告装置1に接続された運転装置9は、舵角を変えることで視線検出対象車両50のタイヤの向きを変えるステアリング、視線検出対象車両50が左右のどちらに曲がるかを掲示するために操作されるウインカー、視線検出対象車両50を停止させるために制動動作を行うブレーキ、視線検出対象車両50を走行させるために加速動作を行うアクセル、ECU(Electric Computer Unit)などにより構成されている。ここで、ドライバがステアリングやウインカー、ブレーキ、アクセルを操作すると、運転情報が運転装置9のECUから出力される。運転情報は、視線検出対象車両50の動きを示す情報であり、例えば、ドライバがウインカーで右折を掲示した場合には、視線検出対象車両50が右折するという運転情報が運転装置9から出力される。
The driving device 9 connected to the
また、警告装置1に接続されたナビゲーション装置10は、視線検出対象車両50の現在位置や目的地までの予定ルート、走行中の道路60の形状、視線検出対象車両50の速度などのナビゲーション情報を得る。ナビゲーション情報は、視線検出対象車両50がどのような場所でどの方向にどのような速度で動くかを示す情報である。
The
5は判定部であり、視線方向検出部3から出力された視線検出対象車両50のドライバの実視線方向の情報を入力し、視線方向予測部4から出力されたドライバ予測視線方向を含む適合条件の情報を入力する。そして、図4に示すように、ドライバの眼球からドライバが注視する点(以下、注視点と記述する)を結ぶドライバ予測視線方向とドライバの実視線方向との差分を検出し、差分が所定の範囲内であるか否かを判定する。また、判定部5は、ドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内であるか否かの判定結果を示す情報及び視線方向予測部4から出力された適合条件の情報に含まれる所定の時間率を示す情報を出力する。ここで、所定の範囲は、視線方向予測部4から出力された適合条件の情報によって決定される。
なお、ドライバの注視点がルームミラー50aやドアミラー50bなどの平面である場合には、判定部5は、ドライバの実視線方向とドライバ予測視線方向とを以下のように比較しても良い。図5に示すように、判定部5は、ドライバの眼球と注視点を中心とした平面とを結ぶ錐体を所定の範囲とし、ドライバの実視線方向が所定の範囲に含まれるか否かを判定する。そして、判定部5は、ドライバの実視線方向が所定の範囲内であるか否かの判定結果を示す情報を出力する。
When the driver's gazing point is a plane such as the
6は制御部であり、判定部5から出力された判定結果を示す情報及び所定の時間率を示す情報を入力し、ドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以上であるか否かを調べる。また、錐体を所定の範囲とした場合には、制御部6は、ドライバの実視線方向が所定の範囲内である時間が所定の時間率以上であるか否かを調べる。
Reference numeral 6 denotes a control unit which inputs information indicating the determination result output from the
そして、制御部6は、その時間が所定の時間率以下であると判断した場合に、視線検出対象車両50の周囲に存在する周辺車両70に対して注意を促す情報(以下、警告情報と記述する)を生成し、車々間通信部7に出力する。車々間通信部7では、制御部6から入力した警告情報を地上波アンテナ8などにより周辺車両70に送信する。
When the control unit 6 determines that the time is equal to or less than a predetermined time rate, the control unit 6 is information that calls attention to the surrounding
ここで、周辺車両70では、車々間通信部によって受信した警告情報に基づいて、警告音声や警告画像を生成し、スピーカなどにより警告音声を出力したり、表示装置などにより警告画像を出力したりして、その車両のドライバに対して視線検出対象車両50のドライバが注意をはらって運転していない旨の警告を行う。
Here, in the surrounding
図6は、第1の実施形態による警告装置1に接続されるナビゲーション装置10の構成例を示すブロック図である。図6において、11はDVD−ROM(Digital Versatile Disk Read Only Memory)等の地図記録媒体であり、地図表示や経路探索などに必要な各種の地図データを記憶している。なお、ここでは地図データを記憶する記録媒体としてDVD−ROM11を用いているが、CD−ROM(Compact Disk Read Only Memory)、ハードディスクなどの他の記録媒体を用いても良い。12はDVD−ROM制御部であり、DVD−ROM11からの地図データの読み取りを制御する。
FIG. 6 is a block diagram illustrating a configuration example of the
13は車両の現在位置を測定する位置測定部であり、自立航法センサ、GPS(Global Positioning System)受信機、位置計算用CPU等で構成されている。自立航法センサは、所定走行距離毎に1個のパルスを出力して車両の移動距離及び速度を検出する車速センサ(距離センサ)と、車両の回転角度(移動方位)を検出する振動ジャイロ等の角速度センサ(相対方位センサ)とを含む。自立航法センサは、これらの車速センサ及び角速度センサによって車両の相対位置及び方位を検出すると共に、自車両の速度を検出する。
位置計算用CPUは、自立航法センサから出力される車両の相対的な位置及び方位のデータに基づいて、絶対的な車両の位置(推定車両位置)及び車両方位を計算する。また、GPS受信機は、複数のGPS衛星から送られてくる電波をGPSアンテナで受信して、3次元測位処理あるいは2次元測位処理を行って自車両の絶対位置及び方位を計算する(車両方位は、現時点における自車両の位置と1サンプリング時間ΔT前の自車両の位置とに基づいて計算する)。 The position calculation CPU calculates the absolute vehicle position (estimated vehicle position) and vehicle direction based on the relative position and direction data output from the self-contained navigation sensor. The GPS receiver receives radio waves transmitted from a plurality of GPS satellites with a GPS antenna, and performs a three-dimensional positioning process or a two-dimensional positioning process to calculate the absolute position and direction of the host vehicle (vehicle direction Is calculated based on the current position of the host vehicle and the position of the host vehicle before one sampling time ΔT).
14は地図情報メモリであり、DVD−ROM制御部12の制御によってDVD−ROM11から読み出された地図データを一時的に格納する。すなわち、DVD−ROM制御部12は、位置測定部13から車両現在位置の情報を入力し、その車両現在位置を含む所定範囲の地図データの読み出し指示を出力することにより、地図表示や誘導経路の探索に必要な地図データをDVD−ROM11から読み出して地図情報メモリ14に格納する。
A
15はプロセッサ(CPU)であり、ナビゲーション装置10の全体を制御する。また、16はROMであり、各種プログラム(誘導経路探索処理プログラム等)を記憶する。17はRAMであり、各種処理の過程で得られるデータや、各種処理の結果得られるデータを一時的に格納する。前述のCPU15は、例えば、ROM16に記憶されている誘導経路探索処理プログラムに従って、地図情報メモリ14に格納された地図データを用いて、現在地から目的地までを結ぶ最もコストが小さな誘導経路を探索する処理を行う。
A processor (CPU) 15 controls the
18は誘導経路メモリであり、CPU15が探索した誘導経路のデータを記憶する。誘導経路のデータは、現在位置から目的地までの各ノードに対応させて、各ノードの位置と、各ノードが交差点か否かを表す交差点識別フラグとを記憶したものである。
19は情報出力部であり、位置測定部13などによって得られた視線検出対象車両50の現在位置及び速度や誘導経路メモリ18に記憶された目的地までの予定ルート、DVD−ROM11などから読み出される走行中の道路60の形状などのナビゲーション情報を警告装置1に出力する。20はバスであり、前述した各種の機能構成同士で互いにデータの授受を行うために使用される。
次に、前述のように構成した警告装置1の動作及び警告方法の処理手順について説明する。図7は、第1の実施形態による警告装置1の動作及び警告方法を示すフローチャートである。
Next, the operation of the
図7において、まず、視線方向予測部4は、視線検出対象車両50の走行状況を示す情報を入力する(ステップS1)。具体的には、運転装置9から視線検出対象車両50の運転情報を入力し、ナビゲーション装置10からナビゲーション情報を入力する。そして、視線方向予測部4は、ステップS1にて入力した視線検出対象車両50の走行状況を示す情報からテーブルに基づいてドライバ予測視線方向、ドライバ予測視線方向を含む所定の範囲、ドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である所定の時間率を決定し、その内容を示す情報を判定部5に出力する(ステップS2)。
In FIG. 7, first, the line-of-sight direction prediction unit 4 inputs information indicating the traveling state of the line-of-sight detection target vehicle 50 (step S1). Specifically, driving information of the line-of-sight
また、視線方向検出部3では、視線センサ2を用いて視線検出対象車両50のドライバの実視線方向を検出する(ステップS3)。
The line-of-sight direction detection unit 3 detects the actual line-of-sight direction of the driver of the line-of-sight
また、判定部5では、ステップS2にて決定されたドライバ予測視線方向を示す情報、ドライバ予測視線方向を含む所定の範囲を示す情報、ドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である所定の時間率を示す情報を入力し、ステップS3にて検出されたドライバの実視線方向の情報を入力する。そして、判定部5は、視線方向検出部3によって検出されたドライバの実視線方向と視線方向予測部4にて決定されたドライバ予測視線方向との差分がステップS2にて決定された所定の範囲内にあるか否かを調べ、その判定結果を示す情報及び実視線方向とドライバ予測視線方向との差分が所定の範囲内である所定の時間率を示す情報を制御部6に出力する(ステップS4)。
Further, in the
制御部6は、判定部5から判定結果を示す情報及び時間率を示す情報を入力し、実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以下であるか否かを調べる(ステップS5)。実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以下ではないと制御部6にて判断した場合には(ステップS5にてNO)、ステップS1の処理に戻る。
The control unit 6 inputs information indicating the determination result and information indicating the time rate from the
一方、実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以下であると制御部6にて判断した場合には(ステップS5にてYES)、制御部6は、警告情報を生成し、車々間通信部7に出力する。車々間通信部7は、地上波アンテナ8を介して警告情報を視線検出対象車両50の周囲の周辺車両70に送信する(ステップS6)。周辺車両70では、車々間通信部によって受信した警告情報により警告音声や警告画像を生成して、スピーカなどにより警告音声を出力したり、表示装置などにより警告画像を出力したりして、周辺車両70のドライバに対して警告を行う。
On the other hand, when the control unit 6 determines that the time during which the difference between the actual gaze direction and the driver predicted gaze direction is within a predetermined range is equal to or less than the predetermined time rate (YES in step S5), the control unit 6 generates warning information and outputs it to the
以上詳しく説明したように、第1の実施形態によれば、視線検出対象車両50の走行状況を示す情報に基づいてドライバ予測視線方向を視線検出対象車両50の視線方向予測部4にて予測し、ドライバの実視線方向を視線検出対象車両50の視線方向検出部3にて検出して、検出されたドライバの実視線方向とドライバ予測視線方向との適合性を視線検出対象車両50の判定部5にて判定する。そして、判定部5による判定結果に応じて、周辺車両70に対して注意を促す警告情報を視線検出対象車両50の車々間通信部7から送信するようにしている。これにより、視線検出対象車両50から周辺車両70に対して注意を喚起することができるので、周辺車両70のドライバは、視線検出対象車両50のドライバが危険要因に注意をはらって運転しているか否かを把握することができ、視線検出対象車両50に対して必要以上に注意をはらわなくても良くなる。また、周辺車両70のドライバは、視線検出対象車両50の不注意なドライバによる不適切な運転を把握することができるので、不適切に運転されている視線検出対象車両50を回避することができ、もらい事故を防止することができる。
As described above in detail, according to the first embodiment, the gaze direction prediction unit 4 of the gaze
また、本実施形態では、視線検出対象車両50のドライバの実視線方向とドライバ予測視線方向とが単に適合するか否かだけでなく、時間情報を含めて判定を行うようにしている。これにより、視線検出対象車両50のドライバがドライバ予測視線方向をどの程度見ているかを判定することができるので、周辺車両70のドライバは、視線検出対象車両50のドライバが危険要因に注意をはらって運転しているか否かをより詳細に把握することができる。
Further, in the present embodiment, determination is made not only whether or not the actual gaze direction of the driver of the gaze
(第2の実施形態)
次に、本発明による第2の実施形態を図面に基づいて説明する。図8は、第2の実施形態による警告装置21の構成を示すブロック図である。ここで、第2の実施形態による警告装置21は、視線検出対象車両50のドライバの実視線方向を検出する視線検出車両(例えば、周辺車両70のうちの一台)に搭載されている。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to the drawings. FIG. 8 is a block diagram illustrating a configuration of the
図8において、22はカメラであり、例えば、視線検出車両の前方に進行方向に向かって取り付けられており、視線検出対象車両50のドライバの顔画像を撮影する。視線方向検出部23は、カメラ22によって撮影された画像を周知の画像認識技術によって画像認識して視線検出対象車両50のドライバの視線方向を検出する。ここで、視線検出対象車両50のドライバの実視線方向を検出する際に、好ましくは、ドライバの顔付近の画像からドライバの顔の向きを検出してドライバの実視線方向を取得する。更に好ましくは、ドライバの眼球の画像からドライバの実視線方向を取得する。
In FIG. 8,
24は視線方向予測部であり、後述する車々間通信部25によって受信した視線検出対象車両50の走行状況を示す情報を入力する。そして、視線方向予測部24は、入力した視線検出対象車両50の走行状況を示す情報に応じて視線検出対象車両50のドライバが視線を向けるべき方向(ドライバ予測視線方向)を予測する。また、視線方向予測部24は、予測したドライバ予測視線方向を含む適合条件の情報を出力する。ここで、ドライバ予測視線方向は、ドライバが安全確認を行うべき方向である。また、視線検出対象車両50の走行状況を示す情報としては、視線検出対象車両50の運転装置から入力する運転情報や、視線検出対象車両50のナビゲーション装置から入力するナビゲーション情報などがある。
また、視線方向予測部24は、視線検出対象車両50の走行状況を示す情報によってドライバ予測視線方向などの適合条件を決定するためのテーブル情報を持っている。ここで、適合条件としては、ドライバ予測視線方向を含む所定の範囲や、視線検出対象車両のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である場合の時間情報を含む。
In addition, the line-of-sight
また、テーブル情報は、視線検出対象車両50の走行状況とドライバ予測視線方向などの適合条件とを対応付けて記憶したものである。例えば、図9(a)に示すように、視線検出対象車両50の現在位置が交差点の道路60上の右折レーンであるという走行状況に対して、ドライバ予測視線方向は、対向する視線検出車両80が存在する正面方向Kと交差点の左方向Lと視線検出対象車両50の進行方向である交差点の右方向Mとの三方向であることがテーブル情報によって定義されている。また、各ドライバ予測視線方向K,L,Mに対して夫々所定の範囲k,l,mがテーブル情報によって定義されている。また、各ドライバ予測視線方向K,L,Mに対する所定の時間率がテーブル情報によって定義されている。
The table information is stored in association with the traveling condition of the line-of-sight
また、図9(b)に示すように、視線検出対象車両50の現在位置が交差点の道路60上に存在し直進しているという走行状況に対して、ドライバ予測視線方向は、視線検出対象車両50の進行方向である正面方向Nと交差点の左方向Oと視線検出車両80が存在する交差点の右方向Pとの三方向であることがテーブル情報によって定義されている。ここで、各ドライバ予測視線方向N,O,Pに対して夫々所定の範囲n,o,pがテーブル情報によって定義されている。また、各ドライバ予測視線方向N,O,Pに対する所定の時間率がテーブル情報によって定義されている。
Also, as shown in FIG. 9B, the driver predicted line-of-sight direction is the line-of-sight detection target vehicle with respect to a driving situation in which the current position of the line-of-sight
車々間通信部25は、視線検出対象車両50の走行状況を示す情報を受信する。走行状況を示す情報は、視線検出対象車両50の運転装置によって取得される運転情報やナビゲーション装置によって取得されるナビゲーション情報などである。例えば、運転装置は、ステアリング、ウインカー、ブレーキ、アクセル、ECUなどにより構成されている。ここで、ドライバがステアリングやウインカー、ブレーキ、アクセルを操作すると、運転情報が運転装置のECUから出力される。運転情報は、視線検出対象車両50の動きを示す情報である。
The
また、ナビゲーション装置は、視線検出対象車両50の現在位置や目的地までの予定ルート、走行中の道路60の形状、視線検出対象車両50の速度などのナビゲーション情報を取得する。ナビゲーション情報は、視線検出対象車両50がどのような場所でどの方向にどのような速度で動くかを示す情報である。
Further, the navigation apparatus acquires navigation information such as the current position of the line-of-sight
26は判定部であり、視線方向検出部23から出力された視線検出対象車両50のドライバの実視線方向を示す情報を入力し、視線方向予測部24から出力されたドライバ予測視線方向を含む適合条件の情報を入力する。そして、ドライバ予測視線方向とドライバの実視線方向との差分を検出し、差分が所定の範囲内であるか否かを判定する。また、判定部26は、ドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内であるか否かの判定結果を示す情報及び視線方向予測部24から出力された適合条件の情報に含まれる所定の時間率を示す情報を出力する。ここで、所定の範囲は、視線方向予測部4から出力された適合条件の情報によって決定される。
27は制御部であり、判定部26から出力された判定結果を示す情報及び所定の時間率を示す情報を入力し、ドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以上であるか否かを調べる。
そして、所定の時間率以下であると制御部27にて判断した場合には、制御部27は、後述する警告部28にて警告情報を生成する指示を与えるための警告指示情報を生成して、警告部28に出力する。
When the
警告部28は、制御部27から入力した警告指示情報に基づいて、警告情報を生成し、スピーカなどにより警告音声を出力したり、表示装置などにより警告画像を出力したりして、視線検出車両80のドライバに対して警告を行う。
The
次に、前述のように構成した警告装置21の動作及び警告方法の処理手順について説明する。図10は、第2の実施形態による警告装置21の動作及び警告方法を示すフローチャートである。
Next, the operation of the
図10において、まず、視線検出車両80に搭載された警告装置21の視線方向予測部24は、車々間通信部25によって受信した視線検出対象車両50の走行状況を示す情報を入力する(ステップS11)。次に、視線方向予測部24は、視線検出対象車両50の走行状況を示す情報からテーブルに基づいてドライバ予測視線方向、ドライバ予測視線方向を含む所定の範囲、実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間率を決定する(ステップS12)。視線方向検出部23では、視線検出対象車両50のドライバの実視線方向を検出する(ステップS13)。
In FIG. 10, first, the line-of-sight
判定部26では、視線方向検出部23によって検出された視線検出対象車両50のドライバの実視線方向と視線方向予測部24にて決定されたドライバ予測視線方向との差分が所定の範囲内であるか否かを調べ、その判定結果を示す情報を制御部27に出力する(ステップS14)。
In the
制御部27では、判定部26から判定結果を示す情報を入力し、視線検出対象車両50のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以下であるか否かを調べる(ステップS15)。視線検出対象車両50のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以下ではないと制御部27にて判断した場合には(ステップS15にてNO)、ステップS11の処理に戻る。
In the
一方、視線検出対象車両50のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以下であると制御部27にて判断した場合には(ステップS15にてYES)、制御部27は、警告指示情報を生成して警告部28に出力する。警告部28では、制御部27から警告指示情報を入力すると、警告情報を生成して外部(視線検出車両80の車内)に出力する(ステップS16)。
On the other hand, when the
以上詳しく説明したように、第2の実施形態によれば、視線検出対象車両50の走行状況を示す情報に基づいてドライバ予測視線方向を視線検出車両80の視線方向予測部24にて予測し、視線検出対象車両50のドライバの実視線方向を視線検出車両80の視線方向検出部23にて検出して、検出されたドライバの実視線方向とドライバ予測視線方向との適合性を視線検出車両80の判定部26にて判定する。そして、判定部26による判定結果に応じて、視線検出車両80の警告部28にて警告を行うようにしている。これにより、視線検出対象車両50のドライバが注意をはらって運転していないことを視線検出車両(自車両)80に対して喚起することができるので、視線検出車両80のドライバは、視線検出対象車両50のドライバが危険要因に注意をはらって運転しているか否かを把握することができ、視線検出対象車両50に対して必要以上に注意をはらわなくても良くなる。また、視線検出車両80のドライバは、視線検出対象車両50の不注意なドライバによる不適切な運転を把握することができるので、不適切に運転されている視線検出対象車両50を回避することができ、もらい事故を防止することができる。
As described above in detail, according to the second embodiment, the gaze
また、本実施形態では、視線検出対象車両50のドライバの実視線方向とドライバ予測視線方向とが単に適合するか否かだけでなく、時間情報を含めて判定を行うようにしている。これにより、視線検出対象車両50のドライバがドライバ予測視線方向をどの程度見ているかを判定することができるので、視線検出車両80のドライバは、視線検出対象車両50のドライバが危険要因に注意をはらって運転しているか否かをより詳細に把握することができる。
Further, in the present embodiment, determination is made not only whether or not the actual gaze direction of the driver of the gaze
なお、第1の実施形態及び第2の実施形態では、制御部6,27が判定部5,26から出力された判定結果を示す情報を入力し、視線検出対象車両50のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以下であるか否かを調べているが、これに限定されない。例えば、視線検出対象車両50のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以下であるか否かを判定部5,26によって調べるようにしても良い。
In the first embodiment and the second embodiment, the
また、第1の実施形態では、制御部6が警告情報を生成しているが、これに限定されない。例えば、判定部5が警告情報を生成するようにしても良い。
In the first embodiment, the control unit 6 generates warning information, but the present invention is not limited to this. For example, the
また、第1の実施形態では、警告情報が車々間通信部7により送信されているが、これに限定されない。例えば、制御部6が警告指示情報を生成し、車々間通信部7により周辺車両70に送信するようにしても良い。ここで、警告指示情報を受信した周辺者両70では、警告指示情報により警告情報を生成し、図示しない警告部により警告音声や警告画像を出力する。
In the first embodiment, the warning information is transmitted by the
また、第2の実施形態では、制御部27が警告指示情報を生成しているが、これに限定されない。例えば、判定部26が警告指示情報を生成するようにしても良い。
In the second embodiment, the
また、第1の実施形態及び第2の実施形態では、判定部5,26は、視線検出対象車両50のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内であるか否かを判定しているが、これに限定されない。例えば、判定部5,26は、視線検出対象車両50のドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲外であるか否かを判定するようにしても良い。
In the first embodiment and the second embodiment, the
また、第1の実施形態及び第2の実施形態では、ドライバ予測視線方向を決定してからドライバの実視線方向を検出しているが、これに限定されない。例えば、ドライバの実視線方向を検出してからドライバ予測視線方向を決定するようにしても良い。 In the first embodiment and the second embodiment, the driver's actual gaze direction is detected after the driver predicted gaze direction is determined, but the present invention is not limited to this. For example, the driver predicted line-of-sight direction may be determined after the actual line-of-sight direction of the driver is detected.
また、第1の実施形態及び第2の実施形態では、ドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間が所定の時間率以下であるか否かを判定して警告情報を生成しているが、これに限定されない。例えば、ドライバの実視線方向を検出すべき場所(例えば交差点やカーブ、停止線)に車両が進入した瞬間や、車両が右折や左折、発車、停車などの動作を行う瞬間において、ドライバの実視線方向とドライバ予測視線方向との差分が所定の範囲内であるか否かを判定部5,26にて判定し、所定の範囲内ではないと判定した場合に制御部6,27が警告情報を生成するようにしても良い。
Further, in the first embodiment and the second embodiment, it is determined whether or not the time during which the difference between the driver's actual line-of-sight direction and the driver's predicted line-of-sight direction is within a predetermined range is equal to or less than a predetermined time rate. Although the warning information is generated, the present invention is not limited to this. For example, the driver's actual line of sight at the moment when the vehicle enters a place where the actual line-of-sight direction of the driver should be detected (for example, an intersection, a curve, or a stop line), or at the moment when the vehicle performs a right turn, left turn, departure, stop, etc. The
また、第2の実施形態では、視線検出対象車両50の走行状況を示す情報を車々間通信部25によって受信しているが、これに限定されない。例えば、以下のような方法により視線検出対象車両50の走行状況を示す情報を取得するようにしても良い。まず、視線検出車両80に搭載されたレーダーやカメラによって視線検出車両80と視線検出対象車両50との距離や視線検出車両80から見た視線検出対象車両50の向きを検出し、視線検出対象車両50の位置及び向きを取得する。また、視線検出車両80に搭載されたナビゲーション装置によって視線検出対象車両50の周辺の地図データを取得する。そして、視線検出対象車両50の位置及び向きを視線検出対象車両50の周辺の地図データに照らし合わせることで、視線検出対象車両50が存在している道路の状態(例えば、道路上の車線の数や夫々の車線がどのような進行方向を示す車線であるかなど)を取得する。視線検出車両80の判定部26では、視線検出対象車両50が存在している道路の車線に応じて、視線検出対象車両50が右折をするのか否かなどの動きを推測し、ドライバ予測視線方向を決定するようにする。
Moreover, in 2nd Embodiment, although the information which shows the driving | running | working condition of the eyes | visual_axis
また、このような場合において、視線検出対象車両50の走行状況を示す情報の一部、例えば、視線検出対象車両50の位置のみを視線検出車両80に搭載したレーダーやカメラによって取得し、その他の情報を車々間通信部25によって受信するようにしても良い。
In such a case, a part of information indicating the traveling state of the line-of-sight
また、第2の実施形態では、警告部28が警告音声や警告画像を出力することにより警告を行っているが、これに限定されない。例えば、警告部28から警告情報をナビゲーション装置に出力し、ナビゲーション装置のスピーカから警告音声を出力したり、ナビゲーション装置の表示装置に警告画像を表示するようにしたりしても良い。
In the second embodiment, the
また、第2の実施形態では、視線検出対象車両50のドライバ予測視線方向を視線検出車両80の視線方向予測部24にて予測しているが、これに限定されない。例えば、視線検出対象車両50に視線方向予測部を設け、これによりドライバ予測視線方向を予測する。そして、図11に示すように、視線検出対象車両50で予測されたドライバ予測視線方向を車々間通信部25により受信するようにしても良い。
Further, in the second embodiment, the driver predicted line-of-sight direction of the line-of-sight
また、第2の実施形態では、視線方向予測部24は、視線検出対象車両50の走行状況を示す情報からテーブル情報に基づいてドライバ予測視線方向、ドライバ予測視線方向を含む所定の範囲、実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間率を決定しているが、これに限定されない。例えば、視線検出対象車両50の走行状況を示す情報に加えて、視線検出車両80の走行状況を示す情報を加味することで視線検出対象車両50のドライバ予測視線方向を含む所定の範囲を決定するようにしても良い。
Further, in the second embodiment, the line-of-sight
具体的には、図12(a)に示すように、視線検出対象車両50が右折し、視線検出車両80が直進又は左折する場合において、視線検出対象車両50と視線検出車両80とが接触する可能性が高くなるので、ドライバ予測視線方向Kを含む所定の範囲k及びドライバ予測視線方向Mを含む所定の範囲mを広くする。同様に、視線検出対象車両50が直進又は左折し、視線検出車両80が右折する場合において、視線検出対象車両50と視線検出車両80とが接触する可能性が高くなるので、ドライバ予測視線方向Kを含む所定の範囲k及びドライバ予測視線方向Mを含む所定の範囲mを広くする。
Specifically, as shown in FIG. 12A, when the line-of-sight
一方、図12(b)に示すように、視線検出対象車両50が直進又は左折し、視線検出車両80が直進又は左折する場合などにおいて、視線検出対象車両50と視線検出車両80とが接触する可能性が低くなるので、ドライバ予測視線方向K´を含む所定の範囲k´及びドライバ予測視線方向M´を含む所定の範囲m´を狭くする。また、このような場合において、視線検出対象車両50の走行状況を示す情報に加えて、視線検出車両80の走行状況を示す情報を加味することで視線検出対象車両50のドライバ予測視線方向をずらしたり、実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間率を変えたりするようにしても良い。ここで、視線検出車両80の走行状況を示す情報としては、運転装置から入力する運転情報や、ナビゲーション装置から入力するナビゲーション情報などである。これにより、ドライバ予測視線方向、ドライバ予測視線方向を含む所定の範囲、実視線方向とドライバ予測視線方向との差分が所定の範囲内である時間率を視線検出車両80の動きに応じて変えることができるので、視線検出対象ドライバ50が注意をはらうべき対象をより明確にすることができる。
On the other hand, as shown in FIG. 12B, when the line-of-sight
その他、上記第1の実施形態及び第2の実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 In addition, each of the first embodiment and the second embodiment described above is merely an example of a specific example for carrying out the present invention, and the technical scope of the present invention is limitedly interpreted by these. It must not be done. In other words, the present invention can be implemented in various forms without departing from the spirit or main features thereof.
本発明は、ドライバが適切な運転をしていない場合に警告を発する警告装置などに有用である。 The present invention is useful for a warning device that issues a warning when the driver is not driving properly.
1 警告装置
2 視線センサ
3,23 視線方向検出部
4,24 視線方向予測部
5,26 判定部
6,27 制御部
7,25 車々間通信部
28 警告部
DESCRIPTION OF
Claims (3)
前記視線検出対象車両の走行状況を示す情報及び前記周辺車両の走行状況を示す情報に基づいて前記視線検出対象車両のドライバが視線を向けるべきドライバ予測視線方向を含む所定の範囲を予測する視線方向予測部と、
前記実視線方向と前記所定の範囲との適合性を判定する判定部と、
前記周辺車両に対して警告情報を出力する警告部と、
前記判定部による判定結果に応じて前記警告部により前記警告情報を出力させる制御部と、
を備えたことを特徴とする警告装置。 A gaze direction detection unit that detects a real gaze direction that is an actual gaze direction of a driver of the gaze detection target vehicle in a surrounding vehicle that exists around the gaze detection target vehicle;
A line-of-sight direction that predicts a predetermined range including a driver-predicted line-of-sight direction in which a driver of the line-of-sight detection target vehicle should turn his / her line of sight based on information indicating the driving state of the line-of-sight detection target vehicle and information indicating the driving state of the surrounding vehicle A predictor;
A determination unit for determining compatibility between the actual line-of-sight direction and the predetermined range ;
A warning unit that outputs warning information to the surrounding vehicles;
A control unit that outputs the warning information by the warning unit according to a determination result by the determination unit;
A warning device comprising:
前記第1のステップにて入力した前記視線検出対象車両の走行状況を示す情報及び前記周辺車両の走行状況を示す情報に基づいて前記視線検出対象車両のドライバが視線を向けるべきドライバ予測視線方向を含む所定の範囲を前記視線方向予測部にて予測する第2のステップと、
前記視線検出対象車両のドライバの実際の視線方向である実視線方向を前記周辺車両の視線方向検出部にて検出する第3のステップと、
前記所定の範囲と前記実視線方向との適合性を前記周辺車両の判定部にて判定する第4のステップと、
前記第4のステップにて判定した結果に応じて、前記周辺車両に対して警告情報を出力する第5のステップと、
を備えたことを特徴とする警告方法。 A first step of inputting information indicating a traveling state of the line-of-sight detection target vehicle in a line-of-sight direction prediction unit of a surrounding vehicle existing around the line-of-sight detection target vehicle;
Based on the information indicating the driving condition of the line-of-sight detection target vehicle input in the first step and the information indicating the driving condition of the surrounding vehicle, the driver predicted line-of-sight direction in which the driver of the line-of-sight detection target vehicle should turn his / her line of sight is determined. A second step of predicting a predetermined range including the gaze direction prediction unit;
A third step of detecting an actual gaze direction, which is an actual gaze direction of a driver of the gaze detection target vehicle, by a gaze direction detection unit of the surrounding vehicle;
A fourth step of determining the suitability between the predetermined range and the actual line-of-sight direction by a determination unit of the surrounding vehicle;
A fifth step of outputting warning information to the surrounding vehicle according to the result determined in the fourth step;
A warning method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005050152A JP4502844B2 (en) | 2005-02-25 | 2005-02-25 | Warning device and warning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005050152A JP4502844B2 (en) | 2005-02-25 | 2005-02-25 | Warning device and warning method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006236029A JP2006236029A (en) | 2006-09-07 |
JP4502844B2 true JP4502844B2 (en) | 2010-07-14 |
Family
ID=37043607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005050152A Expired - Fee Related JP4502844B2 (en) | 2005-02-25 | 2005-02-25 | Warning device and warning method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4502844B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3786920A4 (en) * | 2018-04-23 | 2022-01-05 | Clarion Co., Ltd. | Information processing device and information processing method |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4645891B2 (en) * | 2005-03-24 | 2011-03-09 | 日本精機株式会社 | Vehicle driving support apparatus and vehicle driving support method |
JP4961934B2 (en) * | 2006-10-11 | 2012-06-27 | 株式会社デンソー | Driving assistance device |
JP2009015533A (en) * | 2007-07-03 | 2009-01-22 | Toyota Motor Corp | Gaze direction detecting device |
JP2010217956A (en) * | 2009-03-13 | 2010-09-30 | Omron Corp | Information processing apparatus and method, program, and information processing system |
JP5353416B2 (en) * | 2009-04-27 | 2013-11-27 | トヨタ自動車株式会社 | Driver status monitoring device and vehicle control device |
CN105719486B (en) * | 2016-05-05 | 2017-12-01 | 郑州轻工业学院 | Highway zig zag vehicle-passing intelligent caution control system and method |
JP2018067198A (en) * | 2016-10-20 | 2018-04-26 | 矢崎総業株式会社 | Travel support device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003327009A (en) * | 2002-05-14 | 2003-11-19 | Toyota Central Res & Dev Lab Inc | Attention attracting device |
JP2004024704A (en) * | 2002-06-27 | 2004-01-29 | Pioneer Electronic Corp | Driver mental condition information providing system |
JP2004037151A (en) * | 2002-07-01 | 2004-02-05 | Mazda Motor Corp | Apparatus and method for guiding path, and program for guiding path |
JP2005018235A (en) * | 2003-06-24 | 2005-01-20 | Aisin Seiki Co Ltd | Alarm for vehicle |
JP2005062911A (en) * | 2003-06-16 | 2005-03-10 | Fujitsu Ten Ltd | Vehicle controller |
JP2005062912A (en) * | 2003-06-16 | 2005-03-10 | Fujitsu Ten Ltd | Vehicles controller |
JP2006209368A (en) * | 2005-01-27 | 2006-08-10 | Aisin Seiki Co Ltd | Vehicle drive support device |
-
2005
- 2005-02-25 JP JP2005050152A patent/JP4502844B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003327009A (en) * | 2002-05-14 | 2003-11-19 | Toyota Central Res & Dev Lab Inc | Attention attracting device |
JP2004024704A (en) * | 2002-06-27 | 2004-01-29 | Pioneer Electronic Corp | Driver mental condition information providing system |
JP2004037151A (en) * | 2002-07-01 | 2004-02-05 | Mazda Motor Corp | Apparatus and method for guiding path, and program for guiding path |
JP2005062911A (en) * | 2003-06-16 | 2005-03-10 | Fujitsu Ten Ltd | Vehicle controller |
JP2005062912A (en) * | 2003-06-16 | 2005-03-10 | Fujitsu Ten Ltd | Vehicles controller |
JP2005018235A (en) * | 2003-06-24 | 2005-01-20 | Aisin Seiki Co Ltd | Alarm for vehicle |
JP2006209368A (en) * | 2005-01-27 | 2006-08-10 | Aisin Seiki Co Ltd | Vehicle drive support device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3786920A4 (en) * | 2018-04-23 | 2022-01-05 | Clarion Co., Ltd. | Information processing device and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2006236029A (en) | 2006-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6269606B2 (en) | Vehicle control device | |
JP6323385B2 (en) | Vehicle travel control device | |
JP6729220B2 (en) | Vehicle driving support device | |
JP7288326B2 (en) | Autonomous driving system | |
JP5979259B2 (en) | Collision avoidance control device | |
JP4502844B2 (en) | Warning device and warning method | |
JP5160564B2 (en) | Vehicle information display device | |
JP4735346B2 (en) | Driving support device and driving support system | |
EP3663155B1 (en) | Autonomous driving system | |
JP7307558B2 (en) | Vehicle driving control system | |
CN109841088B (en) | Vehicle driving assistance system and method | |
WO2014148025A1 (en) | Travel control device | |
JP2016168985A (en) | Traveling control device | |
JP7307550B2 (en) | Vehicle driving control system | |
CN110050301A (en) | Controller of vehicle | |
KR101511858B1 (en) | Advanced Driver Assistance System(ADAS) and controlling method for the same | |
KR20120037253A (en) | System for alarming a danger coupled with driver-viewing direction, thereof method and vehicle for using the same | |
JP2020064402A (en) | Display device | |
CN109720343B (en) | Vehicle control apparatus | |
US11628860B2 (en) | Autonomous driving system that can eliminate a system distrust state of the driver | |
JP6658235B2 (en) | Lane keeping device | |
JP6503285B2 (en) | Operation control device, operation control method and program | |
JP2017076232A (en) | Vehicle-purposed notification device | |
JP7307549B2 (en) | Vehicle driving control system | |
JP2023065374A (en) | Image display device, image display method, and image display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090915 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100420 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4502844 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130430 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130430 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140430 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |