JP6136238B2 - Driving support system, driving support method, and computer program - Google Patents

Driving support system, driving support method, and computer program Download PDF

Info

Publication number
JP6136238B2
JP6136238B2 JP2012276925A JP2012276925A JP6136238B2 JP 6136238 B2 JP6136238 B2 JP 6136238B2 JP 2012276925 A JP2012276925 A JP 2012276925A JP 2012276925 A JP2012276925 A JP 2012276925A JP 6136238 B2 JP6136238 B2 JP 6136238B2
Authority
JP
Japan
Prior art keywords
feature
line
sight
vehicle
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012276925A
Other languages
Japanese (ja)
Other versions
JP2014120112A (en
Inventor
智則 杉浦
智則 杉浦
田中 斎二郎
斎二郎 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2012276925A priority Critical patent/JP6136238B2/en
Publication of JP2014120112A publication Critical patent/JP2014120112A/en
Application granted granted Critical
Publication of JP6136238B2 publication Critical patent/JP6136238B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の乗員の視線に基づく案内を行うことによって走行の支援を行う走行支援システム、走行支援方法及びコンピュータプログラムに関する。   The present invention relates to a driving support system, a driving support method, and a computer program that support driving by performing guidance based on the line of sight of a vehicle occupant.

近年、車両の乗員に対する走行支援の一つとして、車両に搭載されたカメラにより車両の進行方向前方の周辺環境を撮像し、撮像画像から進行方向前方に位置する人や他車両などの障害物を検出して案内を行う技術について提案されている(例えば特開2007−73011号公報)。また、上記障害物に対する案内を適切に行う場合には、案内を行う対象となる乗員が現在どこを視認しているのかを特定することが重要である。   In recent years, as one of the driving assistance for vehicle occupants, a camera mounted on the vehicle is used to image the surrounding environment ahead of the vehicle in the traveling direction, and obstacles such as people and other vehicles located in the traveling direction forward from the captured image. A technique for detecting and guiding has been proposed (for example, JP 2007-73011 A). In order to appropriately guide the obstacle, it is important to specify where the occupant who is the target of guidance is currently viewing.

例えば、乗員が障害物を視認していない場合には、障害物を乗員に気付かせる為の案内を行うのが望ましい。一方、乗員が障害物を既に視認している場合には、障害物を乗員に気付かせる為の案内は不要であり、乗員が視認する障害物に関する詳細を案内するのが望ましい。そして、乗員が現在どこを視認しているのかを特定する手段としては、例えば特開2006−242859号公報に、車両に搭載されたカメラにより車両の進行方向前方の周辺環境を撮像するとともに、車内に設置されたカメラによって乗員の視線方向を検出し、撮像画像中の乗員が視認している部分を特定する技術について提案されている。   For example, when the occupant is not visually recognizing an obstacle, it is desirable to provide guidance for notifying the occupant of the obstacle. On the other hand, when the occupant has already visually recognized the obstacle, guidance for notifying the occupant of the obstacle is unnecessary, and it is desirable to provide details regarding the obstacle visually recognized by the occupant. And as a means for identifying where the occupant is currently viewing, for example, in Japanese Patent Laid-Open No. 2006-242859, the surrounding environment ahead of the traveling direction of the vehicle is imaged by a camera mounted on the vehicle. A technique has been proposed in which the sight line direction of an occupant is detected by a camera installed in the vehicle, and the portion of the captured image that the occupant is viewing is specified.

特開2004−322771号公報(第5−7頁、図2)Japanese Patent Laying-Open No. 2004-322771 (page 5-7, FIG. 2) 特開2006−242859号公報(第9−10頁、図4)JP-A-2006-242859 (page 9-10, FIG. 4)

しかしながら、上記特許文献1に記載の技術では、進行方向前方に位置する人や他車両などの障害物に関する案内を行うことは可能であるが、案内を行う対象となる乗員が現在どこを視認しているのかについて考慮していないので、乗員にとって不要な案内が行われたり、必要な案内が行われない場合が生じていた。また、上記特許文献2に記載の技術では、乗員が現在どこを視認しているのかについて特定することは可能であるが、乗員が視認する障害物がどのような障害物であって、その障害物をどのように視認しているかについては特定することができなかった。特に、乗員が障害物を視認している場合と視認していない場合とでは、行う必要となる案内も異なるが、上記特許文献1及び特許文献2ではこのような障害物への視認態様については何ら考慮されていなかった。   However, with the technique described in Patent Document 1, it is possible to provide guidance regarding an obstacle such as a person or other vehicle located in the forward direction of travel, but where the occupant who is the target of guidance is currently viewing. Because there is no consideration about whether or not it is, there have been cases where unnecessary guidance for passengers is provided or necessary guidance is not provided. In the technique described in Patent Document 2, it is possible to specify where the occupant is currently viewing, but what kind of obstacle the occupant visually recognizes is the obstacle. It was not possible to determine how the object was viewed. In particular, the guidance required to be performed differs depending on whether the occupant is viewing an obstacle or not. However, in Patent Document 1 and Patent Document 2 described above, a visual aspect of such an obstacle is described. Nothing was considered.

本発明は前記従来における問題点を解消するためになされたものであり、車両の進行方向前方にある特徴物を検出し、該特徴物への乗員の視認態様として、特に乗員が特徴物を視認しているか否かを判定することによって、乗員に対して不要な案内を行うことなく、現在の乗員に必要な案内を必要なタイミングで行うことが可能な走行支援システム、走行支援方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described conventional problems, and detects a feature in front of the vehicle in the traveling direction, and the occupant visually recognizes the feature as an aspect of the occupant to the feature. A driving support system, a driving support method, and a computer program capable of performing necessary guidance for the current occupant at a necessary timing without performing unnecessary guidance for the occupant by determining whether or not The purpose is to provide.

前記目的を達成するため本願の請求項1に係る走行支援システム(1)は、車両(51)の進行方向前方の周辺環境を撮像する周辺環境撮像手段(13)と、特徴物の画像を記憶した特徴物画像情報(33)を取得する特徴物画像情報取得手段(13)と、前記車両の乗員(52)の視線開始点及び視線方向を検出する視線検出手段(13)と、前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定する視線位置特定手段(13)と、現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定する視線領域特定手段(13)と、前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出する特徴物検出手段(13)と、前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定する特徴物領域特定手段(13)と、前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定する視認態様特定手段(13)と、前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行う案内手段(13)と、を有することを特徴とする。 In order to achieve the above object, the driving support system (1) according to claim 1 of the present application stores a surrounding environment imaging means (13) that images the surrounding environment ahead of the traveling direction of the vehicle (51) and an image of a feature object. The feature image information acquisition means (13) for acquiring the feature image information (33), the line-of-sight detection means (13) for detecting the line-of-sight start point and the line-of-sight direction of the vehicle occupant (52), and the surrounding environment The sight line of the occupant is positioned with respect to the surrounding environment ahead of the traveling direction of the vehicle based on the captured image captured by the imaging unit and the sight line start point and the sight line direction of the occupant detected by the sight line detection unit. gaze position, the line-of-sight position specifying means (13) for identifying at in said captured image, the shooting was included the gaze position specified by the line-of-sight position specifying means within the past predetermined time from the present time Based on the line-of-sight area specifying means (13) for specifying the range on the image as the line-of-sight area, and the captured image captured by the surrounding environment imaging means and the feature object image information, the vehicle is ahead of the traveling direction of the vehicle. A feature detection unit (13) for detecting the feature as a forward feature, a feature region specifying unit (13) for specifying a region surrounding the front feature on the captured image as a feature region, and the line of sight Based on the positional relationship between the area and the feature area, the visual aspect specifying means (13) for specifying the visual aspect of the occupant with respect to the front feature, and the visual aspect of the occupant specified by the visual aspect specifying means And guidance means (13) for performing guidance on the forward feature with the contents according to the above.

また、請求項2に係る走行支援システム(1)は、請求項1に記載の走行支援システムにおいて、前記視認態様特定手段(13)は、前記前方特徴物を前記乗員が注視しているか否かを特定し、前記案内手段(13)は、前記乗員が前記前方特徴物を注視していると判定された場合には、前記乗員が前記前方特徴物を注視していないと判定された場合よりも前記前方特徴物の詳細な案内を行うことを特徴とする。 Further, the driving support system (1) according to claim 2 is the driving support system according to claim 1, wherein the visual recognition mode specifying means (13) determines whether the occupant is gazing at the front feature. And when the passenger is determined to be gazing at the front feature, the guiding means (13) is more than the case where it is determined that the occupant is not gazing at the front feature. Further, detailed guidance of the front feature is performed.

また、請求項3に係る走行支援システム(1)は、請求項2に記載の走行支援システムにおいて、前記前方特徴物が移動体か否かを判定する移動判定手段(13)を有し、前記案内手段(13)は、前記移動判定手段によって前記前方特徴物が移動体であると判定された場合であって、前記視認態様特定手段(13)によって前記前方特徴物を注視していると特定された場合には、前記前方特徴物と前記車両との関係を特定する情報を案内し、前記移動判定手段によって前記前方特徴物が移動体であると判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していないと特定された場合には、前記前方特徴物を特定する情報を案内することを特徴とする。 A travel support system (1) according to claim 3 includes travel determination means (13) for determining whether or not the forward feature is a moving object in the travel support system according to claim 2, guide means (13) is a case where the forward characteristic object is judged to be moving body by the movement determining means, identified as gazing the front characteristic object the by visually recognizable identification means (13) If it is, the information identifying the relationship between the forward feature and the vehicle is guided, and the movement determining means determines that the forward feature is a moving body, and the visual aspect If it is identified as not gazing at the front characteristic object by specifying means, characterized in that to guide the information identifying the forward characteristics thereof.

また、請求項4に係る走行支援システム(1)は、請求項2に記載の走行支援システムにおいて、前記前方特徴物が移動体か否かを判定する移動判定手段(13)を有し、前記案内手段(13)は、前記移動判定手段によって前記前方特徴物が移動体でないと判定された場合であって、前記視認態様特定手段(13)によって前記前方特徴物を注視していると特定された場合には、前記前方特徴物の内容への前記乗員の理解を補助する補助情報を案内し、前記移動判定手段によって前記前方特徴物が移動体でないと判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していないと特定された場合には、前記前方特徴物の内容を識別する識別情報の案内を行うことを特徴とする。 In addition, the driving support system (1) according to claim 4 includes, in the driving support system according to claim 2, movement determination means (13) for determining whether or not the forward feature is a moving body, The guiding means (13) is specified when the forward determining object is determined not to be a moving object by the movement determining means, and is specified as gazing at the forward characteristic by the visual recognition mode specifying means (13). The auxiliary information for assisting the occupant's understanding of the content of the forward feature is guided, and the movement determination means determines that the forward feature is not a moving body, and the visual recognition If it is identified as not gazing at the front characteristic object by aspects specifying means is characterized in that the guidance of the identification information for identifying the contents of the front characteristics thereof.

また、請求項5に係る走行支援システム(1)は、請求項1乃至請求項4のいずれかに記載の走行支援システムにおいて、前記特徴物の種類を識別する種類識別手段(13)を有し、前記特徴物画像情報取得手段(13)は、前記特徴物の画像を前記特徴物の種類毎に記憶した前記特徴物画像情報(33)を取得し、前記種類識別手段は、前記特徴物画像情報取得手段によって取得された前記特徴物画像情報に基づいて前記前方特徴物の種類を識別し、前記案内手段は、前記種類識別手段によって識別された前記特徴物の種類に応じた案内内容で前記特徴物に関する案内を行うことを特徴とする。   Further, the driving support system (1) according to claim 5 is the driving support system according to any one of claims 1 to 4, further comprising type identifying means (13) for identifying the type of the feature. The feature object image information acquisition means (13) acquires the feature object image information (33) in which an image of the feature object is stored for each type of the feature object, and the type identification means includes the feature object image information. The type of the front feature is identified based on the feature image information acquired by the information acquisition unit, and the guide unit is a guide content according to the type of the feature identified by the type identification unit. It is characterized by providing guidance on the characteristic object.

また、請求項6に係る走行支援システム(1)は、請求項1乃至請求項5のいずれかに記載の走行支援システムにおいて、前記車両から前記前方特徴物までの距離を検出する距離検出手段(13)を有し、前記案内手段(13)は、前記車両から前記前方特徴物までの距離が所定距離以上であると判定された場合には、前記前方特徴物の周辺の案内又は前記前方特徴物を目的地とする走行案内を行うことを特徴とする。   A travel support system (1) according to claim 6 is the travel support system according to any one of claims 1 to 5, wherein the distance detection means (10) detects the distance from the vehicle to the front feature. 13), and when the distance from the vehicle to the front feature is determined to be equal to or greater than a predetermined distance, the guide means (13) guides around the front feature or the front feature. It is characterized by performing travel guidance with an object as a destination.

また、請求項7に係る走行支援システム(1)は、請求項1乃至請求項6のいずれかに記載の走行支援システムにおいて、前記特徴物は、道路を走行する前記車両(51)の乗員(52)が認視する対象となる物であることを特徴とする。   The driving support system (1) according to claim 7 is the driving support system according to any one of claims 1 to 6, wherein the feature is an occupant of the vehicle (51) traveling on a road ( 52) is an object to be recognized.

また、請求項8に係る走行支援システム(1)は、請求項1乃至請求項7のいずれかに記載の走行支援システムにおいて、前記視認態様特定手段(13)は、前記視線領域と前記特徴物領域との重複割合に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定することを特徴とする。
また、請求項9に係る走行支援方法は、周辺環境撮像手段が、車両(51)の進行方向前方の周辺環境を撮像するステップと、特徴物画像情報取得手段が、特徴物の画像を記憶した特徴物画像情報を取得するステップと、視線検出手段が、前記車両の乗員(52)の視線開始点及び視線方向を検出するステップと、視線位置特定手段が、前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定するステップと、視線領域特定手段が、現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定するステップと、特徴物検出手段が、前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出するステップと、特徴物領域特定手段が、前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定するステップと、視認態様特定手段が、前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定するステップと、案内手段が、前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行うステップと、を有することを特徴とする。
In addition, the driving support system (1) according to claim 8 is the driving support system according to any one of claims 1 to 7, wherein the visual recognition mode specifying means (13) includes the line-of-sight region and the characteristic object. The aspect of visual recognition of the occupant with respect to the front feature is specified based on the overlapping ratio with the region.
In the driving support method according to claim 9, the surrounding environment imaging means images the surrounding environment ahead of the vehicle (51) in the traveling direction, and the feature object image information acquisition means stores the feature image. The step of acquiring the feature object image information, the step of the line-of-sight detection means detecting the line-of-sight start point and the line-of-sight direction of the vehicle occupant (52), and the line-of-sight position specifying means are imaged by the surrounding environment imaging means. Based on the captured image and the sight line start point and the sight line direction of the occupant detected by the sight line detection means, the sight line position where the sight line of the occupant is located with respect to the surrounding environment ahead of the traveling direction of the vehicle is captured. identifying in the image, line-of-sight region specifying means, the imaging field that includes the sight line position specified by the line-of-sight position specifying means within the past predetermined time from the present time The step of specifying the upper range as a line-of-sight region, and the feature detection unit is located forward of the vehicle in the traveling direction based on the captured image and the feature image information captured by the surrounding environment imaging unit. A step of detecting a feature as a front feature, a step in which a feature region specifying unit specifies a region surrounding the front feature as a feature region on the captured image, and a visual recognition mode specifying unit is the line-of-sight region And the step of identifying the occupant's visual aspect with respect to the front feature based on the positional relationship between the visual feature and the feature area, and the guiding means according to the occupant's visual aspect identified by the visual aspect identifying means And a step of providing guidance on the front feature in terms of contents.

更に、請求項10に係るコンピュータプログラムは、コンピュータを、車両(51)の進行方向前方の周辺環境を撮像する周辺環境撮像手段と、特徴物の画像を記憶した特徴物画像情報を取得する特徴物画像情報取得手段と、前記車両の乗員(52)の視線開始点及び視線方向を検出する視線検出手段と、前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定する視線位置特定手段と、現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定する視線領域特定手段と、前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出する特徴物検出手段と、前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定する特徴物領域特定手段と、前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定する視認態様特定手段と、前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行う案内手段と、して機能させることを特徴とする。 Further, the computer program according to claim 10 is a feature that obtains feature object image information in which the computer captures the surrounding environment imaging means for imaging the surrounding environment ahead of the traveling direction of the vehicle (51) and the image of the feature object. Image information acquisition means, gaze detection means for detecting the gaze start point and gaze direction of the vehicle occupant (52), the captured image taken by the surrounding environment imaging means, and the occupant detected by the gaze detection means based starting point of the line of sight and line of sight direction, a line-of-sight position of the occupant's line of sight is positioned relative to the direction of travel of the surrounding environment of the vehicle, a line-of-sight position specifying means for specifying the in said captured image, from the present sight territory identifying the range on the captured image includes the sight line position identified as line-of-sight region by the gaze position determining means within the past predetermined time A feature detection unit that detects, as a forward feature, the feature in front of the vehicle in the traveling direction based on the captured image captured by the surrounding environment imaging unit and the feature image information. The feature region specifying means for specifying the region surrounding the front feature as a feature region on the captured image, and the occupant with respect to the front feature based on the positional relationship between the line-of-sight region and the feature region A visual recognition mode specifying means for specifying the visual recognition mode of the vehicle, and a guidance means for guiding the front feature with contents corresponding to the visual recognition mode of the occupant specified by the visual recognition mode specifying means. Features.

前記構成を有する請求項1に記載の走行支援システムによれば、車両の進行方向前方にある特徴物を特徴物画像情報に基づいて検出するとともに、該特徴物への乗員の視認態様に応じた内容で案内を行うことによって、乗員に対して不要な案内を行うことなく、現在の乗員に必要な案内を必要なタイミングで行うことが可能となる。また、現在の乗員にとって必要な情報を乗員の特徴物への視認態様から適切に特定することが可能となる。特に、乗員が特徴物を視認している場合に、該特徴物に関する案内を行うことによって、乗員が関心を持つ特徴物についてより詳細な情報を提供することが可能となる。 According to the driving support system according to claim 1 having the above-described configuration, the feature in front of the traveling direction of the vehicle is detected based on the feature image information, and the occupant visually recognizes the feature . By performing guidance according to the contents, it is possible to provide guidance necessary for the current occupant at a necessary timing without performing unnecessary guidance for the occupant. In addition, it is possible to appropriately specify information necessary for the current occupant from the visual aspect of the occupant's characteristic object. In particular, when the occupant is visually recognizing a characteristic object, it is possible to provide more detailed information about the characteristic object that the occupant is interested in by performing guidance regarding the characteristic object.

また、請求項2に記載の走行支援システムによれば、乗員が特徴物を注視していると判定された場合には、注視していないと判定された場合よりも特徴物の詳細な案内を行うので、乗員がより関心を持つ特徴物、即ち説明を必要とする特徴物に対して、より詳細な案内を行うことが可能となる。   Further, according to the driving support system of the second aspect, when it is determined that the occupant is gazing at the characteristic object, more detailed guidance of the characteristic object is provided than when it is determined that the occupant is not gazing at the characteristic object. As a result, it is possible to provide more detailed guidance to the features that the occupant is more interested in, that is, the features that require explanation.

また、請求項3に記載の走行支援システムによれば、特徴物が移動体であって且つ乗員が該特徴物を注視していると判定された場合には、特徴物と車両との関係を特定する情報を案内し、特徴物が移動体であって且つ乗員が該特徴物を注視していないと判定された場合には、特徴物を特定する情報を案内するので、乗員の特徴物の視認態様から乗員が必要とする情報を推測し、推測された情報により特徴物の案内を行うことが可能となる。その結果、乗員が必要とする情報を提供することが可能となる。   According to the driving support system according to claim 3, when it is determined that the feature is a moving body and the occupant is gazing at the feature, the relationship between the feature and the vehicle is determined. When the information to be specified is guided and it is determined that the feature is a moving body and the occupant is not gazing at the feature, the information for specifying the feature is guided. Information required by the occupant can be estimated from the visual recognition mode, and the feature can be guided based on the estimated information. As a result, information required by the occupant can be provided.

また、請求項4に記載の走行支援システムによれば、特徴物が移動体でなく且つ乗員が該特徴物を注視していると判定された場合には、特徴物への乗員の理解を補助する情報を案内し、特徴物が移動体でなく且つ乗員が該特徴物を注視していないと判定された場合には、特徴物の内容を識別する情報を案内するので、乗員の特徴物の視認態様から乗員が必要とする情報を推測し、推測された情報により特徴物の案内を行うことが可能となる。その結果、乗員が必要とする情報を提供することが可能となる。   According to the driving support system of the fourth aspect, when it is determined that the feature is not a moving object and the occupant is gazing at the feature, the understanding of the occupant to the feature is assisted. If it is determined that the feature is not a moving object and the occupant is not gazing at the feature, information for identifying the content of the feature is guided. Information required by the occupant can be estimated from the visual recognition mode, and the feature can be guided based on the estimated information. As a result, information required by the occupant can be provided.

また、請求項5に記載の走行支援システムによれば、特徴物の種類によって案内内容を変更するので、乗員が視認する特徴物の案内として必要な情報を適切に選択して案内することが可能となる。例えば、特徴物が道路標識である場合には、該道路標識の規制内容について案内を行うことが可能となる。また、特徴物が車両である場合には、車種やナンバーについて案内を行うことが可能となる。   Further, according to the driving support system of the fifth aspect, the guidance content is changed depending on the type of the feature, so that it is possible to appropriately select and guide information necessary for guidance of the feature visually recognized by the occupant. It becomes. For example, when the characteristic object is a road sign, it is possible to provide guidance on the restriction contents of the road sign. Further, when the characteristic object is a vehicle, it is possible to provide guidance on the vehicle type and number.

また、請求項6に記載の走行支援システムによれば、車両から特徴物までの距離が所定距離以上であると判定された場合には、特徴物の周辺の案内又は特徴物を目的地とする走行案内を行うので、乗員が特徴物を視認した意図を考慮した案内を行うことが可能となる。   According to the driving support system of the sixth aspect, when it is determined that the distance from the vehicle to the feature is greater than or equal to the predetermined distance, the guidance around the feature or the feature is used as the destination. Since the traveling guidance is performed, it is possible to perform the guidance in consideration of the intention that the occupant visually recognizes the characteristic object.

また、請求項7に記載の走行支援システムによれば、案内対象となる特徴物は、道路を走行する車両の乗員が認視する対象となる物であるので、車両の走行に影響を及ぼす虞のある物の存在を乗員に事前に把握させ、適切に走行させることが可能となる。   Further, according to the driving support system of the seventh aspect, since the characteristic object to be guided is an object to be observed by the passenger of the vehicle traveling on the road, there is a risk of affecting the traveling of the vehicle. It is possible to let the occupant know in advance the existence of a certain object and drive it appropriately.

また、請求項8に記載の走行支援システムによれば、乗員の視線領域と特徴物領域との重複割合に基づいて、前方特徴物に対する乗員の視認態様を特定することが可能となる。
また、請求項に記載の走行支援方法によれば、車両の進行方向前方にある特徴物を特徴物画像情報に基づいて検出するとともに、該特徴物への乗員の視認態様に応じた内容で案内を行うことによって、乗員に対して不要な案内を行うことなく、現在の乗員に必要な案内を必要なタイミングで行うことが可能となる。また、現在の乗員にとって必要な情報を乗員の特徴物への視認態様から適切に特定することが可能となる。特に、乗員が特徴物を視認している場合に、該特徴物に関する案内を行うことによって、乗員が関心を持つ特徴物についてより詳細な情報を提供することが可能となる。
According to the driving support system of the eighth aspect, it is possible to identify the occupant's visual aspect with respect to the front feature based on the overlapping ratio between the sight line region and the feature region of the occupant.
According to the driving support method of the ninth aspect, the feature in front of the traveling direction of the vehicle is detected based on the feature image information, and the content according to the visual aspect of the occupant on the feature. By performing the guidance, it is possible to perform guidance necessary for the current occupant at a necessary timing without performing unnecessary guidance for the occupant. In addition, it is possible to appropriately specify information necessary for the current occupant from the visual aspect of the occupant's characteristic object. In particular, when the occupant is visually recognizing a characteristic object, it is possible to provide more detailed information about the characteristic object that the occupant is interested in by performing guidance regarding the characteristic object.

更に、請求項10に記載のコンピュータプログラムによれば、車両の進行方向前方にある特徴物を特徴物画像情報に基づいて検出させるとともに、該特徴物への乗員の視認態様に応じた内容で案内を行うことによって、乗員に対して不要な案内を行わせることなく、現在の乗員に必要な案内を必要なタイミングで行わせることが可能となる。また、現在の乗員にとって必要な情報を乗員の特徴物への視認態様から適切に特定することが可能となる。特に、乗員が特徴物を視認している場合に、該特徴物に関する案内を行うことによって、乗員が関心を持つ特徴物についてより詳細な情報を提供することが可能となる。 Further, according to the computer program of the tenth aspect, the feature object ahead of the traveling direction of the vehicle is detected based on the feature object image information, and the guidance is provided with the content according to the visual recognition mode of the occupant on the feature object. By performing the above, it is possible to cause the current occupant to perform necessary guidance at a necessary timing without causing the occupant to perform unnecessary guidance. In addition, it is possible to appropriately specify information necessary for the current occupant from the visual aspect of the occupant's characteristic object. In particular, when the occupant is visually recognizing a characteristic object, it is possible to provide more detailed information about the characteristic object that the occupant is interested in by performing guidance regarding the characteristic object.

本実施形態に係るナビゲーション装置を示したブロック図である。It is the block diagram which showed the navigation apparatus which concerns on this embodiment. 車両に設置されたフロントカメラ及びドライバカメラを示した図である。It is the figure which showed the front camera and driver camera which were installed in the vehicle. 本実施形態に係る走行支援処理プログラムのフローチャートである。It is a flowchart of the driving assistance processing program concerning this embodiment. 視線円特定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of a gaze circle specific process. 視線位置の検出方法について説明した図である。It is a figure explaining the detection method of a gaze position. 視線位置の検出方法について説明した図である。It is a figure explaining the detection method of a gaze position. 視線円の特定方法について説明した図である。It is a figure explaining the identification method of the gaze circle. 視線円の特定方法について説明した図である。It is a figure explaining the identification method of the gaze circle. 視野領域特定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of a visual field area | region specific process. 視野領域の特定方法について説明した図である。It is a figure explaining the identification method of the visual field area. 特定された視野領域とフロントカメラの撮像範囲を示した図である。It is the figure which showed the identified visual field area and the imaging range of a front camera. 特徴物検出処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of a feature object detection process. 撮像画像内に含まれる特徴物の検出方法について説明した図である。It is a figure explaining the detection method of the characteristic object contained in a captured image. 視認態様特定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of visual recognition mode specific processing. 特徴物矩形と視線円との重複態様の検出方法について説明した図である。It is a figure explaining the detection method of the duplication aspect of a feature object rectangle and a gaze circle. 運転者の特徴物への視認態様を分類した各パターンについて説明した図である。It is a figure explaining each pattern which classified a visual recognition mode to a driver's characteristic object. 第1案内処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of a 1st guidance process. 緊急度の判定区分を示した図である。It is the figure which showed the determination classification of the urgency level. 第2案内処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of a 2nd guidance process.

以下、本発明に係る走行支援システムについてナビゲーション装置に具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は本実施形態に係るナビゲーション装置1を示したブロック図である。   Hereinafter, a driving support system according to the present invention will be described in detail with reference to the drawings based on an embodiment embodied in a navigation device. First, a schematic configuration of the navigation device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a navigation device 1 according to this embodiment.

図1に示すように本実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して車両周辺の地図等を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスや車両の進行方向前方に位置する特徴物に関する案内等を出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、から構成される。また、ナビゲーション装置1は、CAN等の車載ネットワークを介して、ナビゲーション装置1の搭載された車両に対して設置されたフロントカメラ19及びドライバカメラ20が接続されている。   As shown in FIG. 1, the navigation device 1 according to the present embodiment includes a current position detection unit 11 that detects a current position of a vehicle on which the navigation device 1 is mounted, a data recording unit 12 that records various data, Based on the input information, the navigation ECU 13 that performs various arithmetic processes, the operation unit 14 that receives operations from the user, the liquid crystal display 15 that displays a map around the vehicle to the user, and the voice related to route guidance. A speaker 16 that outputs guidance and guidance on a feature located in front of the traveling direction of the vehicle, a DVD drive 17 that reads a DVD as a storage medium, a probe center, a VICS (registered trademark: Vehicle Information and Communication System) center, and the like And a communication module 18 for communicating with the information center. The navigation device 1 is connected to a front camera 19 and a driver camera 20 installed on a vehicle on which the navigation device 1 is mounted via an in-vehicle network such as CAN.

以下に、ナビゲーション装置1を構成する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Below, each component which comprises the navigation apparatus 1 is demonstrated in order.
The current position detection unit 11 includes a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, and the like, and can detect the current vehicle position, direction, vehicle traveling speed, current time, and the like. . Here, in particular, the vehicle speed sensor 22 is a sensor for detecting a moving distance and a vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs a pulse signal to the navigation ECU 13. And navigation ECU13 calculates the rotational speed and moving distance of a driving wheel by counting the generated pulse. Note that the navigation device 1 does not have to include all the four types of sensors, and the navigation device 1 may include only one or more types of sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や撮像画像DB32や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにメモリーカードやCDやDVD等の光ディスクにより構成しても良い。   The data recording unit 12 reads an external storage device and a hard disk (not shown) as a recording medium, a map information DB 31 and a captured image DB 32 recorded on the hard disk, a predetermined program, and the like, and stores predetermined data on the hard disk. And a recording head (not shown) as a driver for writing. The data recording unit 12 may be configured by a memory card, an optical disk such as a CD or a DVD, instead of the hard disk.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、施設に関する施設データ、経路探索処理に用いられる探索データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等が記憶された記憶手段である。   Here, the map information DB 31 includes, for example, link data relating to roads (links), node data relating to node points, facility data relating to facilities, search data used for route search processing, map display data for displaying a map, and each intersection. This is a storage means for storing intersection data regarding, search data for searching points, and the like.

また、撮像画像DB32は、フロントカメラ19及びドライバカメラ20によって撮像された撮像画像が格納される記憶手段である。また、撮像画像DB32には、後述する特徴物の種類(例えばランドマーク、車両、人、信号機、道路標識、案内板等)毎に、特徴物の画像と特徴点の配置パターンとが規定された特徴物画像情報33についても格納されている。また、特徴物画像情報33には、特徴物の内、特にランドマークに関しては、その位置情報や名称等のランドマークに関わる詳細情報についても記憶される。また、車両に関しては、車名、車種やブランド名等の車両に関わる詳細情報についても記憶される。また、道路標識については標識の種類(案内標識、警戒標識、規制標識、指示標識等)や、道路標識がどのような規制や指示を示した標識であるかを示す内容についても記憶される。更に、撮像画像DB32には、特徴物の種類毎に、該特徴物に関する案内情報(特徴物を案内する為の案内文や案内音声)についても記憶される。
そして、ナビゲーションECU13は、撮像画像DB32に格納された撮像画像や特徴物画像情報33に基づいて車両の進行方向前方に位置する特徴物(以下、前方特徴物という)や運転者の視線位置等を検出する。更に、検出された前方特徴物に対応付けられた案内情報を撮像画像DB32から読み出し、読み出された案内情報に基づいて案内を行う。尚、特徴物画像情報33はナビゲーション装置1内に記憶されるのではなく、外部のサーバに記憶され、外部のサーバからナビゲーション装置1が取得する構成としても良い。
The captured image DB 32 is a storage unit that stores captured images captured by the front camera 19 and the driver camera 20. In the captured image DB 32, an image of a feature and an arrangement pattern of feature points are defined for each type of feature described later (for example, landmark, vehicle, person, traffic light, road sign, guide board, etc.). The feature object image information 33 is also stored. Further, the feature object image information 33 also stores detailed information related to the landmarks such as position information and names of the landmarks, in particular, the landmarks. In addition, regarding the vehicle, detailed information related to the vehicle such as a vehicle name, a vehicle type, and a brand name is also stored. As for road signs, the contents indicating the kind of sign (guidance sign, warning sign, regulation sign, instruction sign, etc.) and what kind of regulation or instruction the road sign indicates are also stored. Further, the captured image DB 32 also stores guidance information (guidance text and guidance voice for guiding the feature object) regarding the feature object for each type of the feature object.
Then, the navigation ECU 13 determines the feature located in the forward direction of the vehicle (hereinafter referred to as the forward feature), the driver's line-of-sight position, and the like based on the captured image and the feature object image information 33 stored in the captured image DB 32. To detect. Further, guidance information associated with the detected forward feature is read from the captured image DB 32 and guidance is performed based on the read guidance information. The feature object image information 33 is not stored in the navigation device 1 but may be stored in an external server and acquired by the navigation device 1 from the external server.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行支援処理プログラム(図3参照)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を構成する。例えば、周辺環境撮像手段は、フロントカメラ19によって車両の進行方向前方の周辺環境を撮像する。特徴物画像情報取得手段は、特徴物の画像を記憶した特徴物画像情報と当該特徴物に関する案内情報とを取得する。視線検出手段は、車両の乗員の視線開始点及び視線方向を検出する。視線位置特定手段は、フロントカメラ19によって撮像された撮像画像と視線検出手段により検出された乗員の視線開始点及び視線方向とに基づいて、車両の進行方向前方の周辺環境に対して乗員の視線が位置する視線位置を、撮像画像中において特定する。特徴物検出手段は、フロントカメラ19によって撮像された撮像画像と特徴物画像情報とに基づいて、車両の進行方向前方にある特徴物を前方特徴物として検出する。視認判定手段は、フロントカメラ19によって撮像された撮像画像と視線位置特定手段によって特定された視線位置とに基づいて、前方特徴物を乗員が視認しているか否かを判定する。案内手段は、視認判定手段によって前方特徴物を乗員が視認していると判定された場合に、特徴物に関する案内を行う。注視判定手段は、フロントカメラ19によって撮像された撮像画像と視線位置特定手段によって特定された視線位置とに基づいて、前方特徴物を乗員が注視しているか否かを判定する。移動判定手段は、特徴物が移動体か否かを判定する。種類識別手段は、特徴物の種類を識別する。距離検出手段は、車両から前方特徴物までの距離を検出する。   On the other hand, the navigation ECU (Electronic Control Unit) 13 is an electronic control unit that controls the entire navigation device 1. The CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processes. Read out from the ROM 43 and the ROM 43 in which a RAM 42 that stores route data when a route is searched, a control program, a driving support processing program (see FIG. 3) described later, and the like are recorded. And an internal storage device such as a flash memory 44 for storing the program. The navigation ECU 13 constitutes various means as processing algorithms. For example, the surrounding environment imaging unit images the surrounding environment ahead of the vehicle in the traveling direction by the front camera 19. The feature object image information acquisition means acquires feature object image information storing a feature object image and guidance information related to the feature object. The line-of-sight detection means detects the line-of-sight start point and the line-of-sight direction of the vehicle occupant. The line-of-sight position specifying means is based on the captured image picked up by the front camera 19 and the occupant's line-of-sight start point and line-of-sight direction detected by the line-of-sight detection means. The line-of-sight position where is located is specified in the captured image. The feature object detection means detects a feature object ahead of the traveling direction of the vehicle as a front feature object based on the captured image captured by the front camera 19 and the feature object image information. The visual recognition determination unit determines whether or not the occupant is viewing the front feature based on the captured image captured by the front camera 19 and the visual line position specified by the visual line position specifying unit. The guidance means performs guidance related to the characteristic object when it is determined by the visual recognition determination means that the occupant is visually recognizing the front characteristic object. The gaze determination unit determines whether or not the occupant is gazing at the front feature based on the captured image captured by the front camera 19 and the line-of-sight position specified by the line-of-sight position specifying unit. The movement determination means determines whether or not the characteristic object is a moving body. The type identifying means identifies the type of feature. The distance detection means detects the distance from the vehicle to the forward feature.

操作部14は、走行開始地点としての出発地、走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)から構成される。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルによって構成することもできる。また、マイクと音声認識装置によって構成することもできる。   The operation unit 14 is operated when inputting a starting point as a travel start point and a destination as a travel end point, and includes a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 13 performs control to execute various corresponding operations based on switch signals output by pressing the switches. The operation unit 14 can also be configured by a touch panel provided on the front surface of the liquid crystal display 15. Moreover, it can also be comprised with a microphone and a speech recognition apparatus.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。   The liquid crystal display 15 includes a map image including a road, traffic information, operation guidance, operation menu, key guidance, guidance route from the departure point to the destination, guidance information along the guidance route, news, weather forecast, Time, mail, TV program, etc. are displayed.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。また、本実施形態では特に車両の進行方向前方に位置する特徴物(人や他車両等)に関する案内についても出力する。
尚、ユーザに対する案内手段としては、上記液晶ディスプレイ15やスピーカ16の代わりに、車両の運転者の頭部に装着可能に構成されるヘッドマウントディスプレイ(HMD)や車両のフロントガラスに映像を投影可能にダッシュボード上部に構成されるヘッドアップディスプレイ(HUD)を設けても良い。
The speaker 16 outputs voice guidance for guiding traveling along the guidance route based on an instruction from the navigation ECU 13 and traffic information guidance. In the present embodiment, guidance relating to a characteristic object (such as a person or another vehicle) positioned in front of the traveling direction of the vehicle is also output.
As a guide means for the user, instead of the liquid crystal display 15 and the speaker 16, a video can be projected on a head mounted display (HMD) configured to be mounted on the head of the driver of the vehicle or on the windshield of the vehicle. A head-up display (HUD) may be provided at the top of the dashboard.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。   The DVD drive 17 is a drive that can read data recorded on a recording medium such as a DVD or a CD. Based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。   The communication module 18 is a communication device for receiving traffic information composed of information such as traffic jam information, regulation information, and traffic accident information transmitted from a traffic information center, for example, a VICS center or a probe center. For example, a mobile phone or DCM is applicable.

また、フロントカメラ19は、図2に示すようにナビゲーション装置1が搭載された車両51の天井とフロントガラスの境界付近に、車両51の進行方向がフロントカメラ19の撮像方向となるように設置される。そして、車両51の進行方向前方の周辺環境を、車両51のフロントガラスを介して撮影する。また、フロントカメラ19の設置位置は運転者52の目の位置(視線開始点)と略同一となるように調整される。更に、フロントカメラ19の画角は運転者の視野角よりも広くなるように設定する。その結果、正面を向く運転者52がフロントガラスを介して視認できる車両51の進行方向前方の周辺環境の範囲(視野領域)を少なくとも含む範囲が撮像可能に構成されている。そして、ナビゲーションECU13は、後述のようにフロントカメラ19により撮像した撮像画像に基づいて、車両51の進行方向前方に位置する特徴物(人や他車両等)を検出する。   Further, as shown in FIG. 2, the front camera 19 is installed near the boundary between the ceiling of the vehicle 51 on which the navigation device 1 is mounted and the windshield so that the traveling direction of the vehicle 51 becomes the imaging direction of the front camera 19. The Then, the surrounding environment ahead of the traveling direction of the vehicle 51 is photographed through the windshield of the vehicle 51. Further, the installation position of the front camera 19 is adjusted so as to be substantially the same as the position of the eyes of the driver 52 (gaze start point). Furthermore, the angle of view of the front camera 19 is set to be wider than the viewing angle of the driver. As a result, a range including at least a range (visual field region) of the surrounding environment in front of the traveling direction of the vehicle 51 that can be visually recognized through the windshield by the driver 52 facing the front is configured to be imaged. And navigation ECU13 detects the characteristic objects (a person, other vehicles, etc.) located ahead of the advancing direction of vehicles 51 based on the picturized picture picturized with front camera 19 as mentioned below.

また、ドライバカメラ20は、例えばCCD等の固体撮像素子を用いたものであり、図2に示すように車両51のインストルメントパネル53の上面に取り付けられ、撮像方向を運転席に向けて設置される。そして、運転席に座った運転者52の顔を撮像する。また、ナビゲーションECU13は、後述のようにドライバカメラ20により撮像した撮像画像から運転者52の目の位置(視線開始点)や視線方向を検出する。   Further, the driver camera 20 uses a solid-state image sensor such as a CCD, for example, and is attached to the upper surface of the instrument panel 53 of the vehicle 51 as shown in FIG. The Then, the face of the driver 52 sitting on the driver's seat is imaged. Further, the navigation ECU 13 detects the eye position (gaze start point) and the gaze direction of the driver 52 from the captured image captured by the driver camera 20 as described later.

続いて、上記構成を有する本実施形態に係るナビゲーション装置1においてCPU41が実行する走行支援処理プログラムについて図3に基づき説明する。図3は本実施形態に係る走行支援処理プログラムのフローチャートである。ここで、走行支援処理プログラムは、車両のACCがONされた後に実行され、フロントカメラ19やドライバカメラ20で撮像された撮像画像に基づいて車両の進行方向前方にある特徴物への視認態様を検出するとともに、検出された特徴物への運転者の視認態様に基づいて各種案内を行うプログラムである。尚、以下の図3、図4、図9、図12、図14、図17及び図19にフローチャートで示されるプログラムは、ナビゲーションECU13が備えているRAM42、ROM43等に記憶されており、CPU41により実行される。   Next, a driving support processing program executed by the CPU 41 in the navigation device 1 according to this embodiment having the above-described configuration will be described with reference to FIG. FIG. 3 is a flowchart of the driving support processing program according to the present embodiment. Here, the driving support processing program is executed after the ACC of the vehicle is turned on, and a visual aspect of the feature in the forward direction of the vehicle based on the captured image captured by the front camera 19 or the driver camera 20 is displayed. It is a program which performs various guidance based on a driver | operator's visual recognition aspect to the detected characteristic object while it detects. The programs shown in the flowcharts of FIGS. 3, 4, 9, 12, 14, 17, and 19 below are stored in the RAM 42, ROM 43, and the like provided in the navigation ECU 13, and are executed by the CPU 41. Executed.

先ず、走行支援処理プログラムでは、ステップ(以下、Sと略記する)1において、CPU41は直近にフロントカメラ19とドライバカメラ20で撮像された撮像画像をそれぞれ取得する。   First, in the driving support processing program, in step (hereinafter abbreviated as “S”) 1, the CPU 41 acquires captured images captured by the front camera 19 and the driver camera 20 most recently.

次に、S2においてCPU41は、後述の視線円特定処理(図4)を行う。尚、視線円特定処理は、ドライバカメラ20により撮像された撮像画像に基づいて運転者の視線が位置する範囲である視線円(視線範囲)を特定する処理である。   Next, in S2, the CPU 41 performs a line-of-sight circle specifying process (FIG. 4) described later. The line-of-sight circle specifying process is a process for specifying a line-of-sight circle (line-of-sight range) that is a range in which the driver's line of sight is located based on a captured image captured by the driver camera 20.

続いて、S3においてCPU41は、後述の視野領域特定処理(図9)を行う。尚、視野領域特定処理は、フロントカメラ19により撮像された撮像画像中において運転者の視野領域や死角領域を特定する処理である。   Subsequently, in S3, the CPU 41 performs a visual field region specifying process (FIG. 9) described later. The visual field area specifying process is a process for specifying the driver's visual field area and blind spot area in the captured image captured by the front camera 19.

その後、S4においてCPU41は、後述の特徴物検出処理(図12)を行う。尚、特徴物検出処理は、フロントカメラ19により撮像された撮像画像に基づいて、車両の進行方向前方にある特徴物を検出する処理である。尚、“特徴物”は道路を走行する車両の運転者が認視する対象となる物であり、例えば他車両、人、信号機、道路標識、案内板、ランドマーク等がある。   Thereafter, in S4, the CPU 41 performs a feature detection process (FIG. 12) described later. The feature object detection process is a process for detecting a feature object ahead of the traveling direction of the vehicle based on the captured image captured by the front camera 19. The “characteristic object” is an object that is recognized by the driver of the vehicle traveling on the road, and includes, for example, other vehicles, people, traffic lights, road signs, information boards, landmarks, and the like.

次に、S5においてCPU41は、前記S4の特徴物検出処理において、フロントカメラ19により撮像された撮像画像から車両の進行方向前方にある特徴物を少なくとも一以上検出したか否か判定する。   Next, in S <b> 5, the CPU 41 determines whether or not at least one feature in front of the traveling direction of the vehicle has been detected from the captured image captured by the front camera 19 in the feature detection process in S <b> 4.

そして、車両の進行方向前方にある特徴物を少なくとも一以上検出したと判定された場合(S5:YES)には、S6へと移行する。それに対して、車両の進行方向前方にある特徴物を検出できなかったと判定された場合(S5:NO)には、S10へと移行する。   And when it determines with having detected at least 1 or more characteristic object ahead of the advancing direction of a vehicle (S5: YES), it transfers to S6. On the other hand, if it is determined that the feature in the forward direction of the vehicle cannot be detected (S5: NO), the process proceeds to S10.

S6においてCPU41は、前記S4の特徴物検出処理によって検出された各特徴物を囲む矩形(以下、特徴物矩形という)を撮像画像上に特定する。そして、特定された特徴物矩形をRAM42等の記憶領域に記憶する。尚、特徴物矩形は、フロントカメラ19の撮像画像上の座標系によって位置や大きさが特定される。また、前記S4の特徴物検出処理によって特徴物が複数検出された場合には、各特徴物に対して特徴物矩形を特定する。   In S6, the CPU 41 specifies a rectangle surrounding each feature detected by the feature detection process in S4 (hereinafter referred to as a feature rectangle) on the captured image. Then, the specified feature rectangle is stored in a storage area such as the RAM 42. Note that the position and size of the feature object rectangle are specified by the coordinate system on the captured image of the front camera 19. When a plurality of feature objects are detected by the feature object detection process in S4, a feature object rectangle is specified for each feature object.

その後、S7においてCPU41は、後述の視線態様特定処理(図14)を実行する。尚、視線態様特定処理は、前記S2で特定された視線円と前記S6で特定された特徴物矩形とに基づいて、車両の進行方向前方にある特徴物への運転者の視認態様を特定する処理である。   Thereafter, in S7, the CPU 41 executes a line-of-sight mode specifying process (FIG. 14) described later. Note that the line-of-sight identification process identifies the driver's visual aspect of the feature ahead of the vehicle in the traveling direction based on the line-of-sight circle identified in S2 and the feature rectangle identified in S6. It is processing.

次に、S8においてCPU41は、後述の第1案内処理(図17)を実行する。尚、第1案内処理は、前記S7で特定された特徴物への運転者の視認態様や前記S3で特定された運転者の視野領域等に基づいて、車両の進行方向前方にある特徴物の存在を運転者に認知させる為の案内を行う処理である。   Next, in S8, the CPU 41 executes a first guidance process (FIG. 17) described later. The first guidance process is based on the feature of the vehicle ahead in the traveling direction of the vehicle based on the driver's visual aspect of the feature identified in S7, the visual field area of the driver identified in S3, and the like. This is a process for guiding the driver to recognize the existence.

続いて、S9においてCPU41は、後述の第2案内処理(図19)を実行する。尚、第2案内処理は、前記S7で特定された特徴物への運転者の視認態様や対象物の種類等に基づいて、車両の進行方向前方にある特徴物の詳細を運転者に提供する為の案内を行う処理である。   Subsequently, in S9, the CPU 41 executes a second guidance process (FIG. 19) described later. The second guidance process provides the driver with the details of the feature in the forward direction of the vehicle based on the driver's visual aspect of the feature identified in S7, the type of the subject, and the like. Is a process for providing guidance.

一方、S10においてCPU41は、運転者が進行方向前方の周辺環境のいずれかの地点を注視しているか否かを判定する。具体的には、前記S2で特定された運転者の視線円が、フロントカメラ19で撮像した撮像画像範囲内にある場合に、運転者が進行方向前方の周辺環境のいずれかの地点を注視していると判定する。また、前記S2で運転者の視線円が特定できなかった場合や、フロントカメラ19で撮像した撮像画像範囲外に視線円がある場合には、運転者が進行方向前方の周辺環境を注視していないと判定する。   On the other hand, in S10, the CPU 41 determines whether or not the driver is gazing at any point in the surrounding environment ahead of the traveling direction. Specifically, when the driver's line-of-sight circle specified in S <b> 2 is within the captured image range captured by the front camera 19, the driver gazes at any point in the surrounding environment ahead of the traveling direction. It is determined that Further, when the driver's line-of-sight circle cannot be specified in S2 or when the line-of-sight circle is outside the captured image range captured by the front camera 19, the driver is gazing at the surrounding environment ahead of the traveling direction. Judge that there is no.

そして、運転者が進行方向前方の周辺環境のいずれかの地点を注視していると判定された場合(S10:YES)には、S11へと移行する。それに対して、運転者が進行方向前方の周辺環境を注視していない場合(S10:NO)、即ち運転者が注視自体をしていない又は注視していたとしても進行方向前方の周辺環境以外の地点(例えばメータ、バックミラー、ドアミラー等)を注視していると判定された場合には、案内を行うことなくS1へと戻る。   If it is determined that the driver is gazing at any point in the surrounding environment ahead of the traveling direction (S10: YES), the process proceeds to S11. On the other hand, when the driver is not gazing at the surrounding environment ahead of the traveling direction (S10: NO), that is, even if the driver is not gazing or gazing, it is other than the surrounding environment ahead of the traveling direction. If it is determined that a point (eg, meter, rearview mirror, door mirror, etc.) is being watched, the process returns to S1 without performing guidance.

S11においてCPU41は、前記S2で特定された視線円とフロントカメラ19で撮像された撮像画像に基づいて、進行方向前方の周辺環境において運転者が注視している箇所(以下、注視箇所)を特定する。そして、特定した注視箇所に基づく案内を行う。例えば、運転者が空を注視している場合には、今後の天気についての案内を行う。また、海や山などの地形を注視している場合には、注視している地形の名称(山の名前や湾の名前等)を案内する。また、運転者が注視する方向にある地名(市区町村名等)を案内することとしても良い。更に、案内はスピーカ16による音声案内により行っても良いし、液晶ディスプレイ15による表示案内としても良い。また、HMDやHUDを用いて案内を行っても良い。その後、当該走行支援処理プログラムを終了する。   In S <b> 11, the CPU 41 identifies the location where the driver is gazing in the surrounding environment ahead of the traveling direction (hereinafter, the gazing location) based on the line-of-sight circle identified in S <b> 2 and the captured image captured by the front camera 19. To do. And guidance based on the specified gaze point is performed. For example, when the driver is gazing at the sky, guidance on the future weather is given. In addition, when gazing at the topography of the sea, mountains, etc., the name of the terrain being watched (the name of the mountain, the name of the bay, etc.) is guided. Alternatively, a place name (city name, etc.) in a direction in which the driver is gazing may be guided. Further, the guidance may be performed by voice guidance using the speaker 16 or display guidance using the liquid crystal display 15. Further, guidance may be performed using HMD or HUD. Thereafter, the driving support processing program ends.

次に、前記S2において実行される視線円特定処理のサブ処理について図4に基づき説明する。図4は視線円特定処理のサブ処理プログラムのフローチャートである。   Next, a sub-process of the line-of-sight circle specifying process executed in S2 will be described with reference to FIG. FIG. 4 is a flowchart of a sub-processing program for the line-of-sight circle specifying process.

先ず、S21においてCPU41は、前記S1で取得したドライバカメラ20の撮像画像に基づいて、運転者の視線開始点(目の位置)及び視線方向を検出する。ドライバカメラ20は前記したように車両のインストルメントパネルに設置され、撮像方向を運転席に向けて設置されており(図2)、撮像画像には運転者の顔が含まれることとなる。尚、視線開始点や視線方向の検出方法としては、例えば角膜反射法により計測された瞳孔の中心位置やプルキニエ像を用いて検出する方法がある。それらの方法は既に公知の技術であるので、詳細は省略する。   First, in S21, the CPU 41 detects the driver's gaze start point (eye position) and gaze direction based on the captured image of the driver camera 20 acquired in S1. The driver camera 20 is installed on the instrument panel of the vehicle as described above, and is installed with the imaging direction facing the driver's seat (FIG. 2), and the captured image includes the driver's face. As a method for detecting the line-of-sight start point and the line-of-sight direction, there is a method of detecting using the center position of the pupil or the Purkinje image measured by the corneal reflection method, for example. Since these methods are already known techniques, details are omitted.

次に、S22においてCPU41は、前記S21で検出された運転者の視線開始点や視線方向に基づいて、車両の進行方向前方の周辺環境に対して運転者の視線が位置する視線位置を特定する。
具体的には、図5に示すように、視線開始点Pから視線方向αへと延長した直線と検出面54との交点を視線位置Qとする。そして、視線位置Qは検出面54上を座標系としたX座標及びY座標によって特定される。尚、特に本実施形態では、検出面54はフロントカメラ19の撮像面とする。即ち、前記S22で特定された視線位置は、フロントカメラ19で撮像された撮像画像中において特定された視線位置にも相当する。
Next, in S22, the CPU 41 specifies the line-of-sight position where the driver's line of sight is located with respect to the surrounding environment ahead of the traveling direction of the vehicle based on the driver's line-of-sight start point and line-of-sight direction detected in S21. .
Specifically, as shown in FIG. 5, a line-of-sight position Q is an intersection of a straight line extending from the line-of-sight start point P in the line-of-sight direction α and the detection surface 54. The line-of-sight position Q is specified by the X coordinate and the Y coordinate with the detection surface 54 as a coordinate system. In particular, in the present embodiment, the detection surface 54 is the imaging surface of the front camera 19. That is, the line-of-sight position specified in S22 corresponds to the line-of-sight position specified in the captured image captured by the front camera 19.

続いて、S23においてCPU41は、前記S22で特定された運転者の視線位置を、キャリブレーション状況、運転状況、自信度等に基づいてより正確な位置となるように補正する。   Subsequently, in S23, the CPU 41 corrects the driver's line-of-sight position specified in S22 so as to be a more accurate position based on the calibration situation, the driving situation, the degree of confidence, and the like.

その後、S24においてCPU41は、前回実行された視線円特定処理のサブ処理中に検出した運転者の視線位置(後述のS25で記憶される)をRAM42等から読み出し、読み出した視線位置と今回新たに検出された運転者の視線位置(S23の補正後の位置)とを比較し、各位置間のズレが所定距離以上であるか否かを判定する。尚、所定距離は任意に設定可能な閾値(例えば10cm)であり、RAM42等に記憶される。   Thereafter, in S24, the CPU 41 reads the driver's line-of-sight position (stored in S25 described later) detected during the sub-process of the line-of-sight circle identification process executed last time from the RAM 42 or the like, and newly reads this line-of-sight position and this time. The detected line-of-sight position of the driver (the position after the correction in S23) is compared, and it is determined whether or not the deviation between the positions is equal to or greater than a predetermined distance. The predetermined distance is a threshold (for example, 10 cm) that can be arbitrarily set, and is stored in the RAM 42 or the like.

そして、前回検出した視線位置と今回新たに検出した視線位置とのズレが所定距離以上であると判定された場合(S24:YES)には、S27へと移行する。一方、前回検出した視線位置と今回新たに検出した視線位置とのズレが所定距離未満であると判定された場合(S24:NO)には、S25へと移行する。   If it is determined that the deviation between the previously detected line-of-sight position and the newly detected line-of-sight position is greater than or equal to the predetermined distance (S24: YES), the process proceeds to S27. On the other hand, when it is determined that the difference between the previously detected line-of-sight position and the newly detected line-of-sight position is less than the predetermined distance (S24: NO), the process proceeds to S25.

S25においてCPU41は、前回検出した視線位置と今回新たに検出した視線位置(S23の補正後の位置)との中点を特定し、特定された中点の位置を今回新たに検出した運転者の視線位置とする。即ち、S22で特定された運転者の視線位置は、一旦S23で補正され、更にS25で特定された中点の座標へと補正され、最終的に確定される。そして、確定された運転者の視線位置の座標はRAM42等の記憶媒体に累積的に記憶される。
例えば、図6に示すように前回検出した運転者の視線位置が位置Aであって、S23で補正された今回の視線位置が位置Bであった場合には、位置Bではなく位置Aと位置Bとの中点の位置Cが今回検出した運転者の視線位置として最終的に確定される。
In S25, the CPU 41 identifies the midpoint between the previously detected line-of-sight position and the newly detected line-of-sight position (the position after the correction in S23), and the driver who has newly detected the position of the identified midpoint this time. The line-of-sight position. That is, the driver's line-of-sight position specified in S22 is corrected once in S23, further corrected to the coordinates of the midpoint specified in S25, and finally determined. The determined coordinates of the driver's line-of-sight position are cumulatively stored in a storage medium such as the RAM 42.
For example, as shown in FIG. 6, when the driver's line-of-sight position detected last time is position A and the current line-of-sight position corrected in S23 is position B, the position A is not the position B but the position A. The position C of the midpoint with B is finally determined as the driver's line-of-sight position detected this time.

次に、S26においてCPU41は、RAM42等の記憶媒体に記憶された運転者の視線位置の履歴を読み出し、車両の進行方向前方の周辺環境に対して運転者の視線が位置する範囲である視線円(視線範囲)を特定する。   Next, in S <b> 26, the CPU 41 reads the driver's line-of-sight position history stored in a storage medium such as the RAM 42, and the line-of-sight circle is a range in which the driver's line of sight is located with respect to the surrounding environment ahead of the traveling direction of the vehicle. Specify (line-of-sight range).

ここで、人間は同じ箇所を継続して見ている場合でも視線位置は完全に固定されず、移動距離は僅かであるものの常に視線位置を移動しながらその箇所付近を視認することとなる(所謂固視微動)。また、車両の振動や運転姿勢の変化によっても視線位置は移動することとなる。従って、車両の進行方向前方の周辺環境に対する運転者の視認態様を正確に特定する為には、点では無く一定の幅を持たせた範囲によって視線位置を特定するのが望ましい。   Here, even if a person continues to look at the same location, the line-of-sight position is not completely fixed, and although the movement distance is small, the vicinity of the location is always viewed while moving the line-of-sight position (so-called “so-called”). Fixation fine movement). The line-of-sight position also moves due to the vibration of the vehicle and the change in the driving posture. Therefore, in order to accurately specify the driver's visual aspect with respect to the surrounding environment ahead of the traveling direction of the vehicle, it is desirable to specify the line-of-sight position by a range having a certain width instead of a point.

そこで、本実施形態では前記S26において、CPU41は直近所定時間以内の視線位置の履歴を包含する検出面上の範囲を運転者の視線が位置する視線円として特定する。そして、後述のようにフロントカメラ19の撮像画像に含まれる特徴物の位置と視線円とを比較することによって運転者の視認態様を特定する。尚、所定時間は後述のS27で前回の視線円が初期化されてからの時間(即ち、運転者が現在視認する視認位置周辺への視認を開始してからの時間)となる。また、前記S26で特定された視線円は、例えば中心点の座標と半径距離によって規定され、RAM42等の記憶媒体に累積的に記憶される。   Therefore, in this embodiment, in S26, the CPU 41 specifies a range on the detection surface including the history of the line-of-sight position within the latest predetermined time as the line-of-sight circle where the driver's line of sight is located. And the driver | operator's visual recognition mode is specified by comparing the position of the characteristic object contained in the picked-up image of the front camera 19, and a gaze circle so that it may mention later. Note that the predetermined time is a time after the previous line-of-sight circle is initialized in S27 (to be described later) (that is, a time since the driver started visual recognition around the visual recognition position currently viewed by the driver). The line-of-sight circle specified in S26 is defined by, for example, the coordinates of the center point and the radial distance, and is cumulatively stored in a storage medium such as the RAM 42.

例えば、図7に示すように先ず位置Dが視線位置として検出され、次に位置Eが視線位置として検出された場合には、位置D及び位置Eを含む最小の円である円55を視線円として特定する。その後、更に位置Fが視線位置として検出された場合には、位置D、位置E及び位置Fを含む最小の円である円56を視線円として特定する。その結果、視線円は円55から円56へと更新されることとなる。但し、後述のように位置Eと位置Fとの距離が大きく離れている場合には、運転者の視認する対象が変化したと推定し、視線円は一旦初期化され位置Fを始点として新たな視線円が形成されることとなる。また、上述したように人間の視線位置は常に移動し続けるので、運転者が同じ箇所を長時間視認すればするほど視線円内に包含される視線位置は多くなり、基本的に視線円は大きくなる。
また、特に本実施形態では、前記したように視線円が特定される検出面はフロントカメラ19の撮像面とする。即ち、前記S26で特定された視線円は、フロントカメラ19で撮像された撮像画像中において特定された視線円にも相当する。また、本実施形態では車両の進行方向前方の周辺環境に対して運転者の視線が位置する範囲である視線範囲を、円形状の視線円として特定するが、円形以外の形状により視線範囲を特定しても良い。
For example, as shown in FIG. 7, when the position D is first detected as the line-of-sight position and then the position E is detected as the line-of-sight position, a circle 55 that is the smallest circle including the position D and the position E is set as the line-of-sight circle. As specified. Thereafter, when the position F is further detected as the line-of-sight position, the circle 56 that is the smallest circle including the position D, the position E, and the position F is specified as the line-of-sight circle. As a result, the line-of-sight circle is updated from the circle 55 to the circle 56. However, when the distance between the position E and the position F is far apart as will be described later, it is presumed that the subject to be visually recognized by the driver has changed, and the line-of-sight circle is initialized once, and the position F is a new starting point. A line-of-sight circle is formed. Further, as described above, since the human visual line position always moves, the longer the driver visually recognizes the same part for a long time, the more visual line positions included in the visual line circle. Become.
In particular, in the present embodiment, the detection surface on which the line-of-sight circle is specified is the imaging surface of the front camera 19 as described above. That is, the line-of-sight circle specified in S26 corresponds to the line-of-sight circle specified in the captured image captured by the front camera 19. In this embodiment, the line-of-sight range, which is the range in which the driver's line of sight is located with respect to the surrounding environment ahead of the traveling direction of the vehicle, is specified as a circular line of sight, but the line-of-sight range is specified by a shape other than a circle. You may do it.

一方、S27においてCPU41は、運転者の視認する対象が変化したと推定し、既存の視線円を初期化する。また、RAM42に記憶される過去に検出された視線位置の履歴についても初期化する。そして、今回新たに検出された運転者の視線位置(S23の補正後の位置)の座標を視線位置の履歴としてRAM42に記憶する。その結果、次回以降に実行されるS26の処理では今回新たに検出された運転者の視線位置(S23の補正後の位置)を始点として新たな視線円が形成されることとなる。   On the other hand, in S27, the CPU 41 estimates that the object visually recognized by the driver has changed, and initializes the existing line-of-sight circle. Further, the history of the line-of-sight positions detected in the past stored in the RAM 42 is also initialized. Then, the coordinates of the driver's line-of-sight position (position corrected in S23) newly detected this time are stored in the RAM 42 as the line-of-sight position history. As a result, in the process of S26 executed after the next time, a new line-of-sight circle is formed starting from the line-of-sight position of the driver newly detected this time (the position after the correction in S23).

例えば、図8に示すように先ず位置Gが視線位置として検出され、次に位置Hが視線位置として検出され、その後に位置Hから大きく離れた位置Iが視線位置として検出された場合には、既存の位置G及び位置Hを含む視線円57は一旦初期化する。その後、更に位置Jが視線位置として検出された場合には、新たに位置I及び位置Jを含む最小の円である円58を視線円として特定する。   For example, as shown in FIG. 8, when the position G is first detected as the line-of-sight position, then the position H is detected as the line-of-sight position, and then a position I that is far away from the position H is detected as the line-of-sight position. The line-of-sight circle 57 including the existing position G and position H is once initialized. Thereafter, when the position J is further detected as the line-of-sight position, the circle 58, which is the smallest circle including the position I and the position J, is newly identified as the line-of-sight circle.

次に、前記S3において実行される視野領域特定処理のサブ処理について図9に基づき説明する。図9は視野領域特定処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the visual field area specifying process executed in S3 will be described with reference to FIG. FIG. 9 is a flowchart of a sub-processing program of the visual field area specifying process.

先ず、S31においてCPU41は、前記S1で取得したフロントカメラ19の撮像画像と前記S21で検出した運転者の視線開始点(目の位置)及び視線方向と運転者の視野角に基づいて、車両の進行方向前方の周辺環境に対する運転者の視野領域を、フロントカメラ19の撮像画像中において特定する。尚、運転者の視野角は固定値としても良いし、運転者の年齢等に応じて変更しても良い。
具体的には、図10に示すように、視線開始点Pから視線方向αへと延長した直線を中心軸とした視野角βの範囲が、フロントカメラ19の撮像面60によって切断される切断面(即ち視野角に含まれる撮像画像中の領域)を視野領域61とする。また、特定された視野領域61は、撮像面60上の座標系によって位置やサイズが規定される。
First, in S31, the CPU 41 determines the vehicle based on the captured image of the front camera 19 acquired in S1, the driver's gaze start point (eye position), the gaze direction, and the driver's viewing angle detected in S21. The driver's field of view with respect to the surrounding environment ahead in the traveling direction is specified in the captured image of the front camera 19. The viewing angle of the driver may be a fixed value or may be changed according to the age of the driver.
Specifically, as shown in FIG. 10, a cutting plane in which the range of the viewing angle β around the straight line extending from the line-of-sight start point P in the line-of-sight direction α is cut by the imaging surface 60 of the front camera 19. A region of view (that is, a region in the captured image included in the view angle) is defined as a view region 61. Further, the position and size of the identified visual field region 61 are defined by the coordinate system on the imaging surface 60.

ここで、図11は、フロントカメラ19による撮像画像の撮像範囲62と運転者の視野領域61とをそれぞれ示した図である。前記したようにフロントカメラ19の設置位置は運転者52の目の位置(視線開始点)と略同一で、車両の進行方向前方を撮像方向とする(図2)。また、運転者の視野角よりもフロントカメラ19の画角が広くなるように設定されており、基本的に正面を向く運転者の視野領域61は、フロントカメラ19の撮像範囲62に含まれることとなる。一方、撮像範囲62内の視野領域61に含まれない範囲は、車両の進行方向前方の周辺環境において運転者が視認できない死角領域63となる。   Here, FIG. 11 is a diagram illustrating an imaging range 62 of an image captured by the front camera 19 and a driver's visual field area 61. As described above, the installation position of the front camera 19 is substantially the same as the eye position (gaze start point) of the driver 52, and the forward direction of the vehicle is taken as the imaging direction (FIG. 2). Further, the angle of view of the front camera 19 is set to be wider than the viewing angle of the driver, and the driver's viewing area 61 that is basically facing the front is included in the imaging range 62 of the front camera 19. It becomes. On the other hand, a range that is not included in the visual field region 61 in the imaging range 62 is a blind spot region 63 that the driver cannot visually recognize in the surrounding environment ahead of the traveling direction of the vehicle.

その後、S32においてCPU41は、前記S1で取得したフロントカメラ19の撮像画像の内、前記S31で特定された運転者の視野領域内に含まれる画像を切り出す。   Thereafter, in S32, the CPU 41 cuts out an image included in the visual field area of the driver specified in S31 from the captured image of the front camera 19 acquired in S1.

そして、S33においてCPU41は、前記S1で取得したフロントカメラ19の撮像画像を、前記S32で切り出された運転者の視野領域内に含まれる画像と、残りの運転者の視野領域に含まれない画像(即ち死角領域の画像)とに区分して撮像画像DB32に保存する。   In S33, the CPU 41 captures the image captured by the front camera 19 acquired in S1 and includes an image included in the driver's field of view cut out in S32 and an image not included in the remaining driver's field of view. (Ie, an image of a blind spot area) and is stored in the captured image DB 32.

次に、前記S4において実行される特徴物検出処理のサブ処理について図12に基づき説明する。図12は特徴物検出処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the feature object detection process executed in S4 will be described with reference to FIG. FIG. 12 is a flowchart of the sub-processing program for the feature object detection process.

以下の特徴物検出処理のサブ処理では、CPU41はフロントカメラ19で撮像された撮像画像と特徴物画像情報33として予め特徴物の種類毎に記憶された特徴物の画像とを比較することによって、撮像画像内に含まれる特徴物(即ち、車両の進行方向前方に位置する特徴物)を検出する。
具体的に、先ずS41においてCPU41は、前記S1で取得したフロントカメラ19の撮像画像の変換処理を行う。具体的には、撮像画像内に含まれる特徴物の特徴点を検出する為のエッジの抽出等を行う。
In the following sub-process of the feature detection process, the CPU 41 compares the captured image captured by the front camera 19 with the feature image stored in advance for each feature type as the feature image information 33. A feature included in the captured image (that is, a feature located forward in the traveling direction of the vehicle) is detected.
Specifically, first, in S41, the CPU 41 performs conversion processing of the captured image of the front camera 19 acquired in S1. Specifically, edge extraction or the like is performed to detect feature points of the feature object included in the captured image.

次に、S42においてCPU41は、撮像画像内に含まれる特徴点を検出する。更に、撮像画像DB32に格納された特徴物画像情報33を読み出し、検出された特徴点の配置パターンを、特徴物画像情報33において予め特徴物の種類毎に規定された配置パターンと比較するパターン認識処理を行う。   Next, in S42, the CPU 41 detects a feature point included in the captured image. Further, the feature recognition image information 33 stored in the captured image DB 32 is read, and the detected feature point arrangement pattern is compared with the arrangement pattern previously defined for each type of feature in the feature object image information 33. Process.

続いてS43においてCPU41は、前記S42のパターン認識処理の結果に基づいて、撮像画像内に含まれる特徴物の種別を識別する。具体的には、予め規定されたパターンと一致する特徴点の配置パターンが撮像画像内に含まれる場合に、該配置パターンに対応する種別の特徴物が撮像画像内に含まれると認定する。尚、“特徴物”の種別としては、車両、人、信号機、道路標識、案内板、ランドマーク等がある。また、CPU41は撮像画像内に特徴物が複数含まれる場合には、各特徴物について種別を識別する。更に、CPU41は、撮像画像内に特にランドマークが含まれる場合には、特徴物画像情報33に基づいて該ランドマークの位置情報や名称等のランドマークに関わる詳細情報を取得する。また、撮像画像内に特に車両が含まれる場合には、特徴物画像情報33に基づいて該車両の車名、車種、ブランド名等の車両に関わる詳細情報を取得する。また、撮像画像内に特に道路標識が含まれる場合には、特徴物画像情報33に基づいて道路標識の種類(案内標識、警戒標識、規制標識、指示標識等)や、道路標識がどのような規制や指示を示した標識であるかを示す内容等の道路標識に関わる詳細情報を取得する。そして、後述する第2案内処理(図19)において、運転者が特徴物であるランドマークや車両や道路標識を視認していると判定した場合には、上記取得した詳細情報を案内する。   Subsequently, in S43, the CPU 41 identifies the type of the feature included in the captured image based on the result of the pattern recognition process in S42. Specifically, when an arrangement pattern of feature points that matches a predefined pattern is included in the captured image, it is recognized that a feature object of a type corresponding to the arrangement pattern is included in the captured image. The types of “characteristics” include vehicles, people, traffic lights, road signs, information boards, landmarks, and the like. Further, when a plurality of feature objects are included in the captured image, the CPU 41 identifies the type of each feature object. Furthermore, when a landmark is included in the captured image, the CPU 41 acquires detailed information related to the landmark such as the position information and name of the landmark based on the feature object image information 33. Further, when a vehicle is included in the captured image, detailed information related to the vehicle such as the vehicle name, vehicle type, and brand name of the vehicle is acquired based on the feature object image information 33. In addition, when a road sign is particularly included in the captured image, the type of road sign (guidance sign, warning sign, regulation sign, instruction sign, etc.), and what kind of road sign is based on the feature image information 33 Detailed information related to road signs such as contents indicating whether the sign indicates a regulation or an instruction is acquired. In the second guidance process (FIG. 19) described later, when it is determined that the driver is visually recognizing a landmark, vehicle, or road sign that is a characteristic object, the acquired detailed information is guided.

その後、S44においてCPU41は、前記S43の検出結果に基づいて、フロントカメラ19により撮像された撮像画像内に少なくとも一以上の特徴物が含まれているか否か判定する。   Thereafter, in S44, the CPU 41 determines whether or not at least one or more features are included in the captured image captured by the front camera 19 based on the detection result in S43.

そして、フロントカメラ19により撮像された撮像画像内に少なくとも一以上の特徴物が含まれていると判定された場合(S44:YES)には、S45へと移行する。それに対して、フロントカメラ19により撮像された撮像画像内に特徴物が含まれていないと判定された場合(S44:NO)には、S5へと移行する。   If it is determined that at least one or more features are included in the captured image captured by the front camera 19 (S44: YES), the process proceeds to S45. On the other hand, when it is determined that no feature is included in the captured image captured by the front camera 19 (S44: NO), the process proceeds to S5.

その後、S45においてCPU41は、前記S43で種別が識別された特徴物の輪郭を、撮像画像内に含まれる特徴点と、予め特徴物の種類毎に規定された輪郭パターンに基づいて検出する。例えば図13に示す配置で撮像画像内に特徴点65が検出された場合には、特徴物として信号機が撮像画像内に含まれていると識別する。そして、信号機の輪郭66を検出する。その結果、フロントカメラ19の撮像画像内に含まれる特徴物の位置や形状等が特定されることとなり、その後のS6において特徴物を囲む特徴物矩形67(図13参照)を設定することが可能となる。尚、CPU41は撮像画像内に特徴物が複数含まれる場合には、各特徴物について輪郭を検出する。   After that, in S45, the CPU 41 detects the contour of the feature whose type is identified in S43 based on the feature points included in the captured image and the contour pattern previously defined for each type of the feature. For example, when the feature point 65 is detected in the captured image with the arrangement shown in FIG. 13, it is identified that the traffic light is included in the captured image as a feature object. Then, the contour 66 of the traffic light is detected. As a result, the position, shape, and the like of the feature included in the captured image of the front camera 19 are specified, and a feature rectangle 67 (see FIG. 13) surrounding the feature can be set in subsequent S6. It becomes. Note that the CPU 41 detects the outline of each feature object when the captured image includes a plurality of feature objects.

次に、前記S7において実行される視認態様特定処理のサブ処理について図14に基づき説明する。図14は視認態様特定処理のサブ処理プログラムのフローチャートである。   Next, the sub process of the visual recognition mode specifying process executed in S7 will be described with reference to FIG. FIG. 14 is a flowchart of a sub-processing program for visual recognition mode specifying processing.

先ず、S51においてCPU41は、前記S6で特定された特徴物矩形と前記S3で特定された視線円とに基づいて、フロントカメラ19で撮像された撮像画像内における特徴物矩形と視線円との重複態様を検出する。具体的には、図15に示すように特徴物の全体の面積(本実施形態では特徴物を囲む特徴物矩形67の面積を用いる)に対する視線円55と重複する領域68の面積の割合(以下、重複割合という)を算出する。尚、CPU41は前記S4の特徴物検出において複数の特徴物が検出された場合には、各特徴物について重複割合を算出する。また、特徴物の面積としては特徴物矩形67の面積ではなく、前記S45で検出された輪郭によって囲まれる面積を用いても良い。算出処理は複雑化するが、より正確な重複割合を算出することが可能となる。   First, in S51, the CPU 41 overlaps the feature rectangle and the line-of-sight circle in the captured image captured by the front camera 19 based on the feature rectangle specified in S6 and the line-of-sight circle specified in S3. Aspect is detected. Specifically, as shown in FIG. 15, the ratio of the area of the region 68 that overlaps the line-of-sight circle 55 to the total area of the feature (in this embodiment, the area of the feature rectangle 67 surrounding the feature is used) (hereinafter referred to as the area 68). , Referred to as overlap ratio). When a plurality of feature objects are detected in the feature object detection in S4, the CPU 41 calculates an overlap ratio for each feature object. Further, as the area of the feature object, the area surrounded by the contour detected in S45 may be used instead of the area of the feature object rectangle 67. Although the calculation process is complicated, it is possible to calculate a more accurate overlap ratio.

次に、S52においてCPU41は、前記S3で特定された視線円の視線滞留時間を算出する。尚、視線滞留時間は、前述したS27で前回の視線円が初期化された後に、新たに現在の視線円が作成されてからの時間(即ち、運転者が現在視認する視認位置周辺への視認を開始してからの時間)となる。   Next, in S52, the CPU 41 calculates the gaze dwell time of the gaze circle specified in S3. Note that the gaze dwell time is the time after the current gaze circle is newly created after the previous gaze circle is initialized in S27 described above (that is, the gaze staying time around the viewing position that the driver currently gazes at. Time from the start of

続いて、S53においてCPU41は、前記S52で算出された視線滞留時間に基づいて、前記S51で算出された重複割合を補正する。具体的には、視線滞留時間が閾値以上である場合に重複割合を加算し、更に、その加算値は視線滞留時間が長いほど大きくする。例えば、視線滞留時間が3sec以上で重複割合を10%加算し、視線滞留時間が5sec以上で重複割合を20%加算するように構成する。   Subsequently, in S53, the CPU 41 corrects the overlapping ratio calculated in S51 based on the line-of-sight residence time calculated in S52. Specifically, the overlap ratio is added when the line-of-sight residence time is equal to or greater than the threshold, and the added value is increased as the line-of-sight residence time is longer. For example, the overlap ratio is added by 10% when the line-of-sight residence time is 3 seconds or more, and the overlap ratio is added by 20% when the line-of-sight residence time is 5 seconds or more.

ここで、前記したように運転者が同じ箇所を長時間視認すればするほど視線円内に包含される視線位置は多くなり、基本的に視線円は大きくなる(図7参照)。しかしながら、運転者が同じ箇所を長時間視認しても、視線円が大きくならない場合がある。そこで、前記S53において視線滞留時間に応じて重複割合を補正することにより、後述のS54で、より適切な運転者の特徴物への視認態様を特定することが可能となる。   Here, as described above, as the driver visually recognizes the same part for a long time, the line-of-sight position included in the line-of-sight circle increases, and the line-of-sight circle basically increases (see FIG. 7). However, even if the driver visually recognizes the same part for a long time, the line-of-sight circle may not increase. Therefore, by correcting the overlap ratio according to the line-of-sight dwell time in S53, it is possible to specify a more appropriate visual aspect of the driver's feature in S54 described later.

次に、S54においてCPU41は、前記S51で算出され、且つ前記S53で補正された重複割合に基づいて、車両の進行方向前方にある特徴物への運転者の視認態様を特定する。より具体的には、予め規定された以下の(1)〜(4)の4つのパターンのいずれかに視認態様を特定する。
(1)運転者は特徴物を視認していない。
(2)運転者は特徴物を視認しているが注視はしていない。視認も僅かにしているのみである。
(3)運転者は特徴物を視認しているが注視はしていない。上記(2)よりもしっかり視認している。
(4)運転者は特徴物を注視している。
Next, in S54, the CPU 41 identifies the driver's visual aspect of the feature ahead of the traveling direction of the vehicle based on the overlap ratio calculated in S51 and corrected in S53. More specifically, the visual recognition mode is specified in any of the following four patterns (1) to (4) defined in advance.
(1) The driver does not visually recognize the characteristic object.
(2) The driver is visually observing the feature but not gazing. The visual recognition is only slightly made.
(3) The driver visually recognizes the feature but does not pay attention. Visible more firmly than (2) above.
(4) The driver is watching the feature.

例えば、本実施形態では図16に示すように重複割合が0%である場合にはパターン(1)に視認態様を特定し、重複割合が1〜40%である場合にはパターン(2)に視認態様を特定し、重複割合が41〜80%である場合にはパターン(3)に視認態様を特定し、重複割合が81%以上である場合にはパターン(4)に視認態様を特定する。そして、前記S54で特定された視認態様は、対象となる特徴物矩形67と対応付けてRAM42等に記憶される。尚、図16に示す重複割合の数値は適宜変更することが可能である。   For example, in the present embodiment, as shown in FIG. 16, when the overlap ratio is 0%, the visual aspect is specified in the pattern (1), and when the overlap ratio is 1 to 40%, the pattern (2) is specified. A visual recognition mode is specified, and when the overlapping ratio is 41 to 80%, the visual recognition mode is specified for pattern (3), and when the overlapping ratio is 81% or more, the visual recognition mode is specified for pattern (4). . The visual recognition mode specified in S54 is stored in the RAM 42 or the like in association with the target feature rectangle 67. Note that the numerical value of the overlapping ratio shown in FIG. 16 can be changed as appropriate.

次に、前記S8において実行される第1案内処理のサブ処理について図17に基づき説明する。図17は第1案内処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the first guidance process executed in S8 will be described with reference to FIG. FIG. 17 is a flowchart of a sub-processing program of the first guidance process.

先ず、S61においてCPU41は、前記S7の視認態様特定処理において特定された車両の進行方向前方にある特徴物への運転者の視認態様に基づいて、運転者が該特徴物を注視しているか否かを判定する。具体的には、前記S7の視認態様特定処理において、上記(1)〜(4)のパターンの内、特にパターン(4)の視認態様が特徴物への視認態様として特定された場合には、運転者が特徴物を注視していると判定し、パターン(1)〜(3)の視認態様が特徴物への視認態様として特定された場合には、運転者が特徴物を注視していないと判定する。   First, in S61, the CPU 41 determines whether or not the driver is gazing at the feature based on the driver's visual aspect toward the feature ahead of the traveling direction of the vehicle identified in the visual aspect identification process of S7. Determine whether. Specifically, when the visual recognition mode of the pattern (4) among the patterns of (1) to (4) above is specified as the visual recognition mode for the feature in the visual recognition mode identification process of S7, When it is determined that the driver is gazing at the feature, and the visual recognition mode of the patterns (1) to (3) is specified as the visual aspect to the feature, the driver is not gazing at the feature. Is determined.

そして、運転者が特徴物を注視していると判定された場合(S61:YES)には、既に運転者は該特徴物の存在を認知していると推定し、特に特徴物に関する案内を行うことなくS9へと移行する。一方、運転者が特徴物を注視していないと判定された場合(S61:NO)には、運転者は該特徴物の存在を認知していない可能性があると推定し、S62へと移行する。   If it is determined that the driver is gazing at the feature (S61: YES), it is assumed that the driver has already recognized the presence of the feature, and guidance regarding the feature is provided. It moves to S9 without it. On the other hand, if it is determined that the driver is not gazing at the feature (S61: NO), it is estimated that the driver may not recognize the presence of the feature, and the process proceeds to S62. To do.

S62においてCPU41は、運転者が注視していないと判定された特徴物に対して、(a)車両から該特徴物までの距離、(b)車両と該特徴物の相対速度、(c)該特徴物の視認時間をそれぞれ検出する。尚、(a)車両から特徴物までの距離や(b)車両と特徴物の相対速度については、フロントカメラ19で撮像した撮像画像や、車両に搭載された測距センサ等を用いて検出される。また、特徴物の視認時間は、前記S52で算出した視線滞留時間が相当する。   In S62, the CPU 41 determines (a) a distance from the vehicle to the feature, (b) a relative speed between the vehicle and the feature, and (c) the feature that is determined not to be watched by the driver. The visual recognition time of the feature is detected. Note that (a) the distance from the vehicle to the feature and (b) the relative speed between the vehicle and the feature are detected using a captured image taken by the front camera 19, a distance sensor mounted on the vehicle, or the like. The The visual recognition time of the feature corresponds to the visual line dwell time calculated in S52.

次に、S63においてCPU41は、前記S62で検出された(a)車両から特徴物までの距離、(b)車両と特徴物の相対速度、(c)特徴物の視認時間とに基づいて、特徴物に対する案内の緊急度を判定する。基本的には、車両から特徴物までの距離が短い程、緊急度が高いと判定される。また、特徴物に車両がより早く接近する相対速度である程、緊急度が高いと判定される。また、特徴物の視認時間がより短い程、緊急度が高いと判定される。具体的には、図18に示す態様で緊急度が『高』、『中』、『低』のいずれかに判定される。尚、緊急度は、車両の乗員に前方特徴物を認知させる必要性と車両の乗員に前方特徴物の認知に応じて車両の操作を是正させる必要性によって、『高』、『中』、『低』として予め分類されている。   Next, in S63, the CPU 41 determines the characteristics based on (a) the distance from the vehicle to the feature, (b) the relative speed between the vehicle and the feature, and (c) the visual recognition time of the feature detected in S62. Determine the urgency of guidance for an object. Basically, it is determined that the urgency is higher as the distance from the vehicle to the feature is shorter. Further, it is determined that the urgency level is higher as the relative speed at which the vehicle approaches the feature object earlier. Moreover, it is determined that the urgency level is higher as the visual recognition time of the feature object is shorter. Specifically, the degree of urgency is determined as “high”, “medium”, or “low” in the manner shown in FIG. The level of urgency depends on the necessity for the vehicle occupant to recognize the front features and the necessity for the vehicle occupant to correct the operation of the vehicle according to the recognition of the front features. It is classified in advance as “low”.

図18は、特徴物の視認時間をx軸、車両と特徴物の相対速度をy軸、車両から特徴物までの距離をz軸として、緊急度が『高』、『中』、『低』と判定される各区分を示した図である。
具体的には、以下の条件によって判断されることとなる。
緊急度『低』・・・以下の(A)の条件を少なくとも満たす。
(A)特徴物が車両から遠ざかる相対速度(y≧0)である(即ち、特徴物の進行方向が車両の進行方向と同一であって、且つ車両よりも移動速度が速い)。
緊急度『中』・・・以下の(A)の条件を満たし、且つ(B)、(C)の条件を一方又は両方満たす。
(A)特徴物が車両に近づく相対速度(y<0)である(即ち、特徴物の進行方向が車両の進行方向と逆方向、又は同一で且つ車両よりも移動速度が遅い)。
(B)車両から特徴物までの距離が所定距離(例えば10m)以上(z≧β)である。
(C)特徴物の視認時間が所定時間(例えば3sec)以上(x≧α)である。
緊急度『高』・・・以下の(A)〜(C)の条件を全て満たす。
(A)特徴物が車両に近づく相対速度(y<0)である(即ち、特徴物の進行方向が車両の進行方向と逆方向、又は同一で且つ車両よりも移動速度が遅い)。
(B)車両から特徴物までの距離が所定距離(例えば10m)未満(z<β)である。
(C)特徴物の視認時間が所定時間(例えば3sec)未満(x<α)である。
FIG. 18 shows the urgency of “high”, “medium”, and “low” with the feature recognition time as the x-axis, the relative speed between the vehicle and the feature as the y-axis, and the distance from the vehicle to the feature as the z-axis. It is the figure which showed each division determined with.
Specifically, the determination is made based on the following conditions.
Urgency “Low”: At least the following condition (A) is satisfied.
(A) The relative speed at which the feature moves away from the vehicle (y ≧ 0) (that is, the traveling direction of the feature is the same as the traveling direction of the vehicle, and the moving speed is faster than the vehicle).
Urgency “medium”: satisfies the following condition (A) and satisfies one or both of the conditions (B) and (C).
(A) The relative speed at which the feature approaches the vehicle (y <0) (that is, the traveling direction of the feature is opposite to or the same as the traveling direction of the vehicle, and the moving speed is slower than the vehicle).
(B) The distance from the vehicle to the feature is a predetermined distance (for example, 10 m) or more (z ≧ β).
(C) The visual recognition time of the characteristic object is a predetermined time (for example, 3 sec) or more (x ≧ α).
Urgency “High”: All the following conditions (A) to (C) are satisfied.
(A) The relative speed at which the feature approaches the vehicle (y <0) (that is, the traveling direction of the feature is opposite to or the same as the traveling direction of the vehicle, and the moving speed is slower than the vehicle).
(B) The distance from the vehicle to the feature is less than a predetermined distance (for example, 10 m) (z <β).
(C) The visual recognition time of the feature is less than a predetermined time (for example, 3 sec) (x <α).

尚、特徴物が特に道路標識である場合には、道路標識の種類に基づいて、緊急度を判定しても良い。具体的に、CPU41は先ずフロントカメラ19の撮像画像と撮像画像DB32に記憶された特徴物画像情報33とに基づいて、車両の進行方向前方にある特徴物として検出された道路標識の種類を特定する。尚、特徴物画像情報33には、前記したように道路標識の種類毎に道路標識の画像が記憶されている。そして、特定された道路標識の種類に基づいて、緊急度を『高』、『中』、『低』のいずれかに判定される。
例えば、特徴物が規制標識の内、特に赤の縁取りがされている標識である場合には、緊急度を『高』と判定する。
また、特徴物が警戒標識(黄地に黒色の標識)である場合には、緊急度を『中』と判定する。
また、特徴物がその他の道路標識(指示標識や規制標識の内、特に赤の縁取りがされていない標識(青地に白色の標識)等)である場合には、緊急度を『低』と判定する。
また、道路標識の種類に加えて、道路標識の視認時間、車両と道路標識の相対速度及び車両から道路標識までの距離についても考慮して緊急度を判定しても良い。例えば、車両から道路標識までの距離が所定距離(例えば10m)以内で、且つ該道路標識が規制標識の内、特に赤の縁取りがされている標識である場合に、緊急度を『高』と判定しても良い。
If the feature is a road sign, the urgency level may be determined based on the type of road sign. Specifically, the CPU 41 first identifies the type of road sign detected as a feature ahead of the traveling direction of the vehicle, based on the captured image of the front camera 19 and the feature object image information 33 stored in the captured image DB 32. To do. The feature object image information 33 stores a road sign image for each type of road sign as described above. Then, based on the specified type of road sign, the degree of urgency is determined as “high”, “medium”, or “low”.
For example, when the feature is a restriction sign, particularly a sign with a red border, the urgency is determined as “high”.
If the feature is a warning sign (a black sign on a yellow background), the degree of urgency is determined as “medium”.
Also, if the feature is another road sign (a sign or regulation sign, especially a sign with no red border (white sign on a blue background), etc.) judge.
Further, in addition to the type of road sign, the degree of urgency may be determined in consideration of the road sign visual recognition time, the relative speed between the vehicle and the road sign, and the distance from the vehicle to the road sign. For example, when the distance from the vehicle to the road sign is within a predetermined distance (for example, 10 m) and the road sign is a restriction sign, in particular, a sign with a red border, the urgency level is “high”. You may judge.

続いて、S64においてCPU41は、前記S63の緊急度の判定の結果、緊急度が『低』と判定されたか否かを判定する。   Subsequently, in S64, the CPU 41 determines whether or not the urgency level is determined to be “low” as a result of the determination of the urgency level in S63.

そして、緊急度が『低』と判定された場合(S64:YES)には、仮に運転者が特徴物を認知していなくても走行に大きな影響が無い、即ち、車両の運転者が前方特徴物の認知する必要がなく、運転者が車両の操作を是正する必要がないと推定し、特徴物に関する案内を行うことなくS9へと移行する。一方、緊急度が『中』又は『高』と判定された場合(S64:NO)には、S65へと移行する。   If the urgency level is determined to be “low” (S64: YES), there is no significant influence on the driving even if the driver does not recognize the feature, that is, the driver of the vehicle has the front feature. It is presumed that there is no need to recognize the object and that the driver does not need to correct the operation of the vehicle, and the process proceeds to S9 without providing guidance regarding the characteristic object. On the other hand, when the urgency level is determined to be “medium” or “high” (S64: NO), the process proceeds to S65.

S65においてCPU41は、前記S63の緊急度の判定の結果、緊急度が『中』と判定されたか否かを判定する。   In S65, the CPU 41 determines whether or not the urgency level is determined to be “medium” as a result of the determination of the urgency level in S63.

そして、緊急度が『中』と判定された場合(S65:YES)には、運転者が特徴物を認知していない場合に走行に影響を及ぼす可能性がある、即ち、車両の運転者が前方特徴物を認知する必要があり、運転者が車両の操作を是正する必要がないと推定し、車両の進行方向前方にある特徴物の存在を運転者に認知させる為の案内を行う(S66)。例えば、「前方に注意して下さい。」との音声をスピーカ16から出力する。また、特徴物が特に道路標識である場合には、「道路標識に注意して下さい。」との音声をスピーカ16から出力する。尚、案内は液晶ディスプレイ15による表示案内としても良いし、HMDやHUDを用いて案内しても良い。また、前記S66や以降のS68、S69で出力される案内の情報(案内文や案内音声)は、撮像画像DB32から読み出される。撮像画像DB32には、特徴物の種類毎且つ緊急度毎に案内情報が対応付けられて格納されている。   If the urgency is determined to be “medium” (S65: YES), there is a possibility that the driving may be affected when the driver does not recognize the feature, that is, the driver of the vehicle It is estimated that there is a need to recognize the forward feature and the driver does not need to correct the operation of the vehicle, and guidance is provided to allow the driver to recognize the presence of the feature in the forward direction of the vehicle (S66). ). For example, a sound “Please pay attention to the front” is output from the speaker 16. In addition, when the feature is a road sign in particular, a sound “Please pay attention to the road sign” is output from the speaker 16. The guidance may be display guidance on the liquid crystal display 15, or guidance using HMD or HUD. Further, guidance information (guidance text and guidance voice) output in S66 and subsequent S68 and S69 is read from the captured image DB 32. In the captured image DB 32, guidance information is stored in association with each feature type and each urgency level.

一方、緊急度が『高』と判定された場合(S65:NO)には、S67へと移行する。   On the other hand, when the urgency level is determined to be “high” (S65: NO), the process proceeds to S67.

S67においてCPU41は、前記S3で特定された運転者の視野領域に基づいて、車両の進行方向前方に位置する特徴物が運転者の視野領域内にあるか否かを判定する。具体的には、前記S33で保存された視野領域の撮像画像内に特徴物が検出された場合には、車両の進行方向前方に位置する特徴物が運転者の視野領域内にあると判定し、前記S33で保存された死角領域の撮像画像内に特徴物が検出された場合には、車両の進行方向前方に位置する特徴物が運転者の視野領域内にないと判定する。   In S67, the CPU 41 determines whether or not the feature located in the forward direction of the vehicle is within the driver's visual field based on the driver's visual field identified in S3. Specifically, if a feature is detected in the captured image of the field of view saved in S33, it is determined that the feature located in the forward direction of the vehicle is within the driver's field of view. If a feature is detected in the captured image of the blind spot area stored in S33, it is determined that the feature located in the forward direction of the vehicle is not in the driver's field of view.

そして、特徴物が運転者の視野領域内にあると判定された場合(S67:YES)には、運転者が特徴物を認知していない場合に走行に大きく影響を及ぼす可能性がある、即ち、前記車両の乗員が前方特徴物を認知する必要があり、且つ運転者により車両の操作を是正する必要があると推定し、車両の進行方向前方にある特徴物の存在を運転者に認知させるとともに運転者による車両の進行方向前方にある特徴物の存在の認知に応じた車両の操作の是正を促す為の案内を行う(S68)。その際の案内内容は、前記S66よりも特徴物を強調した案内とする。例えば、「○○(特徴物の種別)が接近しています。前方に注意して下さい。」との音声をスピーカ16から出力する。また、特徴物が特に道路標識である場合には、道路標識の規制内容についての案内(例えば、車両進入禁止、制限速度の案内)、例えば、車両進入禁止の道路に車両が進入しそうな場合には運転者に「車両進入禁止の道路が正面にあります。右折又は左折をして車両進入禁止の道路に進入しないようにしてください。」等の案内を行う。また、案内は液晶ディスプレイ15による表示案内としても良いし、HMDやHUDを用いて案内しても良い。更に、HMDやHUDを用いる場合には、前記S6で特定された特徴物矩形を特徴物の周囲に表示しても良い。   If it is determined that the feature is within the driver's field of view (S67: YES), there is a possibility that the driving will be greatly affected if the driver does not recognize the feature, that is, The vehicle occupant is required to recognize the front feature and the driver needs to correct the operation of the vehicle, and the driver is made aware of the presence of the feature in the forward direction of the vehicle. At the same time, guidance is provided for prompting the driver to correct the operation of the vehicle in accordance with the recognition of the presence of a characteristic object ahead of the traveling direction of the vehicle (S68). The guidance content at that time is a guidance in which the feature is emphasized as compared with S66. For example, the voice of “XX (type of characteristic object) is approaching. Be careful ahead” is output from the speaker 16. In addition, when the feature is a road sign in particular, guidance on the contents of the road sign regulation (for example, vehicle entry prohibition, speed limit guidance), for example, when a vehicle is likely to enter a vehicle entry prohibited road Will give guidance to the driver, such as "There is a road where vehicles are prohibited from entering. Please make a right or left turn to avoid entering a road where vehicles are prohibited." Further, the guidance may be display guidance by the liquid crystal display 15 or guidance using HMD or HUD. Furthermore, when using HMD or HUD, the feature object rectangle specified in S6 may be displayed around the feature object.

一方、特徴物が運転者の視野領域内にない、即ち死角領域にあると判定された場合(S67:NO)には、運転者の死角に特徴物が存在することを運転者に認知させる為の案内を行う(S69)。その際の案内内容は、前記S66よりも特徴物を強調した案内とし、視野領域に対する特徴物の位置を案内する。例えば、「○○(特徴物の種別)が死角に位置します。前方に注意して下さい。」との音声をスピーカ16から出力する。また、特徴物が特に道路標識である場合には、死角にある道路標識の規制内容についての案内(例えば、車両進入禁止、制限速度の案内)を行う。また、案内は液晶ディスプレイ15による表示案内としても良いし、HMDやHUDを用いて案内しても良い。   On the other hand, when it is determined that the feature is not in the driver's field of view, that is, in the blind spot area (S67: NO), the driver recognizes that the feature is present in the driver's blind spot. (S69). The guidance content at that time is guidance in which the feature is emphasized as compared with S66, and guides the position of the feature with respect to the visual field region. For example, the speaker 16 outputs the sound “XX (type of characteristic object) is located in the blind spot. Further, when the feature is a road sign in particular, guidance on the restriction contents of the road sign in the blind spot (for example, vehicle entry prohibition, speed limit guidance) is performed. Further, the guidance may be display guidance by the liquid crystal display 15 or guidance using HMD or HUD.

尚、上記第1案内処理においてCPU41は、前記S4の特徴物検出において複数の特徴物が検出された場合には、各特徴物を対象として前記S61〜S69の処理を実行することとしても良いし、車両から最も近い距離にある特徴物のみを対象として前記S61〜S69の処理を実行することとしても良い。   In the first guidance process, when a plurality of feature objects are detected in the feature object detection in S4, the CPU 41 may execute the processes in S61 to S69 for each feature object. The processes of S61 to S69 may be executed only for the feature closest to the vehicle.

次に、前記S9において実行される第2案内処理のサブ処理について図19に基づき説明する。図19は第2案内処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the second guidance process executed in S9 will be described with reference to FIG. FIG. 19 is a flowchart of a sub-processing program for the second guidance process.

先ず、S71においてCPU41は、前記S7の視認態様特定処理において特定された車両の進行方向前方にある特徴物への運転者の視認態様に基づいて、運転者が該特徴物を少なくとも視認(注視を含む)しているか否かを判定する。具体的には、前記S7の視認態様特定処理において、上記(1)〜(4)のパターンの内、特にパターン(2)〜(4)の視認態様が特徴物への視認態様として特定された場合には、運転者が特徴物を視認していると判定し、パターン(1)の視認態様が特徴物への視認態様として特定された場合には、運転者が特徴物を視認していないと判定する。   First, in S71, the CPU 41 recognizes at least the feature (gazes) the driver based on the driver's visual aspect of the feature in the forward direction of the vehicle identified in the visual aspect identification process in S7. Whether it is included) or not. Specifically, in the visual recognition mode specifying process of S7, among the patterns (1) to (4), the visual modes of the patterns (2) to (4) are particularly specified as the visual mode for the feature. In this case, when it is determined that the driver is visually recognizing the feature, and the visual aspect of the pattern (1) is specified as the visual aspect of the feature, the driver does not visually recognize the characteristic. Is determined.

そして、運転者が特徴物を視認していると判定された場合(S71:YES)には、S72へと移行する。それに対して、運転者が特徴物を視認していないと判定された場合(S71:NO)には、特徴物に関する案内を行うことなく当該走行支援処理プログラムを終了する。   And when it determines with the driver | operator visually recognizing the characteristic object (S71: YES), it transfers to S72. On the other hand, when it is determined that the driver is not visually recognizing the feature (S71: NO), the driving support processing program is terminated without performing guidance regarding the feature.

次に、S72においてCPU41は、前記S62で検出した車両から特徴物までの距離が所定距離以上であるか否かを判定する。尚、前記S72の判定基準となる所定距離は、特徴物が車両の走行する道路上や道路沿いにあるか否かを判定する為に設定する距離であり、例えば1000mとする。   Next, in S72, the CPU 41 determines whether or not the distance from the vehicle detected in S62 to the feature is equal to or greater than a predetermined distance. The predetermined distance as the determination criterion in S72 is a distance set for determining whether or not the feature is on the road along which the vehicle travels or along the road, and is set to 1000 m, for example.

そして、車両から特徴物までの距離が所定距離以上であると判定された場合(S72:YES)には、該特徴物は車両の走行する道路上や道路沿いにある特徴物ではなく、遠方にあるランドマークとなるような大型の施設や建造物であると推定する。そして、S73でCPU41は、特徴物に関する情報提供として周辺の観光案内を行ったり、目的地の設定画面へと移行する。そして、目的地の設定画面へと移行した場合には、その後に特徴物を目的地に設定し、特徴物を目的地とした走行案内を行う。   If it is determined that the distance from the vehicle to the feature is greater than or equal to the predetermined distance (S72: YES), the feature is not a feature on or along the road on which the vehicle travels, but in the distance. Presumably a large facility or building that would be a landmark. Then, in S73, the CPU 41 provides a sightseeing guide for the surroundings as information about the characteristic object, or shifts to a destination setting screen. Then, when the screen shifts to the destination setting screen, the feature is set as the destination after that, and the travel guidance using the feature as the destination is performed.

一方、車両から特徴物までの距離が所定距離未満であると判定された場合(S72:NO)には、該特徴物は車両の走行する道路上や道路沿いにある特徴物であると推定し、S74へと移行する。   On the other hand, if it is determined that the distance from the vehicle to the feature is less than the predetermined distance (S72: NO), the feature is estimated to be a feature on or along the road on which the vehicle travels. , The process proceeds to S74.

S74においてCPU41は、前記S62で検出した車両と特徴物の相対速度に基づいて、特徴物が現時点で移動を行っている移動体であるか否かを判定する。   In S74, the CPU 41 determines whether or not the feature is a moving object currently moving based on the relative speed between the vehicle and the feature detected in S62.

そして、特徴物が移動体であると判定された場合(S74:YES)には、該特徴物は移動中の歩行者や他車両であると推定し、S75へと移行する。それに対して、特徴物が移動体でないと判定された場合(S74:NO)には、該特徴物は停止中の歩行者や他車両又は道路標識や信号機等の地物であると推定し、S78へと移行する。   If it is determined that the feature is a moving object (S74: YES), the feature is estimated to be a moving pedestrian or another vehicle, and the process proceeds to S75. On the other hand, when it is determined that the feature is not a moving object (S74: NO), the feature is estimated to be a pedestrian or other vehicle that is stopped, or a feature such as a road sign or a traffic light, The process proceeds to S78.

S75においてCPU41は、運転者が特徴物を注視しているか否かを判定する。尚、具体的な処理内容はS61と同様であるので、詳細は省略する。   In S75, the CPU 41 determines whether or not the driver is gazing at the feature. Note that the specific processing contents are the same as in S61, and thus the details are omitted.

そして、運転者が特徴物を注視していないと判定された場合(S75:NO)には、特徴物に関する情報提供として、特徴物を特定する為の特徴物固有の情報を案内する(S76)。例えば、特徴物の位置や特徴物の種類等を案内する。それによって、運転者が視認した特徴物について、より詳細な情報を運転者に提供することが可能となる。   If it is determined that the driver is not gazing at the feature (S75: NO), information specific to the feature for identifying the feature is provided as information provision on the feature (S76). . For example, the location of the feature, the type of the feature, etc. are guided. Thereby, it is possible to provide the driver with more detailed information about the feature visually recognized by the driver.

一方、運転者が特徴物を注視していると判定された場合(S75:YES)には、情報特徴物に関する情報提供として、特徴物と自車両との関係を特定する情報等の前記S76よりも詳細な情報を案内する(S77)。具体的には、自車両に対する特徴物の相対速度、自車両と特徴物との間の距離、自車両に対する特徴物の移動方向(接近しているか遠ざかっているか)等を案内する。また、特徴物が車両である場合には車名、車種、ブランド名等を撮像画像DB32から読み出し、案内する。また、特徴物が車両と接近する場合には接触までの予定時間についても案内する。それによって、運転者が注視した特徴物について、より詳細な情報を運転者に提供することが可能となる。尚、前記S77では運転者は特徴物に強い関心を持っていると推定されるので、案内内容は特徴物を運転者が注視していない場合の案内(S76)よりも、より特徴物の詳細について案内する内容となる。   On the other hand, if it is determined that the driver is gazing at the feature (S75: YES), the information providing information about the information feature is provided from S76 such as information for specifying the relationship between the feature and the vehicle. The detailed information is also guided (S77). Specifically, the relative speed of the feature with respect to the host vehicle, the distance between the host vehicle and the feature, the moving direction of the feature with respect to the host vehicle (whether approaching or moving away), etc. are guided. If the feature is a vehicle, the vehicle name, vehicle type, brand name, etc. are read from the captured image DB 32 and guided. In addition, when the characteristic object approaches the vehicle, the estimated time until contact is also guided. As a result, it is possible to provide the driver with more detailed information about the feature that the driver has watched. In S77, it is estimated that the driver has a strong interest in the feature. Therefore, the guidance content is more detailed than the guidance when the driver is not gazing at the feature (S76). It becomes the contents to guide about.

一方、S78においてCPU41は、前記S43で検出した特徴物の種別に基づいて、特徴物が地物であるか否かを判定する。尚、地物とは、道路上又は道路沿いに設置された構造物であり、例えば道路標識、案内板、施設等が該当する。   On the other hand, in S78, the CPU 41 determines whether or not the feature is a feature based on the type of the feature detected in S43. A feature is a structure installed on or along a road, such as a road sign, a guide board, or a facility.

そして、特徴物が地物であると判定された場合(S78:YES)には、S79へと移行する。それに対して、特徴物が地物でないと判定された場合(S78:NO)には、該特徴物は停止中の歩行者や他車両であると推定し、S82へと移行する。   If it is determined that the feature is a feature (S78: YES), the process proceeds to S79. On the other hand, when it is determined that the feature is not a feature (S78: NO), the feature is estimated to be a pedestrian or another vehicle that is stopped, and the process proceeds to S82.

S79においてCPU41は、運転者が特徴物を注視しているか否かを判定する。尚、具体的な処理内容はS61と同様であるので、詳細は省略する。   In S79, the CPU 41 determines whether or not the driver is gazing at the feature. Note that the specific processing contents are the same as in S61, and thus the details are omitted.

そして、運転者が特徴物を注視していないと判定された場合(S79:NO)には、特徴物に関する情報提供として、特徴物の内容を識別する識別情報について案内する(S80)。例えば、特徴物が案内板である場合には案内板の画像を液晶ディスプレイ15に表示する。また、特徴物が道路標識である場合には該道路標識の内容についての案内(例えば、制限速度、一方通行、進行方向別通行区分の案内)を行う。それによって、運転者が視認した特徴物について、より詳細な情報を運転者に提供することが可能となる。   If it is determined that the driver is not gazing at the feature (S79: NO), the information about the feature is provided as identification information for identifying the feature (S80). For example, when the characteristic object is a guide plate, an image of the guide plate is displayed on the liquid crystal display 15. Further, when the feature is a road sign, guidance on the content of the road sign (for example, guidance on speed limit, one-way traffic, traveling direction-specific traffic classification) is performed. Thereby, it is possible to provide the driver with more detailed information about the feature visually recognized by the driver.

一方、運転者が特徴物を注視していると判定された場合(S79:YES)には、特徴物に関する情報提供として、特徴物の内容への前記乗員の理解を補助する補助情報等の前記S80よりも詳細な情報を案内する(S81)。具体的には、特徴物のより詳細な情報を撮像画像DB32から読み出し、例えば、特徴物が案内板である場合にはこの先の接続道路の案内を行う。また、特徴物がランドマーク等の施設である場合には、施設名称やジャンルについての案内を行う。また、特徴物が道路標識である場合には該道路標識の種類や該道路標識がどのような規制や指示を示した標識であるかを解説する案内を行う。それによって、運転者が注視した特徴物について、より詳細な情報を運転者に提供し、特徴物の内容について理解できない乗員に対して、特徴物の内容を理解させることが可能となる。尚、前記S81では運転者は特徴物に強い関心を持っていると推定されるので、案内内容は特徴物を運転者が注視していない場合の案内(S80)よりも、より特徴物の詳細について案内する内容となる。   On the other hand, when it is determined that the driver is gazing at the feature (S79: YES), the information such as the auxiliary information for assisting the passenger in understanding the feature is provided as information on the feature. More detailed information than S80 is guided (S81). Specifically, more detailed information on the feature is read from the captured image DB 32. For example, when the feature is a guide plate, guidance on the connected road ahead is performed. If the feature is a facility such as a landmark, the facility name and genre are provided. When the feature is a road sign, guidance is provided to explain the type of road sign and what kind of regulations and instructions the road sign indicates. Accordingly, it is possible to provide the driver with more detailed information about the feature that the driver has watched, and to allow the passenger who cannot understand the content of the feature to understand the content of the feature. In S81, it is presumed that the driver is strongly interested in the feature. Therefore, the guidance content is more detailed than the guidance (S80) when the driver is not gazing at the feature. It becomes the contents to guide about.

一方、S82においてCPU41は、運転者が特徴物を注視しているか否かを判定する。尚、具体的な処理内容はS61と同様であるので、詳細は省略する。   On the other hand, in S82, the CPU 41 determines whether or not the driver is watching the feature. Note that the specific processing contents are the same as in S61, and thus the details are omitted.

そして、運転者が特徴物を注視していないと判定された場合(S82:NO)には、特徴物に関する情報提供として、特徴物の内容を識別する識別情報について案内する(S83)。例えば、特徴物が他車両である場合には車両内の運転者の有無(即ち、走行を開始する虞があるか否か)の案内を行う。それによって、運転者が視認した特徴物について、より詳細な情報を運転者に提供することが可能となる。   If it is determined that the driver is not gazing at the feature (S82: NO), the information about the feature is provided as identification information for identifying the feature (S83). For example, when the characteristic object is another vehicle, the presence / absence of a driver in the vehicle (that is, whether or not there is a possibility of starting traveling) is provided. Thereby, it is possible to provide the driver with more detailed information about the feature visually recognized by the driver.

一方、運転者が特徴物を注視していると判定された場合(S82:YES)には、特徴物に関する情報提供として、特徴物の内容への前記乗員の理解を補助する補助情報等の前記S83よりも詳細な情報を案内する(S84)。具体的には、特徴物のより詳細な情報を撮像画像DB32から読み出し、例えば特徴物が車両である場合には車種や年式の案内を行う。また、特徴物が歩行者である場合には性別や年齢層の案内を行う。それによって、運転者が注視した特徴物について、より詳細な情報を運転者に提供し、特徴物の内容について理解できない乗員に対して、特徴物の内容を理解させることが可能となる。尚、前記S84では運転者は特徴物に強い関心を持っていると推定されるので、案内内容は特徴物を運転者が注視していない場合の案内(S83)よりも、より特徴物の詳細について案内する内容となる。   On the other hand, if it is determined that the driver is gazing at the feature (S82: YES), the supplementary information for assisting the occupant's understanding of the content of the feature is provided as information on the feature. More detailed information than S83 is guided (S84). Specifically, more detailed information on the feature is read from the captured image DB 32. For example, when the feature is a vehicle, guidance on the vehicle type and year is performed. In addition, when the characteristic object is a pedestrian, guidance of gender and age group is performed. Accordingly, it is possible to provide the driver with more detailed information about the feature that the driver has watched, and to allow the passenger who cannot understand the content of the feature to understand the content of the feature. In S84, it is estimated that the driver has a strong interest in the feature. Therefore, the guidance content is more detailed than the guidance when the driver is not gazing at the feature (S83). It becomes the contents to guide about.

尚、上記第2案内処理においてCPU41は、前記S4の特徴物検出において複数の特徴物が検出された場合には、各特徴物を対象として前記S71〜S84の処理を実行することとしても良いし、車両から最も近い距離にある特徴物のみを対象として前記S71〜S84の処理を実行することとしても良い。   In the second guidance process, the CPU 41 may execute the processes of S71 to S84 for each characteristic object when a plurality of characteristic objects are detected in the characteristic object detection of S4. The processes of S71 to S84 may be executed only for the feature closest to the vehicle.

以上詳細に説明した通り、本実施形態に係るナビゲーション装置1、ナビゲーション装置1による走行支援方法及びナビゲーション装置1で実行されるコンピュータプログラムでは、ドライバカメラで撮像された撮像画像から運転者の視線位置、視線円及び視野領域を検出し(S2、S3)、フロントカメラ19で撮像された撮像画像や特徴物画像情報33から車両の進行方向前方にある特徴物を検出し(S4)、各検出結果に基づいて車両の進行方向前方にある特徴物への運転者の視認態様を特定し(S7)、特定された視認態様に基づいて特徴物に関する案内を行う(S8、S9)ので、車両の運転者に対して不要な案内を行うことなく、現在の運転者に必要な案内を必要なタイミングで行うことが可能となる。また、現在の運転者にとって必要な情報を運転者の特徴物への視認態様から適切に特定することが可能となる。
また、車両の進行方向前方にある特徴物の種類と該特徴物への乗員の視認態様に基づいて特徴物に関する案内を行うので、特に特徴物の種類に応じた乗員に必要な情報を案内することが可能となる。
また、特徴物を運転者が注視しているか否かに基づいて特徴物の案内を行うので、特徴物への運転者の視認態様に応じた適切な案内を行うことが可能となる。例えば、運転者が特徴物を注視していない場合には、特徴物への注視を促し、特徴物を注視させることが可能である。また、運転者が特徴物を注視している場合には、運転者が注視する(即ち、乗員が関心を持つ)特徴物に関する詳細な情報を提供することが可能となる。
また、特徴物を運転者が視認しているか否かに基づいて特徴物の案内を行うので、特徴物への運転者の視認態様に応じた適切な案内を行うことが可能となる。例えば、運転者が特徴物を視認していない場合には、特徴物の存在を運転者に適切に認知させることが可能である。また、運転者が特徴物を視認している場合には、運転者が視認する特徴物に関する情報を提供することが可能となる。
また、案内対象となる特徴物は、道路を走行する車両の運転者が認視する対象となる物であるので、車両の走行に影響を及ぼす虞のある物の存在を運転者に事前に把握させ、適切に走行させることが可能となる。
As described above in detail, in the navigation device 1 according to the present embodiment, the driving support method using the navigation device 1, and the computer program executed by the navigation device 1, the driver's line-of-sight position from the captured image captured by the driver camera, A line-of-sight circle and a visual field region are detected (S2, S3), and a feature in front of the traveling direction of the vehicle is detected from the captured image and feature image information 33 captured by the front camera 19 (S4). Based on this, the visual aspect of the driver to the feature ahead of the traveling direction of the vehicle is specified (S7), and guidance on the characteristic is performed based on the specified visual aspect (S8, S9). Therefore, it is possible to provide necessary guidance for the current driver at a necessary timing without performing unnecessary guidance. In addition, it is possible to appropriately specify information necessary for the current driver from the aspect of visual recognition of the driver's features.
Further, since guidance regarding the feature is performed based on the type of the feature ahead of the traveling direction of the vehicle and the occupant's visual recognition mode on the feature, information necessary for the passenger according to the type of the feature is particularly guided. It becomes possible.
In addition, since the feature object is guided based on whether or not the driver is gazing at the feature object, it is possible to perform appropriate guidance according to the visual recognition mode of the driver to the feature object. For example, when the driver is not gazing at the feature object, it is possible to urge the feature object to be gazed and cause the feature object to be gazed. Further, when the driver is gazing at the feature, it is possible to provide detailed information regarding the feature that the driver is gazing at (that is, the occupant is interested).
In addition, since the feature is guided based on whether or not the driver is visually recognizing the feature, it is possible to perform appropriate guidance according to the driver's visual aspect to the feature. For example, when the driver does not visually recognize the feature object, the driver can be made to appropriately recognize the presence of the feature object. In addition, when the driver visually recognizes the characteristic object, it is possible to provide information regarding the characteristic object visually recognized by the driver.
In addition, since the feature object to be guided is the object that the driver of the vehicle traveling on the road observes, the driver knows in advance the presence of an object that may affect the vehicle traveling. And it is possible to drive appropriately.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では、運転者の視線位置を含む視線範囲を円形状の視線円で特定するが、円形以外の形状(例えば四角形状や6角形形状)で特定しても良い。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in this embodiment, the line-of-sight range including the driver's line-of-sight position is specified by a circular line-of-sight circle, but may be specified by a shape other than a circle (for example, a square shape or a hexagonal shape).

また、本実施形態では運転者の特徴物への視認態様を図16に示す4つのパターンにより分類することとしているが、分類するパターンの数は3以下でも5以上としても良い。また、重複割合に加えて視線円の面積についても考慮して視認態様を特定しても良い。具体的には、視線円の面積が大きければ大きい程、その特徴物を長く視認していると推定できるので、視線円の面積が所定値以上である場合に、運転者が特徴物を注視していると判定しても良い。   Further, in this embodiment, the visual recognition mode for the driver's feature is classified according to the four patterns shown in FIG. 16, but the number of patterns to be classified may be 3 or less or 5 or more. Further, the visual aspect may be specified in consideration of the area of the line-of-sight circle in addition to the overlapping ratio. Specifically, the larger the area of the line-of-sight circle, the longer it can be estimated that the feature is viewed longer, so when the area of the line-of-sight circle is greater than or equal to a predetermined value, the driver gazes at the feature. It may be determined that

また、第2案内処理(図19)で説明した特徴物に関する案内内容は一例であり、その内容は適宜変更することが可能である。例えば、特徴物の形状や移動速度を案内しても良い。   Moreover, the guidance content regarding the characteristic object demonstrated by the 2nd guidance process (FIG. 19) is an example, The content can be changed suitably. For example, the shape and moving speed of the feature may be guided.

また、本実施形態では走行支援処理プログラム中において第1案内処理(図17)と第2案内処理(図19)を両方実行する構成としているが、いずれか一方のみを実行する構成としても良い。   In the present embodiment, both the first guidance process (FIG. 17) and the second guidance process (FIG. 19) are executed in the driving support processing program, but only one of them may be executed.

1 ナビゲーション装置
13 ナビゲーションECU
19 フロントカメラ
20 ドライバカメラ
41 CPU
42 RAM
43 ROM
51 車両
52 運転者
1 Navigation device 13 Navigation ECU
19 Front camera 20 Driver camera 41 CPU
42 RAM
43 ROM
51 Vehicle 52 Driver

Claims (10)

車両の進行方向前方の周辺環境を撮像する周辺環境撮像手段と、
特徴物の画像を記憶した特徴物画像情報を取得する特徴物画像情報取得手段と、
前記車両の乗員の視線開始点及び視線方向を検出する視線検出手段と、
前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定する視線位置特定手段と、
現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定する視線領域特定手段と、
前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出する特徴物検出手段と、
前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定する特徴物領域特定手段と、
前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定する視認態様特定手段と、
前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行う案内手段と、を有することを特徴とする走行支援システム。
Surrounding environment imaging means for imaging the surrounding environment ahead of the traveling direction of the vehicle;
Feature object image information acquisition means for acquiring feature object image information storing an image of the feature object;
Line-of-sight detection means for detecting the line-of-sight start point and line-of-sight direction of the vehicle occupant;
The line of sight of the occupant with respect to the surrounding environment ahead of the direction of travel of the vehicle based on the captured image captured by the surrounding environment imaging unit and the sight line start point and the line of sight direction of the occupant detected by the line-of-sight detection unit A line-of-sight position specifying means for specifying the line-of-sight position in which the image is located in the captured image;
A line-of-sight area specifying unit that specifies a range on the captured image including the line-of-sight position specified by the line-of-sight position specifying unit within a past predetermined time from the current time as a line-of-sight area;
Based on the captured image captured by the surrounding environment imaging unit and the feature image information, the feature detection unit that detects the feature in front of the traveling direction of the vehicle as a forward feature;
A feature region specifying means for specifying, on the captured image, a region surrounding the front feature as a feature region;
Based on the positional relationship between the line-of-sight area and the feature area, a visual aspect specifying unit that specifies the visual aspect of the occupant with respect to the front feature;
A driving support system comprising: guidance means for performing guidance related to the front feature with contents according to the visual aspect of the occupant identified by the visual aspect identification means.
前記視認態様特定手段は、前記前方特徴物を前記乗員が注視しているか否かを特定し、
前記案内手段は、前記乗員が前記前方特徴物を注視していると判定された場合には、前記乗員が前記前方特徴物を注視していないと判定された場合よりも前記前方特徴物の詳細な案内を行うことを特徴とする請求項1に記載の走行支援システム。
The visual recognition mode specifying unit specifies whether the occupant is gazing at the front feature,
When the occupant determines that the occupant is gazing at the front feature, the guide means is more detailed than when determining that the occupant is not gazing at the front feature. The driving support system according to claim 1, wherein the guidance is performed.
前記前方特徴物が移動体か否かを判定する移動判定手段を有し、
前記案内手段は、
前記移動判定手段によって前記前方特徴物が移動体であると判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していると特定された場合には、前記前方特徴物と前記車両との関係を特定する情報を案内し、
前記移動判定手段によって前記前方特徴物が移動体であると判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していないと特定された場合には、前記前方特徴物を特定する情報を案内することを特徴とする請求項2に記載の走行支援システム。
Movement determining means for determining whether or not the front feature is a moving object;
The guiding means includes
When it is determined by the movement determining means that the front feature is a moving body, and when the visual feature specifying means determines that the front feature is being watched, the front feature And information that identifies the relationship between the vehicle and the vehicle,
When it is determined by the movement determination means that the front feature is a moving body, and when it is specified by the visual recognition mode specifying means that the front feature is not being watched, the front feature The driving support system according to claim 2, wherein information for identifying the vehicle is guided.
前記前方特徴物が移動体か否かを判定する移動判定手段を有し、
前記案内手段は、
前記移動判定手段によって前記前方特徴物が移動体でないと判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していると特定された場合には、前記前方特徴物の内容への前記乗員の理解を補助する補助情報を案内し、
前記移動判定手段によって前記前方特徴物が移動体でないと判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していないと特定された場合には、前記前方特徴物の内容を識別する識別情報の案内を行うことを特徴とする請求項2に記載の走行支援システム。
Movement determining means for determining whether or not the front feature is a moving object;
The guiding means includes
When it is determined by the movement determination means that the front feature is not a moving body, and when it is specified by the visual recognition mode specifying means that the front feature is being watched, Guide auxiliary information to assist the passengers in understanding the content,
When it is determined by the movement determination means that the front feature is not a moving body, and when it is specified by the visual recognition mode specifying means that the front feature is not being watched, The driving support system according to claim 2, wherein identification information for identifying contents is guided.
前記特徴物の種類を識別する種類識別手段を有し、
前記特徴物画像情報取得手段は、前記特徴物の画像を前記特徴物の種類毎に記憶した前記特徴物画像情報を取得し、
前記種類識別手段は、前記特徴物画像情報取得手段によって取得された前記特徴物画像情報に基づいて前記前方特徴物の種類を識別し、
前記案内手段は、前記種類識別手段によって識別された前記特徴物の種類に応じた案内内容で前記特徴物に関する案内を行うことを特徴とする請求項1乃至請求項4のいずれかに記載の走行支援システム。
Having a type identifying means for identifying the type of the feature,
The feature object image information acquisition means acquires the feature object image information storing an image of the feature object for each type of the feature object,
The type identifying means identifies the type of the forward feature based on the feature image information acquired by the feature image information acquiring means,
The travel according to any one of claims 1 to 4, wherein the guide unit performs guidance related to the feature object according to a guide content corresponding to a type of the feature object identified by the type identification unit. Support system.
前記車両から前記前方特徴物までの距離を検出する距離検出手段を有し、
前記案内手段は、前記車両から前記前方特徴物までの距離が所定距離以上であると判定された場合には、前記前方特徴物の周辺の案内又は前記前方特徴物を目的地とする走行案内を行うことを特徴とする請求項1乃至請求項5のいずれかに記載の走行支援システム。
A distance detecting means for detecting a distance from the vehicle to the front feature,
When it is determined that the distance from the vehicle to the front feature is equal to or greater than a predetermined distance, the guidance means provides guidance around the front feature or travel guidance with the front feature as a destination. The driving support system according to any one of claims 1 to 5, wherein the driving support system is performed.
前記特徴物は、道路を走行する前記車両の乗員が認視する対象となる物であることを特徴とする請求項1乃至請求項6のいずれかに記載の走行支援システム。   The travel support system according to any one of claims 1 to 6, wherein the characteristic object is an object to be observed by an occupant of the vehicle traveling on a road. 前記視認態様特定手段は、前記視線領域と前記特徴物領域との重複割合に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定することを特徴とする請求項1乃至請求項7のいずれかに記載の走行支援システム。   The said visual recognition mode specification means specifies the said visual recognition mode of the said passenger | crew with respect to the said front feature based on the overlapping ratio of the said visual line area | region and the said feature object area | region, Any of Claim 1 thru | or 7 characterized by the above-mentioned. The driving support system described in Crab. 周辺環境撮像手段が、車両の進行方向前方の周辺環境を撮像するステップと、
特徴物画像情報取得手段が、特徴物の画像を記憶した特徴物画像情報を取得するステップと、
視線検出手段が、前記車両の乗員の視線開始点及び視線方向を検出するステップと、
視線位置特定手段が、前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定するステップと、
視線領域特定手段が、現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定するステップと、
特徴物検出手段が、前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出するステップと、
特徴物領域特定手段が、前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定するステップと、
視認態様特定手段が、前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定するステップと、
案内手段が、前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行うステップと、を有することを特徴とする走行支援方法。
A step in which the surrounding environment imaging means images the surrounding environment ahead of the traveling direction of the vehicle;
A feature object image information acquisition means for acquiring feature object image information storing an image of the feature object; and
A step of detecting a line-of-sight start point and a line-of-sight direction of an occupant of the vehicle;
The line-of-sight position specifying means is based on the captured image picked up by the surrounding environment image pickup means and the occupant's line-of-sight start point and line-of-sight direction detected by the line-of-sight detection means in the surrounding environment ahead of the vehicle traveling direction. A line of sight position where the line of sight of the occupant is located in the captured image;
A line-of-sight area specifying unit specifying, as a line- of-sight area, a range on the captured image including the line-of-sight position specified by the line-of-sight position specifying unit within a past predetermined time from the present time;
A feature detection unit that detects the feature in front of the traveling direction of the vehicle as a forward feature based on the captured image and the feature image information captured by the surrounding environment imaging unit;
A feature object specifying unit specifying a region surrounding the front feature as a feature object region on the captured image;
A step of identifying a visual aspect of the occupant with respect to the front feature based on a positional relationship between the line-of-sight region and the feature region;
And a step of guiding the front characteristic object with a content according to the visual aspect of the occupant specified by the visual aspect specifying means.
コンピュータを、
車両の進行方向前方の周辺環境を撮像する周辺環境撮像手段と、
特徴物の画像を記憶した特徴物画像情報を取得する特徴物画像情報取得手段と、
前記車両の乗員の視線開始点及び視線方向を検出する視線検出手段と、
前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定する視線位置特定手段と、
現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定する視線領域特定手段と、
前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出する特徴物検出手段と、
前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定する特徴物領域特定手段と、
前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定する視認態様特定手段と、
前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行う案内手段と、
して機能させる為のコンピュータプログラム。
Computer
Surrounding environment imaging means for imaging the surrounding environment ahead of the traveling direction of the vehicle;
Feature object image information acquisition means for acquiring feature object image information storing an image of the feature object;
Line-of-sight detection means for detecting the line-of-sight start point and line-of-sight direction of the vehicle occupant;
The line of sight of the occupant with respect to the surrounding environment ahead of the direction of travel of the vehicle based on the captured image captured by the surrounding environment imaging unit and the sight line start point and the line of sight direction of the occupant detected by the line-of-sight detection unit A line-of-sight position specifying means for specifying the line-of-sight position in which the image is located in the captured image;
A line-of-sight area specifying unit that specifies a range on the captured image including the line-of-sight position specified by the line-of-sight position specifying unit within a past predetermined time from the current time as a line-of-sight area;
Based on the captured image captured by the surrounding environment imaging unit and the feature image information, the feature detection unit that detects the feature in front of the traveling direction of the vehicle as a forward feature;
A feature region specifying means for specifying, on the captured image, a region surrounding the front feature as a feature region;
Based on the positional relationship between the line-of-sight area and the feature area, a visual aspect specifying unit that specifies the visual aspect of the occupant with respect to the front feature;
Guidance means for performing guidance on the front feature with contents according to the visual aspect of the occupant identified by the visual aspect identification means;
Computer program to make it function.
JP2012276925A 2012-12-19 2012-12-19 Driving support system, driving support method, and computer program Active JP6136238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012276925A JP6136238B2 (en) 2012-12-19 2012-12-19 Driving support system, driving support method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012276925A JP6136238B2 (en) 2012-12-19 2012-12-19 Driving support system, driving support method, and computer program

Publications (2)

Publication Number Publication Date
JP2014120112A JP2014120112A (en) 2014-06-30
JP6136238B2 true JP6136238B2 (en) 2017-05-31

Family

ID=51174865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012276925A Active JP6136238B2 (en) 2012-12-19 2012-12-19 Driving support system, driving support method, and computer program

Country Status (1)

Country Link
JP (1) JP6136238B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110494904A (en) * 2017-08-21 2019-11-22 宝马股份公司 For running the method and auxiliary system that are used for the auxiliary system of vehicle
US11104356B2 (en) 2019-11-04 2021-08-31 Hyundai Motor Company Display device and method for a vehicle

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101708676B1 (en) * 2015-05-14 2017-03-08 엘지전자 주식회사 Driver assistance apparatus and control method for the same
JP7185251B2 (en) * 2018-01-19 2022-12-07 東海電子株式会社 Driving information processing device and driving information processing program
US11898871B2 (en) * 2021-09-15 2024-02-13 Here Global B.V. Apparatus and methods for providing a map layer of one or more temporary dynamic obstructions

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3160108B2 (en) * 1993-02-23 2001-04-23 三菱電機株式会社 Driving support system
JP3650995B2 (en) * 2002-07-01 2005-05-25 マツダ株式会社 Route guidance device, route guidance method, and route guidance program
DE60304254T2 (en) * 2002-07-01 2006-12-14 Mazda Motor Corp., Shinchi Guidance system based on visual activity of the driver
JP2005182306A (en) * 2003-12-17 2005-07-07 Denso Corp Vehicle display device
JP2006172215A (en) * 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd Driving support system
JP4366716B2 (en) * 2005-03-04 2009-11-18 株式会社デンソー Vehicle information display device
JP2007263931A (en) * 2006-03-30 2007-10-11 Denso It Laboratory Inc Driver thinking estimating device, driver thinking estimating method and driver thinking estimating program
JP2009031065A (en) * 2007-07-25 2009-02-12 Aisin Aw Co Ltd System and method for informational guidance for vehicle, and computer program
JP2009085750A (en) * 2007-09-28 2009-04-23 Aisin Aw Co Ltd Installation determination system and installation determination device
JP2010085203A (en) * 2008-09-30 2010-04-15 Pioneer Electronic Corp Navigation device and guidance method
DE112009004768B4 (en) * 2009-05-12 2018-01-04 Toyota Jidosha Kabushiki Kaisha ASSESSMENT DEVICE FOR THE VISUAL DETECTION AREA AND DRIVE SUPPORT DEVICE
JP2011198247A (en) * 2010-03-23 2011-10-06 Toyota Motor Corp Driving support device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110494904A (en) * 2017-08-21 2019-11-22 宝马股份公司 For running the method and auxiliary system that are used for the auxiliary system of vehicle
US11104356B2 (en) 2019-11-04 2021-08-31 Hyundai Motor Company Display device and method for a vehicle

Also Published As

Publication number Publication date
JP2014120112A (en) 2014-06-30

Similar Documents

Publication Publication Date Title
JP6700623B2 (en) Driving support device and computer program
JP2014120111A (en) Travel support system, travel support method, and computer program
US11511627B2 (en) Display device and computer program
JP2014120114A (en) Travel support system, travel support method, and computer program
JP5327025B2 (en) Vehicle travel guidance device, vehicle travel guidance method, and computer program
JP2008280026A (en) Driving assistance device
JP7151073B2 (en) Display device and computer program
JP6805974B2 (en) Driving support device and computer program
JP6825433B2 (en) Virtual image display device and computer program
JP2018173862A (en) Driving support apparatus and computer program
JP2007226666A (en) Driving support method and driving support device
JP6136238B2 (en) Driving support system, driving support method, and computer program
US11493357B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
JP2010026618A (en) On-vehicle navigation device and intersection entry guidance method
JP2014120113A (en) Travel support system, travel support method, and computer program
JP2019056884A (en) Superimposed image display device
JP2017062706A (en) Travel support system, travel support method, and computer program
JP6136237B2 (en) Driving support system, driving support method, and computer program
JP5803624B2 (en) Vehicle control system, vehicle control device, vehicle control method, and computer program
US20230294517A1 (en) Vehicle display control device, display device, and vehicle display control method
JP6310381B2 (en) Information processing apparatus, signal information guiding method, and computer program
JP6939147B2 (en) Driving information guidance device and computer program
JP2014154125A (en) Travel support system, travel support method and computer program
JP6582798B2 (en) Driving support system, driving support method, and computer program
JP6946962B2 (en) Driving support device and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170417

R150 Certificate of patent or registration of utility model

Ref document number: 6136238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150