JP6136238B2 - Driving support system, driving support method, and computer program - Google Patents
Driving support system, driving support method, and computer program Download PDFInfo
- Publication number
- JP6136238B2 JP6136238B2 JP2012276925A JP2012276925A JP6136238B2 JP 6136238 B2 JP6136238 B2 JP 6136238B2 JP 2012276925 A JP2012276925 A JP 2012276925A JP 2012276925 A JP2012276925 A JP 2012276925A JP 6136238 B2 JP6136238 B2 JP 6136238B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- line
- sight
- vehicle
- occupant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車両の乗員の視線に基づく案内を行うことによって走行の支援を行う走行支援システム、走行支援方法及びコンピュータプログラムに関する。 The present invention relates to a driving support system, a driving support method, and a computer program that support driving by performing guidance based on the line of sight of a vehicle occupant.
近年、車両の乗員に対する走行支援の一つとして、車両に搭載されたカメラにより車両の進行方向前方の周辺環境を撮像し、撮像画像から進行方向前方に位置する人や他車両などの障害物を検出して案内を行う技術について提案されている(例えば特開2007−73011号公報)。また、上記障害物に対する案内を適切に行う場合には、案内を行う対象となる乗員が現在どこを視認しているのかを特定することが重要である。 In recent years, as one of the driving assistance for vehicle occupants, a camera mounted on the vehicle is used to image the surrounding environment ahead of the vehicle in the traveling direction, and obstacles such as people and other vehicles located in the traveling direction forward from the captured image. A technique for detecting and guiding has been proposed (for example, JP 2007-73011 A). In order to appropriately guide the obstacle, it is important to specify where the occupant who is the target of guidance is currently viewing.
例えば、乗員が障害物を視認していない場合には、障害物を乗員に気付かせる為の案内を行うのが望ましい。一方、乗員が障害物を既に視認している場合には、障害物を乗員に気付かせる為の案内は不要であり、乗員が視認する障害物に関する詳細を案内するのが望ましい。そして、乗員が現在どこを視認しているのかを特定する手段としては、例えば特開2006−242859号公報に、車両に搭載されたカメラにより車両の進行方向前方の周辺環境を撮像するとともに、車内に設置されたカメラによって乗員の視線方向を検出し、撮像画像中の乗員が視認している部分を特定する技術について提案されている。 For example, when the occupant is not visually recognizing an obstacle, it is desirable to provide guidance for notifying the occupant of the obstacle. On the other hand, when the occupant has already visually recognized the obstacle, guidance for notifying the occupant of the obstacle is unnecessary, and it is desirable to provide details regarding the obstacle visually recognized by the occupant. And as a means for identifying where the occupant is currently viewing, for example, in Japanese Patent Laid-Open No. 2006-242859, the surrounding environment ahead of the traveling direction of the vehicle is imaged by a camera mounted on the vehicle. A technique has been proposed in which the sight line direction of an occupant is detected by a camera installed in the vehicle, and the portion of the captured image that the occupant is viewing is specified.
しかしながら、上記特許文献1に記載の技術では、進行方向前方に位置する人や他車両などの障害物に関する案内を行うことは可能であるが、案内を行う対象となる乗員が現在どこを視認しているのかについて考慮していないので、乗員にとって不要な案内が行われたり、必要な案内が行われない場合が生じていた。また、上記特許文献2に記載の技術では、乗員が現在どこを視認しているのかについて特定することは可能であるが、乗員が視認する障害物がどのような障害物であって、その障害物をどのように視認しているかについては特定することができなかった。特に、乗員が障害物を視認している場合と視認していない場合とでは、行う必要となる案内も異なるが、上記特許文献1及び特許文献2ではこのような障害物への視認態様については何ら考慮されていなかった。
However, with the technique described in
本発明は前記従来における問題点を解消するためになされたものであり、車両の進行方向前方にある特徴物を検出し、該特徴物への乗員の視認態様として、特に乗員が特徴物を視認しているか否かを判定することによって、乗員に対して不要な案内を行うことなく、現在の乗員に必要な案内を必要なタイミングで行うことが可能な走行支援システム、走行支援方法及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in order to solve the above-described conventional problems, and detects a feature in front of the vehicle in the traveling direction, and the occupant visually recognizes the feature as an aspect of the occupant to the feature. A driving support system, a driving support method, and a computer program capable of performing necessary guidance for the current occupant at a necessary timing without performing unnecessary guidance for the occupant by determining whether or not The purpose is to provide.
前記目的を達成するため本願の請求項1に係る走行支援システム(1)は、車両(51)の進行方向前方の周辺環境を撮像する周辺環境撮像手段(13)と、特徴物の画像を記憶した特徴物画像情報(33)を取得する特徴物画像情報取得手段(13)と、前記車両の乗員(52)の視線開始点及び視線方向を検出する視線検出手段(13)と、前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定する視線位置特定手段(13)と、現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定する視線領域特定手段(13)と、前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出する特徴物検出手段(13)と、前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定する特徴物領域特定手段(13)と、前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定する視認態様特定手段(13)と、前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行う案内手段(13)と、を有することを特徴とする。
In order to achieve the above object, the driving support system (1) according to
また、請求項2に係る走行支援システム(1)は、請求項1に記載の走行支援システムにおいて、前記視認態様特定手段(13)は、前記前方特徴物を前記乗員が注視しているか否かを特定し、前記案内手段(13)は、前記乗員が前記前方特徴物を注視していると判定された場合には、前記乗員が前記前方特徴物を注視していないと判定された場合よりも前記前方特徴物の詳細な案内を行うことを特徴とする。
Further, the driving support system (1) according to
また、請求項3に係る走行支援システム(1)は、請求項2に記載の走行支援システムにおいて、前記前方特徴物が移動体か否かを判定する移動判定手段(13)を有し、前記案内手段(13)は、前記移動判定手段によって前記前方特徴物が移動体であると判定された場合であって、前記視認態様特定手段(13)によって前記前方特徴物を注視していると特定された場合には、前記前方特徴物と前記車両との関係を特定する情報を案内し、前記移動判定手段によって前記前方特徴物が移動体であると判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していないと特定された場合には、前記前方特徴物を特定する情報を案内することを特徴とする。
A travel support system (1) according to
また、請求項4に係る走行支援システム(1)は、請求項2に記載の走行支援システムにおいて、前記前方特徴物が移動体か否かを判定する移動判定手段(13)を有し、前記案内手段(13)は、前記移動判定手段によって前記前方特徴物が移動体でないと判定された場合であって、前記視認態様特定手段(13)によって前記前方特徴物を注視していると特定された場合には、前記前方特徴物の内容への前記乗員の理解を補助する補助情報を案内し、前記移動判定手段によって前記前方特徴物が移動体でないと判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していないと特定された場合には、前記前方特徴物の内容を識別する識別情報の案内を行うことを特徴とする。
In addition, the driving support system (1) according to
また、請求項5に係る走行支援システム(1)は、請求項1乃至請求項4のいずれかに記載の走行支援システムにおいて、前記特徴物の種類を識別する種類識別手段(13)を有し、前記特徴物画像情報取得手段(13)は、前記特徴物の画像を前記特徴物の種類毎に記憶した前記特徴物画像情報(33)を取得し、前記種類識別手段は、前記特徴物画像情報取得手段によって取得された前記特徴物画像情報に基づいて前記前方特徴物の種類を識別し、前記案内手段は、前記種類識別手段によって識別された前記特徴物の種類に応じた案内内容で前記特徴物に関する案内を行うことを特徴とする。
Further, the driving support system (1) according to claim 5 is the driving support system according to any one of
また、請求項6に係る走行支援システム(1)は、請求項1乃至請求項5のいずれかに記載の走行支援システムにおいて、前記車両から前記前方特徴物までの距離を検出する距離検出手段(13)を有し、前記案内手段(13)は、前記車両から前記前方特徴物までの距離が所定距離以上であると判定された場合には、前記前方特徴物の周辺の案内又は前記前方特徴物を目的地とする走行案内を行うことを特徴とする。
A travel support system (1) according to claim 6 is the travel support system according to any one of
また、請求項7に係る走行支援システム(1)は、請求項1乃至請求項6のいずれかに記載の走行支援システムにおいて、前記特徴物は、道路を走行する前記車両(51)の乗員(52)が認視する対象となる物であることを特徴とする。
The driving support system (1) according to claim 7 is the driving support system according to any one of
また、請求項8に係る走行支援システム(1)は、請求項1乃至請求項7のいずれかに記載の走行支援システムにおいて、前記視認態様特定手段(13)は、前記視線領域と前記特徴物領域との重複割合に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定することを特徴とする。
また、請求項9に係る走行支援方法は、周辺環境撮像手段が、車両(51)の進行方向前方の周辺環境を撮像するステップと、特徴物画像情報取得手段が、特徴物の画像を記憶した特徴物画像情報を取得するステップと、視線検出手段が、前記車両の乗員(52)の視線開始点及び視線方向を検出するステップと、視線位置特定手段が、前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定するステップと、視線領域特定手段が、現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定するステップと、特徴物検出手段が、前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出するステップと、特徴物領域特定手段が、前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定するステップと、視認態様特定手段が、前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定するステップと、案内手段が、前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行うステップと、を有することを特徴とする。
In addition, the driving support system (1) according to claim 8 is the driving support system according to any one of
In the driving support method according to claim 9, the surrounding environment imaging means images the surrounding environment ahead of the vehicle (51) in the traveling direction, and the feature object image information acquisition means stores the feature image. The step of acquiring the feature object image information, the step of the line-of-sight detection means detecting the line-of-sight start point and the line-of-sight direction of the vehicle occupant (52), and the line-of-sight position specifying means are imaged by the surrounding environment imaging means. Based on the captured image and the sight line start point and the sight line direction of the occupant detected by the sight line detection means, the sight line position where the sight line of the occupant is located with respect to the surrounding environment ahead of the traveling direction of the vehicle is captured. identifying in the image, line-of-sight region specifying means, the imaging field that includes the sight line position specified by the line-of-sight position specifying means within the past predetermined time from the present time The step of specifying the upper range as a line-of-sight region, and the feature detection unit is located forward of the vehicle in the traveling direction based on the captured image and the feature image information captured by the surrounding environment imaging unit. A step of detecting a feature as a front feature, a step in which a feature region specifying unit specifies a region surrounding the front feature as a feature region on the captured image, and a visual recognition mode specifying unit is the line-of-sight region And the step of identifying the occupant's visual aspect with respect to the front feature based on the positional relationship between the visual feature and the feature area, and the guiding means according to the occupant's visual aspect identified by the visual aspect identifying means And a step of providing guidance on the front feature in terms of contents.
更に、請求項10に係るコンピュータプログラムは、コンピュータを、車両(51)の進行方向前方の周辺環境を撮像する周辺環境撮像手段と、特徴物の画像を記憶した特徴物画像情報を取得する特徴物画像情報取得手段と、前記車両の乗員(52)の視線開始点及び視線方向を検出する視線検出手段と、前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定する視線位置特定手段と、現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定する視線領域特定手段と、前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出する特徴物検出手段と、前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定する特徴物領域特定手段と、前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定する視認態様特定手段と、前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行う案内手段と、して機能させることを特徴とする。 Further, the computer program according to claim 10 is a feature that obtains feature object image information in which the computer captures the surrounding environment imaging means for imaging the surrounding environment ahead of the traveling direction of the vehicle (51) and the image of the feature object. Image information acquisition means, gaze detection means for detecting the gaze start point and gaze direction of the vehicle occupant (52), the captured image taken by the surrounding environment imaging means, and the occupant detected by the gaze detection means based starting point of the line of sight and line of sight direction, a line-of-sight position of the occupant's line of sight is positioned relative to the direction of travel of the surrounding environment of the vehicle, a line-of-sight position specifying means for specifying the in said captured image, from the present sight territory identifying the range on the captured image includes the sight line position identified as line-of-sight region by the gaze position determining means within the past predetermined time A feature detection unit that detects, as a forward feature, the feature in front of the vehicle in the traveling direction based on the captured image captured by the surrounding environment imaging unit and the feature image information. The feature region specifying means for specifying the region surrounding the front feature as a feature region on the captured image, and the occupant with respect to the front feature based on the positional relationship between the line-of-sight region and the feature region A visual recognition mode specifying means for specifying the visual recognition mode of the vehicle, and a guidance means for guiding the front feature with contents corresponding to the visual recognition mode of the occupant specified by the visual recognition mode specifying means. Features.
前記構成を有する請求項1に記載の走行支援システムによれば、車両の進行方向前方にある特徴物を特徴物画像情報に基づいて検出するとともに、該特徴物への乗員の視認態様に応じた内容で案内を行うことによって、乗員に対して不要な案内を行うことなく、現在の乗員に必要な案内を必要なタイミングで行うことが可能となる。また、現在の乗員にとって必要な情報を乗員の特徴物への視認態様から適切に特定することが可能となる。特に、乗員が特徴物を視認している場合に、該特徴物に関する案内を行うことによって、乗員が関心を持つ特徴物についてより詳細な情報を提供することが可能となる。
According to the driving support system according to
また、請求項2に記載の走行支援システムによれば、乗員が特徴物を注視していると判定された場合には、注視していないと判定された場合よりも特徴物の詳細な案内を行うので、乗員がより関心を持つ特徴物、即ち説明を必要とする特徴物に対して、より詳細な案内を行うことが可能となる。 Further, according to the driving support system of the second aspect, when it is determined that the occupant is gazing at the characteristic object, more detailed guidance of the characteristic object is provided than when it is determined that the occupant is not gazing at the characteristic object. As a result, it is possible to provide more detailed guidance to the features that the occupant is more interested in, that is, the features that require explanation.
また、請求項3に記載の走行支援システムによれば、特徴物が移動体であって且つ乗員が該特徴物を注視していると判定された場合には、特徴物と車両との関係を特定する情報を案内し、特徴物が移動体であって且つ乗員が該特徴物を注視していないと判定された場合には、特徴物を特定する情報を案内するので、乗員の特徴物の視認態様から乗員が必要とする情報を推測し、推測された情報により特徴物の案内を行うことが可能となる。その結果、乗員が必要とする情報を提供することが可能となる。
According to the driving support system according to
また、請求項4に記載の走行支援システムによれば、特徴物が移動体でなく且つ乗員が該特徴物を注視していると判定された場合には、特徴物への乗員の理解を補助する情報を案内し、特徴物が移動体でなく且つ乗員が該特徴物を注視していないと判定された場合には、特徴物の内容を識別する情報を案内するので、乗員の特徴物の視認態様から乗員が必要とする情報を推測し、推測された情報により特徴物の案内を行うことが可能となる。その結果、乗員が必要とする情報を提供することが可能となる。 According to the driving support system of the fourth aspect, when it is determined that the feature is not a moving object and the occupant is gazing at the feature, the understanding of the occupant to the feature is assisted. If it is determined that the feature is not a moving object and the occupant is not gazing at the feature, information for identifying the content of the feature is guided. Information required by the occupant can be estimated from the visual recognition mode, and the feature can be guided based on the estimated information. As a result, information required by the occupant can be provided.
また、請求項5に記載の走行支援システムによれば、特徴物の種類によって案内内容を変更するので、乗員が視認する特徴物の案内として必要な情報を適切に選択して案内することが可能となる。例えば、特徴物が道路標識である場合には、該道路標識の規制内容について案内を行うことが可能となる。また、特徴物が車両である場合には、車種やナンバーについて案内を行うことが可能となる。 Further, according to the driving support system of the fifth aspect, the guidance content is changed depending on the type of the feature, so that it is possible to appropriately select and guide information necessary for guidance of the feature visually recognized by the occupant. It becomes. For example, when the characteristic object is a road sign, it is possible to provide guidance on the restriction contents of the road sign. Further, when the characteristic object is a vehicle, it is possible to provide guidance on the vehicle type and number.
また、請求項6に記載の走行支援システムによれば、車両から特徴物までの距離が所定距離以上であると判定された場合には、特徴物の周辺の案内又は特徴物を目的地とする走行案内を行うので、乗員が特徴物を視認した意図を考慮した案内を行うことが可能となる。 According to the driving support system of the sixth aspect, when it is determined that the distance from the vehicle to the feature is greater than or equal to the predetermined distance, the guidance around the feature or the feature is used as the destination. Since the traveling guidance is performed, it is possible to perform the guidance in consideration of the intention that the occupant visually recognizes the characteristic object.
また、請求項7に記載の走行支援システムによれば、案内対象となる特徴物は、道路を走行する車両の乗員が認視する対象となる物であるので、車両の走行に影響を及ぼす虞のある物の存在を乗員に事前に把握させ、適切に走行させることが可能となる。 Further, according to the driving support system of the seventh aspect, since the characteristic object to be guided is an object to be observed by the passenger of the vehicle traveling on the road, there is a risk of affecting the traveling of the vehicle. It is possible to let the occupant know in advance the existence of a certain object and drive it appropriately.
また、請求項8に記載の走行支援システムによれば、乗員の視線領域と特徴物領域との重複割合に基づいて、前方特徴物に対する乗員の視認態様を特定することが可能となる。
また、請求項9に記載の走行支援方法によれば、車両の進行方向前方にある特徴物を特徴物画像情報に基づいて検出するとともに、該特徴物への乗員の視認態様に応じた内容で案内を行うことによって、乗員に対して不要な案内を行うことなく、現在の乗員に必要な案内を必要なタイミングで行うことが可能となる。また、現在の乗員にとって必要な情報を乗員の特徴物への視認態様から適切に特定することが可能となる。特に、乗員が特徴物を視認している場合に、該特徴物に関する案内を行うことによって、乗員が関心を持つ特徴物についてより詳細な情報を提供することが可能となる。
According to the driving support system of the eighth aspect, it is possible to identify the occupant's visual aspect with respect to the front feature based on the overlapping ratio between the sight line region and the feature region of the occupant.
According to the driving support method of the ninth aspect, the feature in front of the traveling direction of the vehicle is detected based on the feature image information, and the content according to the visual aspect of the occupant on the feature. By performing the guidance, it is possible to perform guidance necessary for the current occupant at a necessary timing without performing unnecessary guidance for the occupant. In addition, it is possible to appropriately specify information necessary for the current occupant from the visual aspect of the occupant's characteristic object. In particular, when the occupant is visually recognizing a characteristic object, it is possible to provide more detailed information about the characteristic object that the occupant is interested in by performing guidance regarding the characteristic object.
更に、請求項10に記載のコンピュータプログラムによれば、車両の進行方向前方にある特徴物を特徴物画像情報に基づいて検出させるとともに、該特徴物への乗員の視認態様に応じた内容で案内を行うことによって、乗員に対して不要な案内を行わせることなく、現在の乗員に必要な案内を必要なタイミングで行わせることが可能となる。また、現在の乗員にとって必要な情報を乗員の特徴物への視認態様から適切に特定することが可能となる。特に、乗員が特徴物を視認している場合に、該特徴物に関する案内を行うことによって、乗員が関心を持つ特徴物についてより詳細な情報を提供することが可能となる。 Further, according to the computer program of the tenth aspect, the feature object ahead of the traveling direction of the vehicle is detected based on the feature object image information, and the guidance is provided with the content according to the visual recognition mode of the occupant on the feature object. By performing the above, it is possible to cause the current occupant to perform necessary guidance at a necessary timing without causing the occupant to perform unnecessary guidance. In addition, it is possible to appropriately specify information necessary for the current occupant from the visual aspect of the occupant's characteristic object. In particular, when the occupant is visually recognizing a characteristic object, it is possible to provide more detailed information about the characteristic object that the occupant is interested in by performing guidance regarding the characteristic object.
以下、本発明に係る走行支援システムについてナビゲーション装置に具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は本実施形態に係るナビゲーション装置1を示したブロック図である。
Hereinafter, a driving support system according to the present invention will be described in detail with reference to the drawings based on an embodiment embodied in a navigation device. First, a schematic configuration of the
図1に示すように本実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して車両周辺の地図等を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスや車両の進行方向前方に位置する特徴物に関する案内等を出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、から構成される。また、ナビゲーション装置1は、CAN等の車載ネットワークを介して、ナビゲーション装置1の搭載された車両に対して設置されたフロントカメラ19及びドライバカメラ20が接続されている。
As shown in FIG. 1, the
以下に、ナビゲーション装置1を構成する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Below, each component which comprises the
The current
また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や撮像画像DB32や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにメモリーカードやCDやDVD等の光ディスクにより構成しても良い。
The
ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、施設に関する施設データ、経路探索処理に用いられる探索データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等が記憶された記憶手段である。
Here, the
また、撮像画像DB32は、フロントカメラ19及びドライバカメラ20によって撮像された撮像画像が格納される記憶手段である。また、撮像画像DB32には、後述する特徴物の種類(例えばランドマーク、車両、人、信号機、道路標識、案内板等)毎に、特徴物の画像と特徴点の配置パターンとが規定された特徴物画像情報33についても格納されている。また、特徴物画像情報33には、特徴物の内、特にランドマークに関しては、その位置情報や名称等のランドマークに関わる詳細情報についても記憶される。また、車両に関しては、車名、車種やブランド名等の車両に関わる詳細情報についても記憶される。また、道路標識については標識の種類(案内標識、警戒標識、規制標識、指示標識等)や、道路標識がどのような規制や指示を示した標識であるかを示す内容についても記憶される。更に、撮像画像DB32には、特徴物の種類毎に、該特徴物に関する案内情報(特徴物を案内する為の案内文や案内音声)についても記憶される。
そして、ナビゲーションECU13は、撮像画像DB32に格納された撮像画像や特徴物画像情報33に基づいて車両の進行方向前方に位置する特徴物(以下、前方特徴物という)や運転者の視線位置等を検出する。更に、検出された前方特徴物に対応付けられた案内情報を撮像画像DB32から読み出し、読み出された案内情報に基づいて案内を行う。尚、特徴物画像情報33はナビゲーション装置1内に記憶されるのではなく、外部のサーバに記憶され、外部のサーバからナビゲーション装置1が取得する構成としても良い。
The captured
Then, the
一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行支援処理プログラム(図3参照)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を構成する。例えば、周辺環境撮像手段は、フロントカメラ19によって車両の進行方向前方の周辺環境を撮像する。特徴物画像情報取得手段は、特徴物の画像を記憶した特徴物画像情報と当該特徴物に関する案内情報とを取得する。視線検出手段は、車両の乗員の視線開始点及び視線方向を検出する。視線位置特定手段は、フロントカメラ19によって撮像された撮像画像と視線検出手段により検出された乗員の視線開始点及び視線方向とに基づいて、車両の進行方向前方の周辺環境に対して乗員の視線が位置する視線位置を、撮像画像中において特定する。特徴物検出手段は、フロントカメラ19によって撮像された撮像画像と特徴物画像情報とに基づいて、車両の進行方向前方にある特徴物を前方特徴物として検出する。視認判定手段は、フロントカメラ19によって撮像された撮像画像と視線位置特定手段によって特定された視線位置とに基づいて、前方特徴物を乗員が視認しているか否かを判定する。案内手段は、視認判定手段によって前方特徴物を乗員が視認していると判定された場合に、特徴物に関する案内を行う。注視判定手段は、フロントカメラ19によって撮像された撮像画像と視線位置特定手段によって特定された視線位置とに基づいて、前方特徴物を乗員が注視しているか否かを判定する。移動判定手段は、特徴物が移動体か否かを判定する。種類識別手段は、特徴物の種類を識別する。距離検出手段は、車両から前方特徴物までの距離を検出する。
On the other hand, the navigation ECU (Electronic Control Unit) 13 is an electronic control unit that controls the
操作部14は、走行開始地点としての出発地、走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)から構成される。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルによって構成することもできる。また、マイクと音声認識装置によって構成することもできる。
The
また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。
The
また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。また、本実施形態では特に車両の進行方向前方に位置する特徴物(人や他車両等)に関する案内についても出力する。
尚、ユーザに対する案内手段としては、上記液晶ディスプレイ15やスピーカ16の代わりに、車両の運転者の頭部に装着可能に構成されるヘッドマウントディスプレイ(HMD)や車両のフロントガラスに映像を投影可能にダッシュボード上部に構成されるヘッドアップディスプレイ(HUD)を設けても良い。
The
As a guide means for the user, instead of the
また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。
The
また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。
The
また、フロントカメラ19は、図2に示すようにナビゲーション装置1が搭載された車両51の天井とフロントガラスの境界付近に、車両51の進行方向がフロントカメラ19の撮像方向となるように設置される。そして、車両51の進行方向前方の周辺環境を、車両51のフロントガラスを介して撮影する。また、フロントカメラ19の設置位置は運転者52の目の位置(視線開始点)と略同一となるように調整される。更に、フロントカメラ19の画角は運転者の視野角よりも広くなるように設定する。その結果、正面を向く運転者52がフロントガラスを介して視認できる車両51の進行方向前方の周辺環境の範囲(視野領域)を少なくとも含む範囲が撮像可能に構成されている。そして、ナビゲーションECU13は、後述のようにフロントカメラ19により撮像した撮像画像に基づいて、車両51の進行方向前方に位置する特徴物(人や他車両等)を検出する。
Further, as shown in FIG. 2, the
また、ドライバカメラ20は、例えばCCD等の固体撮像素子を用いたものであり、図2に示すように車両51のインストルメントパネル53の上面に取り付けられ、撮像方向を運転席に向けて設置される。そして、運転席に座った運転者52の顔を撮像する。また、ナビゲーションECU13は、後述のようにドライバカメラ20により撮像した撮像画像から運転者52の目の位置(視線開始点)や視線方向を検出する。
Further, the
続いて、上記構成を有する本実施形態に係るナビゲーション装置1においてCPU41が実行する走行支援処理プログラムについて図3に基づき説明する。図3は本実施形態に係る走行支援処理プログラムのフローチャートである。ここで、走行支援処理プログラムは、車両のACCがONされた後に実行され、フロントカメラ19やドライバカメラ20で撮像された撮像画像に基づいて車両の進行方向前方にある特徴物への視認態様を検出するとともに、検出された特徴物への運転者の視認態様に基づいて各種案内を行うプログラムである。尚、以下の図3、図4、図9、図12、図14、図17及び図19にフローチャートで示されるプログラムは、ナビゲーションECU13が備えているRAM42、ROM43等に記憶されており、CPU41により実行される。
Next, a driving support processing program executed by the
先ず、走行支援処理プログラムでは、ステップ(以下、Sと略記する)1において、CPU41は直近にフロントカメラ19とドライバカメラ20で撮像された撮像画像をそれぞれ取得する。
First, in the driving support processing program, in step (hereinafter abbreviated as “S”) 1, the
次に、S2においてCPU41は、後述の視線円特定処理(図4)を行う。尚、視線円特定処理は、ドライバカメラ20により撮像された撮像画像に基づいて運転者の視線が位置する範囲である視線円(視線範囲)を特定する処理である。
Next, in S2, the
続いて、S3においてCPU41は、後述の視野領域特定処理(図9)を行う。尚、視野領域特定処理は、フロントカメラ19により撮像された撮像画像中において運転者の視野領域や死角領域を特定する処理である。
Subsequently, in S3, the
その後、S4においてCPU41は、後述の特徴物検出処理(図12)を行う。尚、特徴物検出処理は、フロントカメラ19により撮像された撮像画像に基づいて、車両の進行方向前方にある特徴物を検出する処理である。尚、“特徴物”は道路を走行する車両の運転者が認視する対象となる物であり、例えば他車両、人、信号機、道路標識、案内板、ランドマーク等がある。
Thereafter, in S4, the
次に、S5においてCPU41は、前記S4の特徴物検出処理において、フロントカメラ19により撮像された撮像画像から車両の進行方向前方にある特徴物を少なくとも一以上検出したか否か判定する。
Next, in S <b> 5, the
そして、車両の進行方向前方にある特徴物を少なくとも一以上検出したと判定された場合(S5:YES)には、S6へと移行する。それに対して、車両の進行方向前方にある特徴物を検出できなかったと判定された場合(S5:NO)には、S10へと移行する。 And when it determines with having detected at least 1 or more characteristic object ahead of the advancing direction of a vehicle (S5: YES), it transfers to S6. On the other hand, if it is determined that the feature in the forward direction of the vehicle cannot be detected (S5: NO), the process proceeds to S10.
S6においてCPU41は、前記S4の特徴物検出処理によって検出された各特徴物を囲む矩形(以下、特徴物矩形という)を撮像画像上に特定する。そして、特定された特徴物矩形をRAM42等の記憶領域に記憶する。尚、特徴物矩形は、フロントカメラ19の撮像画像上の座標系によって位置や大きさが特定される。また、前記S4の特徴物検出処理によって特徴物が複数検出された場合には、各特徴物に対して特徴物矩形を特定する。
In S6, the
その後、S7においてCPU41は、後述の視線態様特定処理(図14)を実行する。尚、視線態様特定処理は、前記S2で特定された視線円と前記S6で特定された特徴物矩形とに基づいて、車両の進行方向前方にある特徴物への運転者の視認態様を特定する処理である。
Thereafter, in S7, the
次に、S8においてCPU41は、後述の第1案内処理(図17)を実行する。尚、第1案内処理は、前記S7で特定された特徴物への運転者の視認態様や前記S3で特定された運転者の視野領域等に基づいて、車両の進行方向前方にある特徴物の存在を運転者に認知させる為の案内を行う処理である。
Next, in S8, the
続いて、S9においてCPU41は、後述の第2案内処理(図19)を実行する。尚、第2案内処理は、前記S7で特定された特徴物への運転者の視認態様や対象物の種類等に基づいて、車両の進行方向前方にある特徴物の詳細を運転者に提供する為の案内を行う処理である。
Subsequently, in S9, the
一方、S10においてCPU41は、運転者が進行方向前方の周辺環境のいずれかの地点を注視しているか否かを判定する。具体的には、前記S2で特定された運転者の視線円が、フロントカメラ19で撮像した撮像画像範囲内にある場合に、運転者が進行方向前方の周辺環境のいずれかの地点を注視していると判定する。また、前記S2で運転者の視線円が特定できなかった場合や、フロントカメラ19で撮像した撮像画像範囲外に視線円がある場合には、運転者が進行方向前方の周辺環境を注視していないと判定する。
On the other hand, in S10, the
そして、運転者が進行方向前方の周辺環境のいずれかの地点を注視していると判定された場合(S10:YES)には、S11へと移行する。それに対して、運転者が進行方向前方の周辺環境を注視していない場合(S10:NO)、即ち運転者が注視自体をしていない又は注視していたとしても進行方向前方の周辺環境以外の地点(例えばメータ、バックミラー、ドアミラー等)を注視していると判定された場合には、案内を行うことなくS1へと戻る。 If it is determined that the driver is gazing at any point in the surrounding environment ahead of the traveling direction (S10: YES), the process proceeds to S11. On the other hand, when the driver is not gazing at the surrounding environment ahead of the traveling direction (S10: NO), that is, even if the driver is not gazing or gazing, it is other than the surrounding environment ahead of the traveling direction. If it is determined that a point (eg, meter, rearview mirror, door mirror, etc.) is being watched, the process returns to S1 without performing guidance.
S11においてCPU41は、前記S2で特定された視線円とフロントカメラ19で撮像された撮像画像に基づいて、進行方向前方の周辺環境において運転者が注視している箇所(以下、注視箇所)を特定する。そして、特定した注視箇所に基づく案内を行う。例えば、運転者が空を注視している場合には、今後の天気についての案内を行う。また、海や山などの地形を注視している場合には、注視している地形の名称(山の名前や湾の名前等)を案内する。また、運転者が注視する方向にある地名(市区町村名等)を案内することとしても良い。更に、案内はスピーカ16による音声案内により行っても良いし、液晶ディスプレイ15による表示案内としても良い。また、HMDやHUDを用いて案内を行っても良い。その後、当該走行支援処理プログラムを終了する。
In S <b> 11, the
次に、前記S2において実行される視線円特定処理のサブ処理について図4に基づき説明する。図4は視線円特定処理のサブ処理プログラムのフローチャートである。 Next, a sub-process of the line-of-sight circle specifying process executed in S2 will be described with reference to FIG. FIG. 4 is a flowchart of a sub-processing program for the line-of-sight circle specifying process.
先ず、S21においてCPU41は、前記S1で取得したドライバカメラ20の撮像画像に基づいて、運転者の視線開始点(目の位置)及び視線方向を検出する。ドライバカメラ20は前記したように車両のインストルメントパネルに設置され、撮像方向を運転席に向けて設置されており(図2)、撮像画像には運転者の顔が含まれることとなる。尚、視線開始点や視線方向の検出方法としては、例えば角膜反射法により計測された瞳孔の中心位置やプルキニエ像を用いて検出する方法がある。それらの方法は既に公知の技術であるので、詳細は省略する。
First, in S21, the
次に、S22においてCPU41は、前記S21で検出された運転者の視線開始点や視線方向に基づいて、車両の進行方向前方の周辺環境に対して運転者の視線が位置する視線位置を特定する。
具体的には、図5に示すように、視線開始点Pから視線方向αへと延長した直線と検出面54との交点を視線位置Qとする。そして、視線位置Qは検出面54上を座標系としたX座標及びY座標によって特定される。尚、特に本実施形態では、検出面54はフロントカメラ19の撮像面とする。即ち、前記S22で特定された視線位置は、フロントカメラ19で撮像された撮像画像中において特定された視線位置にも相当する。
Next, in S22, the
Specifically, as shown in FIG. 5, a line-of-sight position Q is an intersection of a straight line extending from the line-of-sight start point P in the line-of-sight direction α and the
続いて、S23においてCPU41は、前記S22で特定された運転者の視線位置を、キャリブレーション状況、運転状況、自信度等に基づいてより正確な位置となるように補正する。
Subsequently, in S23, the
その後、S24においてCPU41は、前回実行された視線円特定処理のサブ処理中に検出した運転者の視線位置(後述のS25で記憶される)をRAM42等から読み出し、読み出した視線位置と今回新たに検出された運転者の視線位置(S23の補正後の位置)とを比較し、各位置間のズレが所定距離以上であるか否かを判定する。尚、所定距離は任意に設定可能な閾値(例えば10cm)であり、RAM42等に記憶される。
Thereafter, in S24, the
そして、前回検出した視線位置と今回新たに検出した視線位置とのズレが所定距離以上であると判定された場合(S24:YES)には、S27へと移行する。一方、前回検出した視線位置と今回新たに検出した視線位置とのズレが所定距離未満であると判定された場合(S24:NO)には、S25へと移行する。 If it is determined that the deviation between the previously detected line-of-sight position and the newly detected line-of-sight position is greater than or equal to the predetermined distance (S24: YES), the process proceeds to S27. On the other hand, when it is determined that the difference between the previously detected line-of-sight position and the newly detected line-of-sight position is less than the predetermined distance (S24: NO), the process proceeds to S25.
S25においてCPU41は、前回検出した視線位置と今回新たに検出した視線位置(S23の補正後の位置)との中点を特定し、特定された中点の位置を今回新たに検出した運転者の視線位置とする。即ち、S22で特定された運転者の視線位置は、一旦S23で補正され、更にS25で特定された中点の座標へと補正され、最終的に確定される。そして、確定された運転者の視線位置の座標はRAM42等の記憶媒体に累積的に記憶される。
例えば、図6に示すように前回検出した運転者の視線位置が位置Aであって、S23で補正された今回の視線位置が位置Bであった場合には、位置Bではなく位置Aと位置Bとの中点の位置Cが今回検出した運転者の視線位置として最終的に確定される。
In S25, the
For example, as shown in FIG. 6, when the driver's line-of-sight position detected last time is position A and the current line-of-sight position corrected in S23 is position B, the position A is not the position B but the position A. The position C of the midpoint with B is finally determined as the driver's line-of-sight position detected this time.
次に、S26においてCPU41は、RAM42等の記憶媒体に記憶された運転者の視線位置の履歴を読み出し、車両の進行方向前方の周辺環境に対して運転者の視線が位置する範囲である視線円(視線範囲)を特定する。
Next, in S <b> 26, the
ここで、人間は同じ箇所を継続して見ている場合でも視線位置は完全に固定されず、移動距離は僅かであるものの常に視線位置を移動しながらその箇所付近を視認することとなる(所謂固視微動)。また、車両の振動や運転姿勢の変化によっても視線位置は移動することとなる。従って、車両の進行方向前方の周辺環境に対する運転者の視認態様を正確に特定する為には、点では無く一定の幅を持たせた範囲によって視線位置を特定するのが望ましい。 Here, even if a person continues to look at the same location, the line-of-sight position is not completely fixed, and although the movement distance is small, the vicinity of the location is always viewed while moving the line-of-sight position (so-called “so-called”). Fixation fine movement). The line-of-sight position also moves due to the vibration of the vehicle and the change in the driving posture. Therefore, in order to accurately specify the driver's visual aspect with respect to the surrounding environment ahead of the traveling direction of the vehicle, it is desirable to specify the line-of-sight position by a range having a certain width instead of a point.
そこで、本実施形態では前記S26において、CPU41は直近所定時間以内の視線位置の履歴を包含する検出面上の範囲を運転者の視線が位置する視線円として特定する。そして、後述のようにフロントカメラ19の撮像画像に含まれる特徴物の位置と視線円とを比較することによって運転者の視認態様を特定する。尚、所定時間は後述のS27で前回の視線円が初期化されてからの時間(即ち、運転者が現在視認する視認位置周辺への視認を開始してからの時間)となる。また、前記S26で特定された視線円は、例えば中心点の座標と半径距離によって規定され、RAM42等の記憶媒体に累積的に記憶される。
Therefore, in this embodiment, in S26, the
例えば、図7に示すように先ず位置Dが視線位置として検出され、次に位置Eが視線位置として検出された場合には、位置D及び位置Eを含む最小の円である円55を視線円として特定する。その後、更に位置Fが視線位置として検出された場合には、位置D、位置E及び位置Fを含む最小の円である円56を視線円として特定する。その結果、視線円は円55から円56へと更新されることとなる。但し、後述のように位置Eと位置Fとの距離が大きく離れている場合には、運転者の視認する対象が変化したと推定し、視線円は一旦初期化され位置Fを始点として新たな視線円が形成されることとなる。また、上述したように人間の視線位置は常に移動し続けるので、運転者が同じ箇所を長時間視認すればするほど視線円内に包含される視線位置は多くなり、基本的に視線円は大きくなる。
また、特に本実施形態では、前記したように視線円が特定される検出面はフロントカメラ19の撮像面とする。即ち、前記S26で特定された視線円は、フロントカメラ19で撮像された撮像画像中において特定された視線円にも相当する。また、本実施形態では車両の進行方向前方の周辺環境に対して運転者の視線が位置する範囲である視線範囲を、円形状の視線円として特定するが、円形以外の形状により視線範囲を特定しても良い。
For example, as shown in FIG. 7, when the position D is first detected as the line-of-sight position and then the position E is detected as the line-of-sight position, a
In particular, in the present embodiment, the detection surface on which the line-of-sight circle is specified is the imaging surface of the
一方、S27においてCPU41は、運転者の視認する対象が変化したと推定し、既存の視線円を初期化する。また、RAM42に記憶される過去に検出された視線位置の履歴についても初期化する。そして、今回新たに検出された運転者の視線位置(S23の補正後の位置)の座標を視線位置の履歴としてRAM42に記憶する。その結果、次回以降に実行されるS26の処理では今回新たに検出された運転者の視線位置(S23の補正後の位置)を始点として新たな視線円が形成されることとなる。
On the other hand, in S27, the
例えば、図8に示すように先ず位置Gが視線位置として検出され、次に位置Hが視線位置として検出され、その後に位置Hから大きく離れた位置Iが視線位置として検出された場合には、既存の位置G及び位置Hを含む視線円57は一旦初期化する。その後、更に位置Jが視線位置として検出された場合には、新たに位置I及び位置Jを含む最小の円である円58を視線円として特定する。
For example, as shown in FIG. 8, when the position G is first detected as the line-of-sight position, then the position H is detected as the line-of-sight position, and then a position I that is far away from the position H is detected as the line-of-sight position. The line-of-
次に、前記S3において実行される視野領域特定処理のサブ処理について図9に基づき説明する。図9は視野領域特定処理のサブ処理プログラムのフローチャートである。 Next, the sub-process of the visual field area specifying process executed in S3 will be described with reference to FIG. FIG. 9 is a flowchart of a sub-processing program of the visual field area specifying process.
先ず、S31においてCPU41は、前記S1で取得したフロントカメラ19の撮像画像と前記S21で検出した運転者の視線開始点(目の位置)及び視線方向と運転者の視野角に基づいて、車両の進行方向前方の周辺環境に対する運転者の視野領域を、フロントカメラ19の撮像画像中において特定する。尚、運転者の視野角は固定値としても良いし、運転者の年齢等に応じて変更しても良い。
具体的には、図10に示すように、視線開始点Pから視線方向αへと延長した直線を中心軸とした視野角βの範囲が、フロントカメラ19の撮像面60によって切断される切断面(即ち視野角に含まれる撮像画像中の領域)を視野領域61とする。また、特定された視野領域61は、撮像面60上の座標系によって位置やサイズが規定される。
First, in S31, the
Specifically, as shown in FIG. 10, a cutting plane in which the range of the viewing angle β around the straight line extending from the line-of-sight start point P in the line-of-sight direction α is cut by the
ここで、図11は、フロントカメラ19による撮像画像の撮像範囲62と運転者の視野領域61とをそれぞれ示した図である。前記したようにフロントカメラ19の設置位置は運転者52の目の位置(視線開始点)と略同一で、車両の進行方向前方を撮像方向とする(図2)。また、運転者の視野角よりもフロントカメラ19の画角が広くなるように設定されており、基本的に正面を向く運転者の視野領域61は、フロントカメラ19の撮像範囲62に含まれることとなる。一方、撮像範囲62内の視野領域61に含まれない範囲は、車両の進行方向前方の周辺環境において運転者が視認できない死角領域63となる。
Here, FIG. 11 is a diagram illustrating an
その後、S32においてCPU41は、前記S1で取得したフロントカメラ19の撮像画像の内、前記S31で特定された運転者の視野領域内に含まれる画像を切り出す。
Thereafter, in S32, the
そして、S33においてCPU41は、前記S1で取得したフロントカメラ19の撮像画像を、前記S32で切り出された運転者の視野領域内に含まれる画像と、残りの運転者の視野領域に含まれない画像(即ち死角領域の画像)とに区分して撮像画像DB32に保存する。
In S33, the
次に、前記S4において実行される特徴物検出処理のサブ処理について図12に基づき説明する。図12は特徴物検出処理のサブ処理プログラムのフローチャートである。 Next, the sub-process of the feature object detection process executed in S4 will be described with reference to FIG. FIG. 12 is a flowchart of the sub-processing program for the feature object detection process.
以下の特徴物検出処理のサブ処理では、CPU41はフロントカメラ19で撮像された撮像画像と特徴物画像情報33として予め特徴物の種類毎に記憶された特徴物の画像とを比較することによって、撮像画像内に含まれる特徴物(即ち、車両の進行方向前方に位置する特徴物)を検出する。
具体的に、先ずS41においてCPU41は、前記S1で取得したフロントカメラ19の撮像画像の変換処理を行う。具体的には、撮像画像内に含まれる特徴物の特徴点を検出する為のエッジの抽出等を行う。
In the following sub-process of the feature detection process, the
Specifically, first, in S41, the
次に、S42においてCPU41は、撮像画像内に含まれる特徴点を検出する。更に、撮像画像DB32に格納された特徴物画像情報33を読み出し、検出された特徴点の配置パターンを、特徴物画像情報33において予め特徴物の種類毎に規定された配置パターンと比較するパターン認識処理を行う。
Next, in S42, the
続いてS43においてCPU41は、前記S42のパターン認識処理の結果に基づいて、撮像画像内に含まれる特徴物の種別を識別する。具体的には、予め規定されたパターンと一致する特徴点の配置パターンが撮像画像内に含まれる場合に、該配置パターンに対応する種別の特徴物が撮像画像内に含まれると認定する。尚、“特徴物”の種別としては、車両、人、信号機、道路標識、案内板、ランドマーク等がある。また、CPU41は撮像画像内に特徴物が複数含まれる場合には、各特徴物について種別を識別する。更に、CPU41は、撮像画像内に特にランドマークが含まれる場合には、特徴物画像情報33に基づいて該ランドマークの位置情報や名称等のランドマークに関わる詳細情報を取得する。また、撮像画像内に特に車両が含まれる場合には、特徴物画像情報33に基づいて該車両の車名、車種、ブランド名等の車両に関わる詳細情報を取得する。また、撮像画像内に特に道路標識が含まれる場合には、特徴物画像情報33に基づいて道路標識の種類(案内標識、警戒標識、規制標識、指示標識等)や、道路標識がどのような規制や指示を示した標識であるかを示す内容等の道路標識に関わる詳細情報を取得する。そして、後述する第2案内処理(図19)において、運転者が特徴物であるランドマークや車両や道路標識を視認していると判定した場合には、上記取得した詳細情報を案内する。
Subsequently, in S43, the
その後、S44においてCPU41は、前記S43の検出結果に基づいて、フロントカメラ19により撮像された撮像画像内に少なくとも一以上の特徴物が含まれているか否か判定する。
Thereafter, in S44, the
そして、フロントカメラ19により撮像された撮像画像内に少なくとも一以上の特徴物が含まれていると判定された場合(S44:YES)には、S45へと移行する。それに対して、フロントカメラ19により撮像された撮像画像内に特徴物が含まれていないと判定された場合(S44:NO)には、S5へと移行する。 If it is determined that at least one or more features are included in the captured image captured by the front camera 19 (S44: YES), the process proceeds to S45. On the other hand, when it is determined that no feature is included in the captured image captured by the front camera 19 (S44: NO), the process proceeds to S5.
その後、S45においてCPU41は、前記S43で種別が識別された特徴物の輪郭を、撮像画像内に含まれる特徴点と、予め特徴物の種類毎に規定された輪郭パターンに基づいて検出する。例えば図13に示す配置で撮像画像内に特徴点65が検出された場合には、特徴物として信号機が撮像画像内に含まれていると識別する。そして、信号機の輪郭66を検出する。その結果、フロントカメラ19の撮像画像内に含まれる特徴物の位置や形状等が特定されることとなり、その後のS6において特徴物を囲む特徴物矩形67(図13参照)を設定することが可能となる。尚、CPU41は撮像画像内に特徴物が複数含まれる場合には、各特徴物について輪郭を検出する。
After that, in S45, the
次に、前記S7において実行される視認態様特定処理のサブ処理について図14に基づき説明する。図14は視認態様特定処理のサブ処理プログラムのフローチャートである。 Next, the sub process of the visual recognition mode specifying process executed in S7 will be described with reference to FIG. FIG. 14 is a flowchart of a sub-processing program for visual recognition mode specifying processing.
先ず、S51においてCPU41は、前記S6で特定された特徴物矩形と前記S3で特定された視線円とに基づいて、フロントカメラ19で撮像された撮像画像内における特徴物矩形と視線円との重複態様を検出する。具体的には、図15に示すように特徴物の全体の面積(本実施形態では特徴物を囲む特徴物矩形67の面積を用いる)に対する視線円55と重複する領域68の面積の割合(以下、重複割合という)を算出する。尚、CPU41は前記S4の特徴物検出において複数の特徴物が検出された場合には、各特徴物について重複割合を算出する。また、特徴物の面積としては特徴物矩形67の面積ではなく、前記S45で検出された輪郭によって囲まれる面積を用いても良い。算出処理は複雑化するが、より正確な重複割合を算出することが可能となる。
First, in S51, the
次に、S52においてCPU41は、前記S3で特定された視線円の視線滞留時間を算出する。尚、視線滞留時間は、前述したS27で前回の視線円が初期化された後に、新たに現在の視線円が作成されてからの時間(即ち、運転者が現在視認する視認位置周辺への視認を開始してからの時間)となる。
Next, in S52, the
続いて、S53においてCPU41は、前記S52で算出された視線滞留時間に基づいて、前記S51で算出された重複割合を補正する。具体的には、視線滞留時間が閾値以上である場合に重複割合を加算し、更に、その加算値は視線滞留時間が長いほど大きくする。例えば、視線滞留時間が3sec以上で重複割合を10%加算し、視線滞留時間が5sec以上で重複割合を20%加算するように構成する。
Subsequently, in S53, the
ここで、前記したように運転者が同じ箇所を長時間視認すればするほど視線円内に包含される視線位置は多くなり、基本的に視線円は大きくなる(図7参照)。しかしながら、運転者が同じ箇所を長時間視認しても、視線円が大きくならない場合がある。そこで、前記S53において視線滞留時間に応じて重複割合を補正することにより、後述のS54で、より適切な運転者の特徴物への視認態様を特定することが可能となる。 Here, as described above, as the driver visually recognizes the same part for a long time, the line-of-sight position included in the line-of-sight circle increases, and the line-of-sight circle basically increases (see FIG. 7). However, even if the driver visually recognizes the same part for a long time, the line-of-sight circle may not increase. Therefore, by correcting the overlap ratio according to the line-of-sight dwell time in S53, it is possible to specify a more appropriate visual aspect of the driver's feature in S54 described later.
次に、S54においてCPU41は、前記S51で算出され、且つ前記S53で補正された重複割合に基づいて、車両の進行方向前方にある特徴物への運転者の視認態様を特定する。より具体的には、予め規定された以下の(1)〜(4)の4つのパターンのいずれかに視認態様を特定する。
(1)運転者は特徴物を視認していない。
(2)運転者は特徴物を視認しているが注視はしていない。視認も僅かにしているのみである。
(3)運転者は特徴物を視認しているが注視はしていない。上記(2)よりもしっかり視認している。
(4)運転者は特徴物を注視している。
Next, in S54, the
(1) The driver does not visually recognize the characteristic object.
(2) The driver is visually observing the feature but not gazing. The visual recognition is only slightly made.
(3) The driver visually recognizes the feature but does not pay attention. Visible more firmly than (2) above.
(4) The driver is watching the feature.
例えば、本実施形態では図16に示すように重複割合が0%である場合にはパターン(1)に視認態様を特定し、重複割合が1〜40%である場合にはパターン(2)に視認態様を特定し、重複割合が41〜80%である場合にはパターン(3)に視認態様を特定し、重複割合が81%以上である場合にはパターン(4)に視認態様を特定する。そして、前記S54で特定された視認態様は、対象となる特徴物矩形67と対応付けてRAM42等に記憶される。尚、図16に示す重複割合の数値は適宜変更することが可能である。
For example, in the present embodiment, as shown in FIG. 16, when the overlap ratio is 0%, the visual aspect is specified in the pattern (1), and when the overlap ratio is 1 to 40%, the pattern (2) is specified. A visual recognition mode is specified, and when the overlapping ratio is 41 to 80%, the visual recognition mode is specified for pattern (3), and when the overlapping ratio is 81% or more, the visual recognition mode is specified for pattern (4). . The visual recognition mode specified in S54 is stored in the
次に、前記S8において実行される第1案内処理のサブ処理について図17に基づき説明する。図17は第1案内処理のサブ処理プログラムのフローチャートである。 Next, the sub-process of the first guidance process executed in S8 will be described with reference to FIG. FIG. 17 is a flowchart of a sub-processing program of the first guidance process.
先ず、S61においてCPU41は、前記S7の視認態様特定処理において特定された車両の進行方向前方にある特徴物への運転者の視認態様に基づいて、運転者が該特徴物を注視しているか否かを判定する。具体的には、前記S7の視認態様特定処理において、上記(1)〜(4)のパターンの内、特にパターン(4)の視認態様が特徴物への視認態様として特定された場合には、運転者が特徴物を注視していると判定し、パターン(1)〜(3)の視認態様が特徴物への視認態様として特定された場合には、運転者が特徴物を注視していないと判定する。
First, in S61, the
そして、運転者が特徴物を注視していると判定された場合(S61:YES)には、既に運転者は該特徴物の存在を認知していると推定し、特に特徴物に関する案内を行うことなくS9へと移行する。一方、運転者が特徴物を注視していないと判定された場合(S61:NO)には、運転者は該特徴物の存在を認知していない可能性があると推定し、S62へと移行する。 If it is determined that the driver is gazing at the feature (S61: YES), it is assumed that the driver has already recognized the presence of the feature, and guidance regarding the feature is provided. It moves to S9 without it. On the other hand, if it is determined that the driver is not gazing at the feature (S61: NO), it is estimated that the driver may not recognize the presence of the feature, and the process proceeds to S62. To do.
S62においてCPU41は、運転者が注視していないと判定された特徴物に対して、(a)車両から該特徴物までの距離、(b)車両と該特徴物の相対速度、(c)該特徴物の視認時間をそれぞれ検出する。尚、(a)車両から特徴物までの距離や(b)車両と特徴物の相対速度については、フロントカメラ19で撮像した撮像画像や、車両に搭載された測距センサ等を用いて検出される。また、特徴物の視認時間は、前記S52で算出した視線滞留時間が相当する。
In S62, the
次に、S63においてCPU41は、前記S62で検出された(a)車両から特徴物までの距離、(b)車両と特徴物の相対速度、(c)特徴物の視認時間とに基づいて、特徴物に対する案内の緊急度を判定する。基本的には、車両から特徴物までの距離が短い程、緊急度が高いと判定される。また、特徴物に車両がより早く接近する相対速度である程、緊急度が高いと判定される。また、特徴物の視認時間がより短い程、緊急度が高いと判定される。具体的には、図18に示す態様で緊急度が『高』、『中』、『低』のいずれかに判定される。尚、緊急度は、車両の乗員に前方特徴物を認知させる必要性と車両の乗員に前方特徴物の認知に応じて車両の操作を是正させる必要性によって、『高』、『中』、『低』として予め分類されている。
Next, in S63, the
図18は、特徴物の視認時間をx軸、車両と特徴物の相対速度をy軸、車両から特徴物までの距離をz軸として、緊急度が『高』、『中』、『低』と判定される各区分を示した図である。
具体的には、以下の条件によって判断されることとなる。
緊急度『低』・・・以下の(A)の条件を少なくとも満たす。
(A)特徴物が車両から遠ざかる相対速度(y≧0)である(即ち、特徴物の進行方向が車両の進行方向と同一であって、且つ車両よりも移動速度が速い)。
緊急度『中』・・・以下の(A)の条件を満たし、且つ(B)、(C)の条件を一方又は両方満たす。
(A)特徴物が車両に近づく相対速度(y<0)である(即ち、特徴物の進行方向が車両の進行方向と逆方向、又は同一で且つ車両よりも移動速度が遅い)。
(B)車両から特徴物までの距離が所定距離(例えば10m)以上(z≧β)である。
(C)特徴物の視認時間が所定時間(例えば3sec)以上(x≧α)である。
緊急度『高』・・・以下の(A)〜(C)の条件を全て満たす。
(A)特徴物が車両に近づく相対速度(y<0)である(即ち、特徴物の進行方向が車両の進行方向と逆方向、又は同一で且つ車両よりも移動速度が遅い)。
(B)車両から特徴物までの距離が所定距離(例えば10m)未満(z<β)である。
(C)特徴物の視認時間が所定時間(例えば3sec)未満(x<α)である。
FIG. 18 shows the urgency of “high”, “medium”, and “low” with the feature recognition time as the x-axis, the relative speed between the vehicle and the feature as the y-axis, and the distance from the vehicle to the feature as the z-axis. It is the figure which showed each division determined with.
Specifically, the determination is made based on the following conditions.
Urgency “Low”: At least the following condition (A) is satisfied.
(A) The relative speed at which the feature moves away from the vehicle (y ≧ 0) (that is, the traveling direction of the feature is the same as the traveling direction of the vehicle, and the moving speed is faster than the vehicle).
Urgency “medium”: satisfies the following condition (A) and satisfies one or both of the conditions (B) and (C).
(A) The relative speed at which the feature approaches the vehicle (y <0) (that is, the traveling direction of the feature is opposite to or the same as the traveling direction of the vehicle, and the moving speed is slower than the vehicle).
(B) The distance from the vehicle to the feature is a predetermined distance (for example, 10 m) or more (z ≧ β).
(C) The visual recognition time of the characteristic object is a predetermined time (for example, 3 sec) or more (x ≧ α).
Urgency “High”: All the following conditions (A) to (C) are satisfied.
(A) The relative speed at which the feature approaches the vehicle (y <0) (that is, the traveling direction of the feature is opposite to or the same as the traveling direction of the vehicle, and the moving speed is slower than the vehicle).
(B) The distance from the vehicle to the feature is less than a predetermined distance (for example, 10 m) (z <β).
(C) The visual recognition time of the feature is less than a predetermined time (for example, 3 sec) (x <α).
尚、特徴物が特に道路標識である場合には、道路標識の種類に基づいて、緊急度を判定しても良い。具体的に、CPU41は先ずフロントカメラ19の撮像画像と撮像画像DB32に記憶された特徴物画像情報33とに基づいて、車両の進行方向前方にある特徴物として検出された道路標識の種類を特定する。尚、特徴物画像情報33には、前記したように道路標識の種類毎に道路標識の画像が記憶されている。そして、特定された道路標識の種類に基づいて、緊急度を『高』、『中』、『低』のいずれかに判定される。
例えば、特徴物が規制標識の内、特に赤の縁取りがされている標識である場合には、緊急度を『高』と判定する。
また、特徴物が警戒標識(黄地に黒色の標識)である場合には、緊急度を『中』と判定する。
また、特徴物がその他の道路標識(指示標識や規制標識の内、特に赤の縁取りがされていない標識(青地に白色の標識)等)である場合には、緊急度を『低』と判定する。
また、道路標識の種類に加えて、道路標識の視認時間、車両と道路標識の相対速度及び車両から道路標識までの距離についても考慮して緊急度を判定しても良い。例えば、車両から道路標識までの距離が所定距離(例えば10m)以内で、且つ該道路標識が規制標識の内、特に赤の縁取りがされている標識である場合に、緊急度を『高』と判定しても良い。
If the feature is a road sign, the urgency level may be determined based on the type of road sign. Specifically, the
For example, when the feature is a restriction sign, particularly a sign with a red border, the urgency is determined as “high”.
If the feature is a warning sign (a black sign on a yellow background), the degree of urgency is determined as “medium”.
Also, if the feature is another road sign (a sign or regulation sign, especially a sign with no red border (white sign on a blue background), etc.) judge.
Further, in addition to the type of road sign, the degree of urgency may be determined in consideration of the road sign visual recognition time, the relative speed between the vehicle and the road sign, and the distance from the vehicle to the road sign. For example, when the distance from the vehicle to the road sign is within a predetermined distance (for example, 10 m) and the road sign is a restriction sign, in particular, a sign with a red border, the urgency level is “high”. You may judge.
続いて、S64においてCPU41は、前記S63の緊急度の判定の結果、緊急度が『低』と判定されたか否かを判定する。
Subsequently, in S64, the
そして、緊急度が『低』と判定された場合(S64:YES)には、仮に運転者が特徴物を認知していなくても走行に大きな影響が無い、即ち、車両の運転者が前方特徴物の認知する必要がなく、運転者が車両の操作を是正する必要がないと推定し、特徴物に関する案内を行うことなくS9へと移行する。一方、緊急度が『中』又は『高』と判定された場合(S64:NO)には、S65へと移行する。 If the urgency level is determined to be “low” (S64: YES), there is no significant influence on the driving even if the driver does not recognize the feature, that is, the driver of the vehicle has the front feature. It is presumed that there is no need to recognize the object and that the driver does not need to correct the operation of the vehicle, and the process proceeds to S9 without providing guidance regarding the characteristic object. On the other hand, when the urgency level is determined to be “medium” or “high” (S64: NO), the process proceeds to S65.
S65においてCPU41は、前記S63の緊急度の判定の結果、緊急度が『中』と判定されたか否かを判定する。
In S65, the
そして、緊急度が『中』と判定された場合(S65:YES)には、運転者が特徴物を認知していない場合に走行に影響を及ぼす可能性がある、即ち、車両の運転者が前方特徴物を認知する必要があり、運転者が車両の操作を是正する必要がないと推定し、車両の進行方向前方にある特徴物の存在を運転者に認知させる為の案内を行う(S66)。例えば、「前方に注意して下さい。」との音声をスピーカ16から出力する。また、特徴物が特に道路標識である場合には、「道路標識に注意して下さい。」との音声をスピーカ16から出力する。尚、案内は液晶ディスプレイ15による表示案内としても良いし、HMDやHUDを用いて案内しても良い。また、前記S66や以降のS68、S69で出力される案内の情報(案内文や案内音声)は、撮像画像DB32から読み出される。撮像画像DB32には、特徴物の種類毎且つ緊急度毎に案内情報が対応付けられて格納されている。
If the urgency is determined to be “medium” (S65: YES), there is a possibility that the driving may be affected when the driver does not recognize the feature, that is, the driver of the vehicle It is estimated that there is a need to recognize the forward feature and the driver does not need to correct the operation of the vehicle, and guidance is provided to allow the driver to recognize the presence of the feature in the forward direction of the vehicle (S66). ). For example, a sound “Please pay attention to the front” is output from the
一方、緊急度が『高』と判定された場合(S65:NO)には、S67へと移行する。 On the other hand, when the urgency level is determined to be “high” (S65: NO), the process proceeds to S67.
S67においてCPU41は、前記S3で特定された運転者の視野領域に基づいて、車両の進行方向前方に位置する特徴物が運転者の視野領域内にあるか否かを判定する。具体的には、前記S33で保存された視野領域の撮像画像内に特徴物が検出された場合には、車両の進行方向前方に位置する特徴物が運転者の視野領域内にあると判定し、前記S33で保存された死角領域の撮像画像内に特徴物が検出された場合には、車両の進行方向前方に位置する特徴物が運転者の視野領域内にないと判定する。
In S67, the
そして、特徴物が運転者の視野領域内にあると判定された場合(S67:YES)には、運転者が特徴物を認知していない場合に走行に大きく影響を及ぼす可能性がある、即ち、前記車両の乗員が前方特徴物を認知する必要があり、且つ運転者により車両の操作を是正する必要があると推定し、車両の進行方向前方にある特徴物の存在を運転者に認知させるとともに運転者による車両の進行方向前方にある特徴物の存在の認知に応じた車両の操作の是正を促す為の案内を行う(S68)。その際の案内内容は、前記S66よりも特徴物を強調した案内とする。例えば、「○○(特徴物の種別)が接近しています。前方に注意して下さい。」との音声をスピーカ16から出力する。また、特徴物が特に道路標識である場合には、道路標識の規制内容についての案内(例えば、車両進入禁止、制限速度の案内)、例えば、車両進入禁止の道路に車両が進入しそうな場合には運転者に「車両進入禁止の道路が正面にあります。右折又は左折をして車両進入禁止の道路に進入しないようにしてください。」等の案内を行う。また、案内は液晶ディスプレイ15による表示案内としても良いし、HMDやHUDを用いて案内しても良い。更に、HMDやHUDを用いる場合には、前記S6で特定された特徴物矩形を特徴物の周囲に表示しても良い。
If it is determined that the feature is within the driver's field of view (S67: YES), there is a possibility that the driving will be greatly affected if the driver does not recognize the feature, that is, The vehicle occupant is required to recognize the front feature and the driver needs to correct the operation of the vehicle, and the driver is made aware of the presence of the feature in the forward direction of the vehicle. At the same time, guidance is provided for prompting the driver to correct the operation of the vehicle in accordance with the recognition of the presence of a characteristic object ahead of the traveling direction of the vehicle (S68). The guidance content at that time is a guidance in which the feature is emphasized as compared with S66. For example, the voice of “XX (type of characteristic object) is approaching. Be careful ahead” is output from the
一方、特徴物が運転者の視野領域内にない、即ち死角領域にあると判定された場合(S67:NO)には、運転者の死角に特徴物が存在することを運転者に認知させる為の案内を行う(S69)。その際の案内内容は、前記S66よりも特徴物を強調した案内とし、視野領域に対する特徴物の位置を案内する。例えば、「○○(特徴物の種別)が死角に位置します。前方に注意して下さい。」との音声をスピーカ16から出力する。また、特徴物が特に道路標識である場合には、死角にある道路標識の規制内容についての案内(例えば、車両進入禁止、制限速度の案内)を行う。また、案内は液晶ディスプレイ15による表示案内としても良いし、HMDやHUDを用いて案内しても良い。
On the other hand, when it is determined that the feature is not in the driver's field of view, that is, in the blind spot area (S67: NO), the driver recognizes that the feature is present in the driver's blind spot. (S69). The guidance content at that time is guidance in which the feature is emphasized as compared with S66, and guides the position of the feature with respect to the visual field region. For example, the
尚、上記第1案内処理においてCPU41は、前記S4の特徴物検出において複数の特徴物が検出された場合には、各特徴物を対象として前記S61〜S69の処理を実行することとしても良いし、車両から最も近い距離にある特徴物のみを対象として前記S61〜S69の処理を実行することとしても良い。
In the first guidance process, when a plurality of feature objects are detected in the feature object detection in S4, the
次に、前記S9において実行される第2案内処理のサブ処理について図19に基づき説明する。図19は第2案内処理のサブ処理プログラムのフローチャートである。 Next, the sub-process of the second guidance process executed in S9 will be described with reference to FIG. FIG. 19 is a flowchart of a sub-processing program for the second guidance process.
先ず、S71においてCPU41は、前記S7の視認態様特定処理において特定された車両の進行方向前方にある特徴物への運転者の視認態様に基づいて、運転者が該特徴物を少なくとも視認(注視を含む)しているか否かを判定する。具体的には、前記S7の視認態様特定処理において、上記(1)〜(4)のパターンの内、特にパターン(2)〜(4)の視認態様が特徴物への視認態様として特定された場合には、運転者が特徴物を視認していると判定し、パターン(1)の視認態様が特徴物への視認態様として特定された場合には、運転者が特徴物を視認していないと判定する。
First, in S71, the
そして、運転者が特徴物を視認していると判定された場合(S71:YES)には、S72へと移行する。それに対して、運転者が特徴物を視認していないと判定された場合(S71:NO)には、特徴物に関する案内を行うことなく当該走行支援処理プログラムを終了する。 And when it determines with the driver | operator visually recognizing the characteristic object (S71: YES), it transfers to S72. On the other hand, when it is determined that the driver is not visually recognizing the feature (S71: NO), the driving support processing program is terminated without performing guidance regarding the feature.
次に、S72においてCPU41は、前記S62で検出した車両から特徴物までの距離が所定距離以上であるか否かを判定する。尚、前記S72の判定基準となる所定距離は、特徴物が車両の走行する道路上や道路沿いにあるか否かを判定する為に設定する距離であり、例えば1000mとする。
Next, in S72, the
そして、車両から特徴物までの距離が所定距離以上であると判定された場合(S72:YES)には、該特徴物は車両の走行する道路上や道路沿いにある特徴物ではなく、遠方にあるランドマークとなるような大型の施設や建造物であると推定する。そして、S73でCPU41は、特徴物に関する情報提供として周辺の観光案内を行ったり、目的地の設定画面へと移行する。そして、目的地の設定画面へと移行した場合には、その後に特徴物を目的地に設定し、特徴物を目的地とした走行案内を行う。
If it is determined that the distance from the vehicle to the feature is greater than or equal to the predetermined distance (S72: YES), the feature is not a feature on or along the road on which the vehicle travels, but in the distance. Presumably a large facility or building that would be a landmark. Then, in S73, the
一方、車両から特徴物までの距離が所定距離未満であると判定された場合(S72:NO)には、該特徴物は車両の走行する道路上や道路沿いにある特徴物であると推定し、S74へと移行する。 On the other hand, if it is determined that the distance from the vehicle to the feature is less than the predetermined distance (S72: NO), the feature is estimated to be a feature on or along the road on which the vehicle travels. , The process proceeds to S74.
S74においてCPU41は、前記S62で検出した車両と特徴物の相対速度に基づいて、特徴物が現時点で移動を行っている移動体であるか否かを判定する。
In S74, the
そして、特徴物が移動体であると判定された場合(S74:YES)には、該特徴物は移動中の歩行者や他車両であると推定し、S75へと移行する。それに対して、特徴物が移動体でないと判定された場合(S74:NO)には、該特徴物は停止中の歩行者や他車両又は道路標識や信号機等の地物であると推定し、S78へと移行する。 If it is determined that the feature is a moving object (S74: YES), the feature is estimated to be a moving pedestrian or another vehicle, and the process proceeds to S75. On the other hand, when it is determined that the feature is not a moving object (S74: NO), the feature is estimated to be a pedestrian or other vehicle that is stopped, or a feature such as a road sign or a traffic light, The process proceeds to S78.
S75においてCPU41は、運転者が特徴物を注視しているか否かを判定する。尚、具体的な処理内容はS61と同様であるので、詳細は省略する。
In S75, the
そして、運転者が特徴物を注視していないと判定された場合(S75:NO)には、特徴物に関する情報提供として、特徴物を特定する為の特徴物固有の情報を案内する(S76)。例えば、特徴物の位置や特徴物の種類等を案内する。それによって、運転者が視認した特徴物について、より詳細な情報を運転者に提供することが可能となる。 If it is determined that the driver is not gazing at the feature (S75: NO), information specific to the feature for identifying the feature is provided as information provision on the feature (S76). . For example, the location of the feature, the type of the feature, etc. are guided. Thereby, it is possible to provide the driver with more detailed information about the feature visually recognized by the driver.
一方、運転者が特徴物を注視していると判定された場合(S75:YES)には、情報特徴物に関する情報提供として、特徴物と自車両との関係を特定する情報等の前記S76よりも詳細な情報を案内する(S77)。具体的には、自車両に対する特徴物の相対速度、自車両と特徴物との間の距離、自車両に対する特徴物の移動方向(接近しているか遠ざかっているか)等を案内する。また、特徴物が車両である場合には車名、車種、ブランド名等を撮像画像DB32から読み出し、案内する。また、特徴物が車両と接近する場合には接触までの予定時間についても案内する。それによって、運転者が注視した特徴物について、より詳細な情報を運転者に提供することが可能となる。尚、前記S77では運転者は特徴物に強い関心を持っていると推定されるので、案内内容は特徴物を運転者が注視していない場合の案内(S76)よりも、より特徴物の詳細について案内する内容となる。
On the other hand, if it is determined that the driver is gazing at the feature (S75: YES), the information providing information about the information feature is provided from S76 such as information for specifying the relationship between the feature and the vehicle. The detailed information is also guided (S77). Specifically, the relative speed of the feature with respect to the host vehicle, the distance between the host vehicle and the feature, the moving direction of the feature with respect to the host vehicle (whether approaching or moving away), etc. are guided. If the feature is a vehicle, the vehicle name, vehicle type, brand name, etc. are read from the captured
一方、S78においてCPU41は、前記S43で検出した特徴物の種別に基づいて、特徴物が地物であるか否かを判定する。尚、地物とは、道路上又は道路沿いに設置された構造物であり、例えば道路標識、案内板、施設等が該当する。
On the other hand, in S78, the
そして、特徴物が地物であると判定された場合(S78:YES)には、S79へと移行する。それに対して、特徴物が地物でないと判定された場合(S78:NO)には、該特徴物は停止中の歩行者や他車両であると推定し、S82へと移行する。 If it is determined that the feature is a feature (S78: YES), the process proceeds to S79. On the other hand, when it is determined that the feature is not a feature (S78: NO), the feature is estimated to be a pedestrian or another vehicle that is stopped, and the process proceeds to S82.
S79においてCPU41は、運転者が特徴物を注視しているか否かを判定する。尚、具体的な処理内容はS61と同様であるので、詳細は省略する。
In S79, the
そして、運転者が特徴物を注視していないと判定された場合(S79:NO)には、特徴物に関する情報提供として、特徴物の内容を識別する識別情報について案内する(S80)。例えば、特徴物が案内板である場合には案内板の画像を液晶ディスプレイ15に表示する。また、特徴物が道路標識である場合には該道路標識の内容についての案内(例えば、制限速度、一方通行、進行方向別通行区分の案内)を行う。それによって、運転者が視認した特徴物について、より詳細な情報を運転者に提供することが可能となる。
If it is determined that the driver is not gazing at the feature (S79: NO), the information about the feature is provided as identification information for identifying the feature (S80). For example, when the characteristic object is a guide plate, an image of the guide plate is displayed on the
一方、運転者が特徴物を注視していると判定された場合(S79:YES)には、特徴物に関する情報提供として、特徴物の内容への前記乗員の理解を補助する補助情報等の前記S80よりも詳細な情報を案内する(S81)。具体的には、特徴物のより詳細な情報を撮像画像DB32から読み出し、例えば、特徴物が案内板である場合にはこの先の接続道路の案内を行う。また、特徴物がランドマーク等の施設である場合には、施設名称やジャンルについての案内を行う。また、特徴物が道路標識である場合には該道路標識の種類や該道路標識がどのような規制や指示を示した標識であるかを解説する案内を行う。それによって、運転者が注視した特徴物について、より詳細な情報を運転者に提供し、特徴物の内容について理解できない乗員に対して、特徴物の内容を理解させることが可能となる。尚、前記S81では運転者は特徴物に強い関心を持っていると推定されるので、案内内容は特徴物を運転者が注視していない場合の案内(S80)よりも、より特徴物の詳細について案内する内容となる。
On the other hand, when it is determined that the driver is gazing at the feature (S79: YES), the information such as the auxiliary information for assisting the passenger in understanding the feature is provided as information on the feature. More detailed information than S80 is guided (S81). Specifically, more detailed information on the feature is read from the captured
一方、S82においてCPU41は、運転者が特徴物を注視しているか否かを判定する。尚、具体的な処理内容はS61と同様であるので、詳細は省略する。
On the other hand, in S82, the
そして、運転者が特徴物を注視していないと判定された場合(S82:NO)には、特徴物に関する情報提供として、特徴物の内容を識別する識別情報について案内する(S83)。例えば、特徴物が他車両である場合には車両内の運転者の有無(即ち、走行を開始する虞があるか否か)の案内を行う。それによって、運転者が視認した特徴物について、より詳細な情報を運転者に提供することが可能となる。 If it is determined that the driver is not gazing at the feature (S82: NO), the information about the feature is provided as identification information for identifying the feature (S83). For example, when the characteristic object is another vehicle, the presence / absence of a driver in the vehicle (that is, whether or not there is a possibility of starting traveling) is provided. Thereby, it is possible to provide the driver with more detailed information about the feature visually recognized by the driver.
一方、運転者が特徴物を注視していると判定された場合(S82:YES)には、特徴物に関する情報提供として、特徴物の内容への前記乗員の理解を補助する補助情報等の前記S83よりも詳細な情報を案内する(S84)。具体的には、特徴物のより詳細な情報を撮像画像DB32から読み出し、例えば特徴物が車両である場合には車種や年式の案内を行う。また、特徴物が歩行者である場合には性別や年齢層の案内を行う。それによって、運転者が注視した特徴物について、より詳細な情報を運転者に提供し、特徴物の内容について理解できない乗員に対して、特徴物の内容を理解させることが可能となる。尚、前記S84では運転者は特徴物に強い関心を持っていると推定されるので、案内内容は特徴物を運転者が注視していない場合の案内(S83)よりも、より特徴物の詳細について案内する内容となる。
On the other hand, if it is determined that the driver is gazing at the feature (S82: YES), the supplementary information for assisting the occupant's understanding of the content of the feature is provided as information on the feature. More detailed information than S83 is guided (S84). Specifically, more detailed information on the feature is read from the captured
尚、上記第2案内処理においてCPU41は、前記S4の特徴物検出において複数の特徴物が検出された場合には、各特徴物を対象として前記S71〜S84の処理を実行することとしても良いし、車両から最も近い距離にある特徴物のみを対象として前記S71〜S84の処理を実行することとしても良い。
In the second guidance process, the
以上詳細に説明した通り、本実施形態に係るナビゲーション装置1、ナビゲーション装置1による走行支援方法及びナビゲーション装置1で実行されるコンピュータプログラムでは、ドライバカメラで撮像された撮像画像から運転者の視線位置、視線円及び視野領域を検出し(S2、S3)、フロントカメラ19で撮像された撮像画像や特徴物画像情報33から車両の進行方向前方にある特徴物を検出し(S4)、各検出結果に基づいて車両の進行方向前方にある特徴物への運転者の視認態様を特定し(S7)、特定された視認態様に基づいて特徴物に関する案内を行う(S8、S9)ので、車両の運転者に対して不要な案内を行うことなく、現在の運転者に必要な案内を必要なタイミングで行うことが可能となる。また、現在の運転者にとって必要な情報を運転者の特徴物への視認態様から適切に特定することが可能となる。
また、車両の進行方向前方にある特徴物の種類と該特徴物への乗員の視認態様に基づいて特徴物に関する案内を行うので、特に特徴物の種類に応じた乗員に必要な情報を案内することが可能となる。
また、特徴物を運転者が注視しているか否かに基づいて特徴物の案内を行うので、特徴物への運転者の視認態様に応じた適切な案内を行うことが可能となる。例えば、運転者が特徴物を注視していない場合には、特徴物への注視を促し、特徴物を注視させることが可能である。また、運転者が特徴物を注視している場合には、運転者が注視する(即ち、乗員が関心を持つ)特徴物に関する詳細な情報を提供することが可能となる。
また、特徴物を運転者が視認しているか否かに基づいて特徴物の案内を行うので、特徴物への運転者の視認態様に応じた適切な案内を行うことが可能となる。例えば、運転者が特徴物を視認していない場合には、特徴物の存在を運転者に適切に認知させることが可能である。また、運転者が特徴物を視認している場合には、運転者が視認する特徴物に関する情報を提供することが可能となる。
また、案内対象となる特徴物は、道路を走行する車両の運転者が認視する対象となる物であるので、車両の走行に影響を及ぼす虞のある物の存在を運転者に事前に把握させ、適切に走行させることが可能となる。
As described above in detail, in the
Further, since guidance regarding the feature is performed based on the type of the feature ahead of the traveling direction of the vehicle and the occupant's visual recognition mode on the feature, information necessary for the passenger according to the type of the feature is particularly guided. It becomes possible.
In addition, since the feature object is guided based on whether or not the driver is gazing at the feature object, it is possible to perform appropriate guidance according to the visual recognition mode of the driver to the feature object. For example, when the driver is not gazing at the feature object, it is possible to urge the feature object to be gazed and cause the feature object to be gazed. Further, when the driver is gazing at the feature, it is possible to provide detailed information regarding the feature that the driver is gazing at (that is, the occupant is interested).
In addition, since the feature is guided based on whether or not the driver is visually recognizing the feature, it is possible to perform appropriate guidance according to the driver's visual aspect to the feature. For example, when the driver does not visually recognize the feature object, the driver can be made to appropriately recognize the presence of the feature object. In addition, when the driver visually recognizes the characteristic object, it is possible to provide information regarding the characteristic object visually recognized by the driver.
In addition, since the feature object to be guided is the object that the driver of the vehicle traveling on the road observes, the driver knows in advance the presence of an object that may affect the vehicle traveling. And it is possible to drive appropriately.
尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では、運転者の視線位置を含む視線範囲を円形状の視線円で特定するが、円形以外の形状(例えば四角形状や6角形形状)で特定しても良い。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in this embodiment, the line-of-sight range including the driver's line-of-sight position is specified by a circular line-of-sight circle, but may be specified by a shape other than a circle (for example, a square shape or a hexagonal shape).
また、本実施形態では運転者の特徴物への視認態様を図16に示す4つのパターンにより分類することとしているが、分類するパターンの数は3以下でも5以上としても良い。また、重複割合に加えて視線円の面積についても考慮して視認態様を特定しても良い。具体的には、視線円の面積が大きければ大きい程、その特徴物を長く視認していると推定できるので、視線円の面積が所定値以上である場合に、運転者が特徴物を注視していると判定しても良い。 Further, in this embodiment, the visual recognition mode for the driver's feature is classified according to the four patterns shown in FIG. 16, but the number of patterns to be classified may be 3 or less or 5 or more. Further, the visual aspect may be specified in consideration of the area of the line-of-sight circle in addition to the overlapping ratio. Specifically, the larger the area of the line-of-sight circle, the longer it can be estimated that the feature is viewed longer, so when the area of the line-of-sight circle is greater than or equal to a predetermined value, the driver gazes at the feature. It may be determined that
また、第2案内処理(図19)で説明した特徴物に関する案内内容は一例であり、その内容は適宜変更することが可能である。例えば、特徴物の形状や移動速度を案内しても良い。 Moreover, the guidance content regarding the characteristic object demonstrated by the 2nd guidance process (FIG. 19) is an example, The content can be changed suitably. For example, the shape and moving speed of the feature may be guided.
また、本実施形態では走行支援処理プログラム中において第1案内処理(図17)と第2案内処理(図19)を両方実行する構成としているが、いずれか一方のみを実行する構成としても良い。 In the present embodiment, both the first guidance process (FIG. 17) and the second guidance process (FIG. 19) are executed in the driving support processing program, but only one of them may be executed.
1 ナビゲーション装置
13 ナビゲーションECU
19 フロントカメラ
20 ドライバカメラ
41 CPU
42 RAM
43 ROM
51 車両
52 運転者
1
19
42 RAM
43 ROM
51
Claims (10)
特徴物の画像を記憶した特徴物画像情報を取得する特徴物画像情報取得手段と、
前記車両の乗員の視線開始点及び視線方向を検出する視線検出手段と、
前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定する視線位置特定手段と、
現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定する視線領域特定手段と、
前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出する特徴物検出手段と、
前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定する特徴物領域特定手段と、
前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定する視認態様特定手段と、
前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行う案内手段と、を有することを特徴とする走行支援システム。 Surrounding environment imaging means for imaging the surrounding environment ahead of the traveling direction of the vehicle;
Feature object image information acquisition means for acquiring feature object image information storing an image of the feature object;
Line-of-sight detection means for detecting the line-of-sight start point and line-of-sight direction of the vehicle occupant;
The line of sight of the occupant with respect to the surrounding environment ahead of the direction of travel of the vehicle based on the captured image captured by the surrounding environment imaging unit and the sight line start point and the line of sight direction of the occupant detected by the line-of-sight detection unit A line-of-sight position specifying means for specifying the line-of-sight position in which the image is located in the captured image;
A line-of-sight area specifying unit that specifies a range on the captured image including the line-of-sight position specified by the line-of-sight position specifying unit within a past predetermined time from the current time as a line-of-sight area;
Based on the captured image captured by the surrounding environment imaging unit and the feature image information, the feature detection unit that detects the feature in front of the traveling direction of the vehicle as a forward feature;
A feature region specifying means for specifying, on the captured image, a region surrounding the front feature as a feature region;
Based on the positional relationship between the line-of-sight area and the feature area, a visual aspect specifying unit that specifies the visual aspect of the occupant with respect to the front feature;
A driving support system comprising: guidance means for performing guidance related to the front feature with contents according to the visual aspect of the occupant identified by the visual aspect identification means.
前記案内手段は、前記乗員が前記前方特徴物を注視していると判定された場合には、前記乗員が前記前方特徴物を注視していないと判定された場合よりも前記前方特徴物の詳細な案内を行うことを特徴とする請求項1に記載の走行支援システム。 The visual recognition mode specifying unit specifies whether the occupant is gazing at the front feature,
When the occupant determines that the occupant is gazing at the front feature, the guide means is more detailed than when determining that the occupant is not gazing at the front feature. The driving support system according to claim 1, wherein the guidance is performed.
前記案内手段は、
前記移動判定手段によって前記前方特徴物が移動体であると判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していると特定された場合には、前記前方特徴物と前記車両との関係を特定する情報を案内し、
前記移動判定手段によって前記前方特徴物が移動体であると判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していないと特定された場合には、前記前方特徴物を特定する情報を案内することを特徴とする請求項2に記載の走行支援システム。 Movement determining means for determining whether or not the front feature is a moving object;
The guiding means includes
When it is determined by the movement determining means that the front feature is a moving body, and when the visual feature specifying means determines that the front feature is being watched, the front feature And information that identifies the relationship between the vehicle and the vehicle,
When it is determined by the movement determination means that the front feature is a moving body, and when it is specified by the visual recognition mode specifying means that the front feature is not being watched, the front feature The driving support system according to claim 2, wherein information for identifying the vehicle is guided.
前記案内手段は、
前記移動判定手段によって前記前方特徴物が移動体でないと判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していると特定された場合には、前記前方特徴物の内容への前記乗員の理解を補助する補助情報を案内し、
前記移動判定手段によって前記前方特徴物が移動体でないと判定された場合であって、前記視認態様特定手段によって前記前方特徴物を注視していないと特定された場合には、前記前方特徴物の内容を識別する識別情報の案内を行うことを特徴とする請求項2に記載の走行支援システム。 Movement determining means for determining whether or not the front feature is a moving object;
The guiding means includes
When it is determined by the movement determination means that the front feature is not a moving body, and when it is specified by the visual recognition mode specifying means that the front feature is being watched, Guide auxiliary information to assist the passengers in understanding the content,
When it is determined by the movement determination means that the front feature is not a moving body, and when it is specified by the visual recognition mode specifying means that the front feature is not being watched, The driving support system according to claim 2, wherein identification information for identifying contents is guided.
前記特徴物画像情報取得手段は、前記特徴物の画像を前記特徴物の種類毎に記憶した前記特徴物画像情報を取得し、
前記種類識別手段は、前記特徴物画像情報取得手段によって取得された前記特徴物画像情報に基づいて前記前方特徴物の種類を識別し、
前記案内手段は、前記種類識別手段によって識別された前記特徴物の種類に応じた案内内容で前記特徴物に関する案内を行うことを特徴とする請求項1乃至請求項4のいずれかに記載の走行支援システム。 Having a type identifying means for identifying the type of the feature,
The feature object image information acquisition means acquires the feature object image information storing an image of the feature object for each type of the feature object,
The type identifying means identifies the type of the forward feature based on the feature image information acquired by the feature image information acquiring means,
The travel according to any one of claims 1 to 4, wherein the guide unit performs guidance related to the feature object according to a guide content corresponding to a type of the feature object identified by the type identification unit. Support system.
前記案内手段は、前記車両から前記前方特徴物までの距離が所定距離以上であると判定された場合には、前記前方特徴物の周辺の案内又は前記前方特徴物を目的地とする走行案内を行うことを特徴とする請求項1乃至請求項5のいずれかに記載の走行支援システム。 A distance detecting means for detecting a distance from the vehicle to the front feature,
When it is determined that the distance from the vehicle to the front feature is equal to or greater than a predetermined distance, the guidance means provides guidance around the front feature or travel guidance with the front feature as a destination. The driving support system according to any one of claims 1 to 5, wherein the driving support system is performed.
特徴物画像情報取得手段が、特徴物の画像を記憶した特徴物画像情報を取得するステップと、
視線検出手段が、前記車両の乗員の視線開始点及び視線方向を検出するステップと、
視線位置特定手段が、前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定するステップと、
視線領域特定手段が、現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定するステップと、
特徴物検出手段が、前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出するステップと、
特徴物領域特定手段が、前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定するステップと、
視認態様特定手段が、前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定するステップと、
案内手段が、前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行うステップと、を有することを特徴とする走行支援方法。 A step in which the surrounding environment imaging means images the surrounding environment ahead of the traveling direction of the vehicle;
A feature object image information acquisition means for acquiring feature object image information storing an image of the feature object; and
A step of detecting a line-of-sight start point and a line-of-sight direction of an occupant of the vehicle;
The line-of-sight position specifying means is based on the captured image picked up by the surrounding environment image pickup means and the occupant's line-of-sight start point and line-of-sight direction detected by the line-of-sight detection means in the surrounding environment ahead of the vehicle traveling direction. A line of sight position where the line of sight of the occupant is located in the captured image;
A line-of-sight area specifying unit specifying, as a line- of-sight area, a range on the captured image including the line-of-sight position specified by the line-of-sight position specifying unit within a past predetermined time from the present time;
A feature detection unit that detects the feature in front of the traveling direction of the vehicle as a forward feature based on the captured image and the feature image information captured by the surrounding environment imaging unit;
A feature object specifying unit specifying a region surrounding the front feature as a feature object region on the captured image;
A step of identifying a visual aspect of the occupant with respect to the front feature based on a positional relationship between the line-of-sight region and the feature region;
And a step of guiding the front characteristic object with a content according to the visual aspect of the occupant specified by the visual aspect specifying means.
車両の進行方向前方の周辺環境を撮像する周辺環境撮像手段と、
特徴物の画像を記憶した特徴物画像情報を取得する特徴物画像情報取得手段と、
前記車両の乗員の視線開始点及び視線方向を検出する視線検出手段と、
前記周辺環境撮像手段によって撮像された撮像画像と前記視線検出手段により検出された前記乗員の視線開始点及び視線方向とに基づいて、前記車両の進行方向前方の周辺環境に対して前記乗員の視線が位置する視線位置を、前記撮像画像中において特定する視線位置特定手段と、
現時点から過去所定時間内において前記視線位置特定手段により特定された前記視線位置を包含した前記撮像画像上の範囲を視線領域として特定する視線領域特定手段と、
前記周辺環境撮像手段によって撮像された前記撮像画像と前記特徴物画像情報とに基づいて、前記車両の進行方向前方にある前記特徴物を前方特徴物として検出する特徴物検出手段と、
前記前方特徴物を囲む領域を特徴物領域として前記撮像画像上に特定する特徴物領域特定手段と、
前記視線領域と前記特徴物領域との位置関係に基づいて、前記前方特徴物に対する前記乗員の視認態様を特定する視認態様特定手段と、
前記視認態様特定手段によって特定された前記乗員の視認態様に応じた内容で、前記前方特徴物に関する案内を行う案内手段と、
して機能させる為のコンピュータプログラム。 Computer
Surrounding environment imaging means for imaging the surrounding environment ahead of the traveling direction of the vehicle;
Feature object image information acquisition means for acquiring feature object image information storing an image of the feature object;
Line-of-sight detection means for detecting the line-of-sight start point and line-of-sight direction of the vehicle occupant;
The line of sight of the occupant with respect to the surrounding environment ahead of the direction of travel of the vehicle based on the captured image captured by the surrounding environment imaging unit and the sight line start point and the line of sight direction of the occupant detected by the line-of-sight detection unit A line-of-sight position specifying means for specifying the line-of-sight position in which the image is located in the captured image;
A line-of-sight area specifying unit that specifies a range on the captured image including the line-of-sight position specified by the line-of-sight position specifying unit within a past predetermined time from the current time as a line-of-sight area;
Based on the captured image captured by the surrounding environment imaging unit and the feature image information, the feature detection unit that detects the feature in front of the traveling direction of the vehicle as a forward feature;
A feature region specifying means for specifying, on the captured image, a region surrounding the front feature as a feature region;
Based on the positional relationship between the line-of-sight area and the feature area, a visual aspect specifying unit that specifies the visual aspect of the occupant with respect to the front feature;
Guidance means for performing guidance on the front feature with contents according to the visual aspect of the occupant identified by the visual aspect identification means;
Computer program to make it function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012276925A JP6136238B2 (en) | 2012-12-19 | 2012-12-19 | Driving support system, driving support method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012276925A JP6136238B2 (en) | 2012-12-19 | 2012-12-19 | Driving support system, driving support method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014120112A JP2014120112A (en) | 2014-06-30 |
JP6136238B2 true JP6136238B2 (en) | 2017-05-31 |
Family
ID=51174865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012276925A Active JP6136238B2 (en) | 2012-12-19 | 2012-12-19 | Driving support system, driving support method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6136238B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110494904A (en) * | 2017-08-21 | 2019-11-22 | 宝马股份公司 | For running the method and auxiliary system that are used for the auxiliary system of vehicle |
US11104356B2 (en) | 2019-11-04 | 2021-08-31 | Hyundai Motor Company | Display device and method for a vehicle |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101708676B1 (en) * | 2015-05-14 | 2017-03-08 | 엘지전자 주식회사 | Driver assistance apparatus and control method for the same |
JP7185251B2 (en) * | 2018-01-19 | 2022-12-07 | 東海電子株式会社 | Driving information processing device and driving information processing program |
US11898871B2 (en) * | 2021-09-15 | 2024-02-13 | Here Global B.V. | Apparatus and methods for providing a map layer of one or more temporary dynamic obstructions |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3160108B2 (en) * | 1993-02-23 | 2001-04-23 | 三菱電機株式会社 | Driving support system |
JP3650995B2 (en) * | 2002-07-01 | 2005-05-25 | マツダ株式会社 | Route guidance device, route guidance method, and route guidance program |
DE60304254T2 (en) * | 2002-07-01 | 2006-12-14 | Mazda Motor Corp., Shinchi | Guidance system based on visual activity of the driver |
JP2005182306A (en) * | 2003-12-17 | 2005-07-07 | Denso Corp | Vehicle display device |
JP2006172215A (en) * | 2004-12-16 | 2006-06-29 | Fuji Photo Film Co Ltd | Driving support system |
JP4366716B2 (en) * | 2005-03-04 | 2009-11-18 | 株式会社デンソー | Vehicle information display device |
JP2007263931A (en) * | 2006-03-30 | 2007-10-11 | Denso It Laboratory Inc | Driver thinking estimating device, driver thinking estimating method and driver thinking estimating program |
JP2009031065A (en) * | 2007-07-25 | 2009-02-12 | Aisin Aw Co Ltd | System and method for informational guidance for vehicle, and computer program |
JP2009085750A (en) * | 2007-09-28 | 2009-04-23 | Aisin Aw Co Ltd | Installation determination system and installation determination device |
JP2010085203A (en) * | 2008-09-30 | 2010-04-15 | Pioneer Electronic Corp | Navigation device and guidance method |
DE112009004768B4 (en) * | 2009-05-12 | 2018-01-04 | Toyota Jidosha Kabushiki Kaisha | ASSESSMENT DEVICE FOR THE VISUAL DETECTION AREA AND DRIVE SUPPORT DEVICE |
JP2011198247A (en) * | 2010-03-23 | 2011-10-06 | Toyota Motor Corp | Driving support device |
-
2012
- 2012-12-19 JP JP2012276925A patent/JP6136238B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110494904A (en) * | 2017-08-21 | 2019-11-22 | 宝马股份公司 | For running the method and auxiliary system that are used for the auxiliary system of vehicle |
US11104356B2 (en) | 2019-11-04 | 2021-08-31 | Hyundai Motor Company | Display device and method for a vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2014120112A (en) | 2014-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6700623B2 (en) | Driving support device and computer program | |
JP2014120111A (en) | Travel support system, travel support method, and computer program | |
US11511627B2 (en) | Display device and computer program | |
JP2014120114A (en) | Travel support system, travel support method, and computer program | |
JP5327025B2 (en) | Vehicle travel guidance device, vehicle travel guidance method, and computer program | |
JP2008280026A (en) | Driving assistance device | |
JP7151073B2 (en) | Display device and computer program | |
JP6805974B2 (en) | Driving support device and computer program | |
JP6825433B2 (en) | Virtual image display device and computer program | |
JP2018173862A (en) | Driving support apparatus and computer program | |
JP2007226666A (en) | Driving support method and driving support device | |
JP6136238B2 (en) | Driving support system, driving support method, and computer program | |
US11493357B2 (en) | Superimposed image display device, superimposed image drawing method, and computer program | |
JP2010026618A (en) | On-vehicle navigation device and intersection entry guidance method | |
JP2014120113A (en) | Travel support system, travel support method, and computer program | |
JP2019056884A (en) | Superimposed image display device | |
JP2017062706A (en) | Travel support system, travel support method, and computer program | |
JP6136237B2 (en) | Driving support system, driving support method, and computer program | |
JP5803624B2 (en) | Vehicle control system, vehicle control device, vehicle control method, and computer program | |
US20230294517A1 (en) | Vehicle display control device, display device, and vehicle display control method | |
JP6310381B2 (en) | Information processing apparatus, signal information guiding method, and computer program | |
JP6939147B2 (en) | Driving information guidance device and computer program | |
JP2014154125A (en) | Travel support system, travel support method and computer program | |
JP6582798B2 (en) | Driving support system, driving support method, and computer program | |
JP6946962B2 (en) | Driving support device and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150320 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160802 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6136238 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |