JP7105985B2 - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP7105985B2
JP7105985B2 JP2021504710A JP2021504710A JP7105985B2 JP 7105985 B2 JP7105985 B2 JP 7105985B2 JP 2021504710 A JP2021504710 A JP 2021504710A JP 2021504710 A JP2021504710 A JP 2021504710A JP 7105985 B2 JP7105985 B2 JP 7105985B2
Authority
JP
Japan
Prior art keywords
road traffic
traffic information
distance coefficient
viewpoint distance
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021504710A
Other languages
Japanese (ja)
Other versions
JPWO2020183652A1 (en
Inventor
悟史 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020183652A1 publication Critical patent/JPWO2020183652A1/en
Application granted granted Critical
Publication of JP7105985B2 publication Critical patent/JP7105985B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Description

本発明は、運転支援装置に関する。 The present invention relates to a driving assistance device.

特許文献1には、運転者の視線方向に対する安全確認対象物の距離に基づき、運転者による安全確認対象物の視認度を算出する技術が開示されている。これにより、運転者により注視されている安全確認対象物の視認度が算出されるのはもちろんのこと、いわゆる「周辺視」の範囲に含まれる安全確認対象物の視認度も算出される。 Patent Literature 1 discloses a technique for calculating the degree of visibility of an object for safety confirmation by the driver based on the distance of the object for safety confirmation with respect to the line-of-sight direction of the driver. As a result, not only is the visibility of the safety confirmation object that the driver is gazing at is calculated, but also the visibility of the safety confirmation object that is included in the so-called "peripheral vision" range is calculated.

国際公開第2008/029802号WO2008/029802

従来、道路に関する種々の情報を示す標識、表示板及び看板など(以下総称して「道路情報表示」という。)が各地に設置されている。また、交通に関する種々の情報を示す標識、表示板及び看板など(以下総称して「交通情報表示」という。)も各地に設置されている。以下、道路情報表示及び交通情報表示を総称して「道路交通情報表示」という。 2. Description of the Related Art Conventionally, signs, display boards, billboards, etc. (hereinafter collectively referred to as "road information displays") indicating various information about roads have been installed in various places. In addition, signs, display boards, billboards, etc. (hereinafter collectively referred to as "traffic information displays") showing various information about traffic are installed in various places. Hereinafter, road information display and traffic information display are collectively referred to as "road traffic information display".

上記のとおり、特許文献1記載の技術は、運転者による安全確認対象物の視認度を算出するものである。特許文献1記載の技術を転用することにより、運転者による安全確認対象物の視認度を算出するのに代えて、運転者による道路交通情報表示の認識の度合(以下「認識度」という。)を算出することが考えられる(以下「転用技術」という。)。 As described above, the technique described in Patent Document 1 calculates the degree of visibility of the object for safety confirmation by the driver. By diverting the technology described in Patent Literature 1, instead of calculating the visibility of the object for safety confirmation by the driver, the degree of recognition of the road traffic information display by the driver (hereinafter referred to as "recognition degree"). (hereinafter referred to as "diversion technology").

ここで、運転者による道路交通情報表示の認識度は、視線方向に対する道路交通情報表示の距離に応じて異なる値となるのはもちろんのこと、道路交通情報表示の内容に応じて異なる値となる。このため、運転者による道路交通情報表示の認識度を算出するときは、視線方向に対する道路交通情報表示の距離を考慮するのはもちろんのこと、道路交通情報表示の内容も考慮するのが好適である。 Here, the degree of recognition of the road traffic information display by the driver has a different value depending on the distance of the road traffic information display from the line-of-sight direction, as well as a different value depending on the content of the road traffic information display. . Therefore, when calculating the degree of recognition of the road traffic information display by the driver, it is preferable to consider not only the distance of the road traffic information display from the line of sight but also the content of the road traffic information display. be.

特許文献1記載の技術は、運転者による安全確認対象物の視認度を算出するとき、視線方向に対する安全確認対象物の距離を考慮しているものの、安全確認対象物の内容を考慮していない。このため、転用技術は、運転者による道路交通情報表示の認識度を算出するとき、道路交通情報表示の内容を考慮するものとならない。この結果、道路交通情報表示が運転者により認識されたか否かの判定精度が低いという問題があった。 The technology described in Patent Document 1 considers the distance of the safety confirmation object with respect to the line of sight when calculating the visibility of the safety confirmation object by the driver, but does not consider the details of the safety confirmation object. . Therefore, the diversion technique does not consider the content of the road traffic information display when calculating the recognition degree of the road traffic information display by the driver. As a result, there is a problem that the accuracy of determining whether or not the road traffic information display has been recognized by the driver is low.

本発明は、上記のような課題を解決するためになされたものであり、道路交通情報表示が運転者により認識されたか否かの判定精度を向上することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to improve the accuracy of determining whether or not a road traffic information display has been recognized by a driver.

本発明の運転支援装置は、前方画像における道路交通情報表示に対応する領域を検出するとともに、道路交通情報表示の内容を検出する道路交通情報検出部と、車内画像を用いて、前方画像における運転者の視点に対応する位置を検出する視点検出部と、位置に対する領域の距離が大きくなるにつれて次第に小さくなる値である視点距離係数を算出する視点距離係数算出部と、道路交通情報表示の内容に基づき、視点距離係数を補正する視点距離係数補正部と、補正後の視点距離係数を積算することにより、運転者による道路交通情報表示の認識度を算出する認識度算出部と、を備えるものである。 A driving assistance device of the present invention detects an area corresponding to road traffic information display in a front image, and uses a road traffic information detection unit that detects the content of the road traffic information display, and an image inside the vehicle to detect driving in the front image. A viewpoint detection unit that detects a position corresponding to a person's viewpoint, a viewpoint distance coefficient calculation unit that calculates a viewpoint distance coefficient, which is a value that gradually decreases as the distance of the region with respect to the position increases, and a road traffic information display content. A visual point distance coefficient correcting unit that corrects the visual point distance coefficient based on the above, and a recognition degree calculating unit that calculates the degree of recognition of the road traffic information display by the driver by integrating the corrected visual point distance coefficient. be.

本発明によれば、上記のように構成したので、道路交通情報表示が運転者により認識されたか否かの判定精度を向上することができる。 According to the present invention, since it is configured as described above, it is possible to improve the accuracy of determining whether or not the road traffic information display has been recognized by the driver.

実施の形態1に係る運転支援装置を含む運転支援システムの要部を示すブロック図である。1 is a block diagram showing a main part of a driving assistance system including a driving assistance device according to Embodiment 1; FIG. 前方画像の例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a forward image; 図2Aに示す前方画像における、道路交通情報表示に対応する領域を示す説明図である。FIG. 2B is an explanatory diagram showing a region corresponding to road traffic information display in the forward image shown in FIG. 2A; 図2Aに示す前方画像における、運転者の視点に対応する位置を示す説明図である。FIG. 2B is an explanatory diagram showing a position corresponding to a driver's viewpoint in the forward image shown in FIG. 2A; 図2Aに示す前方画像における、上記位置に対する上記領域の距離を示す説明図である。2B is an explanatory diagram showing the distance of the area with respect to the position in the front image shown in FIG. 2A; FIG. 前方画像の他の例を示す説明図である。FIG. 11 is an explanatory diagram showing another example of a forward image; 図3Aに示す前方画像における、道路交通情報表示に対応する領域を示す説明図である。FIG. 3B is an explanatory diagram showing a region corresponding to road traffic information display in the forward image shown in FIG. 3A; 図3Aに示す前方画像における、運転者の視点に対応する位置を示す説明図である。3B is an explanatory diagram showing a position corresponding to a driver's viewpoint in the forward image shown in FIG. 3A; FIG. 図3Aに示す前方画像における、上記位置に対する上記領域の距離を示す説明図である。3B is an explanatory diagram showing the distance of the area with respect to the position in the front image shown in FIG. 3A; FIG. 実施の形態1に係る運転支援装置のハードウェア構成を示す説明図である。FIG. 2 is an explanatory diagram showing the hardware configuration of the driving assistance device according to Embodiment 1; FIG. 実施の形態1に係る運転支援装置の他のハードウェア構成を示す説明図である。4 is an explanatory diagram showing another hardware configuration of the driving assistance device according to Embodiment 1; FIG. 実施の形態1に係る運転支援装置の動作を示すフローチャートである。4 is a flow chart showing the operation of the driving assistance device according to Embodiment 1; 実施の形態1に係る運転支援装置の他の動作を示すフローチャートである。4 is a flow chart showing another operation of the driving support device according to Embodiment 1; 前方画像の他の例を示す説明図である。FIG. 11 is an explanatory diagram showing another example of a forward image; 図7Aに示す前方画像における、道路交通情報表示に対応する領域を示す説明図である。FIG. 7B is an explanatory diagram showing a region corresponding to road traffic information display in the forward image shown in FIG. 7A; 図7Aに示す前方画像における、運転者の視点に対応する位置を示す説明図である。7B is an explanatory diagram showing a position corresponding to the driver's viewpoint in the forward image shown in FIG. 7A; FIG. 図7Aに示す前方画像における、上記位置に対する上記領域の距離を示す説明図である。7B is an explanatory diagram showing the distance of the area with respect to the position in the front image shown in FIG. 7A; FIG. 実施の形態1に係る他の運転支援装置を含む運転支援システムの要部を示すブロック図である。FIG. 2 is a block diagram showing main parts of a driving assistance system including another driving assistance device according to Embodiment 1; FIG. 実施の形態2に係る運転支援装置を含む運転支援システムの要部を示すブロック図である。FIG. 4 is a block diagram showing the essential parts of a driving assistance system including a driving assistance device according to Embodiment 2; 実施の形態2に係る運転支援装置の動作を示すフローチャートである。8 is a flow chart showing the operation of the driving assistance device according to Embodiment 2; 実施の形態2に係る他の運転支援装置を含む運転支援システムの要部を示すブロック図である。FIG. 10 is a block diagram showing a main part of a driving assistance system including another driving assistance device according to Embodiment 2; 実施の形態2に係る他の運転支援装置を含む運転支援システムの要部を示すブロック図である。FIG. 10 is a block diagram showing a main part of a driving assistance system including another driving assistance device according to Embodiment 2; 実施の形態3に係る運転支援装置を含む運転支援システムの要部を示すブロック図である。FIG. 11 is a block diagram showing the essential parts of a driving assistance system including a driving assistance device according to Embodiment 3; 実施の形態3に係る運転支援装置の動作を示すフローチャートである。10 is a flow chart showing the operation of a driving assistance device according to Embodiment 3; 実施の形態4に係る運転支援装置を含む運転支援システムの要部を示すブロック図である。FIG. 11 is a block diagram showing the essential parts of a driving support system including a driving support device according to Embodiment 4; 実施の形態4に係る他の運転支援装置を含む運転支援システムの要部を示すブロック図である。FIG. 11 is a block diagram showing the essential parts of a driving assistance system including another driving assistance device according to Embodiment 4;

以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, in order to describe the present invention in more detail, embodiments for carrying out the present invention will be described with reference to the accompanying drawings.

実施の形態1.
図1は、実施の形態1に係る運転支援装置を含む運転支援システムの要部を示すブロック図である。図1を参照して、実施の形態1の運転支援装置100について説明する。また、運転支援装置100を含む運転支援システム200について説明する。
Embodiment 1.
FIG. 1 is a block diagram showing essential parts of a driving support system including a driving support device according to Embodiment 1. FIG. A driving support device 100 according to Embodiment 1 will be described with reference to FIG. Also, a driving support system 200 including the driving support device 100 will be described.

図1に示す如く、車両1に制御装置2、第1撮像装置3、第2撮像装置4及び表示装置5が設けられている。制御装置2、第1撮像装置3、第2撮像装置4及び表示装置5により、運転支援システム200の要部が構成されている。 As shown in FIG. 1 , a vehicle 1 is provided with a control device 2 , a first imaging device 3 , a second imaging device 4 and a display device 5 . The control device 2 , the first imaging device 3 , the second imaging device 4 and the display device 5 constitute a main part of the driving support system 200 .

第1撮像装置3は、車両1の前方を所定の時間間隔にて撮像して、当該撮像された画像(以下「前方画像」という。)I1を示す画像信号を出力するものである。第1撮像装置3は、例えば、赤外線カメラ又は可視光カメラにより構成されている。第1撮像装置3は、例えば、車両1の前端部、車両1のダッシュボード上、又は車両1の車室内前方部の天井部に設けられている。 The first imaging device 3 captures an image in front of the vehicle 1 at predetermined time intervals, and outputs an image signal indicating the captured image (hereinafter referred to as "front image") I1. The first imaging device 3 is configured by, for example, an infrared camera or a visible light camera. The first imaging device 3 is provided, for example, on the front end of the vehicle 1 , on the dashboard of the vehicle 1 , or on the ceiling in the front part of the interior of the vehicle 1 .

第2撮像装置4は、車両1の車室内を所定の時間間隔にて撮像して、当該撮像された画像(以下「車内画像」という。)I2を示す画像信号を出力するものである。第2撮像装置4は、例えば、赤外線カメラ又は可視光カメラにより構成されている。第2撮像装置4は、例えば、車両1のダッシュボードに設けられている。 The second image capturing device 4 captures an image of the interior of the vehicle 1 at predetermined time intervals, and outputs an image signal indicating the captured image (hereinafter referred to as "in-vehicle image") I2. The second imaging device 4 is composed of, for example, an infrared camera or a visible light camera. The 2nd imaging device 4 is provided in the dashboard of the vehicle 1, for example.

表示装置5は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイにより構成されており、車両1のダッシュボードに設けられている。または、例えば、表示装置5は、HUD(Head-Up Display)により構成されている。 The display device 5 is configured by, for example, a liquid crystal display or an organic EL (Electro Luminescence) display, and is provided on the dashboard of the vehicle 1 . Alternatively, for example, the display device 5 is configured by a HUD (Head-Up Display).

制御装置2は、例えば、ECU(Electronic Control Unit)により構成されている。運転支援装置100は、制御装置2に設けられている。以下、運転支援装置100について説明する。 The control device 2 is configured by, for example, an ECU (Electronic Control Unit). The driving assistance device 100 is provided in the control device 2 . The driving support device 100 will be described below.

道路交通情報検出部21は、第1撮像装置3により出力された画像信号を取得するものである。道路交通情報検出部21は、当該取得された画像信号を用いて、前方画像I1に対する画像認識処理を実行することにより、前方画像I1に含まれる道路交通情報表示Sを検出するものである。より具体的には、道路交通情報検出部21は、前方画像I1における道路交通情報表示Sに対応する領域Aを検出するとともに、道路交通情報表示Sの内容を検出するものである。以下、道路交通情報検出部21が領域A及び道路交通情報表示Sの内容を検出する処理を「道路交通情報検出処理」という。 The road traffic information detection section 21 acquires the image signal output by the first imaging device 3 . The road traffic information detection unit 21 detects the road traffic information display S included in the forward image I1 by executing image recognition processing on the forward image I1 using the acquired image signal. More specifically, the road traffic information detection unit 21 detects the area A corresponding to the road traffic information display S in the forward image I1, and also detects the content of the road traffic information display S. As shown in FIG. Hereinafter, the process in which the road traffic information detection unit 21 detects the contents of the area A and the road traffic information display S is referred to as "road traffic information detection process".

視点検出部22は、第2撮像装置4により出力された画像信号を取得するものである。視点検出部22は、当該取得された画像信号を用いて、車内画像I2に対する画像認識処理を実行することにより、前方画像I1における運転者の視点に対応する位置(以下「視点位置」という。)Pを検出するものである。以下、視点検出部22が視点位置Pを検出する処理を「視点検出処理」という。 The viewpoint detection unit 22 acquires the image signal output by the second imaging device 4 . The viewpoint detection unit 22 uses the acquired image signal to perform image recognition processing on the in-vehicle image I2, thereby detecting a position corresponding to the driver's viewpoint in the forward image I1 (hereinafter referred to as "viewpoint position"). P is detected. Hereinafter, the process of detecting the viewpoint position P by the viewpoint detection unit 22 will be referred to as "viewpoint detection process".

例えば、視点検出部22は、車内画像I2に対する画像認識処理を実行することにより、運転者の頭部の位置(より具体的には運転者の眼の位置)を検出するとともに、運転者の視線ベクトルを検出する。視点検出部22には、運転者の眼の位置と、運転者の視線ベクトルと、前方画像I1における視点位置Pとの対応関係を示すテーブルが予め記憶されている。視点検出部22は、当該記憶されているテーブルを用いて、前方画像I1における視点位置Pを検出する。 For example, the viewpoint detection unit 22 detects the position of the driver's head (more specifically, the position of the driver's eyes) by executing image recognition processing on the in-vehicle image I2, and detects the driver's line of sight. Detect vectors. The viewpoint detection unit 22 stores in advance a table showing the correspondence between the driver's eye position, the driver's line-of-sight vector, and the viewpoint position P in the forward image I1. The viewpoint detection unit 22 detects the viewpoint position P in the front image I1 using the stored table.

視点距離係数算出部23は、道路交通情報検出部21による検出結果及び視点検出部22による検出結果を取得するものである。視点距離係数算出部23は、当該取得された検出結果を用いて、視点位置Pに対する領域Aの距離Lを算出するものである。また、視点距離係数算出部23は、当該算出された距離Lに対応する係数(以下「視点距離係数」という。)Cを算出するものである。すなわち、視点距離係数Cは、距離Lが大きくなるにつれて次第に小さくなる値である。換言すれば、視点距離係数Cは、距離Lが小さくなるにつれて次第に大きくなる値である。 The viewpoint distance coefficient calculation unit 23 acquires the detection result by the road traffic information detection unit 21 and the detection result by the viewpoint detection unit 22 . The viewpoint distance coefficient calculation unit 23 calculates the distance L of the area A with respect to the viewpoint position P using the obtained detection result. Also, the viewpoint distance coefficient calculation unit 23 calculates a coefficient (hereinafter referred to as “viewpoint distance coefficient”) C corresponding to the calculated distance L. FIG. That is, the viewpoint distance coefficient C is a value that gradually decreases as the distance L increases. In other words, the viewpoint distance coefficient C is a value that gradually increases as the distance L decreases.

例えば、視点距離係数算出部23は、前方画像I1における視点位置Pを示す座標値(以下「第1座標値」という。)と、前方画像I1における領域Aの所定の部位(例えば中心部又は左上端部)の位置を示す座標値(以下「第2座標値」という。)との差分値に基づき、ピクセル単位の距離Lを算出する。視点距離係数算出部23は、当該算出されたピクセル単位の距離Lに対応する視点距離係数Cを算出する。 For example, the viewpoint distance coefficient calculation unit 23 calculates a coordinate value indicating the viewpoint position P in the front image I1 (hereinafter referred to as "first coordinate value") and a predetermined portion (for example, the center or upper left) of the region A in the front image I1. The distance L in units of pixels is calculated based on the difference value from the coordinate value (hereinafter referred to as the “second coordinate value”) indicating the position of the edge). The viewpoint distance coefficient calculator 23 calculates a viewpoint distance coefficient C corresponding to the calculated distance L in units of pixels.

または、例えば、視点距離係数算出部23は、第1座標値と第2座標値との差分値に基づき、ピクセル単位の距離Lを算出する。視点距離係数算出部23には、第1座標値と、第2座標値と、ピクセル単位の距離Lをメートル単位の距離Lに変換するための係数との対応関係を示すテーブルが予め記憶されている。視点距離係数算出部23は、当該記憶されているテーブルを用いて、当該算出されたピクセル単位の距離Lをメートル単位の距離Lに変換することにより、メートル単位の距離Lを算出する。視点距離係数算出部23は、当該算出されたメートル単位の距離Lに対応する視点距離係数Cを算出する。 Alternatively, for example, the viewpoint distance coefficient calculator 23 calculates the distance L in units of pixels based on the difference value between the first coordinate value and the second coordinate value. The viewpoint distance coefficient calculation unit 23 stores in advance a table showing the correspondence relationship between the first coordinate value, the second coordinate value, and the coefficient for converting the distance L in units of pixels to the distance L in units of meters. there is The viewpoint distance coefficient calculation unit 23 calculates the distance L in meters by converting the calculated distance L in pixels into the distance L in meters using the stored table. The viewpoint distance coefficient calculation unit 23 calculates a viewpoint distance coefficient C corresponding to the calculated distance L in units of meters.

図2Aは、前方画像I1の例を示している。図2Aに示す前方画像I1は、「車両侵入禁止」の意味を有する道路標識(より具体的には規制標識)、すなわち道路交通情報表示Sを含むものである。当該規制標識は、1個の記号(以下「マーク」という。)により構成されており、かつ、文字列を含まないものである。 FIG. 2A shows an example of the forward image I1. A forward image I1 shown in FIG. 2A includes a road sign (more specifically, a regulatory sign) meaning "vehicle entry prohibited", that is, a road traffic information display S. As shown in FIG. The regulatory sign consists of one symbol (hereinafter referred to as "mark") and does not contain a character string.

この場合、道路交通情報検出部21は、道路交通情報表示Sに対応する領域Aを検出する(図2B参照)。また、道路交通情報検出部21は、道路交通情報表示Sの内容を検出する。より具体的には、道路交通情報検出部21は、道路交通情報表示Sが「車両進入禁止」の意味を有する規制標識であることを検出する。このとき、道路交通情報表示Sが1個のマークにより構成されていること、及び道路交通情報表示Sが文字列を含まないものであることなども検出される。次いで、視点検出部22は、前方画像I1における視点位置Pを検出する(図2C参照)。次いで、視点距離係数算出部23は、視点位置Pに対する領域Aの距離Lを算出して(図2D参照)、当該算出された距離Lに対応する視点距離係数Cを算出する。 In this case, the road traffic information detection unit 21 detects the area A corresponding to the road traffic information display S (see FIG. 2B). Moreover, the road traffic information detection unit 21 detects the content of the road traffic information display S. FIG. More specifically, the road traffic information detection unit 21 detects that the road traffic information display S is a regulatory sign meaning "vehicle entry prohibited". At this time, it is also detected that the road traffic information display S is composed of one mark and that the road traffic information display S does not contain a character string. Next, the viewpoint detection unit 22 detects the viewpoint position P in the forward image I1 (see FIG. 2C). Next, the viewpoint distance coefficient calculator 23 calculates the distance L of the area A with respect to the viewpoint position P (see FIG. 2D), and calculates the viewpoint distance coefficient C corresponding to the calculated distance L. FIG.

図3Aは、前方画像I1の他の例を示している。図3Aに示す前方画像I1は、「この先/通行止め」の文字列を含む看板、すなわち道路交通情報表示Sを含むものである。 FIG. 3A shows another example of the forward image I1. A front image I1 shown in FIG. 3A includes a signboard, that is, a road traffic information display S, including a character string "this ahead/closed to traffic".

この場合、道路交通情報検出部21は、道路交通情報表示Sに対応する領域Aを検出する(図3B参照)。また、道路交通情報検出部21は、道路交通情報表示Sの内容を検出する。より具体的には、道路交通情報検出部21は、道路交通情報表示Sが「この先/通行止め」の文字列を含む看板であることを検出する。次いで、視点検出部22は、前方画像I1における視点位置Pを検出する(図3C参照)。次いで、視点距離係数算出部23は、視点位置Pに対する領域Aの距離Lを算出して(図3D参照)、当該算出された距離Lに対応する視点距離係数Cを算出する。 In this case, the road traffic information detection unit 21 detects the area A corresponding to the road traffic information display S (see FIG. 3B). Moreover, the road traffic information detection unit 21 detects the content of the road traffic information display S. FIG. More specifically, the road traffic information detection unit 21 detects that the road traffic information display S is a signboard that includes a character string "this ahead/closed to traffic". Next, the viewpoint detection unit 22 detects the viewpoint position P in the forward image I1 (see FIG. 3C). Next, the viewpoint distance coefficient calculator 23 calculates the distance L of the area A from the viewpoint position P (see FIG. 3D), and calculates the viewpoint distance coefficient C corresponding to the calculated distance L. FIG.

視点距離係数補正部24は、視点距離係数算出部23により算出された視点距離係数Cを取得するものである。また、視点距離係数補正部24は、道路交通情報検出部21による検出結果を取得するものである。視点距離係数補正部24は、当該取得された検出結果を用いて、道路交通情報表示Sの内容に基づき、当該取得された視点距離係数Cを補正するものである。 The viewpoint distance coefficient correction unit 24 acquires the viewpoint distance coefficient C calculated by the viewpoint distance coefficient calculation unit 23 . Also, the viewpoint distance coefficient correction unit 24 acquires the detection result by the road traffic information detection unit 21 . The viewpoint distance coefficient correction unit 24 corrects the obtained viewpoint distance coefficient C based on the content of the road traffic information display S using the obtained detection result.

すなわち、視点距離係数補正部24は、道路交通情報表示Sに含まれるマークの個数、道路交通情報表示Sにおける文字列の有無、及び道路交通情報表示Sに含まれる文字列の文字数などに基づき、道路交通情報表示Sの認識の困難度D1を算出する。困難度D1は、道路交通情報表示Sの複雑さを示す指標でもある。 That is, based on the number of marks included in the road traffic information display S, the presence or absence of character strings in the road traffic information display S, the number of characters in the character strings included in the road traffic information display S, and the like, the viewpoint distance coefficient correction unit 24 A degree of difficulty D1 for recognizing the road traffic information display S is calculated. The difficulty level D1 is also an index indicating the complexity of the road traffic information display S.

例えば、図2に示す前方画像I1における道路交通情報表示Sは、1個のマークにより構成されており、かつ、文字列を含まないものである。これに対して、図3に示す前方画像I1における道路交通情報表示Sは、文字列を含むものである。この場合、前者(図2)の困難度D1が後者(図3)の困難度D1よりも小さい値に算出される。換言すれば、後者(図3)の困難度D1が前者(図2)の困難度D1よりも大きい値に算出される。 For example, the road traffic information display S in the forward image I1 shown in FIG. 2 is composed of one mark and does not contain a character string. On the other hand, the road traffic information display S in the forward image I1 shown in FIG. 3 includes character strings. In this case, the difficulty level D1 of the former (FIG. 2) is calculated to be smaller than the difficulty level D1 of the latter (FIG. 3). In other words, the difficulty level D1 of the latter (FIG. 3) is calculated to be a larger value than the difficulty level D1 of the former (FIG. 2).

視点距離係数補正部24は、困難度D1が大きいときは困難度D1が小さいときに比して小さい値となるように視点距離係数Cを補正する。換言すれば、視点距離係数補正部24は、困難度D1が小さいときは困難度D1が大きいときに比して大きい値となるように視点距離係数Cを補正する。 The viewpoint distance coefficient correction unit 24 corrects the viewpoint distance coefficient C so that when the difficulty level D1 is high, the value is smaller than when the difficulty level D1 is low. In other words, the viewpoint distance coefficient correction unit 24 corrects the viewpoint distance coefficient C so that when the difficulty level D1 is small, the value becomes larger than when the difficulty level D1 is large.

上記のとおり、前方画像I1は所定の時間間隔にて撮像される。これに対して、道路交通情報検出部21は、道路交通情報検出処理を所定の時間間隔にて実行する。このため、前方画像I1に道路交通情報表示Sが含まれている場合、視点距離係数Cが所定の時間間隔にて算出されて、当該算出された視点距離係数Cが順次補正される。認識度算出部25は、補正後の視点距離係数C’を時間的に積算することにより、運転者による道路交通情報表示Sの認識度D2を算出するものである。すなわち、認識度D2は、視点距離係数Cが算出されて当該算出された視点距離係数Cが補正される毎に更新されるものである。 As described above, the forward image I1 is captured at predetermined time intervals. On the other hand, the road traffic information detection unit 21 executes road traffic information detection processing at predetermined time intervals. Therefore, when the road traffic information display S is included in the front image I1, the viewpoint distance coefficient C is calculated at predetermined time intervals, and the calculated viewpoint distance coefficient C is sequentially corrected. The recognition level calculation unit 25 calculates the recognition level D2 of the road traffic information display S by the driver by temporally integrating the corrected viewpoint distance coefficient C'. That is, the recognition degree D2 is updated each time the viewpoint distance coefficient C is calculated and the calculated viewpoint distance coefficient C is corrected.

認識度判定部26は、道路交通情報検出部21による検出結果を取得するものである。図1において、道路交通情報検出部21と認識度判定部26間の接続線は図示を省略している。通常、前方画像I1内の道路交通情報表示Sは、車両1の走行により(すなわち走行中の時間経過により)、前方画像I1外に出るものである。認識度判定部26は、当該取得された検出結果を用いて、道路交通情報表示Sが前方画像I1外に出たか否かを判定するものである。 The recognition degree determination unit 26 acquires the detection result by the road traffic information detection unit 21 . In FIG. 1, the connection line between the road traffic information detection unit 21 and the recognition degree determination unit 26 is omitted. Normally, the road traffic information display S in the front image I1 comes out of the front image I1 as the vehicle 1 travels (that is, as time elapses during travel). The degree-of-recognition determination unit 26 determines whether or not the road traffic information display S is outside the front image I1 using the acquired detection result.

認識度判定部26は、道路交通情報表示Sが前方画像I1外に出たと判定されたとき、認識度算出部25により算出された認識度D2を取得するものである。認識度判定部26は、当該取得された認識度D2が所定の閾値Dth以上であるか否かを判定することにより、道路交通情報表示Sが運転者により認識されたか否かを判定するものである。すなわち、閾値Dthは、道路交通情報表示Sが運転者により認識されたか否かを判定することができるような値に設定されている。 The recognition level determination unit 26 acquires the recognition level D2 calculated by the recognition level calculation unit 25 when it is determined that the road traffic information display S is out of the forward image I1. The recognition degree determination unit 26 determines whether or not the road traffic information display S has been recognized by the driver by determining whether or not the acquired recognition degree D2 is equal to or greater than a predetermined threshold value Dth. be. That is, the threshold value Dth is set to a value that enables determination as to whether or not the road traffic information display S has been recognized by the driver.

表示制御部27は、認識度判定部26により認識度D2が閾値Dth未満であると判定された場合、道路交通情報表示Sに対応する画像I3を表示装置5に表示させる制御(以下「第1表示制御」という。)を実行するものである。運転者は、画像I3を視認することにより、自身が見逃した道路交通情報表示Sを確認することができる。 When the recognition degree determination unit 26 determines that the recognition degree D2 is less than the threshold value Dth, the display control unit 27 controls the display device 5 to display an image I3 corresponding to the road traffic information display S (hereinafter referred to as “first (referred to as "display control"). By visually recognizing the image I3, the driver can confirm the road traffic information display S that he has overlooked.

道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24、認識度算出部25、認識度判定部26及び表示制御部27により、運転支援装置100の要部が構成されている。 The road traffic information detection unit 21 , the viewpoint detection unit 22 , the viewpoint distance coefficient calculation unit 23 , the viewpoint distance coefficient correction unit 24 , the recognition level calculation unit 25 , the recognition level determination unit 26 and the display control unit 27 determine the requirements of the driving support device 100 . part is constructed.

次に、図4を参照して、運転支援装置100の要部のハードウェア構成について説明する。 Next, with reference to FIG. 4, the hardware configuration of main parts of the driving assistance device 100 will be described.

図4Aに示す如く、運転支援装置100は、プロセッサ51及びメモリ52を有している。メモリ52には、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24、認識度算出部25、認識度判定部26及び表示制御部27の機能を実現するためのプログラムが記憶されている。当該記憶されているプログラムをプロセッサ51が読み出して実行することにより、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24、認識度算出部25、認識度判定部26及び表示制御部27の機能が実現される。 As shown in FIG. 4A, the driving assistance device 100 has a processor 51 and a memory 52. As shown in FIG. The functions of the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24, the recognition degree calculation unit 25, the recognition degree determination unit 26, and the display control unit 27 are stored in the memory 52. A program for implementation is stored. The processor 51 reads out and executes the stored programs, whereby the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24, the recognition degree calculation unit 25, the recognition The functions of the degree determination unit 26 and the display control unit 27 are realized.

または、図4Bに示す如く、運転支援装置100は、処理回路53を有している。この場合、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24、認識度算出部25、認識度判定部26及び表示制御部27の機能が専用の処理回路53により実現される。 Alternatively, the driving assistance device 100 has a processing circuit 53 as shown in FIG. 4B. In this case, the functions of the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24, the recognition degree calculation unit 25, the recognition degree determination unit 26, and the display control unit 27 are dedicated. It is realized by the processing circuit 53 .

または、運転支援装置100は、プロセッサ51、メモリ52及び処理回路53を有している(不図示)。この場合、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24、認識度算出部25、認識度判定部26及び表示制御部27の機能のうちの一部の機能がプロセッサ51及びメモリ52により実現されて、残余の機能が専用の処理回路53により実現される。 Alternatively, the driving assistance device 100 has a processor 51, a memory 52 and a processing circuit 53 (not shown). In this case, among the functions of the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24, the recognition degree calculation unit 25, the recognition degree determination unit 26, and the display control unit 27, Some functions are implemented by processor 51 and memory 52 , and the remaining functions are implemented by dedicated processing circuitry 53 .

プロセッサ51は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)のうちの少なくとも一つを用いたものである。 The processor 51 uses at least one of, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microcontroller, or a DSP (Digital Signal Processor).

メモリ52は、不揮発性メモリ又は不揮発性メモリ及び揮発性メモリにより構成されている。メモリ52のうちの揮発性メモリは、例えば、RAM(Random Access Memory)を用いたものである。メモリ52のうちの不揮発性メモリは、例えば、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、SSD(Solid State Drive)又はHDD(Hard Disk Drive)のうちの少なくとも一つを用いたものである。 The memory 52 is composed of non-volatile memory or non-volatile memory and volatile memory. The volatile memory in the memory 52 uses, for example, RAM (Random Access Memory). The non-volatile memory of the memory 52 is, for example, ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), SSD (Solid Drive) or SSD (Solid Drive). (Hard Disk Drive).

処理回路53は、デジタル回路又はデジタル回路及びアナログ回路により構成されている。処理回路53は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-Chip)又はシステムLSI(Large-Scale Integration)のうちの少なくとも一つを用いたものである。 The processing circuit 53 is composed of a digital circuit or a digital circuit and an analog circuit. The processing circuit 53 is, for example, ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field-Programmable Gate Array), SoC (System-on-a-Chip) or system LSI (Large-Scale). at least one of

次に、図5のフローチャートを参照して、運転支援装置100の動作について、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24及び認識度算出部25の動作を中心に説明する。 Next, referring to the flowchart of FIG. 5, regarding the operation of the driving support device 100, the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24, and the recognition degree calculation unit 25 will be mainly described.

なお、運転支援システム200用の電源(例えば車両1におけるアクセサリ電源又はイグニッション電源)がオンされているものとする。第1撮像装置3は、車両1の前方を所定の時間間隔にて撮像して、前方画像I1を示す画像信号を出力する処理を継続的に実行している。第2撮像装置4は、車両1の車室内を所定の時間間隔にて撮像して、車内画像I2を示す画像信号を出力する処理を継続的に実行している。 It is assumed that a power supply for the driving support system 200 (for example, an accessory power supply or an ignition power supply in the vehicle 1) is turned on. The first image capturing device 3 captures an image of the front of the vehicle 1 at predetermined time intervals, and continuously performs a process of outputting an image signal representing the front image I1. The second imaging device 4 continuously performs the process of capturing an image of the vehicle interior of the vehicle 1 at predetermined time intervals and outputting an image signal representing the vehicle interior image I2.

まず、ステップST1にて、道路交通情報検出部21が道路交通情報検出処理を実行する。前方画像I1に道路交通情報表示Sが含まれている場合(ステップST2“YES”)、ステップST3にて、視点検出部22が視点検出処理を実行する。次いで、ステップST4にて、視点距離係数算出部23が視点距離係数Cを算出する。次いで、ステップST5にて、視点距離係数補正部24が視点距離係数Cを補正する。次いで、ステップST6にて、認識度算出部25が認識度D2を算出する。 First, in step ST1, the road traffic information detection unit 21 executes road traffic information detection processing. If the forward image I1 includes the road traffic information display S ("YES" in step ST2), the viewpoint detection unit 22 executes viewpoint detection processing in step ST3. Next, in step ST4, the viewpoint distance coefficient calculator 23 calculates a viewpoint distance coefficient C. FIG. Next, in step ST5, the viewpoint distance coefficient correction unit 24 corrects the viewpoint distance coefficient C. FIG. Next, in step ST6, the recognition degree calculator 25 calculates the recognition degree D2.

前方画像I1に道路交通情報表示Sが含まれていない場合(ステップST2“NO”)、運転支援装置100の処理はステップST1に戻る。また、ステップST6に次いで、運転支援装置100の処理はステップST1に戻る。すなわち、上記のとおり、道路交通情報検出処理は、所定の時間間隔にて実行される。 If the forward image I1 does not include the road traffic information display S (step ST2 "NO"), the processing of the driving support device 100 returns to step ST1. After step ST6, the processing of the driving assistance device 100 returns to step ST1. That is, as described above, the road traffic information detection process is executed at predetermined time intervals.

次に、図6のフローチャートを参照して、運転支援装置100の動作について、認識度判定部26及び表示制御部27の動作を中心に説明する。 Next, with reference to the flowchart of FIG. 6, the operation of the driving support device 100 will be described, centering on the operations of the recognition degree determination unit 26 and the display control unit 27. FIG.

上記のとおり、認識度判定部26は、道路交通情報検出部21による検出結果を用いて、道路交通情報表示Sが前方画像I1外に出たか否かを判定する。認識度判定部26は、道路交通情報表示Sが前方画像I1外に出たと判定されたとき、ステップST11の処理を実行する。 As described above, the recognition level determination unit 26 uses the detection result of the road traffic information detection unit 21 to determine whether or not the road traffic information display S is outside the forward image I1. When it is determined that the road traffic information display S is out of the front image I1, the recognition degree determination unit 26 executes the process of step ST11.

まず、ステップST11にて、認識度判定部26は、認識度算出部25により算出された認識度D2を取得して、当該取得された認識度D2が閾値Dth以上であるか否かを判定する。認識度D2が閾値Dth未満であると判定された場合(ステップST11“NO”)、ステップST12にて、表示制御部27が第1表示制御を実行する。他方、認識度D2が閾値Dth以上であると判定された場合(ステップST11“YES”)、ステップST12の処理はスキップされる。 First, in step ST11, the recognition level determination unit 26 acquires the recognition level D2 calculated by the recognition level calculation unit 25, and determines whether or not the acquired recognition level D2 is equal to or greater than the threshold value Dth. . When it is determined that the recognition degree D2 is less than the threshold value Dth (“NO” in step ST11), the display control section 27 executes the first display control in step ST12. On the other hand, if it is determined that the recognition degree D2 is equal to or greater than the threshold value Dth ("YES" in step ST11), the process of step ST12 is skipped.

このように、運転支援装置100は、道路交通情報表示Sの内容に基づき視点距離係数Cを補正する視点距離係数補正部24を備える。補正後の視点距離係数C’を認識度D2の算出に用いることにより、仮に補正前の視点距離係数Cを認識度D2の算出に用いる場合に比して(すなわち従来の運転支援装置に比して)、道路交通情報表示Sが運転者により認識されたか否かの判定精度を向上することができる。 As described above, the driving support device 100 includes the viewpoint distance coefficient correction unit 24 that corrects the viewpoint distance coefficient C based on the content of the road traffic information display S. FIG. By using the viewpoint distance coefficient C′ after correction for calculating the recognition level D2, compared to the case where the viewpoint distance coefficient C before correction is used for calculating the recognition level D2 (that is, compared to the conventional driving support device ), it is possible to improve the accuracy of determining whether or not the road traffic information display S has been recognized by the driver.

次に、図7を参照して、運転支援装置100の変形例について説明する。 Next, a modified example of the driving assistance device 100 will be described with reference to FIG. 7 .

運転支援装置100は、前方画像I1に複数個の道路交通情報表示Sが含まれる場合、当該複数個の道路交通情報表示Sの各々について、ST4~ST6の処理を実行するものであっても良い(図7参照)。また、この場合、運転支援装置100は、当該複数個の道路交通情報表示Sの各々について、ステップST11,ST12の処理を実行するものであっても良い。 When the front image I1 includes a plurality of road traffic information displays S, the driving support device 100 may execute the processes of ST4 to ST6 for each of the plurality of road traffic information displays S. (See FIG. 7). Further, in this case, the driving support device 100 may perform the processing of steps ST11 and ST12 for each of the plurality of road traffic information displays S.

次に、図8を参照して、運転支援装置100の他の変形例について説明する。 Next, another modified example of the driving assistance device 100 will be described with reference to FIG.

図8に示す如く、認識度判定部26及び表示制御部27は、運転支援装置100外に設けられているものであっても良い。すなわち、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24及び認識度算出部25により、運転支援装置100の要部が構成されているものであっても良い。 As shown in FIG. 8 , the recognition degree determination unit 26 and the display control unit 27 may be provided outside the driving support device 100 . That is, the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24, and the recognition level calculation unit 25 constitute the main part of the driving support device 100. can be

以上のように、実施の形態1の運転支援装置100は、前方画像I1における道路交通情報表示Sに対応する領域Aを検出するとともに、道路交通情報表示Sの内容を検出する道路交通情報検出部21と、車内画像I2を用いて、前方画像I1における運転者の視点に対応する位置Pを検出する視点検出部22と、位置Pに対する領域Aの距離Lに応じた視点距離係数Cを算出する視点距離係数算出部23と、道路交通情報表示Sの内容に基づき、視点距離係数Cを補正する視点距離係数補正部24と、補正後の視点距離係数C’を積算することにより、運転者による道路交通情報表示Sの認識度D2を算出する認識度算出部25と、を備える。補正後の視点距離係数C’を認識度D2の算出に用いることにより、道路交通情報表示Sが運転者により認識されたか否かの判定精度を向上することができる。 As described above, the driving support device 100 of Embodiment 1 detects the area A corresponding to the road traffic information display S in the front image I1, and the road traffic information detection unit that detects the content of the road traffic information display S. 21, a viewpoint detection unit 22 that detects a position P corresponding to the driver's viewpoint in the front image I1 using the in-vehicle image I2, and a viewpoint distance coefficient C that corresponds to the distance L of the area A from the position P. A viewpoint distance coefficient calculation unit 23, a viewpoint distance coefficient correction unit 24 that corrects the viewpoint distance coefficient C based on the content of the road traffic information display S, and the corrected viewpoint distance coefficient C′ are integrated to obtain a distance calculated by the driver. and a recognition degree calculation unit 25 for calculating a recognition degree D2 of the road traffic information display S. By using the corrected viewpoint distance coefficient C' for calculating the degree of recognition D2, it is possible to improve the accuracy of determining whether or not the road traffic information display S has been recognized by the driver.

また、運転支援装置100は、認識度D2が閾値Dth以上であるか否かを判定することにより、道路交通情報表示Sが運転者により認識されたか否かを判定する認識度判定部26と、認識度D2が閾値Dth未満であると判定された場合、道路交通情報表示Sに対応する画像I3を表示装置5に表示させる制御(第1表示制御)を実行する表示制御部27と、を備える。これにより、運転者は、自身が見逃した道路交通情報表示Sを確認することができる。 The driving support device 100 also includes a recognition degree determination unit 26 that determines whether or not the road traffic information display S has been recognized by the driver by determining whether or not the recognition degree D2 is equal to or greater than the threshold value Dth; a display control unit 27 that executes control (first display control) to display an image I3 corresponding to the road traffic information display S on the display device 5 when the recognition degree D2 is determined to be less than the threshold value Dth. . This allows the driver to check the road traffic information display S that he/she has overlooked.

また、認識度判定部26は、道路交通情報表示Sが前方画像I1外に出たとき、認識度D2が閾値Dth以上であるか否かを判定する。これにより、車両1が道路交通情報表示Sの設置位置を通り過ぎたとき、認識度D2が閾値Dth以上であるか否かの判定をすることができる。すなわち、運転者が見逃した可能性のある道路交通情報表示Sについて、認識度D2が閾値Dth以上であるか否かの判定をすることができる。 Further, the recognition degree determination unit 26 determines whether or not the recognition degree D2 is equal to or greater than the threshold value Dth when the road traffic information display S is out of the forward image I1. Accordingly, when the vehicle 1 passes the installation position of the road traffic information display S, it is possible to determine whether or not the recognition degree D2 is equal to or greater than the threshold value Dth. That is, it is possible to determine whether or not the degree of recognition D2 of the road traffic information display S that the driver may have overlooked is equal to or greater than the threshold value Dth.

実施の形態2.
図9は、実施の形態2に係る運転支援装置を含む運転支援システムの要部を示すブロック図である。図9を参照して、実施の形態2の運転支援装置100aについて説明する。また、運転支援装置100aを含む運転支援システム200aについて説明する。なお、図9において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。
Embodiment 2.
FIG. 9 is a block diagram showing essential parts of a driving assistance system including a driving assistance device according to Embodiment 2. FIG. A driving support device 100a according to the second embodiment will be described with reference to FIG. Also, a driving support system 200a including the driving support device 100a will be described. In FIG. 9, blocks similar to those shown in FIG. 1 are denoted by the same reference numerals, and descriptions thereof are omitted.

図9に示す如く、車両1に制御装置2aが設けられている。制御装置2aは、例えば、ECUにより構成されている。 As shown in FIG. 9, a vehicle 1 is provided with a control device 2a. The control device 2a is configured by an ECU, for example.

また、車両1にセンサ類6が設けられている。センサ類6は、種々のセンサを含むものである。例えば、センサ類6は、車輪速センサ、加速度センサ、ジャイロセンサ、ステアリングセンサ及びワイパセンサを含むものである。 Further, the vehicle 1 is provided with sensors 6 . The sensors 6 include various sensors. For example, the sensors 6 include wheel speed sensors, acceleration sensors, gyro sensors, steering sensors and wiper sensors.

また、車両1に無線通信装置7が設けられている。無線通信装置7は、無線通信用の送信機及び受信機により構成されている。無線通信装置7は、車両1外のサーバ装置8と通信自在である。 Also, the vehicle 1 is provided with a wireless communication device 7 . The wireless communication device 7 is composed of a transmitter and a receiver for wireless communication. The wireless communication device 7 can freely communicate with a server device 8 outside the vehicle 1 .

また、車両1に記憶装置9が設けられている。記憶装置9は、不揮発性メモリにより構成されている。なお、記憶装置9は、制御装置2aのメモリ(すなわちメモリ52)と一体に構成されているものであっても良い。 A storage device 9 is also provided in the vehicle 1 . The storage device 9 is composed of a non-volatile memory. Note that the storage device 9 may be configured integrally with the memory (that is, the memory 52) of the control device 2a.

また、車両1に操作入力装置10が設けられている。操作入力装置10は、例えば、タッチパネル、ハードウェアキー、又は音声入力用のマイクのうちの少なくとも一つにより構成されている。操作入力装置10は、例えば、車両1のダッシュボードに設けられている。なお、操作入力装置10は、表示装置5と一体に設けられているものであっても良く、又は表示装置5に隣接して設けられているものであっても良い。 Further, the vehicle 1 is provided with an operation input device 10 . The operation input device 10 is composed of, for example, at least one of a touch panel, hardware keys, and a microphone for voice input. The operation input device 10 is provided on the dashboard of the vehicle 1, for example. The operation input device 10 may be provided integrally with the display device 5 or may be provided adjacent to the display device 5 .

制御装置2a、第1撮像装置3、第2撮像装置4、表示装置5、センサ類6、無線通信装置7、記憶装置9及び操作入力装置10により、運転支援システム200aの要部が構成されている。運転支援装置100aは、制御装置2aに設けられている。 The control device 2a, the first imaging device 3, the second imaging device 4, the display device 5, the sensors 6, the wireless communication device 7, the storage device 9, and the operation input device 10 constitute main parts of the driving support system 200a. there is The driving support device 100a is provided in the control device 2a.

車両情報取得部31は、車両1の走行状態を示す情報(以下「車両情報」という。)を取得するものである。車両情報は、例えば、車両1の走行速度を示す情報、及び車両1の旋回量を示す情報を含むものである。 The vehicle information acquisition unit 31 acquires information indicating the running state of the vehicle 1 (hereinafter referred to as "vehicle information"). The vehicle information includes, for example, information indicating the traveling speed of the vehicle 1 and information indicating the turning amount of the vehicle 1 .

例えば、車両情報取得部31は、センサ類6のうちの車輪速センサによる出力信号を用いて、車両1の走行速度を算出する。これにより、車両1の走行速度を示す情報が取得される。 For example, the vehicle information acquisition unit 31 calculates the travel speed of the vehicle 1 using the output signal from the wheel speed sensor of the sensors 6 . As a result, information indicating the running speed of the vehicle 1 is obtained.

また、例えば、車両情報取得部31は、センサ類6のうちの加速度センサ、ジャイロセンサ又はステアリングセンサによる出力信号を用いて、車両1の旋回量を算出する。これにより、車両1の旋回量を示す情報が取得される。 Further, for example, the vehicle information acquisition unit 31 calculates the amount of turning of the vehicle 1 using an output signal from an acceleration sensor, a gyro sensor, or a steering sensor among the sensors 6 . As a result, information indicating the amount of turning of the vehicle 1 is acquired.

環境情報取得部32は、車両1の車外環境を示す情報(以下「環境情報」という。)を取得するものである。環境情報は、例えば、車両1の周囲の明るさを示す情報、及び車両1の周囲の天候を示す情報を含むものである。 The environmental information acquisition unit 32 acquires information indicating the environment outside the vehicle 1 (hereinafter referred to as "environmental information"). The environment information includes, for example, information indicating brightness around the vehicle 1 and information indicating weather around the vehicle 1 .

例えば、環境情報取得部32は、前方画像I1に対する画像認識処理を実行することにより、車両1の周囲の明るさを検出する。これにより、車両1の周囲の明るさを示す情報が取得される。 For example, the environment information acquisition unit 32 detects the brightness around the vehicle 1 by performing image recognition processing on the forward image I1. As a result, information indicating the brightness around the vehicle 1 is obtained.

また、例えば、環境情報取得部32は、前方画像I1に対する画像認識処理を実行することにより、車両1の周囲の天候を判定する。これにより、車両1の周囲の天候を示す情報が取得される。 Further, for example, the environment information acquisition unit 32 determines the weather around the vehicle 1 by executing image recognition processing on the forward image I1. As a result, information indicating the weather around the vehicle 1 is obtained.

または、例えば、環境情報取得部32は、センサ類6のうちのワイパセンサによる出力信号を用いて、車両1のワイパが作動中であるか否かを判定する。環境情報取得部32は、車両1のワイパが作動中である場合、車両1の周囲の天候が雨又は雪であると判定する。また、環境情報取得部32は、車両1のワイパが停止中である場合、車両1の周囲の天候が晴れ又は曇りであると判定する。これにより、車両1の周囲の天候を示す情報が取得される。 Alternatively, for example, the environment information acquisition unit 32 uses the output signal from the wiper sensor of the sensors 6 to determine whether the wipers of the vehicle 1 are in operation. The environment information acquisition unit 32 determines that the weather around the vehicle 1 is rain or snow when the wipers of the vehicle 1 are in operation. Further, when the wipers of the vehicle 1 are stopped, the environment information acquisition unit 32 determines that the weather around the vehicle 1 is fine or cloudy. As a result, information indicating the weather around the vehicle 1 is obtained.

または、例えば、サーバ装置8に各地域の天候を示す情報が記憶されている。無線通信装置7は、サーバ装置8と通信することにより、車両1の現在位置を含む地域の天候を示す情報を受信する。環境情報取得部32は、当該受信された情報を取得する。これにより、車両1の周囲の天候を示す情報が取得される。 Alternatively, for example, information indicating the weather in each region is stored in the server device 8 . The wireless communication device 7 receives information indicating the weather in the area including the current position of the vehicle 1 by communicating with the server device 8 . The environment information acquisition unit 32 acquires the received information. As a result, information indicating the weather around the vehicle 1 is acquired.

運転者情報取得部33は、車両1の運転者に関する情報(以下「運転者情報」という。)を取得するものである。運転者情報は、例えば、運転者の視力を示す情報を含むものである。 The driver information acquisition unit 33 acquires information about the driver of the vehicle 1 (hereinafter referred to as “driver information”). Driver information includes, for example, information indicating the driver's eyesight.

例えば、車両1は、複数人のユーザにより使用されるものである。記憶装置9には、個々のユーザの視力を示す情報と、個々のユーザの顔画像を示す情報とを対応付けてなるデータベースが記憶されている。個々のユーザの視力を示す情報は、例えば、個々のユーザが操作入力装置10を用いて事前に入力したものである。個々のユーザの顔画像は、例えば、第2撮像装置4により事前に撮像されたものである。 For example, the vehicle 1 is used by multiple users. The storage device 9 stores a database in which information indicating eyesight of each user and information indicating face images of each user are associated with each other. Information indicating the visual acuity of each user is input in advance by each user using the operation input device 10, for example. Each user's face image is captured in advance by the second imaging device 4, for example.

運転者情報取得部33は、車内画像I2に対する画像認識処理を実行することにより、車両1の運転者の顔画像を取得する。運転者情報取得部33は、当該取得された顔画像とデータベース内の顔画像とのマッチングにより、車両1の運転者が複数人のユーザのうちのいずれのユーザであるのかを判定する。運転者情報取得部33は、当該判定の結果に対応するユーザの視力を示す情報をデータベースから取得する。これにより、車両1の運転者の視力を示す情報が取得される。 The driver information acquisition unit 33 acquires the facial image of the driver of the vehicle 1 by performing image recognition processing on the in-vehicle image I2. The driver information acquisition unit 33 determines which of the plurality of users the driver of the vehicle 1 is by matching the acquired face image with the face images in the database. The driver information acquisition unit 33 acquires information indicating the user's visual acuity corresponding to the result of the determination from the database. As a result, information indicating the visual acuity of the driver of the vehicle 1 is acquired.

または、例えば、記憶装置9には、以下のような学習済みモデルが記憶されている。すなわち、車内画像I2に対する画像認識処理の結果を示す値が入力されたとき、運転者の視力を示す値が出力されるような学習済みモデルが記憶されている。当該学習済みモデルは、機械学習により事前に生成されたものである。運転者情報取得部33は、車内画像I2に対する画像認識処理を実行して、当該画像認識処理の結果を示す値を当該学習済みモデルに入力する。これにより、運転者の視力を示す情報が取得される。 Alternatively, for example, the storage device 9 stores the following learned models. That is, a learned model is stored such that when a value indicating the result of image recognition processing for the in-vehicle image I2 is input, a value indicating the visual acuity of the driver is output. The learned model is generated in advance by machine learning. The driver information acquisition unit 33 executes image recognition processing on the in-vehicle image I2, and inputs a value indicating the result of the image recognition processing to the learned model. Thereby, information indicating the driver's eyesight is acquired.

以下、車両情報、環境情報及び運転者情報を総称して「補正用情報」という。車両情報取得部31、環境情報取得部32及び運転者情報取得部33により、補正用情報取得部34が構成されている。 Hereinafter, vehicle information, environment information and driver information are collectively referred to as "correction information". A correction information acquisition unit 34 is configured by the vehicle information acquisition unit 31 , the environment information acquisition unit 32 , and the driver information acquisition unit 33 .

視点距離係数補正部24aは、道路交通情報表示Sの内容に基づき、視点距離係数Cを補正するものである。すなわち、視点距離係数補正部24aは、視点距離係数補正部24と同様の補正処理を実行するものである。これに加えて、視点距離係数補正部24aは、以下の(1)~(6)のうちの少なくとも一つの補正処理を実行するものである。 The viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C based on the content of the road traffic information display S. FIG. In other words, the viewpoint distance coefficient correction unit 24a performs the same correction processing as the viewpoint distance coefficient correction unit 24 does. In addition to this, the viewpoint distance coefficient correction unit 24a executes at least one of the following correction processes (1) to (6).

(1)領域Aのサイズに基づく補正処理
視点距離係数補正部24aは、領域Aのサイズが大きいときは領域Aのサイズが小さいときに比して大きい値となるように視点距離係数Cを補正する。換言すれば、視点距離係数補正部24aは、領域Aのサイズが小さいときは領域Aのサイズが大きいときに比して小さい値となるように視点距離係数Cを補正する。かかる補正処理には、道路交通情報検出部21による検出結果が用いられる。
(1) Correction processing based on size of region A The viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C so that when the size of the region A is large, the value becomes larger than when the size of the region A is small. do. In other words, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C so that when the size of the region A is small, the value becomes smaller than when the size of the region A is large. The detection result by the road traffic information detection unit 21 is used for such correction processing.

通常、領域Aのサイズが大きいときは、道路交通情報表示Sのサイズが大きいものであるか、又は車両1に対する道路交通情報表示Sの距離が小さいものである。このような場合、運転者が道路交通情報表示Sを見逃す可能性は低いと考えられる。そこで、視点距離係数Cがより大きい値となるように補正をするのである。 Normally, when the size of the area A is large, the size of the road traffic information display S is large, or the distance of the road traffic information display S from the vehicle 1 is small. In such a case, it is considered unlikely that the driver will miss the road traffic information display S. Therefore, correction is made so that the viewpoint distance coefficient C becomes a larger value.

(2)車両1の走行速度に基づく補正処理
視点距離係数補正部24aは、車両1の走行速度が高いときは車両1の走行速度が低いときに比して小さい値となるように視点距離係数Cを補正する。換言すれば、視点距離係数補正部24aは、車両1の走行速度が低いときは車両1の走行速度が高いときに比して大きい値となるように視点距離係数Cを補正する。かかる補正処理には、車両情報取得部31により取得された車両情報が用いられる。
(2) Correction processing based on traveling speed of vehicle 1 The viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient so that when the traveling speed of the vehicle 1 is high, the value is smaller than when the traveling speed of the vehicle 1 is low. Correct C. In other words, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C so that when the vehicle 1 travels at a low speed, the value becomes larger than when the vehicle 1 travels at a high speed. The vehicle information acquired by the vehicle information acquisition unit 31 is used for such correction processing.

通常、車両1の走行速度が高いときは、運転者による道路交通情報表示Sの視認可能時間が短い。このような場合、運転者が道路交通情報表示Sを見逃す可能性が高いと考えられる。そこで、視点距離係数Cがより小さい値となるように補正をするのである。 Normally, when the traveling speed of the vehicle 1 is high, the time during which the road traffic information display S can be visually recognized by the driver is short. In such a case, it is highly likely that the driver will miss the road traffic information display S. Therefore, correction is made so that the viewpoint distance coefficient C becomes a smaller value.

(3)車両1の旋回量に基づく補正処理
視点距離係数補正部24aは、車両1の旋回量が大きいときは車両1の旋回量が小さいときに比して小さい値となるように視点距離係数Cを補正する。換言すれば、視点距離係数補正部24aは、車両1の旋回量が大きいときは車両1の旋回量が小さいときに比して小さい値となるように視点距離係数Cを補正する。かかる補正処理には、車両情報取得部31により取得された車両情報が用いられる。
(3) Correction processing based on the amount of turning of the vehicle 1 The viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient so that when the amount of turning of the vehicle 1 is large, the value is smaller than when the amount of turning of the vehicle 1 is small. Correct C. In other words, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C so that when the turning amount of the vehicle 1 is large, the value becomes smaller than when the turning amount of the vehicle 1 is small. The vehicle information acquired by the vehicle information acquisition unit 31 is used for such correction processing.

通常、車両1の左折時の旋回量が大きい場合において、車両1に対する右側に道路交通情報表示Sが配置されているときは、運転者による道路交通情報表示Sの視認可能時間が短い。同様に、車両1の右折時の旋回量が大きい場合において、車両1に対する左側に道路交通情報表示Sが配置されているときは、運転者による道路交通情報表示Sの視認可能時間が短い。このような場合、運転者が道路交通情報表示Sを見逃す可能性が高いと考えられる。そこで、視点距離係数Cがより小さい値となるように補正をするのである。 Normally, when the vehicle 1 turns to the left with a large turning amount and the road traffic information display S is arranged on the right side of the vehicle 1, the visual recognition time of the road traffic information display S by the driver is short. Similarly, when the vehicle 1 makes a large right turn and the road traffic information display S is arranged on the left side of the vehicle 1, the driver can recognize the road traffic information display S for a short time. In such a case, it is highly likely that the driver will miss the road traffic information display S. Therefore, correction is made so that the viewpoint distance coefficient C becomes a smaller value.

(4)車両1の周囲の明るさに基づく補正処理
視点距離係数補正部24aは、車両1の周囲が暗いときは車両1の周囲が明るいときに比して小さい値となるように視点距離係数Cを補正する。換言すれば、視点距離係数補正部24aは、車両1の周囲が明るいときは車両1の周囲が暗いときに比して大きい値となるように視点距離係数Cを補正する。当該補正処理には、環境情報取得部32により取得された環境情報が用いられる。
(4) Correction Processing Based on Brightness of Surroundings of Vehicle 1 The viewpoint distance coefficient correction unit 24a sets the viewpoint distance coefficient so that when the surroundings of the vehicle 1 are dark, the value is smaller than when the surroundings of the vehicle 1 are bright. Correct C. In other words, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C so that the value becomes larger when the surroundings of the vehicle 1 are brighter than when the surroundings of the vehicle 1 are dark. The environment information acquired by the environment information acquisition unit 32 is used for the correction process.

通常、車両1の周囲が暗いときは、運転者による道路交通情報表示Sの視認性が低下する。このような場合、運転者が道路交通情報表示Sを見逃す可能性が高いと考えられる。そこで、視点距離係数Cがより小さい値となるように補正をするのである。 Normally, when the surroundings of the vehicle 1 are dark, the driver's visibility of the road traffic information display S is reduced. In such a case, it is highly likely that the driver will miss the road traffic information display S. Therefore, correction is made so that the viewpoint distance coefficient C becomes a smaller value.

(5)車両1の周囲の天候に基づく補正処理
視点距離係数補正部24aは、車両1の周囲の天候が雨又は雪であるときは車両1の周囲の天候が晴れ又は曇りであるときに比して小さい値となるように視点距離係数Cを補正する。換言すれば、視点距離係数補正部24aは、車両1の周囲の天候が晴れ又は曇りであるときは車両1の周囲の天候が雨又は雪であるときに比して大きい値となるように視点距離係数Cを補正する。当該補正処理には、環境情報取得部32により取得された環境情報が用いられる。
(5) Correction processing based on the weather around the vehicle 1 The viewpoint distance coefficient correction unit 24a compares when the weather around the vehicle 1 is rain or snow and when the weather around the vehicle 1 is sunny or cloudy. Then, the viewpoint distance coefficient C is corrected so that it becomes a small value. In other words, when the weather around the vehicle 1 is sunny or cloudy, the viewpoint distance coefficient correction unit 24a adjusts the viewpoint distance factor to a larger value than when the weather around the vehicle 1 is raining or snowing. Correct the distance factor C. The environment information acquired by the environment information acquisition unit 32 is used for the correction process.

通常、車両1の周囲の天候が雨又は雪であるときは、運転者による道路交通情報表示Sの視認性が低下する。このような場合、運転者が道路交通情報表示Sを見逃す可能性が高いと考えられる。そこで、視点距離係数Cがより小さい値となるように補正をするのである。 Normally, when the weather around the vehicle 1 is rain or snow, the driver's visibility of the road traffic information display S is reduced. In such a case, it is highly likely that the driver will miss the road traffic information display S. Therefore, correction is made so that the viewpoint distance coefficient C becomes a smaller value.

(6)運転者の視力に基づく補正処理
視点距離係数補正部24aは、運転者の視力が低いときは運転者の視力が高いときに比して小さい値となるように視点距離係数Cを補正する。換言すれば、視点距離係数補正部24aは、運転者の視力が高いときは運転者の視力が低いときに比して大きい値となるように視点距離係数Cを補正する。かかる補正処理には、運転者情報取得部33により取得された運転者情報が用いられる。
(6) Correction processing based on driver's visual acuity The visual point distance coefficient correction unit 24a corrects the visual point distance coefficient C so that when the driver's visual acuity is low, the value becomes smaller than when the driver's visual acuity is high. do. In other words, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C so that the value becomes larger when the driver's eyesight is high than when the driver's eyesight is low. The driver information acquired by the driver information acquisition unit 33 is used for such correction processing.

通常、運転者の視力が低い場合、運転者が道路交通情報表示Sを見逃す可能性が高いと考えられる。そこで、視点距離係数Cがより小さい値となるように補正をするのである。 Normally, when the driver has poor eyesight, it is highly likely that the driver will miss the road traffic information display S. Therefore, correction is made so that the viewpoint distance coefficient C becomes a smaller value.

道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24a、認識度算出部25、認識度判定部26、表示制御部27及び補正用情報取得部34により、運転支援装置100aの要部が構成されている。 By the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24a, the recognition level calculation unit 25, the recognition level determination unit 26, the display control unit 27, and the correction information acquisition unit 34 , constitute a main part of the driving support device 100a.

運転支援装置100aの要部のハードウェア構成は、実施の形態1にて図4を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24a、認識度算出部25、認識度判定部26、表示制御部27及び補正用情報取得部34の各々の機能は、プロセッサ51及びメモリ52により実現されるものであっても良く、又は専用の処理回路53により実現されるものであっても良い。 Since the hardware configuration of the main part of the driving support device 100a is the same as that described with reference to FIG. 4 in the first embodiment, illustration and description thereof are omitted. That is, the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24a, the recognition degree calculation unit 25, the recognition degree determination unit 26, the display control unit 27, and the correction information acquisition unit Each function of 34 may be implemented by a processor 51 and memory 52, or may be implemented by a dedicated processing circuit 53. FIG.

次に、図10のフローチャートを参照して、運転支援装置100aの動作について、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、補正用情報取得部34、視点距離係数補正部24a及び認識度算出部25の動作を中心に説明する。なお、図10において、図5に示すステップと同様のステップには同一符号を付して説明を省略する。 Next, referring to the flowchart of FIG. 10, regarding the operation of the driving support device 100a, the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the correction information acquisition unit 34, the viewpoint distance coefficient correction The operation of the unit 24a and the recognition degree calculation unit 25 will be mainly described. 10, steps similar to those shown in FIG. 5 are denoted by the same reference numerals, and descriptions thereof are omitted.

まず、ステップST1にて、道路交通情報検出部21が道路交通情報検出処理を実行する。前方画像I1に道路交通情報表示Sが含まれている場合(ステップST2“YES”)、ステップST3にて、視点検出部22が視点検出処理を実行する。次いで、ステップST4にて、視点距離係数算出部23が視点距離係数Cを算出する。 First, in step ST1, the road traffic information detection unit 21 executes road traffic information detection processing. If the forward image I1 includes the road traffic information display S ("YES" in step ST2), the viewpoint detection unit 22 executes viewpoint detection processing in step ST3. Next, in step ST4, the viewpoint distance coefficient calculator 23 calculates a viewpoint distance coefficient C. FIG.

次いで、ステップST7にて、補正用情報取得部34が補正用情報を取得する。次いで、ステップST5aにて、視点距離係数補正部24aが視点距離係数Cを補正する。このとき、視点距離係数補正部24aは、道路交通情報表示Sの内容に基づく補正処理に加えて、上記(1)~(6)のうちの少なくとも一つの補正処理を実行する。なお、視点距離係数補正部24aが上記(1)~(6)の補正処理のうちの上記(1)の補正処理のみを実行する場合、補正用情報は不要である。この場合、ステップST7の処理はスキップされるものであっても良い。 Next, in step ST7, the correction information acquisition section 34 acquires correction information. Next, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C in step ST5a. At this time, in addition to the correction processing based on the content of the road traffic information display S, the viewpoint distance coefficient correction unit 24a executes at least one of the above correction processing (1) to (6). When the viewpoint distance coefficient correction unit 24a executes only the correction process (1) among the correction processes (1) to (6), the correction information is unnecessary. In this case, the process of step ST7 may be skipped.

次いで、ステップST6にて、認識度算出部25が認識度D2を算出する。 Next, in step ST6, the recognition degree calculator 25 calculates the recognition degree D2.

このように、視点距離係数補正部24aは、道路交通情報表示Sの内容に基づく補正処理に加えて、上記(1)~(6)のうちの少なくとも一つの補正処理を実行する。かかる補正後の視点距離係数C’を認識度D2の算出に用いることにより、道路交通情報表示Sが運転者により認識されたか否かの判定精度を更に向上することができる。 In this manner, the viewpoint distance coefficient correction unit 24a executes at least one of the above correction processes (1) to (6) in addition to the correction process based on the content of the road traffic information display S. By using the corrected viewpoint distance coefficient C' for calculating the degree of recognition D2, it is possible to further improve the accuracy of determining whether or not the road traffic information display S has been recognized by the driver.

次に、図11を参照して、運転支援装置100aの変形例について説明する。 Next, a modified example of the driving assistance device 100a will be described with reference to FIG.

図11に示す如く、補正用情報取得部34は、運転支援装置100a外に設けられているものであっても良い。すなわち、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24a、認識度算出部25、認識度判定部26及び表示制御部27により、運転支援装置100aの要部が構成されているものであっても良い。 As shown in FIG. 11, the correction information acquisition unit 34 may be provided outside the driving support device 100a. That is, the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24a, the recognition level calculation unit 25, the recognition level determination unit 26, and the display control unit 27 operate the driving support device 100a. The main part of may be configured.

次に、図12を参照して、運転支援装置100aの他の変形例について説明する。 Next, another modified example of the driving assistance device 100a will be described with reference to FIG.

図12に示す如く、認識度判定部26及び表示制御部27は、運転支援装置100a外に設けられているものであっても良い。すなわち、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24a及び認識度算出部25により、運転支援装置100aの要部が構成されているものであっても良い。 As shown in FIG. 12, the recognition degree determination unit 26 and the display control unit 27 may be provided outside the driving support device 100a. That is, the road traffic information detection unit 21, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24a, and the recognition level calculation unit 25 constitute the main part of the driving support device 100a. can be

そのほか、運転支援装置100aは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。 In addition, the driving assistance device 100a can adopt various modifications similar to those described in the first embodiment.

以上のように、実施の形態2の運転支援装置100aにおいて、視点距離係数補正部24aは、道路交通情報表示Sの内容に基づき視点距離係数Cを補正するとともに、領域Aのサイズに基づき視点距離係数Cを補正する。これにより、道路交通情報表示Sが運転者により認識されたか否かの判定精度を更に向上することができる。 As described above, in the driving support device 100a according to the second embodiment, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C based on the content of the road traffic information display S, and the viewpoint distance coefficient C based on the size of the area A. Correct the coefficient C. As a result, it is possible to further improve the accuracy of determining whether or not the road traffic information display S has been recognized by the driver.

また、視点距離係数補正部24aは、道路交通情報表示Sの内容に基づき視点距離係数Cを補正するとともに、車両1の走行状態に基づき視点距離係数Cを補正する。より具体的には、視点距離係数補正部24aは、車両1の走行速度又は車両1の旋回量に基づき視点距離係数Cを補正する。これにより、道路交通情報表示Sが運転者により認識されたか否かの判定精度を更に向上することができる。 In addition, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C based on the content of the road traffic information display S, and corrects the viewpoint distance coefficient C based on the running state of the vehicle 1. FIG. More specifically, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C based on the traveling speed of the vehicle 1 or the turning amount of the vehicle 1 . As a result, it is possible to further improve the accuracy of determining whether or not the road traffic information display S has been recognized by the driver.

また、視点距離係数補正部24aは、道路交通情報表示Sの内容に基づき視点距離係数Cを補正するとともに、車両1の車外環境に基づき視点距離係数Cを補正する。より具体的には、視点距離係数補正部24aは、車両1の周囲の明るさ又は車両1の周囲の天候に基づき視点距離係数Cを補正する。これにより、道路交通情報表示Sが運転者により認識されたか否かの判定精度を更に向上することができる。 In addition, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C based on the content of the road traffic information display S, and corrects the viewpoint distance coefficient C based on the environment outside the vehicle 1 . More specifically, the viewpoint distance coefficient correction unit 24 a corrects the viewpoint distance coefficient C based on the brightness around the vehicle 1 or the weather around the vehicle 1 . As a result, it is possible to further improve the accuracy of determining whether or not the road traffic information display S has been recognized by the driver.

また、視点距離係数補正部24aは、道路交通情報表示Sの内容に基づき視点距離係数Cを補正するとともに、運転者の視力に基づき視点距離係数Cを補正する。これにより、道路交通情報表示Sが運転者により認識されたか否かの判定精度を更に向上することができる。 Further, the viewpoint distance coefficient correction unit 24a corrects the viewpoint distance coefficient C based on the content of the road traffic information display S, and corrects the viewpoint distance coefficient C based on the driver's eyesight. As a result, it is possible to further improve the accuracy of determining whether or not the road traffic information display S has been recognized by the driver.

実施の形態3.
図13は、実施の形態3に係る運転支援装置を含む運転支援システムの要部を示すブロック図である。図13を参照して、実施の形態3の運転支援装置100bについて説明する。また、運転支援装置100bを含む運転支援システム200bについて説明する。なお、図13において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。
Embodiment 3.
FIG. 13 is a block diagram showing essential parts of a driving support system including a driving support device according to Embodiment 3. FIG. A driving support device 100b according to the third embodiment will be described with reference to FIG. Also, a driving support system 200b including the driving support device 100b will be described. 13, the same reference numerals are given to the same blocks as those shown in FIG. 1, and the description thereof will be omitted.

図13に示す如く、車両1に制御装置2bが設けられている。制御装置2bは、例えば、ECUにより構成されている。 As shown in FIG. 13, a vehicle 1 is provided with a control device 2b. The control device 2b is configured by an ECU, for example.

また、車両1に音声出力装置11が設けられている。音声出力装置11は、例えば、スピーカにより構成されている。 Also, the vehicle 1 is provided with an audio output device 11 . The audio output device 11 is composed of, for example, a speaker.

制御装置2b、第1撮像装置3、第2撮像装置4、表示装置5及び音声出力装置11により、運転支援システム200bの要部が構成されている。運転支援装置100bは、制御装置2bに設けられている。 The control device 2b, the first imaging device 3, the second imaging device 4, the display device 5, and the audio output device 11 constitute a main part of the driving support system 200b. The driving support device 100b is provided in the control device 2b.

重要度判定部41は、道路交通情報検出部21による検出結果を取得するものである。重要度判定部41は、当該取得された検出結果を用いて、道路交通情報表示Sの内容に基づき、道路交通情報表示Sの重要度D3を判定するものである。 The importance determination unit 41 acquires the detection result by the road traffic information detection unit 21 . The importance determination unit 41 determines the importance D3 of the road traffic information display S based on the content of the road traffic information display S using the acquired detection result.

重要度D3は、例えば、道路交通情報表示Sの内容が車両1の運転に与える影響の大きさに応じて、3段階の値(すなわち第1値、第2値及び第3値)のうちのいずれかの値であると判定される。重要度D3の値が大きいほど、道路交通情報表示Sの内容が車両1の運転に与える影響が大きいことを示している。 The degree of importance D3 is, for example, one of three values (first value, second value and third value) according to the degree of influence of the content of the road traffic information display S on the driving of the vehicle 1. It is determined to be one of the values. The greater the value of the degree of importance D3, the greater the influence of the content of the road traffic information display S on the driving of the vehicle 1. FIG.

例えば、重要度判定部41は、道路交通情報表示Sの内容が車両1の停止を要求するものである場合(例えば、道路交通情報表示Sが「通行止め」又は「車両通行止め」を意味する規制標識である場合)、重要度D3が第3値であると判定する。また、重要度判定部41は、道路交通情報表示Sの内容が車両1の減速又は車線変更を要求するものである場合、重要度D3が第2値であると判定する。また、重要度判定部41は、そのほかの場合、重要度D3が第1値であると判定する。 For example, when the content of the road traffic information display S is to request the vehicle 1 to stop (for example, the road traffic information display S is a regulatory sign meaning "closed" or "vehicles closed"). ), it is determined that the importance D3 is the third value. Further, when the content of the road traffic information display S requests the vehicle 1 to decelerate or change lanes, the importance determination unit 41 determines that the importance D3 is the second value. In other cases, the importance determination unit 41 determines that the importance D3 is the first value.

音声出力制御部42は、認識度判定部26により認識度D2が閾値Dth未満であると判定された場合において、重要度判定部41により重要度D3が所定の基準値Dref(例えば第2値)以上であると判定されたとき、道路交通情報表示Sに対応する音声を音声出力装置11に出力させる制御(以下「音声出力制御」という。)を実行するものである。当該音声は、例えば、道路交通情報表示Sの内容に対応する文章を読み上げる音声である。 When the recognition level determination unit 26 determines that the recognition level D2 is less than the threshold value Dth, the voice output control unit 42 sets the importance level D3 to a predetermined reference value Dref (for example, a second value) by the importance level determination unit 41. When it is determined that the above is the case, control for outputting a sound corresponding to the road traffic information display S to the sound output device 11 (hereinafter referred to as "sound output control") is executed. The voice is, for example, voice for reading a sentence corresponding to the content of the road traffic information display S. FIG.

表示制御部27及び音声出力制御部42により、出力制御部43が構成されている。また、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24、認識度算出部25、認識度判定部26、表示制御部27、重要度判定部41及び音声出力制御部42により、運転支援装置100bの要部が構成されている。 An output control unit 43 is configured by the display control unit 27 and the audio output control unit 42 . In addition, road traffic information detection unit 21, viewpoint detection unit 22, viewpoint distance coefficient calculation unit 23, viewpoint distance coefficient correction unit 24, recognition level calculation unit 25, recognition level determination unit 26, display control unit 27, importance determination unit 41 and the voice output control unit 42 constitute a main part of the driving support device 100b.

運転支援装置100bの要部のハードウェア構成は、実施の形態1にて図4を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、道路交通情報検出部21、視点検出部22、視点距離係数算出部23、視点距離係数補正部24、認識度算出部25、認識度判定部26、表示制御部27、重要度判定部41及び音声出力制御部42の各々の機能は、プロセッサ51及びメモリ52により実現されるものであっても良く、又は専用の処理回路53により実現されるものであっても良い。 Since the hardware configuration of the main part of the driving support device 100b is the same as that described with reference to FIG. 4 in the first embodiment, illustration and description thereof are omitted. That is, road traffic information detection unit 21 , viewpoint detection unit 22 , viewpoint distance coefficient calculation unit 23 , viewpoint distance coefficient correction unit 24 , recognition level calculation unit 25 , recognition level determination unit 26 , display control unit 27 , importance determination unit 41 and the audio output control unit 42 may be implemented by the processor 51 and the memory 52, or may be implemented by the dedicated processing circuit 53. FIG.

次に、図14のフローチャートを参照して、運転支援装置100bの動作について、認識度判定部26、重要度判定部41及び出力制御部43の動作を中心に説明する。なお、図14において、図6に示すステップと同様のステップには同一符号を付して説明を省略する。 Next, with reference to the flowchart of FIG. 14, the operation of the driving support device 100b will be described, centering on the operations of the recognition level determination section 26, the importance level determination section 41, and the output control section 43. FIG. 14, steps similar to those shown in FIG. 6 are denoted by the same reference numerals, and descriptions thereof are omitted.

まず、ステップST11にて、認識度判定部26は、認識度算出部25により算出された認識度D2を取得して、当該取得された認識度D2が閾値Dth以上であるか否かを判定する。認識度D2が閾値Dth未満であると判定された場合(ステップST11“NO”)、ステップST13にて、重要度判定部41は、道路交通情報表示Sの重要度D3を判定する。重要度D3が基準値Dref未満であると判定された場合(ステップST13“NO”)、ステップST12にて、出力制御部43が第1表示制御を実行する。他方、重要度D3が基準値Dref以上であると判定された場合(ステップST13“YES”)、ステップST14にて、出力制御部43が第1表示制御及び音声出力制御を実行する。 First, in step ST11, the recognition level determination unit 26 acquires the recognition level D2 calculated by the recognition level calculation unit 25, and determines whether or not the acquired recognition level D2 is equal to or greater than the threshold value Dth. . When it is determined that the recognition level D2 is less than the threshold value Dth (step ST11 "NO"), the importance level determination unit 41 determines the importance level D3 of the road traffic information display S in step ST13. When it is determined that the degree of importance D3 is less than the reference value Dref ("NO" in step ST13), the output control section 43 executes the first display control in step ST12. On the other hand, when it is determined that the degree of importance D3 is greater than or equal to the reference value Dref ("YES" in step ST13), the output control section 43 executes first display control and audio output control in step ST14.

このように、認識度D2が閾値Dth未満であると判定された場合において、重要度D3が基準値Dref以上であると判定されたとき、表示制御部27が第1表示制御を実行するのに加えて、音声出力制御部42が音声出力制御を実行する。これにより、運転者は、自身が見逃した道路交通情報表示Sのうちの重要な道路交通情報表示Sをより確実に確認することができる。 In this way, when it is determined that the degree of recognition D2 is less than the threshold value Dth, and the degree of importance D3 is determined to be equal to or greater than the reference value Dref, the display control unit 27 performs the first display control. In addition, the audio output control unit 42 executes audio output control. As a result, the driver can more reliably check the important road traffic information displays S among the road traffic information displays S that he has overlooked.

次に、運転支援装置100bの変形例について説明する。 Next, a modified example of the driving support device 100b will be described.

運転支援装置100bは、視点距離係数補正部24に代えて、運転支援装置100aと同様の視点距離係数補正部24aを有するものであっても良い。また、制御装置2bは、制御装置2aと同様の補正用情報取得部34を有するものであっても良い。この場合、運転支援システム200bは、運転支援システム200aと同様のセンサ類6、無線通信装置7、記憶装置9及び操作入力装置10を含むものであっても良い。 The driving support device 100b may have a viewpoint distance coefficient correction unit 24a similar to that of the driving support device 100a instead of the viewpoint distance coefficient correction unit 24. FIG. Also, the control device 2b may have a correction information acquisition section 34 similar to that of the control device 2a. In this case, the driving support system 200b may include the same sensors 6, wireless communication device 7, storage device 9, and operation input device 10 as in the driving support system 200a.

そのほか、運転支援装置100bは、実施の形態1,2にて説明したものと同様の種々の変形例を採用することができる。 In addition, various modifications similar to those described in the first and second embodiments can be adopted for the driving support device 100b.

以上のように、実施の形態3の運転支援装置100bは、道路交通情報表示Sの内容に基づき、道路交通情報表示Sの重要度D3が基準値Dref以上であるか否かを判定する重要度判定部41と、認識度D2が閾値Dth未満であると判定された場合において、重要度D3が基準値Dref以上であると判定されたとき、道路交通情報表示Sに対応する音声を音声出力装置11に出力させる制御を実行する音声出力制御部42と、を備える。これにより、運転者は、自身が見逃した道路交通情報表示Sのうちの重要な道路交通情報表示Sをより確実に確認することができる。 As described above, the driving assistance device 100b of the third embodiment determines whether or not the importance D3 of the road traffic information display S is equal to or greater than the reference value Dref based on the content of the road traffic information display S. When the determination unit 41 determines that the recognition degree D2 is less than the threshold value Dth, and determines that the importance degree D3 is equal to or greater than the reference value Dref, the audio output device outputs a sound corresponding to the road traffic information display S. and an audio output control unit 42 that controls output to 11 . As a result, the driver can more reliably check the important road traffic information displays S among the road traffic information displays S that he has overlooked.

実施の形態4.
図15は、実施の形態4に係る運転支援装置を含む運転支援システムの要部を示すブロック図である。図15を算出して、実施の形態4の運転支援装置100cについで説明する。また、運転支援装置100cを含む運転支援システム200cについて説明する。なお、図15において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。また、図15において、図9に示すブロックと同様のブロックには同一符号を付して説明を省略する。
Embodiment 4.
FIG. 15 is a block diagram showing essential parts of a driving support system including a driving support device according to Embodiment 4. FIG. The driving assistance device 100c of the fourth embodiment will be described by calculating FIG. Also, a driving support system 200c including the driving support device 100c will be described. 15, the same reference numerals are given to the same blocks as those shown in FIG. 1, and the description thereof will be omitted. Also, in FIG. 15, blocks similar to those shown in FIG. 9 are assigned the same reference numerals, and descriptions thereof are omitted.

図15に示す如く、車両1に制御装置2cが設けられている。制御装置2cは、例えば、ECUにより構成されている。 As shown in FIG. 15, a vehicle 1 is provided with a control device 2c. The control device 2c is configured by an ECU, for example.

制御装置2c、第1撮像装置3、第2撮像装置4、表示装置5、記憶装置9及び操作入力装置10により、運転支援システム200cの要部が構成されている。運転支援装置100cは、制御装置2cに設けられている。 The control device 2c, the first imaging device 3, the second imaging device 4, the display device 5, the storage device 9, and the operation input device 10 constitute the main part of the driving support system 200c. The driving support device 100c is provided in the control device 2c.

道路交通情報検出部21aは、道路交通情報検出部21と同様の道路交通情報検出処理を実行するものである。道路交通情報検出部21aは、道路交通情報検出処理により検出された道路交通情報表示Sを示すデータを記憶装置9に記憶させるものである。記憶装置9は、当該記憶されたデータを所定時間保持するものである。 The road traffic information detection section 21a performs the same road traffic information detection processing as the road traffic information detection section 21 does. The road traffic information detection unit 21a causes the storage device 9 to store data representing the road traffic information display S detected by the road traffic information detection process. The storage device 9 holds the stored data for a predetermined period of time.

表示制御部27aは、表示制御部27と同様の第1表示制御を実行するものである。これに加えて、表示制御部27aは、記憶装置9に記憶されているデータが示す道路交通情報表示Sに対応する画像I3の表示を指示する操作が操作入力装置10に入力されたとき、当該記憶されているデータが示す道路交通情報表示Sに対応する画像I3を表示装置5に表示させる制御(以下「第2表示制御」という。)を実行するものである。 The display control section 27a executes the same first display control as the display control section 27 does. In addition, when the operation input device 10 receives an instruction to display an image I3 corresponding to the road traffic information display S indicated by the data stored in the storage device 9, the display control unit 27a This is to execute control (hereinafter referred to as "second display control") for causing the display device 5 to display an image I3 corresponding to the road traffic information display S indicated by the stored data.

第2表示制御により、運転者は、車両1が通り過ぎた道路交通情報表示Sの内容を、自身が見逃したか否かにかかわらず、任意のタイミングにて確認することができる。 With the second display control, the driver can check the content of the road traffic information display S that the vehicle 1 has passed by at an arbitrary timing, regardless of whether the driver has overlooked it.

道路交通情報検出部21a、視点検出部22、視点距離係数算出部23、視点距離係数補正部24、認識度算出部25、認識度判定部26及び表示制御部27aにより、運転支援装置100cの要部が構成されている。 The road traffic information detection unit 21a, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24, the recognition level calculation unit 25, the recognition level determination unit 26, and the display control unit 27a determine the requirements of the driving support device 100c. part is constructed.

運転支援装置100cの要部のハードウェア構成は、実施の形態1にて図4を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、道路交通情報検出部21a、視点検出部22、視点距離係数算出部23、視点距離係数補正部24、認識度算出部25、認識度判定部26及び表示制御部27aの各々の機能は、プロセッサ51及びメモリ52により実現されるものであっても良く、又は専用の処理回路53により実現されるものであっても良い。 The hardware configuration of the main part of the driving support device 100c is the same as that described with reference to FIG. 4 in the first embodiment, so illustration and description are omitted. That is, the functions of the road traffic information detection unit 21a, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24, the recognition level calculation unit 25, the recognition level determination unit 26, and the display control unit 27a are It may be implemented by a processor 51 and memory 52, or may be implemented by a dedicated processing circuit 53. FIG.

次に、図16を参照して、運転支援装置100cの変形例について説明する。 Next, a modified example of the driving support device 100c will be described with reference to FIG.

図16に示す如く、認識度判定部26は、運転支援装置100c外に設けられているものであっても良い。すなわち、道路交通情報検出部21a、視点検出部22、視点距離係数算出部23、視点距離係数補正部24及び認識度算出部25により、運転支援装置100cの要部が構成されているものであっても良い。 As shown in FIG. 16, the recognition degree determination unit 26 may be provided outside the driving support device 100c. That is, the road traffic information detection unit 21a, the viewpoint detection unit 22, the viewpoint distance coefficient calculation unit 23, the viewpoint distance coefficient correction unit 24, and the recognition level calculation unit 25 constitute the main part of the driving support device 100c. can be

次に、運転支援装置100cの他の変形例について説明する。 Next, another modified example of the driving support device 100c will be described.

運転支援装置100cは、視点距離係数補正部24に代えて、運転支援装置100aと同様の視点距離係数補正部24aを有するものであっても良い。また、制御装置2cは、制御装置2aと同様の補正用情報取得部34を有するものであっても良い。この場合、運転支援システム200cは、運転支援システム200aと同様のセンサ類6及び無線通信装置7を含むものであっても良い。 The driving support device 100c may have a viewpoint distance coefficient correction unit 24a similar to that of the driving support device 100a instead of the viewpoint distance coefficient correction unit 24. FIG. Further, the control device 2c may have a correction information acquisition section 34 similar to that of the control device 2a. In this case, the driving support system 200c may include the same sensors 6 and wireless communication device 7 as the driving support system 200a.

また、運転支援装置100cは、運転支援装置100bと同様の重要度判定部41及び音声出力制御部42を有するものであっても良い。この場合、運転支援システム200cは、運転支援システム200bと同様の音声出力装置11を含むものであっても良い。 Further, the driving support device 100c may have the importance determination unit 41 and the voice output control unit 42 similar to those of the driving support device 100b. In this case, the driving assistance system 200c may include the same voice output device 11 as the driving assistance system 200b.

そのほか、運転支援装置100cは、実施の形態1~3にて説明したものと同様の種々の変形例を採用することができる。 In addition, the driving assistance device 100c can adopt various modifications similar to those described in the first to third embodiments.

以上のように、実施の形態4の運転支援装置100cは、操作入力装置10に対する操作入力に応じて、道路交通情報表示Sに対応する画像I3を表示装置5に表示させる制御(第2表示制御)を実行する表示制御部27aを備える。これにより、運転者は、車両1が通り過ぎた道路交通情報表示Sの内容を、自身が見逃したか否かにかかわらず、任意のタイミングにて確認することができる。 As described above, the driving support device 100c according to the fourth embodiment controls the display device 5 to display the image I3 corresponding to the road traffic information display S (second display control) according to the operation input to the operation input device 10. ) is provided. Thereby, the driver can check the content of the road traffic information display S that the vehicle 1 has passed by at an arbitrary timing regardless of whether the driver has overlooked it.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In addition, within the scope of the present invention, it is possible to freely combine each embodiment, modify any component of each embodiment, or omit any component in each embodiment. .

本発明の運転支援装置は、車両の運転支援に用いることができる。 The driving assistance device of the present invention can be used for driving assistance of a vehicle.

1 車両、2,2a,2b,2c 制御装置、3 第1撮像装置、4 第2撮像装置、5 表示装置、6 センサ類、7 無線通信装置、8 サーバ装置、9 記憶装置、10 操作入力装置、11 音声出力装置、21,21a 道路交通情報検出部、22 視点検出部、23 視点距離係数算出部、24,24a 視点距離係数補正部、25 認識度算出部、26 認識度判定部、27,27a 表示制御部、31 車両情報取得部、32 環境情報取得部、33 運転者情報取得部、34 補正用情報取得部、41 重要度判定部、42 音声出力制御部、43 出力制御部、51 プロセッサ、52 メモリ、53 処理回路、100,100a,100b,100c 運転支援装置、200,200a,200b,200c 運転支援システム。 1 vehicle 2, 2a, 2b, 2c control device 3 first imaging device 4 second imaging device 5 display device 6 sensors 7 wireless communication device 8 server device 9 storage device 10 operation input device , 11 audio output device, 21, 21a road traffic information detection unit, 22 viewpoint detection unit, 23 viewpoint distance coefficient calculation unit, 24, 24a viewpoint distance coefficient correction unit, 25 recognition degree calculation unit, 26 recognition degree determination unit, 27, 27a display control unit 31 vehicle information acquisition unit 32 environment information acquisition unit 33 driver information acquisition unit 34 correction information acquisition unit 41 importance determination unit 42 audio output control unit 43 output control unit 51 processor , 52 memory, 53 processing circuit, 100, 100a, 100b, 100c driving support device, 200, 200a, 200b, 200c driving support system.

Claims (9)

前方画像における道路交通情報表示に対応する領域を検出するとともに、前記道路交通情報表示の内容を検出する道路交通情報検出部と、
車内画像を用いて、前記前方画像における運転者の視点に対応する位置を検出する視点検出部と、
前記位置に対する前記領域の距離が大きくなるにつれて次第に小さくなる値である視点距離係数を算出する視点距離係数算出部と、
前記内容に基づき、前記視点距離係数を補正する視点距離係数補正部と、
補正後の前記視点距離係数を積算することにより、前記運転者による前記道路交通情報表示の認識度を算出する認識度算出部と、
を備える車両用の運転支援装置。
a road traffic information detection unit that detects an area corresponding to road traffic information display in a forward image and detects the content of the road traffic information display;
A viewpoint detection unit that detects a position corresponding to the driver's viewpoint in the front image using the in-vehicle image;
a viewpoint distance coefficient calculation unit that calculates a viewpoint distance coefficient, which is a value that gradually decreases as the distance of the region with respect to the position increases ;
a viewpoint distance coefficient correction unit that corrects the viewpoint distance coefficient based on the content;
a recognition level calculation unit that calculates a recognition level of the road traffic information display by the driver by accumulating the corrected viewpoint distance coefficient;
A driving support device for a vehicle.
前記認識度が閾値以上であるか否かを判定することにより、前記道路交通情報表示が前記運転者により認識されたか否かを判定する認識度判定部と、
前記認識度が前記閾値未満であると判定された場合、前記道路交通情報表示に対応する画像を表示装置に表示させる制御を実行する表示制御部と、
を備えることを特徴とする請求項1記載の運転支援装置。
a recognition degree determination unit that determines whether or not the road traffic information display has been recognized by the driver by determining whether or not the recognition degree is equal to or greater than a threshold;
a display control unit that executes control to display an image corresponding to the road traffic information display on a display device when the recognition level is determined to be less than the threshold;
The driving assistance device according to claim 1, comprising:
前記認識度判定部は、前記道路交通情報表示が前記前方画像外に出たとき、前記認識度が前記閾値以上であるか否かを判定することを特徴とする請求項2記載の運転支援装置。 3. The driving support device according to claim 2, wherein the recognition level determination unit determines whether or not the recognition level is equal to or greater than the threshold value when the road traffic information display is out of the forward image. . 前記視点距離係数補正部は、前記内容に基づき前記視点距離係数を補正するとともに、前記領域のサイズに基づき前記視点距離係数を補正することを特徴とする請求項1から請求項3のうちのいずれか1項記載の運転支援装置。 4. The viewpoint distance coefficient correction unit corrects the viewpoint distance coefficient based on the content, and corrects the viewpoint distance coefficient based on the size of the region. 1. The driving support device according to claim 1. 前記視点距離係数補正部は、前記内容に基づき前記視点距離係数を補正するとともに、前記車両の走行状態に基づき前記視点距離係数を補正することを特徴とする請求項1から請求項3のうちのいずれか1項記載の運転支援装置。 4. The viewpoint distance coefficient correction unit corrects the viewpoint distance coefficient based on the content, and corrects the viewpoint distance coefficient based on the running state of the vehicle. The driving support device according to any one of claims 1 to 3. 前記視点距離係数補正部は、前記内容に基づき前記視点距離係数を補正するとともに、前記車両の車外環境に基づき前記視点距離係数を補正することを特徴とする請求項1から請求項3のうちのいずれか1項記載の運転支援装置。 4. The viewpoint distance coefficient correction unit corrects the viewpoint distance coefficient based on the content, and corrects the viewpoint distance coefficient based on an environment outside the vehicle. The driving support device according to any one of claims 1 to 3. 前記視点距離係数補正部は、前記内容に基づき前記視点距離係数を補正するとともに、前記運転者の視力に基づき前記視点距離係数を補正することを特徴とする請求項1から請求項3のうちのいずれか1項記載の運転支援装置。 4. The viewpoint distance coefficient correction unit corrects the viewpoint distance coefficient based on the content, and corrects the viewpoint distance coefficient based on the visual acuity of the driver. The driving support device according to any one of claims 1 to 3. 前記内容に基づき、前記道路交通情報表示の重要度が基準値以上であるか否かを判定する重要度判定部と、
前記認識度が前記閾値未満であると判定された場合において、前記重要度が前記基準値以上であると判定されたとき、前記道路交通情報表示に対応する音声を音声出力装置に出力させる制御を実行する音声出力制御部と、
を備えることを特徴とする請求項2又は請求項3記載の運転支援装置。
an importance determination unit that determines whether or not the importance of the road traffic information display is equal to or greater than a reference value based on the content;
when the degree of recognition is determined to be less than the threshold value and the degree of importance is determined to be equal to or greater than the reference value, control is performed to cause an audio output device to output a sound corresponding to the road traffic information display. an audio output control unit that executes
4. The driving support device according to claim 2 or 3, comprising:
操作入力装置に対する操作入力に応じて、前記道路交通情報表示に対応する画像を表示装置に表示させる制御を実行する表示制御部を備えることを特徴とする請求項1記載の運転支援装置。 2. The driving support device according to claim 1, further comprising a display control unit that controls a display device to display an image corresponding to the road traffic information display in accordance with an operation input to the operation input device.
JP2021504710A 2019-03-13 2019-03-13 Driving support device Active JP7105985B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/010296 WO2020183652A1 (en) 2019-03-13 2019-03-13 Driving assistance device

Publications (2)

Publication Number Publication Date
JPWO2020183652A1 JPWO2020183652A1 (en) 2021-09-13
JP7105985B2 true JP7105985B2 (en) 2022-07-25

Family

ID=72427228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021504710A Active JP7105985B2 (en) 2019-03-13 2019-03-13 Driving support device

Country Status (2)

Country Link
JP (1) JP7105985B2 (en)
WO (1) WO2020183652A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4097673B1 (en) 2021-04-06 2024-01-31 Google LLC Geospatially informed resource utilization

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099883A (en) 1999-10-13 2000-04-07 Denso Corp Traffic information display
JP2004037149A (en) 2002-07-01 2004-02-05 Mazda Motor Corp Apparatus and method for guiding path, and program for guiding path
JP2005182307A (en) 2003-12-17 2005-07-07 Denso Corp Vehicle driving support device
JP2008082886A (en) 2006-09-27 2008-04-10 Matsushita Electric Ind Co Ltd Device and method for displaying guide sign
JP2009110394A (en) 2007-10-31 2009-05-21 Equos Research Co Ltd Road sign display device
JP2015170249A (en) 2014-03-10 2015-09-28 株式会社デンソーアイティーラボラトリ Safety confirmation determination device and driving support device
JP2017111469A (en) 2015-12-14 2017-06-22 富士通株式会社 Road sign visual recognition determination system, road sign visual recognition determination method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099883A (en) 1999-10-13 2000-04-07 Denso Corp Traffic information display
JP2004037149A (en) 2002-07-01 2004-02-05 Mazda Motor Corp Apparatus and method for guiding path, and program for guiding path
JP2005182307A (en) 2003-12-17 2005-07-07 Denso Corp Vehicle driving support device
JP2008082886A (en) 2006-09-27 2008-04-10 Matsushita Electric Ind Co Ltd Device and method for displaying guide sign
JP2009110394A (en) 2007-10-31 2009-05-21 Equos Research Co Ltd Road sign display device
JP2015170249A (en) 2014-03-10 2015-09-28 株式会社デンソーアイティーラボラトリ Safety confirmation determination device and driving support device
JP2017111469A (en) 2015-12-14 2017-06-22 富士通株式会社 Road sign visual recognition determination system, road sign visual recognition determination method, and program

Also Published As

Publication number Publication date
JPWO2020183652A1 (en) 2021-09-13
WO2020183652A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
CN107848416B (en) Display control device, display device, and display control method
JP6330903B2 (en) Information presentation device and information presentation method
CN105659304B (en) Vehicle, navigation system and method for generating and delivering navigation information
JP2017111469A (en) Road sign visual recognition determination system, road sign visual recognition determination method, and program
US9449518B2 (en) Display control device, method, and non-transitory storage medium
JP6775188B2 (en) Head-up display device and display control method
US20200307616A1 (en) Methods and systems for driver assistance
JP5861072B2 (en) Display control device, display device, and display control program
CN104228583B (en) Steering assistance display device
US9477315B2 (en) Information query by pointing
CA3000110C (en) Vehicular display device
JP5866545B1 (en) Display control apparatus and display control program
JP2015000629A (en) Onboard display device and program
CN106643781A (en) Vehicle navigation display system and method thereof
US20150206431A1 (en) Apparatus and method for providing safe driving information
US20160358028A1 (en) Visual line detection device and visual line detection method
US20160274658A1 (en) Graphic meter device
JP7105985B2 (en) Driving support device
US20220080828A1 (en) Apparatus for displaying information of driving based on augmented reality
US20230298227A1 (en) Apparatus for displaying information based on augmented reality
US11828947B2 (en) Vehicle and control method thereof
US10474912B2 (en) Vehicle display controller, vehicle display system, vehicle display control method, and non-transitory storage medium
KR20190069633A (en) Electronic apparatus and method for providing a text thereof
JP6785956B2 (en) Display control device and display control method
JP2018097541A (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220712

R150 Certificate of patent or registration of utility model

Ref document number: 7105985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150