JP7371419B2 - Driving assistance systems and programs - Google Patents

Driving assistance systems and programs Download PDF

Info

Publication number
JP7371419B2
JP7371419B2 JP2019179143A JP2019179143A JP7371419B2 JP 7371419 B2 JP7371419 B2 JP 7371419B2 JP 2019179143 A JP2019179143 A JP 2019179143A JP 2019179143 A JP2019179143 A JP 2019179143A JP 7371419 B2 JP7371419 B2 JP 7371419B2
Authority
JP
Japan
Prior art keywords
image
warning
warning target
vehicle
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019179143A
Other languages
Japanese (ja)
Other versions
JP2021056760A (en
Inventor
和晃 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2019179143A priority Critical patent/JP7371419B2/en
Publication of JP2021056760A publication Critical patent/JP2021056760A/en
Application granted granted Critical
Publication of JP7371419B2 publication Critical patent/JP7371419B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、運転支援システムおよび運転支援プログラムに関する。 The present invention relates to a driving support system and a driving support program.

従来、車両の運転者から見て、少なくとも一部が遮蔽された警告対象が存在する際に、運転者に対して警告する技術が知られている。例えば、特許文献1には、ドライバの視点位置から見たときのAピラーによる対象物の隠蔽率が、所定値以上である場合に、ドライバに対して警報を報知する技術が開示されている。 2. Description of the Related Art Conventionally, a technique is known that warns a vehicle driver when there is a warning target that is at least partially shielded from the perspective of the vehicle driver. For example, Patent Document 1 discloses a technique for notifying a driver of a warning when the concealment rate of an object by an A-pillar when viewed from the driver's viewpoint is equal to or higher than a predetermined value.

特開2015-156191号公報Japanese Patent Application Publication No. 2015-156191

運転者から警告対象を見た場合の隠蔽率が同程度であっても、警告対象が認識困難である場合もある。例えば、警告対象の一部に周囲とのコントラストが大きいなどの理由で目立つ部分がある場合、同一の隠蔽率であっても、当該一部が遮蔽されているならば遮蔽されていない場合と比較して警告対象が見えにくい。従来の技術においては、運転者の実際の視点位置から見た場合に、Aピラーによって遮蔽された部分を含め、警告対象自体の見えにくさを算出していない。従って、例えば、隠蔽率が所定値より小さいが見えにくい警告対象について警告を出力することができない。
本発明は、前記課題にかんがみてなされたもので、視認困難な警告対象が視認される可能性を高める技術の提供を目的とする。
Even if the concealment rate when the driver sees the warning target is at the same level, the warning target may be difficult to recognize. For example, if there is a part of the warning target that stands out due to high contrast with the surroundings, even if the concealment rate is the same, if that part is shielded, compare it with the case where it is not shielded. warning target is difficult to see. In the conventional technology, when viewed from the driver's actual viewpoint position, the visibility of the warning target itself, including the portion blocked by the A-pillar, is not calculated. Therefore, for example, a warning cannot be output for a warning target whose concealment rate is smaller than a predetermined value but is difficult to see.
The present invention has been made in view of the above-mentioned problems, and aims to provide a technique that increases the possibility that a difficult-to-see warning target will be visually recognized.

上記の目的を達成するため、運転支援システムは、車両の周囲の画像を取得する画像取得部と、画像に基づいて車両の周囲に存在する警告対象を検出する警告対象検出部と、車両の運転者の眼の位置を検出する眼位置検出部と、車両の構造物を示す構造物情報を取得する構造物情報取得部と、眼の位置と構造物情報とに基づいて、運転者から警告対象を見た場合に警告対象および構造物を含む所定領域において視認される画像である警告対象画像を取得する警告対象画像取得部と、警告対象画像の変化が小さい場合には、変化が大きい場合よりも強い警告を出力する警告出力部と、を備える In order to achieve the above purpose, the driving support system includes an image acquisition unit that acquires images of the surroundings of the vehicle, a warning target detection unit that detects warning targets existing around the vehicle based on the images, and a driving support system that An eye position detection unit that detects the position of the driver's eyes, a structure information acquisition unit that acquires structure information indicating the structure of the vehicle, and a warning target from the driver based on the eye position and structure information. a warning target image acquisition unit that acquires a warning target image that is an image that is visible in a predetermined area including the warning target and structures when viewing the warning target image; and a warning output section that outputs a strong warning.

また、上記の目的を達成するため、運転支援プログラムは、コンピュータを、車両の周囲の画像を取得する画像取得部、画像に基づいて車両の周囲に存在する警告対象を検出する警告対象検出部、車両の運転者の眼の位置を検出する眼位置検出部、車両の構造物を示す構造物情報を取得する構造物情報取得部、眼の位置と構造物情報とに基づいて、運転者から警告対象を見た場合に警告対象および構造物を含む所定領域において視認される画像である警告対象画像を取得する警告対象画像取得部と、警告対象画像の変化が小さい場合には、変化が大きい場合よりも強い警告を出力する警告出力部、として機能させる。 In addition, in order to achieve the above object, the driving support program includes a computer, an image acquisition unit that acquires an image of the surroundings of the vehicle, a warning target detection unit that detects a warning target that exists around the vehicle based on the image, An eye position detection unit that detects the position of the vehicle driver's eyes, a structure information acquisition unit that acquires structure information indicating the structure of the vehicle, and a warning from the driver based on the eye position and structure information. a warning target image acquisition unit that acquires a warning target image that is an image that is visible in a predetermined area including the warning target and a structure when the target is viewed; It functions as a warning output section that outputs a stronger warning than the previous one.

すなわち、運転支援システム、運転支援プログラムにおいては、運転者から視認される警告対象の変化に着目する。そして、運転支援システム、運転支援プログラムにおいては、当該部分の変化が小さい場合には、変化が大きい場合よりも認識困難であると推定し、より強い警告を出力する。従って、運転者は、警告対象が視認困難であるほど強い警告を受け、視認困難な警告対象であっても視認できる可能性が高くなる。 That is, in the driving support system and the driving support program, attention is paid to changes in the warning target visually recognized by the driver. In the driving support system and driving support program, when the change in the part concerned is small, it is estimated that recognition is more difficult than when the change is large, and a stronger warning is output. Therefore, the more difficult a warning target is to visually recognize, the stronger the warning will be received by the driver, and the possibility that the driver will be able to visually recognize a warning target that is difficult to visually recognize increases.

運転支援システムのブロック図である。FIG. 2 is a block diagram of a driving support system. 図2Aは撮影される画像の例を示す図、図2Bは警告対象の検出例を示す図、図2Cは遮蔽される部分を除外した画像を示す図である。FIG. 2A is a diagram showing an example of an image taken, FIG. 2B is a diagram showing an example of detecting a warning target, and FIG. 2C is a diagram showing an image excluding the shielded portion. 図3A,図3Bは非遮蔽画像の例を示す図、図3Cは運転支援処理のフローチャート、図3Dは周辺部分を含む非遮蔽画像の抽出例を示す図、図3Eは機械学習モデルの例を示す図である。3A and 3B are diagrams showing examples of non-occluded images, FIG. 3C is a flowchart of driving support processing, FIG. 3D is a diagram showing an example of extraction of non-occluded images including peripheral parts, and FIG. 3E is an example of a machine learning model. FIG. 警告対象画像の例を示す図である。FIG. 3 is a diagram showing an example of a warning target image.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)運転支援システムの構成:
(2)運転支援処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of driving support system:
(2) Driving support processing:
(3) Other embodiments:

(1)運転支援システムの構成:
図1は、本発明の一実施形態にかかる運転支援システムを含む運転支援システム10の構成を示すブロック図である。運転支援システム10は、車両に備えられており、CPU,RAM,ROM等を備える制御部20、記録媒体30を備えている。運転支援システム10は、記録媒体30やROMに記憶されたプログラムを制御部20で実行することができる。
(1) Configuration of driving support system:
FIG. 1 is a block diagram showing the configuration of a driving support system 10 including a driving support system according to an embodiment of the present invention. The driving support system 10 is installed in a vehicle, and includes a control unit 20 including a CPU, RAM, ROM, etc., and a recording medium 30. The driving support system 10 can execute programs stored in the recording medium 30 or the ROM using the control unit 20.

記録媒体30には、予め構造物情報30aが記録されている。構造物情報30aは、車内の構造物の3次元モデルを示す情報であり、少なくとも、車両の構造物の最外面を構成する表面の形状を、3次元仮想空間内で特定可能な情報である。本実施形態においては、ポリゴンによって表面の形状が特定されるが、構造物情報30aのフォーマットは種々のフォーマットであってよい。 Structure information 30a is recorded on the recording medium 30 in advance. The structure information 30a is information indicating a three-dimensional model of a structure inside the vehicle, and is information that allows at least the shape of the surface constituting the outermost surface of the structure of the vehicle to be specified in a three-dimensional virtual space. In this embodiment, the shape of the surface is specified by polygons, but the format of the structure information 30a may be various formats.

構造物情報30aは、少なくとも、運転者の眼の位置から見た方向(視線方向)の延長上に存在し得る車両の構造物であれば良く、車両全体の構造物を示していてもよいし、運転者が視認し得る範囲に存在する構造物を示していてもよい。運転者の視線は主に車室を構成する構造物に遮蔽され得るため、車室内の構造物が構造物情報30aに含まれるが、車室外に存在する構造物、例えばボンネットやバックミラーが運転者の視線方向に存在し得る場合、これらの構造物を示す情報が構造物情報30aに含まれ得る。なお、構造物情報30aは、視線を遮る可能性がある構造物の情報であるため、フロントガラスなどの透明な構造物の情報は含まれない(または透明である情報が対応づけられている)。 The structure information 30a may be at least a structure of the vehicle that can exist in an extension of the direction seen from the position of the driver's eyes (direction of line of sight), and may indicate the structure of the entire vehicle. , may indicate a structure that exists within a range that can be seen by the driver. Since the driver's line of sight may be mainly blocked by the structures that make up the vehicle interior, structures inside the vehicle interior are included in the structure information 30a, but structures existing outside the vehicle interior, such as the bonnet or rearview mirror, may be blocked when driving. If the structures can exist in the direction of the person's line of sight, information indicating these structures may be included in the structure information 30a. Note that the structure information 30a is information on structures that may obstruct the line of sight, and therefore does not include information on transparent structures such as windshields (or is associated with transparent information). .

本実施形態における車両は、カメラ40と眼位置検出センサ41と案内部42とを備えている。カメラ40は、車両の所定位置において前方に向けられて取り付けられており、運転者が前方を見ている場合における視野内の画像を取得する装置である。制御部20は、当該カメラ40の出力する画像を取得し、特徴量の抽出等によって画像を解析することによって車両の周辺に存在する警告対象としての移動体(人および車両)を検出することができる。 The vehicle in this embodiment includes a camera 40, an eye position detection sensor 41, and a guide section 42. The camera 40 is attached to a predetermined position of the vehicle so as to face forward, and is a device that captures an image within the field of view when the driver is looking forward. The control unit 20 acquires the image output from the camera 40 and analyzes the image by extracting feature amounts, etc., thereby detecting moving objects (people and vehicles) as warning targets existing around the vehicle. can.

眼位置検出センサ41は、赤外線出力部と少なくとも2個の赤外線カメラとを備えている。当該赤外線カメラは、運転者の顔を視野に含むように車室内の構造体(例えば、インストルメントパネルの壁面)に取り付けられている。眼位置検出センサ41は、赤外線出力部から出力された赤外線によって赤外線カメラで撮影された運転者の眼の像に基づいて、眼の位置を検出し、出力する。 The eye position detection sensor 41 includes an infrared output section and at least two infrared cameras. The infrared camera is attached to a structure within the vehicle interior (for example, a wall of an instrument panel) so as to include the driver's face in its field of view. The eye position detection sensor 41 detects and outputs the position of the driver's eyes based on an image of the driver's eyes taken by an infrared camera using infrared rays output from the infrared output unit.

制御部20は、当該出力に基づいて、予め定義された3次元空間内で眼の位置を特定することができる。眼の位置は1カ所検出されても良いし、2カ所検出されてもよい。本実施形態においては、1カ所(左右いずれの眼球の中心または左右の眼球の間の位置)が検出される例を説明する。 The control unit 20 can specify the position of the eye within a predefined three-dimensional space based on the output. The eye position may be detected at one position or at two positions. In this embodiment, an example will be described in which one location (the center of either the left or right eyeball or the position between the left and right eyeballs) is detected.

案内部42は、車室内に設けられており、各種の情報を表示するディスプレイおよび音を出力するスピーカーを有する装置である。案内部42は、複数の装置を含み得る。すなわち、運転者の正面に設置されるインストルメントパネルや、車室内の前方中央に設置されるナビゲーションシステムが案内部42となり得る。本実施形態において、制御部20は、案内部42に対して制御信号を出力し、各種の情報を表示させ、また、各種の音を出力させることができる。 The guide section 42 is a device that is provided in the vehicle interior and has a display that displays various information and a speaker that outputs sound. Guide portion 42 may include multiple devices. That is, the guide section 42 can be an instrument panel installed in front of the driver or a navigation system installed in the front center of the vehicle interior. In this embodiment, the control section 20 can output a control signal to the guide section 42, display various information, and output various sounds.

本実施形態において制御部20は、以上の構成を利用して、車両の周囲に存在する警告対象としての移動体に関する警告のための表示を行うことができる。このために、制御部20は、運転支援プログラム21を実行することが可能である。運転支援プログラム21は、画像取得部21aと、警告対象検出部21bと、眼位置検出部21cと、構造物情報取得部21dと、警告対象画像取得部21eと、警告出力部21fとを備えている。 In this embodiment, the control unit 20 can use the above configuration to display a warning regarding a moving object that is a warning target that exists around the vehicle. For this purpose, the control unit 20 can execute the driving support program 21. The driving support program 21 includes an image acquisition section 21a, a warning target detection section 21b, an eye position detection section 21c, a structure information acquisition section 21d, a warning target image acquisition section 21e, and a warning output section 21f. There is.

画像取得部21aは、車両の周囲の画像を取得する機能を制御部20に実行させるプログラムモジュールである。すなわち、制御部20は、画像取得部21aの機能により、カメラ40が撮影した画像を示す画像データを取得する。本実施形態において、カメラ40は、一定期間毎に撮影を行うことが可能であるため、画像データは時系列で連続する複数の静止画によって構成される動画データである。むろん、画像データはRAM等のバッファに記録されてもよいし、記録媒体30に記録されてもよい。 The image acquisition unit 21a is a program module that causes the control unit 20 to execute a function of acquiring images around the vehicle. That is, the control unit 20 uses the function of the image acquisition unit 21a to acquire image data representing an image captured by the camera 40. In this embodiment, since the camera 40 is capable of capturing images at regular intervals, the image data is video data composed of a plurality of still images that are continuous in time series. Of course, the image data may be recorded in a buffer such as a RAM, or may be recorded on the recording medium 30.

図2Aは、カメラ40において撮影された画像の例を示す図である。図2Aは、薄いグレーの道路上を走行している車両から撮影された画像の例を示しており、当該道路の左側には濃いグレーの歩道が存在している。また、当該歩道の脇には濃いグレーの建築物が存在している。さらに、歩道上においては、車両の左前方の近傍に歩行者Pが車両と同じ進行方向に向けて移動している。 FIG. 2A is a diagram showing an example of an image captured by the camera 40. FIG. 2A shows an example of an image taken from a vehicle traveling on a light gray road, and there is a dark gray sidewalk on the left side of the road. Additionally, there is a dark gray building beside the sidewalk. Furthermore, on the sidewalk, a pedestrian P is moving near the left front of the vehicle in the same direction as the vehicle.

警告対象検出部21bは、画像に基づいて車両の周囲に存在する警告対象を検出する機能を制御部20に実行させるプログラムモジュールである。すなわち、人および車両を画像から抽出するための特徴量は、予め決められており、制御部20は、カメラ40から出力された各画像から特徴量を抽出し、人および車両の画像を検出する。また、制御部20は、連続して取得された画像のそれぞれから検出された人および車両の画像を比較し、人および車両が移動している場合にこれらの画像を警告対象として取得する。 The warning target detection unit 21b is a program module that causes the control unit 20 to execute a function of detecting a warning target existing around the vehicle based on an image. That is, the feature amounts for extracting people and vehicles from images are determined in advance, and the control unit 20 extracts the feature amounts from each image output from the camera 40 to detect images of people and vehicles. . Further, the control unit 20 compares images of a person and a vehicle detected from each of the continuously acquired images, and acquires these images as a warning target when the person and vehicle are moving.

図2Bは、図2Aに示す例から警告対象が取得された場合の例を示している。この例において、制御部20は、警告対象として取得したオブジェクト(この例では歩行者)を囲む矩形Bを画像上に重ねることで警告対象を取得している。なお、画像内の特徴に基づく移動体の検出は、種々の手法で実施されてよく、例えば、画像から直線を抽出することによって道路を検出し、画像に含まれる路面上のオブジェクトの形状や色、動作等の特徴に基づいて歩行者が検出される構成等を採用可能である。また、画像から直線を抽出することによって道路を検出し、道路に接したタイヤの特徴を有する部分が検出されることで車両が検出される構成や、ヘッドライト等の特徴に基づいて車両が検出される構成などが採用されてもよい。むろん、各種のテンプレートマッチングを利用した検出や、YOLO(You Only Look Once)等の人工知能を利用した検出等が行われてもよい。 FIG. 2B shows an example where a warning target is acquired from the example shown in FIG. 2A. In this example, the control unit 20 acquires the warning target by superimposing a rectangle B surrounding the object (in this example, a pedestrian) acquired as the warning target on the image. Note that detection of a moving object based on features in an image may be performed using various methods. For example, roads are detected by extracting straight lines from the image, and the shape and color of objects on the road surface included in the image are detected. It is possible to adopt a configuration in which pedestrians are detected based on characteristics such as , movement, etc. In addition, roads are detected by extracting straight lines from images, and vehicles are detected by detecting parts with characteristics of tires in contact with the road, and vehicles are detected based on characteristics such as headlights. A configuration may also be adopted. Of course, detection using various template matching, detection using artificial intelligence such as YOLO (You Only Look Once), etc. may be performed.

眼位置検出部21cは、車両の運転者の眼の位置を検出する機能を制御部20に実行させるプログラムモジュールである。すなわち、制御部20は、眼位置検出センサ41の出力に基づいて、利用者の眼の位置を取得する。なお、本実施形態において制御部20は、眼位置検出センサ41の検出結果が表現される座標系から、車両の構造物が表現される座標系への座標変換等を利用し、車両の構造物の3次元形状を表現するための3次元仮想空間内で利用者の眼の位置を特定する。 The eye position detection unit 21c is a program module that causes the control unit 20 to execute a function of detecting the position of the eyes of the vehicle driver. That is, the control unit 20 acquires the position of the user's eyes based on the output of the eye position detection sensor 41. In addition, in this embodiment, the control unit 20 utilizes coordinate transformation from the coordinate system in which the detection results of the eye position detection sensor 41 are expressed to the coordinate system in which the structures of the vehicle are expressed. The position of the user's eyes is specified in a three-dimensional virtual space for expressing the three-dimensional shape of the user.

構造物情報取得部21dは、車両の構造物を示す構造物情報を取得する機能を制御部20に実行させるプログラムモジュールである。すなわち、制御部20は、構造物情報取得部21dの機能により、記録媒体30を参照し、運転者の眼から見て任意の方向に存在する構造物の構造物情報30aを取得することができる。 The structure information acquisition unit 21d is a program module that causes the control unit 20 to execute a function of acquiring structure information indicating the structure of the vehicle. That is, the control unit 20 can refer to the recording medium 30 and acquire the structure information 30a of structures existing in any direction as seen from the driver's eyes by using the function of the structure information acquisition unit 21d. .

警告対象画像取得部21eは、眼の位置と構造物情報30aとに基づいて、運転者から警告対象を見た場合に警告対象および構造物を含む所定領域において視認される画像である警告対象画像を取得する機能を制御部20に実行させるプログラムモジュールである。警告対象画像は、警告対象および構造物を含む所定領域において視認される画像の全てであってもよいし一部であってもよい。本実施形態において警告対象画像は、所定領域の一部の画像、すなわち、運転者から警告対象を見た場合に構造物によって遮蔽されずに視認される部分の画像を示す非遮蔽画像である。制御部20は、運転者の眼の位置に基づいて、カメラ40で撮影された画像の任意の画素がどの視線方向において視認されるのか特定する。具体的には、カメラ40は、車両に固定されているため、任意の眼の位置から見た先にある被写体が画像内でどの位置に存在するのか予め特定することができる。 The warning target image acquisition unit 21e generates a warning target image, which is an image that is visually recognized in a predetermined area including the warning target and the structure when the driver views the warning target, based on the eye position and the structure information 30a. This is a program module that causes the control unit 20 to execute the function of acquiring the . The warning target image may be all or a part of the image visually recognized in a predetermined area including the warning target and the structure. In the present embodiment, the warning target image is a non-obstructed image that shows a part of the predetermined area, that is, a portion of the warning target that is not blocked by a structure and is visible when the driver views the warning target. The control unit 20 specifies, based on the position of the driver's eyes, in which line of sight direction an arbitrary pixel of the image photographed by the camera 40 is viewed. Specifically, since the camera 40 is fixed to the vehicle, it is possible to specify in advance the position of the subject in the image when viewed from any eye position.

本実施形態においては、運転者の眼の位置毎に、視線方向を示すベクトルと、その視線方向で視認される被写体が撮像される画像上の位置とが予め定義されている。当該ベクトルと画像上の位置との対応関係は、予めテーブル等として定義されていてもよいし、関数等によって定義されていてもよい。むろん、対応関係は近似値であってもよい。いずれにしても、制御部20は、運転者の眼の位置に基づいて、任意の視線方向の先に存在する(当該視線方向で視認される)画素を、各視線方向について特定可能である。 In this embodiment, for each position of the driver's eyes, a vector indicating the line-of-sight direction and a position on the image at which a subject viewed in the line-of-sight direction is imaged are defined in advance. The correspondence between the vector and the position on the image may be defined in advance as a table or the like, or may be defined by a function or the like. Of course, the correspondence relationship may be an approximate value. In any case, the control unit 20 can specify, for each line-of-sight direction, a pixel that exists beyond an arbitrary line-of-sight direction (visible in that line-of-sight direction) based on the position of the driver's eyes.

さらに、制御部20は、運転者の視野範囲に含まれる任意の視線方向に構造物が存在するか否かに基づいて警告対象が遮蔽されるか否か特定する。すなわち、運転者の視野範囲は予め決められており、制御部20は、車両の構造物の3次元形状を表現するための3次元仮想空間内で利用者の眼の位置を特定する。 Furthermore, the control unit 20 specifies whether or not the warning target is blocked based on whether or not a structure exists in any line of sight direction included in the driver's field of view. That is, the driver's visual field range is predetermined, and the control unit 20 specifies the position of the user's eyes within a three-dimensional virtual space that represents the three-dimensional shape of the structure of the vehicle.

また、制御部20は、運転者の眼の位置を起点とするベクトルであって、既定角度で角度が変化することで得られる複数のベクトルを定義して、視野範囲の全範囲を網羅する視線方向を定義する。そして、制御部20は、構造物情報30aを参照し、各ベクトルが指す方向に構造物が存在する場合に、利用者の視線は構造物によって遮蔽されるとみなす。 In addition, the control unit 20 defines a plurality of vectors that are obtained by changing the angle at a predetermined angle, which are vectors that start from the position of the driver's eyes, and define a line of sight that covers the entire range of the visual field. Define direction. Then, the control unit 20 refers to the structure information 30a and considers that the user's line of sight is blocked by the structure if a structure exists in the direction pointed by each vector.

そして、制御部20は、構造物によって遮蔽されない視線方向のベクトルを特定し、そのベクトルに対応づけられた画像上の位置を特定し、当該位置の画像が構造物によって遮蔽されずに視認される画像であるとみなす。図2Cは、以上のようにして、構造物によって遮蔽される部位を除外し、構造物に遮蔽されずに視認される画像が得られた状態を例示する図である。すなわち、図2Cにおいては、図2Aに示す画像において、インストルメントパネルやピラー等の構造物によって遮蔽される部分を白抜きで示しており、これら以外の部分が遮蔽されないで視認される様子を示している。 Then, the control unit 20 specifies a vector in the line of sight direction that is not blocked by the structure, specifies a position on the image that is associated with the vector, and the image at the position is visually recognized without being blocked by the structure. It is considered to be an image. FIG. 2C is a diagram illustrating a state in which a portion that is blocked by a structure is excluded and an image that is visible without being blocked by the structure is obtained as described above. That is, in FIG. 2C, in the image shown in FIG. 2A, the portions that are shielded by structures such as the instrument panel and pillars are shown in white, and the portions other than these are shown as being visible without being shielded. ing.

制御部20は、遮蔽されないで視認される部位に含まれる、警告対象の画像を非遮蔽画像として取得する。例えば図2Bのように警告対象が矩形Bとして取得された場合、制御部20は、図3Aのような画像を取得する。なお、本実施形態において、取得された画像において構造物に遮蔽されている部分は、画像の変化を解析する対象とはならない。 The control unit 20 acquires the warning target image, which is included in a part that is visually recognized without being shielded, as a non-shielding image. For example, when the warning target is acquired as a rectangle B as shown in FIG. 2B, the control unit 20 acquires an image as shown in FIG. 3A. Note that in this embodiment, a portion of the acquired image that is blocked by a structure is not a target for analyzing changes in the image.

警告出力部21fは、非遮蔽画像の変化が小さい場合には、変化が大きい場合よりも強い警告を出力する機能を制御部20に実行させるプログラムモジュールである。本実施形態において、制御部20は、非遮蔽画像の変化が既定の基準以下である場合に警告対象に対する警告を出力し、非遮蔽画像の変化が既定の基準よりも大きい場合には警告対象に対する警告を出力しない。 The warning output unit 21f is a program module that causes the control unit 20 to execute a function of outputting a stronger warning when the change in the non-occluded image is small than when the change is large. In this embodiment, the control unit 20 outputs a warning to the warning target when the change in the non-occluded image is less than a predetermined standard, and outputs a warning to the warning target when the change in the non-occluded image is larger than the predetermined standard. Do not output warnings.

すなわち、制御部20は、警告出力部21fの機能により、非遮蔽画像の変化に基づいて警告対象が認識困難であるか否かを判定し、認識困難である場合には警告を出力するが、認識困難ではない場合には警告を出力しない。本実施形態において、制御部20は、非遮蔽画像に含まれるエッジ量、非遮蔽画像のコントラスト、非遮蔽画像の時間変化に基づいて非遮蔽画像の変化量を特定する。本実施形態においては、これらの変化量に対して基準としての閾値が決められており、制御部20は、エッジ量が閾値以下である場合、コントラストが閾値以下である場合、時間変化が閾値以下である場合に、非遮蔽画像の変化が小さいとみなす。 That is, the control unit 20 uses the function of the warning output unit 21f to determine whether or not the warning target is difficult to recognize based on the change in the non-occluded image, and outputs a warning if it is difficult to recognize. No warning is output if it is not difficult to recognize. In the present embodiment, the control unit 20 specifies the amount of change in the non-occluded image based on the amount of edges included in the non-occluded image, the contrast of the unoccluded image, and the temporal change in the unoccluded image. In this embodiment, a threshold value as a reference is determined for these amounts of change, and the control unit 20 determines whether the edge amount is less than the threshold value, the contrast is less than the threshold value, or the time change is less than the threshold value. If , the change in the non-occluded image is considered to be small.

非遮蔽画像の変化が小さいとみなされない場合、制御部20は、案内部42を制御して警告対象に対する警告を出力する。本実施形態において、制御部20は、案内部42を制御し、警告対象が存在する方向の概略を画像で示すとともに、警告音を出力させる。むろん、警告は種々の手法で実施されてよく、例えば、HUD(Head Up Display)等によって警告対象が存在する方向に視線を誘導させるための動画等が表示されてもよい。以上の構成によれば、車両の構造物によって遮蔽された警告対象が視認困難である場合に警告が出力される。従って、視認困難な警告対象であっても視認できる可能性が高くなる。 If the change in the non-occluded image is not deemed to be small, the control unit 20 controls the guide unit 42 to output a warning to the warning target. In the present embodiment, the control unit 20 controls the guide unit 42 to display an outline of the direction in which the warning target is present as an image and to output a warning sound. Of course, the warning may be given in various ways. For example, a moving image or the like may be displayed on a HUD (Head Up Display) or the like to guide the line of sight in the direction of the warning target. According to the above configuration, a warning is output when the warning target is difficult to see because it is blocked by the structure of the vehicle. Therefore, even if the warning target is difficult to visually recognize, there is a high possibility that it will be visible.

(2)運転支援処理:
次に、図3Cに示すフローチャートに基づいて制御部20が実行する運転支援処理を説明する。運転支援システム10が起動されると、制御部20は、一定期間毎(例えば、100ms毎)に運転支援処理を実行する。運転支援処理が実行されると、制御部20は、画像取得部21aの機能により、画像を取得する(ステップS100)。すなわち、制御部20は、カメラ40が出力する画像データを取得し、記録媒体30等に記憶させる。以上の処理により、例えば、図2Aに示す図のような画像が取得される。
(2) Driving support processing:
Next, the driving support process executed by the control unit 20 will be described based on the flowchart shown in FIG. 3C. When the driving support system 10 is activated, the control unit 20 executes driving support processing at regular intervals (for example, every 100 ms). When the driving support process is executed, the control unit 20 acquires an image using the function of the image acquisition unit 21a (step S100). That is, the control unit 20 acquires image data output by the camera 40 and stores it in the recording medium 30 or the like. Through the above processing, for example, an image as shown in FIG. 2A is obtained.

次に、制御部20は、警告対象検出部21bの機能により、警告対象を取得する(ステップS105)。すなわち、制御部20は、ステップS100で取得した画像データから警告対象の特徴量を抽出し、特徴量に基づいて警告対象を取得する。以上の処理により、例えば、図2Bに示すように警告対象の画像が特定される。 Next, the control unit 20 acquires a warning target using the function of the warning target detection unit 21b (step S105). That is, the control unit 20 extracts the feature amount of the warning target from the image data acquired in step S100, and acquires the warning target based on the feature amount. Through the above processing, the image to be warned is identified, for example, as shown in FIG. 2B.

次に、制御部20は、眼位置検出部21cの機能により、運転者の眼の位置を取得する(ステップS110)。すなわち、制御部20は、眼位置検出センサ41の出力に基づいて、利用者の眼の位置を取得し、座標変換によって、車両の構造物の3次元形状を表現するための3次元仮想空間内で利用者の眼の位置を特定する。 Next, the control unit 20 acquires the position of the driver's eyes using the function of the eye position detection unit 21c (step S110). That is, the control unit 20 acquires the position of the user's eyes based on the output of the eye position detection sensor 41, and uses coordinate transformation to determine the position within the three-dimensional virtual space for expressing the three-dimensional shape of the structure of the vehicle. to identify the position of the user's eyes.

次に、制御部20は、構造物情報取得部21dの機能により、構造物情報30aを取得する(ステップS115)。すなわち、制御部20は、すなわち、制御部20は、構造物情報取得部21dの機能により、記録媒体30から構造物情報30aを取得する。 Next, the control unit 20 acquires the structure information 30a using the function of the structure information acquisition unit 21d (step S115). That is, the control unit 20 acquires the structure information 30a from the recording medium 30 using the function of the structure information acquisition unit 21d.

次に、制御部20は、警告対象画像取得部21eの機能により、運転者に視認される部分を画像から取得する(ステップS120)。すなわち、制御部20は、ステップS110で取得された運転者の眼の位置に基づいて、眼の位置を起点とする各視線方向の先に存在するオブジェクトが撮像される画像上の位置を特定する。 Next, the control unit 20 uses the function of the warning target image acquisition unit 21e to acquire a portion visually recognized by the driver from the image (step S120). That is, the control unit 20 specifies, based on the driver's eye position acquired in step S110, the position on the image where an object existing in each line of sight direction starting from the eye position is imaged. .

そして、制御部20は、ステップS115で取得された構造物情報30aに基づいて、視線方向の先に構造物が存在する場合に、当該視線方向の先に存在するオブジェクトは構造物で遮蔽されるとみなす。以上の処理により、図2Cに示されるように、画像内で構造物に遮蔽された部分と、遮蔽されていない部分とが特定された状態となる。 Then, based on the structure information 30a acquired in step S115, the control unit 20 determines that if a structure exists ahead of the viewing direction, the object existing ahead of the viewing direction is blocked by the structure. regarded as. As a result of the above processing, as shown in FIG. 2C, the portions of the image that are blocked by the structure and the portions that are not blocked are identified.

次に、制御部20は、警告対象画像取得部21eの機能により、非遮蔽画像を取得する(ステップS125)。すなわち、制御部20は、警告対象として取得された部分から構造物を除外した残りの部分を非遮蔽画像として取得する。例えば、図2Bに示す例であれば、矩形Bに相当する範囲からピラー等の構造物の画像(図3Aに示すIp)を除外した残りが図3Aに示すように非遮蔽画像となる。 Next, the control unit 20 uses the function of the warning target image acquisition unit 21e to acquire a non-obscured image (step S125). That is, the control unit 20 removes the structure from the portion acquired as a warning target and acquires the remaining portion as a non-occluded image. For example, in the example shown in FIG. 2B, the image of a structure such as a pillar (Ip shown in FIG. 3A) is excluded from the range corresponding to rectangle B, and the remainder becomes a non-occluded image as shown in FIG. 3A.

次に、制御部20は、警告出力部21fの機能により、認識困難度を判定する(ステップS130)。本実施形態において、制御部20は、非遮蔽画像に含まれるエッジ量、非遮蔽画像のコントラスト、非遮蔽画像の時間変化に基づいて非遮蔽画像の変化量を特定する。そこで、制御部20は、非遮蔽画像のエッジ量を特定する。エッジ量は、画像内で近接する画素同士の濃淡の差が大きいほど大きくなる値であり、例えば、単位面積あたりの濃淡変化(階調値のばらつき)が大きいほど大きくなる値である。このような値としては、例えば、公知の各種のフィルタ(例えば、Sobelフィルタ,Prewittフィルタ,Robertsフィルタ,Laplacianフィルタ等)で取得することができる。この場合、非遮蔽画像内の画素に対してフィルタを作用させ、その和や平均等の統計値を取得することによって非遮蔽画像のエッジ量を取得することができる。 Next, the control unit 20 determines the recognition difficulty level using the function of the warning output unit 21f (step S130). In the present embodiment, the control unit 20 specifies the amount of change in the non-occluded image based on the amount of edges included in the non-occluded image, the contrast of the unoccluded image, and the temporal change in the unoccluded image. Therefore, the control unit 20 specifies the edge amount of the non-occluded image. The edge amount is a value that increases as the difference in shading between adjacent pixels in an image increases. For example, the edge amount increases as the shading change (dispersion in gradation value) per unit area increases. Such a value can be obtained using, for example, various known filters (eg, Sobel filter, Prewitt filter, Roberts filter, Laplacian filter, etc.). In this case, the edge amount of the non-occluded image can be obtained by applying a filter to pixels in the non-occluding image and obtaining statistical values such as the sum and average.

むろん、エッジ量は、他にも種々の手法で特定されてよく、例えば、隣接画素同士の階調値の差が閾値以上の画素をエッジ画素、差が閾値よりも小さい画素を非エッジ画素とみなし、単位面積あたりのエッジ画素の数やエッジ画素の比率等をエッジ量とみなしてもよい。いずれにしても、エッジ量が多い場合は警告対象の模様や形状が複雑であり、エッジ量が少ない場合は警告対象の模様や形状は単純である。従って、運転者は、エッジ量が少ない場合、多い場合よりも警告対象の存在や移動に気づきにくい。 Of course, the edge amount may be specified using various other methods. For example, a pixel in which the difference in gradation value between adjacent pixels is equal to or greater than a threshold value is defined as an edge pixel, and a pixel in which the difference is smaller than the threshold value is defined as a non-edge pixel. Alternatively, the number of edge pixels per unit area, the ratio of edge pixels, etc. may be regarded as the edge amount. In any case, if the amount of edges is large, the pattern or shape of the warning target is complex, and if the amount of edges is small, the pattern or shape of the warning target is simple. Therefore, when the amount of edges is small, the driver is less likely to notice the existence or movement of the warning target than when the amount of edges is large.

そこで、制御部20は、エッジ量が予め決められた閾値より少ない場合に、非遮蔽画像の変化が小さく認識困難であると判定し、エッジ量が予め決められた閾値以上である場合に非遮蔽画像の変化が大きく認識困難ではないと判定する。 Therefore, the control unit 20 determines that the change in the non-occluded image is small and difficult to recognize when the edge amount is less than a predetermined threshold, and determines that the non-occluded image is difficult to recognize when the edge amount is greater than or equal to the predetermined threshold. It is determined that the change in the image is not large enough to be difficult to recognize.

さらに、制御部20は、非遮蔽画像のコントラストを特定する。コントラストは、画像内全体で濃淡の差異が大きいほど大きくなる値であり、例えば、非遮蔽画像内に含まれる画素毎の階調値のヒストグラムにおける分布の広がりが大きいほど大きくなる値である。このような値としては、例えば、ヒストグラムの標準偏差や分布の幅、階調値の最大値と最小値の差等が挙げられる。むろん、分布が解析される際に、ヒストグラムが閾値以下の階調値については解析対象外とされてもよい。 Furthermore, the control unit 20 specifies the contrast of the non-occluded image. The contrast is a value that increases as the difference in shading increases within the entire image; for example, the contrast increases as the distribution of tone values in a histogram for each pixel included in a non-occluded image increases. Examples of such values include the standard deviation of the histogram, the width of the distribution, and the difference between the maximum and minimum gradation values. Of course, when the distribution is analyzed, tone values whose histogram is less than or equal to the threshold may be excluded from the analysis.

いずれにしても、コントラストが大きい場合は警告対象の存在が目立ちやすく、コントラストが小さい場合は警告対象の存在が目立ちにくい。例えば、図2Bに示す例において取得された非遮蔽画像である図3Aにおいて、警告対象である歩行者はバックパックを背負っている。一方、図3Bに示す例においては、図3Aと同一の歩行者がバックパックを背負っていない。両者を比較すると、図3Aにおいてはバックパックが警告対象の体や周囲の色と異なるためコントラストが大きい。一方、図3Bにおいてはバックパックが無いため図3Aと比較するとコントラストが小さい。 In any case, when the contrast is high, the existence of the warning target is more noticeable, and when the contrast is low, the existence of the warning target is less noticeable. For example, in FIG. 3A, which is an unoccluded image obtained in the example shown in FIG. 2B, the pedestrian who is the object of the warning is carrying a backpack. On the other hand, in the example shown in FIG. 3B, the same pedestrian as in FIG. 3A is not carrying a backpack. Comparing the two, in FIG. 3A, the contrast is large because the color of the backpack is different from the body of the warning target and the surroundings. On the other hand, since there is no backpack in FIG. 3B, the contrast is small compared to FIG. 3A.

このように、コントラストが大きい場合は警告対象の存在が目立ちやすく、コントラストが小さい場合は警告対象の存在が目立ちにくいといえる。従って、運転者は、コントラストが小さい場合、大きい場合よりも警告対象の存在や移動に気づきにくい。そこで、制御部20は、コントラストが予め決められた閾値より小さい場合に、非遮蔽画像の変化が小さく認識困難であると判定し、コントラストが予め決められた閾値以上である場合に非遮蔽画像の変化が大きく認識困難ではないと判定する。 In this way, it can be said that when the contrast is high, the existence of the warning target is more noticeable, and when the contrast is low, the existence of the warning target is less noticeable. Therefore, when the contrast is small, the driver is less likely to notice the presence or movement of the warning target than when the contrast is large. Therefore, when the contrast is smaller than a predetermined threshold, the control unit 20 determines that the change in the non-occluded image is small and difficult to recognize, and when the contrast is equal to or higher than the predetermined threshold, the control unit 20 determines that the change in the non-occluded image is difficult to recognize. It is determined that the change is large enough that it is not difficult to recognize.

さらに、制御部20は、非遮蔽画像の時間変化を特定する。時間変化は、時系列で連続する静止画同士を比較した場合に警告対象の画像において生じた変化が大きいほど大きくなる値である。例えば、非遮蔽画像の移動速度が時間変化を示しているとみなすことができる。このような移動速度は、例えば、時系列で連続する画像から取得された非遮蔽画像の位置が移動する移動速度等によって取得可能である。むろん、時間変化は、他にも種々の手法で取得されてよく、例えば、非遮蔽画像の大きさの変化(図3Aのようにして取得された矩形Bの中で非遮蔽画像である部分(ピラー等の構造物以外の部分)の大きさの変化)等であってもよい。 Furthermore, the control unit 20 identifies temporal changes in the non-occluded images. The time change is a value that increases as the change that occurs in the image to be warned increases when comparing still images that are continuous in time series. For example, it can be considered that the moving speed of the non-occluded image shows a change over time. Such a moving speed can be obtained, for example, by the moving speed at which the position of a non-occluded image acquired from images that are consecutive in time series moves. Of course, the temporal change may be obtained by various other methods, for example, the change in the size of the non-occluded image (the portion of the non-occluded image in the rectangle B obtained as shown in FIG. 3A). It may also be a change in the size of a portion other than a structure such as a pillar.

いずれにしても、時間変化が大きい場合は警告対象の存在が目立ちやすく、時間変化が小さい場合は警告対象の存在が目立ちにくい。従って、運転者は、時間変化が小さい場合、大きい場合よりも警告対象の存在や移動に気づきにくい。そこで、制御部20は、時間変化が予め決められた閾値より小さい場合に、非遮蔽画像の変化が小さく認識困難であると判定し、時間変化が予め決められた閾値以上である場合に非遮蔽画像の変化が大きく認識困難ではないと判定する。 In any case, when the time change is large, the existence of the warning target is easily noticeable, and when the time change is small, the existence of the warning target is less noticeable. Therefore, when the time change is small, the driver is less likely to notice the existence or movement of the warning target than when it is large. Therefore, the control unit 20 determines that the change in the non-occluded image is small and difficult to recognize when the temporal change is smaller than a predetermined threshold, and determines that the non-occluded image is difficult to recognize when the temporal change is greater than or equal to the predetermined threshold. It is determined that the change in the image is not large enough to be difficult to recognize.

認識困難であるか否かを示す認識困難度の判定が行われると、制御部20は、警告出力部21fの機能により、認識困難度に応じた警告を出力する(ステップS135)。本実施形態においては、認識困難であると判定された場合に警告が出力され、認識困難であると判定されない場合に警告は出力されない。そこで、制御部20は、ステップS130における判定結果が、認識困難であることを示している場合、案内部42を制御して警告対象に対する警告を出力する。ステップS130における判定結果が、認識困難であることを示していない場合、本実施形態においては警告が行われない。 When the recognition difficulty level indicating whether recognition is difficult is determined, the control unit 20 outputs a warning according to the recognition difficulty level using the function of the warning output unit 21f (step S135). In this embodiment, a warning is output when it is determined that recognition is difficult, and no warning is output when it is determined that recognition is not difficult. Therefore, if the determination result in step S130 indicates that recognition is difficult, the control unit 20 controls the guide unit 42 to output a warning for the warning target. If the determination result in step S130 does not indicate that recognition is difficult, no warning is given in this embodiment.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、他にも種々の実施形態を採用可能である。例えば、運転支援システムは、複数の装置(例えば、クライアントとサーバや、ナビゲーション装置内の制御部とカメラ内の制御部等)によって実現されるシステムであっても良い。
(3) Other embodiments:
The above embodiment is an example for implementing the present invention, and various other embodiments can be adopted. For example, the driving support system may be a system realized by a plurality of devices (for example, a client and a server, a control section in a navigation device, a control section in a camera, etc.).

運転支援システムを構成する画像取得部21a、警告対象検出部21b、眼位置検出部21c、構造物情報取得部21d、警告対象画像取得部21e、警告出力部21fの少なくとも一部が複数の装置に分かれて存在しても良い。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。例えば、図3Cに示す運転支援処理において、ステップS100~S105の処理とステップS110~S115の処理とで順序が入れ替わるなどの変動があっても良い。 At least some of the image acquisition unit 21a, warning target detection unit 21b, eye position detection unit 21c, structure information acquisition unit 21d, warning target image acquisition unit 21e, and warning output unit 21f that constitute the driving support system are installed in multiple devices. It may exist separately. Of course, some of the configurations of the embodiments described above may be omitted, and the order of processing may be varied or omitted. For example, in the driving support process shown in FIG. 3C, there may be variations such as the order of the processes in steps S100 to S105 and the processes in steps S110 to S115 being switched.

さらに、ステップS130における認識困難度の判定は、上述の実施形態のような判定に限定されない。例えば、非遮蔽画像の周囲の画像も含めて認識困難度が解析されてもよい。この場合、制御部20は、図3Cに示す運転支援処理において、ステップS125の代わりに、警告対象として特定された画像とその周辺の既定範囲の画像を取得する処理を行う。この場合、制御部20は、例えば、図3Dのような画像を取得する。 Furthermore, the determination of the degree of recognition difficulty in step S130 is not limited to the determination as in the above-described embodiment. For example, the recognition difficulty level may be analyzed including images surrounding the non-occluded image. In this case, in the driving support process shown in FIG. 3C, the control unit 20 performs a process of acquiring an image specified as a warning target and a predetermined range of images around the image, instead of step S125. In this case, the control unit 20 acquires an image as shown in FIG. 3D, for example.

なお、ここでも、構造物に遮蔽されている部分は、画像の変化を解析する対象とはならない。また、警告対象の周囲の範囲を示す既定範囲は予め決められた大きさの範囲であれば良く、例えば警告対象を示す矩形(図2Bに示す矩形B)の辺の長さ等から決められてよい。 Note that, also here, portions that are blocked by structures are not subject to analysis of changes in the image. Further, the predetermined range indicating the area around the warning target may be a range of a predetermined size, for example, it may be determined from the length of the side of the rectangle (rectangle B shown in FIG. 2B) indicating the warning target. good.

認識困難度を評価するための要素も、上述のような非遮蔽画像に含まれるエッジ量、非遮蔽画像のコントラスト、非遮蔽画像の時間変化に限定されない。例えば、非遮蔽画像とその周辺の画像とのコントラスト、非遮蔽画像の形、眼の位置から警告対象を見た場合の視線方向の角速度、眼の位置から正面を見た場合の視線方向と警告対象を見る場合の視線方向との角度差、構造物と非遮蔽画像とのコントラスト等が要素となってよい。 The factors for evaluating the degree of recognition difficulty are not limited to the amount of edges included in the non-occluded image, the contrast of the non-occluded image, and the temporal change of the unoccluded image as described above. For example, the contrast between the unoccluded image and its surrounding images, the shape of the unoccluded image, the angular velocity in the line of sight when looking at the warning target from the eye position, the line of sight direction and warning when looking straight ahead from the eye position The factors may be the angular difference from the line of sight direction when viewing the target, the contrast between the structure and the non-occluded image, and the like.

さらに、認識困難度を判定するための手法も、上述のような閾値による判定に限定されない。例えば、機械学習を利用することができる。図3Eは、機械学習モデルを模式的に示している。機械学習モデルは、各種のモデルによって構築可能であり、例えば、SVR(support vector regression)、SVM(support vector machine)、ニューラルネットワークなどを利用可能である。 Furthermore, the method for determining the recognition difficulty level is not limited to the determination using the threshold value as described above. For example, machine learning can be used. FIG. 3E schematically shows the machine learning model. The machine learning model can be constructed using various models, and for example, SVR (support vector regression), SVM (support vector machine), neural network, etc. can be used.

いずれにしても、各種のモデルに対する入力データとして、例えば、上述の非遮蔽画像におけるエッジ量、コントラスト、時間変化や、非遮蔽画像とその周辺の画像とのコントラスト、非遮蔽画像の形、眼の位置から警告対象を見た場合の視線方向の角速度、眼の位置から正面を見た場合の視線方向と警告対象を見る場合の視線方向との角度差、構造物と非遮蔽画像とのコントラスト等の少なくとも一つが挙げられる。出力データとしては、認識困難度が挙げられる。 In any case, the input data for various models includes, for example, the edge amount, contrast, and temporal change in the non-occluded image, the contrast between the non-occluded image and its surrounding images, the shape of the non-occluded image, and the shape of the eye. The angular velocity of the line of sight when looking at the warning target from the position, the angular difference between the line of sight when looking straight ahead from the eye position and the line of sight when looking at the warning target, the contrast between the structure and the unoccluded image, etc. At least one of these is mentioned. The output data includes recognition difficulty level.

認識困難度は、例えば、ある非遮蔽画像(または非遮蔽画像とその周囲の画像)を運転席から見た場合に認識困難であるか否かを多数の人間が試行した上でヒアリングし、認識困難と回答した人数を全人数で除した値等で定義することができる。このような認識困難度を、複数の画像に対して対応づければ、機械学習の基になる教師データが生成される。そこで、画像から抽出した入力データによって得られる出力データが、教師データにおける認識困難度に近づくように機械学習を行えば、認識困難度を出力する機械学習モデルを生成することができる。 The recognition difficulty level is calculated by asking a large number of people to try and find out whether or not it is difficult to recognize a certain non-occluded image (or non-occluded image and surrounding images) when viewed from the driver's seat. It can be defined as the number of people who answered that it was difficult divided by the total number of people. By associating such recognition difficulty levels with multiple images, training data that becomes the basis for machine learning is generated. Therefore, by performing machine learning so that the output data obtained from the input data extracted from the image approaches the recognition difficulty level in the teacher data, it is possible to generate a machine learning model that outputs the recognition difficulty level.

このような機械学習モデルを予め生成し、記録媒体30に記録しておけば、図3Cに示す運転支援処理のステップS130において、制御部20が非遮蔽画像(または非遮蔽画像とその周囲の画像)に基づいて入力データを取得し、機械学習モデルに入力することにより、認識困難性を判定することができる。むろん、認識困難性は、認識困難であるか否かによって示されてもよいし、認識困難な程度が複数段階のレベルや数値の大きさによって示されてもよい。後者であれば、制御部20は、レベルや数値の大きさに応じて警告の強度を変化させる。 If such a machine learning model is generated in advance and recorded on the recording medium 30, the control unit 20 can generate a non-occluded image (or a non-occluded image and its surrounding images) in step S130 of the driving support process shown in FIG. 3C. ), the recognition difficulty can be determined by acquiring input data and inputting it to a machine learning model. Of course, the difficulty of recognition may be indicated by whether or not it is difficult to recognize, or the degree of difficulty of recognition may be indicated by multiple levels or numerical values. If it is the latter, the control unit 20 changes the strength of the warning depending on the level and the size of the numerical value.

さらに、運転支援システムにおける警告の出力は、警告の表示以外の用途に利用されても良い。例えば、警告の強度を示す情報を他の装置等に出力して利用可能に構成されていても良い。より具体的には、警告の強度を示す情報が車両制御装置に出力され、警告の強度を示す情報に基づいて車両制御装置が車両を制御する構成等が挙げられる。車両制御の手法としては、種々の手法が採用されてよく、例えば、警告の強度が強い警告対象が存在するほど、警告対象に近づく際の車速を低速にするなどの構成が挙げられる。 Furthermore, the warning output from the driving support system may be used for purposes other than warning display. For example, the information indicating the strength of the warning may be output to another device or the like so that it can be used. More specifically, there may be a configuration in which information indicating the intensity of the warning is output to the vehicle control device, and the vehicle control device controls the vehicle based on the information indicating the intensity of the warning. Various methods may be adopted as the vehicle control method, such as a configuration in which the stronger the warning object is, the slower the vehicle speed is when approaching the warning object.

さらに、警告の出力先は、警告対象であってもよい。例えば、図2Aに示す例であれば、歩行者Pが携帯している携帯端末に対して警告の強度を示す情報を出力する構成が挙げられる。この場合、携帯端末は、警告の強度が強いほど強い警告を携帯端末の所有者に対して出力する。この構成によれば、警告対象に対して、注意喚起をすることが可能である。 Furthermore, the output destination of the warning may be the warning target. For example, in the example shown in FIG. 2A, there is a configuration in which information indicating the strength of the warning is output to a mobile terminal carried by the pedestrian P. In this case, the mobile terminal outputs a stronger warning to the owner of the mobile terminal as the strength of the warning increases. According to this configuration, it is possible to call attention to the warning target.

画像取得部は、車両の周囲の画像を取得することができればよい。すなわち、警告対象が存在し得る空間の画像を取得することができればよい。例えば、運転者よりも前方に警告対象が存在し得る場合には、車両の前方の画像が取得される。また、運転者の側方や後方に警告対象が存在し得るならば、車両の側方や後方の画像が取得されてもよい。画像は、種々の手法で取得されてよく、カメラや各種のセンサ等で取得されてもよい。すなわち、警告対象における非遮蔽画像が取得可能であり、その変化を取得可能であれば各種の手法で画像が取得されてよい。画像が取得される範囲も限定されず、車両の近傍から遠方までが画像の取得対象であってもよいし、特定の範囲が画像の取得範囲であってもよいし、カメラやセンサによる検出範囲が画像を取得可能な範囲であってもよい。 The image acquisition unit only needs to be able to acquire images of the surroundings of the vehicle. That is, it is only necessary to be able to acquire an image of a space where the warning target may exist. For example, if a warning target may exist ahead of the driver, an image of the front of the vehicle is acquired. Furthermore, if there is a possibility that a warning target exists on the side or rear of the driver, images of the side or rear of the vehicle may be acquired. The image may be acquired by various methods, and may be acquired by a camera, various sensors, or the like. That is, as long as a non-occluded image of the warning target can be acquired and a change in the image can be acquired, the image may be acquired by various methods. The range in which images are acquired is not limited, and images may be acquired from near the vehicle to far away, a specific range may be the image acquisition range, or the detection range by a camera or sensor may be a range in which images can be obtained.

警告対象検出部は、画像に基づいて車両の周囲に存在する警告対象を検出することができればよい。すなわち、車両の周囲の画像を解析すれば、画像の特徴量等に基づいて当該画像に含まれる物体を検出することができる。警告対象は、各種の物体であってよい。従って、上述の実施形態のように、人と車両とが警告対象である構成に限定されず、犬や猫等の動物や、各種の施設(例えば、運転者から見た場合に死角が生じる施設)等であってもよい。また、警告対象は、移動体に限定されてもよいし、静止物体が含まれてもよい。 The warning target detection unit only needs to be able to detect a warning target existing around the vehicle based on the image. That is, by analyzing an image around the vehicle, it is possible to detect an object included in the image based on the feature amount of the image. The warning target may be various objects. Therefore, the warning target is not limited to people and vehicles as in the above-described embodiment, but also animals such as dogs and cats, and various facilities (for example, facilities where a blind spot occurs when viewed from the driver). ) etc. may be used. Further, the warning target may be limited to moving objects or may include stationary objects.

眼位置検出部は、車両の運転者の眼の位置を検出することができればよい。例えば、上述の実施形態のように、利用者の眼を撮影するカメラの出力に基づいて運転者の眼の位置を特定してもよいし、各種カメラやセンサ等によって運転者の顔や体のシルエット等を特定し、その内部の眼の位置を特定してもよく、種々の構成を採用可能である。検出対象となる眼は1個であっても良いし、2個であっても良い。2個の眼の位置が検出される場合、それぞれの眼について非遮蔽画像が取得されてもよいし、2個の眼の位置を統計した位置に基づいて非遮蔽画像が取得されてもよい。また、利き眼によるバイアスに基づいて眼の位置が検出されてもよい。 The eye position detection section only needs to be able to detect the position of the eyes of the driver of the vehicle. For example, as in the embodiment described above, the position of the driver's eyes may be identified based on the output of a camera that photographs the user's eyes, or the position of the driver's face and body may be determined using various cameras or sensors. A silhouette or the like may be specified and the position of the eye within the silhouette may be specified, and various configurations can be adopted. The number of eyes to be detected may be one or two. When the positions of two eyes are detected, an unoccluded image may be acquired for each eye, or an unoccluded image may be acquired based on the statistical position of the two eyes. Furthermore, the position of the eye may be detected based on a bias due to the dominant eye.

構造物情報取得部は、車両の構造物を示す構造物情報を取得することができればよい。すなわち、構造物情報取得部は、車運転者の視線を遮る構造物と視線を遮らない部分とが特定可能な構造物情報を取得することができ、この結果、非遮蔽画像を取得することができればよい。従って、構造物情報は、上述の実施形態のように、3次元空間内で構造物の3次元形状を特定可能な情報以外にも、種々の情報であってよい。例えば、構造物情報は、運転者の眼の位置から見た構造物のシルエットの形状及び位置を示す情報等であってもよい。 The structure information acquisition unit only needs to be able to acquire structure information indicating the structure of the vehicle. That is, the structure information acquisition unit can acquire structure information that allows identification of structures that block the line of sight of the vehicle driver and parts that do not block the line of sight, and as a result, it is possible to acquire a non-obstructed image. I wish I could. Therefore, the structure information may be various types of information other than the information that allows the three-dimensional shape of the structure to be specified in the three-dimensional space as in the above-described embodiment. For example, the structure information may be information indicating the silhouette shape and position of the structure as seen from the position of the driver's eyes.

警告対象画像取得部は、眼の位置と構造物情報とに基づいて、運転者から警告対象を見た場合に警告対象および構造物を含む所定領域において視認される画像である警告対象画像を取得することができればよい。警告対象画像は、警告対象を含む画像であれば良く、警告対象画像が上述の非遮蔽画像である場合には、構造物によって遮蔽されずに視認される部分の画像を示す非遮蔽画像が取得されればよい。すなわち、眼の位置が特定されると、運転者の視線方向が任意の方向について、視線方向に構造物が存在するか否か特定可能である。そして、視線方向に構造物が存在する場合にその視線方向は遮蔽され、視線方向に構造物が存在しない場合にその視線方向は遮蔽されていないとみなすことができる。 The warning target image acquisition unit acquires a warning target image, which is an image that is visible in a predetermined area including the warning target and the structure when the driver looks at the warning target, based on the eye position and the structure information. It's fine if you can. The warning target image may be any image that includes the warning target, and if the warning target image is the above-mentioned non-occluded image, a non-occluded image showing a portion of the image that is visible without being obstructed by a structure is obtained. It is fine if it is done. That is, once the position of the eyes is specified, it is possible to specify whether a structure exists in the direction of the driver's line of sight for any direction. If a structure exists in the line-of-sight direction, the line-of-sight direction can be considered to be blocked, and if no structure exists in the line-of-sight direction, the line-of-sight direction can be considered to be unobstructed.

また、車両に取り付けられたカメラ等のセンサ位置および画角等に基づいて、車両の周囲の画像に含まれる被写体のそれぞれと車両との相対位置関係が特定される。このため、車両内に存在する運転者の眼の位置から見た任意の視線方向の延長線上にある画像の位置(画素)を特定可能である。そこで、警告対象画像取得部は、全ての視線方向から構造物によって遮蔽される視線方向を除外した残りの視線方向の延長線上に警告対象の画像が存在する場合に、当該画像を非遮蔽画像として特定可能である。 Furthermore, the relative positional relationship between the vehicle and each of the objects included in the image around the vehicle is specified based on the position and angle of view of a sensor such as a camera attached to the vehicle. Therefore, it is possible to specify the position (pixel) of the image on the extension line of any line of sight seen from the position of the driver's eyes within the vehicle. Therefore, when the warning target image exists on the extension line of the remaining line of sight direction excluding the line of sight direction blocked by the structure from all the line of sight directions, the warning target image acquisition unit selects the image as a non-obstructed image. Identifiable.

むろん、以上のような非遮蔽画像の特定は、リアルタイムで実施されてもよいし、予め実行された処理に基づいて行われてもよい。すなわち、運転者が運転中に眼の位置が検出され、当該検出結果と構造物情報とに基づいてリアルタイムに非遮蔽画像が特定されてもよい。また、複数の眼の位置のそれぞれについて、画像内で遮蔽されない部分を特定して記録媒体に記録しておき、運転者の運転中に眼の位置に基づいて画像内で遮蔽されない部分が特定されてもよい。この場合、遮蔽されない部分に警告対象が存在すれば、当該部分に重なる警告対象の画像が非遮蔽画像となる。 Of course, the identification of non-occluded images as described above may be performed in real time, or may be performed based on processing performed in advance. That is, the position of the eyes of the driver may be detected while the driver is driving, and the non-occluded image may be specified in real time based on the detection result and the structure information. In addition, for each of the multiple eye positions, the unobstructed part in the image is identified and recorded on a recording medium, and the unobstructed part in the image is identified based on the eye position while the driver is driving. It's okay. In this case, if a warning target exists in a portion that is not shielded, an image of the warning target that overlaps the portion becomes a non-shielded image.

警告対象画像は、警告対象が視認困難であるか否かを判定するための画像であれば良い。上述の実施形態において警告対象画像は、警告対象および構造物を含む所定領域の一部であったが、その全部であってもよい。具体的には、上述の実施形態と同様の構成において制御部20が警告対象画像取得部21eの機能により、所定領域として矩形B(図2B参照)を取得する。 The warning target image may be any image for determining whether the warning target is difficult to see. In the above-described embodiment, the warning target image is a part of the predetermined area including the warning target and the structure, but it may be the entire area. Specifically, in the same configuration as the above embodiment, the control unit 20 uses the function of the warning target image acquisition unit 21e to acquire a rectangle B (see FIG. 2B) as the predetermined area.

さらに、制御部20は、警告対象画像取得部21eの機能により、車両の構造物の3次元形状を表現するための3次元仮想空間内で利用者の眼の位置を特定する。さらに、制御部20は、警告対象画像取得部21eの機能により、運転者の眼の位置を起点とするベクトルであって、既定角度で角度が変化することで得られる複数のベクトルを定義して、視野範囲の全範囲を網羅する視線方向を定義する。そして、制御部20は、警告対象画像取得部21eの機能により、構造物情報30aを参照し、各ベクトルが指す方向に構造物が存在する場合に、運転者の視線は構造物によって遮蔽されるとみなす。図2Bに示すような画像がカメラ40から取得され、構造物による遮蔽によって運転者から図2Cのように見える場合、運転者から見た場合の所定領域は、図4に示すような領域Bとなる。当該領域の画像である警告対象画像は、例えば、警告対象を含む領域Bの中で,構造物によって遮蔽される部分を既定の色(例えば、全色成分が飽和した白:(R,G,B)=(255,255,255))とするなどの処理で定義することが可能である。 Further, the control unit 20 uses the function of the warning target image acquisition unit 21e to specify the position of the user's eyes within the three-dimensional virtual space for expressing the three-dimensional shape of the structure of the vehicle. Further, the control unit 20 uses the function of the warning target image acquisition unit 21e to define a plurality of vectors that have the driver's eye position as a starting point and that are obtained by changing the angle at a predetermined angle. , defines a line-of-sight direction that covers the entire viewing range. Then, the control unit 20 uses the function of the warning target image acquisition unit 21e to refer to the structure information 30a, and when a structure exists in the direction indicated by each vector, the driver's line of sight is blocked by the structure. regarded as. When an image as shown in FIG. 2B is obtained from the camera 40 and appears to the driver as shown in FIG. 2C due to shielding by a structure, the predetermined area as seen from the driver is area B as shown in FIG. Become. In the warning target image, which is an image of the area, for example, in the area B including the warning target, the part blocked by the structure is painted in a predetermined color (for example, white in which all color components are saturated: (R, G, B) = (255, 255, 255)).

このように警告対象画像が取得されると、制御部20は、警告出力部21fの昨日により、当該警告対象画像に基づいて認識困難度を判定する。以上の処理において、所定領域内に含まれる構造物の画像は、画像内および短い時間内でほとんど変化しない。従って、所定領域の警告対象画像の変化に基づいて認識困難度を判定することにより、主に非遮蔽物についての認識困難度を定義することができる。そして、認識困難度に応じて警告を出力することにより、視認困難な警告対象であっても運転者が視認できる可能性が高くなる。なお、構造物による遮蔽の影響を特定するために取得されるベクトルは、視野範囲の全範囲を網羅する視線方向でなくてもよく、例えば、所定領域を指すベクトルについて取得され、所定領域を指さないベクトルについては取得されなくてもよい。 When the warning target image is acquired in this way, the control unit 20 determines the recognition difficulty level based on the warning target image based on the previous day of the warning output unit 21f. In the above processing, the image of the structure included in the predetermined area hardly changes within the image and within a short period of time. Therefore, by determining the recognition difficulty level based on the change in the warning target image in a predetermined area, it is possible to define the recognition difficulty level mainly for non-obscuring objects. By outputting a warning according to the recognition difficulty level, there is a high possibility that the driver will be able to visually recognize even a warning target that is difficult to visually recognize. Note that the vectors obtained to identify the influence of occlusion by structures do not have to be in the line-of-sight direction that covers the entire visual range; for example, vectors that are obtained for vectors pointing to a predetermined area, Vectors that do not need to be acquired do not need to be acquired.

警告出力部は、非遮蔽画像の変化が小さい場合には、変化が大きい場合よりも強い警告を出力することができればよい。すなわち、警告出力部は、非遮蔽画像の変化が小さいほど視認困難であるとみなす。この構成により、同じ警告対象において遮蔽率が類似している状態であっても、遮蔽されていない部分の視認困難性を評価することが可能である。非遮蔽画像の変化は、種々の要素によって判定されてよい。例えば、上述の実施形態のエッジ量やコントラストのように、単一の非遮蔽画像における画像の位置による変化が評価されても良い。また、上述の実施形態の時間変化のように、複数の画像同士で生じる変化が評価されても良い。 The warning output unit only needs to be able to output a stronger warning when the change in the non-occluded image is small than when the change is large. That is, the warning output unit considers that the smaller the change in the non-occluded image, the more difficult it is to see. With this configuration, it is possible to evaluate the visibility difficulty of the unshielded portion even when the shielding rate is similar for the same warning target. Changes in the unoccluded image may be determined by various factors. For example, like the edge amount and contrast in the above-described embodiments, changes depending on the image position in a single non-occluded image may be evaluated. Further, like the time change in the above-described embodiment, changes occurring between multiple images may be evaluated.

非遮蔽画像の変化は、連続的な変化であってもよいし、段階的な変化であってもよい。前者としては、例えば、画像の変化を評価するための要素(エッジ量やコントラスト、画像の変化速度等)が1以上の閾値と比較されることによって変化の度合いが取得される構成等が挙げられる。後者としては、例えば、画像の変化を評価する要素の大きさが変化の度合いとして取得される構成等が挙げられる。 The change in the non-occluded image may be a continuous change or a stepwise change. The former includes, for example, a configuration in which the degree of change is obtained by comparing elements for evaluating image changes (edge amount, contrast, image change speed, etc.) with a threshold of 1 or more. . The latter includes, for example, a configuration in which the size of an element for evaluating a change in an image is obtained as the degree of change.

警告の強度は、運転者が警告対象を認識する可能性が高まるほど強いとみなされる。警告の態様は種々の態様であってよく、警告しない場合と警告する場合とでは、後者の方が強度が強い。色を使って警告を表現する場合、警戒色である赤は警告の強度が強く、赤と異なるほど警告が弱くなる(例えば、赤、オレンジ、黄の順に警告の強度が弱くなる等)。また、音量の変化や点滅の頻度、色の濃さ等によって警告の強度が変化してもよい。 The strength of the warning is considered to be stronger as the possibility that the driver recognizes the warning target increases. The mode of the warning may be various, and the strength is stronger in the case of no warning and the case of warning. When expressing a warning using colors, red, which is a warning color, gives a strong warning, and the more the color differs from red, the weaker the warning is (for example, the warning becomes weaker in the order of red, orange, and yellow). Further, the intensity of the warning may be changed by changing the volume, the frequency of blinking, the intensity of the color, etc.

さらに、非遮蔽画像の変化の大きさと警告の強度との関係は、常に満たされていてもよいし、統計的に満たされていてもよい。後者としては、例えば、上述のような機械学習モデルに基づいて警告の強度を決定する構成が挙げられる。すなわち、機械学習モデルは、非遮蔽画像の変化が小さい場合には、変化が大きい場合よりも見落とす可能性が高いという結論が、所定の確率(例えば、95%)で得られるように学習されたモデルである。このようなモデルであっても、非遮蔽画像の変化が小さい場合には、変化が大きい場合よりも見落とす可能性が高いという結論が統計的に信頼に足る精度で得られればよい。 Furthermore, the relationship between the magnitude of change in the non-occluded image and the warning intensity may always be satisfied or may be statistically satisfied. The latter includes, for example, a configuration in which the strength of a warning is determined based on a machine learning model as described above. That is, the machine learning model was trained to conclude with a predetermined probability (e.g., 95%) that it is more likely to miss a small change in an unoccluded image than a large change. It's a model. Even with such a model, it is sufficient to be able to reach a conclusion with statistically reliable accuracy that when the change in the non-occluded image is small, there is a higher possibility of overlooking it than when the change is large.

さらに、本発明は、プログラムや方法としても適用可能である。また、以上のような運転支援システム、プログラム、方法は、単独の装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。さらに、以上のような運転支援システムの少なくとも一部を備えたナビゲーション装置や方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、運転支援システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし半導体メモリであってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。 Furthermore, the present invention can also be applied as a program or method. In addition, the above-mentioned driving support systems, programs, and methods may be realized as independent devices or may be realized using parts shared with each part provided in the vehicle, and may be realized in various forms. This includes: Furthermore, it is possible to provide a navigation device, method, and program that include at least a portion of the driving support system as described above. Further, it can be changed as appropriate, such as partially being software and partially being hardware. Furthermore, the invention can also be used as a recording medium for a program that controls a driving support system. Of course, the recording medium for the software may be a magnetic recording medium or a semiconductor memory, and any recording medium that will be developed in the future can be considered in exactly the same way.

10…運転支援システム、20…制御部、21…運転支援プログラム、21a…視線検出部、21b…移動体検出部、21c…表示部、30…記録媒体、30a…構造物情報、40…視線検出センサ、41…カメラ、42…HUD、43…表示デバイス DESCRIPTION OF SYMBOLS 10... Driving support system, 20... Control part, 21... Driving support program, 21a... Line of sight detection part, 21b... Moving body detection part, 21c... Display part, 30... Recording medium, 30a... Structure information, 40... Line of sight detection Sensor, 41...Camera, 42...HUD, 43...Display device

Claims (5)

車両の周囲の画像を取得する画像取得部と、
前記画像に基づいて前記車両の周囲に存在する警告対象を検出する警告対象検出部と、
前記車両の運転者の眼の位置を検出する眼位置検出部と、
前記車両の構造物を示す構造物情報を取得する構造物情報取得部と、
前記眼の位置と前記構造物情報とに基づいて、前記運転者から前記警告対象を見た場合に視認される前記警告対象および前記構造物を含むオブジェクトの近傍を囲う画像である警告対象画像を取得する警告対象画像取得部と、
前記警告対象画像の変化が小さい場合には、前記変化が大きい場合よりも強い警告を出力する警告出力部と、を備え、
前記警告対象画像は、前記運転者から前記警告対象を見た場合に前記構造物によって遮蔽されずに視認される部分の前記画像を示す非遮蔽画像であって、前記構造物によって遮蔽される部分の前記画像は当該警告対象画像から除外される、
転支援システム。
an image acquisition unit that acquires an image of the surroundings of the vehicle;
a warning target detection unit that detects a warning target existing around the vehicle based on the image;
an eye position detection unit that detects the position of the eyes of the driver of the vehicle;
a structure information acquisition unit that acquires structure information indicating a structure of the vehicle;
A warning that is an image surrounding an object including the warning target and the structure that is visually recognized when the driver looks at the warning target based on the eye position and the structure information. a warning target image acquisition unit that acquires a target image;
a warning output unit that outputs a stronger warning when the change in the warning target image is small than when the change is large ;
The warning target image is a non-obscured image showing a portion of the image that is visible without being shielded by the structure when the driver views the warning target, and includes a portion that is shielded by the structure. The image is excluded from the warning target images,
Driving assistance system.
前記非遮蔽画像に含まれるエッジ量が小さい場合には、大きい場合よりも前記非遮蔽画像の変化が小さいと評価される、
請求項1に記載の運転支援システム。
When the amount of edges included in the non-occluded image is small, the change in the non-occluded image is evaluated to be smaller than when the amount of edges included in the non-occluded image is large.
The driving support system according to claim 1 .
前記非遮蔽画像のコントラストが小さい場合には、大きい場合よりも前記非遮蔽画像の変化が小さいと評価される、
請求項1または請求項2に記載の運転支援システム。
When the contrast of the non-occluded image is small, the change in the non-occluded image is evaluated to be smaller than when the contrast is large.
The driving support system according to claim 1 or claim 2 .
前記非遮蔽画像の時間変化が小さい場合には、大きい場合よりも前記非遮蔽画像の変化が小さいと評価される、
請求項1~請求項3のいずれか一項に記載の運転支援システム。
When the time change in the non-occluded image is small, the change in the non-occluded image is evaluated to be smaller than when it is large;
The driving support system according to any one of claims 1 to 3 .
コンピュータを、
車両の周囲の画像を取得する画像取得部、
前記画像に基づいて前記車両の周囲に存在する警告対象を検出する警告対象検出部、
前記車両の運転者の眼の位置を検出する眼位置検出部、
前記車両の構造物を示す構造物情報を取得する構造物情報取得部、
前記眼の位置と前記構造物情報とに基づいて、前記運転者から前記警告対象を見た場合に視認される前記警告対象および前記構造物を含むオブジェクトの近傍を囲う画像である警告対象画像を取得する警告対象画像取得部、
前記警告対象画像の変化が小さい場合には、前記変化が大きい場合よりも強い警告を出力する警告出力部、
として機能させ、
前記警告対象画像は、前記運転者から前記警告対象を見た場合に前記構造物によって遮蔽されずに視認される部分の前記画像を示す非遮蔽画像であって、前記構造物によって遮蔽される部分の前記画像は当該警告対象画像から除外される、
運転支援プログラム。
computer,
an image acquisition unit that acquires images of the surroundings of the vehicle;
a warning target detection unit that detects a warning target existing around the vehicle based on the image;
an eye position detection unit that detects the position of the eyes of the driver of the vehicle;
a structure information acquisition unit that acquires structure information indicating a structure of the vehicle;
A warning that is an image surrounding an object including the warning target and the structure that is visually recognized when the driver looks at the warning target based on the eye position and the structure information. a warning target image acquisition unit that acquires a target image;
a warning output unit that outputs a stronger warning when the change in the warning target image is small than when the change is large;
function as
The warning target image is a non-obscured image showing a portion of the image that is visible without being shielded by the structure when the driver views the warning target, and the warning target image is a portion that is shielded by the structure. The image is excluded from the warning target images,
Driving assistance program.
JP2019179143A 2019-09-30 2019-09-30 Driving assistance systems and programs Active JP7371419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019179143A JP7371419B2 (en) 2019-09-30 2019-09-30 Driving assistance systems and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019179143A JP7371419B2 (en) 2019-09-30 2019-09-30 Driving assistance systems and programs

Publications (2)

Publication Number Publication Date
JP2021056760A JP2021056760A (en) 2021-04-08
JP7371419B2 true JP7371419B2 (en) 2023-10-31

Family

ID=75270800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019179143A Active JP7371419B2 (en) 2019-09-30 2019-09-30 Driving assistance systems and programs

Country Status (1)

Country Link
JP (1) JP7371419B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233470A (en) 2006-02-27 2007-09-13 Mazda Motor Corp Travel-supporting device for vehicles
JP2012014257A (en) 2010-06-29 2012-01-19 Toyota Motor Corp Alarm device
JP2013105419A (en) 2011-11-16 2013-05-30 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013161433A (en) 2012-02-08 2013-08-19 Toyota Motor Corp Periphery monitoring device for vehicle
WO2014017434A1 (en) 2012-07-27 2014-01-30 クラリオン株式会社 Image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233470A (en) 2006-02-27 2007-09-13 Mazda Motor Corp Travel-supporting device for vehicles
JP2012014257A (en) 2010-06-29 2012-01-19 Toyota Motor Corp Alarm device
JP2013105419A (en) 2011-11-16 2013-05-30 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013161433A (en) 2012-02-08 2013-08-19 Toyota Motor Corp Periphery monitoring device for vehicle
WO2014017434A1 (en) 2012-07-27 2014-01-30 クラリオン株式会社 Image processing device

Also Published As

Publication number Publication date
JP2021056760A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
JP7332726B2 (en) Detecting Driver Attention Using Heatmaps
US11731558B2 (en) Rearview device simulation
US10703299B2 (en) Rear view mirror simulation
EP3576973B1 (en) Method and system for alerting a truck driver
EP3413287A1 (en) Method for indicating to a driver of a vehicle the presence of an object at least temporarily moving relative to the vehicle
JP4456086B2 (en) Vehicle periphery monitoring device
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
JP4872245B2 (en) Pedestrian recognition device
WO2011108218A1 (en) Surrounding area monitoring device for vehicle
CN111414796A (en) Adaptive transparency of virtual vehicles in analog imaging systems
US10846833B2 (en) System and method for visibility enhancement
JP4528283B2 (en) Vehicle periphery monitoring device
US20220041105A1 (en) Rearview device simulation
EP2894620A1 (en) Vehicle information display device and vehicle information display method
JP2011251681A (en) Image display device and image display method
KR20190019840A (en) Driver assistance system and method for object detection and notification
KR101914362B1 (en) Warning system and method based on analysis integrating internal and external situation in vehicle
CN108482367A (en) A kind of method, apparatus and system driven based on intelligent back vision mirror auxiliary
CN112896159A (en) Driving safety early warning method and system
CN107826116A (en) The operating method of automobile active safety drive assist system based on mobile terminal
JP2012247847A (en) Information transmission control device for vehicle and information transmission control device
JP5927110B2 (en) Vehicle external recognition device
KR101986734B1 (en) Driver assistance apparatus in vehicle and method for guidance a safety driving thereof
KR20210120398A (en) Electronic device displaying image by using camera monitoring system and the method for operation the same
JP7371419B2 (en) Driving assistance systems and programs

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R150 Certificate of patent or registration of utility model

Ref document number: 7371419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150