JP6585543B2 - Driver visual information providing device and vehicle driving support system - Google Patents
Driver visual information providing device and vehicle driving support system Download PDFInfo
- Publication number
- JP6585543B2 JP6585543B2 JP2016088377A JP2016088377A JP6585543B2 JP 6585543 B2 JP6585543 B2 JP 6585543B2 JP 2016088377 A JP2016088377 A JP 2016088377A JP 2016088377 A JP2016088377 A JP 2016088377A JP 6585543 B2 JP6585543 B2 JP 6585543B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- retinal
- obstacle
- oversight
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims description 107
- 210000001508 eye Anatomy 0.000 claims description 117
- 230000002207 retinal effect Effects 0.000 claims description 85
- 230000004270 retinal projection Effects 0.000 claims description 75
- 210000003986 cell retinal photoreceptor Anatomy 0.000 claims description 60
- 230000003287 optical effect Effects 0.000 claims description 40
- 210000001747 pupil Anatomy 0.000 claims description 38
- 210000001525 retina Anatomy 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 230000007423 decrease Effects 0.000 claims description 8
- 239000011521 glass Substances 0.000 claims description 8
- 238000013459 approach Methods 0.000 description 52
- 210000004027 cell Anatomy 0.000 description 22
- 230000004044 response Effects 0.000 description 19
- 238000000034 method Methods 0.000 description 16
- 230000004075 alteration Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 13
- 210000005252 bulbus oculi Anatomy 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 230000035945 sensitivity Effects 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 210000000608 photoreceptor cell Anatomy 0.000 description 6
- 206010047555 Visual field defect Diseases 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000004304 visual acuity Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 229920006395 saturated elastomer Polymers 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 208000017442 Retinal disease Diseases 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 210000002763 pyramidal cell Anatomy 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 208000010412 Glaucoma Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 208000013409 limited attention Diseases 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 108091008695 photoreceptors Proteins 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Eye Examination Apparatus (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、自動車を運転中のドライバーの視覚状態に関する情報を出力するドライバー視覚情報提供装置、および、その情報に基づいて自車両の前方の障害物の存在をドライバーに知らせる車両用運転支援システムに関する。 The present invention relates to a driver visual information providing apparatus that outputs information related to the visual state of a driver who is driving an automobile, and a vehicle driving support system that notifies the driver of the presence of an obstacle ahead of the host vehicle based on the information. .
従来から、自車両の前方をカメラで撮像し、その撮影された画像に基づいて障害物を検知した場合に、ドライバーに障害物の存在を知らせるための注意喚起を行う車両用運転支援システムが知られている。しかし、ドライバーは、自身が障害物を認識している場合には、そうした注意喚起に対して煩わしさを感じる。そこで、特許文献1に提案されている装置では、ドライバーの視線の方向から外れた所定範囲内に障害物が検出され、かつ、ドライバーの視線の方向とハンドルの操舵角方向とが一致する場合に限定して注意喚起を行う。 Conventionally, there has been known a vehicle driving support system that alerts a driver to notify the presence of an obstacle when an image of the front of the host vehicle is captured by a camera and an obstacle is detected based on the captured image. It has been. However, the driver feels bothered by such alerting when he / she recognizes the obstacle. Therefore, in the apparatus proposed in Patent Document 1, an obstacle is detected within a predetermined range deviated from the direction of the driver's line of sight, and the direction of the driver's line of sight matches the steering angle direction of the steering wheel. Limited attention is given.
こうした車両用運転支援システムにおいては、ドライバー個々の視覚能力について考慮されていない。例えば、共通の風景を複数のドライバーが見た場合、各ドライバーによって、その風景を視覚する能力が異なっている。また、ドライバーの視野内においても相対的に視覚能力の高い領域と視覚能力の低い領域とが存在し、そうした領域の分布もドライバーによって異なる。このため、同じ状況下において、あるドライバーにとっては良好に認識できる障害物であっても、他のドライバーにとっては、その障害物を見落としてしまうことがある。 In such a vehicle driving support system, the visual ability of each driver is not considered. For example, when a plurality of drivers see a common landscape, each driver has a different ability to see the landscape. In addition, there are areas with relatively high visual ability and areas with low visual ability within the visual field of the driver, and the distribution of such areas varies depending on the driver. For this reason, even in the same situation, an obstacle that can be recognized well for a certain driver may be overlooked by another driver.
本発明は、上記課題を解決するためになされたものであり、ドライバー個々の視覚能力に応じた適切な注意喚起を行うことができるようにすることを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to enable appropriate alerting according to the visual ability of each driver.
上記目的を達成するために、本発明の特徴は、
自車両の前方の外界を撮影する撮影手段(21)と、
前記自車両のドライバーの視線の方向を検出する視線検出手段(11,22)と、
ドライバー個々における、ドライバーが外界を視覚する能力に影響する眼の特性であって、眼鏡あるいはコンタクトレンズを含むドライバーの眼光学系特性、および、ドライバーの網膜特性の少なくとも一方を表す個人眼特性を取得する個人眼特性取得手段(15,23)と、
前記撮影手段による撮影によって得られた外界画像と、前記視線検出手段によって検出された前記ドライバーの視線の方向と、前記個人眼特性取得手段によって取得された個人眼特性とに基づいて、ドライバーの視野内における位置とドライバーの見落としやすさの指標となる見落とし危険度とを対応付けた見落とし危険度マップを演算するマップ演算手段(12,13,14)と
を備え、前記マップ演算手段によって演算された見落とし危険度マップを表す情報を出力することにある。
In order to achieve the above object, the features of the present invention are:
Photographing means (21) for photographing the outside world ahead of the host vehicle;
Line-of-sight detection means (11, 22) for detecting the direction of the line of sight of the driver of the host vehicle;
Acquire individual eye characteristics that represent at least one of the characteristics of the eyes of the driver, including eyeglasses or contact lenses, and the characteristics of the retina of the driver. Personal eye characteristic acquisition means (15, 23),
Based on the external image obtained by photographing by the photographing means, the direction of the visual line of the driver detected by the visual line detecting means, and the personal eye characteristics acquired by the personal eye characteristic acquiring means, the visual field of the driver Map calculation means (12, 13, 14) for calculating an oversight risk map that associates a position in the vehicle with an oversight risk that is an index of ease of oversight of the driver, and calculated by the map calculation means It is to output information representing an oversight risk map.
本発明のドライバー視覚情報提供装置は、撮影手段と、視線検出手段と、個人眼特性取得手段と、マップ演算手段とを備えている。撮影手段は、自車両の前方の外界を撮影する。視線検出手段は、ドライバーの視線の方向を検出する。ドライバーの視線の方向は、例えば、ドライバーの頭部の運動、眼球の運動等を検出することにより求めることができる。 The driver visual information providing apparatus of the present invention includes a photographing unit, a line-of-sight detection unit, a personal eye characteristic acquisition unit, and a map calculation unit. The photographing means photographs the outside world ahead of the host vehicle. The line-of-sight detection means detects the direction of the driver's line of sight. The direction of the driver's line of sight can be determined by detecting, for example, the driver's head movement, eyeball movement, and the like.
個人眼特性取得手段は、ドライバー個々における、ドライバーが外界を視覚する能力に影響する眼の特性であって、眼鏡あるいはコンタクトレンズを含むドライバーの眼光学系特性、および、ドライバーの網膜特性の少なくとも一方を表す個人眼特性を取得する。個人眼特性取得手段は、例えば、ドライバーの個人眼特性を入力して記憶する記憶装置などを用いることができる。 The personal eye characteristic acquisition means is an eye characteristic that affects a driver's ability to view the outside world in each driver , and is at least one of a driver's eye optical system characteristics including glasses or contact lenses, and a driver's retinal characteristics. Acquire personal eye characteristics representing. As the personal eye characteristic acquisition means, for example, a storage device that inputs and stores the personal eye characteristic of the driver can be used.
マップ演算手段は、撮影手段による撮影によって得られた外界画像と、視線検出手段によって検出されたドライバーの視線の方向と、個人眼特性取得手段によって取得された個人眼特性とに基づいて、ドライバーの視野内における位置とドライバーの見落としやすさの指標となる見落とし危険度とを対応付けた見落とし危険度マップを演算する。従って、この見落とし危険度マップによって、ドライバーの視野内における見落としやすい方向を把握することができる。また、見落とし危険度とは、見落としやすさを表す指標を二段階以上(複数段階)で表した情報である。 The map calculation means is based on the external image obtained by the photographing by the photographing means, the direction of the driver's line of sight detected by the line-of-sight detection means, and the personal eye characteristic acquired by the personal eye characteristic acquisition means. An oversight risk map is calculated by associating the position in the field of view with the oversight risk that is an index of the driver's ease of oversight. Therefore, the easy-to-miss direction in the driver's field of view can be ascertained from the oversight risk map. The oversight risk is information that represents an index representing ease of oversight in two or more stages (multiple stages).
ドライバー視覚情報提供装置は、マップ演算手段によって演算された見落とし危険度マップを表す情報を出力する。従って、ドライバー視覚情報提供装置から出力された情報を取得することによって、ドライバーが、外界をどのように視覚しているかを表す外界視覚状況を逐次把握することができる。例えば、車両に搭載された車両用運転支援装置等に、この見落とし危険度マップを表す情報を入力することによって、ドライバー個々の外界視覚状況に応じた、障害物に対する注意喚起を行うことができる。 The driver visual information providing device outputs information representing an oversight risk degree map calculated by the map calculation means. Therefore, by acquiring the information output from the driver visual information providing device, it is possible to sequentially grasp the external world visual situation representing how the driver is viewing the external world. For example, by inputting information representing this oversight risk map to a vehicle driving support device or the like mounted on a vehicle, it is possible to alert an obstacle according to the external visual situation of each driver.
このドライバー視覚情報提供装置は、車載装置(例えば、車両用運転支援装置)内に組み込まれていてもよいし、車載装置とは別体に設けられ、車載装置に対して見落とし危険度マップを表す情報を送信するように設けられていてもよい。 This driver visual information providing device may be incorporated in an in-vehicle device (for example, a vehicle driving support device), or provided separately from the in-vehicle device, and represents an oversight risk map for the in-vehicle device. It may be provided to transmit information.
本発明の一側面の特徴は、
前記個人眼特性取得手段は、眼鏡あるいはコンタクトレンズを含むドライバーの眼光学系特性を取得するように構成され、
前記マップ演算手段は、
前記撮影手段による撮影によって得られた外界画像と、前記視線検出手段によって検出されたドライバーの視線の方向と、前記個人眼特性取得手段によって取得されたドライバーの眼光学系特性とに基づいて、ドライバーの網膜に投影される外界の映像である網膜投影像を推定する網膜投影像推定手段(12)と、
網膜視細胞を配列したモデルである網膜視細胞配列モデルを用いて、前記網膜投影像推定手段によって推定された網膜投影像が、前記網膜視細胞配列モデルに投影されたときに、前記網膜視細胞配列モデルの反応によって得られる映像である網膜出力像を推定する網膜出力像推定手段(13)と、
前記網膜出力像全体にわたって、前記網膜出力像内における予め設定された広さの局所領域ごとの情報量を算出することにより、ドライバーの視野内における位置と、前記情報量が少なくなるほど高くなる前記見落とし危険度とを対応付けた見落とし危険度マップを演算する局所領域情報量演算手段(14)と
を備えたことにある。
A feature of one aspect of the present invention is that
The personal eye characteristic acquisition means is configured to acquire an eye optical system characteristic of a driver including glasses or a contact lens,
The map calculation means includes:
Based on the external image obtained by photographing by the photographing means, the direction of the driver's line of sight detected by the line of sight detecting means, and the driver's eye optical system characteristics acquired by the personal eye characteristic acquiring means, the driver Retinal projection image estimation means (12) for estimating a retinal projection image which is an image of the external world projected onto the retina of
When a retinal projection image estimated by the retinal projection image estimation means is projected onto the retinal photoreceptor array model using a retinal photoreceptor array model that is a model in which retinal photoreceptors are arrayed, the retinal photoreceptor cell Retinal output image estimation means (13) for estimating a retinal output image which is an image obtained by the reaction of the array model;
By calculating the amount of information for each local area of a preset area in the retinal output image over the entire retinal output image, the position in the driver's field of view and the oversight that increases as the amount of information decreases And a local area information amount calculation means (14) for calculating an oversight risk level map that associates the risk level.
本発明の一側面においては、網膜投影像推定手段が、外界画像とドライバーの視線の方向とドライバーの眼光学系特性とに基づいて、ドライバーの網膜に投影される外界の映像である網膜投影像を推定する。従って、この網膜投影像は、ドライバー個々の眼光学系特性が反映されている。網膜モデル出力像推定手段は、網膜視細胞を配列したモデルである網膜視細胞配列モデルを用いて、網膜投影像推定手段によって推定された網膜投影像が、網膜視細胞配列モデルに投影されたときに、網膜視細胞配列モデルの反応によって得られる映像である網膜出力像を推定する。 In one aspect of the present invention, the retinal projection image estimation means is a retinal projection image that is an image of the outside world projected on the driver's retina based on the outside world image, the driver's line-of-sight direction, and the driver's eye optical system characteristics. Is estimated. Accordingly, this retinal projection image reflects the characteristics of the eye optical system of each driver. When the retinal projection image estimated by the retinal projection image estimation means is projected onto the retinal photoreceptor array model, the retinal model output image estimation means uses the retinal photoreceptor array model, which is a model in which retinal photoreceptors are arrayed. Next, a retinal output image, which is an image obtained by the reaction of the retinal photoreceptor cell array model, is estimated.
この網膜視細胞配列モデルとしては、例えば、網膜を構成する視細胞(錐体細胞(赤錐体、緑錐体、青錐体)および桿体細胞)を人間の網膜と同じように配列した網膜のモデルを用いることができる。従って、網膜視細胞配列モデルに網膜投影像が投影された場合における、網膜視細胞配列モデルの網膜投影像に応じた反応(信号)を推定することができる。これにより、ドライバーの個人眼特性に応じた網膜出力像が得られる。 As this retinal photoreceptor cell arrangement model, for example, a retina in which photoreceptor cells (cone cells (red cones, green cones, blue cones) and rod cells) constituting the retina are arranged in the same manner as the human retina. Can be used. Therefore, when a retinal projection image is projected onto the retinal photoreceptor array model, a response (signal) corresponding to the retinal projection image of the retinal photoreceptor array model can be estimated. As a result, a retinal output image corresponding to the personal eye characteristics of the driver is obtained.
局所領域情報量演算手段は、網膜出力像全体にわたって、網膜出力像内における予め設定された広さの局所領域ごとの情報量を算出する。この情報量は、例えば、各局所領域内の画像中に含まれる画素値の割合を用いた関数にて求められ、画素値の正規化階調分布が拡がっている画像ほど大きな値となる。局所領域情報量演算手段は、算出された各局所領域における情報量に基づいて、ドライバーの視野内における位置と、情報量が少なくなるほど高くなる見落とし危険度とを対応付けた見落とし危険度マップを演算する。この結果、本発明の一側面によれば、個々のドライバーの視覚状態を適正に表した見落とし危険度マップを演算することができる。 The local area information amount calculating means calculates an information amount for each local area having a preset width in the retinal output image over the entire retinal output image. This amount of information is obtained, for example, by a function using the ratio of pixel values included in an image in each local region, and becomes larger as an image in which the normalized gradation distribution of pixel values is expanded. The local area information amount calculation means calculates an oversight risk map that associates the position in the driver's field of view with the oversight risk level that increases as the information amount decreases, based on the calculated information amount in each local area. To do. As a result, according to one aspect of the present invention, it is possible to calculate an oversight risk degree map that appropriately represents the visual state of each driver.
また、本発明の一側面によれば、眼鏡あるいはコンタクトレンズを含むドライバーの眼光学系特性に応じた見落とし危険度マップが演算されるため、ドライバーが眼鏡あるいはコンタクトレンズを装着している場合であっても、その状態でのドライバーの視覚状態を適正に表した見落とし危険度マップを演算することができる。 In addition, according to one aspect of the present invention, the oversight risk map is calculated according to the characteristics of the eye optical system of the driver including glasses or contact lenses, so that the driver is wearing glasses or contact lenses. However, it is possible to calculate an oversight risk degree map that appropriately represents the visual state of the driver in that state.
本発明の一側面の特徴は、
前記個人眼特性取得手段は、ドライバーの網膜特性を取得するように構成され、
前記マップ演算手段は、
前記撮影手段による撮影によって得られた外界画像と、前記視線検出手段によって検出されたドライバーの視線の方向とに基づいて、ドライバーの網膜に投影される外界の映像である網膜投影像を推定する網膜投影像推定手段(12)と、
網膜視細胞を配列したモデルであって、前記個人眼特性取得手段によって取得されたドライバーの網膜特性に応じて設定される網膜視細胞配列モデルを用いて、前記網膜投影像推定手段によって推定された網膜投影像が、前記網膜視細胞配列モデルに投影されたときに、前記網膜視細胞配列モデルの反応によって得られる映像である網膜出力像を推定する網膜出力像推定手段(13)と、
前記網膜出力像全体にわたって、前記網膜出力像内における予め設定された広さの局所領域ごとの情報量を算出することにより、ドライバーの視野内における位置と、前記情報量が少なくなるほど高くなる前記見落とし危険度とを対応付けた見落とし危険度マップを演算する局所領域情報量演算手段(14)と
を備えたことにある。
A feature of one aspect of the present invention is that
The personal eye characteristic acquisition means is configured to acquire a retina characteristic of a driver;
The map calculation means includes:
A retina that estimates a retinal projection image that is an image of the outside world projected on the retina of the driver, based on the external image obtained by the photographing by the photographing unit and the direction of the driver's visual line detected by the visual line detecting unit. Projection image estimation means (12);
A model in which retinal photoreceptor cells are arranged, and estimated by the retinal projection image estimation means using a retinal photoreceptor array model set according to the retinal characteristics of the driver acquired by the personal eye characteristics acquisition means A retinal output image estimation means (13) for estimating a retinal output image that is an image obtained by a reaction of the retinal photoreceptor array model when a retinal projection image is projected onto the retinal photoreceptor array model;
By calculating the amount of information for each local area of a preset area in the retinal output image over the entire retinal output image, the position in the driver's field of view and the oversight that increases as the amount of information decreases And a local area information amount calculation means (14) for calculating an oversight risk level map that associates the risk level.
本発明の一側面によれば、網膜視細胞配列モデルが、ドライバー個々における網膜特性に応じて設定される。これにより、例えば、視野欠損領域などを表す網膜特性を見落とし危険度マップに反映させることができる。従って、本発明の一側面によれば、網膜疾患のあるドライバーに対しても、個々のドライバーの視覚状態を適正に表した見落とし危険度マップを演算することができる。 According to one aspect of the present invention, the retinal photoreceptor cell arrangement model is set according to the retinal characteristics of each driver. Thereby, for example, a retinal characteristic representing a visual field defect region or the like can be overlooked and reflected in the risk map. Therefore, according to one aspect of the present invention, it is possible to calculate an oversight risk degree map that appropriately represents the visual state of each driver even for a driver with retinal disease.
本発明の一側面の特徴は、
前記個人眼特性取得手段は、眼鏡あるいはコンタクトレンズを含むドライバーの眼光学系特性、および、ドライバーの網膜特性を取得するように構成され、
前記マップ演算手段は、
前記撮影手段による撮影によって得られた外界画像と、前記視線検出手段によって検出されたドライバーの視線の方向と、前記個人眼特性取得手段によって取得されたドライバーの眼光学系特性とに基づいて、ドライバーの網膜に投影される外界の映像である網膜投影像を推定する網膜投影像推定手段(12)と、
網膜視細胞を配列したモデルであって、前記個人眼特性取得手段によって取得されたドライバーの網膜特性に応じて設定される網膜視細胞配列モデルを用いて、前記網膜投影像推定手段によって推定された網膜投影像が、前記網膜視細胞配列モデルに投影されたときに、前記網膜視細胞配列モデルの反応によって得られる映像である網膜出力像を推定する網膜出力像推定手段(13)と、
前記網膜出力像全体にわたって、前記網膜出力像内における予め設定された広さの局所領域ごとの情報量を算出することにより、ドライバーの視野内における位置と、前記情報量が少なくなるほど高くなる前記見落とし危険度とを対応付けた見落とし危険度マップを演算する局所領域情報量演算手段(14)と
を備えたことにある。
A feature of one aspect of the present invention is that
The personal eye characteristic acquisition means is configured to acquire an eye optical system characteristic of a driver including glasses or a contact lens, and a retina characteristic of the driver,
The map calculation means includes:
Based on the external image obtained by photographing by the photographing means, the direction of the driver's line of sight detected by the line of sight detecting means, and the driver's eye optical system characteristics acquired by the personal eye characteristic acquiring means, the driver Retinal projection image estimation means (12) for estimating a retinal projection image which is an image of the external world projected onto the retina of
A model in which retinal photoreceptor cells are arranged, and estimated by the retinal projection image estimation means using a retinal photoreceptor array model set according to the retinal characteristics of the driver acquired by the personal eye characteristics acquisition means A retinal output image estimation means (13) for estimating a retinal output image that is an image obtained by a reaction of the retinal photoreceptor array model when a retinal projection image is projected onto the retinal photoreceptor array model;
By calculating the amount of information for each local area of a preset area in the retinal output image over the entire retinal output image, the position in the driver's field of view and the oversight that increases as the amount of information decreases And a local area information amount calculation means (14) for calculating an oversight risk level map that associates the risk level.
本発明の一側面によれば、ドライバーの眼光学系特性が網膜投影像の推定に反映され、ドライバーの網膜特性が網膜出力像の推定に反映される。これにより、ドライバーの眼光学系特性および網膜特性を、見落とし危険度マップに反映させることができる。従って、本発明の一側面によれば、個々のドライバーの視覚状態を更に適正に表した見落とし危険度マップを演算することができる。 According to one aspect of the present invention, the driver's eye optical system characteristics are reflected in the estimation of the retinal projection image, and the driver's retinal characteristics are reflected in the estimation of the retinal output image. As a result, the driver's eye optical system characteristics and retinal characteristics can be reflected in the oversight risk map. Therefore, according to one aspect of the present invention, it is possible to calculate an oversight risk degree map that more appropriately represents the visual state of each driver.
本発明の一側面の特徴は、
ドライバーの瞳孔の大きさを検出する瞳孔検出手段(11)を備え、
前記網膜投影像推定手段(12)は、前記瞳孔の大きさを考慮して前記網膜投影像を推定するように構成されたことにある。
A feature of one aspect of the present invention is that
Pupil detection means (11) for detecting the size of the driver's pupil;
The retinal projection image estimation means (12) is configured to estimate the retinal projection image in consideration of the size of the pupil.
本発明の一側面によれば、瞳孔の大きさ(瞳孔径)を考慮して、網膜投影像が演算されるため、一層適正な見落とし危険度マップを演算することができる。 According to one aspect of the present invention, since the retinal projection image is calculated in consideration of the size of the pupil (pupil diameter), a more appropriate oversight risk map can be calculated.
本発明は、ドライバー視覚情報提供装置に限らず、ドライバー視覚情報提供装置を備えた車両運転支援システムに適用することもできる。 The present invention can be applied not only to the driver visual information providing apparatus but also to a vehicle driving support system including the driver visual information providing apparatus.
この場合、本発明の車両運転支援システムの特徴は、
前記自車両の前方に存在する障害物の位置に関する障害物情報を取得する障害物情報取得手段(16)と、
前記障害物情報取得手段によって取得された障害物情報と前記ドライバー視覚情報提供装置から出力された見落とし危険度マップを表す情報とに基づいて、ドライバーに対して前記障害物の存在を通知する注意喚起手段(17)と
を備えたことにある。
In this case, the feature of the vehicle driving support system of the present invention is:
Obstacle information acquisition means (16) for acquiring obstacle information relating to the position of an obstacle existing in front of the host vehicle;
Based on the obstacle information acquired by the obstacle information acquisition means and the information representing the oversight risk map output from the driver visual information providing device, the driver is notified of the presence of the obstacle. And means (17).
本発明においては、障害物情報取得手段が、自車両の前方に存在する障害物の位置に関する障害物情報を取得する。この場合、例えば、障害物情報取得手段は、撮影手段による撮影によって得られた外界画像に基づいて、障害物を認識し、その障害物の自車両に対する相対位置情報を取得するとよい。 In the present invention, the obstacle information acquisition means acquires the obstacle information related to the position of the obstacle existing in front of the host vehicle. In this case, for example, the obstacle information acquisition unit may recognize the obstacle based on an external image obtained by shooting by the shooting unit and acquire relative position information of the obstacle with respect to the host vehicle.
注意喚起手段は、障害物情報と見落とし危険度マップを表す情報とに基づいて、ドライバーに対して障害物の存在を通知する。従って、本発明によれば、ドライバー個々の視覚能力に応じた適切な注意喚起を行うことができる。つまり、ドライバーが見落としていると推定される障害物に対して注意喚起を行うことができる。 The alerting means notifies the driver of the presence of the obstacle based on the obstacle information and the information indicating the oversight risk map. Therefore, according to the present invention, it is possible to perform appropriate alerting according to the visual ability of each driver. That is, it is possible to call attention to an obstacle that is estimated to be overlooked by the driver.
本発明の一側面の特徴は、
前記注意喚起手段は、前記見落とし危険度が閾値よりも高い視野領域に入っている障害物についてのみ(S12:Yes)、その存在をドライバーに通知するように構成されたことにある。
A feature of one aspect of the present invention is that
The alerting means is configured to notify the driver of the presence of only an obstacle in the visual field region where the risk of oversight is higher than a threshold (S12: Yes).
本発明の一側面によれば、見落とし危険度が閾値よりも高い視野領域に入っている障害物についてのみ、その存在がドライバーに通知される。従って、ドライバー個々の視覚能力に応じた適切な注意喚起を行うことができ、ドライバーが認識している障害物について不要な注意喚起が行われることを低減することができる。 According to one aspect of the present invention, the driver is notified of the presence of only an obstacle in the visual field region whose risk of oversight is higher than the threshold. Therefore, it is possible to perform appropriate alerting according to the visual ability of each driver, and to reduce unnecessary alerting for obstacles recognized by the driver.
本発明の一側面の特徴は、
前記注意喚起手段は、予め設定された注意喚起条件が成立したときに障害物の存在をドライバーに通知するように構成され、前記見落とし危険度が閾値よりも高い視野領域に入っている障害物に対する前記注意喚起条件(S141)が、前記見落とし危険度が前記閾値以下の視野領域に入っている障害物に対する前記注意喚起条件(S142)に比べて、ドライバーに対して障害物の存在が通知されやすくなるように設定されていることにある。
A feature of one aspect of the present invention is that
The alerting means is configured to notify the driver of the presence of an obstacle when a preset alerting condition is satisfied, and for an obstacle in the visual field region where the risk of oversight is higher than a threshold value Compared with the alerting condition (S142) for the obstacle in the visual field area where the oversight risk is equal to or less than the threshold, the alerting condition (S141) is easier to notify the driver of the presence of the obstacle. It is set to be.
本発明の一側面によれば、予め設定された注意喚起条件が成立したときに、障害物の存在がドライバーに通知される。この注意喚起条件は、見落とし危険度が閾値よりも高い視野領域に入っている障害物と、見落とし危険度が閾値以下の視野領域に入っている障害物とで相互に異なっている。具体的には、見落とし危険度が閾値よりも高い視野領域に入っている障害物に対する注意喚起条件が、見落とし危険度が閾値以下の視野領域に入っている障害物に対する注意喚起条件に比べて、ドライバーに対して障害物の存在が通知されやすくなるように設定されている。このため、ドライバーが見落としやすい障害物については、注意喚起が行われやすく、ドライバーが見落としにくい障害物については、注意喚起が行われにくくなっている。従って、ドライバー個々の視覚能力に応じた適切な注意喚起を行うことができ、ドライバーが認識している障害物についての不要な注意喚起が行われることを低減することができる。 According to one aspect of the present invention, the presence of an obstacle is notified to the driver when a preset alerting condition is satisfied. This alerting condition is different between an obstacle in the visual field area where the risk of oversight is higher than the threshold and an obstacle in the visual field area where the risk of oversight is less than the threshold. Specifically, the alert conditions for obstacles in the visual field where the risk of oversight is higher than the threshold is higher than the alert conditions for obstacles in the visual field where the risk of oversight is less than the threshold. It is set so that it is easy to notify the driver of the presence of an obstacle. For this reason, it is easy to call attention to obstacles that are easily overlooked by the driver, and it is difficult to call attention to obstacles that are difficult for the driver to overlook. Accordingly, it is possible to perform appropriate alerting according to the visual ability of each driver, and to reduce unnecessary alerts regarding obstacles recognized by the driver.
注意喚起条件は、例えば、現時点から自車両と障害物とが衝突すると予測される時刻までの時間である衝突予測時間が設定時間よりも短くなったこと、あるいは、自車両に衝突するおそれのある障害物と自車両との距離が設定距離よりも短くなったことなど、任意に設定することができる。この場合、例えば、衝突予測時間を注意喚起条件に用いる場合には、見落とし危険度が閾値よりも高い視野領域に入っている障害物に対する設定時間を、見落とし危険度が閾値以下の視野領域に入っている障害物に対する設定時間よりも長くすればよい。また、障害物と自車両との距離を注意喚起条件に用いる場合には、見落とし危険度が閾値よりも高い視野領域に入っている障害物に対する設定距離を、見落とし危険度が閾値以下の視野領域に入っている障害物に対する設定距離よりも長くすればよい。これにより、ドライバーが見落としやすい障害物については、注意喚起が行われやすくなり(早めに注意喚起が行われるようになり)、ドライバーが見落としにくい障害物については、注意喚起が行われにくくなる。 The alert condition is, for example, that the predicted collision time, which is the time from the current time to the time when the vehicle and the obstacle are predicted to collide, is shorter than the set time, or there is a possibility of collision with the vehicle It can be arbitrarily set such that the distance between the obstacle and the host vehicle is shorter than the set distance. In this case, for example, when the predicted collision time is used as a warning condition, the set time for an obstacle in the visual field area where the risk of oversight is higher than the threshold is set in the visual field area where the risk of oversight is less than the threshold. What is necessary is just to set longer than the set time with respect to the obstruction which is. When using the distance between an obstacle and the vehicle as a warning condition, set the distance to the obstacle in the visual field where the risk of oversight is higher than the threshold. What is necessary is just to make it longer than the setting distance with respect to the obstacle which has entered. As a result, it is easy to call attention to obstacles that are easily overlooked by the driver (attention is given early), and it is difficult to call attention to obstacles that are difficult for the driver to overlook.
本発明の一側面の特徴は、
前記注意喚起手段は、前記見落とし危険度が閾値よりも高い視野領域に入っている障害物の存在をドライバーに通知する注意喚起態様(S151)が、前記見落とし危険度が前記閾値以下の視野領域に入っている障害物の存在をドライバーに通知する注意喚起態様(S152)に比べて、ドライバーへの注意喚起力が大きくなるように構成されていることにある。
A feature of one aspect of the present invention is that
The alerting means (S151) for notifying the driver of the presence of an obstacle in the visual field area where the risk of oversight is higher than a threshold is provided in the visual field area where the risk of oversight is below the threshold. Compared to the alerting mode (S152) for notifying the driver of the presence of an obstacle that is present, the alerting power to the driver is increased.
本発明の一側面によれば、見落とし危険度が閾値よりも高い視野領域に入っている障害物の存在をドライバーに通知する場合には、見落とし危険度が閾値以下の視野領域に入っている障害物の存在をドライバーに通知する場合に比べて、ドライバーへの注意喚起力が大きくなる。このため、ドライバーが見落としやすい障害物については、強い注意喚起が行われる。一方、ドライバーが見落としにくい障害物については、軽い注意喚起が行われる、あるいは、注意喚起が行われない。このため、ドライバーが障害物を認識している場合に注意喚起が行われたとしても、ドライバーの感じる煩わしさは少なくて済む。従って、ドライバー個々の視覚能力に応じた適切な注意喚起を行うことができる。 According to one aspect of the present invention, when notifying the driver of the presence of an obstacle in the visual field where the risk of oversight is higher than the threshold, the obstacle in the visual field of which the risk of oversight is less than or equal to the threshold Compared to notifying the driver of the presence of an object, the driver's alerting power is increased. For this reason, strong attention is given to obstacles that are easily overlooked by the driver. On the other hand, for an obstacle that is difficult for the driver to overlook, a light alert is given or no alert is given. For this reason, even if the driver is alerted when the driver recognizes the obstacle, the driver feels less troublesome. Accordingly, it is possible to perform appropriate alerting according to the visual ability of each driver.
上記説明においては、発明の理解を助けるために、実施形態に対応する発明の構成要件に対して、実施形態で用いた符号を括弧書きで添えているが、発明の各構成要件は、前記符号によって規定される実施形態に限定されるものではない。 In the above description, in order to assist the understanding of the invention, the reference numerals used in the embodiments are attached to the constituent elements of the invention corresponding to the embodiments in parentheses. It is not limited to the embodiment defined by.
以下、本発明の実施形態について図面を用いて詳細に説明する。図1は、本実施形態の車両用運転支援システム1の概略構成図である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a schematic configuration diagram of a vehicle driving support system 1 of the present embodiment.
車両用運転支援システム1は、支援ECU10を備えている。ECUは、Electric Control Unitの略である。本明細書において、この車両用運転支援システムが搭載された車両を、他車両と区別する必要がある場合には、「自車両」と呼ぶ。 The vehicle driving support system 1 includes a support ECU 10. ECU is an abbreviation for Electric Control Unit. In this specification, when it is necessary to distinguish a vehicle on which this vehicle driving support system is mounted from other vehicles, it is referred to as “own vehicle”.
支援ECU10は、第1カメラ21と、第2カメラ22と、入力部23と、報知器24とに接続されている。第1カメラ21は、車体に固定され、自車両の前方の外界を所定の短い周期で撮影し、撮影によって得られた外界画像を支援ECU10に出力する。第1カメラ21は、本発明の撮影手段に相当する。第2カメラ22は、ドライバーの頭部に装着固定され、ドライバーの顔を所定の短い周期で撮影し、撮影によって得られたドライバーの顔画像を支援ECU10に出力する。また、第2カメラ22には、図示しないジャイロ・加速度センサーが内蔵されており、ジャイロ・加速度センサーによって検出したドライバーの頭部の運動状態を表す情報を支援ECU10に出力する。入力部23は、自車両を運転するドライバーの固有の眼特性(個人眼特性と呼ぶ)を表すデータを入力する装置である。入力部23は、入力された個人眼特性を支援ECU10に出力する。 The support ECU 10 is connected to the first camera 21, the second camera 22, the input unit 23, and the alarm device 24. The first camera 21 is fixed to the vehicle body, images the outside world ahead of the host vehicle at a predetermined short period, and outputs an outside world image obtained by the imaging to the support ECU 10. The first camera 21 corresponds to the photographing means of the present invention. The second camera 22 is mounted and fixed on the head of the driver, images the driver's face at a predetermined short cycle, and outputs the driver's face image obtained by the imaging to the support ECU 10. Further, the second camera 22 incorporates a gyro / acceleration sensor (not shown), and outputs information representing the movement state of the driver's head detected by the gyro / acceleration sensor to the support ECU 10. The input unit 23 is a device that inputs data representing the unique eye characteristics (referred to as individual eye characteristics) of the driver driving the host vehicle. The input unit 23 outputs the input personal eye characteristic to the support ECU 10.
報知器24は、表示器24a、および、スピーカ24b(ブザーでもよい)を備えており、支援ECU10によって駆動され、ドライバーに対して注意喚起を与える装置である。表示器24aとしては、ヘッドアップディスプレイ(HUD)が用いられる。以下、表示器24aをHUD24aと呼ぶ。HUD24aは、自車両内の各種ECUおよびナビゲーション装置からの表示情報を受信し、その表示情報を自車両のフロントガラスの一部の領域(表示領域)に映し出す。支援ECU10は、後述する注意喚起対象物が検知されたときに、注意喚起用表示情報をHUD24aに送信する。これにより、HUD24aは、表示領域の一部を使って、注意喚起用アイコンを表示する。また、支援ECU10は、HUD24aへの注意喚起用表示情報を送信するときにスピーカ24bを駆動してドライバーに注意喚起する。 The alarm device 24 includes a display 24a and a speaker 24b (may be a buzzer), and is a device that is driven by the support ECU 10 and alerts the driver. A head-up display (HUD) is used as the display 24a. Hereinafter, the display 24a is referred to as HUD 24a. The HUD 24a receives display information from various ECUs and navigation devices in the host vehicle, and displays the display information on a partial area (display area) of the windshield of the host vehicle. The assistance ECU 10 transmits display information for calling attention to the HUD 24a when a warning object to be described later is detected. As a result, the HUD 24a displays a warning icon using a part of the display area. Further, the assisting ECU 10 drives the speaker 24b to alert the driver when transmitting the alerting display information to the HUD 24a.
尚、表示器24aとしては、HUDに限るものでは無く、インストルメントパネルに設けられたメータディスプレイ等を用いてもよい。 The indicator 24a is not limited to the HUD, and a meter display or the like provided on the instrument panel may be used.
支援ECU10は、マイクロコンピュータを主要部として備えている。マイクロコンピュータは、CPUとROM及びRAM等の記憶装置を含み、CPUはROMに格納されたプログラムを実行することにより各種機能を実現するようになっている。 The support ECU 10 includes a microcomputer as a main part. The microcomputer includes a CPU, and a storage device such as a ROM and a RAM, and the CPU realizes various functions by executing a program stored in the ROM.
支援ECU10は、そのマイクロコンピュータの機能に着目すると、ドライバー視覚情報提供部10aと注意喚起部10bとに大別される。この場合、支援ECU10は、例えば、ドライバー視覚情報提供部10aを備えたECUと、注意喚起部10bを備えたECUとを別々に備え、それらを組み合わせて構成されるなど、複数のECUによって構成されていてもよい。 Focusing on the function of the microcomputer, the support ECU 10 is roughly divided into a driver visual information providing unit 10a and an alerting unit 10b. In this case, the support ECU 10 is configured by a plurality of ECUs, for example, separately including an ECU including the driver visual information providing unit 10a and an ECU including the alerting unit 10b and combining them. It may be.
ドライバー視覚情報提供部10aは、視線方向・瞳孔径検出部11と、網膜投影像推定部12と、網膜出力像推定部13と、局所領域情報量演算部14と、個人眼特性記憶部15とを備えている。注意喚起部10bは、障害物検出部16と、注意喚起制御部17とを備えている。各機能部11〜17は、それぞれ所定の短い演算周期にて、以下の処理を繰り返し実施する。 The driver visual information providing unit 10a includes a gaze direction / pupil diameter detection unit 11, a retinal projection image estimation unit 12, a retinal output image estimation unit 13, a local region information amount calculation unit 14, and a personal eye characteristic storage unit 15. It has. The alerting unit 10 b includes an obstacle detection unit 16 and an alerting control unit 17. Each of the functional units 11 to 17 repeatedly performs the following processing at a predetermined short calculation cycle.
視線方向・瞳孔径検出部11は、第2カメラ22で撮影されたドライバーの顔を表すドライバー顔画像を解析して、例えば、ドライバーの眼球の運動と、瞳孔の輪郭とを検出する。また、視線方向・瞳孔径検出部11は、第2カメラ21に内蔵されたジャイロ・加速度センサーの検出信号に基づいて、ドライバーの顔(首から上の頭部)の運動を検出する。視線方向・瞳孔径検出部11は、ドライバー顔画像から瞳孔の輪郭を抽出し、この輪郭から瞳孔の中心位置および瞳孔径を算出する。また、視線方向・瞳孔径検出部11は、ドライバーの眼の輪郭(上瞼、下瞼で囲まれる目の輪郭)と瞳孔の中心位置との相対関係から、眼球の回転角度を算出する。 The line-of-sight direction / pupil diameter detection unit 11 analyzes a driver face image representing the face of the driver photographed by the second camera 22, and detects, for example, the movement of the eyeball of the driver and the outline of the pupil. The line-of-sight direction / pupil diameter detection unit 11 detects the movement of the driver's face (head above the neck) based on the detection signal of the gyro / acceleration sensor built in the second camera 21. The line-of-sight direction / pupil diameter detection unit 11 extracts the outline of the pupil from the driver face image, and calculates the center position of the pupil and the pupil diameter from the outline. The line-of-sight direction / pupil diameter detection unit 11 calculates the rotation angle of the eyeball from the relative relationship between the eye contour of the driver (the contour of the eye surrounded by the upper eyelid and the lower eyelid) and the center position of the pupil.
視線方向・瞳孔径検出部11は、ドライバーの瞳孔の中心位置、ドライバーの眼球の回転角度、および、ドライバーの顔の向き(角度)等に基づいて、ドライバーの視線方向(視線位置と呼ぶこともできる)を算出する。視線方向・瞳孔径検出部11は、上記のようにして算出したドライバーの視線方向および瞳孔径を表す情報を網膜投影像推定部12に出力する。尚、ドライバーの視線方向および瞳孔径の検出については、従来から種々の手法が知られているので、それらの手法を任意に採用することができる。また、本実施形態においては、第2カメラ22は、ドライバーの頭部に装着されるが、それに代えて、車両に固定して設けられていてもよい。また、ドライバーの頭部の運動については、ジャイロ・加速度センサーに代えて、例えば、車両に固定したカメラでドライバーの頭部を撮影し、その撮影画像から検出するようにしてもよい。 The line-of-sight direction / pupil diameter detection unit 11 may also be referred to as the driver's line-of-sight direction (line-of-sight position) based on the center position of the driver's pupil, the rotation angle of the driver's eyeball, and the orientation (angle) of the driver's face. Possible). The line-of-sight direction / pupil diameter detection unit 11 outputs information representing the driver's line-of-sight direction and pupil diameter calculated as described above to the retinal projection image estimation unit 12. Various methods are conventionally known for detecting the driver's line-of-sight direction and pupil diameter, and these methods can be arbitrarily employed. In the present embodiment, the second camera 22 is mounted on the driver's head, but may instead be provided fixed to the vehicle. Further, the movement of the driver's head may be detected from a captured image obtained by, for example, photographing the driver's head with a camera fixed to the vehicle instead of the gyro / acceleration sensor.
第2カメラ22と視線方向・瞳孔径検出部11とからなる構成は、本発明の視線検出手段に相当する。 The configuration including the second camera 22 and the line-of-sight direction / pupil diameter detection unit 11 corresponds to the line-of-sight detection means of the present invention.
網膜投影像推定部12は、外界画像io(x,y,h,t)からドライバーの網膜に投影される映像である網膜投影像ir(x,y,h,t)を演算により推定する機能部である。ここで、x,yは、映像(画像)の横座標位置,縦座標位置を表し、tは、時間を表す。また、hは、外界画像の色成分h={r,g,b}である。外界画像io(x,y,h,t)は、第1カメラ21から出力される画像を表す。網膜投影像ir(x,y,h,t)は、外界画像io(x,y,h,t)と、ドライバーの視線の方向、ドライバーの瞳孔径、および、ドライバーの眼光学系特性とによって決定される。 The retinal projection image estimation unit 12 has a function to estimate the retinal projection image ir (x, y, h, t), which is an image projected on the driver's retina from the external image io (x, y, h, t) by calculation. Part. Here, x and y represent the abscissa position and ordinate position of the video (image), and t represents time. Further, h is a color component h = {r, g, b} of the external image. The external image io (x, y, h, t) represents an image output from the first camera 21. The retinal projection image ir (x, y, h, t) depends on the external image io (x, y, h, t), the driver's line of sight, the driver's pupil diameter, and the driver's eye optical system characteristics. It is determined.
眼光学系特性は、ドライバーが眼鏡あるいはコンタクトレンズ(これらを補助レンズと呼ぶ)を装着しない場合には、ドライバーの眼球の光学特性であり、ドライバーが補助レンズを装着する場合には、ドライバーの眼球と補助レンズとからなる光学系の光学特性である。 The eye optical system characteristic is the optical characteristic of the driver's eyeball when the driver does not wear glasses or contact lenses (these are referred to as auxiliary lenses), and the driver's eyeball when the driver wears the auxiliary lens. And an optical characteristic of an optical system including the auxiliary lens.
網膜投影像推定部12は、瞳関数を用いて網膜投影像ir(x,y,h,t)を演算する。この網膜投影像ir(x,y,h,t)は、ドライバーの左右眼についてそれぞれ個々に演算される。
瞳関数PF(x,y,t)は、次式(1)によって表される。
ドライバーの光学系を通過する光の波長λは、様々な単波長が混ざり合ったものであるため、映像から全ての波長を算出することは不可能である。そこで、本実施形態においては、国際照明委員会(CIE)の定めたxy色度図(CIExy色度図)を用いて画素毎に、単波長を求め、その単波長を上記(1)式におけるλとする。この場合、CIExy色度図に示される領域の周囲が単色光(単波長)となり、領域の中央部が無彩色となる。このCIExy色度図に示される領域の周囲を単波長曲線と呼ぶ。本実施形態においては、CIExy色度図において、無彩色となる点と、画素値(R,G,B)の色座標(x,y)を表す点とを結んだ直線が、単波長曲線と交差する交点を求める。色座標(x,y)は、この交点の単波長の色と無彩色との混合色と考えることができる。従って、この交点で特定される単色光の波長を、上記(1)式のλとして用いる。
The retinal projection image estimation unit 12 calculates a retinal projection image ir (x, y, h, t) using a pupil function. The retinal projection images ir (x, y, h, t) are individually calculated for the left and right eyes of the driver.
The pupil function PF (x, y, t) is expressed by the following equation (1).
Since the wavelength λ of the light passing through the driver optical system is a mixture of various single wavelengths, it is impossible to calculate all the wavelengths from the image. Therefore, in the present embodiment, a single wavelength is obtained for each pixel using an xy chromaticity diagram (CIExy chromaticity diagram) defined by the International Commission on Illumination (CIE), and the single wavelength is expressed by the above equation (1). Let λ be. In this case, the periphery of the region shown in the CIExy chromaticity diagram is monochromatic light (single wavelength), and the central portion of the region is achromatic. The area around the area shown in the CIExy chromaticity diagram is called a single wavelength curve. In the present embodiment, in the CIExy chromaticity diagram, a straight line connecting a point that is an achromatic color and a point that represents the color coordinates (x, y) of the pixel value (R, G, B) is a single wavelength curve. Find intersecting intersections. The color coordinate (x, y) can be considered as a mixed color of a single wavelength color and an achromatic color at this intersection. Therefore, the wavelength of the monochromatic light specified at this intersection is used as λ in the above equation (1).
網膜投影像推定部12は、視線方向・瞳孔径検出部から出力されたドライバーの視線方向および瞳孔径を表す情報に基づいて、外界画像io(x,y,h,t)において瞳孔円内となる範囲、つまり、S(x,y,t)を設定する。 The retinal projection image estimator 12 determines whether the image is within the pupil circle of the external image io (x, y, h, t) based on the information indicating the driver's line-of-sight direction and pupil diameter output from the line-of-sight direction / pupil diameter detector. A range, that is, S (x, y, t) is set.
式(1)において、W(x,y)はドライバー個人の眼球の波面収差を表す。ドライバー個人の眼光学系特性は、波面収差に反映される。波面収差W(x,y)は、個人眼特性記憶部15に記憶されている。 In Expression (1), W (x, y) represents the wavefront aberration of the driver's individual eyeball. The characteristics of the driver's individual eye optics are reflected in the wavefront aberration. The wavefront aberration W (x, y) is stored in the personal eye characteristic storage unit 15.
通常、Hartmann-Shackセンサー等、補償光学技術により測定された波面収差は、次式(2)のようなZernike多項式で近似表現される。
個人眼特性記憶部15には、ドライバーの個人眼特性として、Zernike項の係数Cn,mに相当するデータが記憶されている。 The personal eye characteristic storage unit 15 stores data corresponding to the coefficient Cn, m of the Zernike term as the personal eye characteristic of the driver.
ドライバーの眼光学特性を表す光学系伝達関数OTF(fx,fy,t)は、瞳関数PF(x,y,t)を使って、次式(4)によって表すことができる。
外界画像io(x,y,h,t)をRGBの3成分に分けて表現した各画像を、ior=io(x,y,r,t)、iog=io(x,y,g,t)、iob=io(x,y,b,t)とし、これらの2次元フーリエ変換をそれぞれIOr,IOg,IObとすると、ドライバーの光学系を通過した後に網膜に投影される網膜投影像ir(x,y,h,t)は、次式(5)にて表すことができる。
網膜投影像推定部12は、このようにして、各ピクセルがRGB値で表現された外界画像io(x,y,h,t)から、各フレームごとに、同じRGB値で表現される網膜投影像ir(x,y,h,t)を演算する。 In this way, the retinal projection image estimation unit 12 uses the retinal projection expressed by the same RGB value for each frame from the external image io (x, y, h, t) in which each pixel is expressed by the RGB value. The image ir (x, y, h, t) is calculated.
この網膜投影像推定部12は、本発明の網膜投影像推定手段に相当する。 This retinal projection image estimation unit 12 corresponds to the retinal projection image estimation means of the present invention.
個人眼特性記憶部15は、不揮発性メモリであって、ドライバーの個人眼特性を記憶している。ユーザーは、眼科医院等において測定されたドライバーの眼光学系の波面収差を表すデータ(係数Cn,mに相当するデータ)を、入力部23を介して個人眼特性記憶部15に記憶させる。この個人眼特性は、ドライバーが補助レンズを装着して運転する場合には、ドライバーの眼球と補助レンズとからなる光学系の光学特性である。この場合、ドライバーの眼球と補助レンズとを合成した光学特性を入力してもよいし、それらの個々の光学特性を入力してもよい。 The personal eye characteristic storage unit 15 is a non-volatile memory and stores the personal eye characteristic of the driver. The user stores data representing the wavefront aberration of the driver's eye optical system (data corresponding to the coefficient Cn, m) measured in an ophthalmic clinic or the like in the personal eye characteristic storage unit 15 via the input unit 23. This personal eye characteristic is an optical characteristic of an optical system including a driver's eyeball and an auxiliary lens when the driver wears an auxiliary lens for driving. In this case, optical characteristics obtained by synthesizing the driver's eyeball and auxiliary lens may be input, or individual optical characteristics thereof may be input.
網膜投影像推定部12は、この個人眼特性記憶部15に記憶されたデータを読み込んで、網膜投影像ir(x,y,h,t)を演算する。尚、データ(個人眼特性)の入力にあたっては、データを記憶した記憶媒体を入力部23に接続して入力部23がそのデータを読み込むようにしてもよいし、ユーザーがマニュアル操作で入力部23にデータ入力してもよいし、外部の無線通信装置から送信されたデータを入力部23で受信するようにしてもよく、任意の形態を採用することができる。 The retinal projection image estimation unit 12 reads the data stored in the personal eye characteristic storage unit 15 and calculates the retinal projection image ir (x, y, h, t). When inputting data (individual eye characteristics), a storage medium storing data may be connected to the input unit 23 so that the input unit 23 reads the data, or the user manually operates the input unit 23. Data may be input to the terminal, or data transmitted from an external wireless communication device may be received by the input unit 23, and any form can be adopted.
この入力部23と個人眼特性記憶部15とからなる構成は、本発明の個人眼特性取得手段に相当する。 The configuration including the input unit 23 and the personal eye characteristic storage unit 15 corresponds to the personal eye characteristic acquisition unit of the present invention.
図2は、乱視眼の波面収差を表す。図中において、濃い部分がマイナス強度となるエリア、薄い部分がプラス強度となるエリアを表す。乱視眼においては、受光面の位置によって強度が変化する。一方、正常眼では、波面収差が小さく、ほぼ受光面の全域において、強度が一定となる。図3は、網膜投影像を表し、(a)は正常眼の網膜投影像であり、(b)は乱視眼の網膜投影像である。この図からわかるように、正常眼に比べて波面収差の大きな乱視眼では、網膜投影像が不鮮明となる。尚、同じ波面収差を有する眼球であっても、瞳孔径が大きい場合には、小さい場合に比べて、網膜投影像が不鮮明となる。 FIG. 2 represents the wavefront aberration of an astigmatic eye. In the drawing, a dark portion represents an area having a negative strength, and a thin portion represents an area having a positive strength. In the astigmatic eye, the intensity varies depending on the position of the light receiving surface. On the other hand, in the normal eye, the wavefront aberration is small, and the intensity is constant over almost the entire light receiving surface. FIG. 3 shows a retinal projection image, (a) is a retinal projection image of a normal eye, and (b) is a retinal projection image of an astigmatic eye. As can be seen from this figure, the retinal projection image is unclear in an astigmatic eye having a larger wavefront aberration than that of a normal eye. Even in the case of an eyeball having the same wavefront aberration, when the pupil diameter is large, the retinal projection image is unclear compared to the case where the pupil diameter is small.
網膜投影像推定部12は、演算した左右眼の網膜投影像ir(x,y,h,t)を網膜出力像推定部13に供給する。網膜出力像推定部13は、標準的な人の左右眼の網膜視細胞配列モデルを記憶している。この網膜視細胞配列モデルは、人間の網膜の解剖学的知見に従って、赤錐体、緑錐体、および、青錐体の3種類の錐体細胞と、桿体細胞とを配列して構成される。 The retinal projection image estimation unit 12 supplies the calculated retinal projection images ir (x, y, h, t) of the left and right eyes to the retinal output image estimation unit 13. The retinal output image estimation unit 13 stores a standard retinal photoreceptor array model for the left and right eyes of a person. This retinal photoreceptor cell arrangement model is configured by arranging three types of cone cells, a red cone, a green cone, and a blue cone, and rod cells according to the anatomical knowledge of the human retina. The
図4(a)に示すように、錐体細胞は、中心窩に近いほど多く存在し、そのサイズは中心窩に近いほど小さい。錐体細胞の直径は、中心窩において約2μm、中心窩の外側20deg付近では約10μmである。一方、桿体細胞は、中心窩付近には殆ど存在せず、外側20degあたりに最も密に存在する。桿体細胞の直径は、中心窩から外側40degまでのあいだに存在するものでは約1.5μm、それより外側では約2.5μmである。また、鼻側15deg付近には視細胞が存在しない領域(盲点)が存在する。 As shown in FIG. 4A, the more pyramidal cells are located closer to the fovea, the smaller the size is closer to the fovea. The diameter of the cone cell is about 2 μm in the fovea and about 10 μm near the outer 20 deg of the fovea. On the other hand, rod cells are scarcely present near the fovea and are most densely around the outer 20 deg. The diameter of the rod cell is about 1.5 μm when present between the fovea and the outer 40 deg, and about 2.5 μm outside it. In addition, there is a region (blind spot) where no photoreceptor exists in the vicinity of the nasal side 15 deg.
網膜視細胞配列モデルは、こうした人間の網膜視細胞の空間配列特性を考慮して作成されている。この網膜視細胞配列モデルにおいては、最も小さい桿体細胞の1つが1×1ピクセルで表現され、外側20deg付近に位置する大きな錐体細胞の1つが5×5ピクセルで表現されている。また、他の位置の桿体細胞、および、錐体細胞についても、人間の網膜視細胞の大きさに合わせて表現するピクセル数が設定されている。 The retinal photoreceptor cell arrangement model is created in consideration of the spatial arrangement characteristics of human retinal photoreceptor cells. In this retinal photoreceptor cell array model, one of the smallest rod cells is represented by 1 × 1 pixel, and one of the large cone cells located near the outer 20 deg is represented by 5 × 5 pixels. Also, the number of pixels to be expressed in accordance with the size of the human retinal photoreceptor cell is set for rod cells and cone cells at other positions.
人間の眼球の直径を24mmとすると、視野角1degあたりのピクセル数は、約140[pix/deg]となる。本実施形態においては、網膜視細胞配列モデルは、視野角±80degの範囲で作成されている。この場合、網膜視細胞配列モデルには、501,760,000(=140pix×160deg)2)ピクセルが含まれる。 If the diameter of the human eyeball is 24 mm, the number of pixels per viewing angle of 1 deg is about 140 [pix / deg]. In the present embodiment, the retinal photoreceptor cell arrangement model is created in the range of viewing angle ± 80 deg. In this case, the retinal photoreceptor cell array model includes 501,760,000 (= 140 pix × 160 deg) 2 ) pixels.
図4(b)は、網膜視細胞配列モデル(灰色の円形領域)の視野角範囲を表した図であり、図4(c)は、網膜視細胞配列モデルにおける中心窩付近の網膜視細胞の配列を拡大して表した図であり、図4(d)は網膜視細胞配列モデルにおける中心窩から離れた位置の網膜視細胞の配列を拡大して表した図である。この例では、視細胞は、中心窩付近において、図4(c)に示すように、それぞれ1×1ピクセルの青錐体(図中において黒色)、赤錐体(図中において濃い灰色)、緑錐体(図中において薄い灰色)、および、桿体(図中において白色)により表現されている。また、中心窩から離れた位置として図4(d)に示す例では、視細胞は、それぞれ5×5ピクセルよりもやや小さな青錐体(図中において最も濃い灰色で表された部分)、赤錐体(図中において2番目に濃い灰色で表された部分)、および、緑錐体(図中において3番目に濃い灰色で表された部分)と、1×1ピクセルの桿体(図中において最も薄い灰色で表された部分)とにより表現されている。尚、図4(c),(d)において示した格子の1つが、1ピクセルに相当する。 FIG. 4 (b) is a diagram showing the viewing angle range of the retinal photoreceptor array model (gray circular region), and FIG. 4 (c) is a diagram of retinal photoreceptor cells near the fovea in the retinal photoreceptor array model. FIG. 4D is an enlarged view of the arrangement of retinal photoreceptors at a position away from the fovea in the retinal photoreceptor arrangement model. In this example, as shown in FIG. 4 (c), the photoreceptor cells are 1 × 1 pixel blue cones (black in the figure), red cones (dark gray in the figure), It is represented by a green cone (light gray in the figure) and a rod (white in the figure). In the example shown in FIG. 4D as a position away from the fovea, the photoreceptor cells are blue cones slightly smaller than 5 × 5 pixels (the darkest gray portion in the figure), red A cone (the second dark gray part in the figure), a green cone (the third dark gray part in the figure), and a 1 × 1 pixel rod (in the figure) In the lightest gray). One of the lattices shown in FIGS. 4C and 4D corresponds to one pixel.
人間の視細胞がフラッシュ状光を受光してから反応するまでの遅れ時間は、錐体細胞で約30ms、桿体細胞で約70msである。また、視細胞の反応が最大となるのは、錐体細胞で約100ms、桿体細胞で約200msである。従って、こうした反応特性に基づいて、視細胞のダイナミクス(インパルス応答)を式にすると、次式(6)、(7)のように表現することができる。
網膜出力像推定部13においては、各ピクセルがRGB値で表現された網膜投影像から赤錐体、緑錐体、および、青錐体の応答を演算するために、以下の変換式が用いられる。画像のRGB値(0〜255の値を持つ)から色座標XYZへの変換には、国際照明委員会(CIE)が定めた標準輝度D65(相関色温度が6504kで日光をシミュレートしたもの)を用いた次式(8)が用いられる。
また、上記式(9)において、R’,G’,B’は、それぞれ、R’=(画素値R/255)、G’=(画素値G/255),B’=(画素値B/255)を表す。
更に、式(8)で演算された色座標XYZからL,M,S錐体(赤錐体、緑錐体、青錐体)の応答への変換には、Hunt−Pointerが2002年に提案した次式(10)で表されるXYZ−LMS変換式が用いられる。
In the above equation (9), R ′, G ′, and B ′ are R ′ = (pixel value R / 255), G ′ = (pixel value G / 255), and B ′ = (pixel value B), respectively. / 255).
Furthermore, Hunt-Pointer proposed in 2002 to convert the color coordinates XYZ calculated by Equation (8) into responses of L, M, and S cones (red, green, and blue cones). The XYZ-LMS conversion formula represented by the following formula (10) is used.
網膜視細胞配列モデルは、網膜投影像と同じサイズ(ピクセル数)で表現される。網膜視細胞配列モデルにおいては、網膜投影像のある一つのピクセルのRGB値が上記式によりLMS値に変換されるが、これを受容する網膜視細胞配列モデルの対応要素(ピクセル)には、L,M,S錐体(赤錐体、緑錐体、青錐体)のいずれか、または、桿体が割り当てられている。この場合、例えば、赤錐体が割り当てられているピクセルでは、そのピクセルでのLMS値は、M=0,S=0とされ、緑錐体が割り当てられているピクセルでは、そのピクセルでのLMS値は、L=0,S=0とされ、青錐体が割り当てられているピクセルでは、そのピクセルでのLMS値は、L=0,M=0とされる。このように、RGB値から変換されたLMS値のうち、網膜視細胞配列モデルの要素に割り当てられたL,M,Sいずれかの錐体以外の応答は、0とされる。この場合、例えば、5×5ピクセルで1つの錐体を表現している領域では、網膜投影像における該当する25ピクセルの全てに対して同様の処理が行われ、それらの合計値が、その錐体における応答値とされる。 The retinal photoreceptor cell arrangement model is expressed with the same size (number of pixels) as the retinal projection image. In the retinal photoreceptor cell array model, the RGB value of one pixel of the retinal projection image is converted into an LMS value by the above formula. The corresponding element (pixel) of the retinal photoreceptor array model that receives this is L , M, S cones (red cones, green cones, blue cones) or rods are assigned. In this case, for example, for a pixel to which a red cone is assigned, the LMS value at that pixel is M = 0 and S = 0, and for a pixel to which a green cone is assigned, the LMS at that pixel is set. The values are L = 0 and S = 0, and in the pixel to which the blue cone is assigned, the LMS value at the pixel is L = 0 and M = 0. Thus, of the LMS values converted from the RGB values, responses other than the L, M, and S cones assigned to the elements of the retinal photoreceptor cell array model are set to zero. In this case, for example, in a region expressing one cone with 5 × 5 pixels, the same processing is performed on all the corresponding 25 pixels in the retinal projection image, and the total value thereof is the cone. The response value in the body.
また、式(6)に示したL,M,S各錐体の応答ダイナミクスについては、次式(11)により表すことができる。
一方、RGB値で表現された網膜投影像のうち、桿体で受容される部分の桿体応答については、以下のように計算することができる。まず、次式(12)に示すように、CCIRrec.601によって規定されるNTCS係数による加重平均法により輝度値Rod(x,y,t)の近似値を求める。
桿体応答は、明るいところでは飽和する。この飽和特性を表現するために、Rodについては、便宜的に、最大値255のところ40で飽和するものとしている。ただし、このようにすると桿体部分の画素値が錐体部分に比べて暗くなってしまう。そこで、同一光刺激に対し桿体は錐体の約2.5倍の膜電位変化を生じることから、上記40で飽和させたRodの出力も2.5倍することとしている。式(7)に示した桿体の応答ダイナミクスについても、式(13)により表すことができる。
網膜出力像推定部13は、網膜投影像が網膜視細胞配列モデルに投影されたときの、網膜視細胞配列モデルの時間応答をRGB値で表現した網膜視細胞配列空間標本化像(以下、網膜出力像と呼ぶ)を演算により求める。この場合、網膜出力像推定部13は、赤錐体の応答として、Ldの最大値が255になるようにLdを正規化した値であるLdxを演算し、赤錐体のRGB値を赤色の明暗で表現した[R=Ldx,G=0,B=0]に設定する。同様に、網膜出力像推定部13は、緑錐体の応答として、Mdの最大値が255になるようにMdを正規化した値であるMdxを演算し、緑錐体のRGB値を緑色の明暗で表現した[R=0,G=Mdx,B=0]に設定する。同様に、網膜出力像推定部13は、青錐体の応答として、Sdの最大値が255になるようにSdを正規化した値であるSdxを演算し、青錐体のRGB値を青色の明暗で表現した[R=0,G=0,B=Sdx]に設定する。 The retinal output image estimation unit 13 obtains a retinal photoreceptor cell array space sampled image (hereinafter referred to as the retina) representing the time response of the retinal photoreceptor array model with RGB values when the retinal projection image is projected onto the retinal photoreceptor array model. Is called an output image). In this case, the retinal output image estimation unit 13 calculates Ldx which is a value obtained by normalizing Ld so that the maximum value of Ld becomes 255 as a response of the red cone, and the RGB value of the red cone is changed to red. [R = Ldx, G = 0, B = 0] expressed in light and dark. Similarly, the retinal output image estimation unit 13 calculates Mdx which is a value obtained by normalizing Md so that the maximum value of Md becomes 255 as a response of the green cone, and the RGB value of the green cone is changed to green. [R = 0, G = Mdx, B = 0] expressed in light and dark. Similarly, the retinal output image estimation unit 13 calculates Sdx, which is a value obtained by normalizing Sd so that the maximum value of Sd becomes 255 as the response of the blue cone, and converts the RGB value of the blue cone into a blue color. [R = 0, G = 0, B = Sdx] expressed in light and dark.
この網膜出力像推定部13は、本発明の網膜出力像推定手段に相当する。 This retinal output image estimation unit 13 corresponds to the retinal output image estimation means of the present invention.
尚、網膜視細胞配列モデルは、ドライバーの個々の網膜特性を反映させたものであってもよい。例えば、ユーザーは、個人眼特性記憶部15に、予め、ドライバー個人の左右眼の網膜特性を記憶させておく。網膜特性は、例えば、ハンフリー視野計の計測データ(所定視角間隔(例えば、6deg間隔)で視覚感度を計測して定量化された計測データ)を用いることができる。緑内障患者の場合には、網膜上での特定の領域において視覚感度の低い部分が存在する。従って、この網膜特性を個人眼特性記憶部15に記憶させておくことで、網膜に視野欠損が生じているドライバーに適した網膜視細胞配列モデルを作成することができる。この場合、網膜出力像推定部13は、ハンフリー視野計の計測データに基づいて、視覚感度の低い領域ほど応答値(RGB値)を小さくするように設定する視野細胞感度空間フィルタを用いて、網膜出力像を補正するようにすればよい。 The retinal photoreceptor cell arrangement model may reflect the individual retinal characteristics of the driver. For example, the user stores the retinal characteristics of the left and right eyes of the driver in advance in the personal eye characteristic storage unit 15. For the retinal characteristics, for example, Humphrey perimeter measurement data (measurement data quantified by measuring visual sensitivity at a predetermined viewing angle interval (for example, 6 deg interval)) can be used. In the case of glaucoma patients, there is a portion with low visual sensitivity in a specific region on the retina. Therefore, by storing this retinal characteristic in the personal eye characteristic storage unit 15, it is possible to create a retinal photoreceptor cell arrangement model suitable for a driver having a visual field defect in the retina. In this case, the retinal output image estimation unit 13 uses a visual field cell sensitivity spatial filter that sets a response value (RGB value) to be smaller in a region with lower visual sensitivity based on measurement data of the Humphrey perimeter. What is necessary is just to correct | amend an output image.
また、詳細な計測データを用いなくても、大ざっぱに視野欠損領域がわかっている場合には、その視野欠損領域(例えば、上縁、右上縁、右縁、右下縁、下縁、左下縁、左縁、左上縁、中央、中央上側、中央右上側、中央右側、中央右下側、中央下側、中央左下側、中央左側、中央左上側など)を、ユーザーが入力部23を使って、複数領域にわたって選択できるようにしてもよい。この場合においても、網膜出力像推定部13は、視野欠損領域内の応答値が小さくなるように設定する視野細胞感度空間フィルタを用いて、網膜出力像を補正する。 In addition, if the visual field defect region is roughly known without using detailed measurement data, the visual field defect region (eg, upper edge, upper right edge, right edge, lower right edge, lower edge, lower left edge) The left edge, the upper left edge, the center, the upper center, the center upper right, the center right, the center lower right, the center lower, the center lower left, the center left, the center upper left, etc.) The selection may be made over a plurality of areas. Even in this case, the retinal output image estimation unit 13 corrects the retinal output image using the visual field cell sensitivity spatial filter that is set so that the response value in the visual field defect region is small.
あるいは、網膜出力像推定部13は、ドライバーの年齢に応じた標準的な網膜視細胞配列モデルを選択するように構成されていてもよい。この場合、例えば、網膜出力像推定部13は、年齢層ごとの標準的な網膜視細胞配列モデルを記憶しており、ユーザーが入力部23を介して個人眼特性記憶部15に記憶させたドライバーの年齢に基づいて、ドライバーの年齢に応じた標準的な網膜視細胞配列モデルを選択する。 Alternatively, the retinal output image estimation unit 13 may be configured to select a standard retinal photoreceptor cell arrangement model according to the age of the driver. In this case, for example, the retinal output image estimation unit 13 stores a standard retinal photoreceptor cell arrangement model for each age group, and a driver stored in the personal eye characteristic storage unit 15 by the user via the input unit 23. A standard retinal photoreceptor array model according to the age of the driver is selected based on the age of the driver.
あるいは、網膜出力像推定部13は、ドライバーの年齢に応じた視野細胞感度空間フィルタを選択するように構成されていてもよい。この場合、例えば、網膜出力像推定部13は、年齢層ごとの視野細胞感度空間フィルタを複数記憶しており、ユーザーが入力部23を介して個人眼特性記憶部15に記憶させたドライバーの年齢に基づいて、ドライバーの年齢に応じた視野細胞感度空間フィルタを選択する。 Alternatively, the retinal output image estimation unit 13 may be configured to select a visual field cell sensitivity space filter according to the age of the driver. In this case, for example, the retinal output image estimation unit 13 stores a plurality of visual field cell sensitivity spatial filters for each age group, and the driver's age stored by the user in the personal eye characteristic storage unit 15 via the input unit 23. Based on the above, a visual field cell sensitivity spatial filter is selected according to the age of the driver.
図6は、外界画像(a)と、その外界画像から演算された網膜出力像(b)の一例を表す。 FIG. 6 shows an example of an external image (a) and a retinal output image (b) calculated from the external image.
網膜出力像推定部13は、演算した左右眼の網膜出力像を局所領域情報量演算部14に供給する。局所領域情報量演算部14は、網膜出力像を所定の視野角(本実施形態では、上下、左右方向に2deg)で区画した正方形の領域A(局所領域Aと呼ぶ)ごとに、その局所領域Aの有する情報量(エントリピー)である局所領域情報量Hを演算する。局所領域情報量Hは、次式(14)により演算される。
局所領域情報量演算部14は、図8に示すように、網膜出力像上で、局所領域A(2deg×2degの正方形領域)を0.25degずつ横方向にスライドさせつつ、各スライド位置ごとの局所領域Aにおける局所領域情報量Hを演算する。局所領域情報量演算部14は、演算した各局所領域Aの局所領域情報量Hを、その局所領域Aの中心点AOにおける画像情報量として取り扱う。局所領域情報量演算部14は、網膜出力像の横方向全体にわたる局所領域情報量Hの演算(サンプリング)が終了すると、局所領域Aを0.25degずつ縦方向にスライドさせた位置で同様の処理を繰り返す。こうして、局所領域情報量演算部14は、網膜出力像の全体にわたって、局所領域情報量Hを左右および上下に0.25degの間隔でサンプリングする。 As shown in FIG. 8, the local area information amount calculation unit 14 slides the local area A (2 deg × 2 deg square area) horizontally by 0.25 deg on the retinal output image, for each slide position. The local area information amount H in the local area A is calculated. The local area information amount calculation unit 14 handles the calculated local area information amount H of each local area A as an image information amount at the center point AO of the local area A. When the calculation (sampling) of the local area information amount H over the entire horizontal direction of the retinal output image is completed, the local area information amount calculation unit 14 performs the same processing at a position where the local area A is slid 0.25 degrees in the vertical direction. repeat. In this way, the local region information amount calculation unit 14 samples the local region information amount H at intervals of 0.25 deg horizontally and vertically over the entire retinal output image.
こうしたサンプリングによって、見落とし危険度マップが作成される。見落とし危険度マップは、図9に示すように、左右および上下に視野角0.25degの間隔で、網膜出力像における各座標位置(x,y)と局所領域情報量Hとを対応付けた二次元マップである。局所領域情報量演算部14は、網膜出力像が切り替わるたびに(その周期は外界画像の撮影周期でもあり、網膜投影像が演算される演算周期でもある)、網膜出力像に対応した見落とし危険度マップを作成する。従って、時々刻々と変化する見落とし危険度マップが作成される。 An oversight risk map is created by such sampling. As shown in FIG. 9, the oversight risk degree map is obtained by associating each coordinate position (x, y) and local area information amount H in the retinal output image with an interval of a viewing angle of 0.25 deg. It is a dimension map. Each time the retinal output image is switched (the period is also an imaging period of the external image and the calculation period in which the retinal projection image is calculated), the local region information amount calculation unit 14 is the degree of oversight risk corresponding to the retinal output image. Create a map. Therefore, an oversight risk map that changes from moment to moment is created.
この場合、局所領域情報量演算部14は、左眼の網膜出力像から演算される左眼見落とし危険度マップと、右眼の網膜出力像から演算される右眼見落とし危険度マップとを融合する(重ね合わせる)ことによって、両眼見落とし危険度マップ(以下、単に見落とし危険度マップと呼ぶ)を作成する。見落とし危険度マップは、例えば、左右の網膜出力像の座標位置を整合させた状態で、座標位置ごとに右眼見落とし危険度マップの局所領域情報量Hと左眼見落とし危険度マップの局所領域情報量HとにおけるOR情報によって作成される。つまり、左右両眼の危険度マップの局所領域情報量Hにおける大きい方の値が選択されて作成される。従って、左右両眼とも局所領域情報量Hが小さい場合には、見落とし危険度マップの局所領域情報量Hは小さい値となり、何れか片眼において局所領域情報量Hが大きい場合には、見落とし危険度マップの局所領域情報量Hは大きい値に設定される。尚、左右両眼において所望の局所領域情報量Hが得られている場合と、何れか片眼において所望の局所領域情報量Hが得られている場合とでは、前者の局所領域情報量Hを後者の局所領域情報量Hよりも大きくなるように補正する、あるいは、後者の局所領域情報量Hを前者の局所領域情報量Hよりも小さくなるように補正しても構わない。 In this case, the local region information amount calculation unit 14 merges the left-eye oversight risk map calculated from the left-eye retinal output image and the right-eye oversight risk map calculated from the right-eye retinal output image. (Overlapping) creates a binocular oversight risk map (hereinafter simply referred to as an oversight risk map). For example, in the state where the left and right retinal output image coordinate positions are matched, the oversight risk map is a local area information amount H of the right eye oversight risk map and local area information of the left eye oversight risk map for each coordinate position. Created by OR information in quantity H. That is, the larger value in the local area information amount H of the left and right eye risk maps is selected and created. Therefore, when the local area information amount H is small for both the left and right eyes, the local area information amount H of the oversight risk degree map is a small value, and when the local area information amount H is large for any one eye, there is an oversight danger. The local area information amount H of the degree map is set to a large value. It should be noted that when the desired local region information amount H is obtained for both the left and right eyes and when the desired local region information amount H is obtained for any one eye, the former local region information amount H is obtained. You may correct | amend so that it may become larger than the latter local region information amount H, or you may correct | amend the latter local region information amount H so that it may become smaller than the former local region information amount H.
見落とし危険度は、ドライバーの視野内に存在する物体の見落としやすさを表す指標であり、局所領域情報量Hが少なくなるほど高くなる。従って、見落とし危険度マップは、左右および上下に0.25degの間隔で、ドライバーの視野内における座標位置(x,y)と、見落とし危険度とを対応付けた二次元マップであると言い換えることができる。 The oversight risk is an index indicating the ease of oversight of an object existing in the driver's field of view, and increases as the local area information amount H decreases. Therefore, the oversight risk map can be paraphrased as a two-dimensional map in which the coordinate position (x, y) in the driver's field of view and the oversight risk are associated with each other at intervals of 0.25 deg horizontally and vertically. it can.
図10〜図13は、外界画像(図6(a)に示す外界画像)から作成された見落とし危険度マップの例を表す。図中においては、濃淡によって見落とし危険度が表現されており、濃い領域ほど見落とし危険度が高い領域(換言すれば、局所領域情報量Hが少ない領域)として表現されている。図10,図11に示す例は、盲点を示すために、見落とし危険度マップは、片眼(左眼)のものである。図12は、参考として、図10の見落とし危険度マップに外界画像を重ね合わせた図である。図13は、両眼見落とし危険度マップの一例を表す。例えば、図11は、乱視眼のドライバーの見落とし危険度マップであって、図10に示す見落とし危険度マップに比べて、見落とし危険度が高い領域が広く存在する。尚、この図10〜図13に示す見落とし危険度マップは、外界画像の領域の範囲にて示している。 10 to 13 show examples of an oversight risk map created from an external image (the external image shown in FIG. 6A). In the drawing, the degree of oversight risk is expressed by shading, and the darker the region, the higher the oversight risk is expressed (in other words, the region where the local region information amount H is small). In the examples shown in FIGS. 10 and 11, the oversight risk map is for one eye (left eye) in order to show a blind spot. FIG. 12 is a diagram in which an external image is superimposed on the oversight risk map of FIG. 10 for reference. FIG. 13 shows an example of the binocular oversight risk degree map. For example, FIG. 11 is an oversight risk map for drivers with astigmatic eyes, and there are a wide range of areas with a high risk of oversight compared to the oversight risk map shown in FIG. Note that the oversight risk map shown in FIGS. 10 to 13 is shown in the range of the external image area.
局所領域情報量演算部14は、演算した見落とし危険度マップを表す情報を注意喚起制御部17に出力する。この局所領域情報量演算部14は、本発明の局所領域情報量演算手段に相当する。また、網膜投影像推定部12、網膜出力像推定部13、および、局所領域情報量演算部14からなる構成は、本発明のマップ演算手段に相当する。 The local area information amount calculation unit 14 outputs information representing the calculated oversight risk map to the alerting control unit 17. The local area information amount calculation unit 14 corresponds to the local area information amount calculation means of the present invention. The configuration including the retinal projection image estimation unit 12, the retinal output image estimation unit 13, and the local area information amount calculation unit 14 corresponds to the map calculation means of the present invention.
注意喚起制御部17は、局所領域情報量演算部14から出力された見落とし危険度マップを表す情報と、障害物検出部16から出力された障害物に関する情報とに基づいて、ドライバーに注意喚起すべき障害物(注意喚起対象物)の有無を判定し、注意喚起対象物が存在する場合に、報知器24を作動させてドライバーに注意喚起対象物の存在を知らせる。この注意喚起制御部17および報知器24は、本発明の注意喚起手段に相当する。 The alerting control unit 17 alerts the driver based on the information indicating the oversight risk degree map output from the local region information amount calculation unit 14 and the information regarding the obstacle output from the obstacle detection unit 16. The presence / absence of an obstacle to be alerted (judgment target) is determined, and when the alert target is present, the alarm 24 is activated to notify the driver of the presence of the alert target. This alerting control part 17 and the alarm device 24 correspond to the alerting means of the present invention.
障害物検出部16は、第1カメラ21の撮影によって得られた外界画像を画像処理して、外界画像から立体物を抽出し、その立体物の形状および動き等に基づいて、立体物の種類(歩行者、二輪車、自動車等)を特定する。障害物検出部16は、自車両と衝突するおそれのある立体物を障害物として認識して、その障害物の外界画像における座標位置、および、自車両と障害物との接近状況(例えば、自車両と障害物との距離、自車両と障害物との接近速度など)を表す情報を注意喚起制御部17に供給する。障害物検出部16は、本発明の障害物情報取得手段に相当する。 The obstacle detection unit 16 performs image processing on an external image obtained by photographing with the first camera 21, extracts a three-dimensional object from the external image, and determines the type of the three-dimensional object based on the shape and movement of the three-dimensional object. Identify pedestrians, motorcycles, cars, etc. The obstacle detection unit 16 recognizes a three-dimensional object that may collide with the host vehicle as an obstacle, the coordinate position in the external image of the obstacle, and the approach state between the host vehicle and the obstacle (for example, the own vehicle). Information indicating the distance between the vehicle and the obstacle, the approaching speed between the host vehicle and the obstacle, and the like is supplied to the alerting control unit 17. The obstacle detection unit 16 corresponds to the obstacle information acquisition unit of the present invention.
正常な視覚能力を備えたドライバーであれば、障害物の存在を認識して衝突回避操作(ブレーキ操作、および、ハンドル操作)を行うことができる。しかし、ドライバーは、必ずしも正常な視覚能力を備えているわけではなく、障害物を見落としてしまうことがある。そこで、注意喚起制御部17は、見落とし危険度マップを参照して、ドライバーの見落とし危険度の高い領域(方向)に検出されている障害物に限って、その障害物と自車両との接近度合が閾値を超えたときに、ドライバーがその障害物を見落としていると推定して、その障害物を注意喚起対象物に設定する。 A driver with normal visual ability can recognize the presence of an obstacle and perform a collision avoidance operation (brake operation and steering wheel operation). However, drivers do not necessarily have normal visual ability and may overlook obstacles. Therefore, the alerting control unit 17 refers to the oversight risk map and limits the degree of approach between the obstacle and the host vehicle only for the obstacle detected in the area (direction) where the driver has a high oversight risk. When the value exceeds the threshold, it is estimated that the driver has overlooked the obstacle, and the obstacle is set as the alert target.
見落とし危険度マップは、外界画像における座標(x,y)と対応がとれている。このため、外界画像から検出された障害物の位置は、見落とし危険度マップ上における位置として求めることができる。注意喚起制御部17は、見落とし危険度マップ上において障害物が検出されている領域の局所領域情報量Hを抽出する。この場合、障害物が検出されている領域内の各局所領域Aの中心点AOの局所領域情報量Hのうち最も大きい値を、その障害物の視覚情報量(以下、障害物視覚情報量と呼ぶ)とすればよい。従って、障害物が検出されている領域内に1つでも局所領域情報量Hの大きい値をとる局所領域が存在する場合には、障害物視覚情報量は大きい値に設定される。この障害物視覚情報量が少ないほど、見落とし危険度が高くなる。 The oversight risk map corresponds to the coordinates (x, y) in the external image. For this reason, the position of the obstacle detected from the external image can be obtained as a position on the oversight risk map. The alerting control unit 17 extracts the local area information amount H of the area where the obstacle is detected on the oversight risk degree map. In this case, the largest value of the local area information amount H of the central point AO of each local area A in the area where the obstacle is detected is set as the visual information amount of the obstacle (hereinafter referred to as the obstacle visual information amount). Call it). Therefore, when there is at least one local region having a large local region information amount H in the region where an obstacle is detected, the obstacle visual information amount is set to a large value. The smaller the obstacle visual information amount, the higher the risk of oversight.
注意喚起制御部17は、この障害物視覚情報量が予め設定した情報量閾値よりも少ない障害物については、見落とし危険度が予め設定した危険度閾値よりも高い視野領域(以下、単に、見落とし危険領域と呼ぶ)に入っていると判定する。注意喚起制御部17は、見落とし危険領域に入っていると判定した障害物についてのみ、この障害物と自車両との接近度合を演算する。接近度合は、注意喚起を行うか否かを決定するパラメータ、つまり、注意喚起を行うタイミングを決定するパラメータである。 For the obstacle whose visual information amount of the obstacle is smaller than the preset information amount threshold, the alerting control unit 17 has a visual field region (hereinafter simply referred to as oversight danger) whose risk of oversight is higher than the preset risk level threshold. It is determined that it is in the area. The alerting control unit 17 calculates the degree of approach between the obstacle and the host vehicle only for the obstacle that is determined to be in the overlooked dangerous area. The degree of approach is a parameter that determines whether or not to call attention, that is, a parameter that determines the timing to call attention.
例えば、接近度合は、現時点から自車両と障害物とが衝突すると予測される時刻までの時間である衝突予測時間を用いることができる。この衝突予測時間は、自車両と障害物とのあいだの距離を、自車両と障害物との相対速度で除算することによって求めることができる。あるいは、接近度合は、衝突予測時間に代えて、自車両と障害物との距離を用いることもできる。 For example, the degree of approach may be a collision prediction time that is a time from the current time to a time when the host vehicle and the obstacle are predicted to collide. The predicted collision time can be obtained by dividing the distance between the host vehicle and the obstacle by the relative speed between the host vehicle and the obstacle. Alternatively, as the approach degree, the distance between the host vehicle and the obstacle can be used instead of the collision prediction time.
注意喚起制御部17は、自車両と、見落とし危険領域に入っている障害物との接近度合が、予め設定された接近度合閾値よりも大きくなった時に、この障害物を注意喚起対象物に設定して、報知器24を作動させてドライバーに対して障害物(注意喚起対象物)の存在を知らせる。 The alerting control unit 17 sets the obstacle as an alerting object when the approaching degree between the host vehicle and the obstacle in the overlooked dangerous area becomes larger than a preset approaching degree threshold. Then, the alarm device 24 is operated to notify the driver of the presence of an obstacle (object to be alerted).
以下、注意喚起制御部17の実施する注意喚起制御処理をフローチャートを使って説明する。図14は、注意喚起制御部17の実施する注意喚起制御ルーチンを表す。注意喚起制御ルーチンは、所定の演算周期にて繰り返し実施される。本ルーチンが起動すると、注意喚起制御部17は、ステップS11において、障害物検出部16によって障害物が検出されているか否かについて判定する。注意喚起制御部17は、障害物が検出されていない場合には、本ルーチンを一旦終了する。 Hereinafter, the alerting control process which the alerting control part 17 implements is demonstrated using a flowchart. FIG. 14 shows an attention control routine executed by the attention control unit 17. The attention calling control routine is repeatedly executed at a predetermined calculation cycle. When this routine is started, the alerting control unit 17 determines whether or not an obstacle is detected by the obstacle detection unit 16 in step S11. If the obstacle is not detected, the alerting control unit 17 once ends this routine.
注意喚起制御部17は、こうした処理を繰り返し、障害物が検出された場合(S11:Yes)には、その処理をステップS12に進めて、その障害物が見落とし危険領域に入っているか否かについて判定する。注意喚起制御部17は、障害物が見落とし危険領域に入っていない場合には、本ルーチンを一旦終了した後、上述した処理を繰り返す。一方、障害物が見落とし危険領域に入っている場合(S12:Yes)には、注意喚起制御部17は、その処理をステップS13に進めて、自車両と障害物との接近度合Gを演算し、続くステップS14において、接近度合Gが接近度合閾値Grefよりも大きいか否かについて判定する。接近度合Gが接近度合閾値Gref以下である場合(S14:No)、注意喚起制御部17は、本ルーチンを一旦終了する。こうした処理が繰り返されて、接近度合Gが接近度合閾値Grefよりも大きくなると(S14:Yes)、注意喚起制御部17は、ステップS15において、この障害物を注意喚起対象物に設定して、報知器24を作動させる。 The alerting control unit 17 repeats such processing, and when an obstacle is detected (S11: Yes), the processing proceeds to step S12, and whether or not the obstacle is in an overlooked danger area. judge. If the obstacle is not in the overlooked dangerous area, the attention drawing control unit 17 once ends the routine and then repeats the above-described processing. On the other hand, when the obstacle is in the overlooked danger area (S12: Yes), the alerting control unit 17 advances the process to step S13, and calculates the degree of approach G between the host vehicle and the obstacle. In subsequent step S14, it is determined whether or not the approach degree G is larger than the approach degree threshold Gref. When the approach degree G is equal to or smaller than the approach degree threshold Gref (S14: No), the alert controller 17 once ends this routine. When such processing is repeated and the approach degree G becomes greater than the approach degree threshold Gref (S14: Yes), the alert control unit 17 sets the obstacle as an alert target in step S15, and notifies the user. Actuator 24 is activated.
例えば、注意喚起制御部17は、接近度合Gとして衝突予測時間を演算し、衝突予測時間が設定時間(予め設定された閾値)よりも短いと判定したとき(S14:Yes)に、この障害物を注意喚起対象物に設定する。あるいは、注意喚起制御部17は、接近度合Gとして自車両と障害物との距離を演算し、この距離が設定距離(予め設定された閾値)よりも短いと判定したときに、この障害物を注意喚起対象物に設定する。注意喚起制御部17は、障害物を注意喚起対象物に設定した場合、その注意喚起対象物の存在を知らせるために、報知器24を作動させる。 For example, the alert control unit 17 calculates the collision prediction time as the approach degree G, and when it is determined that the collision prediction time is shorter than the set time (a preset threshold value) (S14: Yes), this obstacle Is set as the alert object. Alternatively, the alerting control unit 17 calculates the distance between the host vehicle and the obstacle as the approach degree G, and determines that the obstacle is less than a set distance (a preset threshold). Set as a reminder. When the obstacle control unit 17 sets an obstacle as a target object for alerting, the alerting control unit 17 operates the alarm 24 to notify the presence of the target object for attention.
このように、注意喚起制御部17は、接近度合Gが接近度合閾値Grefよりも大きいことを注意喚起条件とし、この注意喚起条件が成立した時に、ドライバーに対して障害物(注意喚起対象物)の存在を知らせる。 In this way, the alerting control unit 17 sets the approaching degree G to be greater than the approaching degree threshold Gref as an alerting condition, and when the alerting condition is satisfied, the driver is an obstacle (attention target) Inform the existence of
この場合、注意喚起制御部17は、スピーカ24bを駆動して注意喚起音を発生させるとともに、注意喚起用表示情報をHUD24aに送信する。この注意喚起用表示情報には、注意喚起用アイコン(例えば、注意喚起対象物を指し示す矢印アイコン)を表示させる位置(アイコン表示位置と呼ぶ)、および、アイコンの矢印の向いている方向(注意方向と呼ぶ)を表す情報が含まれている。 In this case, the alerting control unit 17 drives the speaker 24b to generate an alerting sound, and transmits alerting display information to the HUD 24a. The alert display information includes a position (referred to as an icon display position) for displaying an alert icon (for example, an arrow icon indicating the alert object), and a direction in which the icon arrow is facing (attention direction). Information) is included.
注意喚起制御部17は、アイコン表示位置を、ドライバーの見落とし危険度が予め設定された閾値よりも小さな領域に入る位置に設定するとともに、注意方向を、そのアイコン表示位置から注意喚起対象物に向けた方向に設定する。HUD24aは、注意喚起制御部17から送信された注意喚起用表示情報に基づいて、注意喚起用アイコンをフロントガラスに投影する。 The alerting control unit 17 sets the icon display position to a position where the risk of oversight of the driver is smaller than a preset threshold, and directs the attention direction from the icon display position to the alerting object. Set the direction. The HUD 24a projects an alert icon on the windshield based on the alert display information transmitted from the alert controller 17.
これにより、ドライバーは、フロントガラスに投影された注意喚起用アイコンによって注意喚起され、見落としていた障害物を認識し、衝突回避操作を行うことができる。 As a result, the driver is alerted by the alert icon projected on the windshield, can recognize the obstacle that has been overlooked, and can perform a collision avoidance operation.
尚、ドライバーに対して注意喚起を行う場合、スピーカから障害物の方向を知らせる音声アナウンスを用いることもできる。また、注意喚起用アイコンの表示と音声アナウンスとを組み合わせるようにしてもよい。 In order to alert the driver, a voice announcement that informs the direction of the obstacle from the speaker can also be used. Moreover, you may make it combine the display of the icon for alerting | calling, and an audio announcement.
以上説明した本実施形態の車両用運転支援システム1によれば、ドライバー視覚情報提供部10aが、外界画像と、ドライバーの視線の方向と、ドライバーの個人眼特性とに基づいて、ドライバーの視野内における位置とドライバーの見落としやすさの指標となる見落とし危険度とを対応付けた見落とし危険度マップを作成する。従って、この見落とし危険度マップによって、ドライバーの視野内における見落としやすい方向を把握することができる。 According to the vehicle driving support system 1 of the present embodiment described above, the driver visual information providing unit 10a is based on the external image, the direction of the driver's line of sight, and the driver's personal eye characteristics. An oversight risk map is created that associates the position of the vehicle with the oversight risk that is an index of the ease of oversight of the driver. Therefore, the easy-to-miss direction in the driver's field of view can be ascertained from the oversight risk map.
注意喚起部10bは、外界画像から検出された障害物と、見落とし危険度マップとに基づいて、ドライバーに対して障害物の存在を通知する。従って、ドライバー個々の視覚能力に応じた適切な注意喚起を行うことができる。つまり、ドライバーが見落としていると推定される障害物に対して注意喚起を行うことができる。特に、この実施形態においては、見落とし危険度が閾値よりも高い視野領域に入っている障害物(障害物視覚情報量が予め設定した情報量閾値よりも少ない障害物)についてのみ、その存在がドライバーに通知される。従って、ドライバーが認識している障害物について不要な注意喚起が行われることを低減するができる。これにより、ドライバーに感じさせてしまう煩わしさを低減することができる。 The alerting unit 10b notifies the driver of the presence of the obstacle based on the obstacle detected from the external image and the oversight risk map. Accordingly, it is possible to perform appropriate alerting according to the visual ability of each driver. That is, it is possible to call attention to an obstacle that is estimated to be overlooked by the driver. In particular, in this embodiment, only the obstacles (obstacles whose obstacle visual information amount is smaller than the preset information amount threshold value) are in the visual field region where the risk of oversight is higher than the threshold value. Will be notified. Therefore, it is possible to reduce unnecessary alerts for obstacles recognized by the driver. Thereby, the troublesomeness which a driver feels can be reduced.
また、見落とし危険度マップを作成するにあたって、ドライバーの個人眼特性に応じた網膜投影像が推定され、更に、この網膜投影像が網膜視細胞配列モデルに投影された場合の反応である網膜出力像が推定される。そして、この網膜出力像内における予め設定された広さの局所領域ごとの情報量が演算されることによって、ドライバーの視野内における位置と、情報量とを関係付けた見落とし危険度マップが作成される。従って、この見落とし危険度マップによって、ドライバー個々の外界視覚状況を把握することができる。この結果、ドライバー個々の外界視覚状況に応じた、障害物に対する注意喚起を行うことができる。また、ドライバー個々の網膜特性に応じて網膜視細胞配列モデルを設定した場合には、網膜疾患のあるドライバーに対しても、適正な見落とし危険度マップを演算することができる。 Moreover, when creating the oversight risk map, a retinal projection image corresponding to the driver's personal eye characteristics is estimated, and further, a retinal output image that is a response when this retinal projection image is projected onto the retinal photoreceptor cell array model Is estimated. Then, by calculating the amount of information for each local area of a preset area in the retinal output image, an oversight risk map that associates the position in the driver's field of view with the amount of information is created. The Therefore, it is possible to grasp the external visual situation of each driver using this oversight risk map. As a result, it is possible to alert an obstacle according to the visual environment of each driver. In addition, when a retinal photoreceptor cell array model is set according to the retinal characteristics of each driver, an appropriate oversight risk map can be calculated even for a driver with retinal disease.
<注意喚起の変形例1>
上記実施形態においては、見落とし危険度が閾値よりも高い視野領域に入っている障害物についてのみ、その存在がドライバーに通知されるように構成されている。この変形例1では、見落とし危険度が閾値よりも高い視野領域に入っていない障害物であっても、ドライバーが衝突回避操作を行わないような状況においては、ドライバーに注意喚起を行うように構成されている。
<Variation 1 of alerting>
In the above-described embodiment, the driver is notified of the presence of only an obstacle in the visual field region where the risk of oversight is higher than the threshold. In the first modification, the driver is alerted in a situation where the driver does not perform the collision avoidance operation even if the obstacle is not in the field of view where the risk of oversight is higher than the threshold. Has been.
この変形例1においては、注意喚起制御部17は、予め設定された注意喚起条件が成立したときに障害物の存在をドライバーに通知するように構成され、見落とし危険度が閾値よりも高い視野領域に入っている障害物に対する注意喚起条件が、見落とし危険度が閾値以下の視野領域に入っている障害物に対する注意喚起条件に比べて、ドライバーに対して障害物の存在が通知されやすくなるように設定されている。 In the first modification, the alerting control unit 17 is configured to notify the driver of the presence of an obstacle when a preset alerting condition is satisfied, and the visual field region whose risk of oversight is higher than a threshold value The warning conditions for obstacles in the vehicle are easier to notify the driver of the presence of obstacles than the warning conditions for obstacles in the field of view where the risk of oversight is below the threshold. Is set.
図15は、変形例1に係る注意喚起制御ルーチンを表す。注意喚起制御部17は、変形例1に係る注意喚起制御ルーチンを所定の演算周期にて繰り返し実施する。以下、実施形態と同様の処理については、図面に、実施形態と共通のステップ符号を付して簡単な説明に留める。 FIG. 15 illustrates an alert control routine according to the first modification. The alerting control unit 17 repeatedly executes the alerting control routine according to the modified example 1 at a predetermined calculation cycle. Hereinafter, processing similar to that of the embodiment will be described with the same step symbols as those of the embodiment in the drawings.
本ルーチンが起動すると、注意喚起制御部17は、ステップS11において、障害物が検出されているか否かについて判定し、障害物が検出されるまで、その処理を繰り返す。注意喚起制御部17は、障害物が検出された場合(S11:Yes)、ステップS13において、自車両と障害物との接近度合Gを演算する。続いて、注意喚起制御部17は、ステップS12において、その障害物が見落とし危険領域に入っているか否かについて判定する。このステップS12においては、実施形態と同様に、障害物視覚情報量が予め設定した情報量閾値よりも少ない障害物については、見落とし危険領域に入っていると判定される。 When this routine is activated, the alerting control unit 17 determines whether or not an obstacle is detected in step S11, and repeats the process until an obstacle is detected. When an obstacle is detected (S11: Yes), the alerting control unit 17 calculates the degree of approach G between the host vehicle and the obstacle in step S13. Subsequently, the alerting control unit 17 determines whether or not the obstacle is in an overlooked dangerous area in step S12. In this step S12, as in the embodiment, it is determined that an obstacle having an obstacle visual information amount smaller than a preset information amount threshold is in an overlooked danger area.
注意喚起制御部17は、障害物が見落とし危険領域に入っている場合(S12:Yes)には、ステップS141において、接近度合Gが第1接近度合閾値G1refより大きいか否かについて判定し、接近度合Gが第1接近度合閾値G1refより大きい場合(S141:Yes)には、その処理をステップS15に進めることにより、この障害物を注意喚起対象物に設定して、報知器24を作動させる。これにより、ドライバーに対して障害物への注意喚起が行われる。また、接近度合Gが第1接近度合閾値G1ref以下である場合(S142:No)には、ステップS15の処理をスキップして本ルーチンを一旦終了する。従って、この場合には、ドライバーへの注意喚起が行われない。 When the obstacle is in the overlooked danger area (S12: Yes), the alerting control unit 17 determines whether or not the approach degree G is larger than the first approach degree threshold G1ref in step S141, and approaches When the degree G is larger than the first approach degree threshold G1ref (S141: Yes), the process is advanced to step S15, so that this obstacle is set as an alerting target and the alarm 24 is activated. This alerts the driver to the obstacle. If the approach degree G is equal to or less than the first approach degree threshold value G1ref (S142: No), the process of step S15 is skipped and this routine is once ended. Therefore, in this case, the driver is not alerted.
一方、障害物が見落とし危険領域に入っていないと判定される場合(S12:No)には、注意喚起制御部17は、ステップS142において、接近度合Gが第2接近度合閾値G2refより大きいか否かについて判定する。この第2接近度合閾値G2refは、第1接近度合閾値G1refよりも大きな値に設定されている(G2ref>G1ref)。注意喚起制御部17は、接近度合Gが第2接近度合閾値G2refより大きい場合には、その処理をステップS15に進めることにより、この障害物を注意喚起対象物に設定して、報知器24を作動させる。これにより、ドライバーに対して障害物への注意喚起が行われる。また、接近度合Gが第2接近度合閾値G2ref以下である場合には、ステップS15の処理をスキップして本ルーチンを一旦終了する。従って、この場合には、ドライバーへの注意喚起が行われない。 On the other hand, when it is determined that the obstacle is not in the overlooked dangerous area (S12: No), the alert control unit 17 determines whether or not the approach degree G is greater than the second approach degree threshold G2ref in step S142. Determine whether or not. The second approach degree threshold G2ref is set to a value larger than the first approach degree threshold G1ref (G2ref> G1ref). If the degree of approach G is greater than the second degree of approach threshold G2ref, the alert controller 17 sets the obstacle as an alert target by proceeding to step S15, and sets the alarm 24 Operate. This alerts the driver to the obstacle. If the approach degree G is equal to or smaller than the second approach degree threshold G2ref, the process of step S15 is skipped and the routine is temporarily ended. Therefore, in this case, the driver is not alerted.
例えば、接近度合Gとして衝突予測時間を用いた場合、注意喚起制御部17は、見落とし危険領域に入っていると判定した障害物(ドライバーが視認しにくい障害物)については、衝突予測時間が第1設定時間よりも短いと判定したときに、この障害物を注意喚起対象物に設定する。一方、注意喚起制御部17は、見落とし危険領域に入っていないと判定した障害物(ドライバーが視認しやすい障害物)については、衝突予測時間が第2設定時間(<第1設定時間)よりも短いと判定したときに、この障害物を注意喚起対象物に設定する。また、例えば、接近度合Gとして自車両と障害物との距離を用いた場合、注意喚起制御部17は、見落とし危険領域に入っていると判定した障害物(ドライバーが視認しにくい障害物)については、自車両と障害物との距離が第1設定距離よりも短いと判定したときに、この障害物を注意喚起対象物に設定する。一方、注意喚起制御部17は、見落とし危険領域に入っていないと判定した障害物(ドライバーが視認しやすい障害物)については、自車両と障害物との距離が第2設定距離(<第1設定距離)よりも短いと判定したときに、この障害物を注意喚起対象物に設定する。 For example, when the collision prediction time is used as the approach degree G, the alerting control unit 17 determines the collision prediction time for the obstacle determined to be in the overlooked dangerous area (the obstacle that is difficult for the driver to visually recognize). When it is determined that the time is shorter than one set time, the obstacle is set as an alert target. On the other hand, for the obstacle that is determined not to be in the overlooked danger area (the obstacle that is easy for the driver to visually recognize), the alerting control unit 17 makes the predicted collision time longer than the second set time (<first set time). When it is determined that the obstacle is short, the obstacle is set as a target object to be alerted. For example, when the distance between the host vehicle and the obstacle is used as the approach degree G, the alert control unit 17 determines an obstacle (an obstacle that is difficult for the driver to visually recognize) that is determined to be in an overlooked dangerous area. When it is determined that the distance between the host vehicle and the obstacle is shorter than the first set distance, the obstacle is set as an alert target. On the other hand, for the obstacle that is determined not to be in the overlooked dangerous area (the obstacle that is easily visible to the driver), the alerting control unit 17 sets the distance between the vehicle and the obstacle to the second set distance (<first When it is determined that the distance is shorter than the set distance), this obstacle is set as an alert target.
従って、見落とし危険領域に入っていると判定された障害物については、見落とし危険領域に入っていないと判定された障害物に比べて、早めにドライバーに対して注意喚起が行われる。ドライバーは、自身が障害物の存在を認識しており、障害物に対して衝突回避操作をするつもりでいる状況で注意喚起された場合には、その注意喚起に対して煩わしさを感じる。従って、注意喚起は、安全性を考えれば早めに(接近度合が小さい段階で)行った方がよいものの、ドライバーにとっての煩わしさを考えた場合には、通常の操作で衝突回避できる間は行わないほうがよい。このため、注意喚起のタイミングは、障害物がある程度接近したタイミングで行うことが一般的である。しかし、ドライバーの個々の視覚能力によって、障害物を認識できない場合がある。 Therefore, an obstacle that is determined to be in the overlooked dangerous area is alerted to the driver earlier than an obstacle that is determined not to be in the overlooked dangerous area. When the driver recognizes the presence of an obstacle and is alerted in a situation where he / she intends to perform a collision avoidance operation on the obstacle, the driver feels bothered by the alert. Therefore, although it is better to call attention early (when the degree of approach is small) in consideration of safety, if attention is given to the driver, it will be done while the collision can be avoided by normal operation. It is better not to. For this reason, the timing of alerting is generally performed at a timing when an obstacle approaches to some extent. However, obstacles may not be recognized depending on the individual visual ability of the driver.
そこで、見落とし危険領域に入っていると判定された障害物については、見落とし危険領域に入っていないと判定された障害物に比べて、早めに(接近度合が小さい段階で)ドライバーに対して注意喚起を行うようにする。これにより、良好に認識できると推定される障害物については、注意喚起のタイミングをできるだけ遅くすることができ、逆に、良好に認識できない推定される障害物については、注意喚起のタイミングを早めに設定してドライバーに十分な衝突回避操作時間を与えることができる。この結果、ドライバー個々の視覚能力に応じた適切な注意喚起を行うことができる。 Therefore, for the obstacles that are determined to be in the overlooked danger area, attention is given to the driver earlier (when the degree of approach is small) compared to the obstacles that are determined not to be in the overlooked danger area. Try to call out. As a result, for obstacles that are estimated to be well recognized, the timing of alerting can be delayed as much as possible. Conversely, for obstacles that cannot be recognized well, the timing of alerting is advanced. It can be set to give the driver enough time to avoid collisions. As a result, it is possible to call attention appropriate to the visual ability of each driver.
<注意喚起の変形例2>
上記変形例1においては、見落とし危険領域に入っていると判定された障害物と、見落とし危険領域に入っていないと判定された障害物とで、報知器24による注意喚起態様が同じである。この変形例2においては、見落とし危険領域に入っていると判定された障害物についての注意喚起態様が、見落とし危険領域に入っていないと判定された障害物についての注意喚起態様に比べて、ドライバーへの注意喚起力が大きくなるように構成されている。
<Variation 2 of alerting>
In the first modified example, the alerting manner by the alarm device 24 is the same for the obstacle determined to be in the overlooked dangerous area and the obstacle determined not to be in the overlooked dangerous area. In this modified example 2, the driver's alert mode for an obstacle determined to be in the overlooked dangerous area is compared with the driver's alert mode for an obstacle determined not to be in the overlooked dangerous area. It is configured to increase the alerting power to the.
図16は、変形例2に係る注意喚起制御ルーチンを表す。注意喚起制御部17は、変形例2に係る注意喚起制御ルーチンを所定の演算周期にて繰り返し実施する。変形例1と同様の処理については、図面に、変形例1と共通のステップ符号を付して簡単な説明に留める。 FIG. 16 illustrates an alert control routine according to the second modification. The alerting control unit 17 repeatedly executes the alerting control routine according to the modified example 2 at a predetermined calculation cycle. About the process similar to the modification 1, the same step code | symbol as the modification 1 is attached | subjected to a drawing, and only a brief description is given.
本ルーチンが起動すると、注意喚起制御部17は、ステップS11において、障害物が検出されているか否かについて判定し、障害物が検出されるまで、その処理を繰り返す。注意喚起制御部17は、障害物が検出された場合(S11:Yes)、ステップS13において、自車両と障害物との接近度合Gを演算する。続いて、注意喚起制御部17は、ステップS142において、接近度合Gが第2接近度合閾値G2refより大きいか否かについて判定する。注意喚起制御部17は、接近度合Gが第2接近度合閾値G2ref以下である場合(S142:No)、その処理をステップS141に進めて、接近度合Gが第1接近度合閾値G1refより大きいか否かについて判定する。この第1接近度合閾値G1refは、変形例1と同様に、第2接近度合閾値G2refより小さな値に設定されている(G2ref>G1ref)。従って、自車両と障害物とが接近している場合には、ステップS142よりも先にステップS141において「Yes」と判定される。 When this routine is activated, the alerting control unit 17 determines whether or not an obstacle is detected in step S11, and repeats the process until an obstacle is detected. When an obstacle is detected (S11: Yes), the alerting control unit 17 calculates the degree of approach G between the host vehicle and the obstacle in step S13. Subsequently, in step S142, the alerting control unit 17 determines whether or not the approach degree G is greater than the second approach degree threshold G2ref. If the degree of approach G is equal to or smaller than the second degree of approach threshold G2ref (S142: No), the alerting control unit 17 advances the process to step S141, and determines whether the degree of approach G is greater than the first degree of approach threshold G1ref. Determine whether or not. The first approach degree threshold G1ref is set to a value smaller than the second approach degree threshold G2ref (G2ref> G1ref), as in the first modification. Therefore, when the host vehicle and the obstacle are approaching, “Yes” is determined in step S141 prior to step S142.
注意喚起制御部17は、自車両と障害物とがあまり接近していなく接近度合Gが第1接近度合閾値G1ref以下である場合(S141:No)、本ルーチンを一旦終了する。こうした処理が繰り返されている間に、自車両と障害物とが接近して、接近度合Gが第1接近度合閾値G1refより大きくなると(S141:Yes)、注意喚起制御部17は、その処理をステップS12に進めて、障害物が見落とし危険領域に入っているか否かについて判定する。注意喚起制御部17は、障害物が見落とし危険領域に入っている場合(S12:Yes)には、ステップS151において、第1注意喚起態様で報知器24を作動させ、障害物が見落とし危険領域に入っていない場合(S12:No)には、ステップS152において、第2注意喚起態様で報知器24を作動させる。 When the host vehicle and the obstacle are not so close to each other and the degree of approach G is equal to or less than the first approach degree threshold G1ref (S141: No), the alerting control unit 17 once ends this routine. If such a process is repeated and the host vehicle approaches the obstacle and the approach degree G becomes greater than the first approach degree threshold G1ref (S141: Yes), the alert controller 17 performs the process. Proceeding to step S12, it is determined whether or not the obstacle is in an overlooked dangerous area. When the obstacle is in the overlooked dangerous area (S12: Yes), the alerting control unit 17 operates the alarm 24 in the first alerting mode in step S151, and the obstacle is in the overlooked dangerous area. If not (S12: No), in step S152, the alarm 24 is operated in the second alert mode.
この第1注意喚起態様は、第2注意喚起態様に比べて注意喚起力が大きくなるように設定されている。例えば、第1注意喚起態様は、第2注意喚起態様に比べて、スピーカ24bの報知音(音声アナウンスあるいはブザー音)の音量が大きな値に設定されている。この場合、第1注意喚起態様では、ドライバーに障害物の存在を確実に知らしめることができる程度の大きさの音量でスピーカ24bから報知音が発生させられる。一方、第2注意喚起態様では、ドライバーに煩わしさを感じさせない程度の小さな音量でスピーカ24bから報知音が発生させられる。従って、ドライバーが障害物を認識している場合に注意喚起が行われたとしても、ドライバーの感じる煩わしさは少なくて済む。 This first alerting mode is set so that the alerting force is greater than that of the second alerting mode. For example, in the first alerting mode, the volume of the notification sound (voice announcement or buzzer sound) of the speaker 24b is set to a larger value than in the second alerting mode. In this case, in the first alerting mode, the notification sound is generated from the speaker 24b at a volume that can reliably notify the driver of the presence of the obstacle. On the other hand, in the second alerting mode, the notification sound is generated from the speaker 24b with a small volume that does not make the driver feel bothersome. Therefore, even if the driver is alerted when the driver recognizes the obstacle, the driver can feel less troublesome.
自車両と障害物とが更に接近して、接近度合Gが第2接近度合閾値G2refより大きくなると(S142:Yes)、注意喚起制御部17は、その処理をステップS151に進める。従って、この場合、見落とし危険領域に入っていない障害物に対しても、第1注意喚起態様にて報知器24が作動される。これにより、ドライバーに障害物の存在を確実に知らしめることができる When the host vehicle and the obstacle further approach and the approach degree G becomes greater than the second approach degree threshold G2ref (S142: Yes), the alerting control unit 17 advances the process to step S151. Therefore, in this case, the alarm 24 is operated in the first alert mode even for an obstacle that is not in the overlooked dangerous area. This ensures that the driver is aware of the obstacle.
尚、この例では、スピーカ24bの音量によって、ドライバーへの注意喚起力の大きさを切り替えているが、それに代えて、あるいは、それに加えて、表示器24aの表示態様によってドライバーへの注意喚起力の大きさを切り替えることもできる。例えば、注意喚起制御部17は、第1注意喚起態様においては、注意喚起用アイコンの大きさを大に設定し(この注意喚起用アイコンを大アイコンと呼ぶ)、第2注意喚起態様においては、注意喚起用アイコンの大きさを小に設定する(この注意喚起用アイコンを小アイコンと呼ぶ)。小アイコンは、ドライバーに煩わしさを感じさせない程度の大きさに設定され、大アイコンは、ドライバーに障害物の存在を確実に知らしめることができる程度の大きさに設定される。 In this example, the magnitude of the alerting power to the driver is switched depending on the volume of the speaker 24b, but instead of or in addition to that, the alerting power to the driver is displayed depending on the display mode of the display 24a. The size of can also be switched. For example, in the first alert mode, the alert controller 17 sets the size of the alert icon large (this alert icon is referred to as a large icon), and in the second alert mode, The size of the alert icon is set small (this alert icon is called a small icon). The small icon is set to a size that does not make the driver feel bothersome, and the large icon is set to a size that can surely let the driver know the presence of an obstacle.
また、注意喚起用アイコンの大きさに代えて、注意喚起用アイコンの表示位置を切り替えることもできる。例えば、注意喚起制御部17は、第1注意喚起態様においては、ドライバーにとって視認しやすい位置に注意喚起用アイコンを表示し、第2注意喚起態様においては、ドライバーにとって煩わしさを感じさせない位置(第1注意喚起態様よりも視認しにくい位置)に注意喚起用アイコンを表示する。この場合、例えば、HUD24aによる表示(注意喚起力大)と、メータディスプレイによる表示(注意喚起力小)とに切り替えるようにしてもよい。 Further, the display position of the alert icon can be switched instead of the size of the alert icon. For example, in the first alert mode, the alert controller 17 displays an alert icon at a position that is easy for the driver to visually recognize, and in the second alert mode, the driver does not feel annoyed (first (1) A warning icon is displayed at a position that is less visible than the warning mode. In this case, for example, the display may be switched between the display by the HUD 24a (high alerting power) and the display by the meter display (low alerting power).
<ドライバー視覚情報提供装置を別体に備えた変形例>
上記実施形態においては、支援ECU10が1つの制御装置として構成されているが、その機能を複数の装置に分担させて構成されていてもよい。例えば、車両用運転支援システムは、ドライバー視覚情報提供装置と運転支援装置とから構成されていてもよい。
<Variation with a separate driver visual information providing device>
In the above embodiment, the support ECU 10 is configured as a single control device, but may be configured such that the function is shared by a plurality of devices. For example, the driving support system for a vehicle may include a driver visual information providing device and a driving support device.
この場合、ドライバー視覚情報提供装置は、ドライバー視覚情報提供部10aと第1カメラ21と第2カメラ22と入力部23とを備え、見落とし危険度マップを演算し、その見落とし危険度マップを表す情報を出力する。一方、運転支援装置は、注意喚起部10bと報知器24とを備え、ドライバー視覚情報提供装置から出力された見落とし危険度マップを表す情報と、第1カメラ21の撮影によって得られた外界画像を入力し、上述したように、外界画像から検出された障害物と見落とし危険度マップとに基づいて、ドライバーが見落としていると推定される障害物の存在を報知器24を介してドライバーに通知する。 In this case, the driver visual information providing device includes the driver visual information providing unit 10a, the first camera 21, the second camera 22, and the input unit 23, calculates an oversight risk map, and represents the oversight risk map. Is output. On the other hand, the driving support device includes the alerting unit 10b and the notification device 24, and includes information indicating an oversight risk map output from the driver visual information providing device and an outside world image obtained by photographing with the first camera 21. As described above, based on the obstacle detected from the external image and the oversight risk map, the driver is notified of the presence of the obstacle estimated to be overlooked by the driver via the alarm device 24. .
このドライバー視覚情報提供装置としては、携帯端末装置、例えば、スマートフォンを用いることができる。ユーザーは、携帯端末装置に、予め、見落とし危険度マップを演算するアプリケーションをインストールするとともに、個人眼特性を入力しておく。ドライバー視覚情報提供装置は、車両の任意の位置(例えば、ダッシュボードの上など)に固定され、車載器である運転支援装置と通信可能(有線通信あるいは近距離無線通信)に接続される。 As the driver visual information providing device, a mobile terminal device, for example, a smartphone can be used. The user installs an application for calculating an oversight risk map in advance and inputs personal eye characteristics to the mobile terminal device. The driver visual information providing device is fixed at an arbitrary position (for example, on a dashboard) of the vehicle, and is connected to a driving support device that is a vehicle-mounted device (wired communication or short-range wireless communication).
この場合、第1カメラ21および第2カメラ22の少なくとも一方については、ドライバー視覚情報提供装置が内臓しているカメラを利用することもできるし、外付けのカメラ、あるいは、車両に搭載されているカメラを利用することもできる。 In this case, at least one of the first camera 21 and the second camera 22 can use a camera built in the driver visual information providing device, or is mounted on an external camera or a vehicle. You can also use a camera.
<個人眼特性の変形例>
上記実施形態においては、網膜投影像を推定するための個人眼特性として、ドライバーの眼光学系の波面収差を表すデータが用いられるが、それに代えて、簡易的に、ドライバーの視力測定結果(例えば、5m視力の測定結果)を表す情報を用いてもよい。この場合には、例えば、網膜投影像推定部12は、視力測定値に応じた複数通りの光学系伝達関数を記憶し、ドライバーが入力部23を介して個人眼特性記憶部15に入力した視力測定結果に応じた光学系伝達関数を選択するようにすればよい。
<Modification of personal eye characteristics>
In the above embodiment, the data representing the wavefront aberration of the driver's eye optical system is used as the personal eye characteristic for estimating the retinal projection image. Instead, the visual acuity measurement result of the driver (for example, Information indicating the measurement result of 5m visual acuity) may be used. In this case, for example, the retinal projection image estimation unit 12 stores a plurality of optical system transfer functions corresponding to the visual acuity measurement values, and the visual acuity input by the driver to the personal eye characteristic storage unit 15 via the input unit 23. An optical system transfer function may be selected according to the measurement result.
以上、本実施形態および変形例に係る車両用運転支援システムについて説明したが、本発明は上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。 The vehicle driving support system according to the present embodiment and the modification has been described above. However, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the object of the present invention. .
例えば、本実施形態の見落とし危険度マップは、0.25deg間隔にて局所領域情報量Hが設定されているが、必ずしも、この間隔にする必要はなく、マイクロコンピュータの演算負荷にあわせて適宜、設定することができる。また、見落とし危険度マップにおける局所領域情報量Hについては、少なくとも2段階以上に設定されていればよい。 For example, in the oversight risk map of the present embodiment, the local region information amount H is set at 0.25 deg intervals, but it is not always necessary to set this interval, and according to the calculation load of the microcomputer as appropriate. Can be set. Further, the local area information amount H in the oversight risk degree map only needs to be set in at least two stages.
また、本実施形態および変形例においては、障害物の存在する領域が、見落とし危険度が危険度閾値よりも高い領域であるか否か(障害物視覚情報量が情報量閾値よりも少ないか否か)について判定し、その判定結果に応じた注意喚起を行っている。しかし、障害物の存在する領域については、必ずしも、見落とし危険度の高低2段階に分ける必要はなく、例えば、高中低3段階に分けるなど、3段階以上の領域に分けて、その領域に応じた注意喚起を行うようにしてもよい。この場合、例えば、見落とし危険度が高い領域に存在する障害物ほど、ドライバーに対して障害物の存在が通知されやすくなるように注意喚起条件が設定されているとよい。また、例えば、見落とし危険度が高い領域に存在する障害物ほど、ドライバーへの注意喚起力が大きくなるように注意喚起態様が設定されているとよい。 Further, in the present embodiment and the modification, whether the area where the obstacle exists is an area where the risk of oversight is higher than the danger threshold (whether the obstacle visual information amount is smaller than the information amount threshold). )), And alerting is performed according to the determination result. However, it is not always necessary to divide the area where the obstacle exists into two levels of high and low risk of oversight. You may make it alert. In this case, for example, an alert condition may be set so that an obstacle present in a region with a high risk of oversight is more likely to be notified to the driver of the presence of the obstacle. In addition, for example, the alerting mode may be set so that the obstacle present in the region with a high degree of oversight risk has a greater alerting power to the driver.
また、網膜投影像、網膜出力像、および、局所領域情報量などを演算する式については簡略化することによって、マイクロコンピュータの演算負荷を軽くすることもできる。例えば、最終的な局所領域情報量の演算結果に大きな影響を与えないような変数については、固定値を用いることもできる。 Further, by simplifying the equations for calculating the retinal projection image, the retinal output image, the local area information amount, and the like, the calculation load of the microcomputer can be reduced. For example, a fixed value can be used for a variable that does not significantly affect the final calculation result of the local area information amount.
また、本実施形態においては、網膜投影像推定部12は、ドライバーの個人眼特性(眼光学系特性)に基づいて網膜投影像を推定するが、必ずしも、ドライバーの個人眼特性に基づいて網膜投影像を推定しなくてもよく、その場合には、網膜出力像推定部13においてドライバーの個人眼特性(網膜特性)に基づいて網膜出力像を推定する構成であればよい。この場合、網膜投影像推定部12においては、標準的な人の眼光学系特性を用いればよい。 In this embodiment, the retinal projection image estimation unit 12 estimates a retinal projection image based on the driver's personal eye characteristics (eye optical system characteristics). The image may not be estimated, and in this case, any configuration may be used as long as the retinal output image estimation unit 13 estimates the retinal output image based on the driver's personal eye characteristics (retinal characteristics). In this case, the retinal projection image estimation unit 12 may use standard human eye optical system characteristics.
つまり、個人眼特性記憶部15に記憶されるドライバーの個人眼特性は、眼光学系特性であってもよいし、網膜特性であってもよいし、その両者であってもよい。ドライバーの個人眼特性として、眼光学系特性が記憶されている場合には眼光学系特性が網膜投影像の推定に反映され、網膜特性が記憶されている場合には網膜特性が網膜出力像の推定に反映され、両特性が記憶されている場合には眼光学系特性が網膜投影像の推定に、網膜特性が網膜出力像の推定にそれぞれ反映される。 That is, the personal eye characteristic of the driver stored in the personal eye characteristic storage unit 15 may be an eye optical system characteristic, a retinal characteristic, or both. When the eye optical system characteristics are stored as the driver's individual eye characteristics, the eye optical system characteristics are reflected in the estimation of the retinal projection image, and when the retinal characteristics are stored, the retinal characteristics are When both characteristics are stored in the estimation, the eye optical system characteristics are reflected in the estimation of the retinal projection image, and the retinal characteristics are reflected in the estimation of the retinal output image.
1…車両用運転支援システム、10…支援ECU、10a…ドライバー視覚情報提供部、10b…注意喚起部、11…視線方向・瞳孔径検出部、12…網膜投影像推定部、13…網膜出力像推定部、14…局所領域情報量演算部、15…個人眼特性記憶部、16…障害物検出部、17…注意喚起制御部、21…第1カメラ、22…第2カメラ、23…入力部、24…報知器、24a…表示器(HUD)、24b…スピーカ、A…局所領域、H…局所領域情報量。 DESCRIPTION OF SYMBOLS 1 ... Vehicle drive assistance system, 10 ... Support ECU, 10a ... Driver visual information provision part, 10b ... Attention alert part, 11 ... Gaze direction / pupil diameter detection part, 12 ... Retina projection image estimation part, 13 ... Retina output image Estimating unit, 14 ... local area information amount calculating unit, 15 ... individual eye characteristic storage unit, 16 ... obstacle detecting unit, 17 ... attention control unit, 21 ... first camera, 22 ... second camera, 23 ... input unit , 24 ... notification device, 24a ... display device (HUD), 24b ... speaker, A ... local region, H ... local region information amount.
Claims (9)
前記自車両のドライバーの視線の方向を検出する視線検出手段と、
ドライバー個々における、ドライバーが外界を視覚する能力に影響する眼の特性であって、眼鏡あるいはコンタクトレンズを含むドライバーの眼光学系特性、および、ドライバーの網膜特性の少なくとも一方を表す個人眼特性を取得する個人眼特性取得手段と、
前記撮影手段による撮影によって得られた外界画像と、前記視線検出手段によって検出された前記ドライバーの視線の方向と、前記個人眼特性取得手段によって取得された個人眼特性とに基づいて、ドライバーの視野内における位置とドライバーの見落としやすさの指標となる見落とし危険度とを対応付けた見落とし危険度マップを演算するマップ演算手段と
を備え、前記マップ演算手段によって演算された見落とし危険度マップを表す情報を出力するドライバー視覚情報提供装置。 Photographing means for photographing the outside world ahead of the host vehicle;
Line-of-sight detection means for detecting the direction of the line of sight of the driver of the host vehicle;
Acquire individual eye characteristics that represent at least one of the characteristics of the eyes of the driver, including eyeglasses or contact lenses, and the characteristics of the retina of the driver. Personal eye characteristic acquisition means for
Based on the external image obtained by photographing by the photographing means, the direction of the visual line of the driver detected by the visual line detecting means, and the personal eye characteristics acquired by the personal eye characteristic acquiring means, the visual field of the driver Map calculation means for calculating an oversight risk map that associates a position in the vehicle with an oversight risk that is an index of the ease of oversight of the driver, and represents the oversight risk map calculated by the map calculation means Driver visual information providing device that outputs.
前記個人眼特性取得手段は、眼鏡あるいはコンタクトレンズを含むドライバーの眼光学系特性を取得するように構成され、
前記マップ演算手段は、
前記撮影手段による撮影によって得られた外界画像と、前記視線検出手段によって検出されたドライバーの視線の方向と、前記個人眼特性取得手段によって取得されたドライバーの眼光学系特性とに基づいて、ドライバーの網膜に投影される外界の映像である網膜投影像を推定する網膜投影像推定手段と、
網膜視細胞を配列したモデルである網膜視細胞配列モデルを用いて、前記網膜投影像推定手段によって推定された網膜投影像が、前記網膜視細胞配列モデルに投影されたときに、前記網膜視細胞配列モデルの反応によって得られる映像である網膜出力像を推定する網膜出力像推定手段と、
前記網膜出力像全体にわたって、前記網膜出力像内における予め設定された広さの局所領域ごとの情報量を算出することにより、ドライバーの視野内における位置と、前記情報量が少なくなるほど高くなる前記見落とし危険度とを対応付けた見落とし危険度マップを演算する局所領域情報量演算手段と
を備えたドライバー視覚情報提供装置。 The driver visual information providing device according to claim 1,
The personal eye characteristic acquisition means is configured to acquire an eye optical system characteristic of a driver including glasses or a contact lens,
The map calculation means includes:
Based on the external image obtained by photographing by the photographing means, the direction of the driver's line of sight detected by the line of sight detecting means, and the driver's eye optical system characteristics acquired by the personal eye characteristic acquiring means, the driver Retinal projection image estimation means for estimating a retinal projection image that is an image of the external world projected onto the retina of
When a retinal projection image estimated by the retinal projection image estimation means is projected onto the retinal photoreceptor array model using a retinal photoreceptor array model that is a model in which retinal photoreceptors are arrayed, the retinal photoreceptor cell A retinal output image estimation means for estimating a retinal output image that is an image obtained by the reaction of the array model;
By calculating the amount of information for each local area of a preset area in the retinal output image over the entire retinal output image, the position in the driver's field of view and the oversight that increases as the amount of information decreases A driver visual information providing device comprising: a local area information amount calculating means for calculating an oversight risk level map in which risk levels are associated with each other.
前記個人眼特性取得手段は、ドライバーの網膜特性を取得するように構成され、
前記マップ演算手段は、
前記撮影手段による撮影によって得られた外界画像と、前記視線検出手段によって検出されたドライバーの視線の方向とに基づいて、ドライバーの網膜に投影される外界の映像である網膜投影像を推定する網膜投影像推定手段と、
網膜視細胞を配列したモデルであって、前記個人眼特性取得手段によって取得されたドライバーの網膜特性に応じて設定される網膜視細胞配列モデルを用いて、前記網膜投影像推定手段によって推定された網膜投影像が、前記網膜視細胞配列モデルに投影されたときに、前記網膜視細胞配列モデルの反応によって得られる映像である網膜出力像を推定する網膜出力像推定手段と、
前記網膜出力像全体にわたって、前記網膜出力像内における予め設定された広さの局所領域ごとの情報量を算出することにより、ドライバーの視野内における位置と、前記情報量が少なくなるほど高くなる前記見落とし危険度とを対応付けた見落とし危険度マップを演算する局所領域情報量演算手段と
を備えたドライバー視覚情報提供装置。 The driver visual information providing device according to claim 1,
The personal eye characteristic acquisition means is configured to acquire a retina characteristic of a driver;
The map calculation means includes:
A retina that estimates a retinal projection image that is an image of the outside world projected on the retina of the driver, based on the external image obtained by the photographing by the photographing unit and the direction of the driver's visual line detected by the visual line detecting unit. Projection image estimation means;
A model in which retinal photoreceptor cells are arranged, and estimated by the retinal projection image estimation means using a retinal photoreceptor array model set according to the retinal characteristics of the driver acquired by the personal eye characteristics acquisition means A retinal output image estimation means for estimating a retinal output image that is an image obtained by a reaction of the retinal photoreceptor cell arrangement model when a retinal projection image is projected onto the retinal photoreceptor array model;
By calculating the amount of information for each local area of a preset area in the retinal output image over the entire retinal output image, the position in the driver's field of view and the oversight that increases as the amount of information decreases A driver visual information providing device comprising: a local area information amount calculating means for calculating an oversight risk level map in which risk levels are associated with each other.
前記個人眼特性取得手段は、眼鏡あるいはコンタクトレンズを含むドライバーの眼光学系特性、および、ドライバーの網膜特性を取得するように構成され、
前記マップ演算手段は、
前記撮影手段による撮影によって得られた外界画像と、前記視線検出手段によって検出されたドライバーの視線の方向と、前記個人眼特性取得手段によって取得されたドライバーの眼光学系特性とに基づいて、ドライバーの網膜に投影される外界の映像である網膜投影像を推定する網膜投影像推定手段と、
網膜視細胞を配列したモデルであって、前記個人眼特性取得手段によって取得されたドライバーの網膜特性に応じて設定される網膜視細胞配列モデルを用いて、前記網膜投影像推定手段によって推定された網膜投影像が、前記網膜視細胞配列モデルに投影されたときに、前記網膜視細胞配列モデルの反応によって得られる映像である網膜出力像を推定する網膜出力像推定手段と、
前記網膜出力像全体にわたって、前記網膜出力像内における予め設定された広さの局所領域ごとの情報量を算出することにより、ドライバーの視野内における位置と、前記情報量が少なくなるほど高くなる前記見落とし危険度とを対応付けた見落とし危険度マップを演算する局所領域情報量演算手段と
を備えたドライバー視覚情報提供装置。 The driver visual information providing device according to claim 1,
The personal eye characteristic acquisition means is configured to acquire an eye optical system characteristic of a driver including glasses or a contact lens, and a retina characteristic of the driver,
The map calculation means includes:
Based on the external image obtained by photographing by the photographing means, the direction of the driver's line of sight detected by the line of sight detecting means, and the driver's eye optical system characteristics acquired by the personal eye characteristic acquiring means, the driver Retinal projection image estimation means for estimating a retinal projection image that is an image of the external world projected onto the retina of
A model in which retinal photoreceptor cells are arranged, and estimated by the retinal projection image estimation means using a retinal photoreceptor array model set according to the retinal characteristics of the driver acquired by the personal eye characteristics acquisition means A retinal output image estimation means for estimating a retinal output image that is an image obtained by a reaction of the retinal photoreceptor cell arrangement model when a retinal projection image is projected onto the retinal photoreceptor array model;
By calculating the amount of information for each local area of a preset area in the retinal output image over the entire retinal output image, the position in the driver's field of view and the oversight that increases as the amount of information decreases A driver visual information providing device comprising: a local area information amount calculating means for calculating an oversight risk level map in which risk levels are associated with each other.
ドライバーの瞳孔の大きさを検出する瞳孔検出手段を備え、
前記網膜投影像推定手段は、前記瞳孔の大きさを考慮して前記網膜投影像を推定するように構成されたドライバー視覚情報提供装置。 The driver visual information providing device according to any one of claims 2 to 4 ,
Equipped with a pupil detection means for detecting the size of the driver's pupil;
The driver visual information providing apparatus configured to estimate the retinal projection image in consideration of the size of the pupil.
前記自車両の前方に存在する障害物の位置に関する障害物情報を取得する障害物情報取得手段と、
前記障害物情報取得手段によって取得された障害物情報と前記ドライバー視覚情報提供装置から出力された見落とし危険度マップを表す情報とに基づいて、ドライバーに対して前記障害物の存在を通知する注意喚起手段と
を備えた車両用運転支援システム。 A vehicle driving support system comprising the driver visual information providing device according to any one of claims 1 to 5 ,
Obstacle information acquisition means for acquiring obstacle information relating to the position of an obstacle existing in front of the host vehicle;
Based on the obstacle information acquired by the obstacle information acquisition means and the information representing the oversight risk map output from the driver visual information providing device, the driver is notified of the presence of the obstacle. A vehicle driving support system comprising: means.
前記注意喚起手段は、前記見落とし危険度が閾値よりも高い視野領域に入っている障害物についてのみ、その存在をドライバーに通知するように構成された車両用運転支援システム。 The vehicle driving support system according to claim 6 ,
The vehicle driving support system configured to notify the driver of the presence of only an obstacle in the visual field region in which the risk of oversight is higher than a threshold.
前記注意喚起手段は、予め設定された注意喚起条件が成立したときに障害物の存在をドライバーに通知するように構成され、前記見落とし危険度が閾値よりも高い視野領域に入っている障害物に対する前記注意喚起条件が、前記見落とし危険度が前記閾値以下の視野領域に入っている障害物に対する前記注意喚起条件に比べて、ドライバーに対して障害物の存在が通知されやすくなるように設定されている車両用運転支援システム。 The vehicle driving support system according to claim 6 ,
The alerting means is configured to notify the driver of the presence of an obstacle when a preset alerting condition is satisfied, and for an obstacle in the visual field region where the risk of oversight is higher than a threshold value The alert condition is set so that it is easier for the driver to be notified of the presence of an obstacle than the alert condition for an obstacle in the visual field where the risk of oversight is less than or equal to the threshold. Vehicle driving support system.
前記注意喚起手段は、前記見落とし危険度が閾値よりも高い視野領域に入っている障害物の存在をドライバーに通知する注意喚起態様が、前記見落とし危険度が前記閾値以下の視野領域に入っている障害物の存在をドライバーに通知する注意喚起態様に比べて、ドライバーへの注意喚起力が大きくなるように構成されている車両用運転支援システム。 The vehicle driving support system according to claim 6 ,
The alerting means for notifying the driver of the presence of an obstacle in the visual field area where the oversight risk is higher than a threshold is in the visual field where the oversight risk is less than or equal to the threshold. A vehicle driving support system configured to increase the alerting power to the driver as compared to the alerting mode of notifying the driver of the presence of an obstacle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016088377A JP6585543B2 (en) | 2016-04-26 | 2016-04-26 | Driver visual information providing device and vehicle driving support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016088377A JP6585543B2 (en) | 2016-04-26 | 2016-04-26 | Driver visual information providing device and vehicle driving support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017199142A JP2017199142A (en) | 2017-11-02 |
JP6585543B2 true JP6585543B2 (en) | 2019-10-02 |
Family
ID=60238035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016088377A Active JP6585543B2 (en) | 2016-04-26 | 2016-04-26 | Driver visual information providing device and vehicle driving support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6585543B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102494865B1 (en) | 2018-02-20 | 2023-02-02 | 현대자동차주식회사 | Vehicle, and control method for the same |
JP6500139B1 (en) * | 2018-03-01 | 2019-04-10 | 和夫 金子 | Visual support device |
WO2019239459A1 (en) * | 2018-06-11 | 2019-12-19 | 三菱電機株式会社 | Driving support device, driving support system, and driving support method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4775123B2 (en) * | 2006-06-09 | 2011-09-21 | 日産自動車株式会社 | Vehicle monitoring device |
JP2009237776A (en) * | 2008-03-26 | 2009-10-15 | Mazda Motor Corp | Vehicle drive supporting apparatus |
-
2016
- 2016-04-26 JP JP2016088377A patent/JP6585543B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017199142A (en) | 2017-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5406328B2 (en) | VEHICLE DISPLAY DEVICE, ITS CONTROL METHOD AND PROGRAM | |
JP4277081B2 (en) | Driving assistance device | |
JP5482737B2 (en) | Visual load amount estimation device, driving support device, and visual load amount estimation program | |
US9100554B2 (en) | Method for displaying an image on a display device in a vehicle, driver assistance system and vehicle | |
JP5092776B2 (en) | Gaze direction detection device and gaze direction detection method | |
CN110155072B (en) | Carsickness prevention method and carsickness prevention device | |
JP6585543B2 (en) | Driver visual information providing device and vehicle driving support system | |
US20160221502A1 (en) | Cognitive displays | |
JP5109750B2 (en) | Driver state detection device, consciousness state detection method | |
JP2017142491A (en) | Image display device and image display method | |
WO2015079657A1 (en) | Viewing area estimation device | |
JP2018090170A (en) | Head-up display system | |
CN113661495A (en) | Sight line calibration method, sight line calibration device, sight line calibration equipment, sight line calibration system and sight line calibration vehicle | |
JP2010058631A (en) | Vehicular information display device | |
JP2014015127A (en) | Information display apparatus, information display method and program | |
JP4779780B2 (en) | Image display device | |
JP2009248812A (en) | Driving assistance device | |
CN115246405A (en) | Method and system for detecting distraction behavior of driver | |
WO2019087531A1 (en) | Vehicle device and computer program | |
JP6102733B2 (en) | Vehicle periphery monitoring device | |
JP4935387B2 (en) | Information display device | |
JPH06233306A (en) | Vehicle display device | |
JP2015026255A (en) | Driving support system and driving support method | |
JP2018162030A (en) | Display device for vehicle | |
JP2021105989A (en) | Onboard display device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190905 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6585543 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |