JP2008250453A - Drive support device and method - Google Patents

Drive support device and method Download PDF

Info

Publication number
JP2008250453A
JP2008250453A JP2007088358A JP2007088358A JP2008250453A JP 2008250453 A JP2008250453 A JP 2008250453A JP 2007088358 A JP2007088358 A JP 2007088358A JP 2007088358 A JP2007088358 A JP 2007088358A JP 2008250453 A JP2008250453 A JP 2008250453A
Authority
JP
Japan
Prior art keywords
obstacle
image
pillar
blind spot
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007088358A
Other languages
Japanese (ja)
Inventor
Hideto Miyazaki
秀人 宮崎
Keita Seki
啓太 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2007088358A priority Critical patent/JP2008250453A/en
Publication of JP2008250453A publication Critical patent/JP2008250453A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that it is impossible to provide appropriate information for alerting at an appropriate timing. <P>SOLUTION: Obstacle image information showing an image of an obstacle near one's own vehicle is obtained. Obstacle position information showing the position of the obstacle is obtained. Based on the obstacle position information, it is detected that the obstacle is in the driver's blind spot due to the pillar of the vehicle. When the obstacle is detected in the blind spot, control is performed to display the image of the obstacle on the pillar according to the obstacle image information. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、自車両のピラーに障害物の画像を表示することによって運転を支援する運転支援装置および方法に関する。   The present invention relates to a driving support apparatus and method for supporting driving by displaying an image of an obstacle on a pillar of a host vehicle.

従来、交差点での出会頭事故を回避するための技術として、自車と他車との角度が一定で時間の経過とともに変化しない場合に衝突の危険性が大きいと判断して運転者へ警報を発する技術が知られている(特許文献1)。また、車両の外部を撮影した画像をピラーに表示する技術が知られている(特許文献2〜4)。
特開平11−242799号公報 特開2005−182305号公報 特開2005−184225号公報 特開2006−303583号公報
Conventionally, as a technique for avoiding a head-on accident at an intersection, if the angle between the host vehicle and the other vehicle is constant and does not change over time, the driver is judged to have a high risk of collision and a warning is given to the driver. The technique to emit is known (patent document 1). Moreover, the technique which displays the image which image | photographed the exterior of a vehicle on a pillar is known (patent documents 2-4).
Japanese Patent Laid-Open No. 11-242799 JP 2005-182305 A JP 2005-184225 A JP 2006-303583 A

従来の技術においては、注意喚起のために適切なタイミングで適切な情報を提供することができなかった。
すなわち、特許文献1に開示された技術においては、出会頭事故を回避するために警報がなされるが、自車と他車との角度が一定である場合に警報がなされても、他車が死角に存在すると当該他車の様子を的確に知ることができない。従って、他車が右左のいずれに存在するのか、衝突の危険性がどれほどなのかなど、実際に衝突を回避するための運転を行うためにはさらに多くの情報が必要であり、より適切な情報を運転者に提供することが望まれていた。また、自車と他車の角度が一定であることを警報の条件としているため、運転者の眼の位置が変動に対応することができなかった。
In the prior art, appropriate information cannot be provided at an appropriate timing for alerting.
In other words, in the technology disclosed in Patent Document 1, an alarm is issued to avoid a head-on accident, but even if the alarm is issued when the angle between the host vehicle and the other vehicle is constant, If it exists in the blind spot, the state of the other vehicle cannot be accurately known. Therefore, more information is needed to actually drive to avoid collisions, such as whether the other vehicle is on the right or left, how much danger of a collision, and more appropriate information. To the driver. Further, since the warning condition is that the angle between the host vehicle and the other vehicle is constant, the position of the driver's eyes could not cope with the fluctuation.

さらに、特許文献2〜4においては、ピラーに対して車両の外部の画像を表示することによって運転支援を行うことができるが、ピラーに対して画像を表示する装置を実際に運用する際に不都合が生じることが多い。すなわち、車両の外部の障害物などに対する注意喚起を行うためには、注意喚起がなされたことを運転者が認識することが重要である。しかし、従来の技術のように外部の画像をピラーに表示し続ける構成においては、その表示に対する注意が散漫になり、死角に存在する障害物の画像がピラーに表示されたとしても運転者が気付かないこともあり得る。従って、適切なタイミングで運転者に情報を提供することは運転者に対する注意喚起を行う上で極めて重要である。
本発明は、上記課題にかんがみてなされたもので、注意喚起のために適切なタイミングで適切な情報を運転者に提供することを目的とする。
Furthermore, in Patent Documents 2 to 4, although driving assistance can be performed by displaying an image outside the vehicle with respect to the pillar, it is inconvenient when actually operating a device that displays an image with respect to the pillar. Often occurs. That is, in order to call attention to an obstacle outside the vehicle, it is important for the driver to recognize that the call has been made. However, in the configuration in which external images are continuously displayed on the pillar as in the conventional technology, attention to the display is distracted, and even if an image of an obstacle present in the blind spot is displayed on the pillar, the driver is aware It may not be. Therefore, providing information to the driver at an appropriate timing is extremely important for alerting the driver.
The present invention has been made in view of the above problems, and an object thereof is to provide a driver with appropriate information at an appropriate timing for alerting.

上記の目的を達成するため、本発明においては、障害物の位置を示す障害物位置情報を取得し、自車両のピラーによる運転者の死角に前記障害物が含まれることを検出し、当該死角に前記障害物が含まれることを検出したときに、障害物の画像を自車両のピラー上に表示させるための制御を行う。すなわち、運転者の死角に障害物が含まれるときにその障害物の画像をピラー上に表示させる。   In order to achieve the above object, the present invention acquires obstacle position information indicating the position of an obstacle, detects that the obstacle is included in the driver's blind spot by a pillar of the host vehicle, and When it is detected that the obstacle is included, control for displaying an image of the obstacle on the pillar of the host vehicle is performed. That is, when an obstacle is included in the driver's blind spot, an image of the obstacle is displayed on the pillar.

従って、自車両の運転者の死角に障害物が含まれるときに自車両のピラー上に障害物の画像が表示されることになり、運転者は注意をすべきタイミングで死角内に障害物が存在することを認識することができ、確実に死角内の障害物を注意しながら運転することができる。さらに、障害物位置情報に基づいて死角に障害物が含まれることが検出されるので、自車両の運転者が頭を動かすなどして死角の方向や角度が変動したとしても、死角に含まれる障害物の画像を確実に運転者に伝えることができ、確実に注意喚起をすることができる。   Therefore, when an obstacle is included in the blind spot of the driver of the host vehicle, an image of the obstacle is displayed on the pillar of the host vehicle. It is possible to recognize that it exists, and to drive while paying attention to obstacles in the blind spot. Furthermore, since it is detected that an obstruction is included in the blind spot based on the obstacle position information, even if the driver's own vehicle moves his / her head or the like, the blind spot direction or angle is included in the blind spot. The image of the obstacle can be reliably transmitted to the driver, and the warning can be surely made.

さらに、運転者はピラー上に表示された画像によって障害物の様子を認識することができ、その障害物に対応した適切な危険回避運転を選択することが可能になる。例えば、障害物が車両であれば画像によって車両の進行速度や進行方向などの様子を認識することができ、歩行者であれば画像によって歩行者の進行速度や進行方向などの様子を認識することができる。この結果、衝突の危険性を容易に予測することができ、運転者はそれぞれの障害物に対応した危険回避運転を選択することが可能である。   Further, the driver can recognize the state of the obstacle from the image displayed on the pillar, and can select an appropriate danger avoidance driving corresponding to the obstacle. For example, if the obstacle is a vehicle, it can recognize the state of the vehicle's traveling speed and direction from the image, and if it is a pedestrian, it can recognize the state of the pedestrian's traveling speed and direction from the image. Can do. As a result, the risk of collision can be easily predicted, and the driver can select the danger avoidance driving corresponding to each obstacle.

障害物画像取得手段は、障害物の画像を示す障害物画像情報を取得することができれば良く、例えば、死角となり得る方向を視野にして自車両の周囲の画像を取得する種々のカメラからの出力信号を取得するように構成すればよい。むろん、障害物の画像を歪みなく表示したり、障害物の画像と実際の像とを近づけたりするために、撮影した画像に対して種々の画像処理を実行した情報を障害物画像情報として取得しても良い。   The obstacle image acquisition means only needs to be able to acquire obstacle image information indicating an image of the obstacle. For example, output from various cameras that acquire an image of the surroundings of the host vehicle in a direction that can be a blind spot. What is necessary is just to comprise so that a signal may be acquired. Of course, to display the image of the obstacle without distortion or to bring the image of the obstacle close to the actual image, information obtained by performing various image processing on the captured image is acquired as the obstacle image information. You may do it.

なお、自車両において接触を避けるべきあらゆる物体が当該障害物となり得る。例えば、死角に含まれ得る他車両や歩行者,自転車などの移動体が本発明における典型的な障害物となり得るが、標識や電柱,樹木等の固定物を本発明における障害物として定義してもよい。   It should be noted that any object that should avoid contact in the host vehicle can be the obstacle. For example, moving vehicles such as other vehicles, pedestrians, and bicycles that can be included in the blind spot can be typical obstacles in the present invention, but fixed objects such as signs, utility poles, and trees are defined as obstacles in the present invention. Also good.

障害物位置情報取得手段は、障害物の位置を示す障害物位置情報を取得することができれば良く、上述の障害物画像情報に基づいて障害物の位置を特定した情報を取得しても良いし、車車間通信や路車間通信等の通信によって取得しても良いし、超音波センサや赤外線センサ、レーダなど各種センサの出力情報を取得して障害物の位置を特定しても良く、種々の構成を採用可能である。   The obstacle position information acquisition unit only needs to be able to acquire obstacle position information indicating the position of the obstacle, and may acquire information specifying the position of the obstacle based on the above-described obstacle image information. It may be acquired by communication such as vehicle-to-vehicle communication or road-to-vehicle communication, or output information of various sensors such as an ultrasonic sensor, an infrared sensor, and a radar may be acquired to specify the position of an obstacle. A configuration can be adopted.

障害物不可視状態検出手段は、自車両のピラーによる運転者の死角に前記障害物が含まれることを検出することができればよい。すなわち、運転者から障害物を視認することが不可能になっている状態を検出することができればよい。このためには、例えば、人間の眼の位置や頭の位置、運転席の位置、運転席のヘッドレストの位置等に基づいて人間の眼の位置の変動を特定し、死角の変動を検出する構成等を採用可能である。   The obstacle invisible state detecting means only needs to be able to detect that the obstacle is included in the blind spot of the driver by the pillar of the host vehicle. That is, it is only necessary to detect a state in which it is impossible for the driver to visually recognize the obstacle. For this purpose, for example, a configuration in which the variation in the position of the human eye is specified based on the position of the human eye, the position of the head, the position of the driver's seat, the position of the headrest of the driver's seat, etc., and the variation in the blind spot is detected. Etc. can be adopted.

死角を特定すれば、障害物の位置に基づいて当該障害物が死角に含まれることを検出することができる。例えば、他車両,歩行者,自転車等の移動体や、標識,電柱,樹木等の固定物のような障害物の典型的な大きさを予め特定して各障害物の大きさを示すデータを所定の記憶媒体に書き込んでおけば、このデータを参照することによって、各障害物と自車両との距離に基づいてその大きさの各障害物が死角に含まれるか否かを容易に特定することができる。   If the blind spot is specified, it can be detected that the obstacle is included in the blind spot based on the position of the obstacle. For example, data indicating the size of each obstacle by specifying in advance typical sizes of obstacles such as moving objects such as other vehicles, pedestrians, bicycles, and fixed objects such as signs, utility poles, trees, etc. If written in a predetermined storage medium, by referring to this data, it is easily specified whether or not each obstacle of that size is included in the blind spot based on the distance between each obstacle and the host vehicle. be able to.

障害物表示制御手段は、死角に障害物が含まれることを検出したときに、障害物の画像を前記ピラー上に表示させることができればよい。すなわち、ピラーに対して任意の画像を表示させる表示部に対して障害物の画像を表示するための信号を出力し、当該障害物の画像をピラー上に表示させることができればよい。ピラー上に画像を表示するための表示部としては種々の装置を採用可能であり、例えば、ピラー上に画像を投影するプロジェクタやピラーに設置されたディスプレイ等を採用可能である。   The obstacle display control means only needs to be able to display an image of the obstacle on the pillar when it is detected that the obstacle is included in the blind spot. That is, it is only necessary to output a signal for displaying an image of an obstacle to the display unit that displays an arbitrary image on the pillar and display the image of the obstacle on the pillar. As a display unit for displaying an image on the pillar, various devices can be employed. For example, a projector that projects an image on the pillar, a display installed in the pillar, and the like can be employed.

さらに、障害物が死角に含まれることを検出するための構成例として、運転者の眼の位置とピラーの位置と障害物の位置とを示す情報を利用する構成を採用しても良い。例えば、運転者の眼の位置を検出するセンサが出力する眼位置情報によって運転者の眼の位置を取得し、予め決められた自車両のピラーの位置を取得し、前記障害物位置情報に基づいて障害物の位置を取得すれば、前記運転者の眼の位置と前記ピラーの位置と前記障害物の位置とが直線上に存在するか否かを判定することができ、各位置が直線上に存在すると判定されたときに死角に障害物が含まれるとみなすことができる。   Furthermore, as a configuration example for detecting that an obstacle is included in the blind spot, a configuration using information indicating the position of the driver's eyes, the position of the pillar, and the position of the obstacle may be employed. For example, the position of the driver's eyes is acquired based on the eye position information output by a sensor that detects the position of the driver's eyes, the predetermined position of the pillar of the host vehicle is acquired, and based on the obstacle position information. If the position of the obstacle is acquired, it is possible to determine whether the position of the driver's eyes, the position of the pillar, and the position of the obstacle are on a straight line. When it is determined that the obstacle exists in the blind spot, it can be considered that the blind spot includes an obstacle.

なお、運転者の眼の位置を検出するセンサにおいては、運転者の眼の位置を直接的に検出しても良いし、間接的に検出しても良く種々の構成を採用可能である。例えば、カメラの撮影画像や超音波センサ、赤外線センサ等が出力する信号に基づいて人間の眼の位置を直接的に検出する構成を採用しても良いし、カメラの撮影画像や超音波センサ、赤外線センサ等が出力する信号に基づいて人間の頭の位置、運転席の位置、運転席のヘッドレストの位置等を特定し、これらの位置から人間の眼の位置を推定しても良い。   In addition, in the sensor which detects a driver | operator's eye position, the position of a driver | operator's eye may be detected directly and may be detected indirectly and various structures are employable. For example, a configuration in which the position of a human eye is directly detected based on a camera image, an ultrasonic sensor, a signal output from an infrared sensor, or the like may be employed. The position of the human head, the position of the driver's seat, the position of the headrest of the driver's seat, and the like may be specified based on a signal output from the infrared sensor or the like, and the position of the human eye may be estimated from these positions.

さらに、死角に障害物の全体が含まれている状態であるときに障害物の画像をピラー上に表示させるための制御を行う構成を採用しても良い。この構成によれば、死角によって障害物を全く視認できないときにピラー上に障害物が表示され、障害物の一部が死角の外部に存在するときにはピラー上に障害物は表示されない。   Furthermore, a configuration may be adopted in which control is performed to display an image of an obstacle on the pillar when the entire obstacle is included in the blind spot. According to this configuration, the obstacle is displayed on the pillar when the obstacle cannot be visually recognized by the blind spot, and the obstacle is not displayed on the pillar when a part of the obstacle exists outside the blind spot.

すなわち、障害物の一部が死角の外部に存在する状態(運転者から見た障害物の視角(障害物の両端と眼を結ぶ二直線が作る角度)が死角より大きい状態)においては、運転者が障害物を直接視認することができるため、この状態においては障害物をピラーに表示させない。そして、死角によって障害物を全く視認できないときにピラー上に障害物が表示されるので、障害物に注意して運転すべき状態においてピラー上に障害物が表示され、運転者は、確実に、障害物に対して注意しながら運転することが可能になる。   In other words, in a state where a part of the obstacle exists outside the blind spot (the obstacle's viewing angle seen by the driver (the angle formed by the two straight lines connecting the both ends of the obstacle and the eyes) is larger than the blind spot) Since the person can directly see the obstacle, the obstacle is not displayed on the pillar in this state. And since the obstacle is displayed on the pillar when the obstacle cannot be seen at all due to the blind spot, the obstacle is displayed on the pillar in a state that should be driven while paying attention to the obstacle. It becomes possible to drive while paying attention to obstacles.

さらに、前記障害物位置情報に基づいて前記障害物と前記自車両との距離を取得し、前記障害物と前記自車両との距離が予め決められた距離以下になったときに前記障害物の画像を前記ピラー上に表示させるための制御を停止する構成を採用しても良い。すなわち、自車両と障害物との距離が近づくと、両者が遠い場合と比較して自車両から見える障害物の大きさは大きくなり、当該障害物が死角に含まれる可能性が小さくなる。   Further, a distance between the obstacle and the host vehicle is acquired based on the obstacle position information, and when the distance between the obstacle and the host vehicle is equal to or less than a predetermined distance, the obstacle You may employ | adopt the structure which stops the control for displaying an image on the said pillar. That is, when the distance between the host vehicle and the obstacle is closer, the size of the obstacle seen from the host vehicle is larger than when both are far away, and the possibility that the obstacle is included in the blind spot is reduced.

そこで、予め特定の距離を決めておき、障害物と自車両とがこの距離以下になったときにピラー上への画像の表示を停止する構成とすれば、運転者に対する注意喚起が必要な場合にのみ当該表示を行うことができ、運転者に対する注意喚起が必要な場合に確実に当該注意喚起を行うことができる。   Therefore, if a specific distance is determined in advance and the display of the image on the pillar is stopped when the obstacle and the vehicle are below this distance, it is necessary to alert the driver. The display can be performed only when the driver needs to be alerted, and can be surely alerted when the driver needs to be alerted.

なお、障害物と自車両との距離は、ピラー上へ画像を表示することが必要な場合に当該表示がなされるように決定されていれば良い。例えば、他車両,歩行者,自転車等の移動体や、標識,電柱,樹木等の固定物などの障害物のそれぞれについて典型的な大きさを予め特定し、その大きさの障害物の視角と死角とが一致し得る距離を特定し、この距離を示すデータを所定の記憶媒体に書き込んでおく。この距離は、各障害物について障害物の全体が死角に含まれることになる限界の距離であり、障害物と自車両との距離が当該限界の距離以下の場合には障害物の一部が死角の外部に存在することになる。そこで、上述の距離を示すデータを参照し、障害物と自車両との距離が当該限界の距離以下となったときにピラー上に表示させるための制御を停止することにより、必要充分な場合にのみピラー上への画像表示を行うことが可能になる。   It should be noted that the distance between the obstacle and the host vehicle may be determined so that the display is made when it is necessary to display an image on the pillar. For example, a typical size is specified in advance for each of obstacles such as other vehicles, pedestrians, bicycles, and other fixed objects such as signs, utility poles, trees, etc. A distance that can coincide with the blind spot is specified, and data indicating the distance is written in a predetermined storage medium. This distance is the limit distance that the entire obstacle will be included in the blind spot for each obstacle, and if the distance between the obstacle and the vehicle is less than the limit distance, a part of the obstacle will be It exists outside the blind spot. Therefore, by referring to the data indicating the distance described above, when the distance between the obstacle and the host vehicle is equal to or less than the limit distance, the control for displaying on the pillar is stopped. Only an image can be displayed on the pillar.

さらに、本発明のように障害物が死角に含まれることが検出されたときにピラー上に当該障害物の画像を表示する手法は、プログラムや方法としても適用可能である。また、以上のような運転支援装置、プログラム、方法は、単独の運転支援装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。例えば、以上のような運転支援装置を備えたナビゲーション装置や方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、運転支援装置を制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Further, the method of displaying an image of an obstacle on the pillar when it is detected that the obstacle is included in the blind spot as in the present invention can be applied as a program or a method. In addition, the above-described driving support device, program, and method may be realized as a single driving support device, or may be realized by using parts shared with each part provided in the vehicle. The embodiment is included. For example, it is possible to provide a navigation device, a method, and a program that include the driving support device as described above. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention is also established as a recording medium for a program for controlling the driving support device. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ナビゲーション装置の構成:
(2)運転支援処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of navigation device:
(2) Driving support processing:
(3) Other embodiments:

(1)ナビゲーション装置の構成:
図1は、本発明にかかる運転支援装置を含むナビゲーション装置10の構成を示すブロック図である。ナビゲーション装置10は、CPU,RAM,ROM等を備える制御部20と記憶媒体30とを備えており、記憶媒体30やROMに記憶されたプログラムを制御部20で実行することができる。本実施形態においては、このプログラムの一つとしてナビゲーションプログラム21を実施可能であり、図示しない表示部やスピーカーによって案内を出力して自車両の経路案内等を実施する。また、ナビゲーションプログラム21はその機能の一つとして死角に含まれる障害物の画像をピラー上に表示する機能を備えている。
(1) Configuration of navigation device:
FIG. 1 is a block diagram showing a configuration of a navigation device 10 including a driving support device according to the present invention. The navigation device 10 includes a control unit 20 including a CPU, RAM, ROM, and the like and a storage medium 30, and the control unit 20 can execute a program stored in the storage medium 30 or the ROM. In the present embodiment, the navigation program 21 can be implemented as one of the programs, and guidance is output by a display unit or a speaker (not shown) to perform route guidance of the host vehicle. Further, the navigation program 21 has a function of displaying an image of an obstacle included in the blind spot on the pillar as one of its functions.

自車両(ナビゲーション装置10が搭載された車両)には、ナビゲーションプログラム21によって上述の機能を実現するためにGPS受信部40と車外カメラ41と車内カメラ42と投影装置43とを備えており、これらの各部と制御部20との信号の授受は図示しないインタフェースによって実現されている。   The own vehicle (the vehicle on which the navigation device 10 is mounted) includes a GPS receiver 40, an in-vehicle camera 41, an in-vehicle camera 42, and a projection device 43 in order to realize the above functions by the navigation program 21. The exchange of signals between these units and the control unit 20 is realized by an interface (not shown).

GPS受信部40は、GPS衛星からの電波を受信し、図示しないインタフェースを介して自車両の現在位置を算出するための情報を出力する。制御部20は、この信号を取得して自車両の現在位置を取得する。むろん、図示しない車速センサや加速度センサ、ジャイロセンサ等の出力信号に基づいて、自車両の現在位置を取得しても良いし、自車両の軌跡を参照して現在位置を補正しても良い。   The GPS receiver 40 receives radio waves from GPS satellites and outputs information for calculating the current position of the host vehicle via an interface (not shown). The control unit 20 acquires this signal and acquires the current position of the host vehicle. Of course, the current position of the host vehicle may be acquired based on output signals from a vehicle speed sensor, an acceleration sensor, a gyro sensor, or the like (not shown), or the current position may be corrected with reference to the trajectory of the host vehicle.

車外カメラ41は自車両の周囲を視野に含むように自車両に対して取り付けられ、撮影した画像を示す画像データを出力する。制御部20は、図示しないインタフェースを介してこの画像データを取得する。なお、本実施形態においては、自車両のピラーによる運転者の死角に含まれる障害物がを撮影できるように、自車両に対して車外カメラ41が取り付けられている。従って、車外カメラ41が出力する画像データが障害物画像情報となり得る。   The camera 41 outside the vehicle is attached to the host vehicle so as to include the periphery of the host vehicle in the field of view, and outputs image data indicating the captured image. The control unit 20 acquires this image data via an interface (not shown). In the present embodiment, an out-of-vehicle camera 41 is attached to the host vehicle so that an obstacle included in the blind spot of the driver by the pillar of the host vehicle can be photographed. Therefore, the image data output from the vehicle camera 41 can be obstacle image information.

車内カメラ42は自車両を運転する運転者の眼を視野に含むように自車両に対して取り付けられ、撮影した画像を示す画像データを出力する。制御部20は、図示しないインタフェースを介してこの画像データを取得し、画像に含まれる眼の位置から3次元空間内での眼の位置を示す座標を特定する。なお、当該座標は、自車両の基準位置を原点として予め定義された3次元座標系の座標である。   The in-vehicle camera 42 is attached to the host vehicle so that the eyes of the driver who drives the host vehicle are included in the field of view, and outputs image data indicating the captured image. The control unit 20 acquires this image data via an interface (not shown), and specifies coordinates indicating the position of the eye in the three-dimensional space from the position of the eye included in the image. In addition, the said coordinate is a coordinate of the three-dimensional coordinate system previously defined by making the reference | standard position of the own vehicle into an origin.

投影装置43は、光源からの出力光を調整した投影光を自車両のピラーに対して出力するプロジェクタであり、制御部20が出力する制御信号によって制御される。すなわち、制御部20は、任意の画像を表示するための画像データおよび投影装置43の動作を制御するための信号を図示しないインタフェースを介して出力し、投影装置43はこれらの信号に応じて任意の画像をピラー上に表示する。なお、本実施形態において制御部20は、上述の車外カメラ41にて撮影した画像を示す画像データを出力し、自車両の外部に存在する障害物の画像をピラー上に表示することができる。   The projection device 43 is a projector that outputs projection light obtained by adjusting output light from the light source to the pillar of the host vehicle, and is controlled by a control signal output from the control unit 20. In other words, the control unit 20 outputs image data for displaying an arbitrary image and a signal for controlling the operation of the projection device 43 via an interface (not shown), and the projection device 43 arbitrarily outputs the signal according to these signals. The image of is displayed on the pillar. In the present embodiment, the control unit 20 can output image data indicating an image photographed by the above-described camera 41 and display an image of an obstacle existing outside the host vehicle on the pillar.

図2は、自車両における車外カメラ41と車内カメラ42と投影装置43との配置例を示す説明図である。同図2においては、自車両100の外周と車室内の様子を運転者Dとともに模式的に示している。この例において、車外カメラ41は自車両100の左右それぞれのサイドミラーSに取り付けられている。また、右側のサイドミラーに取り付けられた車外カメラ41は自車両100の前方から右側にかけての範囲を視野にして画像を撮影することができる。左側のサイドミラーに取り付けられた車外カメラ41は自車両100の前方から左側にかけての範囲を視野にして画像を撮影することができる。なお、図2においては、車外カメラ41の視野を二点鎖線で示している。   FIG. 2 is an explanatory diagram illustrating an arrangement example of the outside camera 41, the inside camera 42, and the projection device 43 in the own vehicle. In FIG. 2, the outer periphery of the host vehicle 100 and the interior of the passenger compartment are schematically shown together with the driver D. In this example, the vehicle exterior camera 41 is attached to the left and right side mirrors S of the host vehicle 100. In addition, the outside camera 41 attached to the right side mirror can capture an image in the field of view from the front to the right side of the host vehicle 100. The vehicle exterior camera 41 attached to the left side mirror can capture an image with a field of view from the front to the left side of the host vehicle 100 as a field of view. In FIG. 2, the field of view of the outside camera 41 is indicated by a two-dot chain line.

図2に示す例において、車内カメラ42は自車両100の車室内におけるバックミラーの周辺に取り付けられており、運転者Dの顔を含む範囲を視野にして画像を撮影することができる。なお、図2においては、車内カメラ42の視野を破線で示している。投影装置43は、自車両100の中央付近の天井に取り付けられており、左右のフロントピラー(自車両の天井を支えるピラーであって自車両の前方の左右に配置されたピラー)のそれぞれに向けて光を投影することができる。なお、図2においては、投影装置43の投影範囲を一点鎖線にて示している。   In the example illustrated in FIG. 2, the in-vehicle camera 42 is attached to the periphery of the rearview mirror in the passenger compartment of the host vehicle 100, and can capture an image with a field of view including the face of the driver D. In FIG. 2, the field of view of the in-vehicle camera 42 is indicated by a broken line. The projection device 43 is attached to a ceiling near the center of the host vehicle 100 and is directed to each of the left and right front pillars (pillars that support the ceiling of the host vehicle and are disposed on the left and right in front of the host vehicle). Can project light. In FIG. 2, the projection range of the projection device 43 is indicated by a one-dot chain line.

記憶媒体30には、ナビゲーションプログラム21による案内を実施するため地図情報30aが記憶されている。地図情報30aは、道路上に設定されたノードを示すノードデータやノード同士の連結を示すリンクデータ、目標物を示すデータ等を含み、自車両の位置の特定や目的地への案内等に利用される。また、記憶媒体30には、自車両におけるピラーの位置の座標を示す車両情報30bが記憶されている。なお、当該ピラーの位置の座標も、上述の眼の位置を特定するための座標系と同様の座標系において定義される。   The storage medium 30 stores map information 30a for performing guidance by the navigation program 21. The map information 30a includes node data indicating nodes set on a road, link data indicating connection between nodes, data indicating a target, and the like, and is used for specifying the position of the own vehicle and guiding to a destination. Is done. The storage medium 30 stores vehicle information 30b indicating the coordinates of the pillar position in the host vehicle. The coordinates of the position of the pillar are also defined in the same coordinate system as the coordinate system for specifying the position of the eye.

本実施形態において、ナビゲーションプログラム21は、上述の各部と協働することによってナビゲーション装置10を本発明にかかる運転支援装置として機能させる。このため、ナビゲーションプログラム21は、障害物画像情報取得部21aと障害物位置情報取得部21bと障害物不可視状態検出部21cと障害物表示制御部21dとを備えている。   In the present embodiment, the navigation program 21 causes the navigation device 10 to function as a driving support device according to the present invention by cooperating with the above-described units. Therefore, the navigation program 21 includes an obstacle image information acquisition unit 21a, an obstacle position information acquisition unit 21b, an obstacle invisible state detection unit 21c, and an obstacle display control unit 21d.

障害物画像情報取得部21aは、車外カメラ41が出力する画像データを取得するモジュールであり、特定の時間間隔毎に画像データを取得して図示しないメモリに保持する。障害物位置情報取得部21bは、当該画像データを参照し、画像内に含まれる障害物の画像の位置に基づいて3次元空間内での障害物の位置を特定する。ここでも、この座標は自車両の基準位置を原点として予め定義された3次元座標系の座標である。本実施形態においては、車外カメラ41にて取得される画像の位置に予め上述の3次元座標系の座標値が対応づけられており、障害物の画像の位置を画像内で特定することによって当該3次元座標系の座標値を特定している。   The obstacle image information acquisition unit 21a is a module that acquires image data output from the vehicle camera 41, acquires image data at specific time intervals, and stores the acquired image data in a memory (not shown). The obstacle position information acquisition unit 21b refers to the image data and specifies the position of the obstacle in the three-dimensional space based on the position of the obstacle image included in the image. Again, this coordinate is a coordinate in a three-dimensional coordinate system defined in advance with the reference position of the host vehicle as the origin. In the present embodiment, the coordinate value of the above-described three-dimensional coordinate system is associated with the position of the image acquired by the outside camera 41 in advance, and the position of the obstacle is identified by specifying the position of the image in the image. The coordinate value of the three-dimensional coordinate system is specified.

より具体的には、障害物の画像の中から障害物と路面との接点(例えば、路面と他車両の車輪との接点)を抽出し、当該接点の画像内での位置を特定し、この位置に対応づけられた3次元座標を取得する。すなわち、画像内の各位置には予め3次元座標が対応づけられており、上述の接点に対応づけられた3次元座標を取得して障害物の位置を特定する。なお、各障害物の位置は、車体の中央など、その代表点の座標によって定義しても良いし、その外周を示す座標によって定義しても良く、種々の構成を採用可能である。また、車外カメラ41によって異なる時間に撮影した画像に基づいて障害物の位置に対応する3次元座標を特定しても良い。むろん、このとき、地図情報30aに基づいて障害物が存在する路面の傾斜や高度を示す情報を取得し、これらの情報に基づいて、障害物と路面との接点に対応する3次元空間の座標値を補正しても良い。   More specifically, a contact point between the obstacle and the road surface (for example, a contact point between the road surface and a wheel of another vehicle) is extracted from the obstacle image, and the position of the contact point in the image is specified. A three-dimensional coordinate associated with the position is acquired. That is, three-dimensional coordinates are associated with each position in the image in advance, and the position of the obstacle is specified by acquiring the three-dimensional coordinates associated with the above-described contact points. The position of each obstacle may be defined by the coordinates of the representative point such as the center of the vehicle body, or may be defined by the coordinates indicating the outer periphery, and various configurations can be employed. Further, the three-dimensional coordinates corresponding to the position of the obstacle may be specified based on images taken at different times by the vehicle exterior camera 41. Of course, at this time, information indicating the inclination and altitude of the road surface where the obstacle exists is acquired based on the map information 30a, and the coordinates of the three-dimensional space corresponding to the contact point between the obstacle and the road surface are acquired based on the information. The value may be corrected.

障害物不可視状態検出部21cは、運転者の死角に障害物が含まれることを検出するモジュールであり、本実施形態においては、運転者の眼の位置を示す眼位置情報とフロントピラーの位置を示すピラー位置情報と障害物の位置を示す障害物位置情報とに基づいて死角に障害物が含まれることを検出する。   The obstacle invisible state detection unit 21c is a module that detects that an obstacle is included in the driver's blind spot, and in the present embodiment, the eye position information indicating the driver's eye position and the position of the front pillar are obtained. Based on the pillar position information shown and the obstacle position information showing the position of the obstacle, it is detected that an obstacle is included in the blind spot.

眼位置情報は、車内カメラ42が出力する画像データを解析し、眼の画像を抽出することによって特定される。本実施形態においては、パターンマッチング等によって車内カメラ42の撮影画像から眼の画像を抽出し、画像内での眼の位置を特定する。そして、自車両の基準位置を原点として予め定義された3次元座標系において、当該眼の位置に対応する3次元座標を特定する。すなわち、車内カメラ42においても、その画像内の各位置には予め3次元座標が対応づけられており、上述の接点に対応づけられた3次元座標を取得して障害物の位置を特定する。   The eye position information is specified by analyzing image data output from the in-vehicle camera 42 and extracting an eye image. In the present embodiment, an eye image is extracted from a captured image of the in-vehicle camera 42 by pattern matching or the like, and the eye position in the image is specified. Then, in the three-dimensional coordinate system defined in advance with the reference position of the host vehicle as the origin, the three-dimensional coordinates corresponding to the eye position are specified. That is, in the in-vehicle camera 42, three-dimensional coordinates are associated with each position in the image in advance, and the position of the obstacle is specified by acquiring the three-dimensional coordinates associated with the above-described contact.

むろん、各種センサによって眼や頭の位置を検出しても良いし、センサによる位置検出と画像解析とを組み合わせても良い。また、車内カメラ42によって眼の位置を検出するための構成は上述の構成に限られず、車内カメラ42によって異なる時間に撮影した画像に基づいて眼の位置に対応する3次元座標を特定しても良く、種々の構成を採用可能である。   Of course, the position of the eye or head may be detected by various sensors, or position detection by the sensor and image analysis may be combined. Further, the configuration for detecting the eye position by the in-vehicle camera 42 is not limited to the above-described configuration, and three-dimensional coordinates corresponding to the eye position can be specified based on images taken at different times by the in-vehicle camera 42. It is possible to adopt various configurations.

なお、ここでは眼の位置を検出することによって視線の原点を特定することができればよい。従って、左右の眼の位置の平均的な位置を眼の位置として定義しても良いし、左右の眼のそれぞれについて位置を特定しても良く、左右の眼による平均的な視線方向や左右の眼のそれぞれについての視線方向を特定することによって死角を特定することができる限りにおいて種々の構成を採用可能である。   Here, it is only necessary that the origin of the line of sight can be specified by detecting the position of the eye. Therefore, the average position of the left and right eyes may be defined as the eye position, the position may be specified for each of the left and right eyes, the average line-of-sight direction by the left and right eyes, Various configurations can be adopted as long as the blind spot can be identified by identifying the line-of-sight direction for each of the eyes.

ピラー位置情報は、上述の車両情報30bに基づいて特定される。ここで、ピラーは自車両の天井を支持する部材であり、所定の幅の部材である。従って、ピラー位置情報は、ピラーの外周およびその内側を含む領域を示す座標であり、この領域に対応した3次元座標系における座標値がピラー位置情報である。   The pillar position information is specified based on the vehicle information 30b described above. Here, the pillar is a member that supports the ceiling of the host vehicle, and is a member having a predetermined width. Therefore, the pillar position information is a coordinate indicating a region including the outer periphery and the inner side of the pillar, and a coordinate value in a three-dimensional coordinate system corresponding to this region is the pillar position information.

障害物不可視状態検出部21cは、以上のようにして特定される眼位置情報とピラー位置情報、および障害物位置情報取得部21bが取得する障害物位置情報が示す各位置が直線上に存在するときに、障害物が死角に含まれるとする。図3は、眼の位置、ピラーの位置、障害物の位置を模式的に示す説明図であり、眼の位置をPe,ピラーの位置をPp,障害物(他車両)の位置をPcとして示している。   In the obstacle invisible state detection unit 21c, the eye position information and pillar position information specified as described above, and the positions indicated by the obstacle position information acquired by the obstacle position information acquisition unit 21b exist on a straight line. Sometimes an obstacle is included in the blind spot. FIG. 3 is an explanatory diagram schematically showing the position of the eye, the position of the pillar, and the position of the obstacle, showing the position of the eye as Pe, the position of the pillar as Pp, and the position of the obstacle (another vehicle) as Pc. ing.

当該図3に示すように、運転者が右側を視認したとき、眼の位置Peを原点とする視線を定義することができる。ピラーには幅があるため、この視線がピラーと交わる範囲は死角となる(図3に示す二点鎖線)。また、図3に破線で示すように、眼の位置Peを原点とする視線上にピラーの位置Ppと障害物の位置Pcが存在するときには、障害物が死角に含まれ得る。そこで、本実施形態においては、眼の位置Pe,ピラーの位置Pp,障害物の位置Pcが直線上に存在するときに障害物が死角に含まれるとみなしている。   As shown in FIG. 3, when the driver visually recognizes the right side, a line of sight with the eye position Pe as the origin can be defined. Since the pillar has a width, a range where the line of sight intersects with the pillar is a blind spot (two-dot chain line shown in FIG. 3). Further, as shown by a broken line in FIG. 3, when the pillar position Pp and the obstacle position Pc exist on the line of sight with the eye position Pe as the origin, the obstacle may be included in the blind spot. Therefore, in this embodiment, when the eye position Pe, the pillar position Pp, and the obstacle position Pc are present on a straight line, it is considered that the obstacle is included in the blind spot.

障害物表示制御部21dは、以上のようにして障害物が死角に含まれることが検出されたときに、障害物の画像を前記ピラー上に表示させるため、上述の車外カメラ41にて撮影した画像を示す画像データと当該画像を表示するための制御信号を投影装置43に出力する。この結果、自車両のピラーには、障害物の画像が表示される。なお、本実施形態においては、2つの車外カメラ41によって左右の障害物を撮影している。   When the obstacle display control unit 21d detects that the obstacle is included in the blind spot as described above, the obstacle display control unit 21d takes an image of the obstacle on the pillar so as to be displayed on the pillar. Image data indicating an image and a control signal for displaying the image are output to the projection device 43. As a result, an image of the obstacle is displayed on the pillar of the host vehicle. In this embodiment, the left and right obstacles are photographed by the two outside-vehicle cameras 41.

そこで、障害物表示制御部21dは、障害物が自車両の右側に存在するときには右側のフロントピラーに右側の車外カメラ41にて撮影した画像を投影し、障害物が自車両の左側に存在するときには左側のフロントピラーに左側の車外カメラ41にて撮影した画像を投影する。以上のように、障害物が死角に含まれるときにその障害物が存在する方向のピラーにその障害物の画像が表示される。従って、運転者は注意をすべきタイミングで死角内に障害物が存在することを認識することができ、確実に、死角内の障害物を注意しながら運転することができる。さらに、眼の位置に応じた死角の変動に追従して当該死角に障害物が含まれることが検出されるので、死角に含まれる障害物について確実に注意喚起をすることができる。さらに、運転者はピラー上に表示された画像によって障害物の様子を認識することができ、その障害物に対応した適切な危険回避運転を選択することが可能になる。さらに、運転者の右側に存在する障害物は右側のフロントピラーに表示され、運転者の左側に存在する障害物は左側のフロントピラーに表示される。従って、運転者は障害物が存在する適切な方向を注意しながら運転を行うことができる。   Therefore, when the obstacle is present on the right side of the host vehicle, the obstacle display control unit 21d projects an image photographed by the right outside camera 41 on the right front pillar, and the obstacle is present on the left side of the host vehicle. Sometimes, the image taken by the left outside camera 41 is projected onto the left front pillar. As described above, when an obstacle is included in the blind spot, an image of the obstacle is displayed on the pillar in the direction in which the obstacle exists. Therefore, the driver can recognize that there is an obstacle in the blind spot at a timing when attention should be paid, and can surely drive while paying attention to the obstacle in the blind spot. Furthermore, since it is detected that an obstacle is included in the blind spot following the change in the blind spot according to the position of the eye, it is possible to reliably alert the obstacle included in the blind spot. Further, the driver can recognize the state of the obstacle from the image displayed on the pillar, and can select an appropriate danger avoidance driving corresponding to the obstacle. Furthermore, obstacles present on the right side of the driver are displayed on the right front pillar, and obstacles existing on the left side of the driver are displayed on the left front pillar. Therefore, the driver can drive while paying attention to an appropriate direction where the obstacle exists.

(2)運転支援処理:
次に、以上の構成においてナビゲーション装置10が実施する処理を説明する。ナビゲーション装置10によってナビゲーションプログラム21が実行されると、当該ナビゲーションプログラム21は、図4に示す処理を実行する。
(2) Driving support processing:
Next, the process which the navigation apparatus 10 implements in the above structure is demonstrated. When the navigation program 21 is executed by the navigation device 10, the navigation program 21 executes the processing shown in FIG.

この処理において、ナビゲーションプログラム21は自車両が交差点へ進行中であるか否かを判定し(ステップS100)、当該ステップS100にて自車両が交差点へ進行中であると判定されるまでこの処理を繰り返す。すなわち、ナビゲーションプログラム21は、GPS受信部40の出力信号および地図情報30aに基づいて自車両の現在位置を特定し、自車両が走行する走行路の地図情報30aを参照して当該走行路において自車両の前方に交差点が存在するか否かを判定する。   In this process, the navigation program 21 determines whether or not the host vehicle is proceeding to the intersection (step S100), and this process is performed until it is determined in step S100 that the host vehicle is proceeding to the intersection. repeat. That is, the navigation program 21 specifies the current position of the host vehicle based on the output signal of the GPS receiver 40 and the map information 30a, and refers to the map information 30a of the travel path on which the host vehicle travels, and automatically It is determined whether there is an intersection in front of the vehicle.

ステップS100において自車両が交差点へ進行中であると判定されたときには、当該交差点における交差路を走行している障害物が存在するか否かが判定される(ステップS110)。この判定は、障害物画像情報取得部21aと障害物位置情報取得部21bとによって行われる。すなわち、障害物画像情報取得部21aは、車外カメラ41が出力する画像データを取得し、障害物位置情報取得部21bは、当該画像データを参照して3次元空間内での障害物の位置を特定する。   When it is determined in step S100 that the host vehicle is traveling to the intersection, it is determined whether there is an obstacle traveling on the intersection at the intersection (step S110). This determination is performed by the obstacle image information acquisition unit 21a and the obstacle position information acquisition unit 21b. That is, the obstacle image information acquisition unit 21a acquires image data output from the vehicle camera 41, and the obstacle position information acquisition unit 21b refers to the image data to determine the position of the obstacle in the three-dimensional space. Identify.

ステップS110において、交差路を走行している障害物が存在すると判定されないときには、ステップS100以降の処理を繰り返す。一方、ステップS110において、交差路を走行している障害物が存在すると判定されたときには、障害物不可視状態検出部21cが、自車両のピラーによる運転者の死角に前記障害物が含まれるか否かを判定する(ステップS120)。   In step S110, when it is not determined that there is an obstacle traveling on the intersection, the processes in and after step S100 are repeated. On the other hand, when it is determined in step S110 that there is an obstacle traveling on the intersection, the obstacle invisible state detection unit 21c determines whether the obstacle is included in the driver's blind spot due to the pillar of the host vehicle. Is determined (step S120).

すなわち、障害物不可視状態検出部21cは、車内カメラ42が出力する画像データを取得してその画像から眼の位置を示す眼位置情報を特定し、車両情報30bを取得してピラーの位置を示すピラー位置情報を特定する。そして、上述の障害物位置情報取得部21bによって取得された障害物位置情報を参照し、眼の位置とピラーの位置と障害物の位置とが直線上に存在するか否かを判定し、直線上に存在する場合には障害物が死角に含まれると判定し、直線上に存在しない場合には障害物が死角に含まれると判定しない。当該ステップS120にて障害物が死角に含まれると判定されないときには、ステップS100以降の処理を繰り返す。   That is, the obstacle invisible state detection unit 21c acquires image data output from the in-vehicle camera 42, specifies eye position information indicating the position of the eye from the image, acquires vehicle information 30b, and indicates the position of the pillar. Specify pillar position information. Then, referring to the obstacle position information acquired by the obstacle position information acquisition unit 21b described above, it is determined whether or not the eye position, the pillar position, and the obstacle position are on a straight line. If it exists above, it is determined that the obstacle is included in the blind spot, and if it does not exist on the straight line, it is not determined that the obstacle is included in the blind spot. If it is not determined in step S120 that the obstacle is included in the blind spot, the processes in and after step S100 are repeated.

ステップS120にて障害物が死角に含まれると判定されたときには、さらに、障害物が死角に含まれる状態が一定時間維持されるか否かを判定する(ステップS130)。すなわち、障害物不可視状態検出部21cは、図示しない計時回路によって経過時間を計測することが可能であり、ステップS120にて障害物が死角に含まれると判定された後の経過時間を計測し、予め決められた一定の時間が経過したか否かを判定する。そして、ステップS130にて障害物が死角に含まれる状態が一定時間維持されていると判定されないときにはステップS100以降の処理を繰り返し、ステップS130にて障害物が死角に含まれる状態が一定時間維持されていると判定されたときにはステップS140以降の処理を実施してピラーへの画像表示を行う。   When it is determined in step S120 that the obstacle is included in the blind spot, it is further determined whether or not the state in which the obstacle is included in the blind spot is maintained for a certain period of time (step S130). That is, the obstacle invisible state detection unit 21c can measure the elapsed time by a timing circuit (not shown), and measures the elapsed time after it is determined in step S120 that the obstacle is included in the blind spot. It is determined whether or not a predetermined time has elapsed. Then, when it is not determined in step S130 that the state where the obstacle is included in the blind spot is maintained for a certain period of time, the processing after step S100 is repeated, and in step S130, the state where the obstacle is included in the blind spot is maintained for a certain period of time. When it is determined that the image is displayed, the processing after step S140 is performed to display an image on the pillar.

すなわち、本実施形態においては、障害物が死角に含まれている状態が極めて短い時間である場合にはピラー上での画像表示を行わないようにするため、障害物が死角に含まれる状態が一定時間維持されるか否かを判定している。なお、ここでは、障害物が死角に含まれている状態と含まれていない状態とが短い時間で繰り返されることによってピラー上の表示がちらつくことを防止したり、障害物が死角に含まれていることが確実である状態にてピラー上の表示を行うように制御することができれば良く、上述の一定の時間の長さは適宜調整可能である。   That is, in the present embodiment, when the state in which the obstacle is included in the blind spot is an extremely short time, the state in which the obstacle is included in the blind spot is not performed so that the image display on the pillar is not performed. It is determined whether or not it is maintained for a certain time. It should be noted that here, the state where the obstacle is included in the blind spot and the state where the obstacle is not included are repeated in a short time to prevent the display on the pillar from flickering, or the obstacle is included in the blind spot. As long as it can be controlled so that the display on the pillar is performed in a state where it is certain that it is certain, the above-mentioned fixed time length can be adjusted as appropriate.

障害物表示制御部21dは、上述のステップS130にて障害物が死角に含まれる状態が一定時間維持されていると判定された場合に、前記車外カメラ41にて撮影した画像を示す画像データと当該画像を表示するための制御信号を投影装置43に出力し、ピラー上に障害物を表示させる(ステップS140)。なお、本実施形態においては、投影装置43が当該ステップS140にて障害物の画像を表示する以前において、ピラー上に障害物の画像は表示されていない。   When the obstacle display control unit 21d determines in step S130 described above that the state where the obstacle is included in the blind spot is maintained for a certain period of time, the obstacle display control unit 21d includes image data indicating an image captured by the outside camera 41; A control signal for displaying the image is output to the projection device 43, and an obstacle is displayed on the pillar (step S140). In the present embodiment, before the projection device 43 displays an obstacle image in step S140, no obstacle image is displayed on the pillar.

障害物不可視状態検出部21cは、以上のようにしてピラー上に障害物を表示した状態において運転者の死角に障害物が含まれるか否かを判定する(ステップS150)。当該ステップS150における処理は上述のステップS120における処理と同様であり、運転者の眼の位置とピラーの位置と障害物の位置とが直線上に存在するときに運転者の死角に障害物が含まれると判定する。当該ステップS150にて死角に障害物が含まれると判定されないときにはステップS140以降の処理を繰り返し、ステップS150にて死角に障害物が含まれると判定されないときには、障害物不可視状態検出部21cはピラー上への画像処理を終了する。以上の処理により、障害物が死角に含まれる状態が維持されている間は、その障害物がピラーに表示されることになる。従って、運転者は、確実に、死角内の障害物を注意しながら運転することができる。   The obstacle invisible state detection unit 21c determines whether an obstacle is included in the driver's blind spot in the state where the obstacle is displayed on the pillar as described above (step S150). The process in step S150 is the same as the process in step S120 described above, and an obstacle is included in the driver's blind spot when the driver's eye position, pillar position, and obstacle position are on a straight line. It is determined that If it is not determined in step S150 that the blind spot contains an obstacle, the processes in and after step S140 are repeated. If it is not determined in step S150 that the blind spot contains an obstacle, the obstacle invisible state detection unit 21c is on the pillar. The image processing for is terminated. By the above process, while the obstacle is included in the blind spot, the obstacle is displayed on the pillar. Therefore, the driver can surely drive while paying attention to the obstacle in the blind spot.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、障害物が死角に含まれるときにその障害物の画像をピラー上に表示することができる限りにおいて、他にも種々の実施形態を採用可能である。例えば、障害物画像情報取得部21aにおいては、障害物画像情報を取得することができれば良く、取得した画像データについて補正等を行っても良い。補正の例としても種々の例を採用可能であり、障害物の画像の歪みを除去するための画像処理や障害物の画像と実際の像とを近づけるための画像処理を実行し、画像処理後の情報を障害物画像情報として取得しても良い。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and various other embodiments can be used as long as an image of the obstacle can be displayed on the pillar when the obstacle is included in the blind spot. It can be adopted. For example, the obstacle image information acquisition unit 21a only needs to be able to acquire obstacle image information, and the acquired image data may be corrected. Various examples can be adopted as correction examples. Image processing for removing distortion of an obstacle image or image processing for bringing an obstacle image close to an actual image is executed. May be acquired as obstacle image information.

また、自車両において接触を避けるべきあらゆる物体が当該障害物となり得る。従って、障害物は他車両に限られず、死角に含まれ得る歩行者,自転車などの移動体を本発明における障害物として定義してもよいし、標識や電柱,樹木等の固定物を本発明における障害物として定義してもよい。   In addition, any object that should avoid contact in the host vehicle can be the obstacle. Therefore, obstacles are not limited to other vehicles, and moving objects such as pedestrians and bicycles that can be included in blind spots may be defined as obstacles in the present invention, or fixed objects such as signs, utility poles, trees, etc. You may define it as an obstacle.

障害物位置情報を取得するための構成も画像処理に限定されず、車車間通信や路車間通信等の通信によって取得しても良いし、超音波センサや赤外線センサ、レーダなど各種センサの出力情報を取得して障害物の位置を特定しても良く、種々の構成を採用可能である。   The configuration for acquiring the obstacle position information is not limited to image processing, and may be acquired by communication such as vehicle-to-vehicle communication or road-to-vehicle communication, or output information of various sensors such as an ultrasonic sensor, an infrared sensor, and a radar. The position of the obstacle may be specified by acquiring the above, and various configurations can be adopted.

障害物不可視状態検出部21cにおいては、自車両のピラーによる運転者の死角に障害物が含まれることを検出することができればよい。従って、上述のように運転者の眼の位置とピラーの位置と障害物の位置とが直線上に存在することを検出する構成に限定されず、運転者から障害物を視認することが不可能になっている状態を検出する種々の構成を採用可能である。   The obstacle invisible state detection unit 21c only needs to detect that an obstacle is included in the driver's blind spot by the pillar of the host vehicle. Accordingly, the present invention is not limited to the configuration for detecting that the driver's eye position, the pillar position, and the obstacle position exist on a straight line as described above, and it is impossible for the driver to visually recognize the obstacle. It is possible to adopt various configurations for detecting the state of

例えば、人間の眼の位置等に基づいて死角を特定し、障害物の典型的な大きさに基づいて障害物が死角に含まれることを検出しても良い。すなわち、他車両,歩行者,自転車等の移動体や、標識,電柱,樹木等の固定物のような障害物の典型的な大きさを予め特定して各障害物の大きさを示すデータを所定の記憶媒体に書き込んでおけば、このデータを参照することによって、各障害物と自車両との距離に基づいて各障害物が死角に含まれるか否かを容易に特定することができる。   For example, the blind spot may be specified based on the position of the human eye and the like, and it may be detected that the obstacle is included in the blind spot based on the typical size of the obstacle. In other words, data indicating the size of each obstacle by specifying in advance typical sizes of obstacles such as other vehicles, pedestrians, bicycles, etc., and stationary objects such as signs, utility poles, trees, etc. If it is written in a predetermined storage medium, it is possible to easily specify whether or not each obstacle is included in the blind spot based on the distance between each obstacle and the host vehicle by referring to this data.

より具体的には、例えば、図3に示す例において、自車両100の進行方向に対して垂直な方向に他車両200が進行することを想定したとき、他車両200の典型的な大きさを4m等と定義すれば、その大きさの他車両200における2つの対角点Pdの双方が死角に含まれるか否かを他車両200の位置Pcから類推することができる。むろん、自車両100の進行方向と他車両200の進行方向は特に限定されず、各種のセンサや画像認識、車車間通信等によって自車両100の進行方向に対する他車両200の相対的な進行方向を特定し、当該相対的な進行方向毎に他車両が死角に含まれるか否かを判定する構成としても良い。   More specifically, for example, in the example shown in FIG. 3, when it is assumed that the other vehicle 200 travels in a direction perpendicular to the traveling direction of the host vehicle 100, the typical size of the other vehicle 200 is If it is defined as 4 m or the like, it can be inferred from the position Pc of the other vehicle 200 whether or not both of the two diagonal points Pd of the other vehicle 200 are included in the blind spot. Of course, the traveling direction of the host vehicle 100 and the traveling direction of the other vehicle 200 are not particularly limited, and the relative traveling direction of the other vehicle 200 with respect to the traveling direction of the host vehicle 100 is determined by various sensors, image recognition, inter-vehicle communication, and the like. It is good also as a structure which identifies and determines whether another vehicle is included in a blind spot for every said relative advancing direction.

さらに、障害物が死角に含まれる状態としては、障害物の一部が死角に含まれる状態を想定しても良いし、障害物の全体が死角に含まれている状態を想定しても良い。すなわち、障害物の一部が死角に含まれるときに障害物の画像をピラー上に表示させる構成としても良いし、障害物の全体が死角に含まれているときに障害物の画像をピラー上に表示させる構成としても良い。後者の構成によれば、死角によって障害物を全く視認できないときにピラー上に障害物が表示され、障害物の一部が死角の外部に存在するときにはピラー上に障害物は表示されない。   Furthermore, as a state where the obstacle is included in the blind spot, a state where a part of the obstacle is included in the blind spot may be assumed, or a state where the entire obstacle is included in the blind spot may be assumed. . In other words, the image of the obstacle may be displayed on the pillar when a part of the obstacle is included in the blind spot, or the image of the obstacle is displayed on the pillar when the entire obstacle is included in the blind spot. It is good also as a structure displayed on. According to the latter configuration, the obstacle is displayed on the pillar when the obstacle cannot be visually recognized by the blind spot, and the obstacle is not displayed on the pillar when a part of the obstacle exists outside the blind spot.

すなわち、障害物の一部が死角の外部に存在する状態(運転者から見た障害物の視角(障害物の両端と眼を結ぶ二直線が作る角度)が死角より大きい状態)においては、運転者が障害物を直接視認することができるため、この状態においては障害物をピラーに表示させない。そして、死角によって障害物を全く視認できないときにピラー上に障害物が表示されるので、障害物に注意して運転すべき状態においてピラー上に障害物が表示され、運転者は、確実に、障害物に対して注意しながら運転することが可能になる。   In other words, in a state where a part of the obstacle exists outside the blind spot (the obstacle's viewing angle seen by the driver (the angle formed by the two straight lines connecting the both ends of the obstacle and the eyes) is larger than the blind spot) Since the person can directly see the obstacle, the obstacle is not displayed on the pillar in this state. And since the obstacle is displayed on the pillar when the obstacle cannot be seen at all due to the blind spot, the obstacle is displayed on the pillar in a state that should be driven while paying attention to the obstacle. It becomes possible to drive while paying attention to obstacles.

さらに、前記障害物位置情報に基づいて障害物と自車両との距離を取得し、障害物と自車両との距離に基づいて障害物が死角に含まれるか否かを判定する構成としても良い。すなわち、自車両と障害物との距離が近づくと、両者が遠い場合と比較して自車両から見える障害物の大きさは大きくなり、当該障害物が死角に含まれる可能性が小さくなる。そこで、自車両と障害物との距離が予め決められた距離以下になったときに障害物が死角に含まれるとし、障害物の画像を前記ピラー上に表示させるための制御を停止する構成としてもよい。   Furthermore, it is good also as a structure which acquires the distance of an obstruction and the own vehicle based on the said obstacle position information, and determines whether an obstruction is included in a blind spot based on the distance of an obstruction and the own vehicle. . That is, when the distance between the host vehicle and the obstacle is closer, the size of the obstacle seen from the host vehicle is larger than when both are far away, and the possibility that the obstacle is included in the blind spot is reduced. Therefore, when the distance between the vehicle and the obstacle is equal to or less than a predetermined distance, the obstacle is included in the blind spot, and the control for displaying the obstacle image on the pillar is stopped. Also good.

なお、この距離としては、障害物の画像をピラー上に表示させる必要がなくなるような距離を設定すればよい。図3においては、この距離を例示している。すなわち、図3に示す他車両200は、二点鎖線で示す死角に全体が含まれており、この状態における他車両200と自車両100との距離を距離Lとしている。一方、他車両200と自車両100との距離が距離L以下になったときには、他車両200の視角が死角より広くなり、他車両200の一部は運転者に視認される。   Note that this distance may be set such that it is not necessary to display an obstacle image on the pillar. FIG. 3 illustrates this distance. That is, the other vehicle 200 shown in FIG. 3 is entirely included in the blind spot indicated by the two-dot chain line, and the distance between the other vehicle 200 and the host vehicle 100 in this state is the distance L. On the other hand, when the distance between the other vehicle 200 and the host vehicle 100 is equal to or less than the distance L, the viewing angle of the other vehicle 200 becomes wider than the blind spot, and a part of the other vehicle 200 is visually recognized by the driver.

そこで、この距離Lを予め定義しておき、他車両200と自車両100との距離を取得して、距離Lと比較すれば、他車両200が運転者の死角に含まれるか否かを判定することができる。また、他車両200と自車両100との距離が距離L以下になったときにピラー上への画像の表示を停止する構成とすれば、運転者に対する注意喚起が必要な場合にのみ当該表示を行うことができ、運転者に対する注意喚起が必要な場合に確実に当該注意喚起を行うことができる。   Therefore, if the distance L is defined in advance and the distance between the other vehicle 200 and the host vehicle 100 is acquired and compared with the distance L, it is determined whether or not the other vehicle 200 is included in the driver's blind spot. can do. Further, if the display of the image on the pillar is stopped when the distance between the other vehicle 200 and the host vehicle 100 is equal to or less than the distance L, the display is displayed only when the driver needs to be alerted. This can be performed, and when the driver needs to be alerted, the alert can be surely performed.

むろん、以上の距離は障害物の種類毎に異なり得る。すなわち、障害物と自車両との距離は、ピラー上へ画像を表示することが必要な場合に当該表示がなされるように決定されていれば良い。例えば、他車両以外の歩行者,自転車,標識,電柱,樹木等の障害物のそれぞれについて典型的な大きさを予め特定し、その大きさの障害物の視角と死角とが一致し得る距離を特定し、この距離を示すデータを所定の記憶媒体に書き込んでおく。この距離は、各障害物について障害物の全体が死角に含まれることになる限界の距離であり、障害物と自車両との距離が当該限界の距離以下の場合には障害物の一部が死角の外部に存在することになる。そこで、上述の距離を示すデータを参照し、障害物と自車両との距離が当該限界の距離以下となったときにピラー上に表示させるための制御を停止することにより、必要充分な場合にのみピラー上への画像表示を行うことが可能になる。   Of course, the above distance may vary depending on the type of obstacle. That is, the distance between the obstacle and the host vehicle may be determined so that the display is performed when it is necessary to display an image on the pillar. For example, a typical size is specified in advance for each obstacle such as a pedestrian other than another vehicle, a bicycle, a sign, a power pole, and a tree, and the distance at which the visual angle and the dead angle of the obstacle of the size can coincide with each other is determined. The data indicating this distance is written in a predetermined storage medium. This distance is the limit distance that the entire obstacle will be included in the blind spot for each obstacle, and if the distance between the obstacle and the vehicle is less than the limit distance, a part of the obstacle will be It exists outside the blind spot. Therefore, by referring to the data indicating the distance described above, when the distance between the obstacle and the host vehicle is equal to or less than the limit distance, the control for displaying on the pillar is stopped. Only an image can be displayed on the pillar.

さらに、動的な死角の変動を検出するための構成も上述のように車内カメラ42の画像を解析する構成に限定されない。例えば、人間の眼の位置を特定するための構成は、車内カメラ42の撮影画像を解析する構成に限定されず、人間の頭の位置、運転席の位置、運転席のヘッドレストの位置等を各種センサによって検出し、各位置から人間の眼の位置の変動や死角の変動を検出する構成を採用しても良い。   Further, the configuration for detecting the dynamic change in the blind spot is not limited to the configuration for analyzing the image of the in-vehicle camera 42 as described above. For example, the configuration for specifying the position of the human eye is not limited to the configuration for analyzing the image captured by the in-vehicle camera 42, and various human head positions, driver seat positions, driver seat headrest positions, etc. A configuration may be adopted in which a change in the position of a human eye or a change in blind spot is detected from each position by detection with a sensor.

すなわち、カメラの撮影画像に限られず、超音波センサ、赤外線センサ等が出力する信号に基づいて人間の眼の位置を直接的に検出する構成を採用しても良いし、カメラの撮影画像や超音波センサ、赤外線センサ等が出力する信号に基づいて人間の頭の位置、運転席の位置、運転席のヘッドレストの位置等を特定し、これらの位置から人間の眼の位置を推定しても良い。   In other words, the present invention is not limited to the image captured by the camera, and may employ a configuration in which the position of the human eye is directly detected based on a signal output from an ultrasonic sensor, an infrared sensor, or the like. The position of the human head, the position of the driver's seat, the position of the headrest of the driver's seat, and the like may be specified based on signals output from the sound wave sensor, the infrared sensor, etc., and the position of the human eye may be estimated from these positions. .

さらに、ピラー上に画像を表示するための構成は投影装置に限定されず、ピラーに設置されたディスプレイに障害物の画像を表示する構成を採用しても良い。さらに、上述の実施形態において、制御部20は、ナビゲーションプログラム21を実施するためのCPU等によって構成されていたが、むろん、障害物画像情報取得部21aなど、図1に示す各部を他のECUによって構成してもよいし、複数のECUが協働して本発明にかかる運転支援装置となるように構成してもよい。   Furthermore, the configuration for displaying an image on the pillar is not limited to the projection device, and a configuration for displaying an image of an obstacle on a display installed on the pillar may be adopted. Furthermore, in the above-described embodiment, the control unit 20 is configured by a CPU or the like for executing the navigation program 21, but, of course, each unit shown in FIG. 1 such as the obstacle image information acquisition unit 21a is replaced with another ECU. Alternatively, a plurality of ECUs may cooperate to form the driving support device according to the present invention.

さらに、障害物の画像をピラー上に表示するための制御を停止する際のトリガになり得る要素は、障害物と死角との関係に限定されず、自車両の位置等を制御停止のためのトリガとしても良い。例えば、自車両が交差点に達したときや交差点を通過したときに、障害物の画像をピラー上に表示するための制御を停止する構成としても良い。さらに、上述の処理においては、自車両が交差点に進行していると判定されたときに本発明にかかる処理を行うこととしていたが、むろん、この構成に限定されず、ステップS100を省略するなど、種々の構成を採用可能である。   Furthermore, the element that can be a trigger when stopping the control for displaying the image of the obstacle on the pillar is not limited to the relationship between the obstacle and the blind spot, and the position of the own vehicle or the like for stopping the control. It may be a trigger. For example, when the host vehicle reaches an intersection or passes through an intersection, control for displaying an image of an obstacle on a pillar may be stopped. Further, in the above-described processing, the processing according to the present invention is performed when it is determined that the host vehicle is traveling to the intersection. However, the present invention is not limited to this configuration, and step S100 is omitted. Various configurations can be employed.

運転支援装置を含むナビゲーション装置のブロック図である。It is a block diagram of the navigation apparatus containing a driving assistance device. 車外カメラと車内カメラと投影装置との配置例を示す説明図である。It is explanatory drawing which shows the example of arrangement | positioning with a camera outside a vehicle, a camera inside a vehicle, and a projection apparatus. 自車両と死角と他車両との関係を示す説明図である。It is explanatory drawing which shows the relationship between the own vehicle, a blind spot, and another vehicle. 運転支援処理のフローチャートである。It is a flowchart of a driving assistance process.

符号の説明Explanation of symbols

10…ナビゲーション装置、20…制御部、21…ナビゲーションプログラム、21a…障害物画像情報取得部、21b…障害物位置情報取得部、21c…障害物不可視状態検出部、21d…障害物表示制御部、30…記憶媒体、30a…地図情報、30b…車両情報、40…受信部、41…車外カメラ、42…車内カメラ、43…投影装置   DESCRIPTION OF SYMBOLS 10 ... Navigation apparatus, 20 ... Control part, 21 ... Navigation program, 21a ... Obstacle image information acquisition part, 21b ... Obstacle position information acquisition part, 21c ... Obstacle invisible state detection part, 21d ... Obstacle display control part, DESCRIPTION OF SYMBOLS 30 ... Storage medium, 30a ... Map information, 30b ... Vehicle information, 40 ... Reception part, 41 ... Outside camera, 42 ... In-vehicle camera, 43 ... Projection apparatus

Claims (5)

自車両の周囲に存在する障害物の画像を示す障害物画像情報を取得する障害物画像情報取得手段と、
前記障害物の位置を示す障害物位置情報を取得する障害物位置情報取得手段と、
前記障害物位置情報に基づいて、前記自車両のピラーによる運転者の死角に前記障害物が含まれることを検出する障害物不可視状態検出手段と、
前記死角に前記障害物が含まれることを検出したときに、前記障害物画像情報に基づいて前記障害物の画像を前記ピラー上に表示させるための制御を行う障害物表示制御手段と、
を備える運転支援装置。
Obstacle image information acquisition means for acquiring obstacle image information indicating an image of an obstacle existing around the host vehicle;
Obstacle position information acquisition means for acquiring obstacle position information indicating the position of the obstacle;
Based on the obstacle position information, obstacle invisible state detecting means for detecting that the obstacle is included in a driver's blind spot by a pillar of the host vehicle;
Obstacle detection control means for performing control for displaying an image of the obstacle on the pillar based on the obstacle image information when it is detected that the obstacle is included in the blind spot;
A driving support apparatus comprising:
前記障害物不可視状態検出手段は、前記運転者の眼の位置を検出するセンサが出力する眼位置情報と前記ピラーの位置を示すピラー位置情報とを取得し、前記運転者の眼の位置と前記ピラーの位置と前記障害物の位置とが直線上に存在するときに前記死角に前記障害物が含まれることを検出する、
請求項1に記載の運転支援装置。
The obstacle invisible state detecting means acquires eye position information output from a sensor that detects the position of the driver's eyes and pillar position information indicating the position of the pillar, and the position of the driver's eyes and the Detecting that the obstacle is included in the blind spot when the position of the pillar and the position of the obstacle are on a straight line;
The driving support device according to claim 1.
前記障害物表示制御手段は、前記死角に前記障害物の全体が含まれている状態であるときに前記障害物の画像を前記ピラー上に表示させるための制御を行う、
請求項1または請求項2のいずれかに記載の運転支援装置。
The obstacle display control means performs control for displaying an image of the obstacle on the pillar when the entire blind area is included in the blind spot.
The driving support device according to claim 1.
前記障害物表示制御手段は、前記障害物位置情報に基づいて前記障害物と前記自車両との距離を取得し、前記障害物と前記自車両との距離が予め決められた距離以下になったときに前記障害物の画像を前記ピラー上に表示させるための制御を停止する、
請求項1〜請求項3のいずれかに記載の運転支援装置。
The obstacle display control means acquires the distance between the obstacle and the host vehicle based on the obstacle position information, and the distance between the obstacle and the host vehicle is equal to or less than a predetermined distance. Sometimes stopping the control to display an image of the obstacle on the pillar,
The driving assistance apparatus in any one of Claims 1-3.
自車両の周囲に存在する障害物の画像を示す障害物画像情報を取得する障害物画像情報取得工程と、
前記障害物の位置を示す障害物位置情報を取得する障害物位置情報取得工程と、
前記障害物位置情報に基づいて、前記自車両のピラーによる運転者の死角に前記障害物が含まれることを検出する障害物不可視状態検出工程と、
前記死角に前記障害物が含まれることを検出したときに、前記障害物画像情報に基づいて前記障害物の画像を前記ピラー上に表示させるための制御を行う障害物表示制御工程と、
を含む運転支援方法。
An obstacle image information acquisition step of acquiring obstacle image information indicating an image of an obstacle existing around the host vehicle;
An obstacle position information acquisition step of acquiring obstacle position information indicating the position of the obstacle;
Based on the obstacle position information, an obstacle invisible state detecting step of detecting that the obstacle is included in a driver's blind spot by a pillar of the own vehicle;
An obstacle display control step for performing control for displaying an image of the obstacle on the pillar based on the obstacle image information when it is detected that the obstacle is included in the blind spot;
Driving support method including.
JP2007088358A 2007-03-29 2007-03-29 Drive support device and method Withdrawn JP2008250453A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007088358A JP2008250453A (en) 2007-03-29 2007-03-29 Drive support device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007088358A JP2008250453A (en) 2007-03-29 2007-03-29 Drive support device and method

Publications (1)

Publication Number Publication Date
JP2008250453A true JP2008250453A (en) 2008-10-16

Family

ID=39975366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007088358A Withdrawn JP2008250453A (en) 2007-03-29 2007-03-29 Drive support device and method

Country Status (1)

Country Link
JP (1) JP2008250453A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011044085A (en) * 2009-08-24 2011-03-03 Isuzu Motors Ltd Driving support apparatus
US8733938B2 (en) 2012-03-07 2014-05-27 GM Global Technology Operations LLC Virtual convertible tops, sunroofs, and back windows, and systems and methods for providing same
JP2016091045A (en) * 2014-10-29 2016-05-23 株式会社日本自動車部品総合研究所 Travel compartment line recognition system
CN112896045A (en) * 2021-01-26 2021-06-04 安信通科技(澳门)有限公司 Vehicle A-pillar blind area perspective method and system and vehicle
JP2021180464A (en) * 2020-05-15 2021-11-18 株式会社デンソー Vehicle display device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011044085A (en) * 2009-08-24 2011-03-03 Isuzu Motors Ltd Driving support apparatus
US8733938B2 (en) 2012-03-07 2014-05-27 GM Global Technology Operations LLC Virtual convertible tops, sunroofs, and back windows, and systems and methods for providing same
JP2016091045A (en) * 2014-10-29 2016-05-23 株式会社日本自動車部品総合研究所 Travel compartment line recognition system
US9669829B2 (en) 2014-10-29 2017-06-06 Denso Corporation Travel lane marking recognition system
JP2021180464A (en) * 2020-05-15 2021-11-18 株式会社デンソー Vehicle display device
CN112896045A (en) * 2021-01-26 2021-06-04 安信通科技(澳门)有限公司 Vehicle A-pillar blind area perspective method and system and vehicle

Similar Documents

Publication Publication Date Title
JP4434224B2 (en) In-vehicle device for driving support
US9126533B2 (en) Driving support method and driving support device
JP4719590B2 (en) In-vehicle peripheral status presentation device
JP4311426B2 (en) Display system, in-vehicle device, and display method for displaying moving object
EP3767944B1 (en) Drive recorder, display control method, and program
JP2008250503A (en) Operation support device
US20190135169A1 (en) Vehicle communication system using projected light
JP2010173619A (en) Head-up display device
JP2006227811A (en) Driving support apparatus
JP2008193339A (en) Rear monitoring system
JP2008102690A (en) Driving support method and driving support device
JP2005165422A (en) Collision probability determination device
JP5691814B2 (en) Driving assistance device
JP2009184554A (en) Safe travel assisting system
CN112534487B (en) Information processing apparatus, moving body, information processing method, and program
JP2009231938A (en) Surrounding monitoring device for vehicle
JP2007201748A (en) Vehicle driving assistance device
JP2009020570A (en) Vehicle traveling support apparatus
JP2008151507A (en) Apparatus and method for merge guidance
JP2008293095A (en) Operation support system
JP2003205805A (en) Operation supporting device for vehicle
JP4936060B2 (en) Vehicle travel support device
JP2006209368A (en) Vehicle drive support device
JP4561338B2 (en) Driving support device
JP2008250453A (en) Drive support device and method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100601