JP4719590B2 - In-vehicle peripheral status presentation device - Google Patents

In-vehicle peripheral status presentation device Download PDF

Info

Publication number
JP4719590B2
JP4719590B2 JP2006055582A JP2006055582A JP4719590B2 JP 4719590 B2 JP4719590 B2 JP 4719590B2 JP 2006055582 A JP2006055582 A JP 2006055582A JP 2006055582 A JP2006055582 A JP 2006055582A JP 4719590 B2 JP4719590 B2 JP 4719590B2
Authority
JP
Japan
Prior art keywords
vehicle
range
camera
image
map data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006055582A
Other languages
Japanese (ja)
Other versions
JP2007233770A (en
Inventor
康介 棟方
瑞樹 湯淺
茂治 窪谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2006055582A priority Critical patent/JP4719590B2/en
Publication of JP2007233770A publication Critical patent/JP2007233770A/en
Application granted granted Critical
Publication of JP4719590B2 publication Critical patent/JP4719590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、自動車に搭載される、自動車周辺の状況をユーザに対して提示する車載周辺状況提示装置に関するものである。   The present invention relates to an in-vehicle peripheral situation presentation device that is installed in a car and presents a situation around the automobile to a user.

自動車に搭載される、自動車周辺の状況をユーザに対して提示する技術としては、赤外線カメラによって自車周辺を撮影すると共に、赤外線カメラで撮影した映像をドライバに対して表示する技術が知られている(たとえば、特許文献1)。
特開平11-146389号公報
As a technology for presenting a situation around a vehicle mounted on a car to a user, there is known a technique of photographing the periphery of the own car with an infrared camera and displaying an image shot with the infrared camera to a driver (For example, Patent Document 1).
Japanese Patent Laid-Open No. 11-146389

前述した赤外線カメラで撮影した映像を表示する技術によれば、ドライバは、夜間に視認し難い歩行者を、表示された映像から容易に把握することができるようになる。
ここで、赤外線カメラから見て歩行者の前に他の物体が存在する場合には、物体の陰となる範囲は赤外線カメラによって撮影できないために、この歩行者を赤外線カメラによって撮影することはできない。したがって、ドライバは、このような赤外線カメラで撮影できない範囲については、表示される映像のみに頼ることなく特段の注意を払うことが好ましい。しかしながら、ドライバにとって、このような赤外線カメラで撮影できない範囲を、夜間において直ちに把握することは、必ずしも容易ではない
そこで、本発明は、自動車に搭載され、自動車周辺の状況をユーザに対して提示する車載周辺状況提示装置において、当該車載周辺状況提示装置が正しく状況を提示することができない範囲についてのユーザの注意を喚起することを課題とする。
According to the above-described technology for displaying an image captured by an infrared camera, the driver can easily grasp a pedestrian who is difficult to see at night from the displayed image.
Here, when there is another object in front of the pedestrian as viewed from the infrared camera, the area behind the object cannot be captured by the infrared camera, and therefore this pedestrian cannot be captured by the infrared camera. . Therefore, it is preferable that the driver pays special attention to such a range that cannot be captured by the infrared camera without relying only on the displayed image. However, it is not always easy for the driver to immediately grasp such a range that cannot be captured by the infrared camera at night. Therefore, the present invention is mounted on a car and presents the situation around the car to the user. It is an object of the present invention to alert a user about a range in which the in-vehicle surrounding situation presentation device cannot correctly present the situation.

前記課題達成のために、本発明は、自動車に搭載され、前記自動車周辺の状況をユーザに対して提示する車載周辺状況提示装置を、自車周辺の所定の検出範囲内の状況を検出する周辺状況センサと、前記周辺状況センサが検出した前記検出範囲内の状況をユーザに対して提示する状況提示手段と、前記周辺状況センサに対して前記検出範囲内に存在する物体の陰となるために、前記周辺状況センサによって状況を検出することができなくなっている範囲を、検出不可範囲として算出する検出不可範囲算出手段と、前記検出不可範囲算出手段が算出した検出不可範囲についてのユーザの注意を喚起する注意喚起手段とを含めて構成したものである。   In order to achieve the above object, the present invention provides an in-vehicle surrounding state presentation device that is mounted on a vehicle and presents the state around the vehicle to a user. A situation sensor, a situation presentation means for presenting a situation in the detection range detected by the surrounding situation sensor to a user, and an object existing in the detection range for the surrounding situation sensor In addition, a non-detectable range calculating unit that calculates a range in which the situation cannot be detected by the surrounding state sensor is calculated as a non-detectable range, and a user's attention about the non-detectable range calculated by the non-detectable range calculating unit. It is configured to include an alerting means for alerting.

このような車載周辺状況提示装置によれば、前記検出範囲内に存在する物体の陰となるために、前記周辺状況センサによって状況を検出することができなくなっている範囲を検出不可範囲として算出し、算出した検出不可範囲についてのユーザの注意を喚起するので、他の物体の陰となるために当該車載周辺状況提示装置が正しく状況を提示することができない範囲について、ユーザの注意を喚起することができるようになる。   According to such an in-vehicle surrounding situation presentation device, the range where the situation cannot be detected by the surrounding situation sensor is calculated as the undetectable range because it is behind the object existing in the detection range. Since the user's attention about the calculated non-detectable range is drawn, the user's attention is drawn about the range in which the in-vehicle peripheral situation presentation device cannot correctly present the situation because it is behind other objects. Will be able to.

ここで、以上のような車載周辺状況提示装置は、前記検出不可範囲算出手段において、前記周辺状況センサが検出した前記検出範囲内の状況に応じて、前記検出範囲内に存在する他車を検出し、前記周辺状況センサに対して前記他車検出手段が検出した他車の陰となる範囲を前記検出不可範囲として算出するようにしてもよい。また、以上のような車載周辺状況提示装置は、前記周辺状況センサを、自車周辺を撮影するカメラと、レーダを用いて自車周辺の物体の位置を計測するレーダ計測手段とを含めて構成し、前記検出不可範囲算出手段において、前記カメラが撮影した画像中の他車の大きさと、当該他車に相当する物体について前記レーダ計測手段が計測した位置までの距離とに基づいて、当該他車のサイズを算出し、当該他車に相当する物体について前記レーダ計測手段が計測した位置と、算出した当該他車のサイズとに基づいて、当該他車の陰となる範囲を、前記検出不可範囲として算出するようにしてもよい。   Here, the vehicle-mounted peripheral situation presentation device as described above detects, in the non-detectable range calculation means, other vehicles existing in the detection range according to the situation in the detection range detected by the peripheral situation sensor. And the range which is behind the other vehicle which the said other vehicle detection means detected with respect to the said surrounding state sensor may be calculated as said undetectable range. In addition, the on-vehicle surrounding situation presentation apparatus as described above includes the surrounding situation sensor including a camera that captures the surroundings of the own vehicle and a radar measurement unit that measures the position of an object around the own vehicle using a radar. Then, in the non-detectable range calculation means, based on the size of the other vehicle in the image captured by the camera and the distance to the position measured by the radar measurement means for the object corresponding to the other vehicle The size of the vehicle is calculated, and the range behind the other vehicle cannot be detected based on the position measured by the radar measurement unit for the object corresponding to the other vehicle and the calculated size of the other vehicle. It may be calculated as a range.

これらのようにすることにより、他車の陰となるために当該車載周辺状況提示装置が正しく状況を提示することができない範囲について、ユーザの注意を喚起することができる。
また、以上の車載周辺状況提示装置に、さらに、道路と建造物の配置を示す地図を表す地図データ記憶した地図データ記憶手段と、自車の現在位置を算出する自車位置算出手段とを備え、前記検出不可範囲算出手段において、自車位置算出手段が算出した自車の現在位置と、前記地図データ記憶手段に記憶された地図データが表す自車周辺の建造物の位置関係に基づいて、前記周辺状況センサに対して前記建造物の陰となる範囲を前記検出不可範囲として算出するようにしてもよい。
By doing so, it is possible to call the user's attention about the range in which the vehicle-mounted peripheral situation presentation device cannot correctly present the situation because it is behind other vehicles.
In addition, the above-described in-vehicle surrounding state presentation device further includes map data storage means for storing map data representing a map showing the arrangement of roads and buildings, and own vehicle position calculation means for calculating the current position of the own vehicle. In the non-detectable range calculation means, based on the current position of the vehicle calculated by the vehicle position calculation means and the positional relationship between the buildings around the vehicle represented by the map data stored in the map data storage means, A range that is behind the building with respect to the surrounding state sensor may be calculated as the undetectable range.

このようにすることにより、建造物の陰となるために当該車載周辺状況提示装置が正しく状況を提示することができない範囲について、ユーザの注意を喚起することができる。
また、以上の車載周辺状況提示装置は、より具体定期には、前記注意喚起手段は、自車と前記検出不可範囲との位置関係を表す画像を表示することにより、当該検出不可範囲についてのユーザの注意を喚起するものとして構成するようにしてもよい。また、この場合には、前記注意喚起手段が表示する画像は、自車周辺の地図上に、自車の現在位置と、前記検出不可範囲を表した画像としてもよい。
By doing in this way, since it becomes the shade of a building, a user's attention can be alerted about the range which the said vehicle-mounted periphery condition presentation apparatus cannot present a condition correctly.
In addition, in the above-described in-vehicle peripheral situation presentation device, more specifically, the alerting means displays an image representing the positional relationship between the own vehicle and the undetectable range, whereby the user about the undetectable range is displayed. You may make it comprise as what raises the attention of. In this case, the image displayed by the alerting means may be an image representing the current position of the vehicle and the undetectable range on a map around the vehicle.

このようにすることにより、ユーザは直感的に自車との関係において容易に検出不可範囲を把握できるようになる。
また、以上の車載周辺状況提示装置は、前記周辺状況センサを、自車周辺を撮影するカメラを含めて構成し、前記状況提示手段において、前記カメラが撮影した映像を表示すると共に、前記注意喚起手段において、前記状況提示手段が表示する映像上に、前記検出不可範囲に対応する領域を示すことにより、当該検出不可範囲についてのユーザの注意を喚起するようにしてもよい。
By doing so, the user can intuitively grasp the undetectable range in relation to the own vehicle intuitively.
Further, the above-described in-vehicle surrounding situation presentation device is configured such that the surrounding situation sensor includes a camera that takes a picture of the surroundings of the vehicle, and the situation presentation unit displays an image taken by the camera, and also alerts the user. The means may alert the user about the undetectable range by indicating an area corresponding to the undetectable range on the video displayed by the status presentation unit.

このようにすることにより、ユーザはカメラが撮影した映像が示す周辺の状況との関係において、直接的に検出不可範囲を把握できるようになる。   In this way, the user can directly grasp the undetectable range in relation to the surrounding situation indicated by the video captured by the camera.

以上のように、本発明によれば、自動車に搭載され、自動車周辺の状況をユーザに対して提示する車載周辺状況提示装置において、当該車載周辺状況提示装置が正しく状況を提示することができない範囲についてのユーザの注意を喚起することができる。   As described above, according to the present invention, in an in-vehicle peripheral situation presentation device that is mounted on a vehicle and presents the situation around the vehicle to a user, the range in which the in-vehicle peripheral situation presentation device cannot correctly present the situation. The user's attention can be drawn.

以下、本発明の実施形態について説明する。
図1aに、本実施形態に係る周辺状況提示装置の構成を示す。
本周辺状況提示装置は自動車に搭載される装置であり、図示するように、前方監視ユニット1、後方監視ユニット2、自車の舵角や速度などの状態を検出する車両センサ3、周辺状況表示部4、死角算出部5、地図データを備え地図データに基づいて自車の現在位置の検出等を行うナビゲーション装置6、表示装置8、音声出力装置9、操作部10、表示装置8や音声出力装置9や操作部10を用いた入出力を制御する入出力制御部7とを備えている。
Hereinafter, embodiments of the present invention will be described.
FIG. 1 a shows the configuration of the surrounding situation presentation device according to the present embodiment.
This peripheral situation presentation device is a device mounted on an automobile, and as shown in the figure, a front monitoring unit 1, a rear monitoring unit 2, a vehicle sensor 3 for detecting the steering angle and speed of the host vehicle, a peripheral status display, and the like. Unit 4, blind spot calculation unit 5, navigation device 6 that includes map data and detects the current position of the vehicle based on the map data, display device 8, audio output device 9, operation unit 10, display device 8 and audio output And an input / output control unit 7 for controlling input / output using the device 9 and the operation unit 10.

また、前方監視ユニット1と後方監視ユニット2は、設定された撮影範囲を撮影するカメラ11と、設定された走査範囲内の物体のレーダ測位を行うレーダ装置12とを備えている。ただし、前方監視ユニット1のカメラ11は赤外線カメラであり、後方監視ユニット2のカメラ11は通常の可視光撮影用のカメラ11である。   Further, the front monitoring unit 1 and the rear monitoring unit 2 include a camera 11 that captures a set shooting range and a radar device 12 that performs radar positioning of an object within the set scanning range. However, the camera 11 of the front monitoring unit 1 is an infrared camera, and the camera 11 of the rear monitoring unit 2 is a normal visible light photographing camera 11.

ここで、本実施形態では、図1bに示すように、前方監視ユニット1は、車両前部に配置し、前方監視ユニット1のカメラ11によって自車前方を撮影範囲として撮影し、前方監視ユニット1のレーダ装置12によって自車前方を走査範囲として物体のレーダ測位を行う。また、後方監視ユニット2は、車両後部に配置し、後方監視ユニット2のカメラ11によって自車後方を撮影範囲として撮影し、後方監視ユニット2のレーダ装置12によって自車後方を走査範囲として物体のレーダ測位を行う。ここで、本実施形態では、前方監視ユニット1のカメラ11の視野角の範囲とレーダ装置12の走査角の範囲を一致させると共に、後方監視ユニット2のカメラ11の視野角の範囲とレーダ装置12の走査角の範囲を一致させている。   Here, in the present embodiment, as shown in FIG. 1b, the front monitoring unit 1 is arranged in the front part of the vehicle, and the front of the vehicle is photographed by the camera 11 of the front monitoring unit 1 as a photographing range. The radar apparatus 12 performs radar positioning of the object with the front of the vehicle as the scanning range. Further, the rear monitoring unit 2 is arranged at the rear of the vehicle, and the camera 11 of the rear monitoring unit 2 captures the rear of the vehicle as an imaging range, and the radar device 12 of the rear monitoring unit 2 sets the rear of the host vehicle as a scanning range. Radar positioning is performed. Here, in this embodiment, the range of the viewing angle of the camera 11 of the front monitoring unit 1 and the range of the scanning angle of the radar device 12 are matched, and the range of the viewing angle of the camera 11 of the rear monitoring unit 2 is matched with the radar device 12. The scanning angle ranges are matched.

次に、死角算出部5の動作について説明する。
死角算出部5は、他車要因死角算出処理と、建造物要因死角算出処理とを、前方監視ユニット1と後方監視ユニット2のそれぞれについて行う。ここで、死角算出部5が、前方監視ユニット1と後方監視ユニット2のそれぞれについて行う他車要因死角算出処理の内容は同様であり、死角算出部5が、前方監視ユニット1と後方監視ユニット2のそれぞれについて行う建造物要因死角算出処理の内容は同様である。
Next, the operation of the blind spot calculation unit 5 will be described.
The blind spot calculation unit 5 performs the other vehicle factor blind spot calculation process and the building factor blind spot calculation process for each of the front monitoring unit 1 and the rear monitoring unit 2. Here, the contents of the other vehicle factor blind spot calculation processing performed by the blind spot calculating unit 5 for each of the front monitoring unit 1 and the rear monitoring unit 2 are the same, and the blind spot calculating unit 5 is configured to perform the forward monitoring unit 1 and the rear monitoring unit 2. The contents of the building factor blind spot calculation process performed for each of the above are the same.

以下、この他車要因死角算出処理と、建造物要因死角算出処理について説明する。
まず、他車要因死角算出処理について、後方監視ユニット2について行う他車要因死角算出処理を例にとり説明する。
この他車要因死角算出処理では、他車の存在のために状況を提示できなくなっている範囲を他車要因死角範囲として算出する処理を行う。
すなわち、図2aに示すように後方監視ユニット2のレーダ装置12が、自車201の後方に、他車に対応する物体の位置Pxを測位したならば、Wを短辺、Lを長辺とする長方形の他車領域202を、レーダ装置12が当該物体に対して測定した速度ベクトルの向かう方向を長辺の方向として、当該他車領域202の後方監視ユニット2に最も近い位置が、測位した位置Pxとなるように配置する。ただし、測位した位置Pxが後方監視ユニット2の自真後ろにある場合には、他車領域202の自車寄りの短辺の中央位置が、測位した位置Pxとなるようにする。
Hereinafter, the other vehicle factor blind spot calculation process and the building factor blind spot calculation process will be described.
First, the other vehicle factor blind spot calculation process will be described taking the other vehicle factor blind spot calculation process performed for the rear monitoring unit 2 as an example.
In this other vehicle factor blind spot calculation process, a range in which the situation cannot be presented due to the presence of another vehicle is calculated as the other vehicle factor blind spot range.
That is, as shown in FIG. 2a, if the radar device 12 of the rear monitoring unit 2 measures the position Px of the object corresponding to the other vehicle behind the own vehicle 201, W is the short side and L is the long side. The position of the rectangular other vehicle region 202 that is closest to the rear monitoring unit 2 in the other vehicle region 202 is determined with the direction of the velocity vector measured by the radar device 12 with respect to the object as the direction of the long side. It arrange | positions so that it may become the position Px. However, when the measured position Px is directly behind the rear monitoring unit 2, the center position of the short side of the other vehicle area 202 near the own vehicle is set to the measured position Px.

そして、この他車領域よって、後方監視ユニット2に対して隠される範囲を、他車要因死角範囲203として算出する。すなわち、他車要因死角範囲203は、当該他車要因死角範囲203内の任意の位置が、当該位置と後方監視ユニット2とを結ぶ線上に他車領域202が存在することになる範囲として求まる。   Then, the range hidden from the rear monitoring unit 2 by this other vehicle area is calculated as the other vehicle factor blind spot range 203. That is, the other vehicle factor blind spot range 203 is obtained as a range in which the other vehicle region 202 exists at an arbitrary position in the other vehicle factor blind spot range 203 on the line connecting the position and the rear monitoring unit 2.

さて、ここで、このような他車領域の短辺の長さWと長辺の長さLは、位置Pxを測位した他車の車幅をW、当該他車の車長をLとして算定することにより設定する。
この他車の車幅Wと車長Lの算定は、たとえば、図3に示すように行う。
すなわち、死角算出部5は、他車要因死角算出処理において、自車周辺の他車毎に、当該他車ついてレーダ装置12によって計測された位置を追尾する処理を行う。
そして、カメラ11によって撮影された画像の、追尾している他車についてレーダ装置12が測位した位置に対応する領域に対する画像認識処理を施し、図3aに示すように、当該追尾している他車の正面を向いた映像がカメラ11によって撮影されたときに、当該追尾している他車302の前方左右端P1、P2の画像中の位置を求める。そして、求めた画像中の位置に基づいて、自車301のカメラ11の設置位置Oから、当該追尾している他車302の前方左右端P1、P2に向かう方向の角度差θ1を求めると共に、レーダ装置12が、当該追尾している他車302について計測した相対距離Dを用いて、W=2Dtan(θ/2) によって、車幅Wを算出する。
Now, the length W of the short side and the length L of the long side of such other vehicle area are calculated by setting the vehicle width of the other vehicle that measured the position Px as W and the vehicle length of the other vehicle as L. To set.
The calculation of the vehicle width W and the vehicle length L of the other vehicle is performed, for example, as shown in FIG.
That is, the blind spot calculation unit 5 performs a process of tracking the position measured by the radar device 12 for the other vehicle in the other vehicle factor blind spot calculation process for each other vehicle around the host vehicle.
Then, an image recognition process is performed on the area of the image captured by the camera 11 corresponding to the position measured by the radar device 12 for the other vehicle being tracked, and the other vehicle being tracked is shown in FIG. 3a. When the video directed to the front of the vehicle is photographed by the camera 11, the positions in the images of the front left and right ends P1, P2 of the other vehicle 302 being tracked are obtained. Based on the obtained position in the image, the angle difference θ1 in the direction from the installation position O of the camera 11 of the own vehicle 301 toward the front left and right ends P1, P2 of the other vehicle 302 being tracked is obtained. The radar apparatus 12 calculates the vehicle width W using W = 2Dtan (θ / 2) using the relative distance D measured for the other vehicle 302 that is being tracked.

次に、このようにして車幅Wが算出されたならば、カメラ11によって撮影された画像の、当該車幅Wが算出された他車についてレーダ装置12が測位した位置に対応する領域に対する画像認識処理を継続して行い、当該追尾している他車の右斜前方方向を向いた映像がカメラ11によって撮影されたときに、図3b1に示すように、認識した他車の前方左端P1、前方右端P2、後方左端P3の画像中の位置を求める。そして、求めた画像中の位置に基づいて、自車301のカメラ11の設置位置Oから、当該追尾している他車302の前方右端P2に向かう方向の角度θ1、他車302の前方左端P1に向かう方向の角度θ2、他車302の後方左端P3に向かう方向θ3を求める。   Next, when the vehicle width W is calculated in this way, an image of an image taken by the camera 11 with respect to a region corresponding to a position measured by the radar device 12 with respect to another vehicle for which the vehicle width W is calculated. The recognition process is continued, and when an image of the other vehicle being tracked facing right diagonally forward is captured by the camera 11, as shown in FIG. 3b1, the front left end P1 of the recognized other vehicle, The positions in the image of the front right end P2 and the rear left end P3 are obtained. Then, based on the obtained position in the image, the angle θ1 in the direction from the installation position O of the camera 11 of the own vehicle 301 toward the front right end P2 of the other vehicle 302 being tracked, the front left end P1 of the other vehicle 302 An angle θ2 in the direction toward the vehicle and a direction θ3 toward the rear left end P3 of the other vehicle 302 are obtained.

そして、自車301のカメラ11の設置位置Oからθ2方向に、レーダ装置12が当該追尾中の他車302について計測した相対距離D進んだ位置をP1の位置とする。次に、図3b2に示すように、先に当該追尾中の他車について算定した車幅Wを用いて、P1の位置を中心とする半径Wの円と、自車301のカメラ11の設置位置Oからθ1方向に向かう直線との二つの交点のうち、P1よりも自車に対して遠い方の位置をP2とする。そして、P1とP2を結ぶ直線に垂直な直線と、自車301のカメラ11の設置位置Oからθ3方向に向かう直線との交点をP3とし、P1とP3間の距離を車長Lとする。   Then, the position advanced by the relative distance D measured by the radar apparatus 12 with respect to the other vehicle 302 being tracked in the θ2 direction from the installation position O of the camera 11 of the own vehicle 301 is defined as a position P1. Next, as shown in FIG. 3b2, by using the vehicle width W previously calculated for the other vehicle being tracked, the circle of radius W centered on the position of P1 and the installation position of the camera 11 of the host vehicle 301 Of the two intersections with the straight line from O to the θ1 direction, the position farther from the vehicle than P1 is P2. An intersection of a straight line perpendicular to the straight line connecting P1 and P2 and a straight line from the installation position O of the host vehicle 301 toward the θ3 direction is defined as P3, and a distance between P1 and P3 is defined as a vehicle length L.

そして、以上のようにして求めた車幅Wと車長Lを、図2aにおいて当該車幅Wと車長Lを求めた追尾中の他車についてレーダ装置12が計測した位置Pxに対して設定する他車領域202の短辺/長辺の長さとして用いる。
なお、このような車長Lは、当該車幅Wが算出された他車の右斜前方方向を向いた映像がカメラ11によって撮影されたときにも、同様にして算定することができる。すなわち、この場合には、当該他車の前方右端をP1、前方左端をP2、後方右端をP3として以上の処理を行えばよい。
Then, the vehicle width W and the vehicle length L obtained as described above are set with respect to the position Px measured by the radar device 12 for the other vehicle being tracked for which the vehicle width W and the vehicle length L are obtained in FIG. It is used as the length of the short side / long side of the other vehicle region 202 to be used.
Note that such a vehicle length L can be calculated in the same manner when the camera 11 captures an image of the other vehicle in which the vehicle width W has been calculated facing forward in the right oblique direction. In other words, in this case, the above processing may be performed with the front right end of the other vehicle as P1, the front left end as P2, and the rear right end as P3.

以上、他車要因死角算出処理について説明した。
ところで、以上のような他車の車幅W/車長Lの算定は、次のように行うようにしてもよい。すなわち、周辺状況提示装置に無線通信装置を備え、無線通信を用いた車車間通信によって周辺の他車から、当該他車の位置と車幅、車長の情報を取得する。そして、取得した車幅/車長を、取得した位置に対応する相対位置がレーダ装置12によって計測されている追尾中の他車の車幅W/車長Lとする。
The other vehicle factor blind spot calculation processing has been described above.
By the way, the calculation of the vehicle width W / vehicle length L of the other vehicle as described above may be performed as follows. That is, the surrounding state presentation device is provided with a wireless communication device, and information on the position, width, and length of the other vehicle is acquired from other nearby vehicles by inter-vehicle communication using wireless communication. Then, the acquired vehicle width / vehicle length is set as the vehicle width W / vehicle length L of the other vehicle being tracked whose relative position corresponding to the acquired position is measured by the radar device 12.

次に、死角算出部5が行う建造物要因死角算出処理について、前方監視ユニット1について行う建造物要因死角算出処理を例にとり説明する。
この建造物要因死角算出処理では、建造物の存在のために状況を提示できなくなっている範囲を建造物要因死角範囲として算出する処理を行う。
さて、この建造物要因死角算出処理において、死角算出部5は、ナビゲーション装置6から自車の現在位置と進行方向の情報と、自車周辺の地図データを取得する。
そして、図2bに示すように、ナビゲーション装置6から取得した情報が示す自車201の現在位置にあって取得した情報が示す進行方向を向いた前方監視ユニット1に対して、ナビゲーション装置6から取得した地図データが示す建造物204によって隠される道路/歩道上の範囲を、建造物要因死角範囲205として算出する。すなわち、建造物要因死角範囲205は、当該建造物要因死角範囲205内の任意の位置が、当該位置と前方監視ユニット1とを結ぶ線上に建造物204が存在することになる道路/歩道上の範囲として求まる。
Next, the building factor blind spot calculating process performed by the blind spot calculating unit 5 will be described by taking the building factor blind spot calculating process performed for the front monitoring unit 1 as an example.
In the building factor blind spot calculation process, a range in which the situation cannot be presented due to the presence of the building is calculated as a building factor blind spot range.
In this building factor blind spot calculation process, the blind spot calculator 5 acquires information on the current position and traveling direction of the host vehicle and map data around the host vehicle from the navigation device 6.
Then, as shown in FIG. 2b, acquired from the navigation device 6 with respect to the front monitoring unit 1 at the current position of the host vehicle 201 indicated by the information acquired from the navigation device 6 and facing the traveling direction indicated by the acquired information. The range on the road / walk that is hidden by the building 204 indicated by the map data is calculated as the building factor blind spot range 205. In other words, the building factor blind spot range 205 is located on a road / walk where an arbitrary position in the building factor blind spot range 205 exists on the line connecting the position and the front monitoring unit 1. Obtained as a range.

ただし、このような建造物要因死角範囲の算出は、レーダ装置12の測位する物体の相対位置から建造物の存在する範囲を算定し、範囲を算定した建造物によって隠される道路/歩道上の範囲を、建造物要因死角範囲として算出することにより行うようにしてもよい。また、前方監視ユニット1に対して建造物によって隠される全ての範囲を、道路/歩道上の範囲であるか否かの如何を問わず、建造物要因死角範囲として算出するようにしてもよい。   However, in this calculation of the building factor blind spot range, the range where the building exists is calculated from the relative position of the object to be measured by the radar device 12, and the range on the road / sidewalk hidden by the building for which the range is calculated. May be performed by calculating as a building factor blind spot range. Moreover, you may make it calculate all the ranges hidden with a building with respect to the front monitoring unit 1 as a building factor blind spot range regardless of whether it is a range on a road / walk.

以上、建造物要因死角算出処理について説明した。
次に、周辺状況表示部4が行う周辺状況表示処理について説明する。
周辺状況表示部4は、入出力制御部7を介して入力する操作部10に対するユーザ操作に応じて、後方状況表示処理と、前方状況表示処理とを選択的に行う。
そして、後方状況表示処理では、図4aに示すように、レーダ画像表示領域410と撮影映像表示領域420とを有する後方監視画面を、入出力制御部7を介して表示装置8に表示する。
そして、ナビゲーション装置6より自車位置周辺の地図と自車の現在位置及び進行方向とを取得し、自車位置周辺の地図411と、当該地図411上の自車の現在位置に対応する位置に進行方向に向けて配置した自車を表す自車図形412と、当該地図上で後方監視ユニット2のレーダ装置12が検出した他車を表す他車図形413とより構成される後方レーダ監視画像をレーダ画像表示領域410に表示する。ここで、他車図形413は、他車図形413と自車図形412との位置関係が、後方監視ユニット2のレーダ装置12が検出した他車の相対位置より求まる他車と自車の位置関係に一致するように配置する。
The building factor blind spot calculation processing has been described above.
Next, the surrounding state display process performed by the surrounding state display unit 4 will be described.
The peripheral situation display unit 4 selectively performs a rear situation display process and a front situation display process in response to a user operation on the operation unit 10 input via the input / output control unit 7.
In the rear situation display process, as shown in FIG. 4 a, a rear monitoring screen having a radar image display area 410 and a captured video display area 420 is displayed on the display device 8 via the input / output control unit 7.
Then, the map around the own vehicle position, the current position and the traveling direction of the own vehicle are acquired from the navigation device 6, and the map 411 around the own vehicle position and the position corresponding to the current position of the own vehicle on the map 411 are obtained. A rear radar monitoring image composed of an own vehicle graphic 412 representing the own vehicle arranged in the traveling direction and an other vehicle graphic 413 representing the other vehicle detected by the radar device 12 of the rear monitoring unit 2 on the map. Displayed in the radar image display area 410. Here, the other vehicle figure 413 is a positional relationship between the other vehicle and the own vehicle, in which the positional relationship between the other vehicle figure 413 and the own vehicle figure 412 is obtained from the relative position of the other vehicle detected by the radar device 12 of the rear monitoring unit 2. To match.

また、後方監視ユニット2のカメラ11の撮影範囲及び当該撮影範囲と一致するように設置した後方監視ユニット2のレーダ装置12の走査範囲である後方監視範囲を、後方レーダ監視画像より視認できるように、後方レーダ監視画像の、地図411上の後方監視範囲外に対応する領域は、その表示輝度を下げて表示する。また、さらに、死角算出部5が算出した他車要因死角範囲と建造物要因死角範囲を併せた範囲を死角範囲とし、後方レーダ監視画像の、地図411上の死角範囲に対応する領域414は網掛表示などによって、後方監視範囲内の他の領域と区別可能に表示する。   Further, the rear monitoring range which is the scanning range of the radar device 12 of the rear monitoring unit 2 installed so as to coincide with the shooting range of the camera 11 of the rear monitoring unit 2 can be visually recognized from the rear radar monitoring image. The area of the rear radar monitoring image corresponding to the area outside the rear monitoring range on the map 411 is displayed with its display brightness lowered. Further, a range including the other vehicle factor blind spot range calculated by the blind spot calculation unit 5 and the building factor blind spot range is set as a blind spot range, and a region 414 corresponding to the blind spot range on the map 411 in the rear radar monitoring image is shaded. It is displayed so that it can be distinguished from other areas in the rear monitoring range by display or the like.

また、撮影映像表示領域420には後方監視ユニット2のカメラ11で撮影した自車後方の映像を左右を反転し表示する。
次に、前方状況表示処理では、図4bに示すように、レーダ画像表示領域410と撮影映像表示領域420とを有する前方監視画面を、入出力制御部7を介して表示装置8に表示する。
そして、ナビゲーション装置6より自車位置周辺の地図と自車の現在位置及び進行方向とを取得し、自車位置周辺の地図411と、当該地図411上の自車の現在位置に対応する位置に進行方向を向けて配置した自車を表す自車図形412と、当該地図上で前方監視ユニット1のレーダ装置12が検出した他車を表す他車図形とより構成される前方レーダ監視画像をレーダ画像表示領域410に表示する。
In the captured image display area 420, the image of the rear of the vehicle taken by the camera 11 of the rear monitoring unit 2 is displayed with the left and right reversed.
Next, in the forward situation display process, as shown in FIG. 4B, a forward monitoring screen having a radar image display area 410 and a captured video display area 420 is displayed on the display device 8 via the input / output control unit 7.
Then, the map around the own vehicle position, the current position and the traveling direction of the own vehicle are acquired from the navigation device 6, and the map 411 around the own vehicle position and the position corresponding to the current position of the own vehicle on the map 411 are obtained. A radar image of the front radar composed of the own vehicle figure 412 representing the own vehicle arranged in the traveling direction and the other vehicle figure representing the other vehicle detected by the radar device 12 of the front monitoring unit 1 on the map is radar. The image is displayed in the image display area 410.

また、前方監視ユニット1のカメラ11の撮影範囲及び当該撮影範囲と一致するように設置した前方監視ユニット1のレーダ装置12の走査範囲である前方監視範囲を、前方レーダ監視画像より視認できるように、前方レーダ監視画像の、地図411上の前方監視範囲外に対応する領域は、その表示輝度を下げて表示する。また、さらに、死角算出部5が算出した他車要因死角範囲と建造物要因死角範囲を合わせた範囲を死角範囲とし、前方レーダ監視画像の、地図411上の死角範囲に対応する領域414は網掛表示などによって、前方監視範囲内の他の領域と区別可能に表示する。   Further, the imaging range of the camera 11 of the forward monitoring unit 1 and the forward monitoring range, which is the scanning range of the radar device 12 of the forward monitoring unit 1 installed so as to coincide with the imaging range, can be viewed from the forward radar monitoring image. The area corresponding to the front radar monitoring image outside the front monitoring range on the map 411 is displayed with its display brightness lowered. Further, a range obtained by combining the other vehicle factor blind spot range and the building factor blind spot range calculated by the blind spot calculating unit 5 is set as a blind spot range, and a region 414 corresponding to the blind spot range on the map 411 in the forward radar monitoring image is shaded. It is displayed so that it can be distinguished from other areas in the forward monitoring range by display or the like.

また、撮影映像表示領域420には前方監視ユニット1の赤外線のカメラ11で撮影した自車前方の映像を表示する。
以上、本発明の実施形態について説明した。
ところで、以上の前方状況表示処理や前方表示処理では、図5aに前方表示処理で表示する前方監視画面を例にとり示すように、撮影映像表示領域420に表示されるカメラ11で撮影した画像中の、前方監視ユニット1に対して死角範囲を隠している他車や建造物が存在しなかったならば、当該死角範囲内ある物体の映像が映り込むことになる部分及び当該部分周辺の領域421を求めると共に、撮影映像表示領域420に表示される画像の当該領域421を網掛表示することなどにより、カメラ11で撮影した画像中の当該領域421が死角範囲に対応する部分であることが視認できるように表示するようにしてもよい。
In the captured image display area 420, an image in front of the host vehicle captured by the infrared camera 11 of the front monitoring unit 1 is displayed.
The embodiment of the present invention has been described above.
By the way, in the above-described forward situation display process and forward display process, as shown in FIG. 5A as an example of the forward monitoring screen displayed in the forward display process, the image in the image captured by the camera 11 displayed in the captured video display area 420 is displayed. If there is no other vehicle or building that hides the blind spot range with respect to the front monitoring unit 1, the part where the image of the object in the blind spot range is reflected and the area 421 around the part are displayed. In addition, the area 421 in the image captured by the camera 11 can be visually recognized as a portion corresponding to the blind spot range by displaying the area 421 of the image displayed in the captured video display area 420 with shading. May be displayed.

また、以上の前方表示処理では、ナビゲーション装置6において、ユーザから設定された目的地までの間に設定した誘導経路による経路案内を行っている場合には、図5bに示すように、レーダ画像表示領域410に表示する地図上411上に、誘導経路を表す図形415と目的地を表す図形416を表示するようにしてもよい。また、この場合には、撮影映像表示領域420に表示されるカメラ11で撮影した画像中の、前方監視ユニット1に対して目的地を隠している他車や建造物が存在しなかったならば、当該目的地の映像が映り込むことになる位置に、目的地の存在を表す図形422を表示するようにしてもよい。   Further, in the above forward display processing, when the navigation device 6 performs route guidance using the guidance route set between the user and the destination set, as shown in FIG. A graphic 415 representing the guidance route and a graphic 416 representing the destination may be displayed on the map 411 displayed in the area 410. In this case, if there is no other vehicle or building that hides the destination from the front monitoring unit 1 in the image captured by the camera 11 displayed in the captured image display area 420. The figure 422 indicating the presence of the destination may be displayed at a position where the video of the destination is reflected.

また、以上の実施形態は、死角算出部5において、さらに以下のような警告処理を行うようにしてもよい。すなわち、この計測処理において、死角算出部5は、車両センサ3の検出するユーザの車線変更操作(たとえば、方向指示器の操作)などに基づいて、自車の車線変更の発生を予測し、予測した車線変更によって進行しようとする車線上後方に、死角範囲が存在する場合には、入出力制御部7を介して音声出力装置9から、車線変更の安全を確認できない旨の注意を促す音声メッセージを出力したり、自車近傍に他車要因死角範囲が広がっている場合に、他車との車間距離を広げるよう注意を促す音声メッセージを、入出力制御部7を介して音声出力装置9から出力する処理などを行う。   In the above embodiment, the blind spot calculation unit 5 may further perform the following warning process. That is, in this measurement process, the blind spot calculation unit 5 predicts the occurrence of the lane change of the own vehicle based on the user's lane change operation (for example, operation of the direction indicator) detected by the vehicle sensor 3, and the prediction If there is a blind spot range behind the lane that is going to travel due to a changed lane, the voice output device 9 via the input / output control unit 7 prompts the user that the lane change safety cannot be confirmed. Or a voice message urging attention to increase the distance between other vehicles when the other vehicle factor blind spot range is widened in the vicinity of the own vehicle from the voice output device 9 via the input / output control unit 7 Perform output processing.

以上のように本実施形態では、他車や建造物などの他の物体の陰となるために、レーダ装置12やカメラ11で状況を検出することができなくなっている範囲を死角範囲として算出し、当該死角範囲をユーザに示したり、当該死角範囲との関係に注意するよう促す音声メッセージを出力することにより、当該死角範囲についてのユーザの注意を喚起する。したがって、本実施形態によれば、周辺状況表示装置が、状況を提示できない範囲についてのユーザの注意を喚起することができる。   As described above, in the present embodiment, the range in which the situation cannot be detected by the radar apparatus 12 or the camera 11 because it is behind other objects such as other vehicles and buildings is calculated as a blind spot range. The user is alerted about the blind spot range by outputting a voice message prompting the user to indicate the blind spot range or paying attention to the relationship with the blind spot range. Therefore, according to the present embodiment, the surrounding situation display device can call the user's attention about the range in which the situation cannot be presented.

本発明の実施形態に係る周辺状況表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the periphery condition display apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る周辺状況表示装置の死角範囲の算出動作を示す図である。It is a figure which shows the calculation operation | movement of the blind spot range of the periphery condition display apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る周辺状況表示装置の死角範囲の算出動作を示す図である。It is a figure which shows the calculation operation | movement of the blind spot range of the periphery condition display apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る周辺状況表示装置の表示例を示す図である。It is a figure which shows the example of a display of the periphery condition display apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る周辺状況表示装置の表示例を示す図である。It is a figure which shows the example of a display of the periphery condition display apparatus which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1…前方監視ユニット、2…後方監視ユニット、3…車両センサ、4…周辺状況表示部、5…死角算出部、6…ナビゲーション装置、7…入出力制御部、8…表示装置、9…音声出力装置、10…操作部、11…カメラ、12…レーダ装置。   DESCRIPTION OF SYMBOLS 1 ... Front monitoring unit, 2 ... Back monitoring unit, 3 ... Vehicle sensor, 4 ... Peripheral condition display part, 5 ... Dead angle calculation part, 6 ... Navigation apparatus, 7 ... Input / output control part, 8 ... Display apparatus, 9 ... Audio | voice Output device, 10 ... operation unit, 11 ... camera, 12 ... radar device.

Claims (6)

自動車に搭載され、前記自動車周辺の状況をユーザに対して提示する車載周辺状況提示装置であって、
地図を表す地図データ記憶した地図データ記憶手段と、
自車の現在位置を算出する自車位置算出手段と、
表示装置と、
自車周辺を撮影するカメラと、
前記カメラに対して当該カメラの撮影範囲内に存在する物体の陰となるために、前記カメラによって撮影することができなくなっている範囲を検出不可範囲として算出する検出不可範囲算出手段と、
前記地図データ記憶手段が記憶した前記地図データが表す、前記自車位置算出手段が算出した自車の現在位置周辺の地図上に、当該自車の現在位置と、前記検出不可範囲算出手段が算出した検出不可範囲を表した画像である検出不可範囲提示画像を生成する検出不可範囲提示画像生成手段と、
前記カメラが撮影した映像と共に、前記検出不可範囲提示画像を、前記表示装置に表示する表示手段とを有することを特徴とする車載周辺状況提示装置。
An on-vehicle peripheral situation presentation device that is mounted on an automobile and presents the situation around the automobile to a user,
Map data storage means for storing map data representing a map;
Own vehicle position calculating means for calculating the current position of the own vehicle;
A display device;
A camera that captures the area around the vehicle,
An undetectable range calculating means for calculating, as an undetectable range, a range that cannot be captured by the camera because it is behind the object existing within the capturing range of the camera with respect to the camera;
On the map around the current position of the host vehicle calculated by the host vehicle position calculation unit represented by the map data stored in the map data storage unit, the current position of the host vehicle and the undetectable range calculation unit calculate A non-detectable range presentation image generating means for generating a non-detectable range presentation image that is an image representing the non-detectable range,
An in-vehicle peripheral situation presentation device comprising: a display unit configured to display the undetectable range presentation image on the display device together with a video photographed by the camera.
請求項1記載の車載周辺状況提示装置であって、
前記カメラは赤外線カメラであることを特徴とする車載周辺状況提示装置。
The on-vehicle peripheral situation presentation device according to claim 1,
The on-vehicle peripheral situation presentation device, wherein the camera is an infrared camera.
請求項1または2記載の車載周辺状況提示装置であって、
レーダを用いて自車周辺の物体の位置を計測するレーダ計測手段を有し、
前記検出不可範囲算出手段は、前記カメラが撮影した画像中の他車の大きさと、当該他車に相当する物体について前記レーダ計測手段が計測した位置までの距離とに基づいて、当該他車のサイズを算出し、当該他車に相当する物体について前記レーダ計測手段が計測した位置と、算出した当該他車のサイズとに基づいて、当該他車の陰となる範囲を前記検出不可範囲として算出することを特徴とする車載周辺状況提示装置。
The on-vehicle peripheral situation presentation device according to claim 1 or 2 ,
Having radar measuring means for measuring the position of an object around the vehicle using a radar;
The undetectable range calculating means is based on the size of the other vehicle in the image captured by the camera and the distance to the position measured by the radar measuring means for an object corresponding to the other vehicle. The size is calculated, and based on the position measured by the radar measurement unit for the object corresponding to the other vehicle and the calculated size of the other vehicle, the range behind the other vehicle is calculated as the undetectable range. An on-vehicle peripheral situation presentation device characterized by:
請求項1または2記載の車載周辺状況提示装置であって、
前記検出不可範囲算出手段は、前記自車位置算出手段が算出した自車の現在位置と、前記地図データ記憶手段に記憶された地図データが表す地図が示す自車周辺の建造物との位置関係に基づいて、前記カメラに対して前記建造物の陰となる範囲を、前記検出不可範囲として算出することを特徴とする車載周辺状況提示装置。
The on-vehicle peripheral situation presentation device according to claim 1 or 2 ,
The undetectable range calculating means is a positional relationship between the current position of the own vehicle calculated by the own vehicle position calculating means and a building around the own vehicle indicated by the map represented by the map data stored in the map data storage means. On the basis of the above, an in-vehicle peripheral situation presentation device that calculates a range that is behind the building with respect to the camera as the undetectable range.
請求項1、2、3または4記載の車載周辺状況提示装置であって、
前記表示装置に表示されたカメラが撮影した映像上に、前記検出不可範囲に対応する領域を表す図形を重畳表示する検出不可範囲提示手段とを有することを特徴とする車載周辺状況提示装置
The on-vehicle peripheral situation presentation device according to claim 1, 2, 3, or 4,
A vehicle-mounted peripheral condition presentation device comprising: a non-detectable range presenting unit that superimposes and displays a graphic representing a region corresponding to the non-detectable range on an image captured by a camera displayed on the display device.
地図を表す地図データ記憶した地図データ記憶手段と、自車の現在位置を算出する自車位置算出手段と、表示装置と、自車周辺を撮影するカメラとを備えた、自動車に搭載される車載装置において、前記自動車周辺の状況をユーザに対して提示する方法であって、A vehicle equipped with a map data storage means storing map data representing a map, a vehicle position calculation means for calculating the current position of the vehicle, a display device, and a camera for photographing the periphery of the vehicle. In the apparatus, a method of presenting a situation around the automobile to a user,
前記カメラに対して当該カメラの撮影範囲内に存在する物体の陰となるために、前記カメラによって撮影することができなくなっている範囲を検出不可範囲として算出するステップと、Calculating a range incapable of being photographed by the camera as an undetectable range in order to be behind the object existing in the photographing range of the camera with respect to the camera;
前記地図データ記憶手段が記憶した前記地図データが表す、前記自車位置算出手段が算出した自車の現在位置周辺の地図上に、当該自車の現在位置と、前記算出した検出不可範囲を表した画像である検出不可範囲提示画像を生成するステップと、The current position of the host vehicle and the calculated non-detectable range are displayed on a map around the current position of the host vehicle calculated by the host vehicle position calculating unit represented by the map data stored in the map data storage unit. Generating an undetectable range presentation image that is an image,
前記カメラが撮影した映像と共に、前記検出不可範囲提示画像を、前記表示装置に表示するステップとを有することを特徴とする車載装置における周辺状況提示方法。And displaying the undetectable range presentation image on the display device together with the video taken by the camera.
JP2006055582A 2006-03-01 2006-03-01 In-vehicle peripheral status presentation device Active JP4719590B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006055582A JP4719590B2 (en) 2006-03-01 2006-03-01 In-vehicle peripheral status presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006055582A JP4719590B2 (en) 2006-03-01 2006-03-01 In-vehicle peripheral status presentation device

Publications (2)

Publication Number Publication Date
JP2007233770A JP2007233770A (en) 2007-09-13
JP4719590B2 true JP4719590B2 (en) 2011-07-06

Family

ID=38554298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006055582A Active JP4719590B2 (en) 2006-03-01 2006-03-01 In-vehicle peripheral status presentation device

Country Status (1)

Country Link
JP (1) JP4719590B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108638967A (en) * 2018-06-15 2018-10-12 轩辕智驾科技(深圳)有限公司 A kind of Car warning system and method for early warning based on millimetre-wave radar

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4527204B2 (en) 2008-09-26 2010-08-18 パナソニック株式会社 Blind spot vehicle detection apparatus and method
JP5601930B2 (en) * 2010-08-09 2014-10-08 本田技研工業株式会社 Vehicle display device
JP2013134591A (en) * 2011-12-26 2013-07-08 Denso Corp Driving support device
JP6252316B2 (en) * 2014-03-31 2017-12-27 株式会社デンソー Display control device for vehicle
JP7100421B2 (en) * 2016-03-31 2022-07-13 株式会社Subaru Display device
WO2018163266A1 (en) * 2017-03-07 2018-09-13 三菱電機株式会社 Display control device and display control method
JP2019032682A (en) * 2017-08-08 2019-02-28 ヤンマー株式会社 Automatic travel system
JP6911786B2 (en) * 2018-02-08 2021-07-28 株式会社デンソー Presentation control device and presentation control program
JP2019200461A (en) * 2018-05-14 2019-11-21 株式会社デンソー Driving support device
JP7352393B2 (en) * 2019-06-21 2023-09-28 パナソニックホールディングス株式会社 Monitoring system and monitoring method
JP7420008B2 (en) 2020-08-20 2024-01-23 株式会社デンソー display control device
JPWO2022162909A1 (en) * 2021-01-29 2022-08-04
JP2023102854A (en) * 2022-01-13 2023-07-26 住友電気工業株式会社 Radio-wave sensor installation assistance device, computer program, and radio-wave sensor installation position determination method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935177A (en) * 1995-07-18 1997-02-07 Hitachi Ltd Method and device for supporting driving
JPH10253380A (en) * 1997-03-14 1998-09-25 Hitachi Ltd 3d map display device
JP2004013466A (en) * 2002-06-06 2004-01-15 Nissan Motor Co Ltd Vehicle surroundings monitoring system
JP2004046426A (en) * 2002-07-10 2004-02-12 Honda Motor Co Ltd Warning system for vehicle
JP2005165555A (en) * 2003-12-01 2005-06-23 Nissan Motor Co Ltd Dangerous location display system
JP2005165607A (en) * 2003-12-02 2005-06-23 Nissan Motor Co Ltd Device and method for supporting driving
JP2005268847A (en) * 2004-03-16 2005-09-29 Olympus Corp Image generating apparatus, image generating method, and image generating program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935177A (en) * 1995-07-18 1997-02-07 Hitachi Ltd Method and device for supporting driving
JPH10253380A (en) * 1997-03-14 1998-09-25 Hitachi Ltd 3d map display device
JP2004013466A (en) * 2002-06-06 2004-01-15 Nissan Motor Co Ltd Vehicle surroundings monitoring system
JP2004046426A (en) * 2002-07-10 2004-02-12 Honda Motor Co Ltd Warning system for vehicle
JP2005165555A (en) * 2003-12-01 2005-06-23 Nissan Motor Co Ltd Dangerous location display system
JP2005165607A (en) * 2003-12-02 2005-06-23 Nissan Motor Co Ltd Device and method for supporting driving
JP2005268847A (en) * 2004-03-16 2005-09-29 Olympus Corp Image generating apparatus, image generating method, and image generating program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108638967A (en) * 2018-06-15 2018-10-12 轩辕智驾科技(深圳)有限公司 A kind of Car warning system and method for early warning based on millimetre-wave radar
CN108638967B (en) * 2018-06-15 2021-12-17 轩辕智驾科技(深圳)有限公司 Early warning method of automobile early warning system based on millimeter wave radar

Also Published As

Publication number Publication date
JP2007233770A (en) 2007-09-13

Similar Documents

Publication Publication Date Title
JP4719590B2 (en) In-vehicle peripheral status presentation device
US10878256B2 (en) Travel assistance device and computer program
US11535155B2 (en) Superimposed-image display device and computer program
US10163016B2 (en) Parking space detection method and device
JP5070809B2 (en) Driving support device, driving support method, and program
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
US20110128138A1 (en) On-vehicle device and recognition support system
US20110128136A1 (en) On-vehicle device and recognition support system
JP4946682B2 (en) Vehicle travel support device
US11198398B2 (en) Display control device for vehicle, display control method for vehicle, and storage medium
US10632912B2 (en) Alarm device
JP2005202678A (en) Traveling support device
JP5426900B2 (en) In-vehicle system
JP2010026759A (en) Driving support device for vehicle
JP2007102691A (en) View-field support apparatus for vehicle
JP4936060B2 (en) Vehicle travel support device
JP4948338B2 (en) Inter-vehicle distance measuring device
JP2008097279A (en) Vehicle exterior information display device
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
JP2008250453A (en) Drive support device and method
JP2016197312A (en) Drive support display device
JP2017126213A (en) Intersection state check system, imaging device, on-vehicle device, intersection state check program and intersection state check method
JP2006119904A (en) Circumference monitoring device for vehicle
CN117445810A (en) Vehicle auxiliary driving method, device, medium and vehicle
JP2005173880A (en) Approaching object notifying apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110329

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110404

R150 Certificate of patent or registration of utility model

Ref document number: 4719590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3