JP2009231938A - Surrounding monitoring device for vehicle - Google Patents
Surrounding monitoring device for vehicle Download PDFInfo
- Publication number
- JP2009231938A JP2009231938A JP2008071872A JP2008071872A JP2009231938A JP 2009231938 A JP2009231938 A JP 2009231938A JP 2008071872 A JP2008071872 A JP 2008071872A JP 2008071872 A JP2008071872 A JP 2008071872A JP 2009231938 A JP2009231938 A JP 2009231938A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- moving body
- image
- moving
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両用周囲監視装置に係り、特に、ドライバーの死角領域を監視する車両用周囲監視装置に関する。 The present invention relates to a vehicle surrounding monitoring device, and more particularly to a vehicle surrounding monitoring device that monitors a blind spot area of a driver.
従来、車両前方側における左右方向の死角映像を撮像してモニタ表示する装置が知られている(特許文献1、特許文献2)。 2. Description of the Related Art Conventionally, devices that capture and display a blind spot image in the left-right direction on the front side of a vehicle are known (Patent Documents 1 and 2).
上述したような装置は、例えばモニタ上に左右方向の死角領域がそのまま表示されるだけのものである。そのような表示をドライバーが見て死角領域の状況を判断するのであるが、例えば左右方向から接近してくる車両などの移動体がある場合などに、静止物との区別が付きにくい上、どの程度の距離でどの程度の速さで存在する車両であるのかが分かりにくいものであった。 The apparatus as described above merely displays a blind spot area in the left-right direction as it is on a monitor, for example. The driver looks at such a display to determine the status of the blind spot area.For example, when there is a moving body such as a vehicle approaching from the left and right, it is difficult to distinguish it from a stationary object. It was difficult to understand how fast the vehicle was at a certain distance.
本発明は、上述した従来技術の問題点を解決するためになされたものであり、死角領域の画像内の移動体の移動状況を把握し易い車両用周囲監視装置を提供することを目的とする。 The present invention has been made to solve the above-described problems of the prior art, and it is an object of the present invention to provide a vehicle surrounding monitoring device that makes it easy to grasp the moving state of a moving object in an image of a blind spot area. .
上記の目的を達成するために本発明によれば、ドライバーから見て前方で左右に広がる領域内の死角領域を監視する車両用周囲監視装置であって、死角領域の実画像を撮像するように車両の前方部に設けられた実画像撮像手段と、この実画像撮像手段により撮像された実画像内から移動体を抽出し、この移動体の移動状態を検出する移動体検出手段と、この移動体検出手段で検出された移動体の移動状態を表すような所定の仮想画像を表示するためにその所定の仮想画像の表示態様を規定する仮想画像規定手段と、移動体の仮想画像を仮想画像規定手段により規定される表示態様で実画像に重畳して表示する表示手段と、を有することを特徴としている。 In order to achieve the above object, according to the present invention, there is provided a vehicle surrounding monitoring device for monitoring a blind spot area in an area that spreads left and right in front of a driver so as to capture a real image of the blind spot area. Real image capturing means provided in the front part of the vehicle, moving body detecting means for extracting a moving body from the real image captured by the real image capturing means, and detecting the moving state of the moving body, and the movement Virtual image defining means for defining a display mode of the predetermined virtual image in order to display a predetermined virtual image representing the moving state of the moving object detected by the body detecting means, and the virtual image of the moving object as a virtual image Display means for superimposing and displaying the actual image in a display mode defined by the defining means.
このように構成された本発明においては、移動体の仮想画像が、その移動状態を表すような表示態様で実画像に重畳して表示されるので、ドライバーが移動体の移動状態を認識し易くなり、静止物との区別が容易であると共に死角領域の画像内の移動体の移動状況を把握し易い。 In the present invention configured as described above, the virtual image of the moving object is displayed so as to be superimposed on the real image in a display mode that represents the moving state, so that the driver can easily recognize the moving state of the moving object. Therefore, it is easy to distinguish the moving object from the stationary object and to easily grasp the moving state of the moving body in the image of the blind spot area.
また、本発明において、好ましくは、ドライバーの死角領域は車両の前方側の交差路の交差点の周辺の死角領域であり、実画像撮像手段は、車両の前方端に設けられ、車両が交差路に差し掛かるとき、その車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像する。
このように構成された本発明においては、衝突事故が多発する交差点周囲の左右領域の移動状況を容易に把握することが出来る。
In the present invention, preferably, the blind spot area of the driver is a blind spot area around the intersection of the intersection on the front side of the vehicle, and the real image capturing means is provided at the front end of the vehicle, and the vehicle is in the intersection. When approaching, a real image around the intersection of the intersection that can be imaged from the front end of the vehicle is captured.
In the present invention configured as described above, it is possible to easily grasp the movement state of the left and right regions around the intersection where collision accidents frequently occur.
また、本発明において、好ましくは、仮想画像規定手段は、移動体の移動状態として、その移動体の進行方向延長線上の所定時間後の推定到達位置に移動体の仮想画像が表示されるように移動体の仮想画像を表示する表示態様を規定する。
このように構成された本発明においては、仮想画像規定手段により移動体の進行方向延長線上の所定時間後の推定到達位置に移動体の仮想画像が規定され、これが、表示手段により実画像に重畳して表示されるので、所定時間後の移動体の位置を直感的に把握することが出来、ドライバーにとって、例えば自車両を発進させて良いかの判断をより容易にすることが出来る。
In the present invention, it is preferable that the virtual image defining means displays the moving object's virtual image at the estimated arrival position after a predetermined time on the extension line of the moving object as the moving state of the moving object. A display mode for displaying a virtual image of a moving object is defined.
In the present invention configured as described above, the virtual image of the moving object is defined by the virtual image defining means on the estimated arrival position after a predetermined time on the extension line of the moving object, and this is superimposed on the actual image by the display means. Therefore, the position of the moving body after a predetermined time can be grasped intuitively, and the driver can more easily determine, for example, whether or not the host vehicle can be started.
また、本発明において、好ましくは、さらに、所定時間に基づいてその表示された移動体の現在の位置からの到達予測時間の数値表示を移動体の仮想画像に合わせて表示する第2表示手段を有する。
このように構成された本発明においては、所定時間後の移動体の位置を数値による時間表示により、より直感的に把握することが出来る。
In the present invention, it is preferable that the second display means further displays a numerical display of a predicted arrival time from the current position of the displayed moving body based on a predetermined time in accordance with the virtual image of the moving body. Have.
In the present invention configured as described above, the position of the moving body after a predetermined time can be grasped more intuitively by the time display using numerical values.
また、本発明において、好ましくは、仮想画像規定手段は、移動体の移動状態として、その移動体が移動してきた過去の位置に移動体の仮想画像が等時間間隔で残像として表示されるように移動体の仮想画像を表示する表示態様を規定する。
このように構成された本発明においては、仮想画像規定手段により、移動体が移動してきた過去の位置に移動体の仮想画像が等時間間隔で残像として表示されるように移動体の仮想画像を表示する表示態様が規定され、これが、表示手段により実画像に重畳して表示されるので、移動体の現在までの移動状況を直感的に把握することが出来、ドライバーにとって、例えば自車両を発進させて良いかの判断をより容易にすることが出来る。
In the present invention, it is preferable that the virtual image defining means displays the moving image of the moving object as an afterimage at regular intervals at a past position where the moving object has moved. A display mode for displaying a virtual image of a moving object is defined.
In the present invention configured as described above, the virtual image of the moving body is displayed by the virtual image defining means so that the virtual image of the moving body is displayed as an afterimage at equal time intervals at the past position where the moving body has moved. The display mode to be displayed is defined, and this is displayed superimposed on the actual image by the display means, so that it is possible to intuitively grasp the moving state of the moving body up to the present, and for the driver, for example, start the own vehicle It is possible to make it easier to determine whether or not to allow it.
また、本発明において、好ましくは、さらに、等時間間隔の残像に合わせてベクトル表示を行う。
このように構成された本発明においては、等時間間隔の残像に合わせたベクトル表示により、移動体の現在までの移動状況を、より直感的に把握することが出来る。
In the present invention, it is preferable that vector display is further performed in accordance with afterimages at equal time intervals.
In the present invention configured as described above, it is possible to more intuitively understand the moving state of the moving body up to the present by the vector display in accordance with the afterimages at equal time intervals.
また、本発明において、好ましくは、表示手段は、移動体の仮想画像を、移動体の自車両からの距離が所定距離以上の遠距離にある場合に、所定距離より小さい場合よりも拡大して表示する。
このように構成された本発明においては、遠距離にある移動体の移動状態を容易に把握することが出来る。
In the present invention, it is preferable that the display unit enlarges the virtual image of the moving object when the distance from the own vehicle of the moving object is a predetermined distance or more than when the distance is smaller than the predetermined distance. indicate.
In the present invention configured as described above, it is possible to easily grasp the moving state of the moving body at a long distance.
また、本発明において、好ましくは、表示手段は、移動体の仮想画像の表示を、移動体の自車両からの距離が所定距離範囲内であるか、或いは、移動体の自車両への到達時間が所定時間範囲内にあるときに行う。
このように構成された本発明においては、例えば自車両を発進させるか停止したままにするかの判断を迷うような所定距離内に移動体が存在する場合に、ドライバーにより確実に移動体の移動状態を把握させることが出来る。
In the present invention, it is preferable that the display means displays the virtual image of the moving object when the distance of the moving object from the own vehicle is within a predetermined distance range or the arrival time of the moving object at the own vehicle. Is performed within a predetermined time range.
In the present invention configured as described above, for example, when there is a moving body within a predetermined distance that makes it difficult to determine whether to start or stop the host vehicle, the driver surely moves the moving body. The state can be grasped.
また、本発明において、好ましくは、表示手段は、移動体の仮想画像を上記移動体の実体および実状と識別可能に表示する。
このように構成された本発明においては、ドライバーにとって移動体としての視認が容易である。
In the present invention, it is preferable that the display unit displays the virtual image of the moving body so as to be distinguishable from the substance and the actual state of the moving body.
In the present invention configured as described above, it is easy for the driver to visually recognize the moving object.
また、本発明において、好ましくは、移動体検出手段により複数の移動体が検出されたとき、仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像の表示態様を規定し、表示手段は、その規定された仮想画像を実画像に重畳して表示する。
このように構成された本発明においては、複数の移動体が存在するとき、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that when a plurality of moving bodies are detected by the moving body detecting means, the virtual image defining means is the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle. The display mode of the virtual image is defined, and the display means displays the defined virtual image superimposed on the actual image.
In the present invention configured as described above, when there are a plurality of moving objects, a virtual image of the moving object having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle is generated. It is possible to reliably grasp the moving state of a moving body that may collide with the host vehicle.
また、本発明において、好ましくは、移動体検出手段により複数の移動体が検出され、表示手段が複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像の表示態様を規定し、表示手段は、その規定された仮想画像を実画像に重畳して表示する。
このように構成された本発明においては、複数の移動体が存在し、それらの移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、それらの移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、ドライバーが画像を見て複数の移動体の仮想画像をそれぞれ混同することなく、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that a plurality of moving bodies are detected by the moving body detecting means, and when the display means displays all the virtual images of the plurality of moving bodies, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. The virtual image defining means defines the display mode of the virtual image of the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle, and the display means defines the defined virtual image. Is superimposed on the actual image and displayed.
In the present invention configured as described above, when there are a plurality of moving bodies and all the virtual images of the moving bodies are displayed, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. Instead of generating all the virtual images of the moving object, a virtual image of the moving object having the shortest distance to the host vehicle or the shortest arrival time to the host vehicle is generated. Without being confused with the virtual images of the moving bodies, it is possible to grasp the moving state of the moving body that may collide with the host vehicle more reliably.
また、本発明において、好ましくは、仮想画像規定手段は、移動体の移動状態を表すために、移動体の進行方向前方側の路面上に移動体の移動状態を示す仮想路面画像を表示するようにその表示態様を規定する。
このように構成された本発明においては、移動体が進行している路面に、移動体の移動状態を示すように仮想路面画像が仮想表示されるので、より確実に、移動体の存在する方向や移動状態を把握することが出来る。
In the present invention, it is preferable that the virtual image defining means displays a virtual road surface image indicating the moving state of the moving body on the road surface in front of the moving body in order to represent the moving state of the moving body. Stipulates the display mode.
In the present invention configured as described above, the virtual road surface image is virtually displayed on the road surface on which the moving body is traveling so as to indicate the moving state of the moving body. And the movement state can be grasped.
また、本発明において、好ましくは、仮想画像規定手段は、自車両及び移動体が向かう交差路の交差点までの自車両の到達時間及び移動体の到達時間に応じて、或いは、自車両及び移動体が向かう交差路の交差点での自車両の通過時間及び移動体の到達時間に応じて移動体の進行方向前方側の路面上に所定の仮想路面画像を表示するようにその表示態様を規定する。
このように構成された本発明においては、自車両及び移動体が向かう交差路の交差点までの自車両の到達時間及び移動体の到達時間に応じて移動体の進行方向前方側の路面上に所定の仮想路面表示が重畳して表示されるので、より確実且つ正確に、移動体の存在する方向や移動状態を把握することが出来る。
In the present invention, it is preferable that the virtual image defining means corresponds to the arrival time of the own vehicle and the arrival time of the moving body up to the intersection of the intersection where the own vehicle and the moving body are directed, or the own vehicle and the moving body. The display mode is defined so that a predetermined virtual road surface image is displayed on the road surface ahead of the moving body in the traveling direction according to the passing time of the host vehicle and the arrival time of the moving body at the intersection of the crossing road.
In the present invention configured as described above, predetermined on the road surface on the front side in the traveling direction of the moving body according to the arrival time of the own vehicle to the intersection of the intersection where the own vehicle and the moving body go and the arrival time of the moving body Since the virtual road surface display is superimposed and displayed, the direction and moving state in which the moving body exists can be grasped more reliably and accurately.
また、本発明において、好ましくは、仮想画像規定手段は、仮想路面表示を、交差点までの自車両の到達時間及び移動体の到達時間の算出の確信度に応じて仮想路面画像を変更するようにその表示態様を規定する。
このように構成された本発明においては、交差点までの自車両の到達時間及び移動体の到達時間の算出の確信度に応じて仮想路面表示が変更して表示されるので、より確実且つ正確に、移動体の存在する方向や移動状態を把握することが出来る。なお、確信度としては、例えば、自律センサ情報、車車間通信情報、路車間通信情報、情報センター配信情報の順で確信度が高い等と決定することが出来る。
In the present invention, it is preferable that the virtual image defining unit changes the virtual road surface display according to the certainty of the calculation of the arrival time of the host vehicle and the arrival time of the moving body. The display mode is defined.
In the present invention configured as described above, the virtual road surface display is changed and displayed in accordance with the certainty of calculation of the arrival time of the own vehicle to the intersection and the arrival time of the moving object, and thus more reliably and accurately. It is possible to grasp the direction and moving state of the moving body. As the certainty factor, for example, it can be determined that the certainty factor is high in the order of autonomous sensor information, inter-vehicle communication information, road-to-vehicle communication information, and information center distribution information.
また、本発明において、好ましくは、移動体検出手段により複数の移動体が検出されたとき、仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体に対して仮想路面画像の表示態様を規定し、表示手段は、その規定された仮想路面画像のみを仮想画像として実画像に重畳して表示する。
このように構成された本発明においては、複数の移動体が存在するとき、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that when a plurality of moving bodies are detected by the moving body detecting means, the virtual image defining means is the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle. The display mode of the virtual road surface image is defined for the image, and the display means displays only the defined virtual road surface image as a virtual image superimposed on the real image.
In the present invention configured as described above, when there are a plurality of moving objects, a virtual image of the moving object having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle is generated. It is possible to reliably grasp the moving state of a moving body that may collide with the host vehicle.
また、本発明において、好ましくは、移動体検出手段により複数の移動体が検出され、表示手段が複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体に対して仮想路面画像の表示態様を規定し、表示手段は、その規定された仮想路面画像のみを仮想画像として実画像に重畳して表示する。
このように構成された本発明においては、複数の移動体が存在し、それらの移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、それらの移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、複数の仮想が表示されることによりドライバーがそれらの仮想画像を混同することを防止することが出来、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that a plurality of moving bodies are detected by the moving body detecting means, and when the display means displays all the virtual images of the plurality of moving bodies, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. The virtual image defining means defines the display mode of the virtual road surface image for the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle, and the display means Only the virtual road surface image is superimposed and displayed on the real image as a virtual image.
In the present invention configured as described above, when there are a plurality of moving bodies and all the virtual images of the moving bodies are displayed, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. Instead of generating all the virtual images of the moving object, a virtual image of the moving object having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle is generated, so a plurality of virtual images are displayed. Thus, the driver can be prevented from confusing those virtual images, and the moving state of the moving body that may collide with the host vehicle can be grasped more reliably.
また、本発明において、好ましくは、表示手段は、仮想画像を移動体の実画像と識別可能に表示する。
このように構成された本発明においては、ドライバーは仮想画像を仮想の画像として認識することが出来、実画像と仮想画像とを混同することがない。
In the present invention, it is preferable that the display unit displays the virtual image so as to be distinguishable from the real image of the moving object.
In the present invention configured as described above, the driver can recognize the virtual image as a virtual image, and the real image and the virtual image are not confused.
また、本発明において、好ましくは、表示手段は、移動体の現時点での背景及び現時点での移動体の実画像に重畳して移動体の仮想画像又は仮想路面画像を表示する。
このように構成された本発明においては、ドライバーとしては実画像としては最新の現時点での映像を見ることが出来、それに対して仮想画像が表示されるので、より確実に周囲の状況と共に移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that the display unit displays a virtual image or a virtual road surface image of the moving body superimposed on the current background of the moving body and the actual image of the moving body.
In the present invention configured as described above, the driver can see the latest video at the present time as a real image, and a virtual image is displayed on the real image. The movement state of can be grasped.
本発明の車両用周囲監視装置によれば、死角領域の画像内の移動体の移動状況を把握し易い。 According to the vehicle surrounding monitoring apparatus of the present invention, it is easy to grasp the moving state of the moving body in the image of the blind spot area.
以下、添付図面を参照しながら本発明の好ましい実施の形態について説明する。
先ず、図1及び図2により、本発明の第1乃至第3実施形態に共通の各実施形態による車両用周囲監視装置の基本構成を説明する。図1は、本発明の第1乃至第3実施形態による車両用周囲監視装置が適用された車両の全体構成図であり、図2は、本発明の第1乃至第3実施形態による車両用周囲監視装置のカメラによる撮像範囲の一例(a)及び撮像された映像の一例(b)を示す図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
First, with reference to FIGS. 1 and 2, a basic configuration of a vehicle surrounding monitoring apparatus according to each embodiment common to the first to third embodiments of the present invention will be described. FIG. 1 is an overall configuration diagram of a vehicle to which a vehicle surrounding monitoring apparatus according to first to third embodiments of the present invention is applied, and FIG. 2 is a vehicle surrounding according to first to third embodiments of the present invention. It is a figure which shows an example (a) of the imaging range by the camera of a monitoring apparatus, and an example (b) of the imaged image.
図1に示すように、車両1は、左方監視カメラ2、前方監視カメラ4及び右方監視カメラ6を有し、これらのカメラは、車両の前端部に取り付けられている。これらのカメラは、広角レンズ使用のCCDカメラであり、例えば、図2(a)に示すような範囲を撮像し、図2(b)に示すような画像を得ることが出来る。
As shown in FIG. 1, the vehicle 1 has a
また、車両1は、車速センサ10、GPS装置12、ナビゲーション装置13、画像表示モニタ14及びスピーカ15を有している。モニタ14は、運転席16のドライバーが見ることが出来る位置に配置されている。さらに、車両1は、ECU18を有し、このECU18には、上述した各カメラ2、4、6、車速センサ10、GPS装置12からの信号が入力され、所定の画像をモニタ14に表示し、また、所定の音をスピーカ15で発する。
The vehicle 1 also has a
さらに、車両1は、他車両との距離を検出するためのレーザレーダ7を有する。なお、レーザレーダ7の代わりに、車車間通信により他車両との距離を把握するようにしたり、路車間通信により他車両との距離を把握するようにしても良い。
Furthermore, the vehicle 1 has a
次に、図3により、ドライバーによる交差路進入時における運転行動を説明する。図3は、ドライバーによる交差路進入時における運転行動を説明するための図である。
まず、交差路手前では一時停止する。その後、徐行しながら鼻出し位置に進み、カメラ出し位置(図2(a)参照)に進み、そして、頭出し位置(図4参照)に進む。ここで、鼻出し位置、カメラ出し位置及び頭出し位置について説明する。図4は、自車両の頭出し位置を説明するための道路及び車両の俯瞰図である。
Next, with reference to FIG. 3, driving behavior when a driver enters an intersection will be described. FIG. 3 is a diagram for explaining driving behavior when a driver enters an intersection.
First, stop before the intersection. After that, the vehicle proceeds slowly to the nasal position, proceeds to the camera position (see FIG. 2A), and proceeds to the cue position (see FIG. 4). Here, the nasal position, the camera position and the cue position will be described. FIG. 4 is an overhead view of the road and the vehicle for explaining the cueing position of the own vehicle.
先ず、鼻出し位置は、他車や歩行者に自車両の存在を知らせる位置である。カメラ出し位置は、図2(a)に示すように、車両の先端が交差路内に入った状態であり、ドライバーからは交差路を見通せないが、車両の前端部に取り付けられたカメラ2、4、6により、交差路内を見通せる位置である。頭出し位置は、図4に示すように、ドライバーが座る運転席が交差路内に入ったときの位置であり、ドライバーが直接に、自分の目で交差路内を見通せるようになった位置である。
First, the nose out position is a position that informs other vehicles and pedestrians of the presence of the host vehicle. As shown in FIG. 2 (a), the camera exit position is a state in which the front end of the vehicle enters the intersection, and the driver cannot see the intersection, but the
本発明の実施形態による車両用周囲監視装置では、これらの一時停止から頭出し位置までの間に後述する仮想画像を表示するようにしている。そして、頭出し位置になると、仮想画像を点滅させ、そして、頭出し位置を通過後には、仮想画像の表示を中止する。 In the vehicle surrounding monitoring apparatus according to the embodiment of the present invention, a virtual image to be described later is displayed between the temporary stop and the cueing position. When the cueing position is reached, the virtual image blinks, and after passing through the cueing position, the display of the virtual image is stopped.
次に、図5により、本発明第1乃至第3実施形態に共通の各実施形態による車両用周囲監視装置の仮想画像表示処理を行うか否かを決定するための制御フローを説明する。図5は、本発明の第1乃至第3実施形態による車両用周囲監視装置の距離把握用仮想画像を表示するか否かの処理を示すフローチャートである。
図5に示すように、S1において、仮想画像処理実施判定部52(図6、図9、図13参照)が、GPS12からの信号及びナビゲーション装置13からの信号に基づいて、自車両が交差点近傍にいるか否かを判定する。次に、S2において、仮想画像処理実施判定部52(図6、図9、図13参照)が、車速センサ10からの信号に基づいて、車速がV1より小さいか否かを判定する。車速V1は、自車両が交差点等に近づいて減速し、ドライバーがモニタ14を見ても安全であると判断出来る値である。
Next, referring to FIG. 5, a control flow for determining whether or not to perform the virtual image display processing of the vehicle surrounding monitoring apparatus according to each embodiment common to the first to third embodiments of the present invention will be described. FIG. 5 is a flowchart showing a process for determining whether or not to display a distance grasping virtual image of the vehicle surrounding monitoring apparatus according to the first to third embodiments of the present invention.
As shown in FIG. 5, in S <b> 1, the virtual image processing execution determination unit 52 (see FIGS. 6, 9, and 13) determines that the subject vehicle is near the intersection based on the signal from the
車速がV1より小さく車両が減速した状態であれば、S3に進み、S3において、画像補正部24からの画像信号に基づいて、まず、実画像を表示する。次に、S4に進み、仮想画像処理実施判定部52(図6、図9、図13参照)が、車速がV2より小さいか否かを判定する。車速V2は、自車両がほぼ停止状態に近い或いは停止したと判断出来る値である。車速がV2より小さい場合は、自車両が一時停止したものとして、S5の、距離把握用仮想画像表示処理に進む。上述したS1において交差点近傍ではなく、S2において車速がV1以上であり、S4において車速がV2以上である、とそれぞれ判定された場合には、S5の距離把握用仮想画像表示処理には進まない。
If the vehicle speed is less than V1 and the vehicle is decelerated, the process proceeds to S3, where an actual image is first displayed based on the image signal from the
次に、図6により、本発明の第1実施形態による車両用周囲監視装置の構成を説明する。図6は、本発明の第1実施形態による車両用周囲監視装置の構成を示すブロック図である。 Next, the configuration of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention will be described with reference to FIG. FIG. 6 is a block diagram showing the configuration of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention.
この第1実施形態では、実際に存在する移動体(交差点に向かってくる他車両など)の実映像に重畳して、その移動体が所定時間後にどのような位置にいるかを仮想車両を表示することにより、ドライバーが移動体の移動状態を認識するようにしたものである。これにより、例えばドライバーが自車両を発進させて良いか否かの判断を助けることが出来る。 In the first embodiment, a virtual vehicle is displayed on a real image of a moving body that actually exists (such as another vehicle that is approaching an intersection) and the position of the moving body after a predetermined time. Thus, the driver recognizes the moving state of the moving body. Thereby, for example, it is possible to help the driver determine whether or not to start the host vehicle.
図6に示すように、周辺監視センサ20として構成される各カメラ2、4、6からの画像信号が、ECU18内の画像取得部22に入力される。入力された画像信号は広角画像であり歪みが生じているので、その画像が画像補正部24で補正される。この画像補正部24からの画像信号は、合成画像作成部26に実画像として入力される。
As shown in FIG. 6, image signals from the
移動体検出部30では、画像補正部24からの入力画像内に移動体、例えば、他車両やオートバイや自転車などが存在するか否かを検出する。移動体が存在しない場合には、合成画像作成部26で後述する仮想画像を表示しないので、それを指示する信号を合成画像作成部26に送り、移動体が存在する場合には合成画像作成部26で後述する仮想画像を表示するので、移動体が存在することを指示する信号を合成画像作成部26に送る。合成画像作成部26で作成される合成画像は、モニタ14で表示される。
The moving
また、移動体移動状態検出部32では、移動体検出部30から、移動体が存在する旨の信号を受けて、レーザレーダ7により、自車両に接近してくる移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出する。なお、レーザレーダ7の代わりに、車車間通信或いは路車間通信により、移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出するようにしても良い。
Further, the moving body moving
また、移動体の所定時間後の移動位置推定部34では、所定時間(本実施形態では、10秒毎)の後の移動体の位置を推定する。
そして、仮想画像作成部38では、移動体の所定時間後の移動位置推定部34で推定された位置に移動体が表示されるように仮想画像が作成される。作成された仮想画像は、合成画像作成部26で各カメラ2、4、6で得られる実画像に重畳され、モニタ14に表示する。
The moving
The virtual
次に、ECU18内には、頭出し位置判定部50が存在する。頭出し位置判定部50では、車両が交差路内に頭出しした(図4参照)ことを判定するものである。頭出しが行われていれば、既にドライバー自身で交差路を見通せることから、仮想画像作成部38における仮想画像の作成を中止するように所定の信号を送り、モニタ14に仮想表示がされないようにする。
Next, a cue
また、ECU18には、仮想画像処理実施判定部52が存在する。この仮想画像処理実施判定部52は、ナビゲーション装置13から得る地図データ、GPS装置12から得られる位置データ、及び、車速センサ10から得られる車速データを基に、車両が交差点近傍に位置しているか否か及び一時停止しているか否かを判定するものである。後述するように、交差点近傍であり一時停止したときには、仮想画像を表示するために、合成画像作成部26に所定の信号を送る。
Further, the
次に、図7及び図8により、本発明の第1実施形態による車両用周囲監視装置の制御内容を説明する。図7は、本発明の第1実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートであり、図8は、本発明の第1実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)を示す図である。図7において、Sは各ステップを示す。 Next, with reference to FIGS. 7 and 8, the control contents of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention will be described. FIG. 7 is a flowchart showing display processing of a distance grasping virtual image of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention, and FIG. 8 is a diagram of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention. It is a figure which shows an example (b) of the imaging | photography range by a camera, an example (a) of a moving body, and the image | video by which the virtual image was superimposed on the real image. In FIG. 7, S indicates each step.
図7に示すように、先ず、S11において、画像取得部22(図6参照)により、例えば交差路において、左方監視カメラ2、前方監視カメラ4、右方監視カメラ6の映像を取得し、S12において、画像補正部24により、取得された広角画像の歪み補正を行う。
As shown in FIG. 7, first, in S11, the image acquisition unit 22 (see FIG. 6) acquires images of the
次に、S13において、移動体検出部30により、S11及びS12で取得された実画像から、移動体を検出する。このS13における移動体の検出は、オプティカルフロー処理にて行われる。なお、オプティカルフローの他に、背景差分、フレーム間差分処理、或いは、レーザーやミリ波などにより移動体を検出するようにしても良い。移動体が検出されないときは、S14に進み、例えば交差路において安全に進行可能なものとして、合成画像作成部26(図6参照)に入力されるS11及びS12で取得された実画像をそのまま表示する。即ち、仮想画像の表示は禁止される。
Next, in S13, the moving
S13において、移動体が検出されたときには、S15に進み、移動体移動状態検出部32により、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。移動体が複数存在するときには、基本的には、自車両からの距離が最短距離である移動体、或いは、自車両までの最短到達時間の移動体について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。一方、後述するように、複数の移動体について仮想画像を表示しても、それらが各々重ならない場合には、後続する移動体(後続車など)について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。
When the moving body is detected in S13, the process proceeds to S15, and the moving body moving
次に、S16において、移動体の自車両からの距離が所定距離内であるか、或いは、移動体の自車両への到達時間が所定時間内であるかを判定する。所定距離としては例えば、10〜30mであり、所定時間としては例えば、2〜3.5秒である。 Next, in S16, it is determined whether the distance of the moving body from the own vehicle is within a predetermined distance or whether the arrival time of the moving body at the own vehicle is within a predetermined time. The predetermined distance is, for example, 10 to 30 m, and the predetermined time is, for example, 2 to 3.5 seconds.
移動体の自車両からの距離が所定距離内でなく、或いは、移動体の自車両への到達時間が所定時間内でない場合には、仮想表示が不必要であるとして、S14に進み、実画像をそのまま表示する。これは、移動体が、例えば、移動体の自車両からの距離が例えば10m以下であるような近い場合や、移動体の自車両への到達時間が2秒以内といった近い場合には、仮想表示をしなくても移動体の移動状態が良く分かるので、仮想表示をしないのである。 If the distance of the moving body from the host vehicle is not within the predetermined distance, or if the arrival time of the moving body to the host vehicle is not within the predetermined time, the virtual display is unnecessary and the process proceeds to S14, and the actual image is displayed. Is displayed as it is. For example, when the moving object is so close that the distance of the moving object from the own vehicle is, for example, 10 m or less, or when the moving object reaches the own vehicle within two seconds, the virtual display Since the moving state of the moving body can be understood well without performing virtual display, virtual display is not performed.
S16において、移動体の自車両からの距離が所定距離内であり、或いは、移動体の自車両への到達時間が所定時間内である場合には、S17に進む。S17では、移動体の所定時間後の移動位置推定部34において、所定時間(本実施形態では、10秒毎)の後の移動体の位置を推定する。移動体が複数存在するときには、自車両からの距離が最短距離である移動体、或いは、自車両までの最短到達時間の移動体について、所定時間後の移動体の位置を推定する。
In S16, when the distance of the moving body from the host vehicle is within the predetermined distance, or when the arrival time of the moving body to the host vehicle is within the predetermined time, the process proceeds to S17. In S17, the moving
次に、S18において、現在の移動体の位置からの移動体の仮想表示がされる位置までの時間を規定する。即ち、仮想表示するために、何秒後に何秒毎に(所定時間)に移動体の状態を表示するかを規定する。なお、この規定と共に、どの程度の距離毎(所定距離)に移動体の状態を表示するかを規定しても良い。
次に、S19では、S18で規定された所定時間(何秒後、何秒毎)における移動体の仮想的な移動の状態として、移動体の進行方向延長線上に表示する位置及び大きさを規定する。
Next, in S18, the time from the current position of the moving body to the position where the virtual display of the moving body is displayed is defined. That is, for virtual display, it is defined how many seconds later and every second (predetermined time) the state of the moving body is displayed. In addition to this provision, it may be prescribed how much distance (predetermined distance) the state of the moving body is displayed.
Next, in S19, the position and size to be displayed on the extension line in the traveling direction of the moving body are defined as the virtual moving state of the moving body in the predetermined time (how many seconds and every second) defined in S18. To do.
次に、S20において、図8(b)に示すように、S18で規定した所定時間(何秒後)T10、T11、T12を実画像に重畳して表示すると共に、S19で規定した移動体の進行方向延長線上に表示する位置及び大きさによる移動体の仮想表示V11、V12を実画像に重畳してモニタ14に表示する。図8(b)では、実画像として、現在の位置に存在する車両(移動体)C11、C12や現在見えている路面の状況がモニタ14に表示される。
このS20においては、ドライバーが実画像としては最新の現時点での映像を見ることが出来るように、常に現時点(最新)での背景及び移動体に重畳して移動体の仮想画像を表示する。
Next, in S20, as shown in FIG. 8 (b), the predetermined time (after several seconds) defined in S18 is displayed superimposed on the real image, and the mobile object defined in S19 is displayed. The virtual displays V11 and V12 of the moving body according to the position and size displayed on the extension line in the traveling direction are superimposed on the actual image and displayed on the
In S20, the virtual image of the moving object is always displayed so as to be superimposed on the background and the moving object at the current time (latest) so that the driver can see the latest video at the current time as the actual image.
図8(b)に示すように、複数の移動体C11、C12が存在する場合、本実施形態では、自車両から最短距離に存在する移動体(C11)或いは自車両への到達時間が最も短い移動体(C11)に対してのみ、仮想表示V11、V12、T10、T11、T12が表示される。なお、図8(b)において、移動体C12に対して仮想表示をしても移動体C11自体及びその仮想表示と重ならない場合には、移動体C12に対しても仮想表示をしても良い。言い換えると、移動体C12に対して仮想表示をすると移動体C11自体及びその仮想表示と重なる場合には、後続車の仮想画像の表示を禁止する。
仮想表示(V11、V12)は、実画像と区別がつくように、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示をするのが好ましい。また、仮想表示(V11、V12)は、等時間間隔で表示される。
As shown in FIG. 8B, when there are a plurality of mobile bodies C11 and C12, in this embodiment, the mobile body (C11) present at the shortest distance from the own vehicle or the arrival time to the own vehicle is the shortest. Virtual displays V11, V12, T10, T11, and T12 are displayed only for the moving object (C11). In FIG. 8B, when the virtual display is performed on the moving body C12 and the moving body C11 itself does not overlap with the virtual display, the virtual display may also be performed on the moving body C12. . In other words, when the virtual display is performed on the moving body C12, when the moving body C11 itself and the virtual display overlap with each other, the display of the virtual image of the following vehicle is prohibited.
In the virtual display (V11, V12), it is preferable to display only the outline, display a transparent light color, or display blinking so as to be distinguished from the actual image. The virtual display (V11, V12) is displayed at equal time intervals.
次に、S21に進み、頭出し位置判定部(図6参照)50により、自車両が頭出し位置(図4参照)を通過したか否かを判定する。頭出し位置を判定するには、いくつか手法がある。例えば、GPS装置12により得られる自車両の位置とナビゲーション装置13の地図データから判定する手法、カメラ2、4、6により得られる停止線の位置と、移動距離センサ(図示せず)による移動距離から、停止線からどれだけ移動したかで判定する手法、左右のカメラ2、6による映像から、左右の見通し具合が良くなるとき(近距離に見通しを遮断するものがないとき)が頭出し位置と判定する手法、カメラ2、4、6により得られる停止線の位置及び交差点周囲の画像により判定する手法などである。
Next, it progresses to S21 and it is determined by the cue position determination part (refer FIG. 6) 50 whether the own vehicle passed the cue position (refer FIG. 4). There are several methods for determining the cueing position. For example, a method of determining from the position of the own vehicle obtained by the
自車両が頭出しをしているときには、S22に進み、合成画像作成部26(図6参照)により、S20で表示した仮想画像を点滅表示させた後、その仮想画像の表示を中止する。仮想画像の点滅により、ドライバーは、モニタ14による表示ではなくドライバー自身で目視が可能であることや、実際に目視で見えるものと異なるものであることを知ることが出来る。一方、頭出しをしていないときには、S20による仮想画像と実画像との表示を続ける。
When the host vehicle is cueing, the process proceeds to S22, where the composite image creation unit 26 (see FIG. 6) causes the virtual image displayed in S20 to blink, and then stops displaying the virtual image. The flashing of the virtual image allows the driver to know that the driver can view the image, not the display on the
次に、本発明の第1実施形態による作用効果を説明する。
本発明の第1実施形態による車両用周囲監視装置によれば、ドライバーから見て前方で左右に広がる領域内の死角領域を監視することが出来る。本実施形態では、死角領域の実画像を撮像するように車両の前方部にカメラ2、4、6が設けられ、移動体検出部30により、これらのカメラ2、4、6により撮像された実画像内から移動体が抽出される。さらに、移動体移動状態検出部32により移動体の移動状態が検出され、移動体の所定時間後の移動位置推定部34により移動体の仮想画像を表示する位置及び大きさをその移動体の移動状態を表すように規定される。そして、仮想画像生成部38により移動体の仮想画像が生成され、合成画像作成部26により、移動体の仮想画像を、移動体の所定時間後の移動位置推定部34により規定された位置及び大きさで実画像に重畳してモニタ14に表示する。
Next, the function and effect of the first embodiment of the present invention will be described.
According to the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention, it is possible to monitor a blind spot area in an area extending left and right in front of the driver. In the present embodiment,
従って、移動体の仮想画像が、その移動状態を表すような位置及び大きさで実画像に重畳して表示されるので、ドライバーが移動体の移動状態を認識し易くなり、静止物との区別が容易であると共に死角領域の画像内の移動体の移動状況を把握し易い。 Accordingly, since the virtual image of the moving object is displayed superimposed on the real image at a position and size that represents the moving state, it becomes easier for the driver to recognize the moving state of the moving object and distinguish it from a stationary object. It is easy to grasp the moving state of the moving body in the image of the blind spot area.
次に、第1実施形態によれば、ドライバーの死角領域は車両の前方側の交差路の交差点の周辺の死角領域であり、カメラ2、4、6は、車両の前方端に設けられ、車両が交差路に差し掛かるとき、その車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像するので、衝突事故が多発する交差点周囲の左右領域の移動状況を容易に把握することが出来る。
Next, according to the first embodiment, the blind spot area of the driver is a blind spot area around the intersection of the intersection on the front side of the vehicle, and the
次に、第1実施形態によれば、移動体の所定時間後の移動位置推定部34は、移動体の移動状態として、その移動体の進行方向延長線上の所定時間後の推定到達位置に移動体の仮想画像が表示されるように移動体の仮想画像を表示する位置及び大きさが規定され、これが、表示手段により実画像に重畳して表示されるので、所定時間後の移動体の位置を直感的に把握することが出来、ドライバーにとって、例えば自車両を発進させて良いかの判断をより容易にすることが出来る。
Next, according to the first embodiment, the moving
次に、第1実施形態によれば、所定時間に基づいてその表示された移動体の現在の位置からの到達予測時間の数値表示が移動体の仮想画像に合わせて表示されるので、そのような数値による時間表示により、移動体の移動状態をより直感的に把握することが出来る。 Next, according to the first embodiment, a numerical display of the predicted arrival time from the current position of the displayed moving body based on a predetermined time is displayed in accordance with the virtual image of the moving body. By the time display with various numerical values, the moving state of the moving body can be grasped more intuitively.
次に、第1実施形態によれば、合成画像作成部26は、移動体の仮想画像の表示を移動体の自車両からの距離が所定距離内にあるとき、或いは、移動体の自車両への到達時間が所定時間内であるときに行うので、例えば自車両を発進させるか停止したままにするかの判断を迷うような所定距離内に移動体が存在する場合に、ドライバーにより確実に移動体の移動状態を把握させることが出来る。
次に、第1実施形態によれば、合成画像作成部26は、移動体の仮想画像を移動体の実際の車両の実体及び実状と識別可能に表示するので、ドライバーにとって移動体としての視認が容易である。
Next, according to the first embodiment, the composite
Next, according to the first embodiment, the composite
次に、第1実施形態によれば、移動体検出部30により複数の移動体が検出されたとき、仮想画像生成部38は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像を生成するので、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
Next, according to the first embodiment, when a plurality of moving bodies are detected by the moving
次に、第1実施形態によれば、合成画像作成部26により複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、仮想画像生成部38は、それらの移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像を生成するので、画像を見て各移動体の移動状態をそれぞれ混同することなく、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
Next, according to the first embodiment, when all the virtual images of a plurality of moving objects are displayed by the composite
次に、第1実施形態によれば、合成画像作成部26は、仮想表示を移動体の実画像と識別可能に、例えば、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示したりして表示するので、ドライバーは仮想画像を仮想の画像として認識することが出来、実画像と仮想画像とを混同することがない。
Next, according to the first embodiment, the composite
次に、第1実施形態によれば、合成画像作成部26は、移動体の現時点での背景及び現時点での移動体に重畳して移動体の仮想表示又は仮想路面表示を表示するので、ドライバーは、実画像としては最新の現時点での映像を見ることが出来、それに対して仮想画像が表示されるので、より確実に周囲の状況と共に移動体の移動状態を把握することが出来る。
Next, according to the first embodiment, the composite
次に、図9により、本発明の第2実施形態による車両用周囲監視装置の構成を説明する。図9は、本発明の第2実施形態による車両用周囲監視装置の構成を示すブロック図である。 Next, the configuration of the vehicle surrounding monitoring apparatus according to the second embodiment of the present invention will be described with reference to FIG. FIG. 9 is a block diagram showing a configuration of the vehicle surrounding monitoring apparatus according to the second embodiment of the present invention.
この第2実施形態では、実際に存在する移動体(交差点に向かってくる他車両など)の実映像に重畳して、その移動体が現時点の位置に来るまで、所定時間前にどのような位置にいたのかを残像画像として仮想的に表示することにより、ドライバーが移動体の移動状態を認識するようにしたものである。これにより、例えばドライバーが自車両を発進させて良いか否かの判断を助けることが出来る。 In the second embodiment, any position before a predetermined time until the moving body comes to the current position by superimposing it on a real image of a moving body that actually exists (such as another vehicle approaching the intersection). The driver recognizes the moving state of the moving body by virtually displaying the after-image as an afterimage. Thereby, for example, it is possible to help the driver determine whether or not to start the host vehicle.
図9に示すように、周辺監視センサ20として構成される各カメラ2、4、6からの画像信号が、ECU18内の画像取得部22に入力される。入力された画像信号は広角画像であり歪みが生じているので、その画像が画像補正部24で補正される。この画像補正部24からの画像信号は、合成画像作成部26に実画像として入力される。
As shown in FIG. 9, image signals from the
移動体検出部30では、画像補正部24からの入力画像内に移動体、例えば、他車両やオートバイや自転車などが存在するか否かを検出する。移動体が存在しない場合には、合成画像作成部26で後述する仮想画像を表示しないので、それを指示する信号を合成画像作成部26に送り、移動体が存在する場合には合成画像作成部26で後述する仮想画像を表示するので、移動体が存在することを指示する信号を合成画像作成部26に送る。
The moving
また、移動体移動状態検出部32では、移動体検出部30から、移動体が存在する旨の信号を受けて、レーザレーダ7により、自車両に接近してくる移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出する。なお、レーザレーダ7の代わりに、車車間通信或いは路車間通信により、移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出するようにしても良い。
Further, the moving body moving
また、移動体情報蓄積部33では、移動体検出部30により検出された移動体の位置情報を移動体移動状態検出部32から得て蓄積する。移動体残像画像規定部35では、移動体情報蓄積部33で蓄積された過去の移動体の位置と、移動体移動状態検出部32から得られる現在の位置とに基づいて、移動体の残像画像を規定する。具体的には、所定の時間間隔で、過去の所定時間の移動体の位置及び大きさを規定する。
また、この移動体残像画像規定部35では、移動体情報蓄積部33で蓄積された過去の移動体の位置と、移動体移動状態検出部32から得られる現在の位置とに基づいて移動体の移動方向を表すベクトルを算出する。
The moving body
Further, in this moving body
そして、仮想画像作成部38では、移動体残像画像規定部35により規定された移動体の過去の位置及び大きさの仮想画像(残像画像)を生成する。そして、作成された仮想画像は、合成画像作成部26で、各カメラ2、4、6で得られる実画像に重畳され、モニタ14により表示される。また、スピーカ15により、仮想画像が更新されることを示す所定の音が発せられる。
Then, the virtual
次に、ECU18内には、頭出し位置判定部50が存在する。頭出し位置判定部50では、車両が交差路内に頭出しした(図4参照)ことを判定するものである。頭出しが行われていれば、既にドライバー自身で交差路を見通せることから、仮想画像作成部38における移動体の仮想表示を中止するように、所定の信号を送るようになっている。
Next, a cue
また、ECU18には、仮想画像処理実施判定部52が存在する。この仮想画像処理実施判定部52は、ナビゲーション装置13から得る地図データ、GPS装置12から得られる位置データ、及び、車速センサ10から得られる車速データを基に、車両が交差点近傍に位置しているか否か及び一時停止しているか否かを判定するものである。後述するように、交差点近傍であり一時停止したときには、仮想画像を表示するために、合成画像作成部26に所定の信号を送る。
Further, the
次に、図10乃至図12により、本発明の第2実施形態による車両用周囲監視装置の制御内容を説明する。図10は、本発明の第2実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートであり、図11は、本発明の第2実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)を示す図であり、図12は、本発明の第2実施形態による仮想画像が実画像に重畳された映像の一例である。図10において、Sは各ステップを示す。 Next, the control contents of the vehicle surrounding monitoring apparatus according to the second embodiment of the present invention will be described with reference to FIGS. FIG. 10 is a flowchart showing the display processing of the distance grasping virtual image of the vehicle surroundings monitoring device according to the second embodiment of the present invention, and FIG. 11 is a diagram of the vehicle surroundings monitoring device according to the second embodiment of the present invention. FIG. 12 is a diagram illustrating an imaging range by a camera, an example of a moving object (a), and an example of an image (b) in which a virtual image is superimposed on a real image, and FIG. 12 illustrates a virtual image according to the second embodiment of the present invention. It is an example of the image | video superimposed on the image. In FIG. 10, S indicates each step.
図10に示すように、先ず、S30において、画像取得部22(図9参照)により、例えば交差路において、左方監視カメラ2、前方監視カメラ4、右方監視カメラ6の映像を取得し、S31において、画像補正部24により、取得された広角画像の歪み補正を行う。
As shown in FIG. 10, first, in S30, the image acquisition unit 22 (see FIG. 9) acquires videos of the
次に、S32において、移動体検出部30では、S30及びS31で取得された実画像から、移動体を検出する。このS32における移動体の検出は、オプティカルフロー処理にて行われる。なお、オプティカルフローの他に、背景差分、フレーム間差分処理、或いは、レーザーやミリ波などにより移動体を検出するようにしても良い。
移動体が検出されないときは、S33に進み、例えば交差路において安全に進行可能なものとして、合成画像作成部26(図9参照)に入力されるS30及びS31で取得された実画像をそのまま表示する。即ち、仮想画像の表示は禁止される。
Next, in S32, the moving
When the moving body is not detected, the process proceeds to S33, and the actual images acquired in S30 and S31 input to the composite image creating unit 26 (see FIG. 9) are displayed as they are, for example, as those that can safely proceed on the intersection. To do. That is, display of a virtual image is prohibited.
S32において、移動体が検出されたときには、S34に進み、移動体情報蓄積部33(図9参照)により、移動体の情報として、移動体が存在している或いは存在していた位置及び各位置での移動体の大きさの情報を蓄積する。 If a moving object is detected in S32, the process proceeds to S34, where the moving object information accumulating unit 33 (see FIG. 9) uses the moving object as the information on the moving object. The information on the size of the moving object at is stored.
次に、S35に進み、移動体移動状態検出部32により、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。移動体が複数存在するときには、基本的には、自車両からの距離が最短距離である移動体、或いは、自車両までの最短到達時間の移動体について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。一方、後述するように、複数の移動体について仮想画像を表示しても、それらが各々重ならない場合には、後続する移動体(後続車など)について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。
Next, in S35, the moving body moving
次に、S36において、移動体の自車両からの距離が所定距離内であるか、或いは、移動体の自車両への到達時間が所定時間内であるかを判定する。S36における所定距離としては例えば、0〜10mであり、所定時間としては例えば、0〜1秒である。
S36で、移動体の自車両からの距離が所定距離内であるか、或いは、移動体の自車両への到達時間が所定時間内であると判定された場合、即ち、本実施形態では、移動体が近距離に存在するときには、S33に進み、合成画像作成部26(図9参照)に入力されるS30及びS31で取得された実画像をそのまま表示する。即ち、仮想画像の表示は禁止される。つまり、近距離であれば、ドライバーは、移動体の存在が分かれば良く、注意を払って発進待機及び通過待ちすれば良い。
Next, in S36, it is determined whether the distance of the moving body from the host vehicle is within a predetermined distance, or whether the arrival time of the moving body at the host vehicle is within a predetermined time. The predetermined distance in S36 is, for example, 0 to 10 m, and the predetermined time is, for example, 0 to 1 second.
If it is determined in S36 that the distance of the moving body from the host vehicle is within a predetermined distance, or the arrival time of the moving body to the host vehicle is within a predetermined time, that is, in this embodiment, the movement When the body exists at a short distance, the process proceeds to S33, and the actual image acquired in S30 and S31 input to the composite image creation unit 26 (see FIG. 9) is displayed as it is. That is, display of a virtual image is prohibited. In other words, if it is a short distance, the driver only needs to know the presence of the moving body, and may pay attention and wait for starting and passing.
S36で、移動体の自車両からの距離が所定距離内であるか、或いは、移動体の自車両への到達時間が所定時間内であると判定されない場合には、S37に進む。
S37では、移動体の自車両からの距離が所定距離以上であるか、或いは、移動体の自車両への到達時間が所定時間以上であるかを判定する。S37における所定距離としては例えば、30mであり、所定時間としては例えば、3秒である。
If it is not determined in S36 that the distance of the moving body from the host vehicle is within a predetermined distance or the arrival time of the moving body in the host vehicle is not within the predetermined time, the process proceeds to S37.
In S37, it is determined whether the distance of the moving body from the host vehicle is greater than or equal to a predetermined distance, or whether the arrival time of the moving body to the host vehicle is greater than or equal to a predetermined time. The predetermined distance in S37 is, for example, 30 m, and the predetermined time is, for example, 3 seconds.
S37では、移動体の自車両からの距離が所定距離以上であるか、或いは、移動体の自車両への到達時間が所定時間以上ではないと判定されたときは、自車両と移動体との間が10〜30mの距離にあり、或いは、移動体の自車両への到達時間が1〜3秒であり、本実施形態では、移動体が中距離に存在する場合として、S38に進む。このように移動体が自車両から中距離に存在するときは、ドライバーは、移動体の通過待ちをするか自車両が先に発進するか迷うような距離或いは時間であり、移動体の存在を確実に認識し、移動体の距離、速度及び進行方向を出来るだけ正確に把握したい場合である。 In S37, when it is determined that the distance of the moving body from the own vehicle is not less than a predetermined distance or the arrival time of the moving body to the own vehicle is not more than the predetermined time, the The distance is 10 to 30 m, or the arrival time of the moving body to the host vehicle is 1 to 3 seconds. In this embodiment, the process proceeds to S38 when the moving body exists at a medium distance. In this way, when the moving body is present at a medium distance from the host vehicle, the driver is at a distance or time at which the driver waits for the passing of the moving body or whether the host vehicle starts first. This is a case where the user wants to recognize the distance, speed and traveling direction of the moving body as accurately as possible.
このような場合、S38において、移動体を残像表示する位置及び大きさを規定すると共に残像表示を更新するタイミングに合わせた音の出力を規定する。これらの規定には、何秒毎に残像表示をするか、また、何秒毎に残像表示するかの規定も含まれる。本実施形態では、0.5秒〜2秒の間で残像表示を更新し、表示する時間間隔は等間隔である。
次に、S39では、残像をつなぐベクトル表示を規定する。ベクトル表示は、各移動体の2次元画像の重心点、又は、移動体の3次元座標から得られる移動体の重心点をつなぐように規定される。これにより、進行方向が確かなものになる。
In such a case, in S38, the position and size of the afterimage display of the moving body are defined, and the sound output in accordance with the timing for updating the afterimage display is defined. These rules include the rule of how many seconds the afterimage is displayed and how many seconds the afterimage is displayed. In the present embodiment, the afterimage display is updated between 0.5 seconds and 2 seconds, and the time intervals for displaying are updated at equal intervals.
Next, in S39, a vector display for connecting afterimages is defined. The vector display is defined so as to connect the center of gravity of the two-dimensional image of each moving body or the center of gravity of the moving body obtained from the three-dimensional coordinates of the moving body. This ensures the direction of travel.
S40では、例えば図11(b)に示すように、S38で規定された位置及び大きさで移動体の残像表示である仮想画像V21、V22を実画像に重畳してモニタ14に表示する。また、図11(b)に示すように、S39で規定されたベクトルVeを実画像に重畳してモニタ14に表示する。さらに、図11(b)に示すように、仮想画像V1、V2が何秒前のものかを示すT20、T21、T22を実画像に重畳してモニタ14に表示する。図11(b)では、実画像として、現在の位置に存在する車両(移動体)C21、C22や現在見えている路面の状況がモニタ14に表示される。
In S40, for example, as shown in FIG. 11B, virtual images V21 and V22, which are afterimage displays of the moving body, are displayed on the
このS40においては、ドライバーが実画像としては最新の現時点での映像を見ることが出来るように、常に現時点(最新)での背景及び移動体に重畳して移動体の仮想画像を表示する。 In S40, the virtual image of the moving body is always displayed superimposed on the background and the moving body at the current time (latest) so that the driver can see the latest video at the current time as the actual image.
図11(b)に示すように、複数の移動体C21、C22が存在する場合、本実施形態では、自車両から最短距離に存在する移動体(C21)或いは自車両への到達時間が最も短い移動体(C21)に対してのみ、仮想表示V21、V22、T20、T21、T22が表示される。なお、図11(b)において、移動体C22に対して仮想表示をしても移動体C21自体及びその仮想表示と重ならない場合には、移動体C22に対しても仮想表示をしても良い。言い換えると、移動体C22に対して仮想表示をすると移動体C1自体及びその仮想表示と重なる場合には、後続車の仮想画像の表示を禁止する。
また、後続の移動体(後続車)が存在する場合には、図11(b)に符号Nで示すように、後続する移動体の数を表示するようになっている。
As shown in FIG. 11B, when there are a plurality of mobile bodies C21 and C22, in this embodiment, the mobile body (C21) existing at the shortest distance from the own vehicle or the arrival time to the own vehicle is the shortest. Virtual displays V21, V22, T20, T21, and T22 are displayed only for the moving object (C21). In FIG. 11B, if the moving object C22 does not overlap with the moving object C21 itself and the virtual display, the moving object C22 may be displayed in a virtual manner. . In other words, when virtual display is performed on the moving body C22, when the moving body C1 itself and the virtual display overlap with each other, display of the virtual image of the following vehicle is prohibited.
Further, when there is a subsequent moving body (following vehicle), the number of the following moving bodies is displayed as indicated by reference numeral N in FIG.
なお、仮想表示(V21、V22)は、実画像と区別がつくように、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示をするのが好ましい。また、S40では、残像表示が更新するタイミングに合わせて「ピッピッピッ」というような音をスピーカ15から出力する。更新のタイミングは、例えば、ドライバーが移動物体を注視する時間が含まれるように0.5秒〜2秒程度である。ドライバーはモニタ14を見続けて更新タイミングを学習しないと速度感をつかめないため、このような音を出力するようにしている。
Note that the virtual display (V21, V22) is preferably displayed with only a contour line, a transparent light color display, or a blinking display so as to be distinguished from the actual image. In S <b> 40, a sound such as “beep” is output from the
次に、S37において、移動体の自車両からの距離が所定距離以上であるか、或いは、移動体の自車両への到達時間が所定時間以上であると判定された場合は、自車両と移動体との間が30m以上の距離にあり、或いは、移動体の自車両への到達時間が3秒以上であり、本実施形態では、移動体が遠距離に存在する場合として、S41に進む。このように移動体が自車両から遠距離に存在する場合、ドライバーは、衝突の危険性がないことに自信を持ちたい場合であり、移動体の速度変化及び進行方向変化を正確につかみたい場合である。 Next, if it is determined in S37 that the distance of the moving body from the host vehicle is greater than or equal to a predetermined distance, or the arrival time of the moving body to the host vehicle is greater than or equal to a predetermined time, the vehicle moves with the host vehicle. The distance from the body is 30 m or more, or the arrival time of the moving body to the host vehicle is 3 seconds or more. In this embodiment, the process proceeds to S41 when the moving body exists at a long distance. In this way, when the moving body exists at a long distance from the host vehicle, the driver wants to be confident that there is no danger of a collision, and when the driver wants to accurately grasp the speed change and traveling direction change of the moving body. is there.
このような場合、先ず、S41において、移動体の残像表示する位置及び大きさを規定する。本実施形態では、移動体が遠距離に存在するときには、移動体及び残像表示をモニタ14上に拡大して表示するので、そのような移動体及び残像表示の拡大表示における位置及び大きさも規定する。また、残像表示を更新するタイミングに合わせた音の出力を規定する。さらに、何秒毎に残像表示をするか、また、何秒毎に残像表示するかも規定する。
In such a case, first, in S41, the position and size of the moving object for displaying the afterimage are defined. In the present embodiment, when the moving body is present at a long distance, the moving body and the afterimage display are enlarged and displayed on the
次に、S42では、残像をつなぐベクトル表示を規定する。ベクトル表示は、各移動体の2次元画像の重心点、又は、移動体の3次元座標から得られる移動体の重心点をつなぐように規定される。これにより、進行方向が確かなものになる。 Next, in S42, a vector display for connecting afterimages is defined. The vector display is defined so as to connect the center of gravity of the two-dimensional image of each moving body or the center of gravity of the moving body obtained from the three-dimensional coordinates of the moving body. This ensures the direction of travel.
次に、S40では、例えば図12に示すように、C23という移動体の車両を、モニタ14の画面左上に拡大して表示する。なお、拡大する位置は、実画像内における移動体C23の表示を妨げなければどこでも良い。この場合も、S40においては、ドライバーが実画像としては最新の現時点での映像を見ることが出来るように、常に現時点(最新)での背景及び移動体に重畳して移動体の仮想表示又は仮想路面表示を表示する。
この図12に示す例では、S41で規定された位置及び大きさで移動体の残像表示である仮想画像V23、V24を実画像に重畳してモニタ14に表示する。
Next, in S40, as shown in FIG. 12, for example, a moving vehicle C23 is enlarged and displayed on the upper left of the screen of the
In the example shown in FIG. 12, virtual images V23 and V24, which are afterimage displays of the moving object, are displayed on the
また、図11(b)と同様に、ベクトルVe、時間T20、T21、T22も表示される。また、図11(b)について説明したのと同様に、複数の移動体が存在する場合は、自車両から最短距離に存在する移動体或いは自車両への到達時間が最も短い移動体に対してのみ、仮想表示が表示される。なお、最前方の移動体に対して仮想表示をすると後続する移動体自体及びその仮想表示と重なる場合には、後続車の仮想画像の表示を禁止する。 Similarly to FIG. 11B, the vector Ve and times T20, T21, and T22 are also displayed. Similarly to the case described with reference to FIG. 11 (b), when there are a plurality of moving bodies, the moving body existing at the shortest distance from the own vehicle or the moving body having the shortest arrival time to the own vehicle. Only the virtual display is displayed. In addition, when virtual display is performed on the foremost moving body, when the subsequent moving body itself and the virtual display overlap with each other, display of the virtual image of the subsequent vehicle is prohibited.
なお、仮想表示(V21、V22)は、実画像と区別がつくように、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示をするのが好ましい。
また、S40では、残像表示が更新するタイミングに合わせて「ピッピッピッ」というような音をスピーカ15から出力する。更新のタイミングは、例えば、0.5秒〜2秒程度である。
Note that the virtual display (V21, V22) is preferably displayed with only a contour line, a transparent light color display, or a blinking display so as to be distinguished from the actual image.
In S <b> 40, a sound such as “beep” is output from the
次に、S43に進み、頭出し位置判定部(図9参照)50により、自車両が頭出し位置(図4参照)を通過したか否かを判定する。自車両が頭出しをしているときには、S44に進み、合成画像作成部26(図9参照)により、S40で表示した仮想画像を点滅表示させた後、その仮想画像の表示を中止する。 Next, it progresses to S43 and it is determined by the cue position determination part (refer FIG. 9) 50 whether the own vehicle passed the cue position (refer FIG. 4). When the host vehicle is cueing, the process proceeds to S44, where the composite image creation unit 26 (see FIG. 9) causes the virtual image displayed in S40 to blink, and then stops displaying the virtual image.
次に、本発明の第2実施形態による作用効果を説明する。
本発明の第2実施形態による車両用周囲監視装置によれば、ドライバーから見て前方で左右に広がる領域内の死角領域を監視することが出来る。本実施形態では、死角領域の実画像を撮像するように車両の前方部にカメラ2、4、6が設けられ、移動体検出部30により、これらのカメラ2、4、6により撮像された実画像内から移動体が抽出される。さらに、移動体移動状態検出部32により移動体の移動状態が検出され、移動体の所定時間前の移動体残像画像規定部35により移動体の仮想画像を表示する位置及び大きさをその移動体の移動状態を表すように規定される。そして、仮想画像作成部38により移動体の仮想画像が生成され、合成画像作成部26により、移動体の仮想画像を、移動体の所定時間前の移動体残像画像規定部35により規定された位置及び大きさで実画像に重畳してモニタ14に表示する。
Next, the function and effect of the second embodiment of the present invention will be described.
According to the vehicle surroundings monitoring apparatus according to the second embodiment of the present invention, it is possible to monitor a blind spot area in an area that spreads left and right in front of the driver. In the present embodiment,
次に、第2実施形態によれば、移動体残像画像規定部35は、移動体の移動状態として、その移動体が移動してきた過去の位置に移動体の仮想画像が等時間間隔で残像として表示されるように移動体の仮想画像を表示する位置及び大きさを規定し、これが等時間間隔で残像として表示されるので、移動体の現在までの移動状況を直感的に把握することが出来、ドライバーにとって、例えば自車両を発進させて良いかの判断をより容易にすることが出来る。
Next, according to the second embodiment, the moving object
次に、第2実施形態によれば、等時間間隔の残像に合わせたベクトル表示により、移動体の現在までの移動状況を、より直感的に把握することが出来る。
次に、第2実施形態によれば、移動体の仮想画像が、移動体の自車両からの距離が所定距離以上の遠距離にある場合に、所定距離より小さい場合よりも拡大して表示するので、遠距離にある移動体の移動状態を容易に把握することが出来る。
Next, according to the second embodiment, it is possible to more intuitively grasp the moving state of the moving body up to the present by the vector display in accordance with the afterimages at equal time intervals.
Next, according to the second embodiment, the virtual image of the moving body is displayed in an enlarged manner when the distance of the moving body from the host vehicle is a predetermined distance or more than when the distance is smaller than the predetermined distance. Therefore, it is possible to easily grasp the moving state of the moving body at a long distance.
次に、第2実施形態によれば、合成画像作成部26は、移動体の仮想画像の表示を移動体の自車両からの距離が所定距離内にあるとき、或いは、移動体の自車両への到達時間が所定時間内であるときに行うので、例えば自車両を発進させるか停止したままにするかの判断を迷うような所定距離内に移動体が存在する場合に、ドライバーにより確実に移動体の移動状態を把握させることが出来る。
次に、第2実施形態によれば、合成画像作成部26は、移動体の仮想画像を移動体の実際の車両の実体及び実状と識別可能に表示するので、ドライバーにとって移動体としての視認が容易である。
Next, according to the second embodiment, the composite
Next, according to the second embodiment, the composite
次に、第2実施形態によれば、移動体検出部30により複数の移動体が検出されたとき、仮想画像作成部38は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像を生成するので、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
次に、第2実施形態によれば、合成画像作成部26により複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、仮想画像作成部38は、それらの移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像を生成するので、画像を見て混同することなく、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
Next, according to the second embodiment, when a plurality of moving bodies are detected by the moving
Next, according to the second embodiment, when all the virtual images of a plurality of moving objects are displayed by the composite
次に、第2実施形態によれば、合成画像作成部26は、仮想表示を移動体の実画像と識別可能に、例えば、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示したりして表示するので、ドライバーは仮想画像を仮想の画像として認識することが出来、実画像と仮想画像とを混同することがない。
Next, according to the second embodiment, the composite
次に、第2実施形態によれば、合成画像作成部26は、移動体の現時点での背景及び現時点での移動体に重畳して移動体の仮想画像を表示するので、ドライバーは、実画像としては最新の現時点での映像を見ることが出来、それに対して仮想画像が表示されるので、より確実に周囲の状況と共に移動体の移動状態を把握することが出来る。
Next, according to the second embodiment, the composite
次に、図13により、本発明の第3実施形態による車両用周囲監視装置の構成を説明する。図13は、本発明の第3実施形態による車両用周囲監視装置の構成を示すブロック図である。
図13に示すように、周辺監視センサ20として構成される各カメラ2、4、6からの画像信号が、ECU18内の画像取得部22に入力される。入力された画像信号は広角画像であり歪みが生じているので、その画像が画像補正部24で補正される。この画像補正部24からの画像信号は、合成画像作成部26に実画像として入力される。
Next, the configuration of the vehicle surrounding monitoring apparatus according to the third embodiment of the present invention will be described with reference to FIG. FIG. 13 is a block diagram showing the configuration of the vehicle surrounding monitoring apparatus according to the third embodiment of the present invention.
As shown in FIG. 13, image signals from the
移動体検出部30では、画像補正部24からの入力画像内に移動体、例えば、他車両やオートバイや自転車などが存在するか否かを検出する。移動体が存在しない場合には、合成画像作成部26で後述する仮想画像を表示しないので、それを指示する信号を合成画像作成部26に送り、移動体が存在する場合には合成画像作成部26で後述する仮想画像を表示するので、移動体が存在することを指示する信号を合成画像作成部26に送る。
The moving
また、移動体移動状態検出部32では、移動体検出部30から、移動体が存在する旨の信号を受けて、レーザレーダ7により、自車両に接近してくる移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両或いは交差点までの到達時間を算出する。なお、レーザレーダ7の代わりに、車車間通信或いは路車間通信により、移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出するようにしても良い。
Further, the moving body moving
また、カメラ2、4、6による撮像された画像を画像処理することにより、例えばウインカーの状態を検出して、移動体が右左折するか或いは直進するかの結果を検出する。なお、車車間通信或いは路車間通信により、移動体の右左折を検出しても良い。
In addition, by performing image processing on images captured by the
また、移動体の到達時間t2算出部36では、移動体移動状態検出部32により検出された自車両に接近してくる移動体の自車両からの距離、速度及び進行方向から、移動体が自車両に到達する時間t2を算出する。自車両の位置は、ナビゲーション装置13或いはGPS装置12により決定する。なお、移動体が自車両に到達する時間t2ではなく、移動体が交差点に到達する時間を算出しても良い。その場合、交差点の位置は、ナビゲーション装置により決定する。
In addition, the moving object arrival time
また、自車両の交差点通過に要する時間t1算出部54では、ナビゲーション装置13、GPS装置12及び車速センサ10の各情報を受けて、自車両が交差点通過に要する時間(あるいは、自車両が交差点に到達する時間とする)t1を算出する。
In addition, the time
そして、仮想画像作成部38では、後述するように、移動体が右左折するか否かの判定結果と、自車両が交差点を通過するのに要する時間、或いは、自車両が交差点に到達する時間t1及び移動体が自車両に到達する時間t2に応じて決定される危険度と、に応じて、路面上に仮想路面画像を生成する。仮想画像作成部38では、仮想路面画像として、その位置及び大きさを規定する。例えば、仮想路面画像は、実画像により得られる路面幅、或いは車線幅、或いは走行レーンと同じ幅で、移動体の前方に延びるように、位置及び大きさを規定する。
そして、作成された仮想路面画像は、合成画像作成部26で、各カメラ2、4、6で得られる実画像に重畳され、モニタ14により表示される。
Then, in the virtual
Then, the created virtual road surface image is superimposed on the actual image obtained by each
次に、ECU18内には、頭出し位置判定部50が存在する。頭出し位置判定部50では、車両が交差路内に頭出しした(図4参照)ことを判定するものである。頭出しが行われていれば、既にドライバー自身で交差路を見通せることから、仮想画像作成部38における仮想路面画像の仮想表示を中止するように、所定の信号を送るようになっている。
Next, a cue
また、ECU18には、仮想画像処理実施判定部52が存在する。この仮想画像処理実施判定部52は、ナビゲーション装置13から得る地図データ、GPS装置12から得られる位置データ、及び、車速センサ10から得られる車速データを基に、車両が交差点近傍に位置しているか否か及び一時停止しているか否かを判定するものである。後述するように、交差点近傍であり一時停止したときには、仮想画像を表示するために、合成画像作成部26に所定の信号を送る。
Further, the
次に、図14乃至図16により、本発明の第3実施形態による車両用周囲監視装置の制御内容を説明する。図14は、本発明の第3実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートであり、図15は、本発明の第3実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)であり、図16は、本発明の第3実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)、仮想画像が実画像に重畳された映像の一例(b)及び仮想画像が実画像に重畳された映像の一例(c)を示す図である。図14において、Sは各ステップを示す。 Next, the control contents of the vehicle periphery monitoring device according to the third embodiment of the present invention will be described with reference to FIGS. FIG. 14 is a flowchart showing display processing of a distance grasping virtual image of the vehicle surrounding monitoring apparatus according to the third embodiment of the present invention, and FIG. 15 is a diagram of the vehicle surrounding monitoring apparatus according to the third embodiment of the present invention. FIG. 16 is an example (a) of an imaging range by a camera and a moving body, and an example (b) of an image in which a virtual image is superimposed on a real image, and FIG. 16 is a camera of a vehicle surrounding monitoring apparatus according to a third embodiment of the present invention FIG. 6 is a diagram illustrating an example of an imaging range and a moving object (a), an example of a video (b) in which a virtual image is superimposed on a real image, and an example (c) of a video in which a virtual image is superimposed on a real image. In FIG. 14, S indicates each step.
この第3実施形態では、実際に存在する移動体(交差点に向かってくる他車両など)を含む周辺の実映像に重畳して、その移動体が自車両或いは交差点にどの程の時間或いは距離で到達するかの危険度に応じて、路面に仮想路面画像を仮想的に重畳して表示することにより、ドライバーが移動体の移動状態を認識するようにしたものである。これにより、例えばドライバーが自車両を発進させて良いか否かの判断を助けることが出来る。 In this third embodiment, how much time or distance the moving body is on the own vehicle or the intersection is superimposed on the surrounding real image including the moving body that actually exists (such as another vehicle approaching the intersection). The driver recognizes the moving state of the moving body by virtually superimposing and displaying a virtual road surface image on the road surface in accordance with the risk of reaching. Thereby, for example, it is possible to help the driver determine whether or not to start the host vehicle.
図14に示すように、先ず、S50において、画像取得部22(図13参照)により、例えば交差路において、左方監視カメラ2、前方監視カメラ4、右方監視カメラ6の映像を取得し、S51において、画像補正部24により、取得された広角画像の歪み補正を行う。
As shown in FIG. 14, first, in S50, the images of the
次に、S52において、ECU18では、S50及びS51で取得された実画像から、移動体を検出する。このS52における移動体の検出は、オプティカルフロー処理にて行われる。なお、オプティカルフローの他に、背景差分、フレーム間差分処理、或いは、レーザーやミリ波などにより移動体を検出するようにしても良い。
移動体が検出されないときは、S53に進み、例えば交差路において安全に進行可能なものとして、合成画像作成部26(図13参照)に入力されるS50及びS51で取得された実画像をそのまま表示する。即ち、仮想画像の表示は禁止される。
Next, in S52, the
When the moving object is not detected, the process proceeds to S53, and the actual images acquired in S50 and S51 input to the composite image creating unit 26 (see FIG. 13) are displayed as they are, for example, as those that can safely proceed on the intersection. To do. That is, display of a virtual image is prohibited.
S52において、移動体が検出されたときには、S54に進み、移動体移動状態検出部32及び移動体の到達時間t2算出部36(図13参照)により、自車両に接近してくる移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間t2を算出する。自車両までの到達時間t2は、交差点までの到達時間としても良い。移動体が複数存在するときには、基本的には、自車両からの距離が最短距離である移動体、或いは、自車両までの最短到達時間の移動体について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。
If a moving body is detected in S52, the process proceeds to S54, and the moving body moving
次に、S55において、自車両の交差点通過に要する時間t1算出部54(図13参照)により、自車両が交差点通過に要する時間t1を算出する。
次に、S56に進み、移動体移動状態検出部32(図13参照)により得られた、移動体が直進するか右左折するかの検出結果から、移動体が交差点にて右左折するか否かを判定する。
Next, in S55, a time t1 calculating unit 54 (see FIG. 13) required for the own vehicle to pass through the intersection calculates a time t1 required for the own vehicle to pass through the intersection.
Next, proceeding to S56, whether or not the mobile body makes a right or left turn at an intersection from the detection result obtained by the mobile body movement state detection unit 32 (see FIG. 13) whether the mobile body goes straight or turns right or left. Determine whether.
移動体が右左折する場合には、S57に進み、移動体の進行方向が交差点を右左折するものと決定し、危険度が小として、仮想画像作成部38により、移動体の進行方向である交差点までの直線部分の路面と、左折後の進行方向の路面とのそれぞれの実画像上に重畳して表示する仮想路面表示を作成する。ここでは、危険度が小なので、仮想路面表示を青色とする。色を付けない場合は、濃淡を付けて、例えば、薄く表示する。
When the mobile body makes a right or left turn, the process proceeds to S57, where it is determined that the traveling direction of the mobile body makes a right or left turn at the intersection, and the virtual
そして、S58に進み、S57で作成した仮想路面表示を、例えば図15(b)にR1で示すように、実画像に重畳して表示する。ドライバーは、この仮想路面表示により、移動体が左折することを即座に認識することが出来、例えば自車両を発進させて良いかの判断が容易になる。 Then, the process proceeds to S58, and the virtual road surface display created in S57 is displayed superimposed on the actual image, for example, as indicated by R1 in FIG. By this virtual road surface display, the driver can immediately recognize that the moving body is turning left, and for example, it is easy to determine whether or not the host vehicle can be started.
次に、S56において、移動体が直進すると判定された場合、先ずS59に進む。このS59では、及び移動体が自車両に到達する時間t2と自車両が交差点に到達する時間t1との差が所定値k0未満であるか否かを判定する。 Next, when it is determined in S56 that the moving body travels straight, the process proceeds to S59 first. In S59, it is determined whether or not the difference between the time t2 when the moving body reaches the host vehicle and the time t1 when the host vehicle reaches the intersection is less than a predetermined value k0.
所定値k0未満である場合は、S60に進み、移動体も自車両もほぼ同じような時間で交差点に到達するので、危険度大として、仮想画像作成部38により、移動体の進行方向である交差点を含む直線部分の路面の実画像上に重畳して表示する仮想路面表示を作成する。ここでは、危険度が大なので、仮想路面表示を赤色とする。色を付けない場合は、濃淡を付けて、例えば、濃くする。 If it is less than the predetermined value k0, the process proceeds to S60, where both the moving body and the host vehicle reach the intersection at substantially the same time. A virtual road surface display that is displayed by being superimposed on the actual image of the road surface of the straight line portion including the intersection is created. Here, since the degree of danger is large, the virtual road surface display is red. If no color is to be added, a shade is added, for example, it is darkened.
そして、S58に進み、S60で作成した仮想路面表示を、例えば図16(b)にR2で示すように、実画像に重畳して表示する。ドライバーは、この仮想路面表示により、移動体が直進してくること、及び、非常に近い位置にいることを即座に認識することが出来、例えば自車両を待機するための判断が容易になる。 Then, the process proceeds to S58, and the virtual road surface display created in S60 is displayed superimposed on the actual image, for example, as indicated by R2 in FIG. By this virtual road surface display, the driver can immediately recognize that the moving body is going straight ahead and is in a very close position, and for example, it is easy to make a determination for waiting the host vehicle.
S59で、t2−t1がk0以上である場合には、S61に進み、移動体が自車両に到達する時間t2と自車両が交差点に到達する時間t1との差が所定値k0以上であり且つ所定値k1未満であるか否かを判定する。
所定値k0以上であり且つ所定値k1未満である場合には、S62に進み、移動体が到達する時間と自車両が到達する時間に或る程度の時間差があるので、危険度中として、仮想画像作成部38により、移動体の進行方向である交差点を含む直線部分の路面の実画像上に重畳して表示する仮想路面表示を作成する。ここでは、危険度が中なので、仮想路面表示を黄色とする。色を付けない場合は、濃淡を付けて、例えば、中程度の濃さとする。
In S59, when t2-t1 is equal to or greater than k0, the process proceeds to S61, where the difference between the time t2 when the moving body reaches the host vehicle and the time t1 when the host vehicle reaches the intersection is equal to or greater than the predetermined value k0; It is determined whether it is less than a predetermined value k1.
If it is greater than or equal to the predetermined value k0 and less than the predetermined value k1, the process proceeds to S62, where there is a certain time difference between the time when the moving body arrives and the time when the host vehicle arrives. The
そして、S58に進み、S62で作成した仮想路面表示を、例えば図16(c)にR3で示すように、実画像に重畳して表示する。ドライバーは、この仮想路面表示により、移動体が直進してくること、及び、何秒か後に移動体が近づくことを即座に認識することが出来、例えば自車両を発進させて良いか待機するかの判断が容易になる。 Then, the process proceeds to S58, and the virtual road surface display created in S62 is displayed superimposed on the actual image, for example, as indicated by R3 in FIG. With this virtual road surface display, the driver can immediately recognize that the moving body is going straight ahead and that the moving body is approaching in a few seconds, for example, whether to wait for the vehicle to start. Judgment becomes easier.
S61で、移動体が自車両に到達する時間t2と自車両が交差点に到達する時間t1との差が所定値k1以上である場合には、S63に進み、移動体が到達する時間と自車両が到達する時間に大きな時間差があるので、危険度小として、仮想画像作成部38により、移動体の進行方向である交差点を含む直線部分の路面の実画像上に重畳して表示する仮想路面表示を作成する。ここでは、危険度が小なので、仮想路面表示を青色とする。色を付けない場合は、濃淡を付けて、例えば、薄くする。
In S61, when the difference between the time t2 when the moving body reaches the own vehicle and the time t1 when the own vehicle reaches the intersection is equal to or greater than the predetermined value k1, the process proceeds to S63, and the time when the moving body reaches the own vehicle Since there is a large time difference in the arrival time of the vehicle, the virtual road surface display is displayed by superimposing on the real image of the road surface of the straight line portion including the intersection that is the traveling direction of the moving body by the virtual
そして、S58に進み、S63で作成した仮想路面表示を、実画像に重畳して表示する。ドライバーは、この仮想路面表示により、移動体が直進してくること、及び、かなり後に移動体が近づくことを即座に認識することが出来、例えば自車両を発進させて良いとの判断が容易になる。 In step S58, the virtual road surface display created in step S63 is displayed superimposed on the actual image. With this virtual road surface display, the driver can immediately recognize that the moving body is going straight ahead and that the moving body is approaching considerably later. For example, it is easy to determine that the host vehicle can be started. Become.
なお、S58においては、上述したように、仮想路面表示を、交差点までの到達時間t1、t2により異なるようにしているが、移動体の到達時間の算出の確信度に応じて変更して表示するようにしても良い。確信度とは、情報源である自律センサ情報、車車間通信情報、路車間通信情報、情報センター配信情報などの情報の精度のことである。例えば、自律センサ情報、車車間通信情報、路車間通信情報、情報センター配信情報の順で確信度が高い等と決定することが出来る。そして、確信度が高い場合には、仮想路面表示を点滅させたり、点滅の間隔を変えたりして、ドライバーが確信度を判断することが出来るようにしても良い。 In S58, as described above, the virtual road surface display is changed depending on the arrival times t1 and t2 to the intersection, but is changed and displayed according to the certainty of the calculation of the arrival time of the moving body. You may do it. The certainty is the accuracy of information such as autonomous sensor information, vehicle-to-vehicle communication information, road-to-vehicle communication information, and information center distribution information that are information sources. For example, it can be determined that the certainty is high in the order of autonomous sensor information, vehicle-to-vehicle communication information, road-to-vehicle communication information, and information center distribution information. If the certainty factor is high, the driver may be able to determine the certainty factor by blinking the virtual road surface display or changing the blinking interval.
S58の次には、S64に進み、頭出し位置判定部(図13参照)50により、自車両が頭出し位置(図4参照)を通過したか否かを判定する。自車両が頭出しをしているときには、S65に進み、合成画像作成部26(図参照)により、S58で表示した仮想画像を点滅表示させた後、その仮想画像の表示を中止する。 Following S58, the process proceeds to S64, and the cueing position determination unit (see FIG. 13) 50 determines whether or not the host vehicle has passed the cueing position (see FIG. 4). When the host vehicle is cueing, the process proceeds to S65, where the composite image creation unit 26 (see the drawing) causes the virtual image displayed in S58 to blink, and then stops displaying the virtual image.
次に、本発明の第3実施形態による作用効果を説明する。
本発明の実施形態による車両用周囲監視装置によれば、ドライバーから見て前方で左右に広がる領域内の死角領域を監視することが出来る。本実施形態では、死角領域の実画像を撮像するように車両の前方部にカメラ2、4、6が設けられ、移動体検出部30により、これらのカメラ2、4、6により撮像された実画像内から移動体が抽出される。さらに、移動体移動状態検出部32により移動体の移動状態が検出され、移動体の到達時間t2算出部36により移動体の到達時間が算出さる。また、自車両の交差点通過に要する時間t1算出部54により自車両の交差点通過に要する時間が算出され、それらを基に仮想画像作成部38により仮想路面画像を表示する表示態様が規定される。そして、仮想画像作成部38により仮想路面画像が生成され、合成画像作成部26により、仮想路面画像を規定された表示態様で実画像に重畳してモニタ14に表示する。
Next, functions and effects according to the third embodiment of the present invention will be described.
According to the vehicle surrounding monitoring apparatus according to the embodiment of the present invention, it is possible to monitor a blind spot area in an area that spreads left and right in front of the driver. In the present embodiment,
次に、第3実施形態によれば、移動体の移動状態に応じて移動体の進行方向前方側の路面上に所定の仮想路面画像を重畳して表示するので、移動体の仮想表示に加えて、その移動体が進行している路面も仮想表示され、より確実に、移動体の存在する方向や移動状態を把握することが出来る。 Next, according to the third embodiment, since a predetermined virtual road surface image is superimposed and displayed on the road surface in front of the moving body in accordance with the moving state of the moving body, in addition to the virtual display of the moving body, Thus, the road surface on which the moving body is traveling is virtually displayed, and the direction and moving state in which the moving body exists can be grasped more reliably.
次に、第3実施形態によれば、車両及び移動体が向かう交差路の交差点までの自車両の到達時間及び移動体の到達時間に応じて移動体の進行方向前方側の路面上に所定の仮想路面表示を重畳して表示するので、自車両及び移動体が向かう交差路の交差点までの自車両の到達時間及び移動体の到達時間に応じて移動体の進行方向前方側の路面上に所定の仮想路面表示が重畳して表示され、より確実且つ正確に、移動体の存在する方向や移動状態を把握することが出来る。 Next, according to the third embodiment, on the road surface ahead of the moving body in the advancing direction according to the arrival time of the host vehicle to the intersection of the intersection where the vehicle and the moving body go and the arrival time of the moving body, Since the virtual road surface display is superimposed and displayed, it is predetermined on the road surface in front of the traveling direction of the moving body according to the arrival time of the own vehicle to the intersection of the intersection where the own vehicle and the moving body go and the arrival time of the moving body. The virtual road surface display is superimposed and displayed, and the direction and moving state in which the moving body exists can be grasped more reliably and accurately.
次に、第3実施形態によれば、仮想路面表示が、交差点までの自車両の到達時間及び移動体の到達時間の算出の確信度に応じて変更して表示されるので、交差点までの自車両の到達時間及び移動体の到達時間の算出の確信度に応じて仮想路面表示が変更して表示され、より確実且つ正確に、移動体の存在する方向や移動状態を把握することが出来る。なお、確信度としては、例えば、自律センサ情報、車車間通信情報、路車間通信情報、情報センター配信情報の順で確信度が高い等と決定することが好ましい。 Next, according to the third embodiment, the virtual road surface display is changed and displayed in accordance with the certainty of calculation of the arrival time of the own vehicle to the intersection and the arrival time of the moving body, so the own road to the intersection is displayed. The virtual road surface display is changed and displayed according to the certainty of calculation of the arrival time of the vehicle and the arrival time of the moving body, and the direction and moving state in which the moving body exists can be grasped more reliably and accurately. In addition, as a certainty factor, it is preferable to determine that a certainty factor is high in order of autonomous sensor information, vehicle-to-vehicle communication information, road-to-vehicle communication information, and information center distribution information, for example.
次に、第3実施形態によれば、移動体検出部30により複数の移動体が検出されたとき、仮想画像生成部38は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体に対して仮想路面表示を生成するので、複数の移動体が存在するとき、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成され、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
Next, according to the third embodiment, when the moving
次に、第3実施形態によれば、複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、複数の仮想画像をそれぞれ混同することなく、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。 Next, according to the third embodiment, when all the virtual images of a plurality of moving bodies are displayed, the plurality of moving bodies and their virtual images are displayed in an overlapping manner, and all the virtual images of the moving bodies are generated. Instead, a virtual image of the moving body that has the shortest distance to the host vehicle or the shortest arrival time to the host vehicle is generated, so that the plurality of virtual images are not confused with each other more reliably. It is possible to grasp the moving state of a moving body that may collide.
次に、第3実施形態によれば、合成画像作成部26は、仮想画像を移動体の実画像と識別可能に、例えば、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示したりして表示するので、ドライバーは仮想画像を仮想の画像として認識することが出来、実画像と仮想画像とを混同することがない。
Next, according to the third embodiment, the composite
次に、第3実施形態によれば、合成画像作成部26は、移動体の現時点での背景及び現時点での移動体に重畳して移動体の仮想画像又は仮想路面画像を表示するので、ドライバーは、実画像としては最新の現時点での映像を見ることが出来、それに対して仮想画像が表示されるので、より確実に周囲の状況と共に移動体の移動状態を把握することが出来る。
Next, according to the third embodiment, the composite
なお、上述した第1乃至第3実施形態においては、移動体として主に車両を想定して説明をしてきたが、移動体としては、四輪車、二輪車、自転車、歩行者を含むようにしても良い。また、静止物としては、停止している四輪車、停止している二輪車、立ち止まっている歩行者や自転車、路側物、建物などが挙げられる。 In the first to third embodiments described above, the description has been given mainly assuming a vehicle as a moving body, but the moving body may include a four-wheeled vehicle, a two-wheeled vehicle, a bicycle, and a pedestrian. . In addition, examples of the stationary object include a stopped four-wheeled vehicle, a stopped two-wheeled vehicle, a stationary pedestrian and bicycle, a roadside object, and a building.
1 車両
2、4、6 監視カメラ
7 レーザレーダ
10 車速センサ
12 GPS装置
13 ナビゲーション装置
14 画像表示モニタ
15 スピーカ
18 ECU
DESCRIPTION OF SYMBOLS 1
Claims (18)
上記死角領域の実画像を撮像するように車両の前方部に設けられた実画像撮像手段と、
この実画像撮像手段により撮像された実画像内から移動体を抽出し、この移動体の移動状態を検出する移動体検出手段と、
この移動体検出手段で検出された移動体の移動状態を表すような所定の仮想画像を表示するためにその所定の仮想画像の表示態様を規定する仮想画像規定手段と、
上記移動体の仮想画像を上記仮想画像規定手段により規定される表示態様で上記実画像に重畳して表示する表示手段と、
を有することを特徴とする車両用周囲監視装置。 A vehicle surrounding monitoring device that monitors a blind spot area in an area that extends from side to side in front of a driver,
Real image capturing means provided at the front of the vehicle so as to capture a real image of the blind spot area;
A moving body detecting means for extracting a moving body from the real image captured by the real image capturing means and detecting a moving state of the moving body;
Virtual image defining means for defining a display mode of the predetermined virtual image in order to display a predetermined virtual image representing the moving state of the moving object detected by the moving object detecting means;
Display means for superimposing and displaying the virtual image of the moving body on the real image in a display mode defined by the virtual image defining means;
A vehicle surrounding monitoring device characterized by comprising:
上記実画像撮像手段は、車両の前方端に設けられ、車両が交差路に差し掛かるとき、その車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像する請求項1に記載の車両用周囲監視装置。 The driver's blind spot area is a blind spot area around the intersection of the intersection on the front side of the vehicle,
The said real image imaging means is provided in the front end of a vehicle, and when a vehicle approaches an intersection, the real image around the intersection of the intersection which can be imaged from the front end of the vehicle is imaged. Vehicle surrounding monitoring device.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008071872A JP2009231938A (en) | 2008-03-19 | 2008-03-19 | Surrounding monitoring device for vehicle |
US12/350,480 US8054201B2 (en) | 2008-03-19 | 2009-01-08 | Surroundings monitoring device for vehicle |
EP09003114A EP2103485A3 (en) | 2008-03-19 | 2009-03-04 | Surroundings monitoring device, method and computer program product for a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008071872A JP2009231938A (en) | 2008-03-19 | 2008-03-19 | Surrounding monitoring device for vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009231938A true JP2009231938A (en) | 2009-10-08 |
Family
ID=41246898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008071872A Abandoned JP2009231938A (en) | 2008-03-19 | 2008-03-19 | Surrounding monitoring device for vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009231938A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012222776A (en) * | 2011-04-14 | 2012-11-12 | Isuzu Motors Ltd | Image processing apparatus, image processing method, and driving support system |
JP2014021770A (en) * | 2012-07-19 | 2014-02-03 | Denso Corp | Onboard acoustic apparatus and program |
JP2015138441A (en) * | 2014-01-23 | 2015-07-30 | 株式会社デンソー | Driving support device |
JP2016088158A (en) * | 2014-10-30 | 2016-05-23 | 本田技研工業株式会社 | Periphery monitoring apparatus |
WO2016185691A1 (en) * | 2015-05-20 | 2016-11-24 | 株式会社デンソー | Image processing apparatus, electronic mirror system, and image processing method |
JP2017102928A (en) * | 2015-12-03 | 2017-06-08 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | Detection of inclination of two wheeler |
JP2018037001A (en) * | 2016-09-02 | 2018-03-08 | 株式会社デンソー | Vehicle driving assist system |
WO2019004078A1 (en) * | 2017-06-27 | 2019-01-03 | パナソニックIpマネジメント株式会社 | Peripheral image display device and display control device |
WO2019044185A1 (en) * | 2017-08-28 | 2019-03-07 | 株式会社デンソー | Video output device, video generation program, and non-transitory tangible computer-readable medium |
JP2021060720A (en) * | 2019-10-04 | 2021-04-15 | 株式会社豊田自動織機 | Object detection device |
CN112744230A (en) * | 2019-10-29 | 2021-05-04 | 三菱电机株式会社 | Vehicle rear side monitoring device |
-
2008
- 2008-03-19 JP JP2008071872A patent/JP2009231938A/en not_active Abandoned
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012222776A (en) * | 2011-04-14 | 2012-11-12 | Isuzu Motors Ltd | Image processing apparatus, image processing method, and driving support system |
JP2014021770A (en) * | 2012-07-19 | 2014-02-03 | Denso Corp | Onboard acoustic apparatus and program |
US9451380B2 (en) | 2012-07-19 | 2016-09-20 | Denso Corporation | Apparatus and method for localizing sound image for vehicle's driver |
JP2015138441A (en) * | 2014-01-23 | 2015-07-30 | 株式会社デンソー | Driving support device |
JP2016088158A (en) * | 2014-10-30 | 2016-05-23 | 本田技研工業株式会社 | Periphery monitoring apparatus |
WO2016185691A1 (en) * | 2015-05-20 | 2016-11-24 | 株式会社デンソー | Image processing apparatus, electronic mirror system, and image processing method |
JP2016220011A (en) * | 2015-05-20 | 2016-12-22 | 株式会社デンソー | Image processing apparatus, electronic mirror system, and image processing method |
JP2022171774A (en) * | 2015-12-03 | 2022-11-11 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Detection of inclination of two wheeler |
JP2017102928A (en) * | 2015-12-03 | 2017-06-08 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | Detection of inclination of two wheeler |
JP7553520B2 (en) | 2015-12-03 | 2024-09-18 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Tilt detection for motorcycles |
JP7179440B2 (en) | 2015-12-03 | 2022-11-29 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Tilt detection in motorcycles |
JP2018037001A (en) * | 2016-09-02 | 2018-03-08 | 株式会社デンソー | Vehicle driving assist system |
WO2019004078A1 (en) * | 2017-06-27 | 2019-01-03 | パナソニックIpマネジメント株式会社 | Peripheral image display device and display control device |
JP2019041334A (en) * | 2017-08-28 | 2019-03-14 | 株式会社Soken | Video output device and video generation program |
WO2019044185A1 (en) * | 2017-08-28 | 2019-03-07 | 株式会社デンソー | Video output device, video generation program, and non-transitory tangible computer-readable medium |
JP2021060720A (en) * | 2019-10-04 | 2021-04-15 | 株式会社豊田自動織機 | Object detection device |
JP7298426B2 (en) | 2019-10-04 | 2023-06-27 | 株式会社豊田自動織機 | object detector |
CN112744230A (en) * | 2019-10-29 | 2021-05-04 | 三菱电机株式会社 | Vehicle rear side monitoring device |
CN112744230B (en) * | 2019-10-29 | 2024-07-23 | 三菱电机株式会社 | Vehicle rear side monitoring device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009231938A (en) | Surrounding monitoring device for vehicle | |
US11535155B2 (en) | Superimposed-image display device and computer program | |
JP4774849B2 (en) | Vehicle obstacle display device | |
JP5536125B2 (en) | Image processing apparatus and method, and moving object collision prevention apparatus | |
US9507345B2 (en) | Vehicle control system and method | |
JP4862774B2 (en) | Driving support method and driving support device | |
JP6307895B2 (en) | Vehicle periphery monitoring device | |
US20110228980A1 (en) | Control apparatus and vehicle surrounding monitoring apparatus | |
JP2009226978A (en) | Vehicular circumference monitoring device | |
JP2015049842A (en) | Alert display device and alert display method | |
JP2008131648A (en) | Method and system for presenting video images | |
CN111273765B (en) | Vehicle display control device, vehicle display control method, and storage medium | |
JP2008250503A (en) | Operation support device | |
JPWO2018207303A1 (en) | In-vehicle surveillance camera device | |
JP2017536621A (en) | Method for operating driver assistance system for motor vehicle, driver assistance system, and motor vehicle | |
JP2009184554A (en) | Safe travel assisting system | |
JP2009231937A (en) | Surroundings monitoring device for vehicle | |
JP2007034988A (en) | Obstacle avoidance warning device for vehicle | |
JP2019120994A (en) | Display control device and display control method | |
JP2008151507A (en) | Apparatus and method for merge guidance | |
WO2019193928A1 (en) | Vehicle system, spatial spot estimation method, and spatial spot estimation device | |
JP6396672B2 (en) | Information display device and information display method | |
JP2020065141A (en) | Vehicle overhead image generation system and method thereof | |
JP6375633B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP4986070B2 (en) | Ambient monitoring device for vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111216 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20111228 |