JP2009231938A - Surrounding monitoring device for vehicle - Google Patents

Surrounding monitoring device for vehicle Download PDF

Info

Publication number
JP2009231938A
JP2009231938A JP2008071872A JP2008071872A JP2009231938A JP 2009231938 A JP2009231938 A JP 2009231938A JP 2008071872 A JP2008071872 A JP 2008071872A JP 2008071872 A JP2008071872 A JP 2008071872A JP 2009231938 A JP2009231938 A JP 2009231938A
Authority
JP
Japan
Prior art keywords
vehicle
moving body
image
moving
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2008071872A
Other languages
Japanese (ja)
Inventor
Tomokazu Okuki
友和 奥木
Masaki Chiba
正基 千葉
Kazuyuki Okuda
一之 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2008071872A priority Critical patent/JP2009231938A/en
Priority to US12/350,480 priority patent/US8054201B2/en
Priority to EP09003114A priority patent/EP2103485A3/en
Publication of JP2009231938A publication Critical patent/JP2009231938A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a surrounding monitoring device for a vehicle, enabling a user to easily comprehend the moving state of a moving object in an image of a blind area. <P>SOLUTION: The surrounding monitoring device for vehicle is used to monitor a blind area in an area which extends on right and left on the front viewed from a driver. The monitoring device has: real image pickup means 2, 4, 6 provided on the front of a vehicle so as to pick up real images of a blind area; a moving object detecting means 32 for extracting a moving object from the real image picked up by the real image pickup means and detecting the moving state of the moving object; an imaginary image generating means 38 for generating an imaginary image of the moving object detected by the moving object detecting means; an imaginary image defining means 38 for defining the position and size showing the imaginary image of the moving object generated by the imaginary image generating means so as to show the moving state of the moving object; and a display means 26 for displaying the imaginary image of the moving object so as to be overlapped on the actual image in the position and size defined by the imaginary image defining means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両用周囲監視装置に係り、特に、ドライバーの死角領域を監視する車両用周囲監視装置に関する。   The present invention relates to a vehicle surrounding monitoring device, and more particularly to a vehicle surrounding monitoring device that monitors a blind spot area of a driver.

従来、車両前方側における左右方向の死角映像を撮像してモニタ表示する装置が知られている(特許文献1、特許文献2)。   2. Description of the Related Art Conventionally, devices that capture and display a blind spot image in the left-right direction on the front side of a vehicle are known (Patent Documents 1 and 2).

特開2007−172462号公報JP 2007-172462 A 特開平11−338074号公報JP 11-338074 A

上述したような装置は、例えばモニタ上に左右方向の死角領域がそのまま表示されるだけのものである。そのような表示をドライバーが見て死角領域の状況を判断するのであるが、例えば左右方向から接近してくる車両などの移動体がある場合などに、静止物との区別が付きにくい上、どの程度の距離でどの程度の速さで存在する車両であるのかが分かりにくいものであった。   The apparatus as described above merely displays a blind spot area in the left-right direction as it is on a monitor, for example. The driver looks at such a display to determine the status of the blind spot area.For example, when there is a moving body such as a vehicle approaching from the left and right, it is difficult to distinguish it from a stationary object. It was difficult to understand how fast the vehicle was at a certain distance.

本発明は、上述した従来技術の問題点を解決するためになされたものであり、死角領域の画像内の移動体の移動状況を把握し易い車両用周囲監視装置を提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and it is an object of the present invention to provide a vehicle surrounding monitoring device that makes it easy to grasp the moving state of a moving object in an image of a blind spot area. .

上記の目的を達成するために本発明によれば、ドライバーから見て前方で左右に広がる領域内の死角領域を監視する車両用周囲監視装置であって、死角領域の実画像を撮像するように車両の前方部に設けられた実画像撮像手段と、この実画像撮像手段により撮像された実画像内から移動体を抽出し、この移動体の移動状態を検出する移動体検出手段と、この移動体検出手段で検出された移動体の移動状態を表すような所定の仮想画像を表示するためにその所定の仮想画像の表示態様を規定する仮想画像規定手段と、移動体の仮想画像を仮想画像規定手段により規定される表示態様で実画像に重畳して表示する表示手段と、を有することを特徴としている。   In order to achieve the above object, according to the present invention, there is provided a vehicle surrounding monitoring device for monitoring a blind spot area in an area that spreads left and right in front of a driver so as to capture a real image of the blind spot area. Real image capturing means provided in the front part of the vehicle, moving body detecting means for extracting a moving body from the real image captured by the real image capturing means, and detecting the moving state of the moving body, and the movement Virtual image defining means for defining a display mode of the predetermined virtual image in order to display a predetermined virtual image representing the moving state of the moving object detected by the body detecting means, and the virtual image of the moving object as a virtual image Display means for superimposing and displaying the actual image in a display mode defined by the defining means.

このように構成された本発明においては、移動体の仮想画像が、その移動状態を表すような表示態様で実画像に重畳して表示されるので、ドライバーが移動体の移動状態を認識し易くなり、静止物との区別が容易であると共に死角領域の画像内の移動体の移動状況を把握し易い。   In the present invention configured as described above, the virtual image of the moving object is displayed so as to be superimposed on the real image in a display mode that represents the moving state, so that the driver can easily recognize the moving state of the moving object. Therefore, it is easy to distinguish the moving object from the stationary object and to easily grasp the moving state of the moving body in the image of the blind spot area.

また、本発明において、好ましくは、ドライバーの死角領域は車両の前方側の交差路の交差点の周辺の死角領域であり、実画像撮像手段は、車両の前方端に設けられ、車両が交差路に差し掛かるとき、その車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像する。
このように構成された本発明においては、衝突事故が多発する交差点周囲の左右領域の移動状況を容易に把握することが出来る。
In the present invention, preferably, the blind spot area of the driver is a blind spot area around the intersection of the intersection on the front side of the vehicle, and the real image capturing means is provided at the front end of the vehicle, and the vehicle is in the intersection. When approaching, a real image around the intersection of the intersection that can be imaged from the front end of the vehicle is captured.
In the present invention configured as described above, it is possible to easily grasp the movement state of the left and right regions around the intersection where collision accidents frequently occur.

また、本発明において、好ましくは、仮想画像規定手段は、移動体の移動状態として、その移動体の進行方向延長線上の所定時間後の推定到達位置に移動体の仮想画像が表示されるように移動体の仮想画像を表示する表示態様を規定する。
このように構成された本発明においては、仮想画像規定手段により移動体の進行方向延長線上の所定時間後の推定到達位置に移動体の仮想画像が規定され、これが、表示手段により実画像に重畳して表示されるので、所定時間後の移動体の位置を直感的に把握することが出来、ドライバーにとって、例えば自車両を発進させて良いかの判断をより容易にすることが出来る。
In the present invention, it is preferable that the virtual image defining means displays the moving object's virtual image at the estimated arrival position after a predetermined time on the extension line of the moving object as the moving state of the moving object. A display mode for displaying a virtual image of a moving object is defined.
In the present invention configured as described above, the virtual image of the moving object is defined by the virtual image defining means on the estimated arrival position after a predetermined time on the extension line of the moving object, and this is superimposed on the actual image by the display means. Therefore, the position of the moving body after a predetermined time can be grasped intuitively, and the driver can more easily determine, for example, whether or not the host vehicle can be started.

また、本発明において、好ましくは、さらに、所定時間に基づいてその表示された移動体の現在の位置からの到達予測時間の数値表示を移動体の仮想画像に合わせて表示する第2表示手段を有する。
このように構成された本発明においては、所定時間後の移動体の位置を数値による時間表示により、より直感的に把握することが出来る。
In the present invention, it is preferable that the second display means further displays a numerical display of a predicted arrival time from the current position of the displayed moving body based on a predetermined time in accordance with the virtual image of the moving body. Have.
In the present invention configured as described above, the position of the moving body after a predetermined time can be grasped more intuitively by the time display using numerical values.

また、本発明において、好ましくは、仮想画像規定手段は、移動体の移動状態として、その移動体が移動してきた過去の位置に移動体の仮想画像が等時間間隔で残像として表示されるように移動体の仮想画像を表示する表示態様を規定する。
このように構成された本発明においては、仮想画像規定手段により、移動体が移動してきた過去の位置に移動体の仮想画像が等時間間隔で残像として表示されるように移動体の仮想画像を表示する表示態様が規定され、これが、表示手段により実画像に重畳して表示されるので、移動体の現在までの移動状況を直感的に把握することが出来、ドライバーにとって、例えば自車両を発進させて良いかの判断をより容易にすることが出来る。
In the present invention, it is preferable that the virtual image defining means displays the moving image of the moving object as an afterimage at regular intervals at a past position where the moving object has moved. A display mode for displaying a virtual image of a moving object is defined.
In the present invention configured as described above, the virtual image of the moving body is displayed by the virtual image defining means so that the virtual image of the moving body is displayed as an afterimage at equal time intervals at the past position where the moving body has moved. The display mode to be displayed is defined, and this is displayed superimposed on the actual image by the display means, so that it is possible to intuitively grasp the moving state of the moving body up to the present, and for the driver, for example, start the own vehicle It is possible to make it easier to determine whether or not to allow it.

また、本発明において、好ましくは、さらに、等時間間隔の残像に合わせてベクトル表示を行う。
このように構成された本発明においては、等時間間隔の残像に合わせたベクトル表示により、移動体の現在までの移動状況を、より直感的に把握することが出来る。
In the present invention, it is preferable that vector display is further performed in accordance with afterimages at equal time intervals.
In the present invention configured as described above, it is possible to more intuitively understand the moving state of the moving body up to the present by the vector display in accordance with the afterimages at equal time intervals.

また、本発明において、好ましくは、表示手段は、移動体の仮想画像を、移動体の自車両からの距離が所定距離以上の遠距離にある場合に、所定距離より小さい場合よりも拡大して表示する。
このように構成された本発明においては、遠距離にある移動体の移動状態を容易に把握することが出来る。
In the present invention, it is preferable that the display unit enlarges the virtual image of the moving object when the distance from the own vehicle of the moving object is a predetermined distance or more than when the distance is smaller than the predetermined distance. indicate.
In the present invention configured as described above, it is possible to easily grasp the moving state of the moving body at a long distance.

また、本発明において、好ましくは、表示手段は、移動体の仮想画像の表示を、移動体の自車両からの距離が所定距離範囲内であるか、或いは、移動体の自車両への到達時間が所定時間範囲内にあるときに行う。
このように構成された本発明においては、例えば自車両を発進させるか停止したままにするかの判断を迷うような所定距離内に移動体が存在する場合に、ドライバーにより確実に移動体の移動状態を把握させることが出来る。
In the present invention, it is preferable that the display means displays the virtual image of the moving object when the distance of the moving object from the own vehicle is within a predetermined distance range or the arrival time of the moving object at the own vehicle. Is performed within a predetermined time range.
In the present invention configured as described above, for example, when there is a moving body within a predetermined distance that makes it difficult to determine whether to start or stop the host vehicle, the driver surely moves the moving body. The state can be grasped.

また、本発明において、好ましくは、表示手段は、移動体の仮想画像を上記移動体の実体および実状と識別可能に表示する。
このように構成された本発明においては、ドライバーにとって移動体としての視認が容易である。
In the present invention, it is preferable that the display unit displays the virtual image of the moving body so as to be distinguishable from the substance and the actual state of the moving body.
In the present invention configured as described above, it is easy for the driver to visually recognize the moving object.

また、本発明において、好ましくは、移動体検出手段により複数の移動体が検出されたとき、仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像の表示態様を規定し、表示手段は、その規定された仮想画像を実画像に重畳して表示する。
このように構成された本発明においては、複数の移動体が存在するとき、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that when a plurality of moving bodies are detected by the moving body detecting means, the virtual image defining means is the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle. The display mode of the virtual image is defined, and the display means displays the defined virtual image superimposed on the actual image.
In the present invention configured as described above, when there are a plurality of moving objects, a virtual image of the moving object having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle is generated. It is possible to reliably grasp the moving state of a moving body that may collide with the host vehicle.

また、本発明において、好ましくは、移動体検出手段により複数の移動体が検出され、表示手段が複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像の表示態様を規定し、表示手段は、その規定された仮想画像を実画像に重畳して表示する。
このように構成された本発明においては、複数の移動体が存在し、それらの移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、それらの移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、ドライバーが画像を見て複数の移動体の仮想画像をそれぞれ混同することなく、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that a plurality of moving bodies are detected by the moving body detecting means, and when the display means displays all the virtual images of the plurality of moving bodies, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. The virtual image defining means defines the display mode of the virtual image of the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle, and the display means defines the defined virtual image. Is superimposed on the actual image and displayed.
In the present invention configured as described above, when there are a plurality of moving bodies and all the virtual images of the moving bodies are displayed, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. Instead of generating all the virtual images of the moving object, a virtual image of the moving object having the shortest distance to the host vehicle or the shortest arrival time to the host vehicle is generated. Without being confused with the virtual images of the moving bodies, it is possible to grasp the moving state of the moving body that may collide with the host vehicle more reliably.

また、本発明において、好ましくは、仮想画像規定手段は、移動体の移動状態を表すために、移動体の進行方向前方側の路面上に移動体の移動状態を示す仮想路面画像を表示するようにその表示態様を規定する。
このように構成された本発明においては、移動体が進行している路面に、移動体の移動状態を示すように仮想路面画像が仮想表示されるので、より確実に、移動体の存在する方向や移動状態を把握することが出来る。
In the present invention, it is preferable that the virtual image defining means displays a virtual road surface image indicating the moving state of the moving body on the road surface in front of the moving body in order to represent the moving state of the moving body. Stipulates the display mode.
In the present invention configured as described above, the virtual road surface image is virtually displayed on the road surface on which the moving body is traveling so as to indicate the moving state of the moving body. And the movement state can be grasped.

また、本発明において、好ましくは、仮想画像規定手段は、自車両及び移動体が向かう交差路の交差点までの自車両の到達時間及び移動体の到達時間に応じて、或いは、自車両及び移動体が向かう交差路の交差点での自車両の通過時間及び移動体の到達時間に応じて移動体の進行方向前方側の路面上に所定の仮想路面画像を表示するようにその表示態様を規定する。
このように構成された本発明においては、自車両及び移動体が向かう交差路の交差点までの自車両の到達時間及び移動体の到達時間に応じて移動体の進行方向前方側の路面上に所定の仮想路面表示が重畳して表示されるので、より確実且つ正確に、移動体の存在する方向や移動状態を把握することが出来る。
In the present invention, it is preferable that the virtual image defining means corresponds to the arrival time of the own vehicle and the arrival time of the moving body up to the intersection of the intersection where the own vehicle and the moving body are directed, or the own vehicle and the moving body. The display mode is defined so that a predetermined virtual road surface image is displayed on the road surface ahead of the moving body in the traveling direction according to the passing time of the host vehicle and the arrival time of the moving body at the intersection of the crossing road.
In the present invention configured as described above, predetermined on the road surface on the front side in the traveling direction of the moving body according to the arrival time of the own vehicle to the intersection of the intersection where the own vehicle and the moving body go and the arrival time of the moving body Since the virtual road surface display is superimposed and displayed, the direction and moving state in which the moving body exists can be grasped more reliably and accurately.

また、本発明において、好ましくは、仮想画像規定手段は、仮想路面表示を、交差点までの自車両の到達時間及び移動体の到達時間の算出の確信度に応じて仮想路面画像を変更するようにその表示態様を規定する。
このように構成された本発明においては、交差点までの自車両の到達時間及び移動体の到達時間の算出の確信度に応じて仮想路面表示が変更して表示されるので、より確実且つ正確に、移動体の存在する方向や移動状態を把握することが出来る。なお、確信度としては、例えば、自律センサ情報、車車間通信情報、路車間通信情報、情報センター配信情報の順で確信度が高い等と決定することが出来る。
In the present invention, it is preferable that the virtual image defining unit changes the virtual road surface display according to the certainty of the calculation of the arrival time of the host vehicle and the arrival time of the moving body. The display mode is defined.
In the present invention configured as described above, the virtual road surface display is changed and displayed in accordance with the certainty of calculation of the arrival time of the own vehicle to the intersection and the arrival time of the moving object, and thus more reliably and accurately. It is possible to grasp the direction and moving state of the moving body. As the certainty factor, for example, it can be determined that the certainty factor is high in the order of autonomous sensor information, inter-vehicle communication information, road-to-vehicle communication information, and information center distribution information.

また、本発明において、好ましくは、移動体検出手段により複数の移動体が検出されたとき、仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体に対して仮想路面画像の表示態様を規定し、表示手段は、その規定された仮想路面画像のみを仮想画像として実画像に重畳して表示する。
このように構成された本発明においては、複数の移動体が存在するとき、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that when a plurality of moving bodies are detected by the moving body detecting means, the virtual image defining means is the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle. The display mode of the virtual road surface image is defined for the image, and the display means displays only the defined virtual road surface image as a virtual image superimposed on the real image.
In the present invention configured as described above, when there are a plurality of moving objects, a virtual image of the moving object having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle is generated. It is possible to reliably grasp the moving state of a moving body that may collide with the host vehicle.

また、本発明において、好ましくは、移動体検出手段により複数の移動体が検出され、表示手段が複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体に対して仮想路面画像の表示態様を規定し、表示手段は、その規定された仮想路面画像のみを仮想画像として実画像に重畳して表示する。
このように構成された本発明においては、複数の移動体が存在し、それらの移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、それらの移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、複数の仮想が表示されることによりドライバーがそれらの仮想画像を混同することを防止することが出来、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that a plurality of moving bodies are detected by the moving body detecting means, and when the display means displays all the virtual images of the plurality of moving bodies, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. The virtual image defining means defines the display mode of the virtual road surface image for the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle, and the display means Only the virtual road surface image is superimposed and displayed on the real image as a virtual image.
In the present invention configured as described above, when there are a plurality of moving bodies and all the virtual images of the moving bodies are displayed, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. Instead of generating all the virtual images of the moving object, a virtual image of the moving object having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle is generated, so a plurality of virtual images are displayed. Thus, the driver can be prevented from confusing those virtual images, and the moving state of the moving body that may collide with the host vehicle can be grasped more reliably.

また、本発明において、好ましくは、表示手段は、仮想画像を移動体の実画像と識別可能に表示する。
このように構成された本発明においては、ドライバーは仮想画像を仮想の画像として認識することが出来、実画像と仮想画像とを混同することがない。
In the present invention, it is preferable that the display unit displays the virtual image so as to be distinguishable from the real image of the moving object.
In the present invention configured as described above, the driver can recognize the virtual image as a virtual image, and the real image and the virtual image are not confused.

また、本発明において、好ましくは、表示手段は、移動体の現時点での背景及び現時点での移動体の実画像に重畳して移動体の仮想画像又は仮想路面画像を表示する。
このように構成された本発明においては、ドライバーとしては実画像としては最新の現時点での映像を見ることが出来、それに対して仮想画像が表示されるので、より確実に周囲の状況と共に移動体の移動状態を把握することが出来る。
In the present invention, it is preferable that the display unit displays a virtual image or a virtual road surface image of the moving body superimposed on the current background of the moving body and the actual image of the moving body.
In the present invention configured as described above, the driver can see the latest video at the present time as a real image, and a virtual image is displayed on the real image. The movement state of can be grasped.

本発明の車両用周囲監視装置によれば、死角領域の画像内の移動体の移動状況を把握し易い。   According to the vehicle surrounding monitoring apparatus of the present invention, it is easy to grasp the moving state of the moving body in the image of the blind spot area.

以下、添付図面を参照しながら本発明の好ましい実施の形態について説明する。
先ず、図1及び図2により、本発明の第1乃至第3実施形態に共通の各実施形態による車両用周囲監視装置の基本構成を説明する。図1は、本発明の第1乃至第3実施形態による車両用周囲監視装置が適用された車両の全体構成図であり、図2は、本発明の第1乃至第3実施形態による車両用周囲監視装置のカメラによる撮像範囲の一例(a)及び撮像された映像の一例(b)を示す図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
First, with reference to FIGS. 1 and 2, a basic configuration of a vehicle surrounding monitoring apparatus according to each embodiment common to the first to third embodiments of the present invention will be described. FIG. 1 is an overall configuration diagram of a vehicle to which a vehicle surrounding monitoring apparatus according to first to third embodiments of the present invention is applied, and FIG. 2 is a vehicle surrounding according to first to third embodiments of the present invention. It is a figure which shows an example (a) of the imaging range by the camera of a monitoring apparatus, and an example (b) of the imaged image.

図1に示すように、車両1は、左方監視カメラ2、前方監視カメラ4及び右方監視カメラ6を有し、これらのカメラは、車両の前端部に取り付けられている。これらのカメラは、広角レンズ使用のCCDカメラであり、例えば、図2(a)に示すような範囲を撮像し、図2(b)に示すような画像を得ることが出来る。   As shown in FIG. 1, the vehicle 1 has a left monitoring camera 2, a front monitoring camera 4, and a right monitoring camera 6, and these cameras are attached to the front end of the vehicle. These cameras are CCD cameras using a wide-angle lens, and for example, can capture a range as shown in FIG. 2A and obtain an image as shown in FIG.

また、車両1は、車速センサ10、GPS装置12、ナビゲーション装置13、画像表示モニタ14及びスピーカ15を有している。モニタ14は、運転席16のドライバーが見ることが出来る位置に配置されている。さらに、車両1は、ECU18を有し、このECU18には、上述した各カメラ2、4、6、車速センサ10、GPS装置12からの信号が入力され、所定の画像をモニタ14に表示し、また、所定の音をスピーカ15で発する。   The vehicle 1 also has a vehicle speed sensor 10, a GPS device 12, a navigation device 13, an image display monitor 14, and a speaker 15. The monitor 14 is arranged at a position where the driver of the driver's seat 16 can see. Further, the vehicle 1 has an ECU 18. The ECU 18 receives signals from the cameras 2, 4 and 6, the vehicle speed sensor 10, and the GPS device 12, and displays a predetermined image on the monitor 14. A predetermined sound is emitted from the speaker 15.

さらに、車両1は、他車両との距離を検出するためのレーザレーダ7を有する。なお、レーザレーダ7の代わりに、車車間通信により他車両との距離を把握するようにしたり、路車間通信により他車両との距離を把握するようにしても良い。   Furthermore, the vehicle 1 has a laser radar 7 for detecting a distance from another vehicle. Instead of the laser radar 7, the distance from the other vehicle may be grasped by vehicle-to-vehicle communication, or the distance from the other vehicle may be grasped by road-to-vehicle communication.

次に、図3により、ドライバーによる交差路進入時における運転行動を説明する。図3は、ドライバーによる交差路進入時における運転行動を説明するための図である。
まず、交差路手前では一時停止する。その後、徐行しながら鼻出し位置に進み、カメラ出し位置(図2(a)参照)に進み、そして、頭出し位置(図4参照)に進む。ここで、鼻出し位置、カメラ出し位置及び頭出し位置について説明する。図4は、自車両の頭出し位置を説明するための道路及び車両の俯瞰図である。
Next, with reference to FIG. 3, driving behavior when a driver enters an intersection will be described. FIG. 3 is a diagram for explaining driving behavior when a driver enters an intersection.
First, stop before the intersection. After that, the vehicle proceeds slowly to the nasal position, proceeds to the camera position (see FIG. 2A), and proceeds to the cue position (see FIG. 4). Here, the nasal position, the camera position and the cue position will be described. FIG. 4 is an overhead view of the road and the vehicle for explaining the cueing position of the own vehicle.

先ず、鼻出し位置は、他車や歩行者に自車両の存在を知らせる位置である。カメラ出し位置は、図2(a)に示すように、車両の先端が交差路内に入った状態であり、ドライバーからは交差路を見通せないが、車両の前端部に取り付けられたカメラ2、4、6により、交差路内を見通せる位置である。頭出し位置は、図4に示すように、ドライバーが座る運転席が交差路内に入ったときの位置であり、ドライバーが直接に、自分の目で交差路内を見通せるようになった位置である。   First, the nose out position is a position that informs other vehicles and pedestrians of the presence of the host vehicle. As shown in FIG. 2 (a), the camera exit position is a state in which the front end of the vehicle enters the intersection, and the driver cannot see the intersection, but the camera 2 attached to the front end of the vehicle, 4 and 6 are positions where the intersection can be seen. As shown in Fig. 4, the cueing position is the position when the driver's seat where the driver sits enters the intersection, and the driver can directly see inside the intersection with his own eyes. is there.

本発明の実施形態による車両用周囲監視装置では、これらの一時停止から頭出し位置までの間に後述する仮想画像を表示するようにしている。そして、頭出し位置になると、仮想画像を点滅させ、そして、頭出し位置を通過後には、仮想画像の表示を中止する。   In the vehicle surrounding monitoring apparatus according to the embodiment of the present invention, a virtual image to be described later is displayed between the temporary stop and the cueing position. When the cueing position is reached, the virtual image blinks, and after passing through the cueing position, the display of the virtual image is stopped.

次に、図5により、本発明第1乃至第3実施形態に共通の各実施形態による車両用周囲監視装置の仮想画像表示処理を行うか否かを決定するための制御フローを説明する。図5は、本発明の第1乃至第3実施形態による車両用周囲監視装置の距離把握用仮想画像を表示するか否かの処理を示すフローチャートである。
図5に示すように、S1において、仮想画像処理実施判定部52(図6、図9、図13参照)が、GPS12からの信号及びナビゲーション装置13からの信号に基づいて、自車両が交差点近傍にいるか否かを判定する。次に、S2において、仮想画像処理実施判定部52(図6、図9、図13参照)が、車速センサ10からの信号に基づいて、車速がV1より小さいか否かを判定する。車速V1は、自車両が交差点等に近づいて減速し、ドライバーがモニタ14を見ても安全であると判断出来る値である。
Next, referring to FIG. 5, a control flow for determining whether or not to perform the virtual image display processing of the vehicle surrounding monitoring apparatus according to each embodiment common to the first to third embodiments of the present invention will be described. FIG. 5 is a flowchart showing a process for determining whether or not to display a distance grasping virtual image of the vehicle surrounding monitoring apparatus according to the first to third embodiments of the present invention.
As shown in FIG. 5, in S <b> 1, the virtual image processing execution determination unit 52 (see FIGS. 6, 9, and 13) determines that the subject vehicle is near the intersection based on the signal from the GPS 12 and the signal from the navigation device 13. It is determined whether or not. Next, in S <b> 2, the virtual image processing execution determination unit 52 (see FIGS. 6, 9, and 13) determines whether the vehicle speed is lower than V <b> 1 based on the signal from the vehicle speed sensor 10. The vehicle speed V1 is a value that allows the driver to determine that the vehicle is safe even when the vehicle approaches the intersection and decelerates and the driver looks at the monitor 14.

車速がV1より小さく車両が減速した状態であれば、S3に進み、S3において、画像補正部24からの画像信号に基づいて、まず、実画像を表示する。次に、S4に進み、仮想画像処理実施判定部52(図6、図9、図13参照)が、車速がV2より小さいか否かを判定する。車速V2は、自車両がほぼ停止状態に近い或いは停止したと判断出来る値である。車速がV2より小さい場合は、自車両が一時停止したものとして、S5の、距離把握用仮想画像表示処理に進む。上述したS1において交差点近傍ではなく、S2において車速がV1以上であり、S4において車速がV2以上である、とそれぞれ判定された場合には、S5の距離把握用仮想画像表示処理には進まない。   If the vehicle speed is less than V1 and the vehicle is decelerated, the process proceeds to S3, where an actual image is first displayed based on the image signal from the image correction unit 24. Next, proceeding to S4, the virtual image processing execution determination unit 52 (see FIGS. 6, 9, and 13) determines whether or not the vehicle speed is lower than V2. The vehicle speed V2 is a value at which it can be determined that the host vehicle is almost stopped or stopped. When the vehicle speed is lower than V2, it is determined that the host vehicle is temporarily stopped, and the process proceeds to a distance grasping virtual image display process in S5. If it is determined that the vehicle speed is not less than the intersection in S1 and the vehicle speed is V1 or more in S2 and the vehicle speed is V2 or more in S4, the process does not proceed to the distance grasping virtual image display process in S5.

次に、図6により、本発明の第1実施形態による車両用周囲監視装置の構成を説明する。図6は、本発明の第1実施形態による車両用周囲監視装置の構成を示すブロック図である。   Next, the configuration of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention will be described with reference to FIG. FIG. 6 is a block diagram showing the configuration of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention.

この第1実施形態では、実際に存在する移動体(交差点に向かってくる他車両など)の実映像に重畳して、その移動体が所定時間後にどのような位置にいるかを仮想車両を表示することにより、ドライバーが移動体の移動状態を認識するようにしたものである。これにより、例えばドライバーが自車両を発進させて良いか否かの判断を助けることが出来る。   In the first embodiment, a virtual vehicle is displayed on a real image of a moving body that actually exists (such as another vehicle that is approaching an intersection) and the position of the moving body after a predetermined time. Thus, the driver recognizes the moving state of the moving body. Thereby, for example, it is possible to help the driver determine whether or not to start the host vehicle.

図6に示すように、周辺監視センサ20として構成される各カメラ2、4、6からの画像信号が、ECU18内の画像取得部22に入力される。入力された画像信号は広角画像であり歪みが生じているので、その画像が画像補正部24で補正される。この画像補正部24からの画像信号は、合成画像作成部26に実画像として入力される。   As shown in FIG. 6, image signals from the cameras 2, 4, 6 configured as the periphery monitoring sensor 20 are input to the image acquisition unit 22 in the ECU 18. Since the input image signal is a wide-angle image and is distorted, the image correction unit 24 corrects the image. The image signal from the image correction unit 24 is input to the composite image creation unit 26 as a real image.

移動体検出部30では、画像補正部24からの入力画像内に移動体、例えば、他車両やオートバイや自転車などが存在するか否かを検出する。移動体が存在しない場合には、合成画像作成部26で後述する仮想画像を表示しないので、それを指示する信号を合成画像作成部26に送り、移動体が存在する場合には合成画像作成部26で後述する仮想画像を表示するので、移動体が存在することを指示する信号を合成画像作成部26に送る。合成画像作成部26で作成される合成画像は、モニタ14で表示される。   The moving body detection unit 30 detects whether or not a moving body such as another vehicle, a motorcycle, or a bicycle is present in the input image from the image correction unit 24. When the moving body does not exist, the composite image creation unit 26 does not display a virtual image to be described later, so a signal instructing the virtual image is sent to the composite image creation unit 26, and when the mobile body exists, the composite image creation unit Since a virtual image, which will be described later, is displayed at 26, a signal instructing that a moving body is present is sent to the composite image creating unit 26. The composite image created by the composite image creation unit 26 is displayed on the monitor 14.

また、移動体移動状態検出部32では、移動体検出部30から、移動体が存在する旨の信号を受けて、レーザレーダ7により、自車両に接近してくる移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出する。なお、レーザレーダ7の代わりに、車車間通信或いは路車間通信により、移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出するようにしても良い。   Further, the moving body moving state detection unit 32 receives a signal indicating that the moving body exists from the moving body detection unit 30, and the distance from the own vehicle to the moving body approaching the own vehicle by the laser radar 7. The speed and the traveling direction are detected, and the arrival time to the host vehicle is calculated. Instead of the laser radar 7, the distance, speed, and traveling direction of the moving body from the own vehicle are detected by inter-vehicle communication or road-to-vehicle communication, and the arrival time to the own vehicle is calculated. good.

また、移動体の所定時間後の移動位置推定部34では、所定時間(本実施形態では、10秒毎)の後の移動体の位置を推定する。
そして、仮想画像作成部38では、移動体の所定時間後の移動位置推定部34で推定された位置に移動体が表示されるように仮想画像が作成される。作成された仮想画像は、合成画像作成部26で各カメラ2、4、6で得られる実画像に重畳され、モニタ14に表示する。
The moving position estimation unit 34 after a predetermined time of the moving body estimates the position of the moving body after a predetermined time (in this embodiment, every 10 seconds).
The virtual image creating unit 38 creates a virtual image so that the moving body is displayed at the position estimated by the moving position estimating unit 34 after a predetermined time of the moving body. The created virtual image is superimposed on the actual image obtained by each camera 2, 4, 6 by the composite image creation unit 26 and displayed on the monitor 14.

次に、ECU18内には、頭出し位置判定部50が存在する。頭出し位置判定部50では、車両が交差路内に頭出しした(図4参照)ことを判定するものである。頭出しが行われていれば、既にドライバー自身で交差路を見通せることから、仮想画像作成部38における仮想画像の作成を中止するように所定の信号を送り、モニタ14に仮想表示がされないようにする。   Next, a cue position determination unit 50 exists in the ECU 18. The cueing position determination unit 50 determines that the vehicle has cueed in the intersection (see FIG. 4). If the cue has been performed, the driver can already see the intersection, so a predetermined signal is sent to stop the virtual image creation in the virtual image creation unit 38 so that the virtual display is not performed on the monitor 14. To do.

また、ECU18には、仮想画像処理実施判定部52が存在する。この仮想画像処理実施判定部52は、ナビゲーション装置13から得る地図データ、GPS装置12から得られる位置データ、及び、車速センサ10から得られる車速データを基に、車両が交差点近傍に位置しているか否か及び一時停止しているか否かを判定するものである。後述するように、交差点近傍であり一時停止したときには、仮想画像を表示するために、合成画像作成部26に所定の信号を送る。   Further, the ECU 18 includes a virtual image processing execution determination unit 52. The virtual image processing execution determination unit 52 determines whether the vehicle is located near the intersection based on the map data obtained from the navigation device 13, the position data obtained from the GPS device 12, and the vehicle speed data obtained from the vehicle speed sensor 10. And whether or not it is temporarily stopped. As will be described later, when the vehicle is in the vicinity of an intersection and is temporarily stopped, a predetermined signal is sent to the composite image creating unit 26 in order to display a virtual image.

次に、図7及び図8により、本発明の第1実施形態による車両用周囲監視装置の制御内容を説明する。図7は、本発明の第1実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートであり、図8は、本発明の第1実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)を示す図である。図7において、Sは各ステップを示す。   Next, with reference to FIGS. 7 and 8, the control contents of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention will be described. FIG. 7 is a flowchart showing display processing of a distance grasping virtual image of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention, and FIG. 8 is a diagram of the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention. It is a figure which shows an example (b) of the imaging | photography range by a camera, an example (a) of a moving body, and the image | video by which the virtual image was superimposed on the real image. In FIG. 7, S indicates each step.

図7に示すように、先ず、S11において、画像取得部22(図6参照)により、例えば交差路において、左方監視カメラ2、前方監視カメラ4、右方監視カメラ6の映像を取得し、S12において、画像補正部24により、取得された広角画像の歪み補正を行う。   As shown in FIG. 7, first, in S11, the image acquisition unit 22 (see FIG. 6) acquires images of the left monitoring camera 2, the front monitoring camera 4, and the right monitoring camera 6, for example, at an intersection, In S12, the image correction unit 24 corrects the distortion of the acquired wide-angle image.

次に、S13において、移動体検出部30により、S11及びS12で取得された実画像から、移動体を検出する。このS13における移動体の検出は、オプティカルフロー処理にて行われる。なお、オプティカルフローの他に、背景差分、フレーム間差分処理、或いは、レーザーやミリ波などにより移動体を検出するようにしても良い。移動体が検出されないときは、S14に進み、例えば交差路において安全に進行可能なものとして、合成画像作成部26(図6参照)に入力されるS11及びS12で取得された実画像をそのまま表示する。即ち、仮想画像の表示は禁止される。   Next, in S13, the moving object detection unit 30 detects the moving object from the actual images acquired in S11 and S12. The detection of the moving body in S13 is performed by optical flow processing. In addition to the optical flow, the moving object may be detected by background difference, inter-frame difference processing, laser, millimeter wave, or the like. When the moving object is not detected, the process proceeds to S14, and the actual image acquired in S11 and S12 input to the composite image creating unit 26 (see FIG. 6) is displayed as it is, for example, as being able to proceed safely on the intersection. To do. That is, display of a virtual image is prohibited.

S13において、移動体が検出されたときには、S15に進み、移動体移動状態検出部32により、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。移動体が複数存在するときには、基本的には、自車両からの距離が最短距離である移動体、或いは、自車両までの最短到達時間の移動体について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。一方、後述するように、複数の移動体について仮想画像を表示しても、それらが各々重ならない場合には、後続する移動体(後続車など)について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。   When the moving body is detected in S13, the process proceeds to S15, and the moving body moving state detection unit 32 detects the distance, speed, and traveling direction of the moving body from the own vehicle, and the moving body reaches the own vehicle. Calculate time. When there are a plurality of moving objects, basically, the distance from the own vehicle to the moving object that has the shortest distance from the own vehicle, or the moving object that has the shortest arrival time to the own vehicle. In addition, the traveling direction is detected, and the arrival time of the moving body to the host vehicle is calculated. On the other hand, as will be described later, if virtual images are displayed for a plurality of moving objects, but they do not overlap each other, the distance and speed of the moving object from the host vehicle with respect to the following moving object (such as a following vehicle) In addition, the traveling direction is detected, and the arrival time of the moving body to the host vehicle is calculated.

次に、S16において、移動体の自車両からの距離が所定距離内であるか、或いは、移動体の自車両への到達時間が所定時間内であるかを判定する。所定距離としては例えば、10〜30mであり、所定時間としては例えば、2〜3.5秒である。   Next, in S16, it is determined whether the distance of the moving body from the own vehicle is within a predetermined distance or whether the arrival time of the moving body at the own vehicle is within a predetermined time. The predetermined distance is, for example, 10 to 30 m, and the predetermined time is, for example, 2 to 3.5 seconds.

移動体の自車両からの距離が所定距離内でなく、或いは、移動体の自車両への到達時間が所定時間内でない場合には、仮想表示が不必要であるとして、S14に進み、実画像をそのまま表示する。これは、移動体が、例えば、移動体の自車両からの距離が例えば10m以下であるような近い場合や、移動体の自車両への到達時間が2秒以内といった近い場合には、仮想表示をしなくても移動体の移動状態が良く分かるので、仮想表示をしないのである。   If the distance of the moving body from the host vehicle is not within the predetermined distance, or if the arrival time of the moving body to the host vehicle is not within the predetermined time, the virtual display is unnecessary and the process proceeds to S14, and the actual image is displayed. Is displayed as it is. For example, when the moving object is so close that the distance of the moving object from the own vehicle is, for example, 10 m or less, or when the moving object reaches the own vehicle within two seconds, the virtual display Since the moving state of the moving body can be understood well without performing virtual display, virtual display is not performed.

S16において、移動体の自車両からの距離が所定距離内であり、或いは、移動体の自車両への到達時間が所定時間内である場合には、S17に進む。S17では、移動体の所定時間後の移動位置推定部34において、所定時間(本実施形態では、10秒毎)の後の移動体の位置を推定する。移動体が複数存在するときには、自車両からの距離が最短距離である移動体、或いは、自車両までの最短到達時間の移動体について、所定時間後の移動体の位置を推定する。   In S16, when the distance of the moving body from the host vehicle is within the predetermined distance, or when the arrival time of the moving body to the host vehicle is within the predetermined time, the process proceeds to S17. In S17, the moving position estimation unit 34 after a predetermined time of the moving body estimates the position of the moving body after a predetermined time (in this embodiment, every 10 seconds). When there are a plurality of moving objects, the position of the moving object after a predetermined time is estimated for a moving object having the shortest distance from the own vehicle or a moving object having the shortest arrival time to the own vehicle.

次に、S18において、現在の移動体の位置からの移動体の仮想表示がされる位置までの時間を規定する。即ち、仮想表示するために、何秒後に何秒毎に(所定時間)に移動体の状態を表示するかを規定する。なお、この規定と共に、どの程度の距離毎(所定距離)に移動体の状態を表示するかを規定しても良い。
次に、S19では、S18で規定された所定時間(何秒後、何秒毎)における移動体の仮想的な移動の状態として、移動体の進行方向延長線上に表示する位置及び大きさを規定する。
Next, in S18, the time from the current position of the moving body to the position where the virtual display of the moving body is displayed is defined. That is, for virtual display, it is defined how many seconds later and every second (predetermined time) the state of the moving body is displayed. In addition to this provision, it may be prescribed how much distance (predetermined distance) the state of the moving body is displayed.
Next, in S19, the position and size to be displayed on the extension line in the traveling direction of the moving body are defined as the virtual moving state of the moving body in the predetermined time (how many seconds and every second) defined in S18. To do.

次に、S20において、図8(b)に示すように、S18で規定した所定時間(何秒後)T10、T11、T12を実画像に重畳して表示すると共に、S19で規定した移動体の進行方向延長線上に表示する位置及び大きさによる移動体の仮想表示V11、V12を実画像に重畳してモニタ14に表示する。図8(b)では、実画像として、現在の位置に存在する車両(移動体)C11、C12や現在見えている路面の状況がモニタ14に表示される。
このS20においては、ドライバーが実画像としては最新の現時点での映像を見ることが出来るように、常に現時点(最新)での背景及び移動体に重畳して移動体の仮想画像を表示する。
Next, in S20, as shown in FIG. 8 (b), the predetermined time (after several seconds) defined in S18 is displayed superimposed on the real image, and the mobile object defined in S19 is displayed. The virtual displays V11 and V12 of the moving body according to the position and size displayed on the extension line in the traveling direction are superimposed on the actual image and displayed on the monitor 14. In FIG. 8 (b), the vehicle (moving body) C11, C12 existing at the current position and the road surface condition currently visible are displayed on the monitor 14 as a real image.
In S20, the virtual image of the moving object is always displayed so as to be superimposed on the background and the moving object at the current time (latest) so that the driver can see the latest video at the current time as the actual image.

図8(b)に示すように、複数の移動体C11、C12が存在する場合、本実施形態では、自車両から最短距離に存在する移動体(C11)或いは自車両への到達時間が最も短い移動体(C11)に対してのみ、仮想表示V11、V12、T10、T11、T12が表示される。なお、図8(b)において、移動体C12に対して仮想表示をしても移動体C11自体及びその仮想表示と重ならない場合には、移動体C12に対しても仮想表示をしても良い。言い換えると、移動体C12に対して仮想表示をすると移動体C11自体及びその仮想表示と重なる場合には、後続車の仮想画像の表示を禁止する。
仮想表示(V11、V12)は、実画像と区別がつくように、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示をするのが好ましい。また、仮想表示(V11、V12)は、等時間間隔で表示される。
As shown in FIG. 8B, when there are a plurality of mobile bodies C11 and C12, in this embodiment, the mobile body (C11) present at the shortest distance from the own vehicle or the arrival time to the own vehicle is the shortest. Virtual displays V11, V12, T10, T11, and T12 are displayed only for the moving object (C11). In FIG. 8B, when the virtual display is performed on the moving body C12 and the moving body C11 itself does not overlap with the virtual display, the virtual display may also be performed on the moving body C12. . In other words, when the virtual display is performed on the moving body C12, when the moving body C11 itself and the virtual display overlap with each other, the display of the virtual image of the following vehicle is prohibited.
In the virtual display (V11, V12), it is preferable to display only the outline, display a transparent light color, or display blinking so as to be distinguished from the actual image. The virtual display (V11, V12) is displayed at equal time intervals.

次に、S21に進み、頭出し位置判定部(図6参照)50により、自車両が頭出し位置(図4参照)を通過したか否かを判定する。頭出し位置を判定するには、いくつか手法がある。例えば、GPS装置12により得られる自車両の位置とナビゲーション装置13の地図データから判定する手法、カメラ2、4、6により得られる停止線の位置と、移動距離センサ(図示せず)による移動距離から、停止線からどれだけ移動したかで判定する手法、左右のカメラ2、6による映像から、左右の見通し具合が良くなるとき(近距離に見通しを遮断するものがないとき)が頭出し位置と判定する手法、カメラ2、4、6により得られる停止線の位置及び交差点周囲の画像により判定する手法などである。   Next, it progresses to S21 and it is determined by the cue position determination part (refer FIG. 6) 50 whether the own vehicle passed the cue position (refer FIG. 4). There are several methods for determining the cueing position. For example, a method of determining from the position of the own vehicle obtained by the GPS device 12 and the map data of the navigation device 13, the position of the stop line obtained by the cameras 2, 4, 6 and the moving distance by a moving distance sensor (not shown) From the stop line, when the left and right line-of-sight conditions improve from the images from the left and right cameras 2 and 6 (when there is nothing to block the line-of-sight at a short distance) And a method of determining from the position of the stop line obtained by the cameras 2, 4 and 6 and an image around the intersection.

自車両が頭出しをしているときには、S22に進み、合成画像作成部26(図6参照)により、S20で表示した仮想画像を点滅表示させた後、その仮想画像の表示を中止する。仮想画像の点滅により、ドライバーは、モニタ14による表示ではなくドライバー自身で目視が可能であることや、実際に目視で見えるものと異なるものであることを知ることが出来る。一方、頭出しをしていないときには、S20による仮想画像と実画像との表示を続ける。   When the host vehicle is cueing, the process proceeds to S22, where the composite image creation unit 26 (see FIG. 6) causes the virtual image displayed in S20 to blink, and then stops displaying the virtual image. The flashing of the virtual image allows the driver to know that the driver can view the image, not the display on the monitor 14, or that the image is different from what is actually visible. On the other hand, when cueing is not being performed, the display of the virtual image and the real image in S20 is continued.

次に、本発明の第1実施形態による作用効果を説明する。
本発明の第1実施形態による車両用周囲監視装置によれば、ドライバーから見て前方で左右に広がる領域内の死角領域を監視することが出来る。本実施形態では、死角領域の実画像を撮像するように車両の前方部にカメラ2、4、6が設けられ、移動体検出部30により、これらのカメラ2、4、6により撮像された実画像内から移動体が抽出される。さらに、移動体移動状態検出部32により移動体の移動状態が検出され、移動体の所定時間後の移動位置推定部34により移動体の仮想画像を表示する位置及び大きさをその移動体の移動状態を表すように規定される。そして、仮想画像生成部38により移動体の仮想画像が生成され、合成画像作成部26により、移動体の仮想画像を、移動体の所定時間後の移動位置推定部34により規定された位置及び大きさで実画像に重畳してモニタ14に表示する。
Next, the function and effect of the first embodiment of the present invention will be described.
According to the vehicle surrounding monitoring apparatus according to the first embodiment of the present invention, it is possible to monitor a blind spot area in an area extending left and right in front of the driver. In the present embodiment, cameras 2, 4, and 6 are provided in the front part of the vehicle so as to capture a real image of the blind spot area, and the moving object detection unit 30 captures the actual images captured by these cameras 2, 4, and 6. A moving object is extracted from the image. Further, the moving state of the moving body is detected by the moving body moving state detecting unit 32, and the position and size of the moving body displaying the virtual image of the moving body by the moving position estimating unit 34 after a predetermined time of the moving body is moved. It is defined to represent the state. Then, a virtual image of the moving object is generated by the virtual image generating unit 38, and the position and size defined by the moving position estimating unit 34 after a predetermined time of the moving object are generated by the composite image generating unit 26. The image is superimposed on the actual image and displayed on the monitor 14.

従って、移動体の仮想画像が、その移動状態を表すような位置及び大きさで実画像に重畳して表示されるので、ドライバーが移動体の移動状態を認識し易くなり、静止物との区別が容易であると共に死角領域の画像内の移動体の移動状況を把握し易い。   Accordingly, since the virtual image of the moving object is displayed superimposed on the real image at a position and size that represents the moving state, it becomes easier for the driver to recognize the moving state of the moving object and distinguish it from a stationary object. It is easy to grasp the moving state of the moving body in the image of the blind spot area.

次に、第1実施形態によれば、ドライバーの死角領域は車両の前方側の交差路の交差点の周辺の死角領域であり、カメラ2、4、6は、車両の前方端に設けられ、車両が交差路に差し掛かるとき、その車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像するので、衝突事故が多発する交差点周囲の左右領域の移動状況を容易に把握することが出来る。   Next, according to the first embodiment, the blind spot area of the driver is a blind spot area around the intersection of the intersection on the front side of the vehicle, and the cameras 2, 4, and 6 are provided at the front end of the vehicle. When the vehicle approaches the intersection, it captures the actual image around the intersection of the intersection that can be imaged from the front end of the vehicle, so it is easy to grasp the movement status of the left and right areas around the intersection where collisions frequently occur I can do it.

次に、第1実施形態によれば、移動体の所定時間後の移動位置推定部34は、移動体の移動状態として、その移動体の進行方向延長線上の所定時間後の推定到達位置に移動体の仮想画像が表示されるように移動体の仮想画像を表示する位置及び大きさが規定され、これが、表示手段により実画像に重畳して表示されるので、所定時間後の移動体の位置を直感的に把握することが出来、ドライバーにとって、例えば自車両を発進させて良いかの判断をより容易にすることが出来る。   Next, according to the first embodiment, the moving position estimation unit 34 after a predetermined time of the moving body moves to the estimated arrival position after a predetermined time on the traveling direction extension line of the moving body as the moving state of the moving body. The position and size for displaying the virtual image of the moving body are defined so that the virtual image of the body is displayed, and this is displayed by being superimposed on the real image by the display means. This makes it easier for the driver to determine, for example, whether the host vehicle is allowed to start.

次に、第1実施形態によれば、所定時間に基づいてその表示された移動体の現在の位置からの到達予測時間の数値表示が移動体の仮想画像に合わせて表示されるので、そのような数値による時間表示により、移動体の移動状態をより直感的に把握することが出来る。   Next, according to the first embodiment, a numerical display of the predicted arrival time from the current position of the displayed moving body based on a predetermined time is displayed in accordance with the virtual image of the moving body. By the time display with various numerical values, the moving state of the moving body can be grasped more intuitively.

次に、第1実施形態によれば、合成画像作成部26は、移動体の仮想画像の表示を移動体の自車両からの距離が所定距離内にあるとき、或いは、移動体の自車両への到達時間が所定時間内であるときに行うので、例えば自車両を発進させるか停止したままにするかの判断を迷うような所定距離内に移動体が存在する場合に、ドライバーにより確実に移動体の移動状態を把握させることが出来る。
次に、第1実施形態によれば、合成画像作成部26は、移動体の仮想画像を移動体の実際の車両の実体及び実状と識別可能に表示するので、ドライバーにとって移動体としての視認が容易である。
Next, according to the first embodiment, the composite image creating unit 26 displays the virtual image of the moving object when the distance from the own vehicle of the moving object is within a predetermined distance or to the own vehicle of the moving object. This is done when the arrival time of the vehicle is within a predetermined time. For example, when there is a moving object within a predetermined distance that makes it difficult to determine whether to start or stop the host vehicle, the driver reliably moves the vehicle. The movement state of the body can be grasped.
Next, according to the first embodiment, the composite image creation unit 26 displays the virtual image of the moving body so that it can be distinguished from the actual vehicle body and actual state of the moving body, so that the driver can visually recognize the moving body. Easy.

次に、第1実施形態によれば、移動体検出部30により複数の移動体が検出されたとき、仮想画像生成部38は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像を生成するので、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。   Next, according to the first embodiment, when a plurality of moving bodies are detected by the moving body detection unit 30, the virtual image generation unit 38 has the shortest distance to the own vehicle or the arrival time to the own vehicle. Since the shortest virtual image of the moving body is generated, the moving state of the moving body that may possibly collide with the host vehicle can be grasped more reliably.

次に、第1実施形態によれば、合成画像作成部26により複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、仮想画像生成部38は、それらの移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像を生成するので、画像を見て各移動体の移動状態をそれぞれ混同することなく、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。   Next, according to the first embodiment, when all the virtual images of a plurality of moving objects are displayed by the composite image creating unit 26, when the plurality of moving objects and their virtual images are displayed in an overlapping manner, the virtual image generating unit 38 does not generate all the virtual images of these moving objects, but generates a virtual image of the moving object having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle. Thus, the moving state of the moving body that may collide with the host vehicle can be grasped more reliably without confusing the moving state of each moving body.

次に、第1実施形態によれば、合成画像作成部26は、仮想表示を移動体の実画像と識別可能に、例えば、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示したりして表示するので、ドライバーは仮想画像を仮想の画像として認識することが出来、実画像と仮想画像とを混同することがない。   Next, according to the first embodiment, the composite image creating unit 26 can display the virtual display so that it can be distinguished from the real image of the moving object, for example, only the contour line, the transparent light color display, or the blinking display. Therefore, the driver can recognize the virtual image as a virtual image, and the real image and the virtual image are not confused.

次に、第1実施形態によれば、合成画像作成部26は、移動体の現時点での背景及び現時点での移動体に重畳して移動体の仮想表示又は仮想路面表示を表示するので、ドライバーは、実画像としては最新の現時点での映像を見ることが出来、それに対して仮想画像が表示されるので、より確実に周囲の状況と共に移動体の移動状態を把握することが出来る。   Next, according to the first embodiment, the composite image creation unit 26 displays a virtual display or a virtual road surface display of the moving object superimposed on the current background of the moving object and the current moving object. As a real image, the latest video at the present time can be seen, and a virtual image is displayed for it, so that the moving state of the moving object can be grasped more reliably along with the surrounding situation.

次に、図9により、本発明の第2実施形態による車両用周囲監視装置の構成を説明する。図9は、本発明の第2実施形態による車両用周囲監視装置の構成を示すブロック図である。   Next, the configuration of the vehicle surrounding monitoring apparatus according to the second embodiment of the present invention will be described with reference to FIG. FIG. 9 is a block diagram showing a configuration of the vehicle surrounding monitoring apparatus according to the second embodiment of the present invention.

この第2実施形態では、実際に存在する移動体(交差点に向かってくる他車両など)の実映像に重畳して、その移動体が現時点の位置に来るまで、所定時間前にどのような位置にいたのかを残像画像として仮想的に表示することにより、ドライバーが移動体の移動状態を認識するようにしたものである。これにより、例えばドライバーが自車両を発進させて良いか否かの判断を助けることが出来る。   In the second embodiment, any position before a predetermined time until the moving body comes to the current position by superimposing it on a real image of a moving body that actually exists (such as another vehicle approaching the intersection). The driver recognizes the moving state of the moving body by virtually displaying the after-image as an afterimage. Thereby, for example, it is possible to help the driver determine whether or not to start the host vehicle.

図9に示すように、周辺監視センサ20として構成される各カメラ2、4、6からの画像信号が、ECU18内の画像取得部22に入力される。入力された画像信号は広角画像であり歪みが生じているので、その画像が画像補正部24で補正される。この画像補正部24からの画像信号は、合成画像作成部26に実画像として入力される。   As shown in FIG. 9, image signals from the cameras 2, 4, 6 configured as the periphery monitoring sensor 20 are input to the image acquisition unit 22 in the ECU 18. Since the input image signal is a wide-angle image and is distorted, the image correction unit 24 corrects the image. The image signal from the image correction unit 24 is input to the composite image creation unit 26 as a real image.

移動体検出部30では、画像補正部24からの入力画像内に移動体、例えば、他車両やオートバイや自転車などが存在するか否かを検出する。移動体が存在しない場合には、合成画像作成部26で後述する仮想画像を表示しないので、それを指示する信号を合成画像作成部26に送り、移動体が存在する場合には合成画像作成部26で後述する仮想画像を表示するので、移動体が存在することを指示する信号を合成画像作成部26に送る。   The moving body detection unit 30 detects whether or not a moving body such as another vehicle, a motorcycle, or a bicycle is present in the input image from the image correction unit 24. When the moving body does not exist, the composite image creation unit 26 does not display a virtual image to be described later, so a signal instructing the virtual image is sent to the composite image creation unit 26, and when the mobile body exists, the composite image creation unit Since a virtual image, which will be described later, is displayed at 26, a signal instructing that a moving body is present is sent to the composite image creating unit 26.

また、移動体移動状態検出部32では、移動体検出部30から、移動体が存在する旨の信号を受けて、レーザレーダ7により、自車両に接近してくる移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出する。なお、レーザレーダ7の代わりに、車車間通信或いは路車間通信により、移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出するようにしても良い。   Further, the moving body moving state detection unit 32 receives a signal indicating that the moving body exists from the moving body detection unit 30, and the distance from the own vehicle to the moving body approaching the own vehicle by the laser radar 7. The speed and the traveling direction are detected, and the arrival time to the host vehicle is calculated. Instead of the laser radar 7, the distance, speed, and traveling direction of the moving body from the own vehicle are detected by inter-vehicle communication or road-to-vehicle communication, and the arrival time to the own vehicle is calculated. good.

また、移動体情報蓄積部33では、移動体検出部30により検出された移動体の位置情報を移動体移動状態検出部32から得て蓄積する。移動体残像画像規定部35では、移動体情報蓄積部33で蓄積された過去の移動体の位置と、移動体移動状態検出部32から得られる現在の位置とに基づいて、移動体の残像画像を規定する。具体的には、所定の時間間隔で、過去の所定時間の移動体の位置及び大きさを規定する。
また、この移動体残像画像規定部35では、移動体情報蓄積部33で蓄積された過去の移動体の位置と、移動体移動状態検出部32から得られる現在の位置とに基づいて移動体の移動方向を表すベクトルを算出する。
The moving body information accumulating unit 33 obtains and accumulates the position information of the moving body detected by the moving body detecting unit 30 from the moving body moving state detecting unit 32. In the moving object afterimage image defining unit 35, the afterimage image of the moving object is based on the past position of the moving object accumulated in the moving object information accumulating unit 33 and the current position obtained from the moving object movement state detecting unit 32. Is specified. Specifically, the position and size of the moving body in the past predetermined time are defined at predetermined time intervals.
Further, in this moving body afterimage defining part 35, the moving body afterimage position stored in the moving body information storage section 33 and the current position obtained from the moving body moving state detection section 32 are used. A vector representing the moving direction is calculated.

そして、仮想画像作成部38では、移動体残像画像規定部35により規定された移動体の過去の位置及び大きさの仮想画像(残像画像)を生成する。そして、作成された仮想画像は、合成画像作成部26で、各カメラ2、4、6で得られる実画像に重畳され、モニタ14により表示される。また、スピーカ15により、仮想画像が更新されることを示す所定の音が発せられる。   Then, the virtual image creation unit 38 generates a virtual image (afterimage) of the past position and size of the moving object defined by the moving object afterimage defining unit 35. Then, the created virtual image is superimposed on the actual image obtained by each of the cameras 2, 4, 6 by the composite image creating unit 26 and displayed on the monitor 14. Further, the speaker 15 emits a predetermined sound indicating that the virtual image is updated.

次に、ECU18内には、頭出し位置判定部50が存在する。頭出し位置判定部50では、車両が交差路内に頭出しした(図4参照)ことを判定するものである。頭出しが行われていれば、既にドライバー自身で交差路を見通せることから、仮想画像作成部38における移動体の仮想表示を中止するように、所定の信号を送るようになっている。   Next, a cue position determination unit 50 exists in the ECU 18. The cueing position determination unit 50 determines that the vehicle has cueed in the intersection (see FIG. 4). If the cue has been performed, the driver can already see the intersection, so a predetermined signal is sent so as to stop the virtual display of the moving body in the virtual image creation unit 38.

また、ECU18には、仮想画像処理実施判定部52が存在する。この仮想画像処理実施判定部52は、ナビゲーション装置13から得る地図データ、GPS装置12から得られる位置データ、及び、車速センサ10から得られる車速データを基に、車両が交差点近傍に位置しているか否か及び一時停止しているか否かを判定するものである。後述するように、交差点近傍であり一時停止したときには、仮想画像を表示するために、合成画像作成部26に所定の信号を送る。   Further, the ECU 18 includes a virtual image processing execution determination unit 52. The virtual image processing execution determination unit 52 determines whether the vehicle is located near the intersection based on the map data obtained from the navigation device 13, the position data obtained from the GPS device 12, and the vehicle speed data obtained from the vehicle speed sensor 10. And whether or not it is temporarily stopped. As will be described later, when the vehicle is in the vicinity of an intersection and is temporarily stopped, a predetermined signal is sent to the composite image creating unit 26 in order to display a virtual image.

次に、図10乃至図12により、本発明の第2実施形態による車両用周囲監視装置の制御内容を説明する。図10は、本発明の第2実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートであり、図11は、本発明の第2実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)を示す図であり、図12は、本発明の第2実施形態による仮想画像が実画像に重畳された映像の一例である。図10において、Sは各ステップを示す。   Next, the control contents of the vehicle surrounding monitoring apparatus according to the second embodiment of the present invention will be described with reference to FIGS. FIG. 10 is a flowchart showing the display processing of the distance grasping virtual image of the vehicle surroundings monitoring device according to the second embodiment of the present invention, and FIG. 11 is a diagram of the vehicle surroundings monitoring device according to the second embodiment of the present invention. FIG. 12 is a diagram illustrating an imaging range by a camera, an example of a moving object (a), and an example of an image (b) in which a virtual image is superimposed on a real image, and FIG. 12 illustrates a virtual image according to the second embodiment of the present invention. It is an example of the image | video superimposed on the image. In FIG. 10, S indicates each step.

図10に示すように、先ず、S30において、画像取得部22(図9参照)により、例えば交差路において、左方監視カメラ2、前方監視カメラ4、右方監視カメラ6の映像を取得し、S31において、画像補正部24により、取得された広角画像の歪み補正を行う。   As shown in FIG. 10, first, in S30, the image acquisition unit 22 (see FIG. 9) acquires videos of the left monitoring camera 2, the front monitoring camera 4, and the right monitoring camera 6, for example, at an intersection. In S31, the image correction unit 24 corrects the distortion of the acquired wide-angle image.

次に、S32において、移動体検出部30では、S30及びS31で取得された実画像から、移動体を検出する。このS32における移動体の検出は、オプティカルフロー処理にて行われる。なお、オプティカルフローの他に、背景差分、フレーム間差分処理、或いは、レーザーやミリ波などにより移動体を検出するようにしても良い。
移動体が検出されないときは、S33に進み、例えば交差路において安全に進行可能なものとして、合成画像作成部26(図9参照)に入力されるS30及びS31で取得された実画像をそのまま表示する。即ち、仮想画像の表示は禁止される。
Next, in S32, the moving object detection unit 30 detects the moving object from the actual images acquired in S30 and S31. The detection of the moving body in S32 is performed by optical flow processing. In addition to the optical flow, the moving object may be detected by background difference, inter-frame difference processing, laser, millimeter wave, or the like.
When the moving body is not detected, the process proceeds to S33, and the actual images acquired in S30 and S31 input to the composite image creating unit 26 (see FIG. 9) are displayed as they are, for example, as those that can safely proceed on the intersection. To do. That is, display of a virtual image is prohibited.

S32において、移動体が検出されたときには、S34に進み、移動体情報蓄積部33(図9参照)により、移動体の情報として、移動体が存在している或いは存在していた位置及び各位置での移動体の大きさの情報を蓄積する。   If a moving object is detected in S32, the process proceeds to S34, where the moving object information accumulating unit 33 (see FIG. 9) uses the moving object as the information on the moving object. The information on the size of the moving object at is stored.

次に、S35に進み、移動体移動状態検出部32により、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。移動体が複数存在するときには、基本的には、自車両からの距離が最短距離である移動体、或いは、自車両までの最短到達時間の移動体について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。一方、後述するように、複数の移動体について仮想画像を表示しても、それらが各々重ならない場合には、後続する移動体(後続車など)について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。   Next, in S35, the moving body moving state detection unit 32 detects the distance, speed, and traveling direction of the moving body from the host vehicle, and calculates the arrival time of the moving body on the host vehicle. When there are a plurality of moving objects, basically, the distance from the own vehicle to the moving object that has the shortest distance from the own vehicle, or the moving object that has the shortest arrival time to the own vehicle. In addition, the traveling direction is detected, and the arrival time of the moving body to the host vehicle is calculated. On the other hand, as will be described later, if virtual images are displayed for a plurality of moving objects, but they do not overlap each other, the distance and speed of the moving object from the host vehicle with respect to the following moving object (such as a following vehicle) In addition, the traveling direction is detected, and the arrival time of the moving body to the host vehicle is calculated.

次に、S36において、移動体の自車両からの距離が所定距離内であるか、或いは、移動体の自車両への到達時間が所定時間内であるかを判定する。S36における所定距離としては例えば、0〜10mであり、所定時間としては例えば、0〜1秒である。
S36で、移動体の自車両からの距離が所定距離内であるか、或いは、移動体の自車両への到達時間が所定時間内であると判定された場合、即ち、本実施形態では、移動体が近距離に存在するときには、S33に進み、合成画像作成部26(図9参照)に入力されるS30及びS31で取得された実画像をそのまま表示する。即ち、仮想画像の表示は禁止される。つまり、近距離であれば、ドライバーは、移動体の存在が分かれば良く、注意を払って発進待機及び通過待ちすれば良い。
Next, in S36, it is determined whether the distance of the moving body from the host vehicle is within a predetermined distance, or whether the arrival time of the moving body at the host vehicle is within a predetermined time. The predetermined distance in S36 is, for example, 0 to 10 m, and the predetermined time is, for example, 0 to 1 second.
If it is determined in S36 that the distance of the moving body from the host vehicle is within a predetermined distance, or the arrival time of the moving body to the host vehicle is within a predetermined time, that is, in this embodiment, the movement When the body exists at a short distance, the process proceeds to S33, and the actual image acquired in S30 and S31 input to the composite image creation unit 26 (see FIG. 9) is displayed as it is. That is, display of a virtual image is prohibited. In other words, if it is a short distance, the driver only needs to know the presence of the moving body, and may pay attention and wait for starting and passing.

S36で、移動体の自車両からの距離が所定距離内であるか、或いは、移動体の自車両への到達時間が所定時間内であると判定されない場合には、S37に進む。
S37では、移動体の自車両からの距離が所定距離以上であるか、或いは、移動体の自車両への到達時間が所定時間以上であるかを判定する。S37における所定距離としては例えば、30mであり、所定時間としては例えば、3秒である。
If it is not determined in S36 that the distance of the moving body from the host vehicle is within a predetermined distance or the arrival time of the moving body in the host vehicle is not within the predetermined time, the process proceeds to S37.
In S37, it is determined whether the distance of the moving body from the host vehicle is greater than or equal to a predetermined distance, or whether the arrival time of the moving body to the host vehicle is greater than or equal to a predetermined time. The predetermined distance in S37 is, for example, 30 m, and the predetermined time is, for example, 3 seconds.

S37では、移動体の自車両からの距離が所定距離以上であるか、或いは、移動体の自車両への到達時間が所定時間以上ではないと判定されたときは、自車両と移動体との間が10〜30mの距離にあり、或いは、移動体の自車両への到達時間が1〜3秒であり、本実施形態では、移動体が中距離に存在する場合として、S38に進む。このように移動体が自車両から中距離に存在するときは、ドライバーは、移動体の通過待ちをするか自車両が先に発進するか迷うような距離或いは時間であり、移動体の存在を確実に認識し、移動体の距離、速度及び進行方向を出来るだけ正確に把握したい場合である。   In S37, when it is determined that the distance of the moving body from the own vehicle is not less than a predetermined distance or the arrival time of the moving body to the own vehicle is not more than the predetermined time, the The distance is 10 to 30 m, or the arrival time of the moving body to the host vehicle is 1 to 3 seconds. In this embodiment, the process proceeds to S38 when the moving body exists at a medium distance. In this way, when the moving body is present at a medium distance from the host vehicle, the driver is at a distance or time at which the driver waits for the passing of the moving body or whether the host vehicle starts first. This is a case where the user wants to recognize the distance, speed and traveling direction of the moving body as accurately as possible.

このような場合、S38において、移動体を残像表示する位置及び大きさを規定すると共に残像表示を更新するタイミングに合わせた音の出力を規定する。これらの規定には、何秒毎に残像表示をするか、また、何秒毎に残像表示するかの規定も含まれる。本実施形態では、0.5秒〜2秒の間で残像表示を更新し、表示する時間間隔は等間隔である。
次に、S39では、残像をつなぐベクトル表示を規定する。ベクトル表示は、各移動体の2次元画像の重心点、又は、移動体の3次元座標から得られる移動体の重心点をつなぐように規定される。これにより、進行方向が確かなものになる。
In such a case, in S38, the position and size of the afterimage display of the moving body are defined, and the sound output in accordance with the timing for updating the afterimage display is defined. These rules include the rule of how many seconds the afterimage is displayed and how many seconds the afterimage is displayed. In the present embodiment, the afterimage display is updated between 0.5 seconds and 2 seconds, and the time intervals for displaying are updated at equal intervals.
Next, in S39, a vector display for connecting afterimages is defined. The vector display is defined so as to connect the center of gravity of the two-dimensional image of each moving body or the center of gravity of the moving body obtained from the three-dimensional coordinates of the moving body. This ensures the direction of travel.

S40では、例えば図11(b)に示すように、S38で規定された位置及び大きさで移動体の残像表示である仮想画像V21、V22を実画像に重畳してモニタ14に表示する。また、図11(b)に示すように、S39で規定されたベクトルVeを実画像に重畳してモニタ14に表示する。さらに、図11(b)に示すように、仮想画像V1、V2が何秒前のものかを示すT20、T21、T22を実画像に重畳してモニタ14に表示する。図11(b)では、実画像として、現在の位置に存在する車両(移動体)C21、C22や現在見えている路面の状況がモニタ14に表示される。   In S40, for example, as shown in FIG. 11B, virtual images V21 and V22, which are afterimage displays of the moving body, are displayed on the monitor 14 at the position and size defined in S38. Further, as shown in FIG. 11B, the vector Ve defined in S39 is superimposed on the actual image and displayed on the monitor 14. Further, as shown in FIG. 11B, T20, T21 and T22 indicating how many seconds before the virtual images V1 and V2 are superimposed on the actual image and displayed on the monitor 14. In FIG. 11 (b), as actual images, the vehicles (moving bodies) C21 and C22 existing at the current position and the road surface condition currently visible are displayed on the monitor 14.

このS40においては、ドライバーが実画像としては最新の現時点での映像を見ることが出来るように、常に現時点(最新)での背景及び移動体に重畳して移動体の仮想画像を表示する。   In S40, the virtual image of the moving body is always displayed superimposed on the background and the moving body at the current time (latest) so that the driver can see the latest video at the current time as the actual image.

図11(b)に示すように、複数の移動体C21、C22が存在する場合、本実施形態では、自車両から最短距離に存在する移動体(C21)或いは自車両への到達時間が最も短い移動体(C21)に対してのみ、仮想表示V21、V22、T20、T21、T22が表示される。なお、図11(b)において、移動体C22に対して仮想表示をしても移動体C21自体及びその仮想表示と重ならない場合には、移動体C22に対しても仮想表示をしても良い。言い換えると、移動体C22に対して仮想表示をすると移動体C1自体及びその仮想表示と重なる場合には、後続車の仮想画像の表示を禁止する。
また、後続の移動体(後続車)が存在する場合には、図11(b)に符号Nで示すように、後続する移動体の数を表示するようになっている。
As shown in FIG. 11B, when there are a plurality of mobile bodies C21 and C22, in this embodiment, the mobile body (C21) existing at the shortest distance from the own vehicle or the arrival time to the own vehicle is the shortest. Virtual displays V21, V22, T20, T21, and T22 are displayed only for the moving object (C21). In FIG. 11B, if the moving object C22 does not overlap with the moving object C21 itself and the virtual display, the moving object C22 may be displayed in a virtual manner. . In other words, when virtual display is performed on the moving body C22, when the moving body C1 itself and the virtual display overlap with each other, display of the virtual image of the following vehicle is prohibited.
Further, when there is a subsequent moving body (following vehicle), the number of the following moving bodies is displayed as indicated by reference numeral N in FIG.

なお、仮想表示(V21、V22)は、実画像と区別がつくように、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示をするのが好ましい。また、S40では、残像表示が更新するタイミングに合わせて「ピッピッピッ」というような音をスピーカ15から出力する。更新のタイミングは、例えば、ドライバーが移動物体を注視する時間が含まれるように0.5秒〜2秒程度である。ドライバーはモニタ14を見続けて更新タイミングを学習しないと速度感をつかめないため、このような音を出力するようにしている。   Note that the virtual display (V21, V22) is preferably displayed with only a contour line, a transparent light color display, or a blinking display so as to be distinguished from the actual image. In S <b> 40, a sound such as “beep” is output from the speaker 15 in accordance with the timing at which the afterimage display is updated. The update timing is, for example, about 0.5 second to 2 seconds so that the time for the driver to watch the moving object is included. Since the driver cannot grasp the sense of speed unless he / she keeps watching the monitor 14 and learns the update timing, such a sound is output.

次に、S37において、移動体の自車両からの距離が所定距離以上であるか、或いは、移動体の自車両への到達時間が所定時間以上であると判定された場合は、自車両と移動体との間が30m以上の距離にあり、或いは、移動体の自車両への到達時間が3秒以上であり、本実施形態では、移動体が遠距離に存在する場合として、S41に進む。このように移動体が自車両から遠距離に存在する場合、ドライバーは、衝突の危険性がないことに自信を持ちたい場合であり、移動体の速度変化及び進行方向変化を正確につかみたい場合である。   Next, if it is determined in S37 that the distance of the moving body from the host vehicle is greater than or equal to a predetermined distance, or the arrival time of the moving body to the host vehicle is greater than or equal to a predetermined time, the vehicle moves with the host vehicle. The distance from the body is 30 m or more, or the arrival time of the moving body to the host vehicle is 3 seconds or more. In this embodiment, the process proceeds to S41 when the moving body exists at a long distance. In this way, when the moving body exists at a long distance from the host vehicle, the driver wants to be confident that there is no danger of a collision, and when the driver wants to accurately grasp the speed change and traveling direction change of the moving body. is there.

このような場合、先ず、S41において、移動体の残像表示する位置及び大きさを規定する。本実施形態では、移動体が遠距離に存在するときには、移動体及び残像表示をモニタ14上に拡大して表示するので、そのような移動体及び残像表示の拡大表示における位置及び大きさも規定する。また、残像表示を更新するタイミングに合わせた音の出力を規定する。さらに、何秒毎に残像表示をするか、また、何秒毎に残像表示するかも規定する。   In such a case, first, in S41, the position and size of the moving object for displaying the afterimage are defined. In the present embodiment, when the moving body is present at a long distance, the moving body and the afterimage display are enlarged and displayed on the monitor 14, and thus the position and size in the enlarged display of such a moving body and the afterimage display are also defined. . In addition, the output of sound in accordance with the timing for updating the afterimage display is defined. Further, it defines how many seconds the afterimage is displayed and how many seconds the afterimage is displayed.

次に、S42では、残像をつなぐベクトル表示を規定する。ベクトル表示は、各移動体の2次元画像の重心点、又は、移動体の3次元座標から得られる移動体の重心点をつなぐように規定される。これにより、進行方向が確かなものになる。   Next, in S42, a vector display for connecting afterimages is defined. The vector display is defined so as to connect the center of gravity of the two-dimensional image of each moving body or the center of gravity of the moving body obtained from the three-dimensional coordinates of the moving body. This ensures the direction of travel.

次に、S40では、例えば図12に示すように、C23という移動体の車両を、モニタ14の画面左上に拡大して表示する。なお、拡大する位置は、実画像内における移動体C23の表示を妨げなければどこでも良い。この場合も、S40においては、ドライバーが実画像としては最新の現時点での映像を見ることが出来るように、常に現時点(最新)での背景及び移動体に重畳して移動体の仮想表示又は仮想路面表示を表示する。
この図12に示す例では、S41で規定された位置及び大きさで移動体の残像表示である仮想画像V23、V24を実画像に重畳してモニタ14に表示する。
Next, in S40, as shown in FIG. 12, for example, a moving vehicle C23 is enlarged and displayed on the upper left of the screen of the monitor 14. The position to be enlarged may be anywhere as long as the display of the moving object C23 in the actual image is not hindered. Also in this case, in S40, the virtual display or virtual display of the moving body is always superimposed on the background and the moving body at the current time (latest) so that the driver can see the latest video as the actual image. Displays the road surface display.
In the example shown in FIG. 12, virtual images V23 and V24, which are afterimage displays of the moving object, are displayed on the monitor 14 in a superimposed manner on the real image at the position and size defined in S41.

また、図11(b)と同様に、ベクトルVe、時間T20、T21、T22も表示される。また、図11(b)について説明したのと同様に、複数の移動体が存在する場合は、自車両から最短距離に存在する移動体或いは自車両への到達時間が最も短い移動体に対してのみ、仮想表示が表示される。なお、最前方の移動体に対して仮想表示をすると後続する移動体自体及びその仮想表示と重なる場合には、後続車の仮想画像の表示を禁止する。   Similarly to FIG. 11B, the vector Ve and times T20, T21, and T22 are also displayed. Similarly to the case described with reference to FIG. 11 (b), when there are a plurality of moving bodies, the moving body existing at the shortest distance from the own vehicle or the moving body having the shortest arrival time to the own vehicle. Only the virtual display is displayed. In addition, when virtual display is performed on the foremost moving body, when the subsequent moving body itself and the virtual display overlap with each other, display of the virtual image of the subsequent vehicle is prohibited.

なお、仮想表示(V21、V22)は、実画像と区別がつくように、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示をするのが好ましい。
また、S40では、残像表示が更新するタイミングに合わせて「ピッピッピッ」というような音をスピーカ15から出力する。更新のタイミングは、例えば、0.5秒〜2秒程度である。
Note that the virtual display (V21, V22) is preferably displayed with only a contour line, a transparent light color display, or a blinking display so as to be distinguished from the actual image.
In S <b> 40, a sound such as “beep” is output from the speaker 15 in accordance with the timing at which the afterimage display is updated. The update timing is, for example, about 0.5 seconds to 2 seconds.

次に、S43に進み、頭出し位置判定部(図9参照)50により、自車両が頭出し位置(図4参照)を通過したか否かを判定する。自車両が頭出しをしているときには、S44に進み、合成画像作成部26(図9参照)により、S40で表示した仮想画像を点滅表示させた後、その仮想画像の表示を中止する。   Next, it progresses to S43 and it is determined by the cue position determination part (refer FIG. 9) 50 whether the own vehicle passed the cue position (refer FIG. 4). When the host vehicle is cueing, the process proceeds to S44, where the composite image creation unit 26 (see FIG. 9) causes the virtual image displayed in S40 to blink, and then stops displaying the virtual image.

次に、本発明の第2実施形態による作用効果を説明する。
本発明の第2実施形態による車両用周囲監視装置によれば、ドライバーから見て前方で左右に広がる領域内の死角領域を監視することが出来る。本実施形態では、死角領域の実画像を撮像するように車両の前方部にカメラ2、4、6が設けられ、移動体検出部30により、これらのカメラ2、4、6により撮像された実画像内から移動体が抽出される。さらに、移動体移動状態検出部32により移動体の移動状態が検出され、移動体の所定時間前の移動体残像画像規定部35により移動体の仮想画像を表示する位置及び大きさをその移動体の移動状態を表すように規定される。そして、仮想画像作成部38により移動体の仮想画像が生成され、合成画像作成部26により、移動体の仮想画像を、移動体の所定時間前の移動体残像画像規定部35により規定された位置及び大きさで実画像に重畳してモニタ14に表示する。
Next, the function and effect of the second embodiment of the present invention will be described.
According to the vehicle surroundings monitoring apparatus according to the second embodiment of the present invention, it is possible to monitor a blind spot area in an area that spreads left and right in front of the driver. In the present embodiment, cameras 2, 4, 6 are provided in the front part of the vehicle so as to capture a real image of the blind spot area, and an actual image captured by these cameras 2, 4, 6 by the moving body detection unit 30. A moving object is extracted from the image. Further, the moving state of the moving body is detected by the moving body moving state detection unit 32, and the position and the size of the moving body to display the virtual image by the moving body afterimage definition unit 35 for a predetermined time before the moving body are displayed. It is defined to represent the movement state of Then, a virtual image of the moving object is generated by the virtual image generating unit 38, and the virtual image of the moving object is generated by the composite image generating unit 26 at a position specified by the moving object afterimage defining unit 35 a predetermined time before the moving object. The image is superimposed on the actual image and displayed on the monitor 14.

次に、第2実施形態によれば、移動体残像画像規定部35は、移動体の移動状態として、その移動体が移動してきた過去の位置に移動体の仮想画像が等時間間隔で残像として表示されるように移動体の仮想画像を表示する位置及び大きさを規定し、これが等時間間隔で残像として表示されるので、移動体の現在までの移動状況を直感的に把握することが出来、ドライバーにとって、例えば自車両を発進させて良いかの判断をより容易にすることが出来る。   Next, according to the second embodiment, the moving object afterimage defining unit 35 sets the moving state of the moving object as the afterimage of the moving object at an equal time interval in the past position where the moving object has moved. The position and size for displaying the virtual image of the moving object is defined so that it can be displayed, and this is displayed as an afterimage at regular time intervals, so it is possible to intuitively grasp the moving state of the moving object up to the present time. For the driver, for example, it is possible to more easily determine whether or not the host vehicle is allowed to start.

次に、第2実施形態によれば、等時間間隔の残像に合わせたベクトル表示により、移動体の現在までの移動状況を、より直感的に把握することが出来る。
次に、第2実施形態によれば、移動体の仮想画像が、移動体の自車両からの距離が所定距離以上の遠距離にある場合に、所定距離より小さい場合よりも拡大して表示するので、遠距離にある移動体の移動状態を容易に把握することが出来る。
Next, according to the second embodiment, it is possible to more intuitively grasp the moving state of the moving body up to the present by the vector display in accordance with the afterimages at equal time intervals.
Next, according to the second embodiment, the virtual image of the moving body is displayed in an enlarged manner when the distance of the moving body from the host vehicle is a predetermined distance or more than when the distance is smaller than the predetermined distance. Therefore, it is possible to easily grasp the moving state of the moving body at a long distance.

次に、第2実施形態によれば、合成画像作成部26は、移動体の仮想画像の表示を移動体の自車両からの距離が所定距離内にあるとき、或いは、移動体の自車両への到達時間が所定時間内であるときに行うので、例えば自車両を発進させるか停止したままにするかの判断を迷うような所定距離内に移動体が存在する場合に、ドライバーにより確実に移動体の移動状態を把握させることが出来る。
次に、第2実施形態によれば、合成画像作成部26は、移動体の仮想画像を移動体の実際の車両の実体及び実状と識別可能に表示するので、ドライバーにとって移動体としての視認が容易である。
Next, according to the second embodiment, the composite image creating unit 26 displays the virtual image of the moving object when the distance from the own vehicle of the moving object is within a predetermined distance or to the own vehicle of the moving object. This is done when the arrival time of the vehicle is within a predetermined time. For example, when there is a moving object within a predetermined distance that makes it difficult to determine whether to start or stop the host vehicle, the driver reliably moves the vehicle. The movement state of the body can be grasped.
Next, according to the second embodiment, the composite image creation unit 26 displays a virtual image of the moving body so as to be distinguishable from the actual vehicle actual and actual state of the moving body, so that the driver can visually recognize the moving body. Easy.

次に、第2実施形態によれば、移動体検出部30により複数の移動体が検出されたとき、仮想画像作成部38は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像を生成するので、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
次に、第2実施形態によれば、合成画像作成部26により複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、仮想画像作成部38は、それらの移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像を生成するので、画像を見て混同することなく、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。
Next, according to the second embodiment, when a plurality of moving bodies are detected by the moving body detection unit 30, the virtual image creation unit 38 has the shortest distance to the host vehicle or the arrival time to the host vehicle. Since the shortest virtual image of the moving body is generated, the moving state of the moving body that may possibly collide with the host vehicle can be grasped more reliably.
Next, according to the second embodiment, when all the virtual images of a plurality of moving objects are displayed by the composite image generating unit 26, when the plurality of moving objects and their virtual images are displayed in an overlapping manner, the virtual image generating unit 38 does not generate all the virtual images of these moving objects, but generates a virtual image of the moving object having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle. Therefore, it is possible to grasp the moving state of a moving body that may collide with the host vehicle more reliably without being confused.

次に、第2実施形態によれば、合成画像作成部26は、仮想表示を移動体の実画像と識別可能に、例えば、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示したりして表示するので、ドライバーは仮想画像を仮想の画像として認識することが出来、実画像と仮想画像とを混同することがない。   Next, according to the second embodiment, the composite image creating unit 26 can display the virtual display so as to be distinguishable from the real image of the moving object, for example, display only the contour line, display a transparent light color, or blink. Therefore, the driver can recognize the virtual image as a virtual image, and the real image and the virtual image are not confused.

次に、第2実施形態によれば、合成画像作成部26は、移動体の現時点での背景及び現時点での移動体に重畳して移動体の仮想画像を表示するので、ドライバーは、実画像としては最新の現時点での映像を見ることが出来、それに対して仮想画像が表示されるので、より確実に周囲の状況と共に移動体の移動状態を把握することが出来る。   Next, according to the second embodiment, the composite image creation unit 26 displays a virtual image of the moving object superimposed on the current background of the moving object and the moving object at the current time. Since the latest video at the present time can be viewed and a virtual image is displayed on the video, the moving state of the moving body can be grasped more reliably along with the surrounding situation.

次に、図13により、本発明の第3実施形態による車両用周囲監視装置の構成を説明する。図13は、本発明の第3実施形態による車両用周囲監視装置の構成を示すブロック図である。
図13に示すように、周辺監視センサ20として構成される各カメラ2、4、6からの画像信号が、ECU18内の画像取得部22に入力される。入力された画像信号は広角画像であり歪みが生じているので、その画像が画像補正部24で補正される。この画像補正部24からの画像信号は、合成画像作成部26に実画像として入力される。
Next, the configuration of the vehicle surrounding monitoring apparatus according to the third embodiment of the present invention will be described with reference to FIG. FIG. 13 is a block diagram showing the configuration of the vehicle surrounding monitoring apparatus according to the third embodiment of the present invention.
As shown in FIG. 13, image signals from the cameras 2, 4, 6 configured as the periphery monitoring sensor 20 are input to the image acquisition unit 22 in the ECU 18. Since the input image signal is a wide-angle image and is distorted, the image correction unit 24 corrects the image. The image signal from the image correction unit 24 is input to the composite image creation unit 26 as a real image.

移動体検出部30では、画像補正部24からの入力画像内に移動体、例えば、他車両やオートバイや自転車などが存在するか否かを検出する。移動体が存在しない場合には、合成画像作成部26で後述する仮想画像を表示しないので、それを指示する信号を合成画像作成部26に送り、移動体が存在する場合には合成画像作成部26で後述する仮想画像を表示するので、移動体が存在することを指示する信号を合成画像作成部26に送る。   The moving body detection unit 30 detects whether or not a moving body such as another vehicle, a motorcycle, or a bicycle is present in the input image from the image correction unit 24. When the moving body does not exist, the composite image creation unit 26 does not display a virtual image to be described later, so a signal instructing the virtual image is sent to the composite image creation unit 26, and when the mobile body exists, the composite image creation unit Since a virtual image, which will be described later, is displayed at 26, a signal instructing that a moving body is present is sent to the composite image creating unit 26.

また、移動体移動状態検出部32では、移動体検出部30から、移動体が存在する旨の信号を受けて、レーザレーダ7により、自車両に接近してくる移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両或いは交差点までの到達時間を算出する。なお、レーザレーダ7の代わりに、車車間通信或いは路車間通信により、移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出するようにしても良い。   Further, the moving body moving state detection unit 32 receives a signal indicating that the moving body exists from the moving body detection unit 30, and the distance from the own vehicle to the moving body approaching the own vehicle by the laser radar 7. The speed and the traveling direction are detected, and the arrival time to the own vehicle or the intersection is calculated. Instead of the laser radar 7, the distance, speed, and traveling direction of the moving body from the own vehicle are detected by inter-vehicle communication or road-to-vehicle communication, and the arrival time to the own vehicle is calculated. good.

また、カメラ2、4、6による撮像された画像を画像処理することにより、例えばウインカーの状態を検出して、移動体が右左折するか或いは直進するかの結果を検出する。なお、車車間通信或いは路車間通信により、移動体の右左折を検出しても良い。   In addition, by performing image processing on images captured by the cameras 2, 4, and 6, for example, the state of the blinker is detected, and the result of whether the moving body turns right or left or goes straight is detected. In addition, you may detect the left-right turn of a mobile body by vehicle-to-vehicle communication or road-to-vehicle communication.

また、移動体の到達時間t2算出部36では、移動体移動状態検出部32により検出された自車両に接近してくる移動体の自車両からの距離、速度及び進行方向から、移動体が自車両に到達する時間t2を算出する。自車両の位置は、ナビゲーション装置13或いはGPS装置12により決定する。なお、移動体が自車両に到達する時間t2ではなく、移動体が交差点に到達する時間を算出しても良い。その場合、交差点の位置は、ナビゲーション装置により決定する。   In addition, the moving object arrival time t2 calculating unit 36 determines whether the moving object is moving automatically from the distance, speed, and traveling direction of the moving object approaching the own vehicle detected by the moving object moving state detecting unit 32. The time t2 for reaching the vehicle is calculated. The position of the host vehicle is determined by the navigation device 13 or the GPS device 12. Note that, instead of the time t2 when the moving body reaches the host vehicle, the time when the moving body reaches the intersection may be calculated. In that case, the position of the intersection is determined by the navigation device.

また、自車両の交差点通過に要する時間t1算出部54では、ナビゲーション装置13、GPS装置12及び車速センサ10の各情報を受けて、自車両が交差点通過に要する時間(あるいは、自車両が交差点に到達する時間とする)t1を算出する。   In addition, the time t1 calculation unit 54 required for the vehicle to pass through the intersection receives each information of the navigation device 13, the GPS device 12, and the vehicle speed sensor 10, and the time required for the vehicle to pass through the intersection (or the vehicle becomes the intersection). T1 is calculated.

そして、仮想画像作成部38では、後述するように、移動体が右左折するか否かの判定結果と、自車両が交差点を通過するのに要する時間、或いは、自車両が交差点に到達する時間t1及び移動体が自車両に到達する時間t2に応じて決定される危険度と、に応じて、路面上に仮想路面画像を生成する。仮想画像作成部38では、仮想路面画像として、その位置及び大きさを規定する。例えば、仮想路面画像は、実画像により得られる路面幅、或いは車線幅、或いは走行レーンと同じ幅で、移動体の前方に延びるように、位置及び大きさを規定する。
そして、作成された仮想路面画像は、合成画像作成部26で、各カメラ2、4、6で得られる実画像に重畳され、モニタ14により表示される。
Then, in the virtual image creation unit 38, as will be described later, the determination result as to whether or not the mobile body makes a right or left turn, the time required for the host vehicle to pass through the intersection, or the time required for the host vehicle to reach the intersection. A virtual road surface image is generated on the road surface according to t1 and the degree of risk determined according to the time t2 when the moving body reaches the host vehicle. The virtual image creation unit 38 defines the position and size of the virtual road surface image. For example, the virtual road surface image defines the position and size so as to extend in front of the moving body with the same road surface width, lane width, or traveling lane obtained from the actual image.
Then, the created virtual road surface image is superimposed on the actual image obtained by each camera 2, 4, 6 by the composite image creation unit 26 and displayed on the monitor 14.

次に、ECU18内には、頭出し位置判定部50が存在する。頭出し位置判定部50では、車両が交差路内に頭出しした(図4参照)ことを判定するものである。頭出しが行われていれば、既にドライバー自身で交差路を見通せることから、仮想画像作成部38における仮想路面画像の仮想表示を中止するように、所定の信号を送るようになっている。   Next, a cue position determination unit 50 exists in the ECU 18. The cueing position determination unit 50 determines that the vehicle has cueed in the intersection (see FIG. 4). If the cueing has been performed, the driver can already see the intersection, so a predetermined signal is sent so as to stop the virtual display of the virtual road surface image in the virtual image creation unit 38.

また、ECU18には、仮想画像処理実施判定部52が存在する。この仮想画像処理実施判定部52は、ナビゲーション装置13から得る地図データ、GPS装置12から得られる位置データ、及び、車速センサ10から得られる車速データを基に、車両が交差点近傍に位置しているか否か及び一時停止しているか否かを判定するものである。後述するように、交差点近傍であり一時停止したときには、仮想画像を表示するために、合成画像作成部26に所定の信号を送る。   Further, the ECU 18 includes a virtual image processing execution determination unit 52. The virtual image processing execution determination unit 52 determines whether the vehicle is located near the intersection based on the map data obtained from the navigation device 13, the position data obtained from the GPS device 12, and the vehicle speed data obtained from the vehicle speed sensor 10. And whether or not it is temporarily stopped. As will be described later, when the vehicle is in the vicinity of an intersection and is temporarily stopped, a predetermined signal is sent to the composite image creating unit 26 in order to display a virtual image.

次に、図14乃至図16により、本発明の第3実施形態による車両用周囲監視装置の制御内容を説明する。図14は、本発明の第3実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートであり、図15は、本発明の第3実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)であり、図16は、本発明の第3実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)、仮想画像が実画像に重畳された映像の一例(b)及び仮想画像が実画像に重畳された映像の一例(c)を示す図である。図14において、Sは各ステップを示す。   Next, the control contents of the vehicle periphery monitoring device according to the third embodiment of the present invention will be described with reference to FIGS. FIG. 14 is a flowchart showing display processing of a distance grasping virtual image of the vehicle surrounding monitoring apparatus according to the third embodiment of the present invention, and FIG. 15 is a diagram of the vehicle surrounding monitoring apparatus according to the third embodiment of the present invention. FIG. 16 is an example (a) of an imaging range by a camera and a moving body, and an example (b) of an image in which a virtual image is superimposed on a real image, and FIG. 16 is a camera of a vehicle surrounding monitoring apparatus according to a third embodiment of the present invention FIG. 6 is a diagram illustrating an example of an imaging range and a moving object (a), an example of a video (b) in which a virtual image is superimposed on a real image, and an example (c) of a video in which a virtual image is superimposed on a real image. In FIG. 14, S indicates each step.

この第3実施形態では、実際に存在する移動体(交差点に向かってくる他車両など)を含む周辺の実映像に重畳して、その移動体が自車両或いは交差点にどの程の時間或いは距離で到達するかの危険度に応じて、路面に仮想路面画像を仮想的に重畳して表示することにより、ドライバーが移動体の移動状態を認識するようにしたものである。これにより、例えばドライバーが自車両を発進させて良いか否かの判断を助けることが出来る。   In this third embodiment, how much time or distance the moving body is on the own vehicle or the intersection is superimposed on the surrounding real image including the moving body that actually exists (such as another vehicle approaching the intersection). The driver recognizes the moving state of the moving body by virtually superimposing and displaying a virtual road surface image on the road surface in accordance with the risk of reaching. Thereby, for example, it is possible to help the driver determine whether or not to start the host vehicle.

図14に示すように、先ず、S50において、画像取得部22(図13参照)により、例えば交差路において、左方監視カメラ2、前方監視カメラ4、右方監視カメラ6の映像を取得し、S51において、画像補正部24により、取得された広角画像の歪み補正を行う。   As shown in FIG. 14, first, in S50, the images of the left monitoring camera 2, the front monitoring camera 4, and the right monitoring camera 6 are acquired by the image acquisition unit 22 (see FIG. 13), for example, at an intersection. In S51, the image correction unit 24 corrects the distortion of the acquired wide-angle image.

次に、S52において、ECU18では、S50及びS51で取得された実画像から、移動体を検出する。このS52における移動体の検出は、オプティカルフロー処理にて行われる。なお、オプティカルフローの他に、背景差分、フレーム間差分処理、或いは、レーザーやミリ波などにより移動体を検出するようにしても良い。
移動体が検出されないときは、S53に進み、例えば交差路において安全に進行可能なものとして、合成画像作成部26(図13参照)に入力されるS50及びS51で取得された実画像をそのまま表示する。即ち、仮想画像の表示は禁止される。
Next, in S52, the ECU 18 detects a moving body from the actual images acquired in S50 and S51. The detection of the moving body in S52 is performed by optical flow processing. In addition to the optical flow, the moving object may be detected by background difference, inter-frame difference processing, laser, millimeter wave, or the like.
When the moving object is not detected, the process proceeds to S53, and the actual images acquired in S50 and S51 input to the composite image creating unit 26 (see FIG. 13) are displayed as they are, for example, as those that can safely proceed on the intersection. To do. That is, display of a virtual image is prohibited.

S52において、移動体が検出されたときには、S54に進み、移動体移動状態検出部32及び移動体の到達時間t2算出部36(図13参照)により、自車両に接近してくる移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間t2を算出する。自車両までの到達時間t2は、交差点までの到達時間としても良い。移動体が複数存在するときには、基本的には、自車両からの距離が最短距離である移動体、或いは、自車両までの最短到達時間の移動体について、移動体の自車両からの距離、速度及び進行方向を検出すると共に、移動体の自車両への到達時間を算出する。   If a moving body is detected in S52, the process proceeds to S54, and the moving body moving state detecting unit 32 and the moving body arrival time t2 calculating unit 36 (see FIG. 13) detect the moving body approaching the host vehicle. The distance, speed, and traveling direction from the vehicle are detected, and the arrival time t2 to the host vehicle is calculated. The arrival time t2 to the host vehicle may be an arrival time to the intersection. When there are a plurality of moving objects, basically, the distance from the own vehicle to the moving object that has the shortest distance from the own vehicle, or the moving object that has the shortest arrival time to the own vehicle. In addition, the traveling direction is detected, and the arrival time of the moving body to the host vehicle is calculated.

次に、S55において、自車両の交差点通過に要する時間t1算出部54(図13参照)により、自車両が交差点通過に要する時間t1を算出する。
次に、S56に進み、移動体移動状態検出部32(図13参照)により得られた、移動体が直進するか右左折するかの検出結果から、移動体が交差点にて右左折するか否かを判定する。
Next, in S55, a time t1 calculating unit 54 (see FIG. 13) required for the own vehicle to pass through the intersection calculates a time t1 required for the own vehicle to pass through the intersection.
Next, proceeding to S56, whether or not the mobile body makes a right or left turn at an intersection from the detection result obtained by the mobile body movement state detection unit 32 (see FIG. 13) whether the mobile body goes straight or turns right or left. Determine whether.

移動体が右左折する場合には、S57に進み、移動体の進行方向が交差点を右左折するものと決定し、危険度が小として、仮想画像作成部38により、移動体の進行方向である交差点までの直線部分の路面と、左折後の進行方向の路面とのそれぞれの実画像上に重畳して表示する仮想路面表示を作成する。ここでは、危険度が小なので、仮想路面表示を青色とする。色を付けない場合は、濃淡を付けて、例えば、薄く表示する。   When the mobile body makes a right or left turn, the process proceeds to S57, where it is determined that the traveling direction of the mobile body makes a right or left turn at the intersection, and the virtual image creation unit 38 determines that the traveling direction is the traveling direction of the mobile body. A virtual road surface display is generated that is superimposed and displayed on each real image of the road surface of the straight line portion up to the intersection and the road surface in the direction of travel after the left turn. Here, since the degree of danger is small, the virtual road surface display is blue. If no color is to be added, the display is shaded, for example, lightly displayed.

そして、S58に進み、S57で作成した仮想路面表示を、例えば図15(b)にR1で示すように、実画像に重畳して表示する。ドライバーは、この仮想路面表示により、移動体が左折することを即座に認識することが出来、例えば自車両を発進させて良いかの判断が容易になる。   Then, the process proceeds to S58, and the virtual road surface display created in S57 is displayed superimposed on the actual image, for example, as indicated by R1 in FIG. By this virtual road surface display, the driver can immediately recognize that the moving body is turning left, and for example, it is easy to determine whether or not the host vehicle can be started.

次に、S56において、移動体が直進すると判定された場合、先ずS59に進む。このS59では、及び移動体が自車両に到達する時間t2と自車両が交差点に到達する時間t1との差が所定値k0未満であるか否かを判定する。   Next, when it is determined in S56 that the moving body travels straight, the process proceeds to S59 first. In S59, it is determined whether or not the difference between the time t2 when the moving body reaches the host vehicle and the time t1 when the host vehicle reaches the intersection is less than a predetermined value k0.

所定値k0未満である場合は、S60に進み、移動体も自車両もほぼ同じような時間で交差点に到達するので、危険度大として、仮想画像作成部38により、移動体の進行方向である交差点を含む直線部分の路面の実画像上に重畳して表示する仮想路面表示を作成する。ここでは、危険度が大なので、仮想路面表示を赤色とする。色を付けない場合は、濃淡を付けて、例えば、濃くする。   If it is less than the predetermined value k0, the process proceeds to S60, where both the moving body and the host vehicle reach the intersection at substantially the same time. A virtual road surface display that is displayed by being superimposed on the actual image of the road surface of the straight line portion including the intersection is created. Here, since the degree of danger is large, the virtual road surface display is red. If no color is to be added, a shade is added, for example, it is darkened.

そして、S58に進み、S60で作成した仮想路面表示を、例えば図16(b)にR2で示すように、実画像に重畳して表示する。ドライバーは、この仮想路面表示により、移動体が直進してくること、及び、非常に近い位置にいることを即座に認識することが出来、例えば自車両を待機するための判断が容易になる。   Then, the process proceeds to S58, and the virtual road surface display created in S60 is displayed superimposed on the actual image, for example, as indicated by R2 in FIG. By this virtual road surface display, the driver can immediately recognize that the moving body is going straight ahead and is in a very close position, and for example, it is easy to make a determination for waiting the host vehicle.

S59で、t2−t1がk0以上である場合には、S61に進み、移動体が自車両に到達する時間t2と自車両が交差点に到達する時間t1との差が所定値k0以上であり且つ所定値k1未満であるか否かを判定する。
所定値k0以上であり且つ所定値k1未満である場合には、S62に進み、移動体が到達する時間と自車両が到達する時間に或る程度の時間差があるので、危険度中として、仮想画像作成部38により、移動体の進行方向である交差点を含む直線部分の路面の実画像上に重畳して表示する仮想路面表示を作成する。ここでは、危険度が中なので、仮想路面表示を黄色とする。色を付けない場合は、濃淡を付けて、例えば、中程度の濃さとする。
In S59, when t2-t1 is equal to or greater than k0, the process proceeds to S61, where the difference between the time t2 when the moving body reaches the host vehicle and the time t1 when the host vehicle reaches the intersection is equal to or greater than the predetermined value k0; It is determined whether it is less than a predetermined value k1.
If it is greater than or equal to the predetermined value k0 and less than the predetermined value k1, the process proceeds to S62, where there is a certain time difference between the time when the moving body arrives and the time when the host vehicle arrives. The image creation unit 38 creates a virtual road surface display that is displayed superimposed on the actual image of the road surface of the straight line portion including the intersection that is the traveling direction of the moving body. Here, since the degree of danger is medium, the virtual road surface display is yellow. If no color is to be added, a shading is applied, for example, a medium darkness.

そして、S58に進み、S62で作成した仮想路面表示を、例えば図16(c)にR3で示すように、実画像に重畳して表示する。ドライバーは、この仮想路面表示により、移動体が直進してくること、及び、何秒か後に移動体が近づくことを即座に認識することが出来、例えば自車両を発進させて良いか待機するかの判断が容易になる。   Then, the process proceeds to S58, and the virtual road surface display created in S62 is displayed superimposed on the actual image, for example, as indicated by R3 in FIG. With this virtual road surface display, the driver can immediately recognize that the moving body is going straight ahead and that the moving body is approaching in a few seconds, for example, whether to wait for the vehicle to start. Judgment becomes easier.

S61で、移動体が自車両に到達する時間t2と自車両が交差点に到達する時間t1との差が所定値k1以上である場合には、S63に進み、移動体が到達する時間と自車両が到達する時間に大きな時間差があるので、危険度小として、仮想画像作成部38により、移動体の進行方向である交差点を含む直線部分の路面の実画像上に重畳して表示する仮想路面表示を作成する。ここでは、危険度が小なので、仮想路面表示を青色とする。色を付けない場合は、濃淡を付けて、例えば、薄くする。   In S61, when the difference between the time t2 when the moving body reaches the own vehicle and the time t1 when the own vehicle reaches the intersection is equal to or greater than the predetermined value k1, the process proceeds to S63, and the time when the moving body reaches the own vehicle Since there is a large time difference in the arrival time of the vehicle, the virtual road surface display is displayed by superimposing on the real image of the road surface of the straight line portion including the intersection that is the traveling direction of the moving body by the virtual image creation unit 38 as the risk level is small Create Here, since the degree of danger is small, the virtual road surface display is blue. If no color is to be added, a shading is applied, for example, lightening.

そして、S58に進み、S63で作成した仮想路面表示を、実画像に重畳して表示する。ドライバーは、この仮想路面表示により、移動体が直進してくること、及び、かなり後に移動体が近づくことを即座に認識することが出来、例えば自車両を発進させて良いとの判断が容易になる。   In step S58, the virtual road surface display created in step S63 is displayed superimposed on the actual image. With this virtual road surface display, the driver can immediately recognize that the moving body is going straight ahead and that the moving body is approaching considerably later. For example, it is easy to determine that the host vehicle can be started. Become.

なお、S58においては、上述したように、仮想路面表示を、交差点までの到達時間t1、t2により異なるようにしているが、移動体の到達時間の算出の確信度に応じて変更して表示するようにしても良い。確信度とは、情報源である自律センサ情報、車車間通信情報、路車間通信情報、情報センター配信情報などの情報の精度のことである。例えば、自律センサ情報、車車間通信情報、路車間通信情報、情報センター配信情報の順で確信度が高い等と決定することが出来る。そして、確信度が高い場合には、仮想路面表示を点滅させたり、点滅の間隔を変えたりして、ドライバーが確信度を判断することが出来るようにしても良い。   In S58, as described above, the virtual road surface display is changed depending on the arrival times t1 and t2 to the intersection, but is changed and displayed according to the certainty of the calculation of the arrival time of the moving body. You may do it. The certainty is the accuracy of information such as autonomous sensor information, vehicle-to-vehicle communication information, road-to-vehicle communication information, and information center distribution information that are information sources. For example, it can be determined that the certainty is high in the order of autonomous sensor information, vehicle-to-vehicle communication information, road-to-vehicle communication information, and information center distribution information. If the certainty factor is high, the driver may be able to determine the certainty factor by blinking the virtual road surface display or changing the blinking interval.

S58の次には、S64に進み、頭出し位置判定部(図13参照)50により、自車両が頭出し位置(図4参照)を通過したか否かを判定する。自車両が頭出しをしているときには、S65に進み、合成画像作成部26(図参照)により、S58で表示した仮想画像を点滅表示させた後、その仮想画像の表示を中止する。   Following S58, the process proceeds to S64, and the cueing position determination unit (see FIG. 13) 50 determines whether or not the host vehicle has passed the cueing position (see FIG. 4). When the host vehicle is cueing, the process proceeds to S65, where the composite image creation unit 26 (see the drawing) causes the virtual image displayed in S58 to blink, and then stops displaying the virtual image.

次に、本発明の第3実施形態による作用効果を説明する。
本発明の実施形態による車両用周囲監視装置によれば、ドライバーから見て前方で左右に広がる領域内の死角領域を監視することが出来る。本実施形態では、死角領域の実画像を撮像するように車両の前方部にカメラ2、4、6が設けられ、移動体検出部30により、これらのカメラ2、4、6により撮像された実画像内から移動体が抽出される。さらに、移動体移動状態検出部32により移動体の移動状態が検出され、移動体の到達時間t2算出部36により移動体の到達時間が算出さる。また、自車両の交差点通過に要する時間t1算出部54により自車両の交差点通過に要する時間が算出され、それらを基に仮想画像作成部38により仮想路面画像を表示する表示態様が規定される。そして、仮想画像作成部38により仮想路面画像が生成され、合成画像作成部26により、仮想路面画像を規定された表示態様で実画像に重畳してモニタ14に表示する。
Next, functions and effects according to the third embodiment of the present invention will be described.
According to the vehicle surrounding monitoring apparatus according to the embodiment of the present invention, it is possible to monitor a blind spot area in an area that spreads left and right in front of the driver. In the present embodiment, cameras 2, 4, 6 are provided in the front part of the vehicle so as to capture a real image of the blind spot area, and an actual image captured by these cameras 2, 4, 6 by the moving body detection unit 30. A moving object is extracted from the image. Further, the moving state of the moving body is detected by the moving body moving state detecting unit 32, and the reaching time of the moving body is calculated by the reaching time t2 calculating unit 36 of the moving body. In addition, the time t1 calculating unit 54 required for passing the intersection of the host vehicle calculates the time required for passing the intersection of the host vehicle, and the virtual image creating unit 38 defines a display mode for displaying the virtual road surface image based on the calculated time. Then, a virtual road surface image is generated by the virtual image creating unit 38, and the synthesized image creating unit 26 superimposes the virtual road surface image on the actual image in a prescribed display manner and displays it on the monitor 14.

次に、第3実施形態によれば、移動体の移動状態に応じて移動体の進行方向前方側の路面上に所定の仮想路面画像を重畳して表示するので、移動体の仮想表示に加えて、その移動体が進行している路面も仮想表示され、より確実に、移動体の存在する方向や移動状態を把握することが出来る。   Next, according to the third embodiment, since a predetermined virtual road surface image is superimposed and displayed on the road surface in front of the moving body in accordance with the moving state of the moving body, in addition to the virtual display of the moving body, Thus, the road surface on which the moving body is traveling is virtually displayed, and the direction and moving state in which the moving body exists can be grasped more reliably.

次に、第3実施形態によれば、車両及び移動体が向かう交差路の交差点までの自車両の到達時間及び移動体の到達時間に応じて移動体の進行方向前方側の路面上に所定の仮想路面表示を重畳して表示するので、自車両及び移動体が向かう交差路の交差点までの自車両の到達時間及び移動体の到達時間に応じて移動体の進行方向前方側の路面上に所定の仮想路面表示が重畳して表示され、より確実且つ正確に、移動体の存在する方向や移動状態を把握することが出来る。   Next, according to the third embodiment, on the road surface ahead of the moving body in the advancing direction according to the arrival time of the host vehicle to the intersection of the intersection where the vehicle and the moving body go and the arrival time of the moving body, Since the virtual road surface display is superimposed and displayed, it is predetermined on the road surface in front of the traveling direction of the moving body according to the arrival time of the own vehicle to the intersection of the intersection where the own vehicle and the moving body go and the arrival time of the moving body. The virtual road surface display is superimposed and displayed, and the direction and moving state in which the moving body exists can be grasped more reliably and accurately.

次に、第3実施形態によれば、仮想路面表示が、交差点までの自車両の到達時間及び移動体の到達時間の算出の確信度に応じて変更して表示されるので、交差点までの自車両の到達時間及び移動体の到達時間の算出の確信度に応じて仮想路面表示が変更して表示され、より確実且つ正確に、移動体の存在する方向や移動状態を把握することが出来る。なお、確信度としては、例えば、自律センサ情報、車車間通信情報、路車間通信情報、情報センター配信情報の順で確信度が高い等と決定することが好ましい。   Next, according to the third embodiment, the virtual road surface display is changed and displayed in accordance with the certainty of calculation of the arrival time of the own vehicle to the intersection and the arrival time of the moving body, so the own road to the intersection is displayed. The virtual road surface display is changed and displayed according to the certainty of calculation of the arrival time of the vehicle and the arrival time of the moving body, and the direction and moving state in which the moving body exists can be grasped more reliably and accurately. In addition, as a certainty factor, it is preferable to determine that a certainty factor is high in order of autonomous sensor information, vehicle-to-vehicle communication information, road-to-vehicle communication information, and information center distribution information, for example.

次に、第3実施形態によれば、移動体検出部30により複数の移動体が検出されたとき、仮想画像生成部38は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体に対して仮想路面表示を生成するので、複数の移動体が存在するとき、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成され、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。   Next, according to the third embodiment, when the moving object detection unit 30 detects a plurality of moving objects, the virtual image generation unit 38 has the shortest distance to the own vehicle or the arrival time to the own vehicle. Since a virtual road surface display is generated for the shortest moving body, when there are a plurality of moving bodies, a virtual image of the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle is generated. Thus, it is possible to grasp the moving state of the moving body that may collide with the host vehicle more reliably.

次に、第3実施形態によれば、複数の移動体の仮想画像を全て表示すると複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、移動体の全ての仮想画像を生成するのではなく、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像が生成されるので、複数の仮想画像をそれぞれ混同することなく、より確実に自車両と衝突する恐れのある移動体の移動状態を把握することが出来る。   Next, according to the third embodiment, when all the virtual images of a plurality of moving bodies are displayed, the plurality of moving bodies and their virtual images are displayed in an overlapping manner, and all the virtual images of the moving bodies are generated. Instead, a virtual image of the moving body that has the shortest distance to the host vehicle or the shortest arrival time to the host vehicle is generated, so that the plurality of virtual images are not confused with each other more reliably. It is possible to grasp the moving state of a moving body that may collide.

次に、第3実施形態によれば、合成画像作成部26は、仮想画像を移動体の実画像と識別可能に、例えば、輪郭線のみ表示したり、透過した淡色表示をしたり、点滅表示したりして表示するので、ドライバーは仮想画像を仮想の画像として認識することが出来、実画像と仮想画像とを混同することがない。   Next, according to the third embodiment, the composite image creation unit 26 displays, for example, only a contour line, a transparent light color display, or a blinking display so that the virtual image can be distinguished from the real image of the moving object. Therefore, the driver can recognize the virtual image as a virtual image, and the real image and the virtual image are not confused.

次に、第3実施形態によれば、合成画像作成部26は、移動体の現時点での背景及び現時点での移動体に重畳して移動体の仮想画像又は仮想路面画像を表示するので、ドライバーは、実画像としては最新の現時点での映像を見ることが出来、それに対して仮想画像が表示されるので、より確実に周囲の状況と共に移動体の移動状態を把握することが出来る。   Next, according to the third embodiment, the composite image creation unit 26 displays a virtual image or a virtual road surface image of the moving object superimposed on the current background of the moving object and the moving object at the current time. As a real image, the latest video at the present time can be seen, and a virtual image is displayed for it, so that the moving state of the moving object can be grasped more reliably along with the surrounding situation.

なお、上述した第1乃至第3実施形態においては、移動体として主に車両を想定して説明をしてきたが、移動体としては、四輪車、二輪車、自転車、歩行者を含むようにしても良い。また、静止物としては、停止している四輪車、停止している二輪車、立ち止まっている歩行者や自転車、路側物、建物などが挙げられる。   In the first to third embodiments described above, the description has been given mainly assuming a vehicle as a moving body, but the moving body may include a four-wheeled vehicle, a two-wheeled vehicle, a bicycle, and a pedestrian. . In addition, examples of the stationary object include a stopped four-wheeled vehicle, a stopped two-wheeled vehicle, a stationary pedestrian and bicycle, a roadside object, and a building.

本発明の第1乃至第3実施形態による車両用周囲監視装置が適用された車両の全体構成図である。1 is an overall configuration diagram of a vehicle to which a vehicle surrounding monitoring device according to first to third embodiments of the present invention is applied. 本発明の第1乃至第3実施形態による車両用周囲監視装置のカメラによる撮像範囲の一例(a)及び撮像された映像の一例(b)を示す図である。It is a figure which shows an example (a) of the imaging range by the camera of the surroundings monitoring apparatus for vehicles by the 1st thru | or 3rd embodiment of this invention, and an example (b) of the imaged image. ドライバーによる交差路進入時における運転行動を説明するための図である。It is a figure for demonstrating the driving action at the time of the crossing approach by a driver. 自車両の頭出し位置を説明するための道路及び車両の俯瞰図である。It is a bird's-eye view of the road and vehicles for explaining the cueing position of the own vehicle. 本発明の第1乃至第3実施形態による車両用周囲監視装置の距離把握用仮想画像を表示するか否かの処理を示すフローチャートである。It is a flowchart which shows the process of whether to display the distance grasping | ascertainment virtual image of the vehicle periphery monitoring apparatus by 1st thru | or 3rd Embodiment of this invention. 本発明の第1実施形態による車両用周囲監視装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a vehicle surroundings monitoring device according to a first embodiment of the present invention. 本発明の第1実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートである。It is a flowchart which shows the display process of the virtual image for distance grasping | ascertainment of the vehicle periphery monitoring apparatus by 1st Embodiment of this invention. 本発明の第1実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)を示す図である。It is a figure which shows the imaging range by the camera of the surroundings monitoring apparatus for vehicles by 1st Embodiment of this invention, an example (a) of a moving body, and an example (b) of the image | video on which the virtual image was superimposed on the real image. 本発明の第2実施形態による車両用周囲監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring apparatus by 2nd Embodiment of this invention. 本発明の第2実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートである。It is a flowchart which shows the display processing of the distance grasping | ascertainment virtual image of the vehicle periphery monitoring apparatus by 2nd Embodiment of this invention. 本発明の第2実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)を示す図である。It is a figure which shows the imaging range by the camera of the surroundings monitoring apparatus for vehicles by 2nd Embodiment of this invention, an example (a) of a moving body, and an example (b) of the image | video on which the virtual image was superimposed on the real image. 本発明の第2実施形態による仮想画像が実画像に重畳された映像の一例である。It is an example of the image | video on which the virtual image by 2nd Embodiment of this invention was superimposed on the real image. 本発明の第3実施形態による車両用周囲監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring apparatus by 3rd Embodiment of this invention. 本発明の第3実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートである。It is a flowchart which shows the display process of the distance grasping | ascertainment virtual image of the vehicle periphery monitoring apparatus by 3rd Embodiment of this invention. 本発明の第3実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)、仮想画像が実画像に重畳された映像の一例(b)を示す図である。It is a figure which shows an example (a) of the imaging range by the camera of the surroundings monitoring apparatus for vehicles by 3rd Embodiment of this invention, an example (a) of a moving body, and an example (b) of the image | video on which the virtual image was superimposed on the real image. 本発明の第3実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)及び仮想画像が実画像に重畳された映像の一例(c)である。Example (a) of an imaging range by a camera and an example of a moving body (a), an example of a video in which a virtual image is superimposed on a real image, and a virtual image are superimposed on a real image according to the third embodiment of the present invention It is an example (c) of the produced | generated image | video.

符号の説明Explanation of symbols

1 車両
2、4、6 監視カメラ
7 レーザレーダ
10 車速センサ
12 GPS装置
13 ナビゲーション装置
14 画像表示モニタ
15 スピーカ
18 ECU
DESCRIPTION OF SYMBOLS 1 Vehicle 2, 4, 6 Monitoring camera 7 Laser radar 10 Vehicle speed sensor 12 GPS apparatus 13 Navigation apparatus 14 Image display monitor 15 Speaker 18 ECU

Claims (18)

ドライバーから見て前方で左右に広がる領域内の死角領域を監視する車両用周囲監視装置であって、
上記死角領域の実画像を撮像するように車両の前方部に設けられた実画像撮像手段と、
この実画像撮像手段により撮像された実画像内から移動体を抽出し、この移動体の移動状態を検出する移動体検出手段と、
この移動体検出手段で検出された移動体の移動状態を表すような所定の仮想画像を表示するためにその所定の仮想画像の表示態様を規定する仮想画像規定手段と、
上記移動体の仮想画像を上記仮想画像規定手段により規定される表示態様で上記実画像に重畳して表示する表示手段と、
を有することを特徴とする車両用周囲監視装置。
A vehicle surrounding monitoring device that monitors a blind spot area in an area that extends from side to side in front of a driver,
Real image capturing means provided at the front of the vehicle so as to capture a real image of the blind spot area;
A moving body detecting means for extracting a moving body from the real image captured by the real image capturing means and detecting a moving state of the moving body;
Virtual image defining means for defining a display mode of the predetermined virtual image in order to display a predetermined virtual image representing the moving state of the moving object detected by the moving object detecting means;
Display means for superimposing and displaying the virtual image of the moving body on the real image in a display mode defined by the virtual image defining means;
A vehicle surrounding monitoring device characterized by comprising:
上記ドライバーの死角領域は車両の前方側の交差路の交差点の周辺の死角領域であり、
上記実画像撮像手段は、車両の前方端に設けられ、車両が交差路に差し掛かるとき、その車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像する請求項1に記載の車両用周囲監視装置。
The driver's blind spot area is a blind spot area around the intersection of the intersection on the front side of the vehicle,
The said real image imaging means is provided in the front end of a vehicle, and when a vehicle approaches an intersection, the real image around the intersection of the intersection which can be imaged from the front end of the vehicle is imaged. Vehicle surrounding monitoring device.
上記仮想画像規定手段は、上記移動体の移動状態として、その移動体の進行方向延長線上の所定時間後の推定到達位置に上記移動体の仮想画像が表示されるように上記移動体の仮想画像を表示する表示態様を規定する請求項1又は請求項2に記載の車両用周囲監視装置。   The virtual image defining means is a virtual image of the moving object such that the virtual image of the moving object is displayed at the estimated arrival position after a predetermined time on the extension line of the moving object as the moving state of the moving object. The vehicle surroundings monitoring device according to claim 1 or 2, wherein a display mode for displaying is displayed. さらに、上記所定時間に基づいてその表示された移動体の現在の位置からの到達予測時間の数値表示を上記移動体の仮想画像に合わせて表示する第2表示手段を有する請求項3に記載の車両用周囲監視装置。   The second display unit according to claim 3, further comprising: a second display unit configured to display a numerical display of a predicted arrival time from the current position of the displayed moving body based on the predetermined time in accordance with a virtual image of the moving body. Vehicle surrounding monitoring device. 上記仮想画像規定手段は、上記移動体の移動状態として、その移動体が移動してきた過去の位置に上記移動体の仮想画像が等時間間隔で残像として表示されるように上記移動体の仮想画像を表示する表示態様を規定する請求項1又は請求項2に記載の車両用周囲監視装置。   The virtual image defining means is a moving image of the moving object such that a virtual image of the moving object is displayed as an afterimage at equal time intervals at a past position where the moving object has moved. The vehicle surroundings monitoring device according to claim 1 or 2, wherein a display mode for displaying is displayed. さらに、上記等時間間隔の残像に合わせてベクトル表示を行う第3表示手段を有する請求項5に記載の車両用周囲監視装置。   The vehicle surrounding monitoring apparatus according to claim 5, further comprising third display means for performing vector display in accordance with the afterimages at equal time intervals. 上記表示手段は、上記移動体の仮想画像を、上記移動体の自車両からの距離が所定距離以上の遠距離にある場合に、所定距離より小さい場合よりも拡大して表示する請求項5又は請求項6に記載の車両用周囲監視装置。   The display means displays the virtual image of the moving body in an enlarged manner when the distance from the vehicle of the moving body is a predetermined distance or more than when the distance is smaller than the predetermined distance. The vehicle surrounding monitoring apparatus according to claim 6. 上記表示手段は、上記移動体の仮想画像の表示を上記移動体の自車両からの距離が所定距離範囲内であるか、或いは、移動体の自車両への到達時間が所定時間範囲内にあるときに行う請求項1乃至7のいずれか1項に記載の車両用周囲監視装置。   The display means displays the virtual image of the moving body so that the distance of the moving body from the host vehicle is within a predetermined distance range or the arrival time of the moving body to the host vehicle is within a predetermined time range. The vehicle surrounding monitoring device according to any one of claims 1 to 7, which is sometimes performed. 上記表示手段は、上記移動体の仮想画像を上記移動体の実体および実状と識別可能に表示する請求項1乃至8のいずれか1項に記載の車両用周囲監視装置。   The vehicle surrounding monitoring apparatus according to any one of claims 1 to 8, wherein the display means displays a virtual image of the moving body so as to be distinguishable from an entity and a real state of the moving body. 上記移動体検出手段により複数の移動体が検出されたとき、上記仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像の表示態様を規定し、上記表示手段は、その規定された仮想画像を実画像に重畳して表示する請求項1乃至9のいずれか1項に記載の車両用周囲監視装置。   When a plurality of moving bodies are detected by the moving body detecting means, the virtual image defining means is configured to display a virtual image of the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle. The vehicle surrounding monitoring apparatus according to any one of claims 1 to 9, wherein the display means defines and displays the defined virtual image superimposed on a real image. 上記移動体検出手段により複数の移動体が検出され、上記表示手段が上記複数の移動体の仮想画像を全て表示すると上記複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、上記仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体の仮想画像の表示態様を規定し、上記表示手段は、その規定された仮想画像を実画像に重畳して表示する請求項1乃至9のいずれか1項に記載の車両用周囲監視装置。   When the plurality of moving bodies are detected by the moving body detecting means and the display means displays all the virtual images of the plurality of moving bodies, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. The virtual image defining means defines a display mode of a virtual image of a moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle, and the display means displays the defined virtual image as a real image. The vehicle surrounding monitoring device according to any one of claims 1 to 9, wherein the vehicle surrounding monitoring device is displayed in a superimposed manner. 上記仮想画像規定手段は、上記移動体の移動状態を表すために、上記移動体の進行方向前方側の路面上に上記移動体の移動状態を示す仮想路面画像を表示するようにその表示態様を規定する請求項1又は請求項2に記載の車両用周囲監視装置。   The virtual image defining means displays the virtual road surface image indicating the moving state of the moving body on the road surface ahead of the moving body in order to represent the moving state of the moving body. The vehicle surrounding monitoring device according to claim 1 or 2, wherein the vehicle surrounding monitoring device is defined. 上記仮想画像規定手段は、自車両及び上記移動体が向かう交差路の交差点までの自車両の到達時間及び上記移動体の到達時間に応じて異なる、或いは、自車両及び上記移動体が向かう交差路の交差点での自車両の通過時間及び上記移動体の到達時間に応じて異なる仮想路面画像を上記移動体の進行方向前方側の路面上に表示するように上記仮想路面画像の表示態様を規定する請求項12に記載の車両用周囲監視装置。   The virtual image defining means is different depending on the arrival time of the own vehicle and the arrival time of the moving body until the intersection of the own vehicle and the moving body, or the intersection where the own vehicle and the moving body are headed. The display mode of the virtual road surface image is defined so that a different virtual road surface image is displayed on the road surface in front of the moving body in accordance with the passing time of the own vehicle at the intersection and the arrival time of the moving body. The vehicle surrounding monitoring apparatus according to claim 12. 上記仮想画像規定手段は、上記仮想路面表示を、上記交差点までの上記自車両の到達時間及び上記移動体の到達時間の算出の確信度に応じて仮想路面画像を変更するようにその表示態様を規定する請求項12又は請求項13に記載の車両用周囲監視装置。   The virtual image defining means changes the display mode of the virtual road surface display so as to change the virtual road surface image according to the certainty of calculation of the arrival time of the host vehicle to the intersection and the arrival time of the moving body. The vehicle surrounding monitoring device according to claim 12 or 13, wherein the vehicle surrounding monitoring device is defined. 上記移動体検出手段により複数の移動体が検出されたとき、上記仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体に対して上記仮想路面画像の表示態様を規定し、上記表示手段は、その規定された仮想路面画像のみを仮想画像として上記実画像に重畳して表示する請求項12乃至14のいずれか1項に記載の車両用周囲監視装置。   When a plurality of moving bodies are detected by the moving body detecting means, the virtual image defining means is configured to display the virtual road surface image with respect to the moving body having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle. The vehicle surrounding monitoring according to any one of claims 12 to 14, wherein the display means displays only the specified virtual road surface image as a virtual image superimposed on the real image. apparatus. 上記移動体検出手段により複数の移動体が検出され、上記表示手段が上記複数の移動体の仮想画像を全て表示すると上記複数の移動体及びそれらの仮想画像が重なって表示されてしまうとき、上記仮想画像規定手段は、自車両までの距離が最も小さい或いは自車両までの到達時間が最も短い移動体に対して上記仮想路面画像の表示態様を規定し、上記表示手段は、その規定された仮想路面画像のみを仮想画像として上記実画像に重畳して表示する請求項12乃至14のいずれか1項に記載の車両用周囲監視装置。   When the plurality of moving bodies are detected by the moving body detecting means and the display means displays all the virtual images of the plurality of moving bodies, the plurality of moving bodies and their virtual images are displayed in an overlapping manner. The virtual image defining means defines the display mode of the virtual road surface image for a moving object having the shortest distance to the own vehicle or the shortest arrival time to the own vehicle, and the display means The vehicle surrounding monitoring apparatus according to any one of claims 12 to 14, wherein only a road surface image is displayed as a virtual image superimposed on the real image. 上記表示手段は、上記仮想画像を上記移動体の実画像と識別可能に表示する請求項1乃至16のいずれか1項に記載の車両用周囲監視装置。   The vehicle surrounding monitoring apparatus according to claim 1, wherein the display unit displays the virtual image so as to be distinguishable from a real image of the moving body. 上記表示手段は、上記移動体の現時点での背景及び現時点での移動体の実画像に重畳して上記移動体の仮想画像又は仮想路面画像を表示する請求項1乃至17のいずれか1項に記載の車両用周囲監視装置。   18. The display unit according to claim 1, wherein the display unit displays a virtual image or a virtual road surface image of the moving body superimposed on a current background of the moving body and a real image of the moving body at the current time. The vehicle surrounding monitoring device as described.
JP2008071872A 2008-03-19 2008-03-19 Surrounding monitoring device for vehicle Abandoned JP2009231938A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008071872A JP2009231938A (en) 2008-03-19 2008-03-19 Surrounding monitoring device for vehicle
US12/350,480 US8054201B2 (en) 2008-03-19 2009-01-08 Surroundings monitoring device for vehicle
EP09003114A EP2103485A3 (en) 2008-03-19 2009-03-04 Surroundings monitoring device, method and computer program product for a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008071872A JP2009231938A (en) 2008-03-19 2008-03-19 Surrounding monitoring device for vehicle

Publications (1)

Publication Number Publication Date
JP2009231938A true JP2009231938A (en) 2009-10-08

Family

ID=41246898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008071872A Abandoned JP2009231938A (en) 2008-03-19 2008-03-19 Surrounding monitoring device for vehicle

Country Status (1)

Country Link
JP (1) JP2009231938A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222776A (en) * 2011-04-14 2012-11-12 Isuzu Motors Ltd Image processing apparatus, image processing method, and driving support system
JP2014021770A (en) * 2012-07-19 2014-02-03 Denso Corp Onboard acoustic apparatus and program
JP2015138441A (en) * 2014-01-23 2015-07-30 株式会社デンソー Driving support device
JP2016088158A (en) * 2014-10-30 2016-05-23 本田技研工業株式会社 Periphery monitoring apparatus
WO2016185691A1 (en) * 2015-05-20 2016-11-24 株式会社デンソー Image processing apparatus, electronic mirror system, and image processing method
JP2017102928A (en) * 2015-12-03 2017-06-08 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Detection of inclination of two wheeler
JP2018037001A (en) * 2016-09-02 2018-03-08 株式会社デンソー Vehicle driving assist system
WO2019004078A1 (en) * 2017-06-27 2019-01-03 パナソニックIpマネジメント株式会社 Peripheral image display device and display control device
WO2019044185A1 (en) * 2017-08-28 2019-03-07 株式会社デンソー Video output device, video generation program, and non-transitory tangible computer-readable medium
JP2021060720A (en) * 2019-10-04 2021-04-15 株式会社豊田自動織機 Object detection device
CN112744230A (en) * 2019-10-29 2021-05-04 三菱电机株式会社 Vehicle rear side monitoring device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222776A (en) * 2011-04-14 2012-11-12 Isuzu Motors Ltd Image processing apparatus, image processing method, and driving support system
JP2014021770A (en) * 2012-07-19 2014-02-03 Denso Corp Onboard acoustic apparatus and program
US9451380B2 (en) 2012-07-19 2016-09-20 Denso Corporation Apparatus and method for localizing sound image for vehicle's driver
JP2015138441A (en) * 2014-01-23 2015-07-30 株式会社デンソー Driving support device
JP2016088158A (en) * 2014-10-30 2016-05-23 本田技研工業株式会社 Periphery monitoring apparatus
WO2016185691A1 (en) * 2015-05-20 2016-11-24 株式会社デンソー Image processing apparatus, electronic mirror system, and image processing method
JP2016220011A (en) * 2015-05-20 2016-12-22 株式会社デンソー Image processing apparatus, electronic mirror system, and image processing method
JP2022171774A (en) * 2015-12-03 2022-11-11 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Detection of inclination of two wheeler
JP2017102928A (en) * 2015-12-03 2017-06-08 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Detection of inclination of two wheeler
JP7553520B2 (en) 2015-12-03 2024-09-18 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Tilt detection for motorcycles
JP7179440B2 (en) 2015-12-03 2022-11-29 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Tilt detection in motorcycles
JP2018037001A (en) * 2016-09-02 2018-03-08 株式会社デンソー Vehicle driving assist system
WO2019004078A1 (en) * 2017-06-27 2019-01-03 パナソニックIpマネジメント株式会社 Peripheral image display device and display control device
JP2019041334A (en) * 2017-08-28 2019-03-14 株式会社Soken Video output device and video generation program
WO2019044185A1 (en) * 2017-08-28 2019-03-07 株式会社デンソー Video output device, video generation program, and non-transitory tangible computer-readable medium
JP2021060720A (en) * 2019-10-04 2021-04-15 株式会社豊田自動織機 Object detection device
JP7298426B2 (en) 2019-10-04 2023-06-27 株式会社豊田自動織機 object detector
CN112744230A (en) * 2019-10-29 2021-05-04 三菱电机株式会社 Vehicle rear side monitoring device
CN112744230B (en) * 2019-10-29 2024-07-23 三菱电机株式会社 Vehicle rear side monitoring device

Similar Documents

Publication Publication Date Title
JP2009231938A (en) Surrounding monitoring device for vehicle
US11535155B2 (en) Superimposed-image display device and computer program
JP4774849B2 (en) Vehicle obstacle display device
JP5536125B2 (en) Image processing apparatus and method, and moving object collision prevention apparatus
US9507345B2 (en) Vehicle control system and method
JP4862774B2 (en) Driving support method and driving support device
JP6307895B2 (en) Vehicle periphery monitoring device
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
JP2009226978A (en) Vehicular circumference monitoring device
JP2015049842A (en) Alert display device and alert display method
JP2008131648A (en) Method and system for presenting video images
CN111273765B (en) Vehicle display control device, vehicle display control method, and storage medium
JP2008250503A (en) Operation support device
JPWO2018207303A1 (en) In-vehicle surveillance camera device
JP2017536621A (en) Method for operating driver assistance system for motor vehicle, driver assistance system, and motor vehicle
JP2009184554A (en) Safe travel assisting system
JP2009231937A (en) Surroundings monitoring device for vehicle
JP2007034988A (en) Obstacle avoidance warning device for vehicle
JP2019120994A (en) Display control device and display control method
JP2008151507A (en) Apparatus and method for merge guidance
WO2019193928A1 (en) Vehicle system, spatial spot estimation method, and spatial spot estimation device
JP6396672B2 (en) Information display device and information display method
JP2020065141A (en) Vehicle overhead image generation system and method thereof
JP6375633B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP4986070B2 (en) Ambient monitoring device for vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111216

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20111228