JP2009226978A - Vehicular circumference monitoring device - Google Patents

Vehicular circumference monitoring device Download PDF

Info

Publication number
JP2009226978A
JP2009226978A JP2008071874A JP2008071874A JP2009226978A JP 2009226978 A JP2009226978 A JP 2009226978A JP 2008071874 A JP2008071874 A JP 2008071874A JP 2008071874 A JP2008071874 A JP 2008071874A JP 2009226978 A JP2009226978 A JP 2009226978A
Authority
JP
Japan
Prior art keywords
image
grid
vehicle
moving body
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2008071874A
Other languages
Japanese (ja)
Inventor
Masaki Chiba
正基 千葉
Tomokazu Okuki
友和 奥木
Kazuyuki Okuda
一之 奥田
Yuka Oe
由佳 大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2008071874A priority Critical patent/JP2009226978A/en
Priority to US12/350,480 priority patent/US8054201B2/en
Priority to EP09003114A priority patent/EP2103485A3/en
Publication of JP2009226978A publication Critical patent/JP2009226978A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicular circumference monitoring device that provides a driver with an intuitive depth feel in a blind spot image. <P>SOLUTION: The vehicular circumference monitoring device that monitors a blind spot in an area stretching right and left in front of the driver, comprises: actual image taking means (2, 4, 6) disposed in front of the vehicle to take an actual blind spot image; a grid image generation means (34, 38) generating a virtual grid image to display a road depth feel in the blind spot image taken by the actual image taking means; a virtual grid image defining means (34, 38) defining the size, shape and orientation of the grid of the virtual grid image according to the actual blind spot image taken by the actual image taking means; and a display means (26, 14) displaying an image by superimposing the virtual grid image onto the actual image according to the size, shape and orientation defined by the grid image defining means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両用周囲監視装置に係り、特に、ドライバーの死角領域を監視する車両用周囲監視装置に関する。   The present invention relates to a vehicle surrounding monitoring device, and more particularly to a vehicle surrounding monitoring device that monitors a blind spot area of a driver.

従来、車両前方側における左右方向の死角映像を撮像してモニタ表示する装置が知られている(特許文献1、特許文献2)   2. Description of the Related Art Conventionally, devices that capture and display a blind spot image in the left-right direction on the front side of a vehicle are known (Patent Documents 1 and 2).

特開2007−172462号公報JP 2007-172462 A 特開平11−338074号公報JP 11-338074 A

上述したような装置は、例えばモニタ上に左右方向の死角領域がそのまま表示されるだけのものであり、例えば映像にゆがみがあったり、遠近の区別がつきにくかったりして、奥行き感を直感的に把握することが難しいものであった。そのような表示をドライバーが見て死角領域の状況を判断するのであるが、奥行き感が分からない故に、例えば左右方向から接近してくる車両までの距離感が直感的に分かりにくいものであった。   The device as described above, for example, simply displays the blind spot area in the left-right direction on the monitor as it is. For example, the image is distorted or the perspective is difficult to distinguish, making the sense of depth intuitive. It was difficult to grasp. The driver looks at such a display to determine the state of the blind spot area, but because the depth is not known, for example, the sense of distance to the vehicle approaching from the left and right direction is difficult to understand intuitively. .

本発明は、上述した従来技術の問題点を解決するためになされたものであり、死角領域の画像内の奥行き感を直感的に把握し易い車両用周囲監視装置を提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to provide a vehicle surrounding monitoring device that makes it easy to intuitively grasp the sense of depth in an image of a blind spot area. .

上記の目的を達成するために本発明によれば、ドライバーから見て前方で左右に広がる領域内の死角領域を監視する車両用周囲監視装置であって、死角領域の実画像を撮像するように車両の前方部に設けられた実画像撮像手段と、実映像撮像手段により撮像された死角領域に道路の奥行き感を表す仮想の格子状グリッド画像を生成するグリッド画像生成手段と、実映像撮像手段により撮像された死角領域の実画像に合わせて仮想の格子状グリッド画像の格子の大きさ、形状及び向きを規定する仮想格子画像規定手段と、この格子画像規定手段により規定される大きさ、形状及び向きで仮想の格子状グリッド画像を実画像に重畳して表示する表示手段と、を有することを特徴としている。   In order to achieve the above object, according to the present invention, there is provided a vehicle surrounding monitoring device for monitoring a blind spot area in an area that spreads left and right in front of a driver so as to capture a real image of the blind spot area. Real image capturing means provided in the front part of the vehicle, grid image generating means for generating a virtual grid-like grid image representing a sense of road depth in the blind spot area imaged by the real image capturing means, and real image capturing means Virtual grid image defining means for defining the size, shape, and orientation of the virtual grid-like grid image in accordance with the real image of the blind spot area imaged by, and the size and shape defined by the grid image defining means And display means for superimposing and displaying a virtual grid-like grid image on the real image in the orientation.

このように構成された本発明においては、奥行き感を表す仮想の格子状グリッド画像が表示され、この格子グリッド画像が撮像された死角領域の実画像に合わせて、その大きさ、形状及び向きが規定されるので、ドライバーは周囲の例えば道路の距離感を直感的に把握することが出来る。   In the present invention configured as described above, a virtual grid-like grid image representing a sense of depth is displayed, and the size, shape, and orientation of the grid-grid image are adjusted in accordance with the actual image of the blind spot area in which the grid grid image is captured. Since it is defined, the driver can intuitively grasp the distance feeling of the surroundings, for example, the road.

また、本発明において、好ましくは、仮想格子画像規定手段は、自車両の前方で所定の方向に延びる路面が延びる方向に沿って延びる格子線を有する。
このように構成された本発明においては、格子状グリッド画像が、自車両の前方で所定の方向に延びる路面が延びる方向に沿って延びる格子線を有するので、ドライバーはその路面の奥行き感を直感的に把握出来る。
In the present invention, it is preferable that the virtual lattice image defining means has a lattice line extending along a direction in which a road surface extending in a predetermined direction in front of the host vehicle extends.
In the present invention configured as described above, the grid-like grid image has grid lines extending in the direction in which the road surface extending in a predetermined direction in front of the host vehicle extends, so that the driver can intuitively feel the depth feeling of the road surface. Can be grasped.

また、本発明において、好ましくは、表示手段は、仮想の格子状グリッド画像を実画像の上方の空の領域に表示する。
このように構成された本発明においては、様々な道路状況に応じて理想的な格子状グリッド画像を表示することが出来、ドライバーもそれを見やすくなる。
In the present invention, it is preferable that the display unit displays the virtual grid-like grid image in an empty area above the real image.
In the present invention configured as described above, an ideal grid-like grid image can be displayed according to various road conditions, and the driver can easily see it.

また、本発明において、好ましくは、さらに、実画像撮像手段により撮像された実画像内から移動体を検出する移動体検出手段と、この移動体検出手段により移動体が検出されたとき、その移動体の位置及び/又は種類を検出する移動体状態検出手段と、を有し、表示手段は、仮想の格子状グリッド画像に重畳して、移動体の位置及び/又は種類を識別可能にするための光点を表示する。
このように構成された本発明においては、仮想の格子状グリッド画像に重畳して、移動体の位置及び/又は種類を識別可能にするための光点が表示されるので、ドライバーは、移動体の位置及び/又は種類を識別し易くなる。
In the present invention, preferably, further, a moving body detecting means for detecting a moving body from within the real image captured by the real image capturing means, and when the moving body is detected by the moving body detecting means, the movement is detected. Moving body state detecting means for detecting the position and / or type of the body, and the display means superimposes on the virtual grid-like grid image so that the position and / or type of the moving body can be identified. Displays the light spot.
In the present invention configured as described above, the light spot for identifying the position and / or type of the moving body is displayed superimposed on the virtual grid-like grid image. It becomes easy to identify the position and / or type of the.

また、本発明において、好ましくは、さらに、実画像撮像手段により撮像された実画像内から移動体を検出する移動体検出手段と、この移動体検出手段により移動体が検出されたとき、その移動体の種類及び/又は移動速度及び/又は移動方向を検出する移動体状態検出手段と、を有し、表示手段は、仮想の格子状グリッド画像に重畳して、移動体の移動速度及び/又は移動方向を識別可能にするための矢印を表示する。
このように構成された本発明においては、仮想の格子状グリッド画像に重畳して、移動体の移動速度及び/又は移動方向を識別可能にするための矢印が表示されるので、ドライバーは、移動体の移動速度及び/又は移動方向を識別し易くなる。
In the present invention, preferably, further, a moving body detecting means for detecting a moving body from within the real image captured by the real image capturing means, and when the moving body is detected by the moving body detecting means, the movement is detected. Moving body state detecting means for detecting the type and / or moving speed and / or moving direction of the body, and the display means superimposes on the virtual grid-like grid image to move the moving speed and / or Displays an arrow to make the direction of movement identifiable.
In the present invention configured as described above, an arrow for displaying the moving speed and / or moving direction of the moving object is displayed superimposed on the virtual grid-like grid image. It becomes easy to identify the moving speed and / or moving direction of the body.

また、本発明において、好ましくは、表示手段は、矢印の太さを、移動体の交差点への到達時間に応じて変化させる。
このように構成された本発明においては、ドライバーは移動体の交差点への到達時間を直感的に把握することが出来る。
In the present invention, it is preferable that the display unit changes the thickness of the arrow according to the arrival time of the moving body at the intersection.
In the present invention configured as described above, the driver can intuitively grasp the arrival time of the moving body at the intersection.

また、本発明において、好ましくは、ドライバーの死角領域は車両の前方側の交差路の交差点の周辺の死角領域であり、実像撮像手段は、車両の前方端に設けられ、車両が交差路に差し掛かるとき、その車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像する。
このように構成された本発明においては、ドライバーは衝突事故の多発する交差点の左右交差路の情報を得ることが出来、より安全な走行が可能となる。
In the present invention, preferably, the blind spot area of the driver is a blind spot area around the intersection of the intersection on the front side of the vehicle, and the real image capturing means is provided at the front end of the vehicle, and the vehicle is inserted into the intersection. When hanging, an actual image around the intersection of an intersection that can be imaged from the front end of the vehicle is captured.
In the present invention configured as described above, the driver can obtain information on the left and right intersections of intersections where collision accidents frequently occur, and safer driving is possible.

また、本発明において、好ましくは、さらに、交差点においてドライバーの見通しが良くなる頭出し位置を算出する頭出し位置算出手段を有し、表示手段は、自車両が頭出し位置に達した後、仮想の格子状グリッド画像の表示を中止する。
このように構成された本発明においては、仮想の格子状グリッド画像の表示が中止されることで、ドライバーは、自車両が頭出し位置にあることを把握すると共に自らの目で道路状況を把握するようにすることが出来る。
Further, in the present invention, preferably, it further includes a cue position calculating means for calculating a cue position at which the driver's line of sight is improved at the intersection, and the display means is configured to display a virtual position after the host vehicle reaches the cue position. Stop displaying the grid grid image of.
In the present invention configured as described above, the display of the virtual grid-like grid image is stopped, so that the driver grasps that the own vehicle is at the cueing position and grasps the road condition with his own eyes. You can do that.

また、本発明において、好ましくは、仮想格子画像規定手段は、仮想の格子状グリッド画像が、移動体或いは他の道路上の標識及び信号と重複しない高さに表示される。
このように構成された本発明においては、道路上の重要な移動体や標識などが仮想の格子状グリッド画像に隠れることがないので、ドライバーはそれらを確実に認識することが出来る。
In the present invention, it is preferable that the virtual lattice image defining means displays the virtual lattice-like grid image at a height that does not overlap with a sign or signal on a moving object or other road.
In the present invention configured as described above, since important moving objects and signs on the road are not hidden in the virtual grid-like grid image, the driver can surely recognize them.

また、本発明において、好ましくは、仮想格子画像規定手段は、仮想の格子状グリッド画像が、移動体或いは他の道路上の標識及び信号と重複する部分がある場合、表示される仮想の格子グリッド画像のうち重複する部分を消去する。
このように構成された本発明においては、道路上の重要な移動体や標識などが仮想の格子状グリッドに隠れることがないので、ドライバーはそれらを確実に認識することが出来る。
In the present invention, it is preferable that the virtual grid image defining means is a virtual grid grid to be displayed when the virtual grid-like grid image overlaps a sign or signal on a moving object or other road. Eliminate overlapping parts of images.
In the present invention configured as described above, since important moving objects and signs on the road are not hidden in the virtual grid grid, the driver can surely recognize them.

本発明の車両用周囲監視装置によれば、死角領域の画像内の奥行き感を直感的に把握し易い。   According to the vehicle surrounding monitoring apparatus of the present invention, it is easy to intuitively grasp the sense of depth in the image of the blind spot area.

以下、添付図面を参照しながら本発明の好ましい実施の形態について説明する。
先ず、図1及び図2により、本発明の実施形態による車両用周囲監視装置の基本構成を説明する。図1は、本発明の実施形態による車両用周囲監視装置が適用された車両の全体構成図であり、図2は、本発明の実施形態による車両用周囲監視装置のカメラによる撮像範囲の一例(a)及び撮像された映像の一例(b)を示す図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
First, with reference to FIGS. 1 and 2, a basic configuration of a vehicle surrounding monitoring apparatus according to an embodiment of the present invention will be described. FIG. 1 is an overall configuration diagram of a vehicle to which a vehicle surroundings monitoring device according to an embodiment of the present invention is applied. FIG. 2 is an example of an imaging range by a camera of a vehicle surroundings monitoring device according to an embodiment of the present invention ( It is a figure which shows an example (b) of a and the image | video imaged.

図1に示すように、車両1は、左方監視カメラ2、前方監視カメラ4及び右方監視カメラ6を有し、これらのカメラは、車両の前端部に取り付けられている。これらのカメラは、広角レンズ使用のCCDカメラであり、例えば、図2(a)に示すような範囲を撮像し、図2(b)に示すような画像を得ることが出来る。   As shown in FIG. 1, the vehicle 1 has a left monitoring camera 2, a front monitoring camera 4, and a right monitoring camera 6, and these cameras are attached to the front end of the vehicle. These cameras are CCD cameras using a wide-angle lens, and for example, can capture a range as shown in FIG. 2A and obtain an image as shown in FIG.

また、車両1は、車速センサ10、ジャイロ11、GPS装置12、ナビゲーション装置13及び画像表示モニタ14を有している。モニタ14は、運転席16のドライバーが見ることが出来る位置に配置されている。さらに、車両1は、ECU18を有し、このECU18には、上述した各カメラ2、4、6、車速センサ10、ジャイロ11、GPS装置12からの信号が入力され、所定の画像をモニタ14に表示する。   The vehicle 1 also includes a vehicle speed sensor 10, a gyro 11, a GPS device 12, a navigation device 13, and an image display monitor 14. The monitor 14 is arranged at a position where the driver of the driver's seat 16 can see. Further, the vehicle 1 has an ECU 18, and signals from the cameras 2, 4, 6, the vehicle speed sensor 10, the gyro 11, and the GPS device 12 are input to the ECU 18, and a predetermined image is displayed on the monitor 14. indicate.

さらに、車両1は、他車両との距離を検出するためのレーザレーダ7を有する。なお、レーザレーダ7の代わりに、車車間通信により他車両との距離を把握するようにしたり、路車間通史により他車両との距離を把握するようにしても良い。   Furthermore, the vehicle 1 has a laser radar 7 for detecting a distance from another vehicle. Instead of the laser radar 7, the distance from the other vehicle may be grasped by inter-vehicle communication, or the distance from the other vehicle may be grasped by the road-to-vehicle history.

次に、図3により、ドライバーによる交差路進入時における運転行動を説明する。図3は、ドライバーによる交差路進入時における運転行動を説明するための図である。
まず、交差路手前では一時停止する。その後、徐行しながら鼻出し位置に進み、カメラ出し位置(図2(a)参照)に進み、そして、頭出し位置(図4参照)に進む。図4は、自車両の頭出し位置を説明するための道路及び車両の俯瞰図である。
Next, with reference to FIG. 3, driving behavior when a driver enters an intersection will be described. FIG. 3 is a diagram for explaining driving behavior when a driver enters an intersection.
First, stop before the intersection. After that, the vehicle proceeds slowly to the nasal position, proceeds to the camera position (see FIG. 2A), and proceeds to the cue position (see FIG. 4). FIG. 4 is an overhead view of the road and the vehicle for explaining the cueing position of the own vehicle.

先ず、鼻出し位置は、他車や歩行者に自車両の存在を知らせる位置である。カメラ出し位置は、図2(a)に示すように、車両の先端が交差路内に入った状態であり、ドライバーからは交差路を見通せないが、車両の前端部に取り付けられたカメラ2、4、6により、交差路内を見通せる位置である。頭出し位置は、図4に示すように、ドライバーが座る運転席が交差路内に入ったときの位置であり、ドライバーが直接に、自分の目で交差路内を見通せるようになった位置である。   First, the nose out position is a position that informs other vehicles and pedestrians of the presence of the host vehicle. As shown in FIG. 2 (a), the camera exit position is a state in which the front end of the vehicle enters the intersection, and the driver cannot see the intersection, but the camera 2 attached to the front end of the vehicle, 4 and 6 are positions where the intersection can be seen. As shown in Fig. 4, the cueing position is the position when the driver's seat where the driver sits enters the intersection, and the driver can directly see inside the intersection with his own eyes. is there.

本発明の実施形態による車両用周囲監視装置では、これらの一時停止から頭出し位置までの間に後述する仮想画像を表示するようにしている。そして、頭出し位置になると、仮想画像を点滅させ、そして、頭出し位置を通過後には、仮想画像の表示を中止する。   In the vehicle surrounding monitoring apparatus according to the embodiment of the present invention, a virtual image to be described later is displayed between the temporary stop and the cueing position. When the cueing position is reached, the virtual image blinks, and after passing through the cueing position, the display of the virtual image is stopped.

次に、図5により、本発明の実施形態による車両用周囲監視装置の構成を説明する。図5は、本発明の実施形態による車両用周囲監視装置の構成を示すブロック図である。
本発明の実施形態は、実際に存在する移動体(交差点に向かってくる他車両など)が、自車両からどの程度の距離に存在するか、どのような種類の移動体か、どのような方向及び速度で移動しているかを、例えば後述する図9に示すような、グリッド、光点、ベクトルなどの仮想画像を表示することにより、ドライバーが移動体の移動状態を認識するようにしたものである。これにより、例えばドライバーが自車両を発進させて良いか否かの判断を助けることが出来る。また、移動体が無くても、グリッドの仮想画像を表示して、交差路の奥行き感などをドライバーが感じることが出来るようにすることが出来る。
Next, the configuration of the vehicle surrounding monitoring apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 5 is a block diagram showing a configuration of the vehicle surrounding monitoring apparatus according to the embodiment of the present invention.
In the embodiment of the present invention, the actual distance of a moving body (such as another vehicle heading for an intersection) is present from the own vehicle, what kind of moving body, and what direction The driver recognizes the moving state of the moving object by displaying a virtual image such as a grid, a light spot, and a vector as shown in FIG. is there. Thereby, for example, it is possible to help the driver determine whether or not to start the host vehicle. Further, even if there is no moving body, a virtual image of the grid can be displayed so that the driver can feel the sense of depth of the intersection.

図5に示すように、周辺監視センサ20として構成される各カメラ2、4、6からの画像信号が、ECU18内の画像取得部22に入力される。入力された画像信号は広角画像であり歪みが生じているので、その画像が画像補正部24で補正される。この画像補正部24からの画像信号は、合成画像作成部26に実画像として入力される。   As shown in FIG. 5, image signals from the cameras 2, 4, 6 configured as the periphery monitoring sensor 20 are input to the image acquisition unit 22 in the ECU 18. Since the input image signal is a wide-angle image and is distorted, the image correction unit 24 corrects the image. The image signal from the image correction unit 24 is input to the composite image creation unit 26 as a real image.

移動体検出部30では、画像補正部24からの入力画像内に移動体、例えば、他車両やオートバイや自転車や歩行者などの存在を検出する。移動体が存在する場合には、移動体の状態を移動体状態検出部32で検出し、検出された移動体の情報を仮想画像作成部34に送り、合成画像作成部26で、作成された仮想画像と実画像とが合成されて表示される。合成画像作成部26で作成された画像は、モニタ14で表示される。   The moving body detection unit 30 detects the presence of a moving body such as another vehicle, a motorcycle, a bicycle, or a pedestrian in the input image from the image correction unit 24. If there is a moving body, the state of the moving body is detected by the moving body state detection unit 32, and information on the detected moving body is sent to the virtual image creation unit 34, which is created by the composite image creation unit 26. The virtual image and the real image are combined and displayed. The image created by the composite image creation unit 26 is displayed on the monitor 14.

移動体状態検出部32では、移動体検出部30から、移動体が存在する旨の信号を受けて、レーザレーダ7により、自車両に接近してくる移動体の自車両からの距離、速度及び進行方向を検出し、さらに、自車両までの到達時間を算出する。なお、レーザレーダ7の代わりに、車車間通信或いは路車間通信により、移動体検出部30及び移動体状態検出部32において、移動体の種類や、移動体の自車両からの距離、速度及び進行方向を検出するようにしても良い。   The moving body state detection unit 32 receives a signal indicating that a moving body is present from the moving body detection unit 30, and the distance, speed, and distance of the moving body approaching the own vehicle from the own vehicle by the laser radar 7. The traveling direction is detected, and the arrival time to the host vehicle is calculated. In addition, instead of the laser radar 7, the moving body detection unit 30 and the moving body state detection unit 32 perform the type of the moving body, the distance from the host vehicle, the speed, and the progress by the inter-vehicle communication or the road-to-vehicle communication. The direction may be detected.

自車位置・進行方向検出部36では、ジャイロ11により進行方向の変化を検出し、ジャイロ11及びGPS装置12により自車両の位置及び進行方向を検出する。
グリッド形状算出部38では、移動体の状態、例えば、移動体の自車両からの距離や移動体の種類に応じて、後述する図9のようなグリッド仮想画像を表示する。グリッド画像としては、そのグリッドの寸法(例えば、数m)、明るさ、色などを調整可能であり、自車両の状態、或いは、自車両と移動体との状態に応じて調整される。
In the own vehicle position / travel direction detection unit 36, the gyro 11 detects a change in the travel direction, and the gyro 11 and the GPS device 12 detect the position and travel direction of the host vehicle.
The grid shape calculation unit 38 displays a grid virtual image as shown in FIG. 9 described later according to the state of the moving body, for example, the distance of the moving body from the host vehicle and the type of the moving body. As the grid image, dimensions (for example, several meters), brightness, color, and the like of the grid can be adjusted, and the grid image is adjusted according to the state of the host vehicle or the state of the host vehicle and the moving body.

また、グリッド仮想画像として、例えば図9のような移動体の速度及び進行方向を表すようなベクトル表示や、移動体の種類を表す記号(●や■)も表示する。また、グリッド形状算出部38では、自車両の交差点での上述したような鼻出し位置、カメラ出し位置、頭出し位置などの違いによって、グリッドの色を変えるなどしても良い。   Further, as the grid virtual image, for example, a vector display representing the speed and traveling direction of the moving body as shown in FIG. 9 and symbols (● and ■) representing the type of the moving body are also displayed. In addition, the grid shape calculation unit 38 may change the color of the grid depending on the difference in the nose out position, the camera out position, the cue out position, etc. at the intersection of the host vehicle.

仮想画像作成部34の光点・ベクトル作成部34aでは、上述した移動体の位置を表す光点を作成し、合成画像作成部26では、この光点を●や■などで明るく仮想表示して実画像に重畳し、モニタ14に表示して、移動体の位置及び種類が分かるようにしている。また、光点・矢印作成部34aでは、移動体の進行方向及び速度を示すベクトルを矢印で表すように作成し、合成画像作成部26で実画像に重畳し、モニタ14で表示する。   The light spot / vector creation unit 34a of the virtual image creation unit 34 creates a light spot representing the position of the moving body described above, and the composite image creation unit 26 displays the light spot in a bright and virtual manner with ●, ■, or the like. It is superimposed on the actual image and displayed on the monitor 14 so that the position and type of the moving body can be understood. In addition, the light spot / arrow creating unit 34 a creates a vector indicating the traveling direction and speed of the moving object as indicated by an arrow, superimposes it on the actual image by the composite image creating unit 26, and displays it on the monitor 14.

仮想画像作成部34のグリッド作成部34bでは、後述するように、移動体の移動状態、移動体の自車両に対する距離、道路の延びる方向、車外の明るさ(日中、夕方、夜間など)、或いは、ドライバーの設定に応じて、例えば図9に示すようなグリッド仮想画像(格子画像)を作成する。この作成されたグリッド仮想画像は、合成画像作成部26により実画像に重畳されて、モニタ14上に表示される。   In the grid creation unit 34b of the virtual image creation unit 34, as will be described later, the moving state of the moving body, the distance of the moving body to the host vehicle, the direction in which the road extends, the brightness outside the vehicle (daytime, evening, nighttime, etc.) Alternatively, for example, a grid virtual image (lattice image) as shown in FIG. 9 is created according to the driver setting. The created grid virtual image is superimposed on the actual image by the composite image creating unit 26 and displayed on the monitor 14.

次に、ECU18内には、頭出し位置判定部40が存在する。頭出し位置判定部40では、車両が交差路内に頭出しした(図4参照)ことを判定するものである。頭出しが行われていれば、既にドライバー自身で交差路を見通せることから、仮想画像作成部34における仮想画像の作成を中止し、モニタ14には実画像のみ表示するようにする。   Next, a cue position determination unit 40 exists in the ECU 18. The cueing position determination unit 40 determines that the vehicle has cueed in the intersection (see FIG. 4). If the cue has been performed, the driver can already see the intersection, so the virtual image creation by the virtual image creation unit 34 is stopped and only the actual image is displayed on the monitor 14.

また、ECU18には、仮想画像処理実施判定部42が存在する。この仮想画像処理実施判定部42は、ナビゲーション装置13から得る地図データ、GPS装置12から得られる位置データ、及び、車速センサ10から得られる車速データを基に、車両が交差点近傍に位置しているか否か及び一時停止しているか否かを判定するものである。後述するように、交差点近傍であり一時停止したときには、仮想画像を表示するために、合成画像作成部26に所定の信号を送る。   Further, the ECU 18 includes a virtual image processing execution determination unit 42. The virtual image processing execution determination unit 42 is based on the map data obtained from the navigation device 13, the position data obtained from the GPS device 12, and the vehicle speed data obtained from the vehicle speed sensor 10 to determine whether the vehicle is located near the intersection. And whether or not it is temporarily stopped. As will be described later, when the vehicle is in the vicinity of an intersection and is temporarily stopped, a predetermined signal is sent to the composite image creating unit 26 in order to display a virtual image.

次に、図6により、本発明の実施形態による車両用周囲監視装置の制御の概要を説明する。図6は、本発明の実施形態による車両用周囲監視装置の死角視認用仮想画像を表示するか否かの処理を示すフローチャートである。図6において、Sは各ステップを示す。
先ず、図6に示すように、S1において、仮想画像処理実施判定部42(図5参照)が、GPS12からの信号及びナビゲーション装置13からの信号に基づいて、自車両が交差点近傍にいるか否かを判定する。次に、S2において、仮想画像処理実施判定部42(図5参照)が、車速センサ10からの信号に基づいて、車速がV1より小さいか否かを判定する。車速V1は、自車両が交差点等に近づいて減速し、ドライバーがモニタ14を見ても安全であると判断出来る値である。
Next, with reference to FIG. 6, the outline of the control of the vehicle surrounding monitoring apparatus according to the embodiment of the present invention will be described. FIG. 6 is a flowchart showing a process for determining whether or not to display a blind spot visual image of the vehicle surrounding monitoring apparatus according to the embodiment of the present invention. In FIG. 6, S indicates each step.
First, as shown in FIG. 6, in S <b> 1, the virtual image processing execution determination unit 42 (see FIG. 5) determines whether the host vehicle is in the vicinity of the intersection based on the signal from the GPS 12 and the signal from the navigation device 13. Determine. Next, in S <b> 2, the virtual image processing execution determination unit 42 (see FIG. 5) determines whether or not the vehicle speed is lower than V <b> 1 based on a signal from the vehicle speed sensor 10. The vehicle speed V1 is a value that allows the driver to determine that the vehicle is safe even when the vehicle approaches the intersection and decelerates and the driver looks at the monitor 14.

車速がV1より小さく車両が減速した状態であれば、S3に進み、画像補正部24(図5参照)からの画像信号に基づいて、まず、実画像を表示する。
次に、S4に進み、仮想画像処理実施判定部52(図5参照)が、車速がV2より小さいか否かを判定する。車速V2は、自車両がほぼ停止状態に近い或いは停止したと判断出来る値である。車速がV2より小さい場合は、自車両が一時停止したものとして、S5に進む。
If the vehicle speed is less than V1 and the vehicle is decelerated, the process proceeds to S3, and first, an actual image is displayed based on the image signal from the image correction unit 24 (see FIG. 5).
Next, in S4, the virtual image processing execution determination unit 52 (see FIG. 5) determines whether or not the vehicle speed is lower than V2. The vehicle speed V2 is a value at which it can be determined that the host vehicle is almost stopped or stopped. If the vehicle speed is less than V2, the process proceeds to S5 assuming that the host vehicle is temporarily stopped.

S5では、自車両が頭出し位置(図4参照)を通過したか否かを判定する。頭出し位置を通過した場合には、ドライバーが周囲の状況を見渡せる状況であるので、S6に進み、モニタ14にS1及びS2で取得した実画像をそのまま表示する。頭出し位置を通過していない場合には、S7に進み、グリッド仮想画像表示処理を行う。   In S5, it is determined whether or not the host vehicle has passed the cueing position (see FIG. 4). If the driver has passed the cueing position, the driver can overlook the surrounding situation, so that the process proceeds to S6, and the actual images acquired in S1 and S2 are displayed on the monitor 14 as they are. If it has not passed through the cueing position, the process proceeds to S7 and a grid virtual image display process is performed.

次に、図7乃至図9により、本発明の実施形態による車両用周囲監視装置の制御内容を説明する。図7は、本発明の実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートであり、図8は、本発明の実施形態による車両用周囲監視装置における仮想画像が実画像に重畳された映像の一例であり、図9は、本発明の実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)を示す図であり、図10は、本発明の実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の他の例(a)及び仮想画像が実画像に重畳された映像の他の例(b)を示す図である。図7において、Sは各ステップを示す。   Next, the control contents of the vehicle surrounding monitoring apparatus according to the embodiment of the present invention will be described with reference to FIGS. FIG. 7 is a flowchart showing the display processing of the distance grasping virtual image of the vehicle surrounding monitoring apparatus according to the embodiment of the present invention, and FIG. 8 is a diagram showing the virtual image in the vehicle surrounding monitoring apparatus according to the embodiment of the present invention. FIG. 9 is an example of an image superimposed on an image, and FIG. 9 is an image in which an imaging range and an example of a moving object (a) by a camera of a vehicle surrounding monitoring apparatus according to an embodiment of the present invention and a virtual image are superimposed on an actual image FIG. 10 is a diagram showing an example (b), and FIG. 10 is a diagram in which the imaging range by the camera of the vehicle surroundings monitoring device according to the embodiment of the present invention and another example (a) of a moving body and a virtual image are superimposed on a real image. It is a figure which shows the other example (b) of the image which was recorded. In FIG. 7, S indicates each step.

図7に示すように、先ず、S11において、映像取得部22(図5参照)により、例えば交差路において、左方監視カメラ2、前方監視カメラ4、右方監視カメラ6の映像を取得し、S12において、画像補正部24により、取得された広角画像の歪み補正を行う。   As shown in FIG. 7, first, in S11, the image acquisition unit 22 (see FIG. 5) acquires the images of the left monitoring camera 2, the front monitoring camera 4, and the right monitoring camera 6 at an intersection, for example. In S12, the image correction unit 24 corrects the distortion of the acquired wide-angle image.

次に、S13において、撮影画像を保存する。次に、S14において、自車位置・進行方向検出部36(図5参照)により、自車位置及び進行方向を検出し、S15において、自車両前方の交差点情報を取得する。   Next, in S13, the captured image is saved. Next, in S14, the host vehicle position / traveling direction detection unit 36 (see FIG. 5) detects the host vehicle position and travel direction, and in S15, the intersection information ahead of the host vehicle is acquired.

次に、S16において、グリッド(図8のG1等参照)を表示する高さを決定する。本実施形態では、グリッドの表示高さは、ドライバーが設定し、仮に、そのグリッドが移動体等に重なってしまう場合などは、後述するS22又はS29で、移動体等がドライバーから見えるように、グリッドの一部を消去する。なお、グリッドの表示高さを、予め表示高さを3mなどと設定し、移動体や標識等の道路上の重要な物体がグリッドに重ならないような高さに設定していても良い。   Next, in S16, the height at which the grid (see G1 etc. in FIG. 8) is displayed is determined. In the present embodiment, the display height of the grid is set by the driver, and if the grid overlaps the moving body or the like, the moving body or the like can be seen from the driver in S22 or S29 described later. Erase part of the grid. Note that the display height of the grid may be set in advance such that the display height is 3 m or the like and an important object on the road such as a moving object or a sign does not overlap the grid.

次に、S17において、グリッドの幅を決定する。グリッドの幅は、格子状に表示されるグリッドの格子1つ1つの幅である。本実施形態では、移動体が存在するとき、その移動体の自車両からの距離が近い場合にはグリッド幅を小さくし、移動体の自車両からの距離が遠い場合にはグリッド幅を大きくするようにしている。なお、グリッド幅を予め所定値に定めてもよく、移動体が存在しない場合にはそのような予め定められたグリッド幅でグリッドを表示する。なお、グリッド幅を道路の幅に応じて変更するようにしても良い。   Next, in S17, the width of the grid is determined. The width of the grid is the width of each grid of the grid displayed in a grid pattern. In this embodiment, when a moving object exists, the grid width is reduced when the distance of the moving object from the own vehicle is short, and the grid width is increased when the distance of the moving object from the own vehicle is far. I am doing so. The grid width may be set to a predetermined value in advance, and when there is no moving body, the grid is displayed with such a predetermined grid width. The grid width may be changed according to the road width.

次に、S18において、グリッドの色を決定する。グリッドの色は、例えば、車外が暗い夕方や夜の場合には、周りの状況がきちんと見える程度に輝度を押さえて白色系などの明るい色に設定し、昼間の場合には、例えば、黒色などの暗い色に設定する。なお、自車両が頭出しした時点で、頭出ししたことを示すように、色が変化するようにしても良い。また、他車両が、自車両が交差点内で発進するか停止するか否かを判断するときに迷うような位置(例えば、自車両から30〜50m)に存在するとき、グリッド全体の色をより目立つ色に、又は、他車両が存在している領域のグリッドをより目立つ色にしても良い。また、他車両の自車両からの距離に応じて色を変更するようにしても良い。また、実画像が見やすいように、グリッドの色を薄くしても良い。交差点からの距離に応じて、近くのグリッドは目立つ色(例えば、赤)に、遠くのグリッドは目立たない色(例えば、青)に変更するようにしても良い。   Next, in S18, the color of the grid is determined. For example, when the outside of the vehicle is dark in the evening or at night, the grid color is set to a bright color such as white to reduce the brightness to the extent that the surroundings can be clearly seen. Set to a dark color. It should be noted that the color may change so as to indicate that the vehicle has been cued when the vehicle has cued. In addition, when the other vehicle is present at a position (for example, 30 to 50 m from the own vehicle) where it is difficult to determine whether or not the own vehicle starts or stops within the intersection, the color of the entire grid is more You may make it a conspicuous color, or make the grid of the area | region where the other vehicle exists more prominent color. Moreover, you may make it change a color according to the distance from the own vehicle of another vehicle. Further, the color of the grid may be made light so that the actual image is easy to see. Depending on the distance from the intersection, a nearby grid may be changed to a conspicuous color (for example, red), and a distant grid may be changed to an inconspicuous color (for example, blue).

次に、S19において、グリッドの方向を決定する。グリッドの方向は、格子状のグリッドの1本1本が延びる方向であり、本実施形態では、モニタ14上にて、縦方向に延びるグリッドが自車両の先に存在する交差する道路(他車両が移動してる道路)の方向に延びるようにすると共に、横方向に延びるグリッドがその道路の延びる方向に直交する方向に延びるようにする。なお、自車両が進行方向を変えた場合でも、一度設定したグリッドの方向は変更せず、あくまで、交差する先方の道路に合わせてグリッドを固定する。このような場合、自車両の進行方向を変えて進行すると、グリッドの下方をくぐっていくような感覚となる。   Next, in S19, the grid direction is determined. The grid direction is a direction in which each of the grid-like grids extends, and in the present embodiment, on the monitor 14, a road (another vehicle) intersecting with a grid extending in the vertical direction exists ahead of the host vehicle. And the grid extending in the lateral direction extends in a direction perpendicular to the direction in which the road extends. Even if the vehicle changes its direction of travel, the grid direction once set is not changed, and the grid is fixed according to the road ahead. In such a case, when the traveling direction of the host vehicle is changed, it feels like passing under the grid.

次に、S20において、移動体検出部30により、S11及びS12で取得された実画像から、移動体を検出する。このS20における移動体の検出は、オプティカルフロー処理にて行われる。なお、オプティカルフローの他に、背景差分、フレーム間差分処理、或いは、レーザーやミリ波などにより移動体を検出するようにしても良い。   Next, in S20, the moving body detection unit 30 detects the moving body from the actual images acquired in S11 and S12. The detection of the moving body in S20 is performed by an optical flow process. In addition to the optical flow, the moving object may be detected by background difference, inter-frame difference processing, laser, millimeter wave, or the like.

移動体が検出されないときは、S21に進み、仮想画像作成部34(図5参照)により、S16乃至S19で決定されたグリッド高さ、幅、色及び方向を有するグリッド画像を作成する。次に、S22では、合成画像作成部26(図5参照)により、グリッド仮想画像が、実画像中の標識などの重要な道路上の構造物に重畳しないように、標識等に重畳するグリッド画像を消去する。或いは、上述したS16で、標識等と重ならない高さにグリッドが表示されるように設定することも出来る。
そして、S23において、例えば、図8に示すように、S21で作成すると共にS22で調整したグリッド仮想画像G1を実画像に重畳してモニタ14に表示する。この仮想画像G1では、道路上の交通ルールとして重要なもの、例えば標識Sが仮想画像に隠れずにドライバーから見えるように、グリッド仮想画像の一部G2が消去されている。
When the moving object is not detected, the process proceeds to S21, and the virtual image creation unit 34 (see FIG. 5) creates a grid image having the grid height, width, color, and direction determined in S16 to S19. Next, in S22, the composite image creation unit 26 (see FIG. 5) superimposes the grid virtual image on a sign or the like so that the grid virtual image is not superimposed on an important road structure such as a sign in the real image. Erase. Or it can also set so that a grid may be displayed in the height which does not overlap with a label | marker etc. by S16 mentioned above.
In S23, for example, as shown in FIG. 8, the grid virtual image G1 created in S21 and adjusted in S22 is superimposed on the real image and displayed on the monitor 14. In the virtual image G1, a part G2 of the grid virtual image is deleted so that an important traffic rule on the road, for example, the sign S can be seen from the driver without being hidden by the virtual image.

一方、S20において、移動体が検出されたときには、S24に進み、移動体検出部30(図5参照)及び移動体状態検出部32(図5参照)により、移動体の種類、移動体の自車両からの距離、速度及び進行方向を検出する。移動体が複数存在するときには、基本的には、自車両からの距離が最短距離である移動体、或いは、自車両までの最短到達時間の移動体について、移動体の自車両からの距離、速度及び進行方向を検出する。   On the other hand, when a moving body is detected in S20, the process proceeds to S24, where the moving body detection unit 30 (see FIG. 5) and the moving body state detection unit 32 (see FIG. 5) perform the type of the moving body and the mobile body itself. Detect distance, speed and direction of travel from the vehicle. When there are a plurality of moving objects, basically, the distance from the own vehicle to the moving object that has the shortest distance from the own vehicle, or the moving object that has the shortest arrival time to the own vehicle. And the direction of travel is detected.

次に、S25において、移動体の種類に応じて、光点(移動体の位置を表すと共に移動体の種類を表すマークとして表示される)として、例えば他車両であれば“●”、歩行者であれば“■”などと表示する。なお、表示例は、後述するように、S30のステップにおいて、図9及び図10で説明する。   Next, in S25, as a light spot (displayed as a mark indicating the position of the moving body and the type of the moving body) according to the type of the moving body, for example, “●” for other vehicles, a pedestrian If so, “■” or the like is displayed. The display example will be described with reference to FIGS. 9 and 10 in step S30 as described later.

次に、S26において、移動体の移動状態に応じたベクトル表示を決定する。ベクトルの示す方向は、移動体の進んでいる方向である。ベクトルの長さは、基本的には、移動体の移動速度である。なお、ベクトルの長さは、移動速度ではなく、移動体が交差点に到達するまでの時間を示すものでも良い。また、ベクトルの始点は、基本的には、移動体が現在存在する位置であるが、所定時間後の位置でも良い。また、ベクトルの長さを、移動体の移動速度を示すものとし、ベクトルの幅を、移動体が交差点に到達するまでの時間を示すものとしても良い。   Next, in S26, a vector display corresponding to the moving state of the moving body is determined. The direction indicated by the vector is the direction in which the moving body is traveling. The length of the vector is basically the moving speed of the moving body. Note that the length of the vector may indicate not the moving speed but the time until the moving body reaches the intersection. Also, the starting point of the vector is basically the position where the moving object currently exists, but it may be the position after a predetermined time. Further, the length of the vector may indicate the moving speed of the moving body, and the width of the vector may indicate the time until the moving body reaches the intersection.

次に、S27において、S25及びS26で決定した光点及びベクトルの仮想画像を仮想画像作成部34(図5参照)で作成し、S28でグリッド仮想画像を生成する。S29では、合成画像作成部26により、上述したS22と同様に、今度は、標識等の重要物と移動体とが、いずれも仮想画像に隠れないように、グリッド、光点及びベクトルの一部を消去する。標識や移動体が仮想画像に隠れない場合は、消去しない。   Next, in S27, a virtual image of the light spot and vector determined in S25 and S26 is created by the virtual image creation unit 34 (see FIG. 5), and a grid virtual image is created in S28. In S29, similar to S22 described above, the composite image creation unit 26, this time, part of the grid, the light spot, and the vector so that important objects such as signs and moving objects are not hidden in the virtual image. Erase. If the sign or moving object is not hidden in the virtual image, it will not be erased.

そして、S30において、合成画像作成部26により、グリッド、光点及びベクトルをモニタ14上に表示する。
表示例を図9に示す。この図9では、図9(a)に示すように、自車両が交差点に近づいてカメラ出し位置におり、他車両V及び歩行者Hが存在する場合である。
In S <b> 30, the composite image creation unit 26 displays the grid, light spot, and vector on the monitor 14.
A display example is shown in FIG. In FIG. 9, as shown in FIG. 9A, the host vehicle approaches the intersection and is at the camera exit position, and there is another vehicle V and a pedestrian H.

図9(b)に示すように、画像の情報にはグリッドG1が仮想画像として重畳して表示され、また、車両Vの上方には、車両の種類及び位置を示す“●”印(G3として示す)がグリッドG1に対応して仮想表示され、車両の位置が分かるようになっている。さらに、グリッドG1に対応して、車両の移動方向及び移動速度を示す矢印G4が仮想画像として表示されている。移動速度は矢印G4の長さにより判別可能となっている。さらに、方向者Hの上方にも、歩行者であること及びその位置を示す“■”印(G5として示す)と、移動方向及び移動速度を示す矢印G6が表示されている。   As shown in FIG. 9B, the grid information G1 is displayed as a virtual image superimposed on the image information, and the “●” mark (G3 indicating the type and position of the vehicle is displayed above the vehicle V. Is displayed in a virtual manner corresponding to the grid G1, so that the position of the vehicle can be understood. Furthermore, an arrow G4 indicating the moving direction and moving speed of the vehicle is displayed as a virtual image corresponding to the grid G1. The moving speed can be determined by the length of the arrow G4. Further, above the directional person H, a “■” mark (indicated as G5) indicating the pedestrian and its position, and an arrow G6 indicating the moving direction and moving speed are also displayed.

また、他の表示例を図10に示す。この図10では、自車両がまだ交差点より手前におり、そのカメラ2、4、6からは、遮蔽物Aにより、交差点の左右の状況を映せない状態である。この図10に示す例では、車車間通信により、他車両Vの位置及び移動速度などの情報を得て、図10(b)に示すように、遮蔽物Aの上方にグリッド仮想画像G1を表示すると共に、車両を示す“●”印(G7として示す)と、移動方向及び移動速度を示す矢印G8が表示されている。   Another display example is shown in FIG. In FIG. 10, the host vehicle is still in front of the intersection, and the cameras 2, 4, and 6 are in a state where the left and right situations of the intersection cannot be reflected by the shielding object A. In the example shown in FIG. 10, information such as the position and moving speed of the other vehicle V is obtained by inter-vehicle communication, and a grid virtual image G1 is displayed above the shield A as shown in FIG. In addition, a “●” mark (indicated as G7) indicating the vehicle and an arrow G8 indicating the moving direction and moving speed are displayed.

なお、本発明の実施形態では、グリッドを上方の空間に表れるように表示しているが、例えば、道路上に表れるようにしたり、適当な壁面があれば、壁面に表示しても良い。   In the embodiment of the present invention, the grid is displayed so as to appear in the upper space. However, for example, the grid may be displayed on the road, or may be displayed on the wall if there is an appropriate wall.

次に、本発明の実施形態による作用効果を説明する。
本発明の実施形態による車両用周囲監視装置は、ドライバーから見て前方で左右に広がる領域内の死角領域を監視し、死角領域の実画像を撮像するように車両の前方部にカメラ2、4、6が設けられ、仮想画像作成部34が、カメラ2、4、6により撮像された死角領域に道路の奥行き感を表す仮想の格子状グリッド画像を生成し、仮想画像生成部34はまた、カメラ2、4、6により撮像された死角領域の実画像に合わせて仮想の格子状グリッド画像の格子の大きさ、形状及び向きを規定し、合成画像作成部26は、この格子画像規定手段により規定される大きさ、形状及び向きで仮想の格子状グリッド画像を実画像に重畳してモニタ14に表示する。
Next, functions and effects according to the embodiment of the present invention will be described.
The vehicle surroundings monitoring device according to the embodiment of the present invention monitors a blind spot area in an area extending left and right in front of the driver and captures a real image of the blind spot area with cameras 2 and 4 at the front part of the vehicle. , 6 is generated, and the virtual image creation unit 34 generates a virtual grid-like grid image representing a sense of road depth in the blind spot imaged by the cameras 2, 4, 6. The size, shape and orientation of the virtual grid-like grid image are defined in accordance with the real image of the blind spot area imaged by the cameras 2, 4 and 6, and the composite image creating unit 26 uses this grid image defining means. A virtual grid-like grid image having a prescribed size, shape and orientation is superimposed on the real image and displayed on the monitor 14.

このような本発明の実施形態によれば、奥行き感を表す仮想の格子状グリッド画像が表示され、この格子グリッド画像が撮像された死角領域の実画像に合わせて、その大きさ、形状及び向きが規定されるので、ドライバーは周囲の例えば道路の距離感を直感的に把握することが出来る。   According to such an embodiment of the present invention, a virtual grid-like grid image representing a sense of depth is displayed, and the size, shape, and orientation of the grid-grid image are adjusted in accordance with the actual image of the blind spot area in which the grid grid image is captured. Therefore, the driver can intuitively grasp the distance feeling of the surroundings, for example, the road.

ここで、ドライバーの死角領域は車両の前方側の交差路の交差点の周辺の死角領域であり、車両が交差路に差し掛かるとき、車両の前方端に設けられたカメラ2、4、6がその車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像するので、ドライバーは衝突事故の多発する交差点の左右交差路の情報を得ることが出来、より安全な走行が可能となる。   Here, the blind spot area of the driver is a blind spot area around the intersection of the intersection on the front side of the vehicle. When the vehicle approaches the intersection, the cameras 2, 4 and 6 provided at the front end of the vehicle are Since a real image around the intersection of the intersection that can be imaged from the front end of the vehicle is captured, the driver can obtain information on the left and right intersections of the intersection where collision accidents frequently occur, thereby enabling safer driving.

また、本実施形態によれば、仮想画像作成部34は、自車両の前方で所定の方向に延びる路面が延びる方向に沿って延びる格子線を有するので、ドライバーはその路面の奥行き感を直感的に把握出来る。   Further, according to the present embodiment, the virtual image creation unit 34 has grid lines extending along the direction in which the road surface extending in a predetermined direction in front of the host vehicle extends, so that the driver can intuitively feel the depth feeling of the road surface. Can be grasped.

表示手段は、仮想の格子状グリッド画像を実画像の上方の空の領域に表示するので、様々な道路状況に応じて理想的な格子状グリッド画像を表示することが出来、ドライバーもそれを見やすくなる。   The display means displays a virtual grid-like grid image in an empty area above the real image, so that an ideal grid-like grid image can be displayed according to various road conditions, and the driver can easily see it. Become.

また、本実施形態によれば、移動体検出部30は、カメラ2、4、6により撮像された実画像内から移動体を検出し、移動体検出部30及び移動体状態検出部32は、その移動体の位置及び/又は種類を検出し、合成画像作成部26は、仮想の格子状グリッド画像に重畳して、移動体の位置及び/又は種類を識別可能にするための光点をモニタ14に表示する。従って、仮想の格子状グリッド画像に重畳して、移動体の位置及び/又は種類を識別可能にするための光点が表示されるので、ドライバーは、移動体の位置及び/又は種類を識別し易くなる。   Further, according to the present embodiment, the moving body detection unit 30 detects a moving body from the real images captured by the cameras 2, 4, and 6, and the moving body detection unit 30 and the moving body state detection unit 32 are The position and / or type of the moving body is detected, and the composite image creation unit 26 superimposes it on the virtual grid-like grid image to monitor the light spot for making it possible to identify the position and / or type of the moving body. 14 is displayed. Therefore, since the light spot for enabling the position and / or type of the moving body to be identified is superimposed on the virtual grid image, the driver identifies the position and / or type of the moving body. It becomes easy.

また、本実施形態によれば、移動体検出部30は、カメラ2、4、6により撮像された実画像内から移動体を検出し、移動体検出部30及び移動体状態検出部32は、その移動体の種類及び/又は移動速度及び/又は移動方向を検出し、合成画像作成部26は、仮想の格子状グリッド画像に重畳して、移動体の移動速度及び/又は移動方向を識別可能にするための矢印を表示する。従って、仮想の格子状グリッド画像に重畳して、移動体の移動速度及び/又は移動方向を識別可能にするための矢印が表示されるので、ドライバーは、移動体の移動速度及び/又は移動方向を識別し易くなる。   Further, according to the present embodiment, the moving body detection unit 30 detects a moving body from the real images captured by the cameras 2, 4, and 6, and the moving body detection unit 30 and the moving body state detection unit 32 are The type and / or moving speed and / or moving direction of the moving object is detected, and the composite image creation unit 26 can identify the moving speed and / or moving direction of the moving object by superimposing it on the virtual grid-like grid image. Display an arrow to turn on. Therefore, since the arrow for making it possible to identify the moving speed and / or moving direction of the moving object is displayed superimposed on the virtual grid image, the driver can move the moving speed and / or moving direction of the moving object. Can be easily identified.

また、本実施形態によれば、表示手段は、矢印の太さを、移動体の交差点への到達時間に応じて変化させるので、ドライバーは移動体の交差点への到達時間を直感的に把握することが出来る。   Further, according to the present embodiment, the display means changes the thickness of the arrow according to the arrival time of the moving body at the intersection, so that the driver intuitively grasps the arrival time of the moving body at the intersection. I can do it.

また、本実施形態によれば、ドライバーの死角領域は車両の前方側の交差路の交差点の周辺の死角領域であり、実像撮像手段は、車両の前方端に設けられ、車両が交差路に差し掛かるとき、その車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像する。
このように構成された本発明においては、ドライバーは衝突事故の多発する交差点の左右交差路の情報を得ることが出来、より安全な走行が可能となる。
Further, according to the present embodiment, the blind spot area of the driver is a blind spot area around the intersection of the intersection on the front side of the vehicle, and the real image capturing means is provided at the front end of the vehicle, and the vehicle is inserted into the intersection. When hanging, an actual image around the intersection of an intersection that can be imaged from the front end of the vehicle is captured.
In the present invention configured as described above, the driver can obtain information on the left and right intersections of intersections where collision accidents frequently occur, and safer driving is possible.

また、本実施形態によれば、頭出し位置算出部40が、交差点においてドライバーの見通しが良くなる頭出し位置を算出し、合成画像作成部26は、自車両が頭出し位置に達した後、仮想の格子状グリッド画像の表示を中止する。このように仮想の格子状グリッド画像の表示が中止されることで、ドライバーは、自車両が頭出し位置にあることを把握すると共に自らの目で道路状況を把握するようにすることが出来る。   Further, according to the present embodiment, the cue position calculation unit 40 calculates a cue position where the driver's line of sight is improved at the intersection, and the composite image creation unit 26, after the host vehicle reaches the cue position, Stop displaying the virtual grid image. By stopping the display of the virtual grid-like grid image in this way, the driver can grasp that the host vehicle is at the cueing position and grasp the road condition with his own eyes.

また、本実施形態によれば、仮想画像作成部34は、仮想の格子状グリッド画像が、移動体或いは他の道路上の標識及び信号と重複しない高さに表示するようにその位置を規定するので、道路上の重要な移動体や標識などが仮想の格子状グリッド画像に隠れることがなく、ドライバーはそれらを確実に認識することが出来る。   Further, according to the present embodiment, the virtual image creation unit 34 defines the position so that the virtual grid-like grid image is displayed at a height that does not overlap with a sign or signal on a moving object or other road. Therefore, important moving objects and signs on the road are not hidden in the virtual grid-like grid image, and the driver can surely recognize them.

また、本実施形態によれば、仮想画像作成部34は、仮想の格子状グリッド画像が、移動体或いは他の道路上の標識及び信号と重複する部分がある場合、表示される仮想の格子グリッド画像のうち重複する部分を消去して、仮想の格子状グリッド画像を表示するので、道路上の重要な移動体や標識などが仮想の格子状グリッドに隠れることがなく、ドライバーはそれらを確実に認識することが出来る。   Further, according to the present embodiment, the virtual image creation unit 34 displays the virtual grid grid that is displayed when the virtual grid grid image overlaps a sign or signal on a moving object or other road. Overlapping parts of the image are erased and a virtual grid grid image is displayed, so important moving objects and signs on the road are not hidden in the virtual grid grid and the driver ensures that Can be recognized.

なお、上述した実施形態においては、移動体として主に車両を想定して説明をしてきたが、移動体としては、四輪車、二輪車、自転車、歩行者を含むようにしても良い。また、静止物としては、停止している四輪車、停止している二輪車、立ち止まっている歩行者や自転車、路側物、建物などが挙げられる。   In the above-described embodiment, the description has been given mainly assuming a vehicle as the moving body, but the moving body may include a four-wheeled vehicle, a two-wheeled vehicle, a bicycle, and a pedestrian. In addition, examples of the stationary object include a stopped four-wheeled vehicle, a stopped two-wheeled vehicle, a stationary pedestrian and bicycle, a roadside object, and a building.

本発明の実施形態による車両用周囲監視装置が適用された車両の全体構成図である。1 is an overall configuration diagram of a vehicle to which a vehicle surrounding monitoring device according to an embodiment of the present invention is applied. 本発明の実施形態による車両用周囲監視装置のカメラによる撮像範囲の一例(a)及び撮像された映像の一例(b)を示す図である。It is a figure which shows an example (a) of the imaging range by the camera of the surroundings monitoring apparatus for vehicles by embodiment of this invention, and an example (b) of the imaged image. ドライバーによる交差路進入時における運転行動を説明するための図である。It is a figure for demonstrating the driving action at the time of the crossing approach by a driver. 自車両の頭出し位置を説明するための道路及び車両の俯瞰図である。It is a bird's-eye view of the road and vehicles for explaining the cueing position of the own vehicle. 本発明の実施形態による車両用周囲監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the surroundings monitoring apparatus for vehicles by embodiment of this invention. 本発明の実施形態による車両用周囲監視装置の死角視認用仮想画像を表示するか否かの処理を示すフローチャートである。It is a flowchart which shows the process of whether the virtual image for blind spot visual recognition of the surroundings monitoring apparatus for vehicles by embodiment of this invention is displayed. 本発明の実施形態による車両用周囲監視装置の距離把握用仮想画像の表示処理を示すフローチャートである。It is a flowchart which shows the display process of the virtual image for distance grasping | ascertainment of the vehicle periphery monitoring apparatus by embodiment of this invention. 本発明の実施形態による車両用周囲監視装置における仮想画像が実画像に重畳された映像の一例である。It is an example of the image | video on which the virtual image in the surroundings monitoring apparatus for vehicles by embodiment of this invention was superimposed on the real image. 本発明の実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の一例(a)及び仮想画像が実画像に重畳された映像の一例(b)を示す図である。It is a figure which shows the imaging range by the camera of the surroundings monitoring apparatus for vehicles by embodiment of this invention, an example (a) of a moving body, and an example (b) of the image | video on which the virtual image was superimposed on the real image. 本発明の実施形態による車両用周囲監視装置のカメラによる撮像範囲及び移動体の他の例(a)及び仮想画像が実画像に重畳された映像の他の例(b)を示す図である。It is a figure which shows the imaging range by the camera of the surroundings monitoring apparatus for vehicles by embodiment of this invention, the other example (a) of a moving body, and the other example (b) of the image | video on which the virtual image was superimposed on the real image.

符号の説明Explanation of symbols

1 車両
2、4、6 監視カメラ
7 レーザレーダ
10 車速センサ
11 ジャイロ
12 GPS装置
13 ナビゲーション装置
14 画像表示モニタ
18 ECU
1 Vehicle 2, 4, 6 Monitoring camera 7 Laser radar 10 Vehicle speed sensor 11 Gyro 12 GPS device 13 Navigation device 14 Image display monitor 18 ECU

Claims (10)

ドライバーから見て前方で左右に広がる領域内の死角領域を監視する車両用周囲監視装置であって、
上記死角領域の実画像を撮像するように車両の前方部に設けられた実画像撮像手段と、
上記実映像撮像手段により撮像された上記死角領域に道路の奥行き感を表す仮想の格子状グリッド画像を生成するグリッド画像生成手段と、
上記実映像撮像手段により撮像された上記死角領域の実画像に合わせて上記仮想の格子状グリッド画像の格子の大きさ、形状及び向きを規定する仮想格子画像規定手段と、
この格子画像規定手段により規定される大きさ、形状及び向きで上記仮想の格子状グリッド画像を上記実画像に重畳して表示する表示手段と、
を有することを特徴とする車両用周囲監視装置。
A vehicle surrounding monitoring device that monitors a blind spot area in an area that extends from side to side in front of a driver,
Real image capturing means provided at the front of the vehicle so as to capture a real image of the blind spot area;
Grid image generating means for generating a virtual grid-like grid image representing a sense of road depth in the blind spot area imaged by the real image capturing means;
Virtual lattice image defining means for defining the size, shape and orientation of the virtual lattice-like grid image in accordance with the real image of the blind spot area imaged by the real image capturing means;
Display means for superimposing and displaying the virtual grid-like grid image on the real image in the size, shape and orientation prescribed by the grid image-defining means;
A vehicle surrounding monitoring device characterized by comprising:
上記仮想格子画像規定手段は、自車両の前方で所定の方向に延びる路面が延びる方向に沿って延びる格子線を有する請求項1に記載の車両用周囲監視装置。   The vehicle surrounding monitoring apparatus according to claim 1, wherein the virtual lattice image defining means includes lattice lines extending along a direction in which a road surface extending in a predetermined direction in front of the host vehicle extends. 上記表示手段は、上記仮想の格子状グリッド画像を上記実画像の上方の空の領域に表示する請求項1又は請求項2に記載の車両用周囲監視装置。   The vehicle surrounding monitoring apparatus according to claim 1, wherein the display unit displays the virtual grid-like grid image in an empty area above the real image. さらに、上記実画像撮像手段により撮像された実画像内から移動体を検出する移動体検出手段と、
この移動体検出手段により移動体が検出されたとき、その移動体の位置及び/又は種類を検出する移動体状態検出手段と、を有し、
上記表示手段は、上記仮想の格子状グリッド画像に重畳して、上記移動体の位置及び/又は種類を識別可能にするための光点を表示する請求項1乃至3のいずれか1項に記載の車両用周囲監視装置。
Furthermore, a moving body detecting means for detecting a moving body from within the real image captured by the real image capturing means,
A moving body state detecting means for detecting the position and / or type of the moving body when the moving body is detected by the moving body detecting means;
The said display means displays the light spot for making it possible to identify the position and / or kind of the said mobile body superimposed on the said virtual grid | lattice-like grid image. Vehicle surrounding monitoring device.
さらに、上記実画像撮像手段により撮像された実画像内から移動体を検出する移動体検出手段と、
この移動体検出手段により移動体が検出されたとき、その移動体の種類及び/又は移動速度及び/又は移動方向を検出する移動体状態検出手段と、を有し、
上記表示手段は、上記仮想の格子状グリッド画像に重畳して、上記移動体の移動速度及び/又は移動方向を識別可能にするための矢印を表示する請求項1乃至3のいずれか1項に記載の車両用周囲監視装置。
Furthermore, a moving body detecting means for detecting a moving body from within the real image captured by the real image capturing means,
A moving body state detecting means for detecting the type and / or moving speed and / or moving direction of the moving body when the moving body is detected by the moving body detecting means;
4. The display device according to claim 1, wherein the display unit displays an arrow that is superimposed on the virtual grid-like grid image so that the moving speed and / or moving direction of the moving body can be identified. 5. The vehicle surrounding monitoring device as described.
上記表示手段は、上記矢印の太さを、上記移動体の交差点への到達時間に応じて変化させる請求項5に記載の車両用周囲監視装置。   The vehicle surrounding monitoring apparatus according to claim 5, wherein the display means changes the thickness of the arrow according to the arrival time of the moving body at the intersection. 上記ドライバーの死角領域は車両の前方側の交差路の交差点の周辺の死角領域であり、
上記実画像撮像手段は、車両の前方端に設けられ、車両が交差路に差し掛かるとき、その車両の前方端から撮像可能な交差路の交差点周囲の実画像を撮像する請求項1乃至6のいずれか1項に記載の車両用周囲監視装置。
The driver's blind spot area is a blind spot area around the intersection of the intersection on the front side of the vehicle,
The real image capturing means is provided at the front end of the vehicle, and captures a real image around the intersection of the intersection that can be imaged from the front end of the vehicle when the vehicle approaches the intersection. The vehicle surrounding monitoring apparatus according to claim 1.
さらに、交差点においてドライバーの見通しが良くなる頭出し位置を算出する頭出し位置算出手段を有し、
上記表示手段は、自車両が上記頭出し位置に達した後、上記仮想の格子状グリッド画像の表示を中止する請求項1乃至7のいずれか1項に記載の車両用周囲監視装置。
Furthermore, it has a cue position calculation means for calculating a cue position where the driver's line of sight is improved at the intersection,
The vehicle surrounding monitoring device according to any one of claims 1 to 7, wherein the display unit stops displaying the virtual grid-like grid image after the host vehicle reaches the cueing position.
上記仮想格子画像規定手段は、上記仮想の格子状グリッド画像が、移動体或いは他の道路上の標識及び信号と重複しない高さに表示される請求項1乃至8のいずれか1項に記載の車両用監視装置。   9. The virtual grid image defining means according to claim 1, wherein the virtual grid-like grid image is displayed at a height that does not overlap with a sign or signal on a moving object or other road. Vehicle monitoring device. 上記仮想格子画像規定手段は、上記仮想の格子状グリッド画像が、移動体或いは他の道路上の標識及び信号と重複する部分がある場合、表示される上記仮想の格子グリッド画像のうち上記重複する部分を消去する請求項1乃至8のいずれか1項に記載の車両用監視装置。   The virtual grid image defining means includes the overlapping of the virtual grid grid images displayed when the virtual grid grid image has a portion that overlaps a sign or signal on a moving object or other road. The vehicle monitoring device according to claim 1, wherein the portion is erased.
JP2008071874A 2008-03-19 2008-03-19 Vehicular circumference monitoring device Abandoned JP2009226978A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008071874A JP2009226978A (en) 2008-03-19 2008-03-19 Vehicular circumference monitoring device
US12/350,480 US8054201B2 (en) 2008-03-19 2009-01-08 Surroundings monitoring device for vehicle
EP09003114A EP2103485A3 (en) 2008-03-19 2009-03-04 Surroundings monitoring device, method and computer program product for a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008071874A JP2009226978A (en) 2008-03-19 2008-03-19 Vehicular circumference monitoring device

Publications (1)

Publication Number Publication Date
JP2009226978A true JP2009226978A (en) 2009-10-08

Family

ID=41242921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008071874A Abandoned JP2009226978A (en) 2008-03-19 2008-03-19 Vehicular circumference monitoring device

Country Status (1)

Country Link
JP (1) JP2009226978A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011104984A1 (en) 2010-02-24 2011-09-01 アイシン精機株式会社 Vehicle surroundings monitoring device
WO2011114597A1 (en) * 2010-03-18 2011-09-22 アイシン精機株式会社 Image display device
JP2012066750A (en) * 2010-09-27 2012-04-05 Nippon Seiki Co Ltd Display for vehicle
JP2013054496A (en) * 2011-09-02 2013-03-21 Denso Corp Display device for vehicle
JP2016215790A (en) * 2015-05-19 2016-12-22 株式会社デンソー Lane change plan generating device, lane change plan generating method
JP2017102928A (en) * 2015-12-03 2017-06-08 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Detection of inclination of two wheeler
WO2019044185A1 (en) * 2017-08-28 2019-03-07 株式会社デンソー Video output device, video generation program, and non-transitory tangible computer-readable medium
JP2019075150A (en) * 2014-03-31 2019-05-16 エイディシーテクノロジー株式会社 Driving support device and driving support system
JP2019534519A (en) * 2016-11-08 2019-11-28 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド System, vehicle, and method for automatically displaying image data when the vehicle is positioned on-ramp to the aisle
JP2020008561A (en) * 2018-07-06 2020-01-16 本田技研工業株式会社 Device and method for presenting information and program
JP6744652B1 (en) * 2020-04-30 2020-08-19 アースアイズ株式会社 Congestion information notification system
WO2023233821A1 (en) * 2022-06-02 2023-12-07 ソニーグループ株式会社 Information processing device and information processing method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9073483B2 (en) 2010-02-24 2015-07-07 Aisin Seiki Kabushiki Kaisha Vehicle surroundings monitoring device
WO2011104984A1 (en) 2010-02-24 2011-09-01 アイシン精機株式会社 Vehicle surroundings monitoring device
WO2011114597A1 (en) * 2010-03-18 2011-09-22 アイシン精機株式会社 Image display device
JP2011199501A (en) * 2010-03-18 2011-10-06 Aisin Seiki Co Ltd Image display device
US8878934B2 (en) 2010-03-18 2014-11-04 Aisin Seiki Kabushiki Kaisha Image display device
JP2012066750A (en) * 2010-09-27 2012-04-05 Nippon Seiki Co Ltd Display for vehicle
JP2013054496A (en) * 2011-09-02 2013-03-21 Denso Corp Display device for vehicle
JP2019075150A (en) * 2014-03-31 2019-05-16 エイディシーテクノロジー株式会社 Driving support device and driving support system
JP2016215790A (en) * 2015-05-19 2016-12-22 株式会社デンソー Lane change plan generating device, lane change plan generating method
JP2017102928A (en) * 2015-12-03 2017-06-08 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Detection of inclination of two wheeler
JP7179440B2 (en) 2015-12-03 2022-11-29 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Tilt detection in motorcycles
JP2019534519A (en) * 2016-11-08 2019-11-28 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド System, vehicle, and method for automatically displaying image data when the vehicle is positioned on-ramp to the aisle
JP2019041334A (en) * 2017-08-28 2019-03-14 株式会社Soken Video output device and video generation program
WO2019044185A1 (en) * 2017-08-28 2019-03-07 株式会社デンソー Video output device, video generation program, and non-transitory tangible computer-readable medium
JP2020008561A (en) * 2018-07-06 2020-01-16 本田技研工業株式会社 Device and method for presenting information and program
JP7361486B2 (en) 2018-07-06 2023-10-16 本田技研工業株式会社 Information presentation device, information presentation method, and program
JP6744652B1 (en) * 2020-04-30 2020-08-19 アースアイズ株式会社 Congestion information notification system
JP2021175153A (en) * 2020-04-30 2021-11-01 アースアイズ株式会社 Congestion information notification system
WO2023233821A1 (en) * 2022-06-02 2023-12-07 ソニーグループ株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
JP2009226978A (en) Vehicular circumference monitoring device
JP6855350B2 (en) Head-up display device, navigation device, display method
CN106462727B (en) Vehicle, lane ending detection system and method
US9723243B2 (en) User interface method for terminal for vehicle and apparatus thereof
RU2704773C1 (en) Display control method and device
US8054201B2 (en) Surroundings monitoring device for vehicle
JP6307895B2 (en) Vehicle periphery monitoring device
JP5070809B2 (en) Driving support device, driving support method, and program
JP6379779B2 (en) Vehicle display device
JP4311426B2 (en) Display system, in-vehicle device, and display method for displaying moving object
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
JP2009231938A (en) Surrounding monitoring device for vehicle
JP2008131648A (en) Method and system for presenting video images
JP2008015759A (en) Driving support device
JP2008250503A (en) Operation support device
JP2011108175A (en) Driving support system, driving support method and driving support program
JP2008222153A (en) Merging support device
US20140152432A1 (en) Method for Detecting a Traffic Lane by Means of a Camera
JP2010234959A (en) Information display device
JP2009231937A (en) Surroundings monitoring device for vehicle
CN111273765A (en) Display control device for vehicle, display control method for vehicle, and storage medium
JP5146482B2 (en) Intersection point map creation device and program for intersection point map creation device
JP4986070B2 (en) Ambient monitoring device for vehicles
JP4936060B2 (en) Vehicle travel support device
JP2009122825A (en) Traveling state determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100329

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20111228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120112