JP2007043318A - Vehicle surrounding supervisory apparatus and vehicle surrounding supervisory method - Google Patents

Vehicle surrounding supervisory apparatus and vehicle surrounding supervisory method Download PDF

Info

Publication number
JP2007043318A
JP2007043318A JP2005223119A JP2005223119A JP2007043318A JP 2007043318 A JP2007043318 A JP 2007043318A JP 2005223119 A JP2005223119 A JP 2005223119A JP 2005223119 A JP2005223119 A JP 2005223119A JP 2007043318 A JP2007043318 A JP 2007043318A
Authority
JP
Japan
Prior art keywords
image
vehicle
height
overhead
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005223119A
Other languages
Japanese (ja)
Other versions
JP4677847B2 (en
Inventor
Tsutomu Kawano
勉 川野
Hiroyoshi Yanagi
柳  拓良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005223119A priority Critical patent/JP4677847B2/en
Publication of JP2007043318A publication Critical patent/JP2007043318A/en
Application granted granted Critical
Publication of JP4677847B2 publication Critical patent/JP4677847B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle surrounding supervisory apparatus capable of displaying an object existing at a position higher than ground at a correct position on a bird's-eye image. <P>SOLUTION: The vehicle surrounding supervisory apparatus 1 is characterized in to include: a camera 2 for photographing a state around its own vehicle; a first conversion section 3 for converting a photographed image into a bird's-eye image whose height is a ground height; a sonar 4 for detecting an object existing around its own vehicle; a distance calculation section 5 for calculating a distance up to the detected object; a second conversion section 6 for converting the photographed image into a bird's-eye image at a height equal to that of the sonar 4 on the basis of the distance to the object; a composite section 7 for composing the bird's-eye image at a ground height with the bird's-eye image at a height of the sonar 4; and a monitor 8 for displaying a composed image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は自車の周囲を監視する車両用周囲監視装置に係り、特に地面から高い位置に存在する対象物を俯瞰画像上において正しい位置に表示するための車両用周囲監視装置及びその方法に関する。   The present invention relates to a vehicle surrounding monitoring apparatus that monitors the surroundings of a host vehicle, and more particularly to a vehicle surrounding monitoring apparatus and method for displaying an object present at a high position from the ground at a correct position on an overhead image.

従来、車両の周囲をカメラで撮影し、この画像を俯瞰画像に変換して運転者に提示することが行なわれてきた。しかし、カメラで撮影した画像を俯瞰画像に変換すると、車両のバンパのように地面から宙に浮いた状態で存在している対象物は実際の位置よりも遠い位置に表示されてしまう。   Conventionally, the periphery of a vehicle has been photographed with a camera, and this image has been converted into a bird's-eye view and presented to the driver. However, if an image captured by the camera is converted into a bird's-eye view image, an object that exists in a state of floating from the ground like a bumper of a vehicle is displayed at a position far from the actual position.

そこで、従来ではセンサを設置して対象物の外縁を推定し、この対象物の外縁を俯瞰画像中に表示して対象物までの実際の距離を運転者に提示するようにしていた。このような車両周囲表示装置の従来例として、例えば特開2004−354326号公報(特許文献1)が開示されている。   Therefore, conventionally, a sensor is installed to estimate the outer edge of the object, and the outer edge of the object is displayed in a bird's-eye view image so that the actual distance to the object is presented to the driver. As a conventional example of such a vehicle surrounding display device, for example, Japanese Unexamined Patent Application Publication No. 2004-354326 (Patent Document 1) is disclosed.

この従来例では、カメラの画像を俯瞰画像に変換するとともに、距離測定センサによって車両周囲の対象物までの距離を繰り返し検出して対象物の外縁を推定し、推定した対象物の外縁を俯瞰画像上に重畳して表示していた。
特開2004−354326号公報
In this conventional example, the camera image is converted into a bird's-eye view image, and the distance measurement sensor repeatedly detects the distance to the object around the vehicle to estimate the outer edge of the object. It was displayed superimposed on the top.
JP 2004-354326 A

しかしながら、上述した従来の車両周囲表示装置では、距離測定センサによって検出された対象物の情報が点情報であるために、連続した外縁を描くためには車両を移動させる必要があり、瞬時に外縁情報を表示することができないので、対象物の位置を正確に運転者へ表示できない場合が発生してしまうという問題点があった。   However, in the conventional vehicle surrounding display device described above, since the information of the object detected by the distance measuring sensor is point information, it is necessary to move the vehicle in order to draw a continuous outer edge. Since information cannot be displayed, there has been a problem that the position of the object cannot be accurately displayed to the driver.

また、対象物が移動体である場合には、時間の経過とともに過去の位置情報に差異が生じ、さらに対象物の位置を正確に運転者へ表示できなくなる場合があった。   Further, when the object is a moving object, a difference occurs in past position information with the passage of time, and the position of the object may not be accurately displayed to the driver.

したがって、上述した従来の車両周囲表示装置では、運転者が自車の周囲の状況を正確に認知することができなかった。   Therefore, in the conventional vehicle surrounding display device described above, the driver cannot accurately recognize the situation around the own vehicle.

上述した課題を解決するために、本発明に係る車両用周囲監視装置は、自車の周囲の状況を俯瞰画像に変換して運転者に提示し、自車の周囲を監視する車両用周囲監視装置であって、自車の周囲の状況を撮影する撮影手段と、前記撮影手段で撮影された画像を地面の高さの俯瞰画像に変換する第1の変換手段と、前記自車の周囲に存在する対象物を検出する検出手段と、前記検出手段によって検出された対象物までの距離を算出する距離算出手段と、前記対象物までの距離に基づいて、前記撮影手段で撮影された画像を所定の高さの俯瞰画像に変換する第2の変換手段と、前記地面の高さの俯瞰画像と前記所定の高さの俯瞰画像とを合成する合成手段と、前記合成手段で合成された画像を表示する表示手段とを備えていることを特徴とする。   In order to solve the above-described problem, a vehicle surroundings monitoring apparatus according to the present invention converts a situation around the own vehicle into a bird's-eye view image and presents it to the driver to monitor the surroundings of the vehicle. An apparatus for photographing a situation around the own vehicle; first conversion means for converting an image photographed by the photographing means into an overhead image of a ground height; and Detection means for detecting an existing object, distance calculation means for calculating a distance to the object detected by the detection means, and an image photographed by the photographing means based on the distance to the object Second conversion means for converting to a bird's-eye view image of a predetermined height, composition means for synthesizing the bird's-eye view image of the ground height and the bird's-eye view image of the predetermined height, and an image synthesized by the composition means And display means for displaying.

また、本発明に係る車両周囲監視方法は、自車の周囲の状況を俯瞰画像に変換して運転者に提示し、自車の周囲を監視する車両周囲監視方法であって、撮影手段によって自車の周囲の状況を撮影する撮影ステップと、前記撮影ステップで撮影された画像を地面の高さの俯瞰画像に変換する第1の変換ステップと、前記自車の周囲に存在する対象物を検出する検出ステップと、前記検出ステップで検出された対象物までの距離を算出する距離算出ステップと、前記対象物までの距離に基づいて、前記撮影ステップで撮影された画像を前記所定の高さの俯瞰画像に変換する第2の変換ステップと、前記地面の高さの俯瞰画像と前記所定の高さの俯瞰画像とを合成する合成ステップと、前記合成ステップで合成された画像を表示する表示ステップとを含むことを特徴とする。   Further, the vehicle surroundings monitoring method according to the present invention is a vehicle surroundings monitoring method for monitoring the surroundings of the own vehicle by converting the surroundings of the own vehicle into a bird's-eye view image and presenting it to the driver. A shooting step for shooting the situation around the vehicle, a first conversion step for converting the image shot in the shooting step into a bird's-eye view image of the height of the ground, and detecting an object existing around the vehicle A detecting step for calculating, a distance calculating step for calculating a distance to the object detected in the detecting step, and an image captured in the imaging step based on the distance to the object. A second converting step for converting to a bird's-eye view image; a combining step for combining the overhead image with the height of the ground and the overhead image having the predetermined height; and a display step for displaying the image combined in the combining step. When Characterized in that it contains.

本発明に係る車両用周囲監視装置及びその方法では、検出された対象物までの距離に基づいて撮影された画像を所定の高さの俯瞰画像に変換し、この所定の高さの俯瞰画像と地面の高さの俯瞰画像とを合成して表示するので、地面に引かれた白線などの情報を正確に表示するとともに、地面より高い位置に存在する対象物を正確に表示することができ、これによって運転者が自車の周囲の状況を正確に認知することができる。   In the vehicle surrounding monitoring apparatus and method according to the present invention, an image captured based on the detected distance to the object is converted into an overhead image of a predetermined height, and the overhead image of the predetermined height Since it is synthesized and displayed with the overhead image of the height of the ground, information such as white lines drawn on the ground can be displayed accurately, and objects that are located higher than the ground can be displayed accurately, As a result, the driver can accurately recognize the situation around the vehicle.

以下図面を参照して、本発明の実施の形態を説明する。図面の記載において同一あるいは類似の部分には同一あるいは類似な符号を付している。   Embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

<第1の実施形態>
図1は本実施形態に係る車両用周囲監視装置の構成を示すブロック図である。図1に示すように、本実施形態の車両用周囲監視装置1は、車両の周囲の状況を撮影する撮影部(撮影手段)2と、撮影部2で撮影された画像を地面の高さの俯瞰画像に変換する第1の変換部(第1の変換手段)3と、自車の周囲に存在する対象物を検出する検出部(検出手段)4と、検出部4によって検出された対象物までの距離を算出する距離算出部(距離算出手段)5と、対象物までの距離に基づいて、撮影部2で撮影された画像を所定の高さの俯瞰画像に変換する第2の変換部(第2の変換手段)6と、地面の高さの俯瞰画像と所定の高さの俯瞰画像とを合成する合成部(合成手段)7と、合成部7で合成された画像を表示する表示部(表示手段)8とから構成されている。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a vehicle surrounding monitoring apparatus according to the present embodiment. As shown in FIG. 1, the vehicle surroundings monitoring device 1 of the present embodiment includes a photographing unit (photographing means) 2 for photographing a situation around the vehicle, and an image photographed by the photographing unit 2 at the height of the ground. A first conversion unit (first conversion unit) 3 that converts an overhead image, a detection unit (detection unit) 4 that detects an object existing around the vehicle, and an object detected by the detection unit 4 A distance calculation unit (distance calculation unit) 5 that calculates a distance to the second object, and a second conversion unit that converts an image photographed by the photographing unit 2 into an overhead image of a predetermined height based on the distance to the object. (Second conversion means) 6, a composition unit (composition means) 7 that composes the overhead image of the height of the ground and the overhead image of a predetermined height, and a display that displays the image synthesized by the composition unit 7 Part (display means) 8.

ここで、撮影部2は、自車の後方や前方に複数あるいは1台設置されたCCDカメラなどの撮影手段であって、撮影された画像は一点一点の画素の集合体として形成されている。   Here, the photographing unit 2 is a photographing unit such as a CCD camera or the like installed in the rear or front of the own vehicle, and the photographed image is formed as a collection of pixels one by one. Yes.

第1の変換部3は、撮影部2を構成するカメラのレンズ特性と、地面に対するカメラの取付角度と、相対距離とに基づいて、撮影された一点一点の画素が地面のどこを表し、変換した俯瞰画像上においてどの位置に対応するかという規則性(対応)を記憶して、内蔵する演算回路によって各画素の再配置という画像処理を行なって俯瞰画像を作成している。特に、第1の変換回路3では撮影部2で撮影された画像を地面の高さの俯瞰画像に変換している。   The first conversion unit 3 indicates where on the ground each captured pixel is based on the lens characteristics of the camera constituting the imaging unit 2, the angle of attachment of the camera to the ground, and the relative distance. The regularity (correspondence) indicating which position corresponds to the converted overhead image is stored, and the overhead image is created by performing image processing called rearrangement of each pixel by a built-in arithmetic circuit. In particular, the first conversion circuit 3 converts the image captured by the imaging unit 2 into an overhead view image of the height of the ground.

検出部4は、予め設定された所定の高さに存在する対象物を検出するための検出手段であって、例えば超音波式のソナーによって構成することができる。この超音波式のソナーの場合には、発信した超音波が物体に反射して戻ってきた反射信号を受信することによって電気信号を取り出して対象物を検出している。   The detection unit 4 is detection means for detecting an object existing at a predetermined height set in advance, and can be configured by, for example, an ultrasonic sonar. In the case of this ultrasonic sonar, an object is detected by taking out an electric signal by receiving a reflected signal which is reflected by the transmitted ultrasonic wave and returning to the object.

距離算出部5は、検出部4から出力された電気信号の有無から対象物の存在を検出し、超音波を発信してから受信するまでの時間差によって相対距離(対象物との距離)を求めている。   The distance calculation unit 5 detects the presence of an object from the presence or absence of an electrical signal output from the detection unit 4, and obtains a relative distance (distance to the object) from a time difference from when an ultrasonic wave is transmitted to when it is received. ing.

第2の変換部6は、第1の変換部3と同様の処理を行なって撮影部2で撮影された画像を俯瞰画像に変換しているが、第2の変換部6は予め設定された所定の高さ、例えば検出部4が取り付けられている高さの俯瞰画像に変換している。したがって、第2の変換部6では、撮影された画像を所定の高さの俯瞰画像に変換するための規則性が記憶されており、距離算出部5で検出された対象物の存在と、対象物までの相対距離とに基づいて該当する領域の俯瞰画像を作成している。   The second conversion unit 6 performs the same processing as the first conversion unit 3 to convert the image captured by the imaging unit 2 into an overhead image, but the second conversion unit 6 is set in advance. The image is converted into an overhead image having a predetermined height, for example, the height at which the detection unit 4 is attached. Therefore, the second conversion unit 6 stores regularity for converting the captured image into a bird's-eye view image of a predetermined height, and the presence of the target detected by the distance calculation unit 5 and the target A bird's-eye view image of the corresponding area is created based on the relative distance to the object.

合成部7は、第1の変換部3で作成された地面の高さの俯瞰画像と第2の変換部6で作成された所定の高さの俯瞰画像との間の上下関係を正しく判断し、これらを重複させて地面の高さの俯瞰画像の上に、所定の高さの俯瞰画像を重ねて一つの画像を作成している。   The composition unit 7 correctly determines the vertical relationship between the overhead image of the ground height created by the first converter 3 and the overhead image of the predetermined height created by the second converter 6. These are overlapped to create a single image by overlaying the overhead view image of a predetermined height on the overhead view image of the height of the ground.

表示部8は、自車の車室内に設置されたモニターなどの表示装置であって、合成部7で合成された画像を運転者に向けて適切な輝度とコントラストで提示している。   The display unit 8 is a display device such as a monitor installed in the passenger compartment of the host vehicle, and presents the image combined by the combining unit 7 to the driver with appropriate brightness and contrast.

次に、本実施形態の車両用周囲監視装置1による車両周囲監視処理を図2のフローチャートに基づいて説明する。尚、ここからは撮影部2はカメラとして説明し、検出部4は超音波式のソナー、表示部8はモニターとして説明する。   Next, the vehicle periphery monitoring process by the vehicle periphery monitoring device 1 of the present embodiment will be described based on the flowchart of FIG. From here, the photographing unit 2 will be described as a camera, the detection unit 4 will be described as an ultrasonic sonar, and the display unit 8 will be described as a monitor.

図2に示すように、まず運転者によって自車周囲の監視を開始するスイッチがONされると(S201)、カメラ2によって撮影が行なわれる(S202)。そして、撮影された画像は図3(a)に示すように通常は地面の高さの俯瞰画像として変換される(S203)。   As shown in FIG. 2, first, when a driver turns on a switch that starts monitoring the surroundings of the vehicle (S201), the camera 2 takes a picture (S202). Then, as shown in FIG. 3A, the photographed image is usually converted as an overhead image of the ground level (S203).

ここで、ソナー4によって自車の周囲に対象物が検出されたか否かが判定され(S204)、対象物が検出されていないときには地面の高さの俯瞰画像がモニター8に表示される(S205)。   Here, it is determined whether or not an object is detected around the own vehicle by the sonar 4 (S204). When no object is detected, an overhead image of the ground height is displayed on the monitor 8 (S205). ).

そして、自車の周囲を監視するスイッチがOFFになっているか否かを判定し(S206)、OFFになっていなければステップS204に戻って対象物の検出を行なう。ここで、ソナー4によって自車の周囲に対象物が検出されると、検出された対象物が車両などの場合には地面の高さの俯瞰画像に変換すると、対象物が実際の位置よりも遠くに表示されてしまう。例えば、図4に示すように自車40の周囲に対象物として他の車両41が存在する場合には、車両41の端部D点は実際には自車40からB点の距離にあるにも関わらず、俯瞰画像では自車40からC点の距離にあるように表示されている。   Then, it is determined whether or not the switch for monitoring the surroundings of the vehicle is turned off (S206). If not turned off, the process returns to step S204 to detect the object. Here, when an object is detected around the own vehicle by the sonar 4, when the detected object is a vehicle or the like, it is converted into an overhead view image of the height of the ground. It will be displayed in the distance. For example, as shown in FIG. 4, when another vehicle 41 exists as an object around the own vehicle 40, the end D point of the vehicle 41 is actually at a distance B from the own vehicle 40. Nevertheless, the bird's-eye view image is displayed so as to be at a distance C from the own vehicle 40.

そこで、地面の高さの俯瞰画像だけでなく、所定の高さの俯瞰画像を生成して地面の高さの俯瞰画像と合成する処理を実施する。ただし、ここでは所定の高さをソナー4の取り付け高さとするが、その他の高さに設定してもよい。   In view of this, not only the overhead image of the ground level but also the overhead image having a predetermined height is generated and combined with the overhead image of the ground level. However, here, the predetermined height is the mounting height of the sonar 4, but may be set to other heights.

まず、ソナー4による検知エリアを確定させる(S207)。ここで、ソナー4の検出範囲を図5に基づいて説明する。超音波式のソナー4は、距離0から反射信号が微弱で受信不能となる距離までが検出距離となる。ただし、発信する超音波の強度によって検出距離は任意に設定可能である。そして、ソナー4から発信される超音波は、図5(a)及び図5(b)に示すように本体から扇状に発信され、その画角が検出範囲となっており、車両用のソナーでは地面に対して水平方向が広く、垂直方向が狭くなっている。   First, the detection area by the sonar 4 is fixed (S207). Here, the detection range of the sonar 4 will be described with reference to FIG. The ultrasonic sonar 4 has a detection distance from a distance 0 to a distance where the reflected signal is weak and cannot be received. However, the detection distance can be arbitrarily set according to the intensity of the transmitted ultrasonic wave. And the ultrasonic wave transmitted from the sonar 4 is transmitted in a fan shape from the main body as shown in FIGS. 5 (a) and 5 (b), and the angle of view is a detection range. The horizontal direction is wide with respect to the ground, and the vertical direction is narrow.

このような超音波の検出範囲において、その距離に応じて検知エリアが設定されており、図5(a)では3段階の検知エリア51〜53が設定されている。ただし、この検知エリアは検出範囲の広さに応じてより多く設定してもよいし、1つの検知エリアであってもよい。   In such an ultrasonic detection range, detection areas are set according to the distance, and in FIG. 5A, three stages of detection areas 51 to 53 are set. However, more detection areas may be set according to the size of the detection range, or one detection area may be used.

そして、ソナー4から発信された超音波の発信から受信までの時間差に基づいて、対象物までの距離を特定し、対象物が存在する検知エリアを確定する。   And based on the time difference from the transmission of the ultrasonic wave transmitted from the sonar 4 to the reception, the distance to the target is specified, and the detection area where the target exists is determined.

こうして検知エリアが確定すると、次に撮影した画像をソナー4の高さの俯瞰画像に変換する(S208)。この変換方法としては、図6に示すようにカメラ2と対象物61との間の俯角をθc、地面からカメラまでの高さをHc、ソナー4の高さをHo、対象物61までの距離をLo、地面の高さの俯瞰画像における対象物までの距離をLd、Ld−Lo=Lgとすると、Lg:Ld=Ho:Hcの関係を利用してカメラ2で撮影された画像をソナー4の高さの俯瞰画像に変換する。   When the detection area is determined in this way, the next photographed image is converted into an overhead view image of the sonar 4 height (S208). As this conversion method, as shown in FIG. 6, the depression angle between the camera 2 and the object 61 is θc, the height from the ground to the camera is Hc, the height of the sonar 4 is Ho, and the distance to the object 61 Is Lo, and the distance to the object in the overhead image of the ground height is Ld, and Ld−Lo = Lg, the image taken by the camera 2 using the relationship of Lg: Ld = Ho: Hc is the sonar 4 Convert to a bird's-eye view image at a height of.

そして、ソナー4の高さの俯瞰画像と地面の高さの俯瞰画像を合成して(S209)モニター8に表示する(S205)。   Then, the overhead image of the height of the sonar 4 and the overhead image of the height of the ground are synthesized (S209) and displayed on the monitor 8 (S205).

ここで、モニター8に表示される俯瞰画像の一例を図7(a)及び図7(b)に示す。図7(a)に示すように、合成後の俯瞰画像では地面の高さの俯瞰画像の中に、ソナー4の高さの俯瞰画像が点線で囲まれて表示されている。   Here, an example of the overhead view image displayed on the monitor 8 is shown in FIGS. As shown in FIG. 7A, in the overhead image after synthesis, the overhead image having the height of the sonar 4 is displayed surrounded by a dotted line in the overhead image having the height of the ground.

この俯瞰画像は、図5(a)において3段階に設定された検知エリアのうち、ソナー4から最も遠い位置にある検知エリア51に対象物である車両が進入してきた場合を示した図であり、図7(a)の点線で囲った領域が検知エリア51に対応している。そして、この検知エリア51の画像をソナー4の高さの俯瞰画像に変換し、地面の高さの俯瞰画像に合成して表示したものである。したがって、合成された俯瞰画像を側面図にすると、図8に示すような側面図となり、検知エリアの部分ではソナー4の高さの俯瞰画像が表示され、その他の部分では地面の高さの俯瞰画像が表示されている。   This bird's-eye view image is a diagram showing a case where a vehicle as a target object has entered a detection area 51 farthest from the sonar 4 among the detection areas set in three stages in FIG. A region surrounded by a dotted line in FIG. 7A corresponds to the detection area 51. Then, the image of the detection area 51 is converted into a bird's-eye view image having the height of the sonar 4, and is synthesized and displayed on the bird's-eye view image having the height of the ground. Accordingly, when the synthesized bird's-eye view image is converted into a side view, the side view is as shown in FIG. An image is displayed.

ここで、図7(a)では検地エリアの俯瞰画像が長方形に設定されているが、これは地面の高さの俯瞰画像に検地エリアの俯瞰画像を合成した際の運転者の見やすさを確保するためのものであり、ソナー4の検出範囲と正確に対応させるためには扇形に設定してもよい。また、ソナーの信頼性(検出範囲に対象物が存在する確かさ)に従って検知エリアの幅を狭くすれば、必要最小限な合成となる。   Here, in FIG. 7 (a), the overhead view image of the inspection area is set to a rectangle, but this ensures the driver's visibility when the overhead view image of the inspection area is combined with the overhead view image of the ground height. In order to accurately correspond to the detection range of the sonar 4, it may be set in a sector shape. Further, if the width of the detection area is narrowed according to the reliability of the sonar (the certainty that the object is present in the detection range), the required minimum composition is achieved.

こうしてステップS205において合成された画像がモニター8に表示されると、自車の周囲を監視するスイッチがOFFになっているか否かを判定し(S206)、OFFになっていなければステップS204に戻って上述した処理を繰り返し行い、OFFになっていれば本実施形態の車両用周囲監視装置1による車両周囲監視処理を終了する。   When the combined image in step S205 is displayed on the monitor 8, it is determined whether or not the switch for monitoring the surroundings of the vehicle is turned off (S206). If not, the process returns to step S204. The above-described processing is repeated, and if it is OFF, the vehicle surrounding monitoring process by the vehicle surrounding monitoring device 1 of the present embodiment is terminated.

このように、本実施形態の車両用周囲監視装置1では、検出された対象物までの距離に基づいて撮影された画像を所定の高さの俯瞰画像に変換し、この所定の高さの俯瞰画像と地面の高さの俯瞰画像とを合成して表示するので、地面の画像を正確に表示するとともに、地面より高い位置に存在する対象物についても正確に表示することができ、これによって運転者が自車の周囲の状況を正確に認知することができる。   As described above, in the vehicle surrounding monitoring apparatus 1 according to the present embodiment, an image captured based on the detected distance to the object is converted into an overhead view image having a predetermined height, and the overhead view having the predetermined height is displayed. Since the image and the overhead image of the height of the ground are combined and displayed, the ground image can be accurately displayed and the object existing at a position higher than the ground can also be accurately displayed. Can accurately recognize the situation around the vehicle.

また、本実施形態の車両用周囲監視装置1では、ソナー4の検出範囲を複数の検知エリア51〜53に区分し、検知エリア毎に所定の高さの俯瞰画像を生成するので、対象物が存在する検知エリアを特定して運転者に提示することができ、運転者はより正確に対象物の位置を認知することができる。   Moreover, in the vehicle surrounding monitoring apparatus 1 of this embodiment, the detection range of the sonar 4 is divided into a plurality of detection areas 51 to 53, and an overhead image with a predetermined height is generated for each detection area. An existing detection area can be identified and presented to the driver, and the driver can recognize the position of the object more accurately.

さらに、本実施形態の車両用周囲監視装置1では、対象物の存在する検知エリアのみを所定の高さの俯瞰画像に変換して表示するので、対象物が存在する検知エリアを絞り込んで運転者に提示することができ、運転者は迅速に対象物の位置を認知することができる。   Furthermore, in the vehicle surrounding monitoring device 1 of the present embodiment, only the detection area where the object exists is converted into an overhead image of a predetermined height and displayed, so the detection area where the object exists is narrowed down and the driver is selected. The driver can quickly recognize the position of the object.

<第2の実施形態>
次に、本発明の第2の実施形態を図面に基づいて説明する。本実施形態の車両用周囲監視装置では、カメラ2で撮影された画像をソナー4の高さの俯瞰画像に変換する際に、第1の実施形態では検知エリアの部分のみを俯瞰画像に変換していたのに対して、本実施形態では検知エリアから遠ざかる方向の全ての範囲を俯瞰画像に変換する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described with reference to the drawings. In the vehicle surrounding monitoring apparatus of the present embodiment, when the image taken by the camera 2 is converted into an overhead image with the height of the sonar 4, only the detection area portion is converted into an overhead image in the first embodiment. In contrast, in the present embodiment, the entire range in the direction away from the detection area is converted into an overhead image.

そこで、この方法で変換されたソナー4の高さの俯瞰画像と地面の高さの俯瞰画像とを合成すると、図9(a)に示すような俯瞰画像となり、図9(b)に示すように対象物はB点の距離から遠ざかる方向にすべて表示される。したがって、この合成された俯瞰画像を側面図にすると、図10に示すような側面図となり、検知エリアから遠ざかる方向のすべてがソナー4の高さの俯瞰画像になっており、検知エリアより手前側の部分では地面の高さの俯瞰画像になっている。   Therefore, when the overhead image of the height of the sonar 4 converted by this method and the overhead image of the height of the ground are combined, an overhead image as shown in FIG. 9A is obtained, as shown in FIG. 9B. The objects are all displayed in a direction away from the distance of point B. Therefore, when this synthesized bird's-eye view image is converted into a side view, the side view as shown in FIG. 10 is obtained, and all the directions away from the detection area are the bird's-eye view image having the height of the sonar 4, and the front side from the detection area. This is a bird's-eye view of the ground level.

これにより、第1の実施形態では図7(a)に示したように同じ対象物が2箇所で表示される場合があり、運転者はどちらが本当の位置なのか誤解を招く恐れがあるのに対して、本実施形態では対象物の端部Dを正確に表示するとともに、対象物を一体として表示することができるので、運転者は確実に対象物を把握することができる。   As a result, in the first embodiment, the same object may be displayed in two places as shown in FIG. 7A, and the driver may misunderstand which is the real position. On the other hand, in the present embodiment, the end D of the object can be accurately displayed and the object can be displayed as a single unit, so that the driver can reliably grasp the object.

このように、本実施形態の車両用周囲監視装置では、対象物の存在する検知エリアから遠ざかる方向の全ての範囲を所定の高さの俯瞰画像に変換するので、運転者にとって見やすい俯瞰画像を提示することができ、運転者は確実に対象物を把握することができる。   As described above, in the vehicle surrounding monitoring apparatus according to the present embodiment, the entire range in the direction away from the detection area where the object exists is converted into an overhead image with a predetermined height, so that an easy-to-see overhead image is presented to the driver. The driver can surely grasp the object.

<第3の実施形態>
次に、本発明の第3の実施形態を図面に基づいて説明する。本実施形態の車両用周囲監視装置では、カメラ2で撮影された画像をソナー4の高さの俯瞰画像に変換する際に、地面の高さの俯瞰画像との境目において、地面の高さからソナー4の高さまで連続的に高さの変化する俯瞰画像に変換する。
<Third Embodiment>
Next, a third embodiment of the present invention will be described with reference to the drawings. In the vehicle surrounding monitoring apparatus according to the present embodiment, when the image captured by the camera 2 is converted into an overhead image with the height of the sonar 4, the height of the ground is determined at the boundary with the overhead image with the height of the ground. The image is converted into a bird's-eye view image whose height continuously changes up to the height of the sonar 4.

ここで、本実施形態の車両用周囲監視装置によって変換された俯瞰画像の側面図を図11に示す。図11に示すように本実施形態の俯瞰画像では地面の高さの俯瞰画像とソナー4の高さの俯瞰画像との境目に可変範囲111を設けて高さを連続的に変化させている。   Here, FIG. 11 shows a side view of the bird's-eye view image converted by the vehicle surrounding monitoring apparatus of the present embodiment. As shown in FIG. 11, in the overhead image of the present embodiment, the variable range 111 is provided at the boundary between the overhead image of the ground height and the overhead image of the height of the sonar 4 to continuously change the height.

したがって、第1の実施形態では地面に白線が引かれていた場合には図12(a)に示すように、地面の高さの俯瞰画像とソナー4の高さの俯瞰画像との境目において白線121が不連続になっていたのに対して、本実施形態の俯瞰画像では図13(a)に示すように地面に引かれた白線131を連続的に表示することができる。第1の実施形態では高さの違う俯瞰画像を単純に合成していたので、その境目においてカメラ2で撮影した画素の消失が起こり、連続性や有効情報の欠落が生じていた。そこで、本実施形態では合成によって欠落してしまう境目において、俯瞰画像の高さを徐々に変化させて連続的に表示できるようにして、この問題を解消している。   Therefore, in the first embodiment, when a white line is drawn on the ground, as shown in FIG. 12A, a white line is formed at the boundary between the overhead image of the ground height and the overhead image of the sonar 4 height. In contrast to 121 being discontinuous, the bird's-eye view image of the present embodiment can continuously display white lines 131 drawn on the ground as shown in FIG. In the first embodiment, since the overhead images having different heights are simply combined, the pixels captured by the camera 2 are lost at the boundary, and continuity and lack of effective information are generated. Therefore, in the present embodiment, this problem is solved by gradually changing the height of the bird's-eye view image at the boundary that is lost due to the composition, so that it can be continuously displayed.

このように、本実施形態の車両用周囲監視装置では、地面の高さの俯瞰画像と所定の高さの俯瞰画像との境目において、地面の高さから所定の高さまで連続的に高さの変化する俯瞰画像に変換するので、高さの異なる俯瞰画像を滑らかに繋いで合成することができ、複雑な対象物や地面に引かれた白線などの垂直以外の対象物についても判りやすく提示して運転者がより正確に認知できるようにしている。   As described above, in the vehicle surrounding monitoring apparatus according to the present embodiment, the height of the ground is continuously increased from the ground level to the predetermined height at the boundary between the overhead image of the ground height and the overhead image of the predetermined height. Because it converts to a bird's-eye view image that changes, it is possible to smoothly connect and synthesize bird's-eye images with different heights, and present complex objects and non-vertical objects such as white lines drawn on the ground in an easy-to-understand manner. So that the driver can recognize it more accurately.

<第4の実施形態>
次に、本発明の第4の実施形態を図面に基づいて説明する。本実施形態の車両用周囲監視装置では、ソナー4の高さの俯瞰画像に透過効果を持たせたことが第1の実施形態と異なっている。
<Fourth Embodiment>
Next, a fourth embodiment of the present invention will be described with reference to the drawings. The vehicle surrounding monitoring apparatus of the present embodiment is different from the first embodiment in that the overhead image of the height of the sonar 4 has a transmission effect.

したがって、本実施形態の俯瞰画像では、図14(a)に示すようにソナー4の高さの俯瞰画像が表示されている検知エリア内において、地面に引かれた白線が点線で表示されている。この俯瞰画像を側面図にすると、図15に示すような側面図となり、検知エリアではソナー4の高さの俯瞰画像は透過画像となり、地面の高さの俯瞰画像も同時に表示できるようになっている。   Therefore, in the overhead view image of the present embodiment, as shown in FIG. 14A, the white line drawn on the ground is displayed with a dotted line in the detection area where the overhead view image of the sonar 4 is displayed. . If this overhead image is a side view, the side view as shown in FIG. 15 is obtained. In the detection area, the overhead image at the height of the sonar 4 becomes a transparent image, and the overhead image at the height of the ground can be displayed at the same time. Yes.

このように、本実施形態の車両用周囲監視装置では、所定の高さの俯瞰画像を透過して地面の高さの俯瞰画像が見えるように合成するので、運転者に対して所定の高さの俯瞰画像と地面の高さの俯瞰画像とを同時に提示することができ、これによって運転者に提示する情報が増えて運転者に多くの選択肢を与えることができる。   As described above, in the vehicle surrounding monitoring apparatus according to the present embodiment, the overhead view image having a predetermined height is transmitted so as to be seen so that the overhead view image having the height of the ground can be seen. The bird's-eye view image and the ground-level bird's-eye view image can be presented at the same time, thereby increasing the information presented to the driver and giving the driver many choices.

以上、本発明の車両用周囲監視装置について、図示した実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は同様の機能を有する任意の構成のものに置き換えることができる。   As described above, the vehicle surrounding monitoring apparatus of the present invention has been described based on the illustrated embodiment, but the present invention is not limited to this, and the configuration of each part is an arbitrary configuration having the same function. Can be replaced.

車両の周囲を監視する車両用周囲監視装置に係り、特に地面から高い位置に存在する対象物を俯瞰画像上において正しい位置に表示するための技術として極めて有用である。   The present invention relates to a vehicle surrounding monitoring device that monitors the surroundings of a vehicle, and is particularly useful as a technique for displaying an object present at a high position from the ground at a correct position on an overhead image.

本発明の第1の実施形態に係る車両用周囲監視装置の構成を示すブロック図である。1 is a block diagram showing a configuration of a vehicle surroundings monitoring device according to a first embodiment of the present invention. 本発明の第1の実施形態に係る車両用周囲監視装置による車両周囲監視処理を説明するためのフローチャートである。It is a flowchart for demonstrating the vehicle periphery monitoring process by the vehicle periphery monitoring apparatus which concerns on the 1st Embodiment of this invention. 図3(a)及び図3(b)は変換後の地面の高さの俯瞰画像と自車の側面配置とを説明するための図である。FIG. 3A and FIG. 3B are diagrams for explaining a bird's-eye view of the height of the ground after conversion and a side arrangement of the own vehicle. 図4(a)及び図4(b)は地面から高い位置にある対象物が存在する場合の変換後の地面の高さの俯瞰画像と自車の側面配置とを説明するための図である。4 (a) and 4 (b) are diagrams for explaining a bird's-eye view image of the height of the converted ground and a side arrangement of the own vehicle when there is an object at a high position from the ground. . 図5(a)及び図5(b)は検出部として設置されたソナーの検出範囲を説明するための平面図及び側面図である。FIG. 5A and FIG. 5B are a plan view and a side view for explaining a detection range of a sonar installed as a detection unit. 地面の高さの俯瞰画像からソナーの高さの俯瞰画像への変換方法を説明するための図である。It is a figure for demonstrating the conversion method from the bird's-eye view image of the height of the ground to the bird's-eye view image of the height of sonar. 図7(a)及び図7(b)は第1の実施形態の車両用周囲監視装置による合成後の俯瞰画像と自車の側面配置とを示す図である。FIG. 7A and FIG. 7B are views showing a bird's-eye view image and a side arrangement of the own vehicle after being synthesized by the vehicle periphery monitoring device of the first embodiment. 第1の実施形態の車両用周囲監視装置による合成後の俯瞰画像を説明するための側面図である。It is a side view for demonstrating the bird's-eye view image after composition by the perimeter monitoring device for vehicles of a 1st embodiment. 図9(a)及び図9(b)は第2の実施形態の車両用周囲監視装置による合成後の俯瞰画像と自車の側面配置とを示す図である。FIG. 9A and FIG. 9B are views showing a bird's-eye view image and a side arrangement of the own vehicle after being synthesized by the vehicle periphery monitoring device of the second embodiment. 第2の実施形態の車両用周囲監視装置による合成後の俯瞰画像を説明するための側面図である。It is a side view for demonstrating the bird's-eye view image after a synthesis | combination by the vehicle periphery monitoring apparatus of 2nd Embodiment. 第3の実施形態の車両用周囲監視装置による合成後の俯瞰画像を説明するための側面図である。It is a side view for demonstrating the bird's-eye view image after a synthesis | combination by the vehicle periphery monitoring apparatus of 3rd Embodiment. 図12(a)及び図12(b)は地面に白線が引かれていた場合における第1の実施形態の車両用周囲監視装置による合成後の俯瞰画像と自車の側面配置とを説明するための図である。FIGS. 12A and 12B are diagrams for explaining a bird's-eye view image and a side arrangement of the host vehicle after the synthesis by the vehicle surrounding monitoring apparatus of the first embodiment when a white line is drawn on the ground. FIG. 図13(a)及び図13(b)は第3の実施形態の車両用周囲監視装置による合成後の俯瞰画像と自車の側面配置とを示す図である。FIG. 13A and FIG. 13B are views showing a bird's-eye view image and a side arrangement of the own vehicle after being synthesized by the vehicle periphery monitoring device of the third embodiment. 図14(a)及び図14(b)は第4の実施形態の車両用周囲監視装置による合成後の俯瞰画像と自車の側面配置とを示す図である。FIG. 14A and FIG. 14B are views showing a bird's-eye view image and a side arrangement of the own vehicle after being synthesized by the vehicle periphery monitoring device of the fourth embodiment. 第4の実施形態の車両用周囲監視装置による合成後の俯瞰画像を説明するための側面図である。It is a side view for demonstrating the bird's-eye view image after a synthesis | combination by the vehicle periphery monitoring apparatus of 4th Embodiment.

符号の説明Explanation of symbols

1 車両用周囲監視装置
2 撮影部(カメラ、撮影手段)
3 第1の変換部(第1の変換手段)
4 検出部(ソナー、検出手段)
5 距離算出部(距離算出手段)
6 第2の変換部(第2の変換手段)
7 合成部(合成手段)
8 表示部(モニター、表示手段)
40 自車
41、61 対象物
51、52、53 検知エリア
111 可変範囲
121、131 白線
1 Vehicle Ambient Monitoring Device 2 Camera (Camera, Camera)
3 1st conversion part (1st conversion means)
4 Detection part (sonar, detection means)
5 Distance calculation part (distance calculation means)
6 2nd conversion part (2nd conversion means)
7 Synthesizer (synthesizer)
8 Display section (monitor, display means)
40 Own vehicle 41, 61 Object 51, 52, 53 Detection area 111 Variable range 121, 131 White line

Claims (7)

自車の周囲の状況を俯瞰画像に変換して運転者に提示し、自車の周囲を監視する車両用周囲監視装置であって、
自車の周囲の状況を撮影する撮影手段と、
前記撮影手段で撮影された画像を地面の高さの俯瞰画像に変換する第1の変換手段と、
前記自車の周囲に存在する対象物を検出する検出手段と、
前記検出手段によって検出された対象物までの距離を算出する距離算出手段と、
前記対象物までの距離に基づいて、前記撮影手段で撮影された画像を所定の高さの俯瞰画像に変換する第2の変換手段と、
前記地面の高さの俯瞰画像と前記所定の高さの俯瞰画像とを合成する合成手段と、
前記合成手段で合成された画像を表示する表示手段と
を備えていることを特徴とする車両用周囲監視装置。
A vehicle surrounding monitoring device that converts the situation around the vehicle into a bird's-eye view image and presents it to the driver, and monitors the surroundings of the vehicle,
Photographing means for photographing the situation around the vehicle;
First conversion means for converting an image photographed by the photographing means into an overhead view image of the height of the ground;
Detecting means for detecting an object existing around the vehicle;
Distance calculating means for calculating the distance to the object detected by the detecting means;
Second conversion means for converting an image photographed by the photographing means into an overhead image having a predetermined height based on the distance to the object;
Combining means for combining the overhead image of the height of the ground and the overhead image of the predetermined height;
A vehicle surrounding monitoring device comprising: display means for displaying an image synthesized by the synthesizing means.
前記検出手段の検出範囲を複数の検知エリアに区分し、前記第2の変換手段は、前記検知エリア毎に前記所定の高さの俯瞰画像を生成することを特徴とする請求項1に記載の車両用周囲監視装置。   The detection range of the detection means is divided into a plurality of detection areas, and the second conversion means generates the overhead image having the predetermined height for each detection area. Vehicle surrounding monitoring device. 前記第2の変換手段は、前記対象物の存在する検知エリアのみを前記所定の高さの俯瞰画像に変換することを特徴とする請求項2に記載の車両用周囲監視装置。   The vehicle surrounding monitoring apparatus according to claim 2, wherein the second conversion unit converts only the detection area where the object is present into the overhead image having the predetermined height. 前記第2の変換手段は、前記対象物の存在する検知エリアから遠ざかる方向の全ての範囲を所定の高さの俯瞰画像に変換することを特徴とする請求項2に記載の車両用周囲監視装置。   The vehicle surrounding monitoring apparatus according to claim 2, wherein the second conversion unit converts all ranges in a direction away from a detection area where the object exists into an overhead image having a predetermined height. . 前記第2の変換手段は、前記地面の高さの俯瞰画像と前記所定の高さの俯瞰画像との境目において、前記地面の高さから前記所定の高さまで連続的に高さを変化させて俯瞰画像に変換することを特徴とする請求項1から請求項4のいずれか1項に記載の車両用周囲監視装置。   The second conversion means continuously changes the height from the height of the ground to the predetermined height at the boundary between the overhead image of the ground height and the overhead image of the predetermined height. The vehicle surrounding monitoring apparatus according to any one of claims 1 to 4, wherein the vehicle surrounding monitoring apparatus is converted into a bird's-eye view image. 前記合成手段は、前記所定の高さの俯瞰画像を透過して前記地面の高さの俯瞰画像が見えるように合成することを特徴とする請求項1から請求項5のいずれか1項に記載の車両用周囲監視装置。   The said synthetic | combination means synthesize | combines so that the overhead image of the said height can be seen through the said overhead image of the said predetermined | prescribed height, The composite image of Claim 1 characterized by the above-mentioned. Vehicle surrounding monitoring device. 自車の周囲の状況を俯瞰画像に変換して運転者に提示し、自車の周囲を監視する車両周囲監視方法であって、
撮影手段によって自車の周囲の状況を撮影する撮影ステップと、
前記撮影ステップで撮影された画像を地面の高さの俯瞰画像に変換する第1の変換ステップと、
前記自車の周囲に存在する対象物を検出する検出ステップと、
前記検出ステップで検出された対象物までの距離を算出する距離算出ステップと、
前記対象物までの距離に基づいて、前記撮影ステップで撮影された画像を前記所定の高さの俯瞰画像に変換する第2の変換ステップと、
前記地面の高さの俯瞰画像と前記所定の高さの俯瞰画像とを合成する合成ステップと、
前記合成ステップで合成された画像を表示する表示ステップと
を含むことを特徴とする車両周囲監視方法。
A vehicle surroundings monitoring method for monitoring the surroundings of the vehicle by converting the situation around the vehicle into a bird's-eye view image and presenting it to the driver.
A shooting step of shooting the situation around the vehicle by shooting means;
A first conversion step of converting the image shot in the shooting step into an overhead view image of the height of the ground;
A detection step of detecting an object existing around the vehicle;
A distance calculating step for calculating a distance to the object detected in the detecting step;
A second conversion step of converting the image shot in the shooting step into the overhead image of the predetermined height based on the distance to the object;
A synthesis step of synthesizing the overhead image of the height of the ground and the overhead image of the predetermined height;
And a display step for displaying the image synthesized in the synthesis step.
JP2005223119A 2005-08-01 2005-08-01 Vehicle surrounding monitoring apparatus and vehicle surrounding monitoring method Active JP4677847B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005223119A JP4677847B2 (en) 2005-08-01 2005-08-01 Vehicle surrounding monitoring apparatus and vehicle surrounding monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005223119A JP4677847B2 (en) 2005-08-01 2005-08-01 Vehicle surrounding monitoring apparatus and vehicle surrounding monitoring method

Publications (2)

Publication Number Publication Date
JP2007043318A true JP2007043318A (en) 2007-02-15
JP4677847B2 JP4677847B2 (en) 2011-04-27

Family

ID=37800915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005223119A Active JP4677847B2 (en) 2005-08-01 2005-08-01 Vehicle surrounding monitoring apparatus and vehicle surrounding monitoring method

Country Status (1)

Country Link
JP (1) JP4677847B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090122140A1 (en) * 2007-11-09 2009-05-14 Kosuke Imamura Method and apparatus for generating a bird's-eye view image
JP2012001126A (en) * 2010-06-18 2012-01-05 Clarion Co Ltd Vehicle surroundings monitoring device
JP2014129093A (en) * 2014-03-11 2014-07-10 Clarion Co Ltd Periphery monitoring device for vehicle
CN105100702A (en) * 2014-05-22 2015-11-25 F·波尔希名誉工学博士公司 Method for presenting a vehicle's environment, display apparatus, system, and computer program
CN107531182A (en) * 2015-08-27 2018-01-02 Jvc 建伍株式会社 Display apparatus and vehicle display methods
JP2018109875A (en) * 2017-01-04 2018-07-12 株式会社デンソーテン Image processing device and image processing method
KR102724228B1 (en) 2021-11-29 2024-10-31 (주)아이엠알 Platform speech and behavior visualization system and method for real-time control of vision sensor and lidar sensor of autonomous vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2004021307A (en) * 2002-06-12 2004-01-22 Matsushita Electric Ind Co Ltd Driving support device
JP2004240480A (en) * 2003-02-03 2004-08-26 Matsushita Electric Ind Co Ltd Operation support device
JP2004336613A (en) * 2003-05-12 2004-11-25 Denso Corp Vehicle surroundings display device and vehicle surroundings display program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2004021307A (en) * 2002-06-12 2004-01-22 Matsushita Electric Ind Co Ltd Driving support device
JP2004240480A (en) * 2003-02-03 2004-08-26 Matsushita Electric Ind Co Ltd Operation support device
JP2004336613A (en) * 2003-05-12 2004-11-25 Denso Corp Vehicle surroundings display device and vehicle surroundings display program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090122140A1 (en) * 2007-11-09 2009-05-14 Kosuke Imamura Method and apparatus for generating a bird's-eye view image
US8854463B2 (en) * 2007-11-09 2014-10-07 Alpine Electronics, Inc. Method and apparatus for generating a bird's-eye view image
JP2012001126A (en) * 2010-06-18 2012-01-05 Clarion Co Ltd Vehicle surroundings monitoring device
JP2014129093A (en) * 2014-03-11 2014-07-10 Clarion Co Ltd Periphery monitoring device for vehicle
CN105100702A (en) * 2014-05-22 2015-11-25 F·波尔希名誉工学博士公司 Method for presenting a vehicle's environment, display apparatus, system, and computer program
US20150341597A1 (en) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method for presenting a vehicle's environment on a display apparatus; a display apparatus; a system comprising a plurality of image capturing units and a display apparatus; a computer program
CN105100702B (en) * 2014-05-22 2019-12-20 F·波尔希名誉工学博士公司 Method, display device, system and computer program for presenting vehicle environment
CN107531182A (en) * 2015-08-27 2018-01-02 Jvc 建伍株式会社 Display apparatus and vehicle display methods
CN107531182B (en) * 2015-08-27 2023-10-27 Jvc 建伍株式会社 Display device for vehicle and display method for vehicle
JP2018109875A (en) * 2017-01-04 2018-07-12 株式会社デンソーテン Image processing device and image processing method
KR102724228B1 (en) 2021-11-29 2024-10-31 (주)아이엠알 Platform speech and behavior visualization system and method for real-time control of vision sensor and lidar sensor of autonomous vehicle

Also Published As

Publication number Publication date
JP4677847B2 (en) 2011-04-27

Similar Documents

Publication Publication Date Title
JP5479956B2 (en) Ambient monitoring device for vehicles
US8184160B2 (en) Image processor, driving assistance system, and out-of-position detecting method
US8330816B2 (en) Image processing device
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
JP5959264B2 (en) Image processing apparatus and method, and computer program
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
US20100066516A1 (en) Image displaying in-vehicle system, image displaying control in-vehicle apparatus and computer readable medium comprising program for the same
JP4715718B2 (en) Vehicle display device
JPWO2007015446A1 (en) Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
JP2008227646A (en) Obstacle detector
JP4677847B2 (en) Vehicle surrounding monitoring apparatus and vehicle surrounding monitoring method
EP2414776B1 (en) Vehicle handling assistant apparatus
JP2010016805A (en) Image processing apparatus, driving support system, and image processing method
CN108268833A (en) Image processing equipment and image processing method
JP2008517292A (en) Line-of-sight measurement equipment
JP2019188855A (en) Visual confirmation device for vehicle
JP2009188635A (en) Vehicle peripheral image processor and vehicle peripheral condition presenting method
JP2006254318A (en) Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method
JP5374549B2 (en) Vehicle periphery monitoring device
JP2012065225A (en) In-vehicle image processing apparatus, periphery monitoring apparatus, and vehicle
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP5235843B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP2011191859A (en) Apparatus for monitoring surroundings of vehicle
JP5310616B2 (en) Vehicle periphery display device
JP2006276964A (en) Display device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110117

R150 Certificate of patent or registration of utility model

Ref document number: 4677847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3