JP4752284B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP4752284B2
JP4752284B2 JP2005048738A JP2005048738A JP4752284B2 JP 4752284 B2 JP4752284 B2 JP 4752284B2 JP 2005048738 A JP2005048738 A JP 2005048738A JP 2005048738 A JP2005048738 A JP 2005048738A JP 4752284 B2 JP4752284 B2 JP 4752284B2
Authority
JP
Japan
Prior art keywords
image
vehicle
camera
imaging
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005048738A
Other languages
Japanese (ja)
Other versions
JP2006237969A (en
Inventor
一矢 渡邊
秀幸 相京
敬彦 吉永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2005048738A priority Critical patent/JP4752284B2/en
Priority to EP06110292.7A priority patent/EP1696669B1/en
Priority to US11/359,602 priority patent/US20060192660A1/en
Publication of JP2006237969A publication Critical patent/JP2006237969A/en
Priority to US13/071,036 priority patent/US8872919B2/en
Application granted granted Critical
Publication of JP4752284B2 publication Critical patent/JP4752284B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両周辺監視装置に関するものである。   The present invention relates to a vehicle periphery monitoring device.

背景技術として、特許文献1には以下のような駐車支援装置が存在する。
特許文献1の駐車支援装置は、図8に示すように、車両の四隅にCCDカメラ(C1、C2、C3、C4)を取り付けている。そして、図8に示すような各CCDカメラ(C1、C2、C3、C4)の撮像画像(P1、P2、P3、P4)を、利用者の正面のインストゥルメントパネル近辺に設置されているナビゲーション装置のディスプレーにそのまま並べて表示している。これにより、利用者の死角となる車両周辺の情報を撮像装置で取込み、取込み画像を車室内モニターで表示して利用者の視界を補完しようとしている。
As a background art, Patent Document 1 includes the following parking assistance device.
As shown in FIG. 8, the parking assist device of Patent Document 1 has CCD cameras (C1, C2, C3, C4) attached to the four corners of the vehicle. Then, the navigation images installed in the vicinity of the instrument panel in front of the user are captured images (P1, P2, P3, P4) of the CCD cameras (C1, C2, C3, C4) as shown in FIG. They are displayed side by side on the display of the device. As a result, information about the periphery of the vehicle, which is a blind spot of the user, is captured by the imaging device, and the captured image is displayed on the vehicle interior monitor to supplement the user's field of view.

また、特許文献2には以下のような車両周辺の監視システムが存在する。ここで、図9は車両におけるカメラCの配置の様子を示す概要図であり、図10は表示装置(不図示)における表示の概要を示す図である。特許文献2の車両周辺の監視システムは、図9に示すように、車両の前後左右の所定の位置に複数のカメラCを取り付けている。そして、それぞれのカメラCの撮像領域を1点鎖線で示している。また、表示装置(不図示)において、この複数のカメラCの撮像画像は図10に示すように配置され表示される。   In Patent Document 2, there is a vehicle surrounding monitoring system as described below. Here, FIG. 9 is a schematic diagram showing a state of arrangement of the camera C in the vehicle, and FIG. 10 is a schematic diagram showing a display on a display device (not shown). As shown in FIG. 9, the vehicle periphery monitoring system of Patent Document 2 has a plurality of cameras C attached at predetermined positions on the front, rear, left and right sides of the vehicle. And the imaging area | region of each camera C is shown with the dashed-dotted line. Further, in a display device (not shown), the captured images of the plurality of cameras C are arranged and displayed as shown in FIG.

さらに、特許文献3には以下のような車両周辺の監視システムが存在する。ここで、図11は仮想視点KSとカメラCとの関係を示す図である。特許文献3の車両周辺の監視システムは、図11に示すように、車両の所定の位置に複数のカメラCを取り付けている。そして、車両の上方に仮想視点KSを設定して生成した合成画像をもとに車両周辺の監視を行うこととしている。
特開2000−168475号公報(第0025段落、第4図) 特開2002−019556号公報(第0020−0032段落、第4図、第7図) 特許第3300334号公報(第0035−0037段落、第4図)
Further, Patent Document 3 has the following vehicle periphery monitoring system. Here, FIG. 11 is a diagram illustrating a relationship between the virtual viewpoint KS and the camera C. As shown in FIG. 11, the vehicle periphery monitoring system of Patent Document 3 has a plurality of cameras C attached to predetermined positions of the vehicle. The vehicle periphery is monitored based on a composite image generated by setting a virtual viewpoint KS above the vehicle.
JP 2000-168475 (paragraph 0025, FIG. 4) JP 2002-019556 A (paragraphs 0020-0032, FIGS. 4 and 7) Japanese Patent No. 3300334 (paragraphs 0035-0037, FIG. 4)

しかし、特許文献1における駐車支援装置では、各カメラ(C1、C2、C3、C4)の撮像範囲が重複しない場合には、物体をシームレスに表示することができない。   However, in the parking assistance apparatus in Patent Document 1, when the imaging ranges of the cameras (C1, C2, C3, and C4) do not overlap, objects cannot be displayed seamlessly.

また、特許文献2における監視システムのように、撮像範囲が重複する複数個のカメラの当該重複範囲(図9の斜線部分)の画像を個別に表示すると、例えば、図10に示すように、前部のカメラ画像と横部のカメラ画像を同一のモニタ装置に表示した場合、撮像範囲の重複する範囲の物体が各カメラ画像として表示される。そのため、監視システムの利用者は物体が2つ存在すると認識したり、車両と物体までの位置関係の把握が困難となるため、利用者にとって判りにくい画像となってしまう。   Further, when images of the overlapping ranges (shaded portions in FIG. 9) of a plurality of cameras with overlapping imaging ranges are individually displayed as in the monitoring system in Patent Document 2, for example, as shown in FIG. When the camera image of a part and the camera image of a horizontal part are displayed on the same monitor apparatus, the object of the range which an imaging range overlaps is displayed as each camera image. This makes it difficult for the user of the monitoring system to recognize that there are two objects or to grasp the positional relationship between the vehicle and the object, and thus makes the image difficult for the user to understand.

さらに、特許文献3における監視システムでは、複数のカメラCの撮像画像を入力し、カメラCの画像から車両を見下ろす位置を仮想視点KSとし視点変換している。この場合、視点変換の基準を路面に合わせると、立体物を撮像するカメラの撮影方向が変わるので、立体物の消失や重複が発生してしまうと共に、立体物は各カメラ毎に撮像される面が異なるため、きれいにつながらなくなってしまう。   Furthermore, in the monitoring system in Patent Document 3, captured images of a plurality of cameras C are input, and a viewpoint at which the vehicle is looked down from the images of the cameras C is converted to a virtual viewpoint KS. In this case, when the viewpoint conversion reference is matched to the road surface, the shooting direction of the camera that captures the three-dimensional object changes, so the disappearance or duplication of the three-dimensional object occurs, and the three-dimensional object is imaged for each camera. Because it is different, it will not be connected neatly.

本発明は以上のような課題を解決するためになされたものであり、撮像範囲の重複する範囲の物体をシームレスに鮮明に表示し、撮像範囲の重複する範囲の物体の数を正確に認識ができ、車両と物体までの位置関係の把握が容易となり、車両の死角にある物体の存在とその位置関係を正確にかつ容易に把握することができる車両周辺監視装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and objects in the overlapping range of the imaging range are displayed seamlessly and clearly, and the number of objects in the overlapping range of the imaging range can be accurately recognized. An object of the present invention is to provide a vehicle periphery monitoring device that can easily grasp the positional relationship between a vehicle and an object, and can accurately and easily grasp the presence of the object in the blind spot of the vehicle and its positional relationship. .

前記目的を達成するために、本発明は以下のような特徴を有する。
(1)本発明は、車両の側方に配置されて第1画像を撮像する第1撮像手段と、
前記第1撮像手段よりも前方、かつ前記第1撮像手段の撮像範囲に含まれて配置されて第2画像を撮像する第2撮像手段と、前記第1画像および前記第2画像を表示する表示手段とを備え、該表示手段により車両の周辺を監視する車両周辺監視装置において、前記表示手段に前記第1画像と前記第2画像を合成して表示を行う際の前記第1画像と前記第2画像との境界位置を、前記第1撮像手段が配置される位置と前記第2撮像手段が配置される位置とを結ぶ直線上とし、前記第1画像の使用範囲と前記第2画像の使用範囲とを前記境界線を挟んで並べて表示する画像処理手段を備えることを特徴とする。
In order to achieve the above object, the present invention has the following features.
(1) The present invention provides a first imaging means that is arranged on the side of a vehicle and captures a first image;
A second imaging unit that is disposed in front of the first imaging unit and included in the imaging range of the first imaging unit and that captures the second image, and a display that displays the first image and the second image Means for monitoring the periphery of the vehicle with the display means, and the first image and the second image when the first image and the second image are combined and displayed on the display means. The boundary position between two images is on a straight line connecting the position where the first image pickup means is arranged and the position where the second image pickup means is arranged, and the use range of the first image and the second image Image processing means for displaying the usage range side by side across the boundary line is provided.

(2)本発明は、車両の側方に配置されて第1画像を撮像する第1撮像手段と、前記第1撮像手段よりも前方、かつ前記第1撮像手段の撮像範囲に含まれて配置されて第2画像を撮像する第2撮像手段と、前記第1画像および前記第2画像を表示する表示手段とを備え、該表示手段により車両の周辺を監視する車両周辺監視装置において、前記表示手段に前記第1画像と前記第2画像を合成して表示を行う際の前記第1画像と前記第2画像との境界位置を、前記第1撮像手段が配置される位置と前記第2撮像手段が配置される位置とを結ぶ直線上とし、前記第1画像のうち前記境界線から車両外側の画像と前記第2画像のうち前記境界線から車両内側の画像とを前記境界線を挟んで並べて表示する画像処理手段を備えることを特徴とする。 (2) The present invention is arranged on the side of the vehicle to capture the first image , and to be disposed in front of the first imaging unit and included in the imaging range of the first imaging unit. In the vehicle periphery monitoring apparatus, comprising: a second imaging unit that captures the second image; and a display unit that displays the first image and the second image, wherein the display unit monitors the periphery of the vehicle. A boundary position between the first image and the second image when the first image and the second image are combined and displayed on a means, a position where the first imaging means is arranged, and the second imaging A straight line connecting the position where the means is disposed, and the boundary line between the image outside the vehicle from the boundary line in the first image and the image inside the vehicle from the boundary line in the second image And image processing means for displaying the images side by side .

)本発明は、(1)又は(2)に記載の車両周辺監視装置において、第1撮像手段と第2撮像手段とは車両に対して同じ側にあることを特徴とする。 ( 3 ) The present invention is characterized in that, in the vehicle periphery monitoring device according to (1) or (2) , the first imaging means and the second imaging means are on the same side with respect to the vehicle.

このような特徴を有する本発明は、以下のような作用・効果が得られる。
(1)本発明は、車両の側方に配置されて第1画像を撮像する第1撮像手段と、
前記第1撮像手段よりも前方、かつ前記第1撮像手段の撮像範囲に含まれて配置されて第2画像を撮像する第2撮像手段と、前記第1画像および前記第2画像を表示する表示手段とを備え、該表示手段により車両の周辺を監視する車両周辺監視装置において、前記表示手段に前記第1画像と前記第2画像を合成して表示を行う際の前記第1画像と前記第2画像との境界位置を、前記第1撮像手段が配置される位置と前記第2撮像手段が配置される位置とを結ぶ直線上とし、前記第1画像の使用範囲と前記第2画像の使用範囲とを前記境界線を挟んで並べて表示する画像処理手段を備える
また、(2)本発明は、車両の側方に配置されて第1画像を撮像する第1撮像手段と、前記第1撮像手段よりも前方、かつ前記第1撮像手段の撮像範囲に含まれて配置されて第2画像を撮像する第2撮像手段と、前記第1画像および前記第2画像を表示する表示手段とを備え、該表示手段により車両の周辺を監視する車両周辺監視装置において、前記表示手段に前記第1画像と前記第2画像を合成して表示を行う際の前記第1画像と前記第2画像との境界位置を、前記第1撮像手段が配置される位置と前記第2撮像手段が配置される位置とを結ぶ直線上とし、前記第1画像のうち前記境界線から車両外側の画像と前記第2画像のうち前記境界線から車両内側の画像とを前記境界線を挟んで並べて表示する画像処理手段を備える。
したがって、(1)および(2)の各発明は、撮像範囲の重複する範囲は第1撮像手段と第2撮像手段より取り込まれる画像のうちいずれか一方のみの画像を使用することになることから境界線上に存在する物体をシームレスに鮮明に表示することができ、また、境界線上に存在する物体の数が画像上に正確に表示されることからその物体の数を正確に認識でき、さらに、第1撮像手段より取り込まれる画像と第2撮像手段より取り込まれる画像とが繋がり車両と物体までの位置関係が画像上において正確に表示されることから利用者は車両と物体までの位置関係を正確にかつ容易に把握することができる効果が得られる。
The present invention having such characteristics can provide the following operations and effects.
(1) The present invention provides a first imaging means that is arranged on the side of a vehicle and captures a first image;
A second imaging unit that is disposed in front of the first imaging unit and included in the imaging range of the first imaging unit and that captures the second image, and a display that displays the first image and the second image Means for monitoring the periphery of the vehicle with the display means, and the first image and the second image when the first image and the second image are combined and displayed on the display means. The boundary position between two images is on a straight line connecting the position where the first image pickup means is arranged and the position where the second image pickup means is arranged, and the use range of the first image and the second image Image processing means for displaying the usage range side by side across the boundary line is provided .
(2) The present invention is included in an imaging range of the first imaging unit that is disposed on the side of the vehicle and that captures the first image, forward of the first imaging unit, and the first imaging unit. In a vehicle periphery monitoring apparatus that includes a second imaging unit that is arranged in a manner to capture a second image, and a display unit that displays the first image and the second image, and monitors the periphery of the vehicle by the display unit. A boundary position between the first image and the second image when the first image and the second image are combined and displayed on the display means is defined as a position where the first imaging means is disposed and the first position. 2 on the straight line connecting the position where the image pickup means is arranged, and the boundary line is defined as an image outside the vehicle from the boundary line in the first image and an image inside the vehicle from the boundary line in the second image. Image processing means for arranging and displaying in a sandwiched manner is provided.
Therefore, in the inventions of (1) and (2), the overlapping range of the imaging range uses only one of the images captured from the first imaging unit and the second imaging unit. Objects that exist on the boundary line can be displayed seamlessly and clearly, and since the number of objects that exist on the boundary line is accurately displayed on the image, the number of objects can be accurately recognized, Since the image captured from the first imaging means and the image captured from the second imaging means are connected and the positional relationship between the vehicle and the object is accurately displayed on the image, the user can accurately determine the positional relationship between the vehicle and the object. The effect which can be grasped easily and easily is acquired.

)本発明は、(1)又は(2)に記載の車両周辺監視装置において、第1撮像手段と第2撮像手段とは車両に対して同じ側にあるので、(1)、(2)に記載する効果に加えて、利用者の死角となる領域に存在する物体を画像上において鮮明に表示することにより利用者は死角となる領域に存在する物体の存在とその位置関係を正確かつ容易に把握にすることができる効果が得られる。 (3) The present invention includes the automotive environment monitoring device according to (1) or (2), since the first imaging means and second imaging means on the same side with respect to the vehicle, (1), (2 In addition to the effects described in (1 ) , by clearly displaying on the image the object existing in the area that is the blind spot of the user, the user can accurately determine the presence of the object existing in the area that is the blind spot and its positional relationship. An effect that can be easily grasped is obtained.

以下、本発明の実施例について説明する。   Examples of the present invention will be described below.

まず、実施例1について説明するにあたって、本発明の車両周辺監視装置の構成と処理の流れについて図3をもとに説明する。図3に示すように、本発明の車両周辺監視装置は、撮像装置1、撮像装置2、切替処理手段3、画像入力手段4、キャプチャバッファ5、キャプチャバッファ6、座標変換処理手段7、座標変換テーブル8、表示バッファ9、描画処理手段11、表示装置12などから構成されている。図3にも示すように、切替処理手段3、画像入力手段4、キャプチャバッファ5、キャプチャバッファ6、座標変換処理手段7、座標変換テーブル8、表示バッファ9、描画処理手段11により構成される部分が画像処理装置に該当する。   First, in describing the first embodiment, the configuration and processing flow of the vehicle periphery monitoring device of the present invention will be described with reference to FIG. As shown in FIG. 3, the vehicle periphery monitoring device of the present invention includes an imaging device 1, an imaging device 2, a switching processing unit 3, an image input unit 4, a capture buffer 5, a capture buffer 6, a coordinate conversion processing unit 7, and a coordinate conversion. It comprises a table 8, a display buffer 9, a drawing processing means 11, a display device 12, and the like. As shown in FIG. 3, a part composed of a switching processing unit 3, an image input unit 4, a capture buffer 5, a capture buffer 6, a coordinate conversion processing unit 7, a coordinate conversion table 8, a display buffer 9, and a drawing processing unit 11. Corresponds to an image processing apparatus.

そして、これらの構成による処理の流れとしては、以下のとおりである。まず、切替処理手段3にて、撮像装置1および撮像装置2にて撮像する画像を所定の時間毎に切替ながら、画像データとしてキャプチャバッファ5およびキャプチャバッファ6に入力する。そして、予め作成しておいた座標変換テーブル8の情報に従い、キャプチャバッファ5およびキャプチャバッファ6の画像データをもとに座標変換処理手段7において合成画像を作成する。なお、座標変換テーブル8には、合成画像において境界線を規定するために、撮像装置1における撮像画像の使用範囲と撮像装置2における撮像画像の使用範囲の情報が作成されている。作成した合成画像は表示バッファ9に入力され、描画処理手段11にて描画の処理(車両の軌跡などを画像上に加える処理など)を行った後に表示装置12に出力される。なお、図3の矢印が処理の流れを示している。   And the flow of the process by these structures is as follows. First, the switching processing means 3 inputs the image captured by the imaging device 1 and the imaging device 2 to the capture buffer 5 and the capture buffer 6 as image data while switching the image every predetermined time. Then, in accordance with the information in the coordinate conversion table 8 prepared in advance, a composite image is generated in the coordinate conversion processing means 7 based on the image data in the capture buffer 5 and the capture buffer 6. In the coordinate conversion table 8, information on the use range of the picked-up image in the image pickup apparatus 1 and the use range of the pick-up image in the image pickup apparatus 2 is created in order to define the boundary line in the composite image. The created composite image is input to the display buffer 9 and is output to the display device 12 after the drawing processing unit 11 performs drawing processing (processing such as adding a vehicle trajectory on the image). In addition, the arrow of FIG. 3 has shown the flow of processing.

そこで、具体的に実施例1の説明をする。実施例1の車両周辺監視装置1は、図1に示すように左側のドアミラーの位置に撮像装置1としてカメラC1を、車両前方のフロントフェンダーの左側の位置もしくはバンパーの左側の位置に撮像装置2としてカメラC2を設置している。さらに詳細には、カメラC1はドアミラー下部にて前方斜め下向き、カメラC2はフロントフェンダー先端部にて前方斜め下向きに設置している。そして、カメラC1にて撮像した画像は第1画像として、また、カメラC2にて撮像した画像は第2画像として、前記した画像処理装置における画像処理を行なった結果、車内に設置されるモニター(不図示)に表示される。利用者はこのモニター画像を見ることで車両の周辺の情報について確認することができる。   Therefore, the first embodiment will be specifically described. As shown in FIG. 1, the vehicle periphery monitoring apparatus 1 according to the first embodiment includes a camera C1 as the imaging device 1 at the position of the left door mirror, and the imaging device 2 at the left position of the front fender in front of the vehicle or the left position of the bumper. The camera C2 is installed. More specifically, the camera C1 is installed diagonally forward and downward at the lower part of the door mirror, and the camera C2 is installed diagonally forward and downward at the front fender tip. An image captured by the camera C1 is used as a first image, and an image captured by the camera C2 is processed as a second image. As a result of performing image processing in the image processing apparatus described above, a monitor ( (Not shown). The user can confirm the information around the vehicle by looking at the monitor image.

ここで、カメラの撮像視野を考えた場合には、図1のハッチングで表したように、カメラC1とカメラC2には撮像範囲の重複する部分が存在している。この重複範囲の撮像画像を盛り込んだままカメラC1とカメラC2の撮像画像をモニターに並べて表示すると、撮像範囲の重複する範囲の物体が各カメラ画像として並列して表示されてしまう。そのため、前記した背景技術でも説明したように、利用者は物体が2つ存在すると誤認したり、車両と物体までの位置関係の把握が難しくなるため、利用者にとって判りにくい画像となってしまう。そこで、本発明では、カメラC1の撮像画像の使用範囲とカメラC2の撮像画像の使用範囲との間に境界線を定義し、境界線を挟んでカメラC1の撮像画像の使用範囲とカメラC2の撮像画像の使用範囲の住み分けを図りつつモニターに表示することにする。このように境界線を定義することにより、撮像範囲の重複する範囲の物体が各カメラ画像として並列して表示されることはなくなり、利用者は物体の数を正確に認識でき、車両と物体までの正確な位置関係の把握が容易になる。   Here, when the imaging field of view of the camera is considered, as indicated by the hatching in FIG. 1, the camera C1 and the camera C2 have portions where the imaging ranges overlap. If the captured images of the camera C1 and the camera C2 are displayed side by side on the monitor while the captured images in the overlapping range are included, objects in the overlapping range of the imaging range are displayed in parallel as the camera images. For this reason, as described in the background art described above, the user misidentifies that there are two objects, and it becomes difficult to grasp the positional relationship between the vehicle and the object. Therefore, in the present invention, a boundary line is defined between the usage range of the captured image of the camera C1 and the usage range of the captured image of the camera C2, and the usage range of the captured image of the camera C1 and the usage range of the camera C2 are sandwiched between the boundary lines. The range of use of the captured image will be displayed on the monitor while segregating. By defining the boundary line in this way, objects in the overlapping range of the imaging range are not displayed in parallel as each camera image, and the user can accurately recognize the number of objects, It becomes easy to grasp the exact positional relationship.

但し、この境界線の位置の定義の仕方によっては以下のような問題が生じる。一般的に、同じ物体であってもカメラの撮像方向が異なる場合には、撮像する面が異なり、別の物体を撮像したような画像として表示されることになる。そこで例えば、無作為に境界線を定義したときには、図4に示すようにカメラC1と境界線上に存在する物体(図4では子供)を結ぶ線と車両の車幅方向の中心線(車両の主軸)との角度θ1と、カメラC2と境界線上に存在する物体を結ぶ線と車両の車幅方向の中心線(車両の主軸)との角度θ2とが通常、異なってしまう。そのため、カメラC1が物体を撮像する方向とカメラC2が物体を撮像する方向とが異なってしまう。従って、カメラC1とカメラC2の撮像画像をモニターに並べて表示すると物体の形状が全く繋がらなくなり、物体が何であるのかを全く認識できないおそれがある。   However, the following problems occur depending on the definition of the position of the boundary line. In general, when the imaging direction of the camera is different even for the same object, the imaging surface is different and the image is displayed as if another object was captured. Therefore, for example, when the boundary line is randomly defined, as shown in FIG. 4, a line connecting the camera C1 and an object (a child in FIG. 4) existing on the boundary line and the center line in the vehicle width direction of the vehicle (the main axis of the vehicle ) And the angle θ2 between the line connecting the camera C2 and the object existing on the boundary line and the center line (vehicle main axis) in the vehicle width direction of the vehicle are usually different. For this reason, the direction in which the camera C1 captures an object is different from the direction in which the camera C2 captures an object. Therefore, when the captured images of the cameras C1 and C2 are displayed side by side on the monitor, the shapes of the objects are not connected at all, and there is a possibility that the object is not recognized at all.

そこで、本発明では、具体的な境界線の位置として、図2に示すように、カメラC1とカメラC2とが配置される位置を結ぶ直線上とするように画像の変換処理を行う。さらに詳細には、カメラC1とカメラC2の光軸の中心とカメラ先端部を結んだ直線とする。そして、実施例では、この境界線の左側をカメラC1の撮像画像の使用範囲A1とし、右側をカメラC2の撮像画像の使用範囲A2とする。なお、カメラC1の撮像画像の使用範囲にフェンダー部が入らないように、カメラC1とカメラC2の位置を決定する。   Therefore, in the present invention, as a specific boundary line position, image conversion processing is performed so as to be on a straight line connecting positions where the camera C1 and the camera C2 are arranged as shown in FIG. More specifically, it is a straight line connecting the centers of the optical axes of the cameras C1 and C2 and the tip of the camera. In the embodiment, the left side of the boundary line is the use range A1 of the captured image of the camera C1, and the right side is the use range A2 of the captured image of the camera C2. Note that the positions of the camera C1 and the camera C2 are determined so that the fender portion does not enter the use range of the captured image of the camera C1.

このように境界線を定義することによって、図5に示すようにカメラC1と境界線上に存在する物体(図5では子供)を結ぶ線と車両の車幅方向の中心線(車両の主軸)との角度θ1と、カメラC2と境界線上に存在する物体を結ぶ線と車両の車幅方向の中心線(車両の主軸)との角度θ2とが等しくなる。そのため、カメラC1が物体を撮像する角度とカメラC2が物体を撮像する角度とが等しくなり、カメラC1とカメラC2とからはそれぞれ物体を同じ方向から見た画像を得ることができる。そのため、カメラC1とカメラC2の撮像画像をモニターに並べて表示すると物体が繋がって表示されることになり、利用者は物体の形状などの情報をある程度正確に認識することができる。特に物体が図5に示すように子供(人間)であれば、その物体が子供(人間)であることは十分に認識ができる。そして、モニター表示からは車両と子供(人間)の正確な位置関係も容易に把握することができる。そのため、子供(人間)の飛び出しなどがあっても、咄嗟の判断によって交通事故を防止することができる。   By defining the boundary line in this way, as shown in FIG. 5, a line connecting the camera C1 and an object (child in FIG. 5) existing on the boundary line and a center line (vehicle main axis) in the vehicle width direction of the vehicle And the angle θ2 between the line connecting the camera C2 and the object existing on the boundary line and the center line (vehicle main axis) in the vehicle width direction of the vehicle are equal. For this reason, the angle at which the camera C1 captures an object is equal to the angle at which the camera C2 captures an object, and the camera C1 and the camera C2 can obtain images obtained by viewing the object from the same direction. Therefore, when the captured images of the cameras C1 and C2 are displayed side by side on the monitor, the objects are connected and displayed, and the user can recognize information such as the shape of the object to some extent accurately. In particular, if the object is a child (human) as shown in FIG. 5, it can be sufficiently recognized that the object is a child (human). From the monitor display, it is possible to easily grasp the exact positional relationship between the vehicle and the child (human). Therefore, even if a child (human) jumps out, a traffic accident can be prevented by judgment of a habit.

また、一般的に右ハンドル車の車両においては車両の左前方、特に車両前方のフロントフェンダーの左側の下部付近は利用者にとって死角となりやすい。そこで、本発明では左側のドアミラーの位置にカメラC1を、車両前方のフロントフェンダーの左側の位置にカメラC2を設置している。これにより、利用者の死角となる領域の画像についてもカメラC1とカメラC2より取り込んでモニターに表示することができるので、利用者は死角となる部分に人間が居ないか、あるいは車両を溝の横に寄せる場合にタイヤが溝にはまらないかなどをモニターにおいて正確かつ容易に確認することができる。   In general, in a right-hand drive vehicle, the left front of the vehicle, in particular, the vicinity of the lower portion of the left side of the front fender in front of the vehicle tends to be a blind spot for the user. Therefore, in the present invention, the camera C1 is installed at the position of the left door mirror, and the camera C2 is installed at the left position of the front fender in front of the vehicle. As a result, the image of the area that becomes the blind spot of the user can be captured from the camera C1 and the camera C2 and displayed on the monitor, so that the user does not have a person in the blind spot or the vehicle is placed in the groove. It can be confirmed accurately and easily on the monitor whether the tire does not fit into the groove when it is moved sideways.

以上のような実施例1により以下のような効果が得られる。
(1)本発明は、車両の側方に配置されて第1画像を撮像するカメラC1と、カメラC1よりも前方に配置されて第2画像を撮像するカメラC2と、第1画像および第2画像を表示する表示手段とを備え、該表示手段により車両の周辺を監視する車両周辺監視装置において、表示手段に第1画像と第2画像を合成して表示を行う際の第1画像と第2画像との境界位置を、カメラC1が配置される位置とカメラC2が配置される位置とを結ぶ直線上とする画像処理手段を備えるので、撮像範囲の重複する範囲はカメラC1とカメラC2より取り込まれる画像のうちいずれか一方のみの画像を使用することになることから境界線上に存在する物体をシームレスに鮮明に表示することができ、また、境界線上に存在する物体の数が画像上に正確に表示されることからその物体の数を正確に認識でき、さらに、カメラC1より取り込まれる画像とカメラC2より取り込まれる画像とが繋がり車両と物体までの位置関係が画像上において正確に表示されることから利用者は車両と物体までの位置関係を正確にかつ容易に把握することができる効果が得られる。
The following effects can be obtained by the first embodiment as described above.
(1) The present invention includes a camera C1 that is disposed on the side of the vehicle and captures the first image, a camera C2 that is disposed in front of the camera C1 and captures the second image, and the first and second images. In a vehicle periphery monitoring device that includes a display means for displaying an image and monitors the periphery of the vehicle with the display means, the first image and the second image when the first image and the second image are combined and displayed on the display means Since the image processing means is provided that sets the boundary position between the two images on a straight line connecting the position where the camera C1 is disposed and the position where the camera C2 is disposed, the overlapping range of the imaging ranges is determined by the cameras C1 and C2. Since only one of the captured images will be used, objects existing on the boundary line can be displayed seamlessly and clearly, and the number of objects existing on the boundary line can be displayed on the image. Exactly table Therefore, the number of the objects can be accurately recognized, and further, the image captured from the camera C1 and the image captured from the camera C2 are connected, and the positional relationship between the vehicle and the object is accurately displayed on the image. The user can obtain an effect of accurately and easily grasping the positional relationship between the vehicle and the object.

(2)本発明は、(1)に記載の車両周辺監視装置において、カメラC1とカメラC2とは車両に対して同じ側にあるので、(1)に記載する効果に加えて、利用者の死角となる領域に存在する物体を画像上において鮮明に表示することから利用者は死角となる領域に存在する物体の存在とその位置関係を正確かつ容易に把握にすることができる効果が得られる。 (2) In the vehicle periphery monitoring device according to (1), since the camera C1 and the camera C2 are on the same side with respect to the vehicle, in addition to the effect described in (1), Since the object existing in the blind spot area is clearly displayed on the image, the user can accurately and easily grasp the presence of the object existing in the blind spot area and its positional relationship. .

次に、実施例2について説明する。実施例2の車両周辺監視装置2は、装置の構成や配置は実施例1と同じである。しかし、座標変換処理手段7においてカメラC1の視点とカメラC2の視点を図2に示す仮想視点の位置に視点変換している。この仮想視点の位置は、車両の上面から見ると、図7に示すように、カメラC1とカメラC2とが配置される位置を結ぶ直線上であってカメラC1とカメラC2の間に設定している。また、車両の側面から見ると、図6に示すように、車高の範囲内に位置に配置される。   Next, Example 2 will be described. The vehicle periphery monitoring device 2 according to the second embodiment has the same configuration and arrangement as the first embodiment. However, the coordinate conversion processing means 7 converts the viewpoint of the camera C1 and the viewpoint of the camera C2 into the virtual viewpoint position shown in FIG. The position of this virtual viewpoint is set between the camera C1 and the camera C2 on the straight line connecting the positions where the camera C1 and the camera C2 are arranged as shown in FIG. Yes. Further, when viewed from the side of the vehicle, as shown in FIG. 6, the vehicle is disposed at a position within the vehicle height range.

このようにカメラC1とカメラC2の仮想視点の位置をカメラC1とカメラC2とが配置される位置を結ぶ直線上において、仮想視点という1つの視点から物体を撮像することになる。そのため、カメラC1とカメラC2より取り込まれる画像の合成画像上の物体をシームレスに表示することができる。また、その物体の数を正確に認識でき、さらに、利用者は車両と物体までの位置関係も正確にかつ容易に把握することができる。また、カメラC1とカメラC2の間に仮想視点の位置を設定するので、車両の近傍付近も撮像ができ、利用者は死角となる領域に存在する物体の存在とその位置関係を正確かつ容易に把握にすることができる効果が得られる。なお、これらの効果を確実に得るために、仮想視点の位置はカメラC1とカメラC2の間の中点付近であることが望ましい。   In this way, an object is imaged from one viewpoint called the virtual viewpoint on the straight line connecting the positions of the virtual viewpoints of the cameras C1 and C2 where the cameras C1 and C2 are arranged. Therefore, it is possible to seamlessly display objects on the composite image of images captured from the cameras C1 and C2. In addition, the number of objects can be accurately recognized, and the user can accurately and easily grasp the positional relationship between the vehicle and the object. Further, since the position of the virtual viewpoint is set between the camera C1 and the camera C2, the vicinity of the vehicle can be imaged, and the user can accurately and easily determine the presence of the object existing in the blind spot area and its positional relationship. The effect that can be grasped is obtained. In order to reliably obtain these effects, the position of the virtual viewpoint is preferably near the midpoint between the cameras C1 and C2.

以上のような実施例2により以下のような効果が得られる。
(1)本発明は、実施例1に記載の車両周辺監視装置において、直線上に仮想視点を設け、該仮想視点から見た画像を第1画像と第2画像に基づく視点変換により表示手段に表示するので、実施例1に記載する効果に加えて、仮想視点という1つの視点から物体を撮像することになることから合成画像上の物体をシームレスに表示することができ、その物体の数を正確に認識でき、利用者は車両と物体までの位置関係を正確にかつ容易に把握することができ、また、利用者の死角となる領域にも仮想視点からの撮像領域が及ぶことになることから利用者は死角となる領域に存在する物体の存在とその位置関係を正確かつ容易に把握にすることができる効果が得られる。
According to the second embodiment as described above, the following effects can be obtained.
(1) The present invention provides the vehicle periphery monitoring device according to the first embodiment, in which a virtual viewpoint is provided on a straight line, and an image viewed from the virtual viewpoint is displayed on the display unit by viewpoint conversion based on the first image and the second image. Since it is displayed, in addition to the effects described in the first embodiment, an object is imaged from one viewpoint called a virtual viewpoint, so that an object on the composite image can be displayed seamlessly, and the number of objects can be set as follows. It can be recognized accurately, and the user can accurately and easily grasp the positional relationship between the vehicle and the object, and the imaging area from the virtual viewpoint extends to the area that becomes the blind spot of the user. Therefore, the user can obtain an effect of accurately and easily grasping the existence and the positional relationship of the object existing in the blind spot area.

(2)本発明は、(1)に記載の車両周辺監視装置において、仮想視点は、カメラC1が配置される位置とカメラC2が配置される位置との中点であるので、特に利用者にとって車両の死角となりやすいカメラC1が配置される位置とカメラC2が配置される位置との中点付近の領域においても(1)に記載する効果をより確実に得ることができる。 (2) According to the present invention, in the vehicle periphery monitoring device described in (1), the virtual viewpoint is the midpoint between the position where the camera C1 is disposed and the position where the camera C2 is disposed. The effect described in (1) can be obtained more reliably even in a region near the midpoint between the position where the camera C1 is likely to become a blind spot of the vehicle and the position where the camera C2 is disposed.

尚、本発明は前記実施形態に限定されるものではなく、その趣旨を逸脱しない範囲で様
々な変更が可能である。
In addition, this invention is not limited to the said embodiment, A various change is possible in the range which does not deviate from the meaning.

カメラC1とカメラC2の撮像範囲の重複範囲を示す図である。It is a figure which shows the duplication range of the imaging range of the camera C1 and the camera C2. カメラC1とカメラC2の撮像範囲の使用範囲とその境界線を示す図である。It is a figure which shows the use range and its boundary line of the imaging range of the camera C1 and the camera C2. 本発明の車両周辺装置の構成と画像処理の流れを示す図である。It is a figure which shows the structure of the vehicle peripheral device of this invention, and the flow of an image process. 無作為に境界線を定義した場合のカメラの撮像方向を示す図である。It is a figure which shows the imaging direction of the camera at the time of defining a boundary line at random. 本発明におけるカメラの撮像方向を示す図である。It is a figure which shows the imaging direction of the camera in this invention. 車両の側面から見た場合の仮想視点の位置を示す図である。It is a figure which shows the position of the virtual viewpoint at the time of seeing from the side surface of a vehicle. 車両の上面から見た場合の仮想視点の位置を示す図である。It is a figure which shows the position of the virtual viewpoint at the time of seeing from the upper surface of a vehicle. 特許文献1の駐車支援装置の概要図である。It is a schematic diagram of the parking assistance device of patent documents 1. 特許文献2の車両周辺の監視システムの概要図である。It is a schematic diagram of the surveillance system of the circumference of vehicles of patent documents 2. 特許文献2の車両周辺の監視システムにおける表示内容を示す図である。It is a figure which shows the display content in the monitoring system of the vehicle periphery of patent document 2. FIG. 特許文献3の車両周辺の監視システムの概要図である。It is a schematic diagram of the vehicle periphery monitoring system of patent document 3.

符号の説明Explanation of symbols

1 撮像装置
2 撮像装置
3 切替処理手段
4 画像入力手段
5 キャプチャバッファ
6 キャプチャバッファ
7 座標変換処理手段
8 座標変換テーブル
9 表示バッファ
11 描画処理手段
12 表示装置
C1 カメラ
C2 カメラ
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging device 3 Switching processing means 4 Image input means 5 Capture buffer 6 Capture buffer 7 Coordinate conversion processing means 8 Coordinate conversion table 9 Display buffer 11 Drawing processing means 12 Display device C1 Camera C2 Camera

Claims (3)

車両の側方に配置されて第1画像を撮像する第1撮像手段と、
前記第1撮像手段よりも前方、かつ前記第1撮像手段の撮像範囲に含まれて配置されて第2画像を撮像する第2撮像手段と、
前記第1画像および前記第2画像を表示する表示手段とを備え、該表示手段により車両の周辺を監視する車両周辺監視装置において、
前記表示手段に前記第1画像と前記第2画像を合成して表示を行う際の前記第1画像と前記第2画像との境界位置を、前記第1撮像手段が配置される位置と前記第2撮像手段が配置される位置とを結ぶ直線上とし、前記第1画像の使用範囲と前記第2画像の使用範囲とを前記境界線を挟んで並べて表示する画像処理手段を備えることを特徴とする車両周辺監視装置。
First imaging means arranged on the side of the vehicle to capture the first image;
A second imaging unit that is disposed in front of the first imaging unit and included in an imaging range of the first imaging unit and that captures a second image;
A vehicle periphery monitoring device comprising: display means for displaying the first image and the second image, wherein the display means monitors the periphery of the vehicle;
A boundary position between the first image and the second image when the first image and the second image are combined and displayed on the display means is defined as a position where the first imaging means is disposed and the first position. The image processing means includes an image processing means for displaying the use range of the first image and the use range of the second image side by side with the boundary line on a straight line connecting the positions where the two image pickup means are arranged. A vehicle periphery monitoring device.
車両の側方に配置されて第1画像を撮像する第1撮像手段と、
前記第1撮像手段よりも前方、かつ前記第1撮像手段の撮像範囲に含まれて配置されて第2画像を撮像する第2撮像手段と、
前記第1画像および前記第2画像を表示する表示手段とを備え、該表示手段により車両の周辺を監視する車両周辺監視装置において、
前記表示手段に前記第1画像と前記第2画像を合成して表示を行う際の前記第1画像と前記第2画像との境界位置を、前記第1撮像手段が配置される位置と前記第2撮像手段が配置される位置とを結ぶ直線上とし、前記第1画像のうち前記境界線から車両外側の画像と前記第2画像のうち前記境界線から車両内側の画像とを前記境界線を挟んで並べて表示する画像処理手段を備えることを特徴とする車両周辺監視装置。
First imaging means arranged on the side of the vehicle to capture the first image;
A second imaging unit that is disposed in front of the first imaging unit and included in an imaging range of the first imaging unit and that captures a second image;
A vehicle periphery monitoring device comprising: display means for displaying the first image and the second image, wherein the display means monitors the periphery of the vehicle;
A boundary position between the first image and the second image when the first image and the second image are combined and displayed on the display means is defined as a position where the first imaging means is disposed and the first position. 2 on a straight line connecting the position where the image pickup unit is arranged, and the boundary line includes an image outside the vehicle from the boundary line in the first image and an image inside the vehicle from the boundary line in the second image. A vehicle periphery monitoring device comprising image processing means for displaying images side by side .
前記第1撮像手段と前記第2撮像手段とは車両に対して同じ側にあることを特徴とする請求項1又は2に記載の車両周辺監視装置。 The vehicle periphery monitoring device according to claim 1 or 2, characterized in that on the same side with respect to the vehicle from the first imaging unit and the second imaging means.
JP2005048738A 2005-02-24 2005-02-24 Vehicle periphery monitoring device Expired - Fee Related JP4752284B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005048738A JP4752284B2 (en) 2005-02-24 2005-02-24 Vehicle periphery monitoring device
EP06110292.7A EP1696669B1 (en) 2005-02-24 2006-02-22 Vehicle surrounding monitoring device
US11/359,602 US20060192660A1 (en) 2005-02-24 2006-02-23 Vehicle surrounding monitoring device
US13/071,036 US8872919B2 (en) 2005-02-24 2011-03-24 Vehicle surrounding monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005048738A JP4752284B2 (en) 2005-02-24 2005-02-24 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2006237969A JP2006237969A (en) 2006-09-07
JP4752284B2 true JP4752284B2 (en) 2011-08-17

Family

ID=37045148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005048738A Expired - Fee Related JP4752284B2 (en) 2005-02-24 2005-02-24 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4752284B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4748082B2 (en) 2007-02-23 2011-08-17 トヨタ自動車株式会社 Vehicle periphery monitoring device and vehicle periphery monitoring method
JP5961821B2 (en) * 2014-07-02 2016-08-02 パナソニックIpマネジメント株式会社 Driving assistance device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001245131A (en) * 2000-02-29 2001-09-07 Matsushita Electric Ind Co Ltd Image correcting method and image correcting device
JP3652678B2 (en) * 2001-10-15 2005-05-25 松下電器産業株式会社 Vehicle surrounding monitoring apparatus and adjustment method thereof

Also Published As

Publication number Publication date
JP2006237969A (en) 2006-09-07

Similar Documents

Publication Publication Date Title
CN106537904B (en) Vehicle with an environmental monitoring device and method for operating such a monitoring device
US11528413B2 (en) Image processing apparatus and image processing method to generate and display an image based on a vehicle movement
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
JP6232759B2 (en) Information processing apparatus, approaching object notification method, and program
KR101783069B1 (en) Method for displaying an image on a display device in a vehicle, driver assistance system and vehicle
JP5962927B2 (en) Overhead image generation apparatus, overhead image generation method, and overhead image generation program
JP4315968B2 (en) Image processing apparatus and visibility support apparatus and method
EP1916846A1 (en) Device and method for monitoring vehicle surroundings
JP2003061084A (en) Driving aid display device
JP6196444B2 (en) Peripheral vehicle position tracking apparatus and method
JP6699427B2 (en) Vehicle display device and vehicle display method
JP6730614B2 (en) Vehicle display control device, vehicle display system, vehicle display control method and program
US9162621B2 (en) Parking support apparatus
JP6902109B2 (en) Display devices, imaging display systems, and trains
WO2011125137A1 (en) Driving support display device
EP3547677B1 (en) Bird's eye view image generation device, bird's eye view image generation system, bird's eye view image generation method and program
JP2020068515A (en) Image processing apparatus
WO2013103115A1 (en) Image display device
JP2006238131A (en) Vehicle periphery monitoring apparatus
JP4752284B2 (en) Vehicle periphery monitoring device
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
JP2010003014A (en) Vehicle surroundings display apparatus and display method thereof
JP6724821B2 (en) Overhead video generation device, overhead video generation system, overhead video generation method and program
JP5943207B2 (en) Video display device for vehicle parking operation support
JP4956880B2 (en) Vehicle monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4752284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees