JP5546321B2 - In-vehicle display device using multiple camera images - Google Patents

In-vehicle display device using multiple camera images Download PDF

Info

Publication number
JP5546321B2
JP5546321B2 JP2010086603A JP2010086603A JP5546321B2 JP 5546321 B2 JP5546321 B2 JP 5546321B2 JP 2010086603 A JP2010086603 A JP 2010086603A JP 2010086603 A JP2010086603 A JP 2010086603A JP 5546321 B2 JP5546321 B2 JP 5546321B2
Authority
JP
Japan
Prior art keywords
camera
image
white line
photographing
improper
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010086603A
Other languages
Japanese (ja)
Other versions
JP2011223075A (en
Inventor
重之 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2010086603A priority Critical patent/JP5546321B2/en
Publication of JP2011223075A publication Critical patent/JP2011223075A/en
Application granted granted Critical
Publication of JP5546321B2 publication Critical patent/JP5546321B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車外を撮影する複数カメラの撮影画像を用いて、車両の上方に視点が存在する画像や、同じ画像データを用いて単独のカメラの撮影画像を表示し、その際に車両周囲の白線や障害物を検出し、これを強調して表示する複数カメラ画像使用車外表示装置に関し、特にカメラのレンズの一部に水滴が付着し、或いは汚れが生じた時のように、不適正画像が撮影された際、他のカメラの撮影画像によりこの部分の白線や障害物の表示を補間することができるようにした複数カメラ画像使用車外表示装置に関する。   The present invention uses images taken by a plurality of cameras that photograph the outside of the vehicle to display an image in which a viewpoint exists above the vehicle or a photographed image of a single camera using the same image data, Multi-camera image display device that detects white lines and obstacles and highlights them, especially when water droplets adhere to some of the camera lens or when it becomes dirty. The present invention relates to a multi-camera image using vehicle outside display device that can interpolate the display of white lines and obstacles in this part from images taken by other cameras.

車両を狭い車庫や駐車場に入れるとき、運転者は細心の注意を必要とし、時には細心の注意を払っても、周囲の物体と自車両をこする等の事故を発生することもある。また、車両を車庫や駐車場から出すときも、周囲の物体や人間には十分注意する必要がある。更に、車庫や駐車場の出入り以外にも、極めて狭い道路の走行時や狭い道路での対向車とのすれ違いにおける、周囲の物体との接触や、溝に車輪が落ちないようにする、等の車両の周囲に十分注意を要する場合が多い。   When putting a vehicle in a narrow garage or parking lot, the driver needs to be very careful, and even with extreme care, accidents such as rubbing surrounding objects with the vehicle may occur. Also, when taking a vehicle out of a garage or parking lot, it is necessary to pay close attention to surrounding objects and people. In addition to entering and exiting garages and parking lots, when driving on extremely narrow roads or passing oncoming vehicles on narrow roads, contact with surrounding objects, or prevent wheels from dropping into grooves, etc. There are many cases where sufficient attention is required around the vehicle.

その対策として、近年車両に広く搭載されるようになっている、車両の後方を撮影してモニタに表示し、車庫入れや駐車を容易にする後方撮影カメラ、車両の前方両側を撮影して車両が見通しの悪い狭い道路から出るときに、先方の道路を走行する車両等を確認する車両側方撮影カメラ等の、車外撮影カメラを利用し、車両周囲の状況を監視し、充分確認しながら運転することも行われている。   As a countermeasure, the rear camera that has been widely installed in vehicles in recent years, images the rear of the vehicle and displays it on the monitor, and makes it easy to put in the garage or park, When driving out of a narrow road with poor visibility, use a vehicle-side camera, such as a vehicle side-view camera, to check the vehicle traveling on the other road, monitor the surroundings of the vehicle, and drive with sufficient confirmation It has also been done.

しかしながら、このような車外撮影カメラとして超広角カメラを用いたとしても、例えば車両を後退させながら車庫入れ等を行うとき、車両後側方周囲に障害物があるときには、車両の後退とともに後方撮影カメラの視界外になり、その障害物の状態を知ることができなくなる。その対策として、車両の両側にも超広角カメラを設け、前記のような後方撮影カメラの視界外部分を側方撮影カメラによって見ることができるようにすることも考えられる。   However, even if an ultra-wide-angle camera is used as such an outside-camera camera, for example, when a garage is placed while the vehicle is retracted, and there are obstacles around the rear side of the vehicle, the rear-facing camera is used when the vehicle is retracted. You will not be able to know the state of the obstacle. As a countermeasure, it is also conceivable to provide super wide-angle cameras on both sides of the vehicle so that the portion outside the field of view of the rear-view camera can be seen by the side-view camera.

しかし上記のような超広角カメラの画像では、撮影画像の中心部と周辺部とでは物体の見え方が大きく異なり、単に撮影画像を見ているだけでは、その物体と車両との位置関係が明確ではなく、予期しない衝突や接触事故を生じることがある。特に後方撮影カメラでの画像から側方撮影カメラの画像に切り換えたとしても、そのときに画面に表示される障害物等の物体の画像形状と位置は大きく異なり、実際の物体の状態を把握することは容易ではない。   However, in the image of the ultra-wide-angle camera as described above, the appearance of the object is greatly different between the central part and the peripheral part of the photographed image, and the positional relationship between the object and the vehicle is clear just by looking at the photographed image. Instead, it may cause unexpected collisions and contact accidents. In particular, even when switching from an image taken from the rear camera to an image taken from the side camera, the image shape and position of objects such as obstacles displayed on the screen at that time are very different, and the actual state of the object is grasped. It is not easy.

そのため、車両に複数の車外撮影カメラを搭載し、それらのカメラで撮影した画像を合成し、あたかも車両の上方に設置したカメラから車両の周囲を撮影しているような画像を形成してモニタに表示することが既に実施されている。そのような複数のカメラを用いる際には例えば図5に示すように、車両31の左側を撮影する車両左側撮影カメラ32、車両31の右側を撮影する車両右側撮影カメラ33、車両31の後方を撮影する車両後方撮影カメラ34、車両31の前方を撮影する車両前方撮影カメラ35の合計4個のカメラを搭載して、これらのカメラの全ての画像を合成し、例えば図5(c)に略示するように、あたかも車両の真上に設けた1つのカメラにより車両31の全周囲を撮影しているような画像をモニタに表示する。この方式はトップビューシステムともいわれ、車両の外部を撮影するカメラは必要に応じて2個、3個と適宜選択され、また設置位置も種々の位置に選択して設置される。   Therefore, a plurality of outside-camera cameras are installed in the vehicle, and the images taken by these cameras are combined, and an image is created as if the surroundings of the vehicle were photographed from the camera installed above the vehicle. Display has already been implemented. When using such a plurality of cameras, for example, as shown in FIG. 5, a left side camera 32 for photographing the left side of the vehicle 31, a right side camera 33 for photographing the right side of the vehicle 31, and a rear side of the vehicle 31. A total of four cameras, a vehicle rear-view camera 34 that captures images and a vehicle front-view camera 35 that captures the front of the vehicle 31, are mounted, and all the images of these cameras are combined. For example, FIG. As shown, an image as if the entire periphery of the vehicle 31 was photographed by a single camera provided directly above the vehicle is displayed on the monitor. This method is also referred to as a top view system, and two or three cameras for photographing the outside of the vehicle are appropriately selected as necessary, and the installation positions are also selected and installed at various positions.

またこのシステムによると、例えば車両の後方を撮影するカメラにより、通常のリアカメラの画像としてモニタに表示することができ、更に複数のカメラの画像データを用いて、車両の前方を撮影するカメラの撮影画像と車両の両側方を撮影するカメラの画像により、車両の前方を車両の側方部分を含めて画像表示することもでき、同様に車両の後方についても車両側方部分を含めて画像表示する等々、種々の態様で画像を表示することができるため、マルチビューカメラシステムとも呼ばれることがある。このようなマルチビューカメラシステムにおいて、各カメラが撮影した画像の中から運転者が特に注意を要する画像として、車両の走行範囲を示す白線、及び車両が衝突し、或いは接触し、更には乗り上げる危険性のある障害物を検出する白線障害物検出手段を備え、各カメラの撮影画像中に白線や障害物を強調表示することも行われている。   Further, according to this system, for example, a camera that captures the rear of the vehicle can be displayed on a monitor as an image of a normal rear camera, and further, a camera that captures the front of the vehicle using image data of a plurality of cameras. It is possible to display the image of the front of the vehicle including the side part of the vehicle by the photographed image and the image of the camera that captures both sides of the vehicle. Similarly, the image is displayed including the side part of the vehicle behind the vehicle. For example, since an image can be displayed in various modes, it is sometimes called a multi-view camera system. In such a multi-view camera system, among the images taken by each camera, the white line indicating the traveling range of the vehicle and the danger that the vehicle will collide with or come into contact with the vehicle, and further climb A white line obstacle detecting means for detecting a characteristic obstacle is provided, and a white line or an obstacle is highlighted in a captured image of each camera.

前記図5に示すトップビューシステムにおいては、車両を駐車スペースに入れようとして後退している時の状態を示しており、車両の両側に駐車スペースの目安となる白線36と37が存在し、且つその後方外側に障害物としてのポール38が存在し、また車止め39、40を備えている例を示している。即ち、車両の運転者にとって前方は常に広範囲に見やすく、周囲が暗くなっても前照灯の点灯により極めて明るい状態で見ることができるように設計されているのに対して、車両の後方は極めて目視範囲が狭く、車両後方撮影カメラを用いたとしても、周囲が暗い時には前照灯のような照明を点灯することは禁止されており、赤外線カメラを用いても白線や障害物を識別することは極めて困難である。したがって図5には、車両の安全運転が特に困難な、車両が後退する時の状態を例示している。但し、例えば車両前方撮影カメラ等においても、同様の問題を生じることもある。   The top view system shown in FIG. 5 shows a state when the vehicle is moving backward to enter the parking space, and there are white lines 36 and 37 serving as an indication of the parking space on both sides of the vehicle, and An example is shown in which a pole 38 as an obstacle exists on the outer side of the rear side, and car stops 39 and 40 are provided. In other words, the front of the vehicle is always easy to see in a wide range, and even if the surroundings are dark, it is designed so that it can be seen in a very bright state by turning on the headlamp, whereas the rear of the vehicle is extremely Even if you use a rear-view camera with a narrow viewing range, lighting such as headlights is prohibited when the surroundings are dark, and white lines and obstacles can be identified using an infrared camera. Is extremely difficult. Therefore, FIG. 5 illustrates a state when the vehicle moves backward, in which safe driving of the vehicle is particularly difficult. However, for example, the same problem may occur also in a vehicle front photographing camera or the like.

このような状態で各カメラは超広角の魚眼レンズで撮影しており、したがって各カメラの撮影範囲を示す同図(c)のように、車両後方撮影カメラ34と車両左側撮影カメラ32とは同図左下隅に示すように、重複撮影範囲42が存在する。同様に車両後方撮影カメラ34と車両右側撮影カメラ33とは、同図右下隅に示すように、重複撮影範囲43が生じる。更に車両右側撮影カメラ33と車両前方撮影カメラ35の撮影画像とは、図中右上隅に示すように重複撮影範囲44が存在し、車両前方撮影カメラ35と車両左側撮影カメラ32とは、同図左上隅に示すように重複撮範囲45が存在し、合計4個の重複撮影範囲が存在する。   In this state, each camera shoots with a super-wide-angle fisheye lens. Therefore, as shown in FIG. 5C showing the shooting range of each camera, the vehicle rear-side shooting camera 34 and the vehicle left-side shooting camera 32 are the same. As shown in the lower left corner, there is an overlapping shooting range 42. Similarly, as shown in the lower right corner of the figure, an overlapping shooting range 43 is generated between the vehicle rearward shooting camera 34 and the vehicle rightward shooting camera 33. Further, as shown in the upper right corner of the figure, there is an overlapping shooting range 44 in the images taken by the vehicle right side camera 33 and the vehicle front side camera 35. The vehicle front side camera 35 and the vehicle left side camera 32 are shown in FIG. As shown in the upper left corner, there is an overlapping shooting range 45, and there are a total of four overlapping shooting ranges.

図5(c)に示すような各カメラの撮影範囲について、この画像の境界線を適宜の範囲に設定することができる。その際には、例えば同図(d)に示すように車両左側撮影カメラ32と車両後方撮影カメラ34の撮影画像を左下隅表示用境界線46のように設定して分割する。同様に、車両後方撮影カメラ34と車両右側撮影カメラ33の撮影画像は、右下隅表示境界線47で設定して分割し、車両右側撮影カメラ33と車両前方撮影カメラ35とはその画像範囲を右上隅表示境界線48で設定して分割し、同様に車両前方撮影カメラ35と車両左側撮影カメラ32の撮影画像範囲を、画像左上隅表示境界線49で設定して分割して、それぞれの範囲のカメラで表示している。   With respect to the photographing range of each camera as shown in FIG. 5C, the boundary line of this image can be set to an appropriate range. At that time, for example, as shown in FIG. 4D, the images taken by the left side camera 32 and the rear camera 34 are set and divided as indicated by the lower left corner display boundary line 46. Similarly, the captured images of the rear camera 34 and the right camera 33 are set and divided at the lower right corner display boundary line 47, and the right camera 33 and the front camera 35 have their image ranges at the upper right. A corner display boundary line 48 is set and divided, and similarly, a captured image range of the vehicle front shooting camera 35 and the vehicle left side shooting camera 32 is set and divided at an image upper left corner display boundary line 49, It is displayed on the camera.

したがって通常作動時には例えば図5(d)に示すように、車両の周囲についてそれぞれのカメラによって撮影した画像により、周囲の状況を表示すると共に、前記のような白線障害物検出手段によって検出した白線36、37を強調表示し、この線の間に駐車すればよいことを示し、近くに障害物38が存在することを強調表示し、それにより運転者はこの画像を見ることによって確実に駐車させることができる。また、この時には必要に応じて車止め39、40も障害物として検出し、これを強調表示することもできる。なお、このような処理は前記のような車両の駐車時に限らず、運転者にとって通常の視界の範囲外に側溝等が存在するような、狭い道路の走行時等々においてもこれらを障害物として検出し、強調表示する作動を行い、安全に車両を案内することができる。   Therefore, during normal operation, for example, as shown in FIG. 5D, the surroundings are displayed by images taken by the respective cameras around the vehicle, and the white line 36 detected by the white line obstacle detecting means as described above. , 37, indicating that it is only necessary to park between these lines, highlighting that there is an obstacle 38 nearby, so that the driver can park securely by looking at this image Can do. At this time, if necessary, the car stops 39 and 40 can also be detected as obstacles and can be highlighted. Such processing is not limited to when the vehicle is parked as described above, but is detected as an obstacle even when traveling on a narrow road where a gutter or the like exists outside the range of the normal field of view for the driver. Then, the highlighting operation is performed, and the vehicle can be safely guided.

なお、トップビュー表示において、撮像カメラのいずれかの画像信号に異常があることを確認した時には撮像カメラ画像信号を採用するエリアを変更し、境界線を変更する技術は、特許文献1に開示れている。   Note that, in the top view display, when it is confirmed that any image signal of the imaging camera is abnormal, a technique for changing the area where the imaging camera image signal is adopted and changing the boundary line is disclosed in Patent Document 1. ing.

特開2007−089082号公報JP 2007-090882 A

上記のような複数カメラ画像使用車外表示装置において、通常作動時には所望の合成画像を得ることができると共に、白線障害物検出手段によって白線や障害物を全て強調表示することができ、極めて有効である。しかしながら、外部撮影カメラは少なくともレンズ部分、或いはそのカバー部分は車外に露出して、通常時において風雨にさらされ、塵や泥等の汚れが付き易く、また雨や洗車時等の水滴が付着することがある。その際には図6(a)に車両後方撮影カメラ34の例を示すように、水滴50が付着した結果同図(b)に不適正撮影画像例1として示すように、車両後方撮影カメラ34の撮影画像範囲の中に不適正画像部分51が存在する。このことは水滴50が比較的小さかった時の例である図6(c)に示す不適正撮影画像例2においても同様である。   In the above-described vehicle outside display device using a plurality of camera images, a desired composite image can be obtained during normal operation, and all white lines and obstacles can be highlighted by the white line obstacle detection means, which is extremely effective. . However, the external camera has at least the lens part or its cover part exposed to the outside of the car, and is normally exposed to wind and rain, and is easily contaminated with dust and mud. Sometimes. In this case, as shown in FIG. 6A as an example of the vehicle rear-view camera 34, as a result of the water droplet 50 adhering, as shown in FIG. The improper image portion 51 exists in the captured image range. The same applies to the inappropriate photographed image example 2 shown in FIG. 6C, which is an example when the water droplet 50 is relatively small.

そのため最も重要な表示要素である、白線障害物検出手段で検出し強調表示する白線36の後方部分の画像が、不明瞭に表示されるか全く表示されない状態となる。その結果、前記図5(d)の説明において述べたように、図6(b)及び(c)において、強調表示する白線36の後端部は、左下隅表示用境界線46より図中下方の部分は表示されない。このことは前記のようなトップビューシステムの場合以外にも、例えば図11に示すような車両後方撮影カメラ34のみの撮影画像を表示する時は、特にその問題が顕著となる。   For this reason, the image behind the white line 36 detected and highlighted by the white line obstacle detection means, which is the most important display element, is displayed indefinitely or not at all. As a result, as described in the description of FIG. 5D, in FIG. 6B and FIG. 6C, the rear end portion of the white line 36 to be highlighted is lower in the drawing than the lower left corner display boundary line 46. The part of is not displayed. In addition to the case of the top view system as described above, this problem is particularly noticeable when, for example, a captured image of only the vehicle rear-view camera 34 as shown in FIG. 11 is displayed.

したがって本発明は、複数カメラによって車両外部を撮影し、1つの撮影カメラによって撮影したような画像表示を行い、必要に応じて他の種々の画像表示を行うと共に、撮影画像から白線や障害物を検出して強調表示する複数カメラ画像使用車外表示装置において、1つの不適正撮影カメラが存在することを検出した時、その不適正撮影カメラ画像範囲が他のカメラにより重複撮影しているか否かを検出し、重複撮影している適正撮影カメラが存在する時には、そのカメラの撮影画像を利用して、強調表示する白線や障害物を容易に補間することができるようにした複数カメラ画像使用車外表示装置を提供することを主たる目的としている。   Therefore, the present invention captures the outside of the vehicle with a plurality of cameras, displays an image as if it was captured with a single camera, displays other various images as necessary, and removes white lines and obstacles from the captured image. When detecting that there is one improper shooting camera in a multi-camera image using vehicle outside display device that detects and highlights, whether or not the improper shooting camera image range is duplicated by another camera is determined. When there is a proper shooting camera that has been detected and overlapped, multiple camera images are displayed outside the vehicle so that white lines and obstacles to be highlighted can be easily interpolated using the captured images of that camera. The main purpose is to provide a device.

本発明に係る複数カメラ画像使用車外表示装置は、前記課題を解決するため、互いに重複して撮影する範囲が存在するように設定した複数のカメラと、前記各カメラの撮影画像によって各々白線或いは障害物を検出する白線障害物検出手段と、前記白線障害物検出手段によって検出した白線或いは障害物を強調表示する白線障害物強調表示手段とを備えた複数カメラ画像使用車外表示装置において、複数のカメラが互いに重複して撮影している重複撮影部分を検出する複数カメラ重複撮影検出手段と、前記複数カメラ重複撮影検出手段で検出した重複撮影部分において、レンズに水滴が付着した画像を検出する水滴付着画像検出手段と、前記水滴付着画像検出手段でレンズに水滴が付着した画像を検出した時、水滴が付着した画像を出力しているカメラを不適正撮影カメラとして特定する不適正撮影カメラ特定手段と、前記不適正撮影カメラ特定手段で不適正撮影カメラとして特定したカメラの撮影画像から、水滴付着画像部分を含む所定範囲の外縁を特定する不適正画像範囲外縁特定手段と、前記不適正画像範囲外縁特定手段で特定した外縁の不適正撮影カメラの座標を、同重複撮影範囲を撮影する適正撮影カメラの座標に変換する変換処理手段と、前記変換処理手段で変換した適正撮影カメラの画像の外縁内における、前記白線障害物強調表示手段で得られた白線障害物画像データを取り込み、この画像データを前記不適正カメラ撮影画像データに変換して、不適正カメラ撮影画像範囲部分の白線障害物画像データに補間する不適正撮影カメラへのデータ補間処理手段とを備えたことを特徴とする。   In order to solve the above-described problem, the multi-camera image using vehicle outside display device according to the present invention has a plurality of cameras set so that there is a range in which images are taken overlapping each other, and white lines or obstacles depending on the captured images of the cameras. A plurality of cameras in an on-vehicle display device using a multi-camera image, comprising: white line obstacle detecting means for detecting an object; and white line obstacle highlighting means for highlighting a white line or an obstacle detected by the white line obstacle detecting means. A multi-camera overlapping photographing detecting means for detecting overlapping photographing portions that are photographed overlapping each other, and a water droplet adhesion for detecting an image in which water droplets are attached to the lens in the overlapping photographing portion detected by the multiple camera overlapping photographing detecting means When the image detection means and the water droplet adhesion image detection means detect an image with water droplets attached to the lens, the image with water droplets attached is output. An improper shooting camera specifying means for specifying the camera as an improper shooting camera, and an outer edge of a predetermined range including a water droplet adhesion image portion from the shot image of the camera specified as the improper shooting camera by the improper shooting camera specifying means. Inappropriate image range outer edge specifying means for specifying, and conversion processing means for converting the coordinates of the improper photographing camera of the outer edge specified by the improper image range outer edge specifying means into the coordinates of the appropriate photographing camera for photographing the same overlapping photographing range And the white line obstacle image data obtained by the white line obstacle highlighting means within the outer edge of the image of the appropriate photographing camera converted by the conversion processing means, and this image data is taken as the inappropriate camera photographing image data. A data interpolation processing means for improper photographing camera that converts and interpolates into white line obstacle image data of the improper camera photographing image range part It is characterized in.

また、本発明に係る他の複数カメラ画像使用車外表示装置は、前記複数カメラ画像使用車外表示装置において、前記水滴付着画像検出手段では、撮影画像中に所定以上の輝度変化が存在する時、水滴が付着した画像であると判別することを特徴とする。   According to another aspect of the present invention, there is provided a multi-camera image using vehicle outside display device, wherein the water droplet adhesion image detecting means in the multiple camera image using vehicle outside display device, It is characterized in that it is determined that the image is attached.

また、本発明に係る他の複数カメラ画像使用車外表示装置は、互いに重複して撮影する範囲が存在するように設定した複数のカメラと、前記各カメラの撮影画像によって各々白線或いは障害物を検出する白線障害物検出手段と、前記白線障害物検出手段によって検出した白線或いは障害物を強調表示する白線障害物強調表示手段とを備えた複数カメラ画像使用車外表示装置において、複数のカメラが互いに重複して撮影している重複撮影部分を検出する複数カメラ重複撮影検出手段と、前記複数カメラ重複撮影検出手段で検出した重複撮影部分において、前記白線障害物検出手段で検出した各カメラの白線或いは障害物の画像を比較し、互いの画像の相違を検出する白線障害物画像相違検出手段と、前記白線障害物画像相違検出手段で互いの画像が所定以上異なっていることを検出し、一方のカメラの白線障害物画像が一連の適正画像であって、他側のカメラが前記一連の適正画像の内少なくとも一部が欠如、或いは所定以上変形していることを検出した時、当該他側のカメラを不適正撮影カメラとして特定する不適正撮影カメラ特定手段と、前記不適正撮影カメラ特定手段で不適正撮影カメラとして特定したカメラの撮影画像から、白線障害物画像が欠如し、或いは変形している画像部分を含む所定範囲の外縁を特定する不適正画像範囲外縁特定手段と、前記不適正画像範囲外縁特定手段で特定した外縁の不適正撮影カメラの座標を、同重複撮影範囲を撮影する適正撮影カメラの座標に変換する変換処理手段と、前記変換処理手段で変換した適正撮影カメラの画像の外縁内における前記白線障害物強調表示手段で得られた白線障害物画像データを取り込み、この画像データを前記不適正カメラ撮影画像データに変換して、不適正カメラ撮影画像範囲部分の白線障害物画像データに補間する不適正撮影カメラへのデータ補間処理手段とを備えたことを特徴とする。   In addition, the multi-camera image using vehicle outside display device according to the present invention detects a white line or an obstacle by each of a plurality of cameras set so that there is a range to be photographed overlapping each other, and a photographed image of each camera. In a multi-camera image using vehicle outside display device comprising a white line obstacle detecting means for performing and a white line obstacle highlighting means for highlighting a white line or an obstacle detected by the white line obstacle detecting means, the plurality of cameras overlap each other Multi-camera overlapping photographing detecting means for detecting the overlapping photographing part being photographed, and the white line or obstacle of each camera detected by the white line obstacle detecting means in the overlapping photographing part detected by the multiple camera overlapping photographing detecting means The white line obstacle image difference detection means for comparing the images of the objects and detecting the difference between the images, and the white line obstacle image difference detection means It is detected that the images are different from each other by a predetermined amount, and the white line obstacle image of one camera is a series of appropriate images, and the other camera lacks at least a part of the series of appropriate images, or exceeds a predetermined value. When it is detected that the camera is deformed, an improper shooting camera specifying unit that specifies the other camera as an improper shooting camera, and a captured image of the camera specified as the improper shooting camera by the improper shooting camera specifying unit Incorrect image range outer edge specifying means for specifying an outer edge of a predetermined range including an image part in which a white line obstacle image is missing or deformed, and an inappropriate outer edge specified by the inappropriate image range outer edge specifying means Conversion processing means for converting the coordinates of the photographing camera into coordinates of an appropriate photographing camera for photographing the same overlapping photographing range, and within the outer edge of the image of the proper photographing camera converted by the conversion processing means. The white line obstacle image data obtained by the white line obstacle highlighting means is captured, the image data is converted into the inappropriate camera photographed image data, and interpolated into the white line obstacle image data in the inappropriate camera photographed image range portion. And a data interpolation processing means for the inappropriate photographing camera.

また、本発明に係る他の複数カメラ画像使用車外表示装置は、互いに重複して撮影する範囲が存在するように設定した複数のカメラと、前記各カメラの撮影画像によって各々白線或いは障害物を検出する白線障害物検出手段と、前記白線障害物検出手段によって検出した白線或いは障害物を強調表示する白線障害物強調表示手段とを備えた複数カメラ画像使用車外表示装置において、複数のカメラが互いに重複して撮影している重複撮影部分を検出する複数カメラ重複撮影検出手段と、前記複数カメラ重複撮影検出手段で検出した重複撮影部分において、各カメラの撮影画像を比較し、互いの画像の相違を検出するカメラ撮影画像相違検出手段と、前記カメラ撮影画像相違検出手段で互いの画像が所定以上異なっていることを検出したとき、いずれのカメラが不適正な画像を出力しているカメラかを特定する不適正撮影カメラ特定手段と、前記不適正撮影カメラ特定手段で不適正撮影カメラとして特定したカメラの撮影画像から、不適正画像部分を含む所定範囲の外縁を特定する不適正画像範囲外縁特定手段と、前記不適正画像範囲外縁特定手段で特定した外縁の不適正撮影カメラの座標を、同重複撮影範囲を撮影する適正撮影カメラの座標に変換する変換処理手段と、前記変換処理手段で変換した適正撮影カメラの画像の外縁内における前記白線障害物強調表示手段で得られた白線障害物画像データを取り込み、この画像データを前記不適正カメラ撮影画像データに変換して、不適正カメラ撮影画像範囲部分の白線障害物画像データに補間する不適正撮影カメラへのデータ補間処理手段とを備えたことを特徴とする。   In addition, the multi-camera image using vehicle outside display device according to the present invention detects a white line or an obstacle by each of a plurality of cameras set so that there is a range to be photographed overlapping each other, and a photographed image of each camera. In a multi-camera image using vehicle outside display device comprising a white line obstacle detecting means for performing and a white line obstacle highlighting means for highlighting a white line or an obstacle detected by the white line obstacle detecting means, the plurality of cameras overlap each other In the multiple camera overlapping shooting detection means for detecting the overlapping shooting portion being shot and the overlapping shooting portion detected by the multiple camera overlapping shooting detection means, the captured images of each camera are compared, and the difference between the images is determined. When it is detected by the camera-captured image difference detection means to detect and the camera-captured image difference detection means that the images are different from each other by a predetermined amount, From the captured image of the camera specified as the inappropriate shooting camera by the inappropriate shooting camera specifying means for specifying whether the misaligned camera is outputting the inappropriate image, the inappropriate image An inappropriate image range outer edge specifying means for specifying an outer edge of a predetermined range including a portion, and an appropriate shooting camera for shooting the same shooting range with the coordinates of the inappropriate imaging camera of the outer edge specified by the inappropriate image range outer edge specifying means A white line obstacle image data obtained by the white line obstacle highlighting means within the outer edge of the image of the appropriate photographing camera converted by the conversion processing means, and converting the image data into the coordinates; Data interpolating process for improper camera that converts to improper camera image data and interpolates into white line obstacle image data of improper camera image area Characterized by comprising a means.

また、本発明に係る他の複数カメラ画像使用車外表示装置は、前記複数カメラ画像使用車外表示装置において、前記不適正カメラ特定手段は、互いのカメラの撮影画像が所定以上異なっていることを検出した後、いずれのカメラの画像が不適正であるかの確認を行った後に不適正カメラの特定を行うことを特徴とする。   Further, in the other multi-camera image using vehicle outside display device according to the present invention, in the plural camera image using vehicle outside display device, the inappropriate camera specifying means detects that images taken by the cameras are different from each other by a predetermined amount or more. Then, after confirming which camera image is inappropriate, the inappropriate camera is specified.

また、本発明に係る他の複数カメラ画像使用車外表示装置は、前記複数カメラ画像使用車外表示装置において、前記座標変換処理手段が、複数カメラの重複撮影範囲について、予め作成された一方のカメラの魚眼座標を他側のカメラの魚眼座標に直接変換する座標変換テーブルを用いることを特徴とする。   In addition, another multi-camera image using vehicle outside display device according to the present invention is the multi-camera image using vehicle outside display device, in which the coordinate conversion processing unit is configured for one of the cameras created in advance for the overlapping photographing ranges of the plurality of cameras. A coordinate conversion table that directly converts fisheye coordinates to fisheye coordinates of the camera on the other side is used.

本発明は上記のように構成したので、複数カメラによって車両外部を撮影して撮影画像を表示すると共に、白線や障害物を検出してこれを強調表示する複数カメラ画像使用車外表示装置において、1つのカメラによる不適正撮影カメラが存在することを検出した時、その不適正撮影カメラ画像範囲が他のカメラと重複撮影しているか否かを検出し、重複撮影している適正撮影カメラが存在する時には、不適正撮影範囲の白線や障害物の表示を、その適正撮影部分の白線や障害物の表示画像で補間することができるようになる。   Since the present invention is configured as described above, in a multi-camera image using vehicle exterior display device that captures the outside of a vehicle by a plurality of cameras and displays a photographed image, and detects and highlights white lines and obstacles. When it is detected that there is an inappropriate camera with two cameras, it is detected whether the image range of the inappropriate camera is overlapping with other cameras, and there is an appropriate camera that is shooting twice. In some cases, it is possible to interpolate the display of white lines and obstacles in the inappropriate shooting range with the white lines and obstacle display images in the appropriate shooting area.

本発明の実施例の機能ブロック図である。It is a functional block diagram of the Example of this invention. 同実施例の作動フロー図である。It is an operation | movement flowchart of the Example. 同実施例において、重複撮影範囲についてデータ変換テーブルを作成する処理の例を示す作動フロー図である。In the same Example, it is an operation | movement flowchart which shows the example of the process which produces a data conversion table about an overlapping imaging | photography range. 同実施例において、カメラ間の対応画素算出方法の基本例を示す図である。In the same Example, it is a figure which shows the basic example of the corresponding pixel calculation method between cameras. 本発明が適用される複数カメラ画像使用車外表示装置の例の説明図である。It is explanatory drawing of the example of the multi-camera image use vehicle exterior display apparatus with which this invention is applied. 車両後側撮影カメラのレンズに水滴が付着することにより不適正画像が表示された時の説明図である。It is explanatory drawing when an improper image is displayed by a water droplet adhering to the lens of a vehicle rear side camera. 不適正画像表示時の本発明の実施例により順に処理を行う時の説明図である。It is explanatory drawing when performing a process in order by the Example of this invention at the time of an improper image display. 同実施例により順に処理を行う時の説明図である。It is explanatory drawing when performing a process in order by the Example. 同実施例により更に順に処理を行う時の説明図である。It is explanatory drawing when processing is further performed in order according to the embodiment. データ変換テーブル例を示す図である。It is a figure which shows the example of a data conversion table. 車両後方撮影カメラ単独画像表示時における不適正画像表示部分の、適正撮影カメラによる白線障害物画像の補間表示例である。It is an example of the interpolation display of the white line obstruction image by the appropriate photography camera of the improper image display part at the time of vehicle rear photography camera single image display.

本発明の実施例を図面に沿って説明する。図1は本発明を実施する装置の機能ブロック図であり、同図に示す機能ブロック図において各機能を行う機能部は、それぞれ各機能を行っている手段ということができる。図1の不適正カメラ白線障害物画像補間処理部1においては、不適正カメラを特定するための不適正カメラ特定処理部2を備え、多数のカメラ撮影画像の内、どのカメラが現在不適正となっているかを検出し特定する。この不適正カメラ特定処理部2には、複数のカメラの重複撮影部分を検出する複数カメラ重複撮影部分検出部3を備えており、これにより前記図5(c)に4隅に存在する、重複撮影部分42、43、44、45を検出する。なお、重複撮影画像範囲は特定の車両に本発明の装置が搭載される時、カメラの初期設定に関連して重複撮影範囲に関するデータが存在する時には、初期設定値のその値を取り込むことにより実施することもできる。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a functional block diagram of an apparatus for carrying out the present invention. In the functional block diagram shown in FIG. 1, functional units that perform the respective functions can be said to be means for performing the respective functions. Inappropriate camera white line obstacle image interpolation processing unit 1 in FIG. 1 includes an inadequate camera specifying processing unit 2 for specifying an inadequate camera. Detect and identify whether it is. The improper camera identification processing unit 2 includes a multiple camera overlapping shooting part detection unit 3 that detects overlapping shooting parts of a plurality of cameras, so that the duplication exists at the four corners in FIG. 5C. The photographing parts 42, 43, 44, 45 are detected. In addition, when the apparatus of the present invention is mounted on a specific vehicle, the overlapped image range is implemented by capturing the value of the initial setting value when there is data regarding the overlapping shooting range in relation to the initial setting of the camera. You can also

複数カメラ重複撮影部分画像相違検出部4では、その中のカメラ撮影画像比較部5において、各カメラの撮影画像を取り込むカメラ撮影画像取込部20の撮影画像を直接取り込み、またはそのカメラ撮影画像について表示のための処理を行うカメラ撮影画像表示処理部19の処理画像を取り込んで、複数カメラ重複撮影部分検出部3で検出した重複撮影部分について、2つのカメラの撮影画像自体を比較して、その画像の相違を検出する。   In the multiple camera overlapping captured partial image difference detection unit 4, the camera captured image comparison unit 5 therein directly captures the captured image of the camera captured image capturing unit 20 that captures the captured image of each camera, or the camera captured image thereof. The processing image of the camera-captured image display processing unit 19 that performs processing for display is captured, and the captured images of the two cameras are compared for the overlapped captured portion detected by the multiple-camera overlapping captured-portion detection unit 3, Detect image differences.

また、白線障害物画像相違検出部6では、白線障害物検出部18或いは白線障害物強調表示部17からの白線障害物画像データを取り込み、その画像の比較を行う。その比較により、一方のカメラの画像では白線や障害物が適正に連続的に表示されているのに対して、他側のカメラの画像はその部分において不連続、変形、画像の欠如等の不適正が画像が存在するか否かを検出する。   The white line obstacle image difference detection unit 6 takes in the white line obstacle image data from the white line obstacle detection unit 18 or the white line obstacle highlight display unit 17 and compares the images. As a result of the comparison, white lines and obstacles are displayed properly and continuously in the image of one camera, while the image of the camera on the other side is not discontinuous, deformed, lack of image, etc. Whether or not the appropriate image is present is detected.

不適正撮影カメラ確認特定部7においては、最終的に不適正に撮影しているカメラを特定するものであり、その際には前記白線障害物画像相違検出部5で前記のように一方のカメラの画像では白線や障害物が適正に連続的に表示されているのに対して、他側のカメラの画像はその部分において不適正な画像が存在することを検出した時、そのカメラを不適正撮影カメラとして直ちに特定することができる。また、不適正撮影カメラ確認特定部7における水滴付着画像検出部8では、カメラ撮影画像取込部20、或いはカメラ撮影画像表示処理部19の画像により、重複撮影部分に水滴が付着した時に表れる特有の輝度変化のある画像、或いは水滴特有の歪んだ画像等が存在することを検出した時、そのような画像を表示しているカメラを不適正撮影カメラとして直ちに特定する。   The improper shooting camera confirmation specifying unit 7 finally specifies a camera that is shooting improperly. In this case, the white line obstacle image difference detection unit 5 uses one of the cameras as described above. In the image of, white lines and obstacles are displayed properly and continuously, but when the image of the other camera detects that there is an inappropriate image in that part, the camera is inappropriate It can be immediately identified as a shooting camera. In addition, in the water droplet adhesion image detection unit 8 in the inappropriate photographing camera confirmation specifying unit 7, a characteristic that appears when water droplets are attached to the overlapping photographing part by the image of the camera photographing image capturing unit 20 or the camera photographing image display processing unit 19. When it is detected that there is an image with a brightness change or a distorted image peculiar to water droplets, the camera displaying such an image is immediately identified as an inappropriate photographing camera.

不適正撮影カメラ確認特定部7では、前記カメラ撮影画像相違検出部5で複数のカメラの撮影画像自体を比較処理を行う時において、互いに所定以上撮影画像が相違していることを検出した時でも、必ずしもいずれのカメラが不適正であるのか、或いは両方不適正であるのか明らかではないので、その確認処理を行う。即ち、例えば不適正画像部分の画像の特徴が、カメラの表面に水滴が付着した時のように、比較的多く存在しうるケースでは、予め用意したそのパターンと一致する時、この画像を撮影しているカメラに水滴が付着したことにより、少なくともこの部分を撮影している他のカメラとは異なった画像を表示していることがかなりの確率でわかる。それに対してレンズに付着したゴミや汚れによる不適正画像は一見してわかりにくく、重複領域を撮影している2個のカメラの撮影画像の各種確認が必要となる。   In the inappropriate photographing camera confirmation specifying unit 7, even when the camera photographed image difference detection unit 5 performs comparison processing on photographed images of a plurality of cameras, even when it is detected that the photographed images are different from each other by a predetermined amount or more. Since it is not always clear which camera is improper or both are improper, the confirmation process is performed. That is, in the case where there are relatively many features of the image of the improper image part, such as when water droplets adhere to the surface of the camera, this image is taken when it matches the pattern prepared in advance. It can be seen with a considerable probability that a water droplet has adhered to the camera that is being displayed, and at least a different image from that of the other camera that is shooting this portion is being displayed. On the other hand, improper images due to dust and dirt adhering to the lens are difficult to understand at a glance, and it is necessary to check various images taken by the two cameras that capture the overlapping area.

その際には、例えば前記のように重複撮影部分で車両後方撮影カメラ34の画像が不適正と判断された時でも、その重複撮影範囲の画像を撮影している車両左側撮影カメラについて、車両前方カメラ35との重複撮影範囲45について、再度確認を行い、同様の傾向の画像相違が生じていないか確認する。ここで同様の画像相違が生じていた時には、車両後方撮影カメラとの重複撮影範囲での画像の相違は、単なる汚れ等ではなく、カメラの設置変化、調整変化等である可能性も高いとして、以降はその対策を行うこととする。   In that case, for example, as described above, even when it is determined that the image of the vehicle rear-view camera 34 is inappropriate in the overlapping shooting portion, the vehicle left-side shooting camera shooting the image in the overlapping shooting range is The overlapping photographing range 45 with the camera 35 is checked again, and it is checked whether image differences with the same tendency have occurred. When a similar image difference has occurred here, the difference in the image in the overlapping shooting range with the vehicle rear camera is not simply a dirt, etc., it is highly likely that it is a camera installation change, adjustment change, etc. The countermeasures will be taken after that.

また、不適正撮影カメラ確認特定部7ではそのほか、例えば図5(c)において車両後側撮影カメラ34と車両左側撮影カメラの重複撮影範囲42で所定以上の画像相違が見つかった時、車両後側撮影カメラ34について他の重複撮影範囲43である車両右側撮影カメラとの重複撮影範囲について再度チェックを行い、その相違が同様の傾向の相違である時、車両後方撮影カメラ34が調整ずれ等を生じているものと判断する。それに対して車両右側方撮影カメラ33との重複撮影範囲43について、ほとんど相違が存在しないことを検出した時には、特に前記の確認手法によって車両右側撮影カメラ33がほぼ正しいと確認した時、車両後方撮影カメラの一部に水滴や汚れ等が付着しているものとほぼ正確に推定することができる。   In addition, in the inappropriate photographing camera confirmation specifying unit 7, for example, in FIG. 5C, when an image difference of a predetermined value or more is found in the overlapping photographing range 42 between the vehicle rear side photographing camera 34 and the vehicle left side photographing camera, When the photographing camera 34 is checked again for the overlapping photographing range of the other right photographing camera 43 which is another overlapping photographing range 43 and the difference is the same tendency difference, the vehicle rear photographing camera 34 causes a misalignment or the like. Judge that it is. On the other hand, when it is detected that there is almost no difference in the overlapping shooting range 43 with the vehicle right-side shooting camera 33, particularly when the vehicle right-side shooting camera 33 is confirmed to be almost correct by the above-described checking method, It can be estimated almost accurately that a part of the camera has water drops, dirt, or the like.

更に、例えば不適正画像がたまたま白線のように映ってしまっていることも考えられるので、そのような場合も考慮して、車両左側撮影カメラと車両後方撮影カメラの重複エリアを参照して、同じパターンが見つかるかどうかを検出し、車両左側撮影カメラが正しい映像を出力しているという確度を上げる処理を行う。このような処理結果、車両左側撮影カメラが正しい撮影画像を出力していることの確度を高めることもできる。   Furthermore, for example, it is possible that an improper image happens to appear as a white line. Considering such a case, refer to the overlapping area of the left camera and the rear camera and refer to the same area. Whether or not a pattern is found is detected, and a process for increasing the accuracy that the left camera on the vehicle is outputting the correct video is performed. As a result of such processing, it is possible to increase the accuracy of the vehicle left-side camera outputting a correct captured image.

図1の不適正カメラ特定処理部2では、前記のような一連の処理によって不適正な撮影を行っているカメラを特定すると、これを不適正カメラ重複撮影範囲内不適正画像範囲外縁特定部9により、不適正画像範囲の外縁を特定する処理を行う。即ち、例えば車両後方撮影カメラ34に図6(a)に示すような水滴50が付着し、この部分の画像は特定の画像部分の輝度が大きく変化し、或いは大きく変形して表示されることとなる。これを従来と同様の範囲で各カメラの撮影範囲を区画して表示すると、白線36の後部は車両後方撮影範囲内に存在するので、実質的に表示することができない。   In the inappropriate camera specification processing unit 2 in FIG. 1, when a camera that performs inappropriate shooting is specified by the series of processes as described above, the inappropriate camera overlapping shooting range inappropriate image range outer edge specifying unit 9 is identified. Thus, the process of specifying the outer edge of the inappropriate image range is performed. That is, for example, a water droplet 50 as shown in FIG. 6A adheres to the vehicle rear-facing camera 34, and the image of this portion is displayed with the luminance of a specific image portion greatly changed or greatly deformed. Become. When this is divided and displayed in the same range as in the prior art, the rear portion of the white line 36 exists in the vehicle rearward shooting range, and therefore cannot be displayed substantially.

そのため図1に示す例においては、最初に不適正カメラ重複撮影範囲内不適正画像範囲外縁特定部9で、車両後方撮影カメラ34で撮影した画像の中で不適正な画像範囲の外縁を特定する処理を行っている。その際には、例えば図7(c)に示すような車両後方撮影カメラの撮影範囲における車両左側カメラとの重複撮影範囲42において、不適正撮影範囲51が検出された時この範囲の外縁を特定するに際して、図1の重複撮影表示分割線内10を設定する機能により、同図(d)に示すような重複撮影表示分割線の外縁(D)が特定される。   Therefore, in the example shown in FIG. 1, first, the improper camera overlapping photographing range improper image range outer edge specifying unit 9 first identifies the outer edge of the improper image range among the images photographed by the vehicle rear photographing camera 34. Processing is in progress. In this case, for example, when an improper shooting range 51 is detected in the overlapping shooting range 42 with the left side camera in the shooting range of the vehicle rear shooting camera as shown in FIG. 7C, the outer edge of this range is specified. In this case, the outer edge (D) of the overlapping photographing display dividing line as shown in FIG. 10D is specified by the function for setting the overlapping photographing display dividing line 10 in FIG.

また、重複カメラ撮影範囲内11を設定する機能により、同図(d)における外縁(H)が特定される。また、表示範囲内12を設定する機能により、同図(d)における外縁(F)が特定される。更に、不適正画像範囲外縁内13を設定する機能により、前記同図(c)に示す不適正撮影範囲51の外縁(E)が設定される。その結果全体として同図(d)に示すような車両後方撮影カメラ重複撮影範囲内の不適正画像外縁を特定することができる。   Further, the outer edge (H) in FIG. 4D is specified by the function of setting the overlapping camera photographing range 11. Moreover, the outer edge (F) in the same figure (d) is specified by the function which sets the display range 12 within. Further, the outer edge (E) of the improper photographing range 51 shown in FIG. 5C is set by the function of setting the improper image area outer edge 13. As a result, the improper image outer edge within the vehicle rear-view camera overlapping shooting range as shown in FIG.

図1の不適正カメラ重複撮影範囲内不適正画像範囲外縁特定部9で特定した、車両後方撮影カメラ画像における外縁で囲まれた範囲は、不適正画像範囲外縁の適正撮影カメラ画像外縁への変換処理部14において、適正撮影カメラ画像の外縁に変換する処理を行う。その際には図1に示す例においては、座標変換テーブル15を用いて変換を行う例を示している。   The range surrounded by the outer edge in the rear camera image of the vehicle identified by the improper camera overlapping photographing range outer edge specifying unit 9 in FIG. 1 is converted to the outer edge of the improper image range. In the processing unit 14, a process for converting to the outer edge of the appropriate captured camera image is performed. In this case, the example shown in FIG. 1 shows an example in which conversion is performed using the coordinate conversion table 15.

この座標変換テーブル15は、図4(a)に示すカメラ間の対応画素算出方法の基本的な考え方により、実際には同図(b)に示すように多数の座標変換を行って、最終的に置換データを得る処理により実施している。即ち、そもそもこの発明の技術分野における、車両のモニタに表示するワールド座標(実生活における座標)と、カメラ座標(カメラを原点とした座標)と、魚眼座標(魚眼映像上の座標)とはそれぞれの間でデータを変換することができる。これを更に詳細に示したものが図4(b)であり、図示の例では最初ステップS31において、前方カメラの魚眼映像上のA点の座標を検出する。   This coordinate conversion table 15 is actually obtained by performing a number of coordinate conversions as shown in FIG. 4B in accordance with the basic concept of the corresponding pixel calculation method between cameras shown in FIG. This is implemented by processing to obtain replacement data. That is, in the first place, in the technical field of the present invention, world coordinates (coordinates in real life), camera coordinates (coordinates with the camera as the origin), fisheye coordinates (coordinates on the fisheye image) displayed on the vehicle monitor. Can convert data between each. FIG. 4B shows this in more detail. In the example shown in the drawing, the coordinates of point A on the fisheye image of the front camera are first detected in step S31.

次いでステップS32において、選択したA点の魚眼座標を前方カメラ座標に変換する。次いでステップS33で、A点の前方カメラ座標をワールド座標に変換する。その後ステップS34で、A点のワールド座標を車両右側撮影カメラ座標に変換する。その後最終的にA点の右側撮影カメラ座標を右側撮影カメラの魚眼座標に変換する。   Next, in step S32, the fisheye coordinates of the selected point A are converted into front camera coordinates. In step S33, the front camera coordinates of point A are converted to world coordinates. Thereafter, in step S34, the world coordinates of point A are converted into vehicle right-side shooting camera coordinates. Thereafter, the right-side shooting camera coordinates of point A are finally converted into fish-eye coordinates of the right-side shooting camera.

この一連の変換処理によって前方撮影カメラ魚眼映像上のA点の座標は、右側撮影カメラの魚眼座標に変換することができるものであるが、この前方前方撮影カメラ魚眼映像上で右側撮影カメラとの重複撮影範囲について、予め全ての点に関し、右側撮影カメラの点の座標を、前方撮影カメラの座標に変換するための、互いに対応する点のデータテーブルを用意しておく。それにより、特別な設定を行うことなく、また多数の演算を行うことなく、図4(b)にも示しているように、前記のようなA点−B点変換テーブルを用いて変換処理し、極めた容易に、且つ高速で置換データを得ることができる。   With this series of conversion processing, the coordinates of the point A on the front-shot camera fisheye image can be converted to the fish-eye coordinates of the right-side camera, but the right-side shot is taken on the front-forward camera fisheye image. Regarding the overlapping shooting range with the camera, a data table of points corresponding to each other for converting the coordinates of the points of the right shooting camera into the coordinates of the front shooting camera is prepared in advance for all the points. As a result, conversion processing is performed using the A-point-to-B conversion table as described above, as shown in FIG. 4B, without performing any special setting or performing many operations. The replacement data can be obtained extremely easily and at high speed.

この時のデータ変換テールのより具体的な例を図10に示している。同図に示すデータ変換テーブル例においては、各々の重複撮影範囲42〜45の各部分において、重複して撮影している各カメラの魚眼座標を、他のカメラの魚眼座標に変換するデータを、前記手法によって全て作成し、片側のカメラの魚眼データは各点及び各範囲において、特に変換処理を行うことなく、他のカメラの魚眼座標の点及び範囲に変換することができる。   A more specific example of the data conversion tail at this time is shown in FIG. In the example of the data conversion table shown in the figure, in each part of the overlapping shooting ranges 42 to 45, data for converting the fisheye coordinates of each camera that is being shot in duplicate into the fisheye coordinates of other cameras. The fisheye data of one camera can be converted into the points and ranges of fisheye coordinates of other cameras at each point and each range without any particular conversion process.

図1に示す例においては、適正重複撮影カメラ範囲白線障害物画像の不適正撮影カメラへのデータ補間処理部16を備え、前記不適正画像範囲外縁の適正撮影カメラ外縁への変換処理部14で変換処理を行った、適正撮影カメラの画像範囲について、適正撮影カメラによるこの範囲部分の白線障害物画像を不適正カメラの撮影画像における白線障害物画像に補間するための処理を行う。この時においては、後述する白線障害物強調表示部17で得られた白線障害物の強調表示画像を、座標変換テーブル15のデーブルを利用することにより、格別の演算を行うことなく、補間処理を行うことができる。   In the example shown in FIG. 1, a data interpolation processing unit 16 for appropriately duplicating shooting camera range white line obstacle image to an improper shooting camera is provided, and the conversion processing unit 14 for converting the outer edge of the improper image range to an outer edge of the appropriate shooting camera. For the image range of the appropriate photographing camera that has been subjected to the conversion process, a process for interpolating the white line obstacle image in this range portion by the proper photographing camera into the white line obstacle image in the photographed image of the inappropriate camera is performed. At this time, the white line obstacle highlight display image obtained by the white line obstacle highlight display unit 17 to be described later is subjected to interpolation processing without performing any special calculation by using the table of the coordinate conversion table 15. It can be carried out.

一方、前記のように車両の前後左右を撮影するカメラの画像はカメラ撮影画像取込部20にそれぞれ取り込まれ、カメラ撮影画像表示処理部19においてその撮影画像をモニタに表示するための処理を行う。この時には各カメラが魚眼レンズの画像である時には、適宜モニタにわかりやすく表示を行う座標変換処理を行う。この時にも前記座標変換テーブル15とは異なった、同様の座標変換テーブルを用いて変換処理を行うことができる。このカメラ撮影画像表示処理部19に入力したカメラ撮影画像のデータにより、白線障害物検出部18では、各カメラの撮影画像について、従来から提案されている各種手法を用いてそれぞれ白線や障害物を検出する。その検出結果により、白線障害物強調表示部17では、モニタにおける前記カメラ撮影画像表示処理部19によって表示されているカメラ画像中に、白線や障害物を強調してわかりやすく表示する。   On the other hand, as described above, the images of the cameras that capture the front, rear, left and right of the vehicle are captured by the camera captured image capturing unit 20, and the camera captured image display processing unit 19 performs processing for displaying the captured images on the monitor. . At this time, when each camera is an image of a fisheye lens, coordinate conversion processing is performed to display the image on the monitor in an easily understandable manner. Also at this time, conversion processing can be performed using a similar coordinate conversion table different from the coordinate conversion table 15. Based on the camera-captured image data input to the camera-captured image display processing unit 19, the white-line obstacle detection unit 18 applies white lines and obstacles to the captured images of the cameras using various conventionally proposed methods. To detect. Based on the detection result, the white line obstacle highlighting display unit 17 emphasizes the white line and the obstacle in the camera image displayed by the camera-captured image display processing unit 19 on the monitor and displays it clearly.

図1の機能ブロックからなる本発明の実施例においては、例えば図2に示す作動フローにしたがって本発明を実施することができる。図2に示す不適正撮影カメラの適正白線障害物画像補間処理の例においては、本発明を各種の態様で実施することができるようにした例を示しており、特にステップS7で示したように、不適正カメラの不適正画像を特定する処理を行うため、図2には種々の態様を示している。   In the embodiment of the present invention comprising the functional blocks of FIG. 1, the present invention can be implemented according to the operation flow shown in FIG. 2, for example. In the example of the appropriate white line obstacle image interpolation processing of the improper photographing camera shown in FIG. 2, an example in which the present invention can be implemented in various aspects is shown, and particularly as shown in step S <b> 7. In order to perform the process of specifying an inappropriate image of an inappropriate camera, various modes are shown in FIG.

図2に示す例においては、最初水滴付着特有画像の検出処理を行うか否かを判別している(ステップS1)。この判別に際しては、予めそのような処理を行う旨の設定をしているか否かによって判別する。この処理は図1の不適正撮影カメラ確認特定部7における一つの処理として示している、水滴付着画像検出部8で、カメラ撮影画像取込部20、或いはカメラ撮影画像表示処理部19の画像データにより、例えば図6(a)のようにカメラのレンズ部分に雨や洗車等によって水滴が付着したとき、同図(b)及び(c)に示すような不適正画像が生じることを検出することにより行う。   In the example shown in FIG. 2, it is determined whether or not the detection process for the first water droplet adhesion specific image is performed (step S <b> 1). In this determination, the determination is made based on whether or not a setting for performing such processing is performed in advance. This process is shown as one process in the improper photographing camera confirmation specifying unit 7 in FIG. 1, and is the water droplet adhesion image detecting unit 8 and the image data of the camera photographing image capturing unit 20 or the camera photographing image display processing unit 19. Thus, for example, when water droplets adhere to the lens portion of the camera due to rain or a car wash as shown in FIG. 6A, it is detected that an improper image as shown in FIGS. To do.

その際に行う不適正画像であるか否かの判別手法としては、1つのカメラの撮影画像中に大きな輝度変化が生じていることを検出したとき、典型的な水滴付着による不適正画像であること、即ちこのカメラはこの部分で水滴付着による不適正画像を出力していることを検出することができる。なお、水滴付着による不適正画像の検出に際しては、レンズの一部に水滴が付着することにより、水滴付着に伴う特有のゆがんだ画像を出力していることを検出する等、種々の検出手法を採用することもできる。   As a method for determining whether or not the image is an improper image at that time, it is a typical improper image due to water droplet adhesion when it is detected that a large luminance change has occurred in a captured image of one camera. That is, this camera can detect that an inappropriate image due to water droplets is being output at this portion. In addition, when detecting improper images due to water droplet adhesion, various detection methods such as detecting that a water droplet adheres to a part of the lens and outputting a specially distorted image accompanying water droplet adhesion are used. It can also be adopted.

図2のステップS1において、水滴付着特有画像の検出処理を行うと判別した時には、ステップS13で、水滴付着特有画像を検出したか否かを判別する。ここで前記のような、水滴付着特有の輝度変化を生じている、等の手法によって水滴が付着した特有の画像を検出したと判別した時には、ステップS7において不適正カメラの不適正画像の特定が行われる。即ち前記の場合は、不適正カメラとして水滴付着特有の画像を出力しているカメラを特定し、また前記の例では大きな輝度変化が生じている範囲を不適正画像部分である、と特定する。   When it is determined in step S1 of FIG. 2 that the detection process of the water droplet adhesion specific image is performed, it is determined in step S13 whether or not the water droplet adhesion specific image is detected. Here, when it is determined that a unique image with water droplets is detected by a technique such as that described above, a brightness change peculiar to water droplet adhesion is detected, the inappropriate image of the inappropriate camera is identified in step S7. Done. That is, in the above case, a camera that outputs an image peculiar to water droplet adhesion is specified as an inappropriate camera, and in the above example, a range in which a large luminance change occurs is specified as an inappropriate image portion.

ステップS13で水滴付着特有画像を検出しなかったと判別した時には、図2の例ではステップS1で水滴付着特有画像の検出処理を行わないと判別した時と共に、白線障害物画像の比較処理を行うか否かを判別している(ステップS3)。この判別も、予めこの処理を行う旨の設定をしているか否かによって判別する。図2の例においては、本発明における種々の不適正カメラの特定手法において、極めて簡単な処理により不適正カメラを特定することができる手法として水滴付着特有画像の検出を行い、ここで水滴付着特注の画像が検出されない場合でも、他の手法によって不適正画像を出力しているカメラが存在するか否かを検出する例を示している。   When it is determined in step S13 that a water droplet adhesion specific image has not been detected, in the example of FIG. 2, whether or not the water droplet adhesion specific image detection processing is performed in step S1, and the white line obstacle image comparison processing is performed. It is discriminate | determined (step S3). This determination is also made based on whether or not the setting for performing this process has been made in advance. In the example of FIG. 2, in the various improper camera identification methods according to the present invention, a water drop adhesion specific image is detected as a technique that can identify an improper camera by a very simple process. In this example, even if no image is detected, it is detected whether there is a camera that outputs an inappropriate image by another method.

ステップS2において白線障害物画像の比較処理を行うと判別した時には、ステップS14において、重複撮影範囲で一方のカメラの適正は白線障害物画像が得られていると判断されるのに対して、他のカメラがこれとは異なる白線障害物画像を出力しているか否かを判別する。即ち、重複撮影範囲で両方のカメラで撮影した画像から得られた白線障害物画像について比較を行い、一方のカメラの白線障害物画像が、例えば図6(d)に示すように、車両左側撮影カメラでは、白線について所定の一連の画像を出力しているのに対して、他方のカメラである車両後方撮影カメラによる白線障害物画像は、その部分が存在しないか、一部欠けているか、或いは所定以上変形しているとき、ステップS14では不適正画像を出力していると判別する。この処理は図1の複数カメラ重複撮影部分画像相違検出部4における、白線障害物画像相違検出部6において、白線障害物検出部18、或いは白線障害物強調表示部17の画像データを用いて行っている。   When it is determined in step S2 that the white line obstacle image comparison process is to be performed, in step S14, it is determined that the white line obstacle image is obtained in the overlapping photographing range while one of the cameras is appropriate. It is determined whether or not the camera outputs a white line obstacle image different from this. That is, the white line obstacle image obtained from the images taken by both cameras in the overlapping photographing range is compared, and the white line obstacle image of one camera is photographed on the left side of the vehicle as shown in FIG. The camera outputs a predetermined series of images with respect to the white line, whereas the white line obstacle image obtained by the rear camera, which is the other camera, does not exist or is partially missing, or When the image is deformed more than a predetermined amount, it is determined in step S14 that an inappropriate image is being output. This processing is performed using the image data of the white line obstacle detection unit 18 or the white line obstacle highlighting display unit 17 in the white line obstacle image difference detection unit 6 in the multiple camera overlapping photographing partial image difference detection unit 4 of FIG. ing.

ステップS14において、前記のように不適正な白線障害物画像を出力しているカメラを検出した時には、ステップS7で不適正カメラの不適正画像を特定する。また、そのような不適正な白線障害物画像が存在しないと判別した時には、図2の例では前記ステップS2において白線障害粒画像の比較処理を行わないと判別した時と共に、ステップS3に進んで、カメラ撮影画像自体の比較処理を行うか否かの判別を行っている。   In step S14, when a camera outputting an inappropriate white line obstacle image as described above is detected, an inappropriate image of the inappropriate camera is specified in step S7. When it is determined that such an improper white line obstacle image does not exist, in the example of FIG. 2, the process proceeds to step S3 when it is determined that the comparison process of the white line obstacle particle image is not performed in step S2. Then, it is determined whether or not to perform comparison processing of the camera captured image itself.

即ち、図2の例においてはステップS13及びステップS14、或いはいずれかにおいて、それぞれできる限り簡単に不適正な画像を出力しているカメラの特定を行う手法を採用したのに対して、更に詳細に不適正な画像を出力しているカメラを特定するため、ステップS3では、重複撮影範囲において両方のカメラの撮影画像自体を比較する処理を行うか否かを判別している。但し、前記ステップS1で水滴付着特有画像の検出を行わないと判別し、更にステップS2において白線障害物画像の比較処理を行わないと判別した時には、ステップS3ではカメラ撮影画像自体の比較処理を行うと判別するものとする。   That is, in the example of FIG. 2, in step S13 and step S14, or in any one of them, a technique for specifying a camera that outputs an inappropriate image as easily as possible is adopted. In order to specify a camera that outputs an inappropriate image, in step S3, it is determined whether or not to perform processing for comparing the captured images of both cameras in the overlapping imaging range. However, when it is determined in step S1 that the water droplet adhesion specific image is not detected, and in step S2, it is determined that the white line obstacle image comparison process is not performed, the camera captured image itself is compared in step S3. Shall be determined.

このステップS3において、このような比較処理は行わないと判別した時には、ステップS1に戻って前記処理を繰り返す。即ち、例えば前記ステップS1で水滴付着特有画像の検出処理を行わないと判別し、白線障害物画像の比較処理を行った時、或いはステップS1で水滴付着特有画像の検出処理を行って、ステップS13で水滴付着特有画像を検出しなかった時において、ステップS2で白線障害物画像の比較処理を行わないと判別し、更にはステップS1及びステップS2においてそれぞれの処理を行うと判別した時は、それ以降の厳密なカメラ撮影画像自体の比較処理は行う必要がない設定にしている際に、ステップS1に戻って前記作動を繰り返す処理を行うことを可能としている。   If it is determined in step S3 that such a comparison process is not performed, the process returns to step S1 and the above process is repeated. That is, for example, when it is determined in step S1 that the water droplet adhesion specific image detection process is not performed and the white line obstacle image comparison process is performed, or in step S1, the water droplet adhesion specific image detection process is performed, and step S13 is performed. In step S2, it is determined that the comparison process of the white line obstacle image is not performed, and when it is determined that the respective processes are performed in step S1 and step S2, It is possible to perform the process of returning to step S1 and repeating the operation when setting is made so as not to perform the subsequent process of comparing the camera-captured images themselves.

ステップS3において、カメラ撮影画像自体の比較処理を行うと判別した時には、複数カメラの撮影画像自体で重複撮影範囲に所定以上の画像の相違が存在するか否かの判別を行う(ステップS4)。この処理は図1の複数カメラ重複撮影部分画像相違検出部4における、カメラ撮影画像相違検出部5で、カメラ撮影画像取込部20、或いはカメラ撮影画像表示処理部19の画像データを用いて行っている。   In step S3, when it is determined that the camera-captured image itself is to be compared, it is determined whether or not there is an image difference of a predetermined value or more in the overlapped imaging range among the captured images of the plurality of cameras (step S4). This processing is performed by the camera-captured image difference detection unit 5 in the multiple-camera overlapping-photographed partial image difference detection unit 4 of FIG. 1 using the image data of the camera-captured image capture unit 20 or the camera-captured image display processing unit 19. ing.

この処理に際しては、ステップS4で複数カメラの撮影画像自体で、重複撮影範囲に所定以上の画像の相違が存在しないと判別した時には、ステップS1に戻って前記作動を繰り返す。ここで所定以上の画像の相違が存在すると判別した時には、不適正カメラの確認処理を行う(ステップS5)。即ち、ステップS1において重複画像の中でいずれかの画像が不適正なことにより相互の画像が相違していても、いずれのカメラの撮影画像が不適正であるのかが不明のため、これを確認する必要がある。   In this process, when it is determined in step S4 that there are no more than a predetermined image difference in the overlapping shooting range among the images shot by the plurality of cameras, the process returns to step S1 and the above operation is repeated. Here, when it is determined that there is a difference between the images of a predetermined value or more, an inappropriate camera confirmation process is performed (step S5). That is, in step S1, even if one of the duplicate images is incorrect due to an inappropriate image, it is not clear which camera's captured image is inappropriate. There is a need to.

そのため、例えば図6(a)に示すような車両後方撮影カメラ34に水滴50が付着し、その結果同図(b)に車両後方撮影カメラ画像不適正撮影画像例1として示すように、車両後方撮影カメラ34の撮影画像範囲内において、大きな範囲の不適正画像51が存在する時、この不適正画像51が含まれる範囲に車両左側撮影カメラ32の撮影範囲が存在し、その重複撮影部分42が存在することとなる。また、この不適正画像51が含まれる範囲に車両左側撮影カメラ33の撮影範囲が存在し、その重複撮影部分43が存在する。   For this reason, for example, water droplets 50 are attached to the vehicle rear-view camera 34 as shown in FIG. 6A, and as a result, as shown in FIG. When there is a large range of inappropriate images 51 in the captured image range of the imaging camera 34, the imaging range of the left-side camera 32 is present in the range including the inappropriate images 51, and the overlapping captured portion 42 is present. Will exist. In addition, the shooting range of the left side shooting camera 33 exists in the range including the inappropriate image 51, and the overlapping shooting portion 43 exists.

このような例においては、全ての重複撮影範囲について両カメラの撮影画像を比較して所定以上の相違が存在するかを確認し、重複撮影範囲42において車両後方撮影カメラ34と車両左側撮影カメラ32の撮影画像が所定上異なっていることを検出することとなる。この時、車両左側撮影カメラ32における他の重複撮影範囲45について重複した画像を比較すると、大きな相違が存在しないのに対して、車両後方撮影カメラ34の撮影範囲における車両右側撮影カメラ33との重複撮影範囲43についてみると、所定以上の画像の相違が検出されることにより、前記重複撮影範囲42における画像相違は車両後方撮影カメラ34によるものと確認することができる。同様に、車両右側撮影カメラ33の他の重複撮影範囲44では大きな画像の相違が存在しない時、重複撮影範囲43での前記の画像の相違は、車両後方撮影カメラ34が不適正な画像を撮影しているからであることを確認することができる。   In such an example, the images captured by the two cameras are compared for all the overlapping shooting ranges to check whether there is a difference of a predetermined value or more, and the vehicle rear shooting camera 34 and the vehicle left-side shooting camera 32 in the overlapping shooting range 42. It is detected that the captured images are different from each other by a predetermined amount. At this time, when overlapping images are compared for the other overlapping shooting ranges 45 in the vehicle left-side shooting camera 32, there is no significant difference, while in the shooting range of the vehicle rear-side shooting camera 34 overlaps with the vehicle right-side shooting camera 33. With regard to the shooting range 43, it is possible to confirm that the image difference in the overlapped shooting range 42 is due to the vehicle rear shooting camera 34 by detecting a difference in image more than a predetermined value. Similarly, when there is no large image difference in the other overlapping shooting range 44 of the vehicle right side shooting camera 33, the difference in the image in the overlapping shooting range 43 is caused by the vehicle rear shooting camera 34 shooting an inappropriate image. You can confirm that this is because

それに対して例えば図6(c)に示すように車両後方撮影カメラ34による不適切撮影画像51が比較的小さい時、この重複撮影範囲42において両カメラの撮影画像を比較して、両カメラの撮影画像に大きな相違が存在することが検出され、いずれのカメラが不適切な画像を撮影しているかの確認を行う時、前記図6(b)に示す例のような手法によっては確認することができない。   On the other hand, for example, as shown in FIG. 6 (c), when the improperly captured image 51 by the vehicle rear-facing camera 34 is relatively small, the images captured by the two cameras are compared in this overlapping shooting range 42, When it is detected that there is a large difference in the images and which camera is taking an inappropriate image, it may be confirmed by a method such as the example shown in FIG. 6B. Can not.

このような場合は、例えば図6(d)に示すように、車両左側撮影カメラ36の画像において、車両後方撮影カメラの画像領域も含めて、白線36が連続的に撮影されていること、或いは両カメラの重複撮影範囲において同一の障害物38を撮影していると推定される部分がそれぞれのカメラの撮影画像中に存在し、車両後方撮影カメラ34の画像では同図(c)に示すように全体が連続的に撮影されていないのに対して、車両左側撮影カメラ32の画像では同図(d)に示すように全体が連続的に撮影されている時、車両左側撮影カメラ32の撮影画像は適正であり、結局車両後方撮影カメラの画像が不適正でることが確認される。特に、2つのカメラで例えば障害物38の同じ画像を撮影していることを確認することにより、車両左側撮影カメラ32の撮影画像は全て適正な画像が撮影されていることを更に確認することができる。   In such a case, for example, as shown in FIG. 6D, in the image of the vehicle left side camera 36, the white line 36 is continuously captured including the image area of the vehicle rear camera, or A portion presumed that the same obstacle 38 is shot in the overlapping shooting range of both cameras is present in the shot images of the respective cameras, and the image of the rear camera 34 of the vehicle is as shown in FIG. However, when the whole is continuously photographed in the image of the vehicle left side photographing camera 32 as shown in FIG. 4D, the whole image is not continuously photographed. It is confirmed that the image is appropriate and that the image from the rear camera is not appropriate. In particular, by confirming that the same image of the obstacle 38 is captured by the two cameras, for example, it is possible to further confirm that all of the captured images of the left camera 32 have been captured. it can.

図2のステップS5において前記のようなは種々の手法によって不適正カメラの確認処理を行い、ステップS6において不適正カメラの不適正画像は確認できたか否かを判別する(ステップS6)。ここで不適正カメラの不適正画像が確認できたと判別した時には、ステップS7で不定正撮影カメラの不適正画像の特定が行われる。なお、前記ステップS6において前記のような各種の手法によっても不適正カメラが確認されなかったと判別したときには、再びステップS1に戻って前記作動を繰り返す。   In step S5 of FIG. 2, the above-described inappropriate camera confirmation process is performed by various methods. In step S6, it is determined whether or not an inappropriate image of the inappropriate camera has been confirmed (step S6). If it is determined that an inappropriate image of the inappropriate camera has been confirmed, the inappropriate image of the indeterminate photographing camera is specified in step S7. If it is determined in step S6 that an inappropriate camera has not been confirmed by the above-described various methods, the process returns to step S1 and the operation is repeated.

その後不適正カメラの不適正撮影範囲の外縁を特定する(ステップS8)。この作動は図1の不適正カメラ重複撮影範囲内不適正画像範囲外縁特定部9において行う。その際には、例えば図7(a)に示すような車両後方撮影カメラ34の画像に不適正撮影画像部分51が存在し、これを同図(c)に示すような重複撮影画像部分での不適正画像部分を特定し、更に同図(d)に示すように、重複撮影範囲における車両左側撮影カメラの画図分割範囲を考慮した不適正画像の外縁を特定する。   Thereafter, the outer edge of the inappropriate shooting range of the inappropriate camera is specified (step S8). This operation is performed in the improper image overlap improper image range outer edge specifying unit 9 in FIG. In that case, for example, an improper photographed image portion 51 exists in the image of the vehicle rearward photographing camera 34 as shown in FIG. 7A, and this is shown in the overlapping photographed image portion as shown in FIG. The improper image portion is specified, and further, as shown in FIG. 4D, the outer edge of the improper image is specified in consideration of the image drawing division range of the left camera in the overlapping shooting range.

図2の例においては、その後不適正撮影カメラの不定正撮影画像外縁を適正撮影カメラの画像の外縁に変換する(ステップS9)。即ち、図7(d)のように不適正カメラの不適正撮影画像範囲の外縁が特定された後は、これを例えば同図(b)に示すような、重複撮影範囲42部分の車両後方撮影カメラ魚眼座標を、同図(e)に示すように当てはめ、それにより同図(f)に示すようにな白線障害物の補間必要範囲の座標を求め、車両後方撮影カメラでの魚眼座標の外縁を確定する。その後図7(f)及び図8(a)に示すような不適正画像範囲の外縁を、図8(b)に示すように、適正画像を出力している車両左側撮影カメラの魚眼座標に変換する。   In the example of FIG. 2, the indeterminate photographed image outer edge of the inappropriate photographing camera is then converted into the outer edge of the proper photographing camera image (step S <b> 9). That is, after the outer edge of the improper captured image range of the improper camera is specified as shown in FIG. 7D, this is taken as an example of rearward shooting of the overlapping photographing range 42 as shown in FIG. The camera fisheye coordinates are applied as shown in (e) in the figure, thereby obtaining the coordinates of the necessary interpolation range of the white line obstacle as shown in (f) in the figure, and the fisheye coordinates in the vehicle rear-view camera. Determine the outer edge of. Thereafter, the outer edge of the improper image range as shown in FIG. 7 (f) and FIG. 8 (a) is changed to the fish-eye coordinates of the vehicle left side photographing camera that outputs the appropriate image as shown in FIG. 8 (b). Convert.

次いでステップS10において、前記のようにして変換した適正カメラ撮影画像範囲内における外縁について、その中に含まれる白線障害物画像データを取り込む。この処理は図8(a)に示すように、後方カメラ魚眼座標の外縁を確定し、図8(b)のように適正撮影カメラである左カメラ魚眼座標での外縁に変換した外縁の範囲内について、図8(c)に示すような車両左側撮影カメラの重複撮影範囲の白線障害物画像データから、同図(d)に示すように左側カメラ魚眼座標を適用し、同図(e)に示すようなデータを取り込むことによって行っている。   Next, in step S10, white line obstacle image data included in the outer edge within the range of the image captured by the appropriate camera converted as described above is captured. This process determines the outer edge of the rear camera fisheye coordinates as shown in FIG. 8A, and converts the outer edge converted into the outer edge in the left camera fisheye coordinates as shown in FIG. 8B. Within the range, from the white line obstacle image data of the overlapping shooting range of the left side camera as shown in FIG. 8C, the left camera fisheye coordinates are applied as shown in FIG. This is done by fetching data as shown in e).

次いでステップS11において、座標変換テーブルを用いて不適正カメラの不適正撮影画像範囲の白線障害物画像に補間する。この処理は図1の適正撮影カメラ範囲白線障害物画像の不適正画像範囲への補間処理部16において、白線障害物強調表示部17のデータ、及び座標変換テーブル15を用いて行っている。その際には例えば前記図8(e)に示すような車両左側撮影カメラの白線障害物画像に基づいて、取り込まれる補間画像が確定してその魚眼座標データが得られた状態で、その画像について同図(f)に示すように後方撮影カメラの魚眼座標への変換を行い、これを図9(a)に示すように、車両後方撮影カメラの不適切画像によって適正に撮影されていない部分に同図(b)に示す前記白線障害物画像を補間する。それにより同図(c)に示すような、重複撮影部分の白線障害物画像が得られ、結局同図(d)に全体の白線障害物画像を示すように、後方撮影カメラの不適正撮影画像が実質的に存在しなかったような白線障害物画像を得ることができる。   In step S11, the coordinate conversion table is used to interpolate the white line obstacle image in the inappropriate photographed image range of the inappropriate camera. This processing is performed using the data of the white line obstacle emphasis display unit 17 and the coordinate conversion table 15 in the interpolation processing unit 16 of the appropriate photographing camera range white line obstacle image of FIG. In that case, for example, based on the white line obstacle image of the left camera of the vehicle as shown in FIG. 8 (e), the interpolated image to be captured is determined and the fish-eye coordinate data is obtained, and the image is obtained. As shown in FIG. 9 (f), the rear camera is converted into fish-eye coordinates, and as shown in FIG. 9 (a), it is not properly captured by an inappropriate image of the vehicle rear camera. The white line obstacle image shown in FIG. As a result, a white line obstacle image of the overlapping photographing portion as shown in FIG. 6C is obtained, and an inappropriate photographing image of the rear photographing camera is obtained so that the entire white line obstacle image is shown in FIG. It is possible to obtain a white line obstruction image in which there is substantially no.

図2のステップS12では、上記のような一連の処理により、重複撮影範囲における片方のカメラの不適切撮影部分を、他のカメラの適正撮影画像による白線障害物画像で補間して適正な白線障害物画像を得ることができるようになり、この処理を全カメラの不適正撮影画像における白線障害物画像について、他の適正撮影カメラの撮影画像による白線障害物画像で補間する処理を行い、この一連の処理を終了する。   In step S12 of FIG. 2, an appropriate white line obstruction is obtained by interpolating an inappropriate photographing portion of one camera in the overlapping photographing range with a white line obstacle image based on a proper photographing image of another camera by the series of processes as described above. An object image can be obtained, and this process is performed by interpolating the white line obstacle image in the improper captured image of all the cameras with the white line obstacle image obtained by the image captured by the other appropriate photographing camera. Terminate the process.

本発明の前記実施例で用いている、図1の座標変換テーブル15は、図10(a)〜(e)の各重複範囲の座標変換テーブルを用いて特別の演算無しに実施することができるものであるが、この座標変換テーブルの作成に際しては、前記図4で説明した本発明の座標変換系統の考え方に基づき、例えば図3に示す作動フローにより作成することができる。即ち、図3に示す重複撮影範囲についてのデータ変換テーブルの作成処理においては、最初1つの重複撮影範囲について、一方のカメラの画素を順に選択する(ステップS21)。次いで選択した画素の魚眼映像座標を平面カメラ座標に変換する(ステップS22)。   The coordinate conversion table 15 of FIG. 1 used in the embodiment of the present invention can be implemented without any special calculation using the coordinate conversion table of each overlapping range of FIGS. 10 (a) to 10 (e). However, the coordinate conversion table can be generated based on the concept of the coordinate conversion system of the present invention described with reference to FIG. 4, for example, according to the operation flow shown in FIG. That is, in the process of creating the data conversion table for the overlapping shooting range shown in FIG. 3, first, the pixels of one camera are sequentially selected for one overlapping shooting range (step S21). Next, the fish-eye image coordinates of the selected pixel are converted into plane camera coordinates (step S22).

その後変換した平面カメラ座標をカメラ全体のワールド座標に変換する(ステップS23)。次いで変換したワールド座標について重複範囲を撮影する他のカメラの平面カメラ座標に変換する(ステップS24)。その後変換した平面カメラ座標を他のカメラの魚眼座標に変換する(ステップS25)。次いで1つの重複撮影範囲の一方のカメラの画素の座標変換は全て終了したか否かを判別する(ステップS26)。この判別において、未だ座標変換は全て終了していないと判別したときにはステップS21に戻り、この1つの重複撮影範囲について、一方のカメラの画素を順に選択する処理を行い、以降同様の作動を繰り返す。   Thereafter, the converted planar camera coordinates are converted into world coordinates of the entire camera (step S23). Next, the converted world coordinates are converted into plane camera coordinates of another camera that captures the overlapping range (step S24). Thereafter, the converted planar camera coordinates are converted into fish-eye coordinates of another camera (step S25). Next, it is determined whether or not the coordinate conversion of the pixels of one camera in one overlapping photographing range has been completed (step S26). In this determination, when it is determined that the coordinate conversion has not been completed yet, the process returns to step S21 to perform processing for sequentially selecting the pixels of one camera for this one overlapping photographing range, and thereafter the same operation is repeated.

それに対してステップS26において1つの重複撮影範囲の一方のカメラの画素の座標変換は全て終了したと判別した時には、ステップS27において、4隅の重複撮影範囲の座標変換テーブルは完成したか否かを判別する。ここで未だ4隅全ての重複撮影範囲の座標変換テーブルの作成が完成していないと判別した時には、ステップS28において、未だ完成していない他の重複撮影範囲を選択し、再びステップS21に戻って前記作動を繰り返す。このような処理を継続し、ステップS27において4隅の重複撮影範囲の座標変換テーブルは完成したと判別した時には、この変換処理を終了する(ステップS29)。   On the other hand, when it is determined in step S26 that the coordinate conversion of the pixels of one camera in one overlapping shooting range has been completed, it is determined in step S27 whether the coordinate conversion table for the overlapping shooting ranges at the four corners has been completed. Determine. Here, when it is determined that the coordinate conversion table for all of the four corners is not yet completed, in step S28, another overlapping photographing range that has not been completed is selected, and the process returns to step S21 again. Repeat the above operation. When such processing is continued and it is determined in step S27 that the coordinate conversion table for the overlapping photographing ranges at the four corners has been completed, this conversion processing ends (step S29).

上記のような座標変換テーブルを用いることにより、重複撮影範囲について、片側の魚眼レンズによる画像でも、他側の魚眼レンズに画像に容易に変換することができ、片方のカメラの不適正画像による白線障害物画像を、他側の適正撮影カメラの白線障害物画像によって容易に補間することができ、見やすい白線障害物画像を容易に且つ明瞭に表示することができる。   By using the coordinate conversion table as described above, an image with one fisheye lens can be easily converted into an image with the other fisheye lens for the overlapping shooting range, and a white line obstacle due to an improper image of one camera The image can be easily interpolated by the white line obstacle image of the appropriate photographing camera on the other side, and the easy-to-see white line obstacle image can be displayed easily and clearly.

また、前記実施例においては、複数のカメラの画像を合成して表示する時の例を示したが、それ以外に例えば図11に車両後方撮影カメラの画像をモニタに表示した時の例を示すように、複数のカメラを備えているものの、前記のような合成した画像を表示しない方がよいと判断し、マルチビューシステムによって単独のカメラの撮影画像を表示することとした時、その時の前記車両後方撮影カメラに前記のような水滴等がついて同図(a)に示すように、不適正画像が生じた場合においても、画像は表示されてはいないが撮影は行っている例えば車両左側撮影カメラの適正作動カメラによる白線障害物画像を利用して、例えば図11(b)に示すように、不適正撮影カメラの重複撮影範囲部分の白線障害物画像を適正撮影カメラの白線障害物画像で補間して表示することもできる。この時の作動も前記と同様にして行うことができるので、その詳細な説明は省略する。   Moreover, in the said Example, although the example at the time of synthesize | combining and displaying the image of a some camera was shown, the example at the time of displaying the image of a vehicle rear-view camera on a monitor other than that is shown, for example in FIG. As described above, although it is determined that it is better not to display the synthesized image as described above even though it has a plurality of cameras, when it is decided to display a photographed image of a single camera by a multi-view system, As shown in FIG. 5A, when the vehicle rear-view camera is attached with water droplets or the like as described above, even when an inappropriate image is generated, the image is not displayed but the image is taken. Using the white line obstacle image obtained by the proper operation camera of the camera, for example, as shown in FIG. 11B, the white line obstacle image in the overlapping photographing range portion of the inappropriate photographing camera is used as the white line obstacle of the proper photographing camera. It is also possible to display the interpolated image. Since the operation at this time can be performed in the same manner as described above, a detailed description thereof will be omitted.

なお、前記実施例において、例えば車両後方撮影カメラの不適正撮影画像について、不適正画像範囲外縁特定手段で不適正撮影範囲の外縁を特定し、この範囲のみについて、重複撮影している例えば車両左側撮影カメラによる白線障害物画像を取り込んで補間する例を示したが、それ以外に、例えば車両後方撮影カメラに不適正撮影画像が存在することが検出された時には、その不定性撮影画像が存在する部分を含む適宜の大きさの矩形の範囲を不適正画像範囲の外縁として設定することもできる。更に、不適正画像が存在する重複撮影範囲全体を外縁として特定して、適正撮影カメラによる白線障害物画像に補間処理するように設定することもできる。その際には、不適正撮影範囲が狭い時のような場合には不要な補間処理を行う必要はあるが、前記のような外縁の特定や、特定した外縁のみの白線障害物画像データの選択等、複雑な処理を行う必要が無くなる利点がある。   In the above-described embodiment, for example, for an improper image captured by the vehicle rear-facing camera, the improper image range outer edge specifying means identifies the outer edge of the improper image capturing range, and only this range is duplicated. Although an example of capturing and interpolating a white line obstacle image by a photographing camera has been shown, other than that, for example, when it is detected that an improper photographed image is present in a vehicle rear photograph camera, the undefined photographed image exists. It is also possible to set a rectangular range of an appropriate size including the portion as the outer edge of the inappropriate image range. Furthermore, it is possible to specify the entire overlapping photographing range where the improper image exists as an outer edge, and to perform interpolation processing on the white line obstacle image by the proper photographing camera. In such a case, it is necessary to perform unnecessary interpolation processing when the improper shooting range is narrow, but it is necessary to specify the outer edge as described above, or to select white line obstacle image data only for the specified outer edge. There is an advantage that it is not necessary to perform complicated processing.

1 不適正カメラ白線障害物画像補間処理部
2 不適正カメラ特定処理部
3 複数カメラ重複撮影部分検出部
4 複数カメラ重複撮影部分画像相違検出部
5 カメラ撮影画像相違検出部
6 白線障害物画像相違検出部
7 不適正撮影カメラ確認特定部
8 水滴付着画像検出部
9 不適正カメラ重複撮影範囲内不適正画像範囲外縁特定部
10 重複撮影表示分割線内
11 重複カメラ撮影範囲内
12 表示範囲内
13 不適正画像範囲外縁内
14 不適正画像範囲外縁の適正撮影カメラ画像外縁への変換処理部
15 座標変換テーブル
16 適正撮影カメラ範囲白線障害物画像の不適正撮影画像範囲への補間処理部
17 白線障害物強調表示部
18 白線障害物検出部
19 カメラ撮影画像表示処理部
20 カメラ撮影画像取込部
32 車両左側撮影カメラ
33 車両右側撮影カメラ
34 車両後方撮影カメラ
35 車両前方撮影カメラ
DESCRIPTION OF SYMBOLS 1 Inappropriate camera white line obstacle image interpolation process part 2 Inappropriate camera specific process part 3 Multiple camera duplication imaging | photography part detection part 4 Multiple camera duplication photography partial image difference detection part 5 Camera photography image difference detection part 6 White line obstacle image difference detection Unit 7 Inappropriate shooting camera confirmation specifying unit 8 Water droplet adhesion image detection unit 9 Inappropriate camera overlapping imaging range inappropriate image range outer edge specifying unit 10 Duplicate shooting display dividing line 11 Overlapping camera shooting range 12 Within display range 13 Inappropriate Inner image range outer edge 14 Conversion processing unit 15 for inappropriate image range outer edge to appropriate shooting camera image outer edge Coordinate conversion table 16 Interpolation processing unit 17 for appropriate shooting camera range white line obstacle image to inappropriate shooting image range White line obstacle enhancement Display unit 18 White line obstacle detection unit 19 Camera shot image display processing unit 20 Camera shot image capture unit 32 Vehicle left side shooting camera 33 Vehicle right side shooting Camera 34 Vehicle rear camera 35 Vehicle front camera

Claims (6)

互いに重複して撮影する範囲が存在するように設定した複数のカメラと、
前記各カメラの撮影画像によって各々白線或いは障害物を検出する白線障害物検出手段と、
前記白線障害物検出手段によって検出した白線或いは障害物を強調表示する白線障害物強調表示手段とを備えた複数カメラ画像使用車外表示装置において、
複数のカメラが互いに重複して撮影している重複撮影部分を検出する複数カメラ重複撮影検出手段と、
前記複数カメラ重複撮影検出手段で検出した重複撮影部分において、レンズに水滴が付着した画像を検出する水滴付着画像検出手段と、
前記水滴付着画像検出手段でレンズに水滴が付着した画像を検出した時、水滴が付着した画像を出力しているカメラを不適正撮影カメラとして特定する不適正撮影カメラ特定手段と、
前記不適正撮影カメラ特定手段で不適正撮影カメラとして特定したカメラの撮影画像から、水滴付着画像部分を含む所定範囲の外縁を特定する不適正画像範囲外縁特定手段と、
前記不適正画像範囲外縁特定手段で特定した外縁の不適正撮影カメラの座標を、同重複撮影範囲を撮影する適正撮影カメラの画像の座標に変換する変換処理手段と、
前記変換処理手段で変換した適正撮影カメラの画像の外縁内における、前記白線障害物強調表示手段で得られた白線障害物画像データを取り込み、この画像データを不適正カメラ撮影画像データに変換して、不適正カメラ撮影画像範囲部分の白線障害物画像データに補間する不適正撮影カメラへのデータ補間処理手段とを備えたことを特徴とする複数カメラ画像使用車外表示装置。
A plurality of cameras set so that there is a range to shoot overlapping each other,
White line obstacle detection means for detecting a white line or an obstacle by the captured image of each camera;
In a multi-camera image using vehicle outside display device comprising a white line detected by the white line obstacle detection means or a white line obstacle highlighting display means for highlighting an obstacle,
A multi-camera overlapping shooting detection means for detecting an overlapping shooting portion where a plurality of cameras are shooting overlapping each other;
In the overlapping photographing part detected by the multiple camera overlapping photographing detecting means, a water droplet adhesion image detecting means for detecting an image in which water droplets adhere to the lens,
An improper shooting camera specifying means for specifying, as an improper shooting camera, a camera that outputs an image with water droplets attached thereto when an image in which water droplets are attached to the lens is detected by the water drop adhesion image detecting means;
An improper image range outer edge specifying means for specifying an outer edge of a predetermined range including a water droplet adhesion image portion from a photographed image of the camera specified as an improper shooting camera by the improper shooting camera specifying means;
Conversion processing means for converting the coordinates of the improper photographing camera of the outer edge specified by the improper image range outer edge specifying means into the coordinates of the image of the appropriate photographing camera for photographing the same overlapping photographing range;
The white line obstacle image data obtained by the white line obstacle highlighting means within the outer edge of the image of the appropriate photographing camera converted by the conversion processing means is captured, and the image data is converted into inappropriate camera photographing image data. A multi-camera image in-vehicle display device comprising: a data interpolation processing means for an improper photographing camera that interpolates white line obstacle image data in an improper camera photographed image range portion.
前記水滴付着画像検出手段では、撮影画像中に所定以上の輝度変化が存在する時、水滴が付着した画像であると判別することを特徴とする請求項1記載の複数カメラ画像使用車外表示装置。 The multi-camera image using vehicle exterior display device according to claim 1, wherein the water droplet adhesion image detecting means determines that the image is a water droplet adhesion image when a luminance change of a predetermined level or more is present in the photographed image. 互いに重複して撮影する範囲が存在するように設定した複数のカメラと、
前記各カメラの撮影画像によって各々白線或いは障害物を検出する白線障害物検出手段と、
前記白線障害物検出手段によって検出した白線或いは障害物を強調表示する白線障害物強調表示手段とを備えた複数カメラ画像使用車外表示装置において、
複数のカメラが互いに重複して撮影している重複撮影部分を検出する複数カメラ重複撮影検出手段と、
前記複数カメラ重複撮影検出手段で検出した重複撮影部分において、前記白線障害物検出手段で検出した各カメラの白線或いは障害物の画像を比較し、互いの画像の相違を検出する白線障害物画像相違検出手段と、
前記白線障害物画像相違検出手段で互いの画像が所定以上異なっていることを検出し、
一方のカメラの白線障害物画像が一連の適正画像であって、他側のカメラが前記一連の適正画像の内少なくとも一部が欠如、或いは所定以上変形していることを検出した時、当該他側のカメラを不適正撮影カメラとして特定する不適正撮影カメラ特定手段と、
前記不適正撮影カメラ特定手段で不適正撮影カメラとして特定したカメラの撮影画像から、白線障害物画像が欠如し、或いは変形している画像部分を含む所定範囲の外縁を特定する不適正画像範囲外縁特定手段と、
前記不適正画像範囲外縁特定手段で特定した外縁の不適正撮影カメラの座標を、同重複撮影範囲を撮影する適正撮影カメラの画像の座標に変換する変換処理手段と、
前記変換処理手段で変換した適正撮影カメラの画像の外縁内における前記白線障害物強調表示手段で得られた白線障害物画像データを取り込み、この画像データを不適正カメラ撮影画像データに変換して、不適正カメラ撮影画像範囲部分の白線障害物画像データに補間する不適正撮影カメラへのデータ補間処理手段とを備えたことを特徴とする複数カメラ画像使用車外表示装置。
A plurality of cameras set so that there is a range to shoot overlapping each other,
White line obstacle detection means for detecting a white line or an obstacle by the captured image of each camera;
In a multi-camera image using vehicle outside display device comprising a white line detected by the white line obstacle detection means or a white line obstacle highlighting display means for highlighting an obstacle,
A multi-camera overlapping shooting detection means for detecting an overlapping shooting portion where a plurality of cameras are shooting overlapping each other;
The white line obstacle image difference for comparing the white line or obstacle image of each camera detected by the white line obstacle detection means and detecting the difference between the images in the overlapping photographing part detected by the multiple camera overlapping photographing detection means Detection means;
The white line obstacle image difference detection means detects that the images are different from each other by a predetermined amount,
When the white line obstacle image of one camera is a series of proper images and the other camera detects that at least a part of the series of proper images is missing or deformed more than a predetermined value, Improper shooting camera specifying means for specifying the camera on the side as an inappropriate shooting camera;
An improper image range outer edge that identifies an outer edge of a predetermined range including an image portion in which a white line obstacle image is missing or deformed from a photographed image of the camera identified as an improper photographing camera by the inappropriate photographing camera specifying means Specific means,
Conversion processing means for converting the coordinates of the improper photographing camera of the outer edge specified by the improper image range outer edge specifying means into the coordinates of the image of the appropriate photographing camera for photographing the same overlapping photographing range;
The white line obstacle image data obtained by the white line obstacle emphasis display means in the outer edge of the image of the appropriate photographing camera converted by the conversion processing means is captured, and this image data is converted into inappropriate camera photographing image data, A multi-camera image in-vehicle display device comprising data interpolation processing means for an improper photographing camera that interpolates white line obstacle image data in an improper camera photographing image range portion.
互いに重複して撮影する範囲が存在するように設定した複数のカメラと、
前記各カメラの撮影画像によって各々白線或いは障害物を検出する白線障害物検出手段と、
前記白線障害物検出手段によって検出した白線或いは障害物を強調表示する白線障害物強調表示手段とを備えた複数カメラ画像使用車外表示装置において、
複数のカメラが互いに重複して撮影している重複撮影部分を検出する複数カメラ重複撮影検出手段と、
前記複数カメラ重複撮影検出手段で検出した重複撮影部分において、各カメラの撮影画像を比較し、互いの画像の相違を検出するカメラ撮影画像相違検出手段と、
前記カメラ撮影画像相違検出手段で互いの画像が所定以上異なっていることを検出したとき、いずれのカメラが不適正な画像を出力しているカメラかを特定する不適正撮影カメラ特定手段と、
前記不適正撮影カメラ特定手段で不適正撮影カメラとして特定したカメラの撮影画像から、不適正画像部分を含む所定範囲の外縁を特定する不適正画像範囲外縁特定手段と、
前記不適正画像範囲外縁特定手段で特定した外縁の不適正撮影カメラの座標を、同重複撮影範囲を撮影する適正撮影カメラの画像の座標に変換する変換処理手段と、
前記変換処理手段で変換した適正撮影カメラの画像の外縁内における前記白線障害物強調表示手段で得られた白線障害物画像データを取り込み、この画像データを不適正カメラ撮影画像データに変換して、不適正カメラ撮影画像範囲部分の白線障害物画像データに補間する不適正撮影カメラへのデータ補間処理手段とを備えたことを特徴とする複数カメラ画像使用車外表示装置。
A plurality of cameras set so that there is a range to shoot overlapping each other,
White line obstacle detection means for detecting a white line or an obstacle by the captured image of each camera;
In a multi-camera image using vehicle outside display device comprising a white line detected by the white line obstacle detection means or a white line obstacle highlighting display means for highlighting an obstacle,
A multi-camera overlapping shooting detection means for detecting an overlapping shooting portion where a plurality of cameras are shooting overlapping each other;
In the overlapping shooting part detected by the multiple camera overlapping shooting detection means, the camera shot image difference detection means for comparing the shot images of each camera and detecting the difference between the images,
An improper photographing camera specifying means for identifying which camera is outputting an improper image when it is detected by the camera photographed image difference detecting means that the images are different from each other by a predetermined amount;
An improper image range outer edge specifying means for specifying an outer edge of a predetermined range including an improper image portion from a captured image of the camera specified as an improper shooting camera by the improper shooting camera specifying means;
Conversion processing means for converting the coordinates of the improper photographing camera of the outer edge specified by the improper image range outer edge specifying means into the coordinates of the image of the appropriate photographing camera for photographing the same overlapping photographing range;
The white line obstacle image data obtained by the white line obstacle emphasis display means in the outer edge of the image of the appropriate photographing camera converted by the conversion processing means is captured, and this image data is converted into inappropriate camera photographing image data, A multi-camera image in-vehicle display device comprising data interpolation processing means for an improper photographing camera that interpolates white line obstacle image data in an improper camera photographing image range portion.
前記不適正撮影カメラ特定手段は、互いのカメラの撮影画像が所定以上異なっていることを検出した後、いずれのカメラの画像が不適正であるかの確認を行った後に不適正カメラの特定を行うことを特徴とする請求項4記載の複数カメラ画像使用車外表示装置。 The improper photographing camera specifying means identifies an improper camera after confirming which of the images of the cameras is improper after detecting that the captured images of the cameras are different from each other by a predetermined amount or more. The multi-camera image using vehicle exterior display device according to claim 4, wherein the display is performed. 前記変換処理手段が、複数カメラの重複撮影範囲について、予め作成された一方のカメラの魚眼座標を他側のカメラの魚眼座標に直接変換する座標変換テーブルを用いることを特徴とする請求項1〜5のいずれか一つに記載の複数カメラ画像使用車外表示装置。
The conversion processing unit uses a coordinate conversion table that directly converts the fisheye coordinates of one camera created in advance into the fisheye coordinates of the other camera for the overlapping shooting ranges of a plurality of cameras. The multi-camera image use outside vehicle display apparatus as described in any one of 1-5.
JP2010086603A 2010-04-02 2010-04-02 In-vehicle display device using multiple camera images Active JP5546321B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010086603A JP5546321B2 (en) 2010-04-02 2010-04-02 In-vehicle display device using multiple camera images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010086603A JP5546321B2 (en) 2010-04-02 2010-04-02 In-vehicle display device using multiple camera images

Publications (2)

Publication Number Publication Date
JP2011223075A JP2011223075A (en) 2011-11-04
JP5546321B2 true JP5546321B2 (en) 2014-07-09

Family

ID=45039538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010086603A Active JP5546321B2 (en) 2010-04-02 2010-04-02 In-vehicle display device using multiple camera images

Country Status (1)

Country Link
JP (1) JP5546321B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557030B2 (en) 2018-06-07 2023-01-17 Sony Semiconductor Solutions Corporation Device, method, and system for displaying a combined image representing a position of sensor having defect and a vehicle

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2879110B1 (en) * 2012-07-27 2019-09-04 Nissan Motor Co., Ltd Three-dimensional object detection device, and three-dimensional object detection method
KR20140039831A (en) * 2012-09-25 2014-04-02 한양대학교 산학협력단 Side mirror system for automobile and method for providing side rear image of automobile thereof
JP6011935B2 (en) * 2012-12-10 2016-10-25 アルパイン株式会社 In-vehicle camera system and camera lens abnormality detection method
JP6349637B2 (en) * 2013-07-11 2018-07-04 株式会社デンソー Image synthesizer for vehicles
WO2015008566A1 (en) 2013-07-18 2015-01-22 クラリオン株式会社 Vehicle-mounted device
JP6330383B2 (en) 2014-03-12 2018-05-30 株式会社デンソー Composite image generation apparatus and composite image generation program
JP6314655B2 (en) * 2014-05-23 2018-04-25 日産自動車株式会社 Marking line detection device, marking line detection method
JP2016053748A (en) * 2014-09-02 2016-04-14 株式会社デンソー Driving support device and driving support method
JP2018107573A (en) * 2016-12-26 2018-07-05 株式会社東海理化電機製作所 Visual confirmation device for vehicle
CN109040613B (en) * 2017-06-09 2022-03-25 株式会社爱信 Image processing apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4459144B2 (en) * 2005-09-26 2010-04-28 アルパイン株式会社 Image display device for vehicle
JP4248570B2 (en) * 2006-08-21 2009-04-02 三洋電機株式会社 Image processing apparatus and visibility support apparatus and method
WO2009057410A1 (en) * 2007-10-30 2009-05-07 Nec Corporation Road marking image processing device, road marking image processing method, and program
JP5166111B2 (en) * 2008-05-15 2013-03-21 アルパイン株式会社 Vehicle periphery monitoring device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557030B2 (en) 2018-06-07 2023-01-17 Sony Semiconductor Solutions Corporation Device, method, and system for displaying a combined image representing a position of sensor having defect and a vehicle

Also Published As

Publication number Publication date
JP2011223075A (en) 2011-11-04

Similar Documents

Publication Publication Date Title
JP5546321B2 (en) In-vehicle display device using multiple camera images
JP5347257B2 (en) Vehicle periphery monitoring device and video display method
US10899277B2 (en) Vehicular vision system with reduced distortion display
JP4707109B2 (en) Multi-camera image processing method and apparatus
US11472338B2 (en) Method for displaying reduced distortion video images via a vehicular vision system
JP5132249B2 (en) In-vehicle imaging device
US11535154B2 (en) Method for calibrating a vehicular vision system
JP5213063B2 (en) Vehicle display device and display method
JP5953824B2 (en) Vehicle rear view support apparatus and vehicle rear view support method
US20150109444A1 (en) Vision-based object sensing and highlighting in vehicle image display systems
JP2008227646A (en) Obstacle detector
JP5090126B2 (en) In-vehicle imaging device
JP4948115B2 (en) Rear view device
JP2008060873A (en) Camera with two or more angles of view
JP2006131213A (en) Rear view recognition device for motorcycle
JP2012166705A (en) Foreign matter attachment determining system for on-vehicle camera lens
JP4600999B2 (en) Vehicle perimeter monitoring device
JP2007110572A (en) Multiple camera image synthesized display device
JP4614852B2 (en) Vehicle surrounding monitoring method and apparatus
JP2019001325A (en) On-vehicle imaging device
JP2011028634A (en) Image display device for vehicle
JP2005182305A (en) Vehicle travel support device
CN107000641A (en) Camera system and method at least one vehicle environmental area visualization of the vehicle environmental that makes vehicle
JP6555240B2 (en) Vehicle shooting display device and vehicle shooting display program
JP2005217482A (en) Vehicle periphery monitoring method and apparatus thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130319

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140318

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140513

R150 Certificate of patent or registration of utility model

Ref document number: 5546321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150