JP2009038558A - Correction apparatus for monitor camera - Google Patents

Correction apparatus for monitor camera Download PDF

Info

Publication number
JP2009038558A
JP2009038558A JP2007200648A JP2007200648A JP2009038558A JP 2009038558 A JP2009038558 A JP 2009038558A JP 2007200648 A JP2007200648 A JP 2007200648A JP 2007200648 A JP2007200648 A JP 2007200648A JP 2009038558 A JP2009038558 A JP 2009038558A
Authority
JP
Japan
Prior art keywords
specific part
image
camera
comparison pattern
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007200648A
Other languages
Japanese (ja)
Other versions
JP4906628B2 (en
Inventor
Taketo Shiina
岳人 椎名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2007200648A priority Critical patent/JP4906628B2/en
Publication of JP2009038558A publication Critical patent/JP2009038558A/en
Application granted granted Critical
Publication of JP4906628B2 publication Critical patent/JP4906628B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To appropriately correctthe positional deviation of image caused by a change in a camera mounting position. <P>SOLUTION: A comparison pattern calculating section 6 extracts a first specific portion and a second specific portion on a captured image outputted from a camera 2 and calculates a comparison pattern by modeling a positional relation between these extracted first and second specific portions. An image correcting section 7 performs deviation correction upon the captured image in such a way that a position of the comparison pattern on the image matches a position of a reference pattern, on the image, read from a reference pattern storage section 5. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両に搭載される監視カメラの補正装置に係り、特に、カメラ取付位置の変化に起因した画像のずれ補正に関する。   The present invention relates to a correction device for a monitoring camera mounted on a vehicle, and more particularly, to correction of an image shift caused by a change in a camera mounting position.

特許文献1には、車載カメラの取付位置の変化を検出する環境認識装置が開示されている。この位置変化を検出するために、位置的な基準を与えるマーク(1点)がカメラの撮像エリア内に設置される。マークとしては、例えば、自車両のフロントガラスに固着されたマークや車検シール、自車両のボンネットに取り付けられたマスコット、或いは、天井の一部等が用いられる。そして、カメラから出力された撮像画像からマークの位置が逐次抽出され、本来の位置とのずれ量が算出される。このずれ量に応じた画像補正を行うことで、走行時の振動、物体との接触、経時的変化等に起因したカメラ取付位置の変化を補正することができる。   Patent Document 1 discloses an environment recognition device that detects a change in the mounting position of an in-vehicle camera. In order to detect this change in position, a mark (one point) that gives a positional reference is placed in the imaging area of the camera. As the mark, for example, a mark fixed on the windshield of the host vehicle, a vehicle inspection seal, a mascot attached to the hood of the host vehicle, or a part of the ceiling is used. Then, the position of the mark is sequentially extracted from the captured image output from the camera, and the amount of deviation from the original position is calculated. By performing image correction according to the amount of deviation, it is possible to correct changes in the camera mounting position caused by vibration during travel, contact with objects, changes over time, and the like.

特開平8−16999号公報JP-A-8-16999

しかしながら、上述した特許文献1では、単一の部位(1点)のみに着目して、カメラ取付位置の変化を検出しているので、検出精度に問題があった。   However, in Patent Document 1 described above, since a change in the camera mounting position is detected focusing on only a single part (one point), there is a problem in detection accuracy.

そこで、本発明は、カメラ取付位置の変化に起因した画像の位置ずれを適切に補正することである。   Therefore, the present invention is to appropriately correct the image misalignment caused by the change in the camera mounting position.

かかる課題を解決するために、本発明は、カメラと、基準パターン記憶部と、比較パターン算出部と、画像補正部とを有し、車両に搭載される監視用カメラの補正装置を提供する。カメラは、監視エリアを撮像することによって撮像画像を出力する。基準パターン記憶部は、基準パターンを記憶する。この基準パターンは、撮像画像のずれ補正を行う際の位置的基準を与えるためのものであり、監視エリア内における既知の位置に存在する第1の特定部位と、監視エリア内における第1の特定部位とは異なる既知の位置に存在する第2の特定部位との初期的な位置的関係をモデル化したものである。比較パターン算出部は、カメラから出力された撮像画像上において、第1の特定部位と第2の特定部位とを抽出し、これらの抽出された第1の特定部位と第2の特定部位との位置的関係をモデル化した比較パターンを算出する。画像補正部は、比較パターンの画像上の位置が基準パターンの画像上の位置と一致するように、撮像画像のずれ補正を行う。第1の特定部位は車両における直線状の部位とし、第1の特定部位の直線成分を抽出することによって、比較パターンを算出する。   In order to solve such a problem, the present invention provides a correction device for a monitoring camera that includes a camera, a reference pattern storage unit, a comparison pattern calculation unit, and an image correction unit and is mounted on a vehicle. The camera outputs a captured image by capturing an image of the monitoring area. The reference pattern storage unit stores a reference pattern. The reference pattern is used to provide a positional reference when correcting the deviation of the captured image. The first specific part existing at a known position in the monitoring area and the first specific part in the monitoring area. This is a model of an initial positional relationship with a second specific part existing at a known position different from the part. The comparison pattern calculation unit extracts the first specific part and the second specific part on the captured image output from the camera, and calculates the extracted first specific part and second specific part. A comparison pattern modeling the positional relationship is calculated. The image correction unit corrects the deviation of the captured image so that the position of the comparison pattern on the image matches the position of the reference pattern on the image. The first specific part is a linear part in the vehicle, and the comparison pattern is calculated by extracting the linear component of the first specific part.

ここで、本発明において、比較パターン算出部は、第1の特定部位および第2の特定部位のそれぞれの直線成分を抽出する直線成分抽出部と、第1の特定部位の直線成分と、第2の特定部位の直線成分との交点を算出する交点算出部とを有し、比較パターンとして、交点の画像上の位置を用いることが好ましい。   Here, in the present invention, the comparison pattern calculation unit includes a linear component extraction unit that extracts the linear components of the first specific part and the second specific part, a linear component of the first specific part, It is preferable to use an intersection calculation unit that calculates an intersection with the linear component of the specific part, and use the position of the intersection on the image as the comparison pattern.

また、本発明において、比較パターン算出部は、第2の特定部位の形状成分を特徴点として抽出する形状成分抽出部を有し、比較パターンとして、直線成分と特徴点との位置的関係を用いることが好ましい。   In the present invention, the comparison pattern calculation unit includes a shape component extraction unit that extracts the shape component of the second specific part as a feature point, and uses a positional relationship between the linear component and the feature point as the comparison pattern. It is preferable.

さらに、本発明において、カメラは、監視エリアとしての自車両後側方を撮像し、第1の特定部位は、撮像画像の撮像範囲に位置する自車両の少なくともサイドピラーまたはサイドドアウェザーストリップであることが好ましい。   Further, in the present invention, the camera images the rear side of the host vehicle as the monitoring area, and the first specific part is at least a side pillar or a side door weather strip of the host vehicle located in the imaging range of the captured image. It is preferable.

本発明によれば、監視エリア内の既知の位置に存在する複数の特定部位間の位置的関係に基づいて、カメラ取付位置の経時的変化を検出する。したがって、1点のみで検出を行う場合と比較して、カメラ取付位置の変化を精度よく検出でき、これに起因した画像の位置ずれを適切に補正することが可能になる。また、特に直線状の部位を第1の特定部位とした場合、撮像画像上における直線成分の抽出と、それを用いた比較パターンの算出とを簡単な演算で高速に行うことができる。   According to the present invention, the temporal change in the camera mounting position is detected based on the positional relationship between a plurality of specific parts existing at known positions in the monitoring area. Therefore, as compared with the case where detection is performed with only one point, it is possible to accurately detect a change in the camera mounting position, and it is possible to appropriately correct a positional deviation of an image due to this. In particular, when a linear part is used as the first specific part, it is possible to perform extraction of a linear component on a captured image and calculation of a comparison pattern using the straight part at high speed with a simple calculation.

具体的なシステム構成の説明に先立ち、本実施形態に係る画像ずれの補正手法について、図1から図4に示す撮像画像を例に説明する。これらの撮像画像は、車両のドアミラー近傍に取り付けられた監視カメラによって撮像されたものであり、これに基づいて、監視エリア(自車両の後側方)内に存在する対象物(他車両等)の監視が行われる。このような車載カメラでは、車両走行時の振動、物体との接触、経時的変化等に起因して、その取付位置(取付角度も含む)が本来の取付位置からずれてしまった場合、監視エリアを適切に撮像することができなくなってしまう。これを解消するためには、監視エリア内に位置的な基準を与える何らかの”基準部位”を設定して、この”基準部位”に対するずれ量を逐次モニタリングし、このずれ量に応じたキャリブレーション(補正)を行えばよい。以下、”基準部位”に関する条件について検討する。   Prior to description of a specific system configuration, an image shift correction method according to the present embodiment will be described using the captured images shown in FIGS. 1 to 4 as examples. These captured images are captured by a surveillance camera attached in the vicinity of the door mirror of the vehicle, and based on this, an object (another vehicle, etc.) existing in the surveillance area (the rear side of the host vehicle). Is monitored. In such an in-vehicle camera, if the mounting position (including the mounting angle) deviates from the original mounting position due to vibration during vehicle travel, contact with an object, changes over time, etc., the monitoring area Cannot be captured properly. In order to solve this problem, a certain “reference part” that gives a positional reference in the monitoring area is set, the deviation amount with respect to this “reference part” is successively monitored, and the calibration according to this deviation amount ( Correction) may be performed. In the following, the conditions related to the “reference part” will be examined.

図1は、場所による影響を説明するための撮像画像を示す図であり、同図(a)は車両走行時の撮像画像、同図(b)は車両停車時の撮像画像をそれぞれ示す。カメラを自車両に設置した場合、場所がどのように変わっても自車両の側面は常時見え、かつ、その側面は監視エリア内の既知の位置に存在する。したがって、基準部位としては、場所の影響を受け難く既知の位置に存在するもの、具体的には、監視エリア内に映し出される自車両の部位を用いることが好ましい。   1A and 1B are diagrams illustrating captured images for explaining the influence of a location, where FIG. 1A illustrates a captured image when the vehicle is traveling, and FIG. 1B illustrates a captured image when the vehicle is stopped. When the camera is installed in the host vehicle, the side surface of the host vehicle is always visible no matter how the location changes, and the side surface exists at a known position in the monitoring area. Therefore, it is preferable to use a reference part that is not easily affected by the place and exists at a known position, specifically, a part of the host vehicle that is displayed in the monitoring area.

図2は、輝度による影響を説明するための撮像画像を示す図である。同図(a)に示すように、サイドウインドAには後側方の他車両が映り込んでしまっており、サイドウインドBおよび湾曲した側面ボディCには白線が映り込んでしまっている。このような映り込みは、環境に応じて様々に変化する。したがって、輝度の影響を受け易いこれらの特定部位A,B,Cを基準部位とすることは好ましくない。一方、同図(b)に示すように、ルーフウェザーストリップDおよびサイドドアウェザーストリップEには、このような映り込みが生じておらず、輝度の影響を受け難い部分といえる。したがって、これらの特定部位D,Eは、環境が変わってもエッジ成分や形状成分が抽出し易く、基準部位に適している。   FIG. 2 is a diagram illustrating a captured image for explaining the influence of luminance. As shown in FIG. 5A, the other vehicle on the rear side is reflected in the side window A, and a white line is reflected in the side window B and the curved side body C. Such reflection changes variously according to the environment. Therefore, it is not preferable to use these specific parts A, B, and C that are easily affected by luminance as reference parts. On the other hand, as shown in FIG. 5B, such reflection is not generated in the roof weather strip D and the side door weather strip E, and it can be said that the portion is hardly affected by luminance. Therefore, these specific parts D and E are easy to extract edge components and shape components even if the environment changes, and are suitable as reference parts.

図3は、基準部位の設定場所を説明するための撮像画像を示す図である。上述した検討から明らかなように、キャリブレーションを行う際には、輝度の影響を受け難く、周辺とのエッジ(輝度差)が明確なゴム部を基準部位として用いて修正を行う(ゴム部自体には風景の映り込みは殆ど生じない)。このようなゴム部としては、サイドドアウェザーストリップを筆頭に、ルーフウェザーストリップ、Cピラー等を用いることができる他、例示した撮像画像では見えていないが、これ見えていることを条件としてBピラー等を用いてもよい。   FIG. 3 is a diagram illustrating a captured image for explaining a setting location of the reference part. As is clear from the above-mentioned examination, when calibration is performed, correction is performed using a rubber part that is not easily affected by luminance and has a clear edge (luminance difference) as a reference part (the rubber part itself). There is almost no reflection of the scenery). As such a rubber part, a side door weather strip can be used as a head, a roof weather strip, a C pillar, or the like can be used. Etc. may be used.

図4は、サイドドアウェザーストリップEを主体としたマッチングの説明図である。自車両の側面を前後方向に直線状に延在するサイドドアウェザーストリップEは、直線成分の検出確実性が最も高く、輝度による影響も最も受け難い部位なので、基準部位としての適格性に優れている。以下、基準部位として、サイドドアウェザーストリップEを主体とし、これに他の特定部位を組み合わせた手法を3つ例示する。   FIG. 4 is an explanatory diagram of matching mainly using the side door weather strip E. FIG. The side door weatherstrip E that extends straight in the front-rear direction of the side of the vehicle has the highest level of certainty in detecting the linear component and is the least susceptible to luminance, so it has excellent eligibility as a reference part. Yes. In the following, three methods will be exemplified in which the side door weather strip E is mainly used as the reference portion, and another specific portion is combined with the reference portion.

(手法1)ルーフウェザーストリップ(直線成分)との組み合わせ
同図(a)に示すように、サイドドアウェザーストリップEの直線成分を抽出するとともに、ルーフウェザーストリップDの直線成分も抽出する。そして、これらの直線成分の位置的関係をモデル化したパターンを算出する。このパターンとしては、例えば、サイドドアウェザーストリップEの直線成分を含む直線L1と、ルーフウェザーストリップDの直線成分を含む直線L2との交点p1を算出し、この交点p1の位置(画像平面上の座標)を用いることができる。そして、初期的な位置的関係を示す基準パターンを基準に、実際の撮像画像ベースで算出された比較パターンの相対的なずれ量を算出する。比較パターンのずれは、走行時の振動、物体との接触、経時的変化等に起因したカメラ取付位置の変化に起因して生じる。そこで、比較パターンが基準パターンとマッチングするように、換言すれば、画像平面上における両者の位置が一致するように画像補正を行えば、カメラ取付位置の変化を補償することができる。
(Method 1) Combination with Roof Weather Strip (Linear Component) As shown in FIG. 6A, the linear component of the side door weather strip E is extracted and the linear component of the roof weather strip D is also extracted. And the pattern which modeled the positional relationship of these linear components is calculated. As this pattern, for example, an intersection point p1 between the straight line L1 including the linear component of the side door weather strip E and the straight line L2 including the linear component of the roof weather strip D is calculated, and the position of the intersection p1 (on the image plane) Coordinate) can be used. Then, the relative shift amount of the comparison pattern calculated on the basis of the actual captured image is calculated based on the reference pattern indicating the initial positional relationship. The shift of the comparison pattern occurs due to a change in the camera mounting position due to vibration during traveling, contact with an object, change with time, and the like. Therefore, if the image correction is performed so that the comparison pattern matches the reference pattern, in other words, the positions of the two match on the image plane, the change in the camera mounting position can be compensated.

(手法2)Cピラー(直線成分)との組み合わせ
同図(b)に示すように、サイドドアウェザーストリップE、CピラーFの直線成分をそれぞれ抽出する。そして、これらの直線成分の位置的関係をモデル化したパターンを算出する。このパターンとしては、サイドドアウェザーストリップEの直線成分を含む直線L1と、CピラーFの直線成分を含む直線L3との交点p2を算出し、この交点p2の位置(画像平面上の座標)を用いることができる。そして、比較パターンが基準パターンとマッチングするように画像補正を行う。
(Method 2) Combination with C Pillar (Linear Component) As shown in FIG. 5B, the linear components of the side door weather strip E and C pillar F are extracted. And the pattern which modeled the positional relationship of these linear components is calculated. As this pattern, the intersection point p2 of the straight line L1 including the linear component of the side door weather strip E and the straight line L3 including the linear component of the C pillar F is calculated, and the position (coordinate on the image plane) of the intersection p2 is calculated. Can be used. Then, image correction is performed so that the comparison pattern matches the reference pattern.

(手法3)ルーフウェザーストリップ(形状成分)との組み合わせ
同図(c)に示すように、サイドドアウェザーストリップEの直線成分を抽出するとともに、ルーフウェザーストリップDの形状成分を抽出する。そして、これらの成分の位置的関係をモデル化したパターンを算出する。そして、比較パターンが基準パターンとマッチングするように画像補正を行う。
(Method 3) Combination with Roof Weather Strip (Shape Component) As shown in FIG. 5C, the linear component of the side door weather strip E is extracted and the shape component of the roof weather strip D is extracted. And the pattern which modeled the positional relationship of these components is calculated. Then, image correction is performed so that the comparison pattern matches the reference pattern.

(第1の実施形態)
本実施形態では、上述した手法1,2に係る補正手法を実装した補正装置を備え、車両に搭載される監視カメラシステムについて説明する。図5は、本実施形態に係る監視カメラシステム1のブロック構成図である。この監視カメラシステム1は、カメラ2と、画像メモリ3と、監視部4とによって構成された監視系を基本とし、これに、基準パターン記憶部5と、比較パターン算出部6と、画像補正部7とによって構成された補正系を追加した構成を有する。以下、一例として手法1を用いた場合について説明するが、手法2の場合であっても同様である。
(First embodiment)
In the present embodiment, a surveillance camera system that includes a correction device that implements the correction methods according to the above-described methods 1 and 2 and is mounted on a vehicle will be described. FIG. 5 is a block configuration diagram of the surveillance camera system 1 according to the present embodiment. The surveillance camera system 1 is based on a surveillance system constituted by a camera 2, an image memory 3, and a surveillance unit 4, and includes a reference pattern storage unit 5, a comparison pattern calculation unit 6, and an image correction unit. 7 is added to the correction system. Hereinafter, although the case where the method 1 is used as an example will be described, the same applies to the case of the method 2.

カメラ2は、車両のドアミラー近傍に取り付けられている。このカメラ2は、監視エリアである自車両後側方の状況を所定の間隔で繰り返し撮像し、撮像画像を逐次出力する。カメラ2から出力された撮像画像は、画像メモリ3に逐次記憶される。監視部4は、画像メモリ3に記憶された1フレーム分の撮像画像を逐次読み出し、周知の画像認識手法を用いて、撮像画像から監視エリア内の対象物(例えば、他車両や歩行者)を所定の間隔で認識・監視する。そして、監視部4は、必要に応じて、ドライバへの注意や警告を促す。   The camera 2 is attached near the door mirror of the vehicle. The camera 2 repeatedly captures the situation behind the host vehicle, which is a monitoring area, at predetermined intervals, and sequentially outputs captured images. The captured image output from the camera 2 is sequentially stored in the image memory 3. The monitoring unit 4 sequentially reads the captured image for one frame stored in the image memory 3, and uses a known image recognition technique to detect an object (for example, another vehicle or pedestrian) in the monitoring area from the captured image. Recognize and monitor at predetermined intervals. Then, the monitoring unit 4 prompts the driver for attention and warning as necessary.

一方、基準パターン記憶部5は、撮像画像のずれ補正を行う際の位置的基準を与える基準パターンを記憶する。この基準パターンは、監視エリア内における既知の位置に存在する複数の特定部位(位置的に互いに異なる)に関する初期的な位置的関係をモデル化したものである。具体的には、特定部位(基準部位)としてサイドドアウェザーストリップEおよびルーフウェザーストリップDを用いる場合、図4(a)に示したように、2本の直線L1,L2の交点p1に関する画像平面上の”本来”の位置(すなわち初期値としての座標)が基準モデルとして用いられる。ここでいう"本来”とは、走行時の振動、物体との接触、経時的変化等に起因したカメラ取付位置の変化が生じていない初期状態を意味する。   On the other hand, the reference pattern storage unit 5 stores a reference pattern that gives a positional reference when correcting a deviation of a captured image. This reference pattern models an initial positional relationship regarding a plurality of specific parts (positionally different from each other) existing at known positions in the monitoring area. Specifically, when the side door weather strip E and the roof weather strip D are used as the specific part (reference part), as shown in FIG. 4A, the image plane relating to the intersection point p1 of the two straight lines L1, L2. The upper “original” position (ie, the coordinates as the initial value) is used as the reference model. The “original” as used herein means an initial state in which the camera mounting position does not change due to vibration during travel, contact with an object, change with time, and the like.

比較パターン算出部6は、画像メモリ3から1フレーム分の撮像画像を逐次読み出し、これに基づいた比較パターンをフレーム毎に算出する。この比較パターンは、上述した複数の特定部位に関する撮像画像平面上の位置的関係をモデル化したものであ。具体的には、まず、グレースケール変換部6aは、1フレーム分の撮像画像をグレースケール画像(モノクロ画像)に変換する。つぎに、二値化部6bは、グレースケール画像を構成する多階調の輝度値を所定のしきい値で二値化して、二値化画像を生成する。そして、エッジ強調部6cは、サイドドアウェザーストリップEを抽出するための前処理として、二値化部6bによって生成された二値化画像のエッジを強調する処理を行う。このようなエッジ強調処理としては、例えばソーベルフィルタを用いることができる。周知のように、ソーベルフィルタとは、ノイズを抑えながらエッジを抽出する方法における平滑化の際、中央に重みを付けた平均化を行うフィルタである。一方、パターン認識部6dは、ルーフウェザーストリップDを抽出するための前処理として、二値化部6bによって生成された二値化画像から(白→黒→白)の変化パターンを有する画像領域を抽出する。図4(a)のルーフウェザーストリップD近傍の画像領域では、ルーフウェザーストリップD自体は黒、その上部に映し出された空は白、その下部に映し出されたサイドウインドウは光の反射によって白であり、(白→黒→白)であることがわかる。   The comparison pattern calculation unit 6 sequentially reads the captured image for one frame from the image memory 3, and calculates a comparison pattern based on this for each frame. This comparison pattern models the positional relationship on the captured image plane with respect to the plurality of specific parts described above. Specifically, first, the grayscale conversion unit 6a converts the captured image for one frame into a grayscale image (monochrome image). Next, the binarization unit 6b binarizes the multi-tone luminance values constituting the gray scale image with a predetermined threshold value, and generates a binarized image. Then, the edge enhancement unit 6c performs a process of enhancing the edge of the binarized image generated by the binarization unit 6b as preprocessing for extracting the side door weather strip E. As such edge enhancement processing, for example, a Sobel filter can be used. As is well known, a Sobel filter is a filter that performs averaging with a weight added to the center during smoothing in a method of extracting edges while suppressing noise. On the other hand, the pattern recognition unit 6d performs, as preprocessing for extracting the roof weather strip D, an image area having a change pattern (white → black → white) from the binarized image generated by the binarization unit 6b. Extract. In the image area near the roof weather strip D in FIG. 4A, the roof weather strip D itself is black, the sky projected above it is white, and the side window projected below it is white due to light reflection. (White → black → white).

直線成分抽出部6eは、エッジ強調部6cから出力されたエッジ強調画像に基づいて、サイドドアウェザーストリップEの直線成分を抽出するとともに、パターン認識部6dから出力されたパターン認識済画面に基づいて、ルーフウェザーストリップDの直線成分を抽出する。そして、交点算出部6fは、図4(a)に示すように、サイドドアウェザーストリップEの直線成分を含む直線L'1を算出するとともに、ルーフウェザーストリップDの直線成分を含む直線L'2を算出する。そして、交点算出部6fは、これらの直線L'1,L'2の交点p'1の座標を算出する。撮像画像ベースで算出された交点p'1の座標は、比較パターンとして画像補正部7に出力される。   The straight line component extracting unit 6e extracts the straight line component of the side door weather strip E based on the edge enhanced image output from the edge enhancing unit 6c, and based on the pattern recognized screen output from the pattern recognizing unit 6d. Then, the linear component of the roof weather strip D is extracted. Then, the intersection calculation unit 6f calculates a straight line L′ 1 including the linear component of the side door weather strip E and a straight line L′ 2 including the linear component of the roof weather strip D as shown in FIG. Is calculated. Then, the intersection calculation unit 6f calculates the coordinates of the intersection p′1 of these straight lines L′ 1 and L′ 2. The coordinates of the intersection point p′1 calculated on the captured image basis are output to the image correction unit 7 as a comparison pattern.

画像補正部7は、比較パターンの画像上の位置が基準パターンの画像上の位置と一致するように、撮像画像のずれ補正を行う。具体的には、基準パターンとしての交点p1の座標が基準パターン記憶部5から読み出され、これが比較パターンとしての交点p'1の座標と比較される。ここで、図4(a)に示した交点p'1が同図に示した交点p1と一致する場合には、カメラ2は本来の取付位置のままであることを意味する(補正不要)。これに対して、交点p'1が交点p1からずれている場合には、カメラ2の取付位置に変化が生じていることを意味する(補正要)。この場合、2つの交点p1,p'1間のベクトル分を相殺するように、撮像画像のずれ補正を行う。ずれ補正の具体的手法としては、例えば、カメラ2の姿勢を機械的に修正する手法や、画像メモリ3のアドレス変換を行う方法等が挙げられる。   The image correction unit 7 corrects the deviation of the captured image so that the position of the comparison pattern on the image matches the position of the reference pattern on the image. Specifically, the coordinates of the intersection point p1 as a reference pattern are read from the reference pattern storage unit 5, and are compared with the coordinates of the intersection point p′1 as a comparison pattern. Here, if the intersection point p′1 shown in FIG. 4A coincides with the intersection point p1 shown in FIG. 4, it means that the camera 2 remains in its original mounting position (no correction is required). On the other hand, when the intersection point p′1 is deviated from the intersection point p1, it means that the mounting position of the camera 2 has changed (correction required). In this case, the shift of the captured image is corrected so as to cancel out the vector between the two intersections p1 and p′1. Specific examples of the correction method include a method of mechanically correcting the posture of the camera 2 and a method of performing address conversion of the image memory 3.

このように、本実施形態によれば、監視エリア内の既知の位置に存在する複数の特定部位間の位置的関係に基づいて、カメラ取付位置の経時的変化を検出する。したがって、これを1点のみで行う場合と比較して、カメラ取付位置の経時的変化を精度よく検出でき、これに起因した画像ずれを適切に補正することが可能になる。   As described above, according to the present embodiment, the temporal change in the camera mounting position is detected based on the positional relationship between a plurality of specific parts existing at known positions in the monitoring area. Therefore, as compared with the case where this is performed with only one point, it is possible to accurately detect the temporal change in the camera mounting position, and it is possible to appropriately correct the image shift caused by this.

また、本実施形態によれば、直線状の部位を特定部位(基準部位)として用いる場合、ハフ変換等による撮像画像上の直線成分の抽出と、それを用いた比較パターンの算出とを簡単な演算で高速に行うことができる。特に、自車両後側方を撮像・監視する場合、自車両側面に存在するサイドドアウェザーストリップ等を基準部位として用いれば、車両に特別なマークを設置しなくても基準部位を精度よく抽出することができる。   Further, according to the present embodiment, when a linear part is used as a specific part (reference part), it is easy to extract a linear component on a captured image by Hough transformation or the like and to calculate a comparison pattern using the linear part. It can be performed at high speed by calculation. In particular, when imaging and monitoring the rear side of the host vehicle, if a side door weather strip or the like existing on the side of the host vehicle is used as the reference site, the reference site can be accurately extracted without installing a special mark on the vehicle. be able to.

(第2の実施形態)
本実施形態では、上述した手法3に係る補正手法を実装した補正装置を備えた監視システムについて説明する。図6は、本実施形態に係る監視システム1のブロック構成図である。図5の構成との相違点は、比較パターン算出部6の一部にあるので、同一のブロックについては同一の符号を付して、ここでの説明を省略する。
(Second Embodiment)
In the present embodiment, a monitoring system including a correction apparatus that implements the correction method according to the method 3 described above will be described. FIG. 6 is a block configuration diagram of the monitoring system 1 according to the present embodiment. Since there is a difference from the configuration of FIG. 5 in a part of the comparison pattern calculation unit 6, the same blocks are denoted by the same reference numerals and description thereof is omitted here.

サイドドアウェザーストリップEに関しては、第1の実施形態と同様、エッジ強調部6cおよび直線成分抽出部6eによる処理を経て、サイドドアウェザーストリップEの直線成分が抽出される。一方、ルーフウェザーストリップDに関しては、形状成分抽出部6gによって、その形状成分の抽出およびグループ化によって、特徴点が算出される。そして、サイドドアウェザーストリップEの直線成分と、ルーフウェザーストリップDの特徴点との位置的関係が比較パターンとして出力される。   As for the side door weather strip E, the linear component of the side door weather strip E is extracted through the processing by the edge enhancement unit 6c and the linear component extraction unit 6e as in the first embodiment. On the other hand, for the roof weather strip D, the feature points are calculated by the shape component extraction unit 6g by extracting and grouping the shape components. Then, the positional relationship between the linear component of the side door weather strip E and the feature point of the roof weather strip D is output as a comparison pattern.

画像補正部7は、比較パターンと、基準パターン記憶部5から読み出された基準パターンとに基づいて、撮像画像のずれ補正を行う。本実施形態における基準パターンは、サイドドアウェザーストリップEの直線成分の本来の位置と、ルーフウェザーストリップDの特徴点の本来の位置とをモデル化したものである。   The image correction unit 7 corrects the deviation of the captured image based on the comparison pattern and the reference pattern read from the reference pattern storage unit 5. The reference pattern in the present embodiment is a model of the original position of the linear component of the side door weather strip E and the original position of the feature point of the roof weather strip D.

本実施形態によれば、複数の基準部位に関する直線成分の抽出と形状成分の抽出との併用によって、上述した第1の実施形態と同様の効果を奏する。   According to the present embodiment, the same effect as that of the first embodiment described above can be obtained by the combined use of extraction of linear components and extraction of shape components regarding a plurality of reference parts.

なお、上述した各実施形態では、自車両の後側方を監視する監視カメラシステムを例に説明したが、本発明はこれに限定されるものではなく、これ以外の各種監視カメラシステム(車載用であるか否かを問わない)に適用することが可能である。   In each of the above-described embodiments, the monitoring camera system that monitors the rear side of the host vehicle has been described as an example. However, the present invention is not limited to this, and other various monitoring camera systems (for in-vehicle use) Whether or not).

場所による影響を説明するための撮像画像を示す図The figure which shows the picked-up image for explaining the influence by a place 輝度による影響を説明するための撮像画像を示す図The figure which shows the captured image for demonstrating the influence by a brightness | luminance 基準部位の設定場所を説明するための撮像画像を示す図The figure which shows the captured image for demonstrating the setting place of a reference | standard site | part サイドドアウェザーストリップを主体としたマッチングの説明図Illustration of matching mainly on side door weatherstrip 第1の実施形態に係る監視カメラシステムのブロック構成図The block block diagram of the surveillance camera system which concerns on 1st Embodiment 第2の実施形態に係る監視カメラシステムのブロック構成図Block diagram of a surveillance camera system according to the second embodiment

符号の説明Explanation of symbols

1 監視カメラシステム
2 カメラ
3 画像メモリ
4 監視部
5 基準パターン記憶部
6 比較パターン算出部
6a グレースケール変換部
6b 二値化部
6c エッジ強調部
6d パターン認識部
6e 直線成分抽出部
6f 交点算出部
6g 形状成分抽出部
7 画像補正部
DESCRIPTION OF SYMBOLS 1 Surveillance camera system 2 Camera 3 Image memory 4 Monitoring part 5 Reference pattern memory | storage part 6 Comparison pattern calculation part 6a Gray scale conversion part 6b Binarization part 6c Edge emphasis part 6d Pattern recognition part 6e Linear component extraction part 6f Intersection calculation part 6g Shape component extraction unit 7 Image correction unit

Claims (4)

車両に搭載される監視用カメラの補正装置において、
監視エリアを撮像することによって撮像画像を出力するカメラと、
前記撮像画像のずれ補正を行う際の位置的基準を与えるために、前記監視エリア内における既知の位置に存在する第1の特定部位と、前記監視エリア内における前記第1の特定部位とは異なる既知の位置に存在する前記第2の特定部位との初期的な位置的関係をモデル化した基準パターンを記憶する基準パターン記憶部と、
前記カメラから出力された前記撮像画像上において、前記第1の特定部位と前記第2の特定部位とを抽出し、当該抽出された第1の特定部位と第2の特定部位との位置的関係をモデル化した比較パターンを算出する比較パターン算出部と、
前記比較パターンの画像上の位置が前記基準パターンの画像上の位置と一致するように、前記撮像画像のずれ補正を行う画像補正部とを有し、
前記第1の特定部位は車両における直線状の部位とし、前記第1の特定部位の直線成分を抽出することによって、前記比較パターンを算出することを特徴とする監視用カメラの補正装置。
In a correction device for a surveillance camera mounted on a vehicle,
A camera that outputs a captured image by imaging a monitoring area;
In order to provide a positional reference for correcting the deviation of the captured image, the first specific part existing at a known position in the monitoring area is different from the first specific part in the monitoring area. A reference pattern storage unit that stores a reference pattern that models an initial positional relationship with the second specific part existing at a known position;
On the captured image output from the camera, the first specific part and the second specific part are extracted, and the positional relationship between the extracted first specific part and the second specific part A comparison pattern calculation unit that calculates a comparison pattern that models
An image correction unit that corrects a deviation of the captured image so that a position on the image of the comparison pattern matches a position on the image of the reference pattern;
The monitoring camera correction apparatus according to claim 1, wherein the first specific part is a linear part in the vehicle, and the comparison pattern is calculated by extracting a linear component of the first specific part.
前記比較パターン算出部は、
前記第1の特定部位および前記第2の特定部位のそれぞれの直線成分を抽出する直線成分抽出部と、
前記第1の特定部位の直線成分と、前記第2の特定部位の直線成分との交点を算出する交点算出部とを有し、
前記比較パターンとして、前記交点の画像上の位置を用いることを特徴とする請求項1に記載された監視カメラの補正装置。
The comparison pattern calculation unit
A linear component extraction unit that extracts linear components of each of the first specific part and the second specific part;
An intersection calculation unit for calculating an intersection of the linear component of the first specific part and the linear component of the second specific part;
The monitoring camera correction apparatus according to claim 1, wherein a position of the intersection point on the image is used as the comparison pattern.
前記比較パターン算出部は、前記第2の特定部位の形状成分を特徴点として抽出する形状成分抽出部を有し、
前記比較パターンとして、前記直線成分と前記特徴点との位置的関係を用いることを特徴とする請求項1に記載された監視カメラの補正装置。
The comparison pattern calculation unit includes a shape component extraction unit that extracts a shape component of the second specific part as a feature point;
The monitoring camera correction apparatus according to claim 1, wherein a positional relationship between the linear component and the feature point is used as the comparison pattern.
前記カメラは、前記監視エリアとしての自車両後側方を撮像し、
前記第1の特定部位は、前記撮像画像の撮像範囲に位置する自車両の少なくともサイドピラーまたはサイドドアウェザーストリップであることを特徴とする請求項1から3のいずれかに記載された監視カメラの補正装置。
The camera images the rear side of the host vehicle as the monitoring area,
4. The surveillance camera according to claim 1, wherein the first specific part is at least a side pillar or a side door weather strip of the host vehicle located in an imaging range of the captured image. 5. Correction device.
JP2007200648A 2007-08-01 2007-08-01 Surveillance camera correction device Active JP4906628B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007200648A JP4906628B2 (en) 2007-08-01 2007-08-01 Surveillance camera correction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007200648A JP4906628B2 (en) 2007-08-01 2007-08-01 Surveillance camera correction device

Publications (2)

Publication Number Publication Date
JP2009038558A true JP2009038558A (en) 2009-02-19
JP4906628B2 JP4906628B2 (en) 2012-03-28

Family

ID=40440098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007200648A Active JP4906628B2 (en) 2007-08-01 2007-08-01 Surveillance camera correction device

Country Status (1)

Country Link
JP (1) JP4906628B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183294A (en) * 2009-02-04 2010-08-19 Aisin Seiki Co Ltd Image processing apparatus, method of processing image, and program
JP2015201680A (en) * 2014-04-04 2015-11-12 富士通株式会社 Image display apparatus, image display method, and image display program
JP2016140010A (en) * 2015-01-29 2016-08-04 三菱電機株式会社 Vehicle image processing apparatus and vehicle image processing method
WO2018042976A1 (en) * 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 Image generation device, image generation method, recording medium, and image display system
US9922423B2 (en) 2012-07-12 2018-03-20 Nec Corporation Image angle variation detection device, image angle variation detection method and image angle variation detection program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816999A (en) * 1994-07-05 1996-01-19 Hitachi Ltd Environment recognition device using image pickup device, vehicle provided with image pickup device, image pickup device for vehicle, environment recognition device for vehicle using image pickup device, and method for recognizing environment from image pickup data
JP2001233139A (en) * 2000-02-25 2001-08-28 Fuji Heavy Ind Ltd Fitting structure and displacement adjusting device for on-vehicle preview sensor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816999A (en) * 1994-07-05 1996-01-19 Hitachi Ltd Environment recognition device using image pickup device, vehicle provided with image pickup device, image pickup device for vehicle, environment recognition device for vehicle using image pickup device, and method for recognizing environment from image pickup data
JP2001233139A (en) * 2000-02-25 2001-08-28 Fuji Heavy Ind Ltd Fitting structure and displacement adjusting device for on-vehicle preview sensor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183294A (en) * 2009-02-04 2010-08-19 Aisin Seiki Co Ltd Image processing apparatus, method of processing image, and program
US9922423B2 (en) 2012-07-12 2018-03-20 Nec Corporation Image angle variation detection device, image angle variation detection method and image angle variation detection program
JP2015201680A (en) * 2014-04-04 2015-11-12 富士通株式会社 Image display apparatus, image display method, and image display program
JP2016140010A (en) * 2015-01-29 2016-08-04 三菱電機株式会社 Vehicle image processing apparatus and vehicle image processing method
WO2018042976A1 (en) * 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 Image generation device, image generation method, recording medium, and image display system

Also Published As

Publication number Publication date
JP4906628B2 (en) 2012-03-28

Similar Documents

Publication Publication Date Title
JP6246014B2 (en) Exterior recognition system, vehicle, and camera dirt detection method
US7489805B2 (en) Vehicle surroundings monitoring apparatus
US7969466B2 (en) Vehicle surroundings monitoring apparatus
KR100816377B1 (en) Method and Apparatus for Recognizing Parking Slot Marking by Using Hough Transformation and Parking Assist System Using Same
US7388476B2 (en) Vehicle surroundings monitoring apparatus
WO2012004938A1 (en) Device for monitoring vicinity of vehicle
WO2016129301A1 (en) Entry possibility determining device for vehicle
JP2008165765A (en) Method and apparatus for acquiring vehicle side image, vehicle lamp recognition error detection method and prediction method for safe driving
JP6569280B2 (en) Road marking detection device and road marking detection method
JP4906628B2 (en) Surveillance camera correction device
JP4296287B2 (en) Vehicle recognition device
KR101268282B1 (en) Lane departure warning system in navigation for vehicle and method thereof
JP4767052B2 (en) Optical axis deviation detector
JP2010020710A (en) Device for detecting road side fixed object
KR101276073B1 (en) System and method for detecting distance between forward vehicle using image in navigation for vehicle
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2007018451A (en) Road boundary line detecting device
KR20160126254A (en) System for detecting road area
JP2011103058A (en) Erroneous recognition prevention device
JP2010286995A (en) Image processing system for vehicle
JP2008160635A (en) Camera state detection method
JP5629478B2 (en) Pantograph monitoring device
JP2007310591A (en) Image processor and parking space determination method
JP7043787B2 (en) Object detection system
JP4791086B2 (en) Collision avoidance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100325

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101021

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4906628

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250