JP6086424B2 - In-vehicle image processing device - Google Patents
In-vehicle image processing device Download PDFInfo
- Publication number
- JP6086424B2 JP6086424B2 JP2012258715A JP2012258715A JP6086424B2 JP 6086424 B2 JP6086424 B2 JP 6086424B2 JP 2012258715 A JP2012258715 A JP 2012258715A JP 2012258715 A JP2012258715 A JP 2012258715A JP 6086424 B2 JP6086424 B2 JP 6086424B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- white
- line
- white lines
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、車載画像処理装置に関する。 The present invention relates to an in-vehicle image processing apparatus.
従来、車両の周辺の画像を撮像し、撮像された画像から駐車スペースの枠線を認識する駐車支援装置が知られている(例えば特許文献1)。 2. Description of the Related Art Conventionally, a parking assistance device that captures an image around a vehicle and recognizes a frame line of a parking space from the captured image is known (for example, Patent Document 1).
特許文献1には、単なる直線状の白線ではなく、U字二重線形状を有する白線が存在する場合に、白線の形状を正しく検出することができないという問題があった。 Patent Document 1 has a problem in that when a white line having a U-shaped double line shape is present instead of a simple white line, the shape of the white line cannot be detected correctly.
請求項1に記載の車載画像処理装置は、路面を含む車両の周辺を撮影した撮影画像に基づく処理対象画像を出力する処理対象画像出力部と、前記処理対象画像出力部により出力された前記処理対象画像から、前記路面に存在する複数の白線の各々を近似直線として認識する白線認識部と、前記白線認識部により認識された前記複数の白線から、U字二重線形状を構成する2つの白線を特定し、前記特定した2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点の一方の座標を前記処理対象画像に基づいて再計算することにより、前記端点の一方の座標を補正する補正部と、前記補正部の前記補正によって前記特定された2つの白線が前記補正前に比べてより平行に近くなる場合には前記補正の結果を採用し、前記特定された2つの白線が前記補正前に比べてより平行に近くならない場合には前記補正の結果を破棄する補正結果取捨部と、を備える。
The in-vehicle image processing apparatus according to claim 1, wherein the processing target image output unit outputs a processing target image based on a captured image obtained by capturing the periphery of the vehicle including the road surface, and the processing output by the processing target image output unit. from the target image, and recognizing the white line recognition unit each of a plurality of white lines existing in the road surface as an approximate straight line, from the white line detection unit recognized the plurality of white lines, the the two constituting the U-shaped double line shape A white line is specified, and for each of the two specified white lines, one of the two end points included in the approximate straight line of the white line is recalculated based on the processing target image, thereby obtaining one of the end points. When the two white lines specified by the correction unit for correcting coordinates and the correction by the correction unit are closer to parallel than before the correction, the correction result is adopted, and the specified And if the two white lines is not more parallel close than before the correction and a discarding correction result sifting unit results of the correction.
本発明によれば、U字二重線形状を有する白線を精度よく検出することができる。 According to the present invention, a white line having a U-shaped double line shape can be detected with high accuracy.
(第1の実施の形態)
図1は、本発明の一実施形態による車載画像処理装置100の構成を示すブロック図である。図1に示す車載画像処理装置100は、車両に搭載されて使用されるものであり、映像取得部110、画像合成部120、処理画像選択部130、白線認識部140、二重線補正部150、駐車枠認識部160および出力部170を備える。また、映像取得部110には、後方カメラ200が接続されている。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an in-vehicle
図2は、車両と後方カメラ200との関係を模式的に示す図であり、図2(a)には車両10をその上方から見た様子を、図2(b)には車両10をその側方から見た様子を、それぞれ示している。後方カメラ200は、例えば車両10のバンパーやナンバープレート近傍に設置され、車両10の後方の所定範囲20を撮影する電子式カメラである。後方カメラ200は、車両10の後方の路面を含む広範囲を撮影可能に構成されていることが望ましい。後方カメラ200により、所定周期(例えば30分の1秒)ごとに車両の後方が撮影される。
FIG. 2 is a diagram schematically showing the relationship between the vehicle and the
映像取得部110は、後方カメラ200により所定周期ごとに撮影される車両後方の映像を、画像データ(撮影画像データ)として取得する。画像合成部120は、周知のアルゴリズムに則った画像処理を実行することで、映像取得部110により取得された画像データから、車両の真上から見た平面画像(俯瞰画像)データを合成する。
The
後方カメラ200は所定周期ごとに車両の後方を撮影するので、画像合成部120は所定周期ごとに俯瞰画像データを合成する。処理画像選択部130は、画像合成部120により合成されるそれら複数の俯瞰画像データから、駐車枠認識処理の対象とする俯瞰画像データを選択して白線認識部140に引き渡す。俯瞰画像データの選択方法としては種々の方法が存在する。例えば、車両乗員が不図示の操作部材に対し所定の操作を行ったときにだけ俯瞰画像データを白線認識部140に引き渡すようにすることもできるし、所定数の俯瞰画像データの一部を間引いて白線認識部140に引き渡すようにしてもよい。あるいは、車両の現在地と地図データとを照合し、車両が駐車場に存在する場合にのみ白線認識部140に俯瞰画像データを引き渡すようにすることもできる。すなわち、処理画像選択部130は、車両の周辺を撮影した撮影画像に基づく処理対象画像を出力するものであって、その処理対象画像は、画像合成部120により撮影画像データから変換された俯瞰画像データである。
Since the
白線認識部140は、処理画像選択部130により引き渡された俯瞰画像データから、路面に存在する白線を認識する。なお、本発明の説明において、路面に引かれた駐車枠を構成する線を便宜的に「白線」と称するが、そのような線の色は必ずしも白でなくてもよい。つまり、本発明の説明における「白線」とは、白色ではない線を含む概念である。二重線補正部150は、白線認識部140による白線の認識結果に対して、後述する二重線補正処理を適用する。駐車枠認識部160は、二重線補正部150による補正後の白線認識結果に基づいて、駐車枠を認識する。
The white
出力部170は、演算処理部による駐車枠の認識結果に基づいて、車両周囲の駐車枠に対する駐車枠情報を出力する。例えば、車両に対する駐車枠の方向や駐車枠までの距離を示す情報を駐車枠情報として出力する。この駐車枠情報は、車載画像処理装置100と接続されている上位の車両制御装置(不図示)へと出力され、車両の駐車支援や走行制御等に利用される。たとえば、周囲に駐車場が存在する状況であることを自動で認識し、例えば、駐車場環境である場合には、モニタに自車周囲の俯瞰映像を自動で切り替えて表示することができる。これにより、公道において駐車場であると誤検知する状況を抑制し、適切なタイミングでユーザへの提示映像を切り替えることができるようになる。
The
また、出力部170は、演算処理部による駐車枠の認識結果に基づいて、自車からの相対的な位置情報として駐車枠情報を出力する。たとえば、駐車枠の左右枠線の端点座標、駐車枠線の角度および切片といった、実環境中における駐車枠の位置情報を出力する。この駐車枠情報は、車載画像処理装置100と接続されている上位の車両制御装置(不図示)へと出力され、車両の駐車支援や走行制御等に利用される。たとえば、自車から駐車枠までの相対的な位置姿勢に基づいて、駐車枠までの走行経路を計算し、ドライバーにブレーキやシフトポジション変更のタイミングや、舵角の操作量を通知することによって、駐車支援を行うことが可能となる。これにより、車庫入れ等の運転操作に不慣れなドライバーにとっても、短時間で駐車動作が完了できるようになる。
Moreover, the
さらには、自車から駐車枠までの相対的な位置姿勢に基づいて、駐車枠までの走行経路を計算し、自動で車両の前進・後退・旋回の制御量を計算し、その計算結果に従って車両運動を自動制御してもよい。これにより、車庫入れ等の運転操作に不慣れなドライバーにとっても、安全かつ正確に駐車動作を完了できるようになる。 Furthermore, the travel route to the parking frame is calculated based on the relative position and orientation from the own vehicle to the parking frame, and the control amount of the forward / backward / turning of the vehicle is automatically calculated. The movement may be automatically controlled. As a result, a parking operation can be completed safely and accurately even for a driver unfamiliar with driving operations such as garage entry.
以下、車載画像処理装置100を構成する各部の動作について、順に説明する。
Hereinafter, the operation of each unit constituting the in-vehicle
(画像合成部120の動作の説明)
図3は、画像合成部120による画像合成処理を説明するための図である。以下の説明では、図3(a)の俯瞰図に示すように、車両10の後方の路面に、駐車枠を構成する2つの白線30,31が存在する状態を仮定する。白線30は、U字型の二重線になっており、隣接する2つの駐車枠を区切っている。白線31も同様である。
(Description of operation of image composition unit 120)
FIG. 3 is a diagram for explaining image composition processing by the
このとき映像取得部110は、後方カメラ200から、図3(b)に示す映像40を取得する。画像合成部120は、この映像40に周知の画像処理を適用することにより、図3(c)に示す俯瞰画像データ41を合成する。
At this time, the
(白線認識部140の動作の説明)
白線認識部140は、画像合成部120により合成された俯瞰画像データのうち、処理画像選択部130により選択された俯瞰画像データに対して、以下に説明する白線認識処理を実行する。
(Description of the operation of the white line recognition unit 140)
The white
図4は、白線認識処理を説明するための図である。以下、図4(a)に示す俯瞰画像データ42が処理画像選択部130から引き渡されたものとして説明を行う。この俯瞰画像データ42には、駐車枠を構成する白線50,51に加えて、路面に存在する他の標示52や、撮影画面に映り込んだゴミや路面に存在する物体等であるノイズ53が含まれている。
FIG. 4 is a diagram for explaining white line recognition processing. In the following description, it is assumed that the
白線認識処理において、白線認識部140はまず、俯瞰画像データ42の各水平ラインについて横方向のエッジ抽出を行う。一例として、図4(a)の破線L1で示したラインにおけるエッジ抽出を説明する。このラインを構成する各画素の輝度値60を図4(b)に示す。これら各画素の輝度値60の微分値を演算すると図4(c)のようになる。白線認識部140は、微分値61の極大位置および極小位置に、立ち上がりエッジおよび立ち下がりエッジが存在すると判断する。
In the white line recognition process, the white
例えば図4(c)であれば、白線認識部140は位置62,64に立ち上がりエッジが、位置63,65に立ち下がりエッジが存在すると判断する。以上のエッジ抽出を図4(a)の全水平ラインに対して行った結果を図4(d)に示す。図4(d)に示すエッジ抽出結果43は、8つのエッジ集合66〜73を含んでおり、エッジ集合66,68,70,72は立ち上がりエッジ、エッジ集合67,69,71,73は立ち下がりエッジである。
For example, in the case of FIG. 4C, the white
次に白線認識部140は、図4(d)のエッジ抽出結果43において、立ち上がりエッジと立ち下がりエッジとのペアが成り立つエッジのみを残し、それ以外のエッジを以降の処理から除外する。これは、白線が存在する場合、立ち上がりエッジと立ち下がりエッジが必ずペアになって出現すると考えられるためである。また、立ち上がりエッジと立ち下がりエッジとの間隔が所定の下限値(例えば3cm)より小さいペア、および、所定の上限値(例えば30cm)より大きいペアについても、以降の処理から除外する。所定の上限値および下限値は、駐車枠として使用される白線の太さに基づいて決定される。
Next, in the edge extraction result 43 in FIG. 4D, the white
例えば図4(d)において、エッジ66はエッジ67とペアが成立するので、これら2つのエッジは残される。同様に、エッジ68とエッジ69とのペア、エッジ70とエッジ71とのペアも残される。他方、エッジ72とエッジ73とのペアは、両者の間隔が近すぎるため、以降の処理から除外される。
For example, in FIG. 4D, since the edge 66 is paired with the edge 67, these two edges remain. Similarly, a pair of
次に白線認識部140は、残された各エッジのうち、縦方向に連続するエッジをグループ化(グルーピング)する。そして、各グループのうち、少なくとも一方のエッジの長さが所定のしきい値より短いペアについて、以降の処理から除外する。これは、駐車枠として用いられる白線は一定以上の長さを有しており、極端に短いエッジは白線ではないと考えられるためである。例えば図4(d)において、立ち上がりエッジ70と立ち下がりエッジ71とのペアは、いずれも短すぎるので、以降の処理から除外される。従って、以降の処理では、図4(d)に図示した各エッジのうち、エッジ66から成るグループ、エッジ67から成るグループ、エッジ68から成るグループ、エッジ69から成るグループ、の4つのグループのみが処理対象となる。
Next, the white
最後に白線認識部140は、残された各グループについて、そのグループに含まれるエッジの上下端を決定し、上下端を結ぶ直線でエッジを近似する。図4(d)において、残されたグループに含まれるエッジを直線により近似した様子を図4(e)に示す。エッジ66を近似した直線が直線74であり、エッジ67を近似した直線が直線75である。同様に、エッジ68を近似した直線が直線76であり、エッジ69を近似した直線が直線77である。互いにペアとなっている直線74と直線75との間の空間78、および、直線76と直線77との間の空間79に、白線が存在するものと考えられる。
Finally, the white
図5は、白線認識部140が実行する白線認識処理のフローチャートである。まずステップS10において白線認識部140は、俯瞰画像データの全水平ラインに対して横方向のエッジフィルタを適用することで、エッジ抽出を行う。そして、ステップS20において、輝度値の立ち上がりおよび立ち下がりのピーク位置を抽出する。
FIG. 5 is a flowchart of white line recognition processing executed by the white
続くステップS30において、白線認識部140は、立ち上がりエッジと立ち下がりエッジとのペアが成立しないエッジ、および、ペアは成立するがその間隔が所定範囲外であるエッジ(間隔が大きすぎるか小さすぎるエッジ)を以降の処理から除外し、他のエッジのみを残す。次のステップS40では、連続して存在する各エッジをグルーピングし、その長さが所定のしきい値以上のグループのみを残す。そして、ステップS50において、立ち上がりエッジおよび立ち下がりエッジの上下端の座標を抽出し、各エッジを上端と下端を結ぶ直線で近似する。
In subsequent step S30, the white
白線認識部140は、以上で説明した白線認識処理を実行することにより、俯瞰画像データに存在する白線を認識する。ペアの間隔が狭すぎるエッジや、長さが短すぎるエッジは除外されるので、例えば図4(a)に示した白線以外の標示52やノイズ53が白線認識部140により白線として認識されることはない。
The white
(二重線補正部150の動作の説明)
図6(a)は、路面の俯瞰画像データと、その俯瞰画像データから認識された白線の近似直線との一例を示す図である。図6(a)に示すように、U字型の二重線となっている白線32を上記の白線認識部140によって認識させた場合、U字型の端部(曲線部)が近似直線の上端または下端として認識される。従って、図6(a)に示すように、近似直線の一端がU字型の底部(曲線部)に存在すると認識されてしまい、二重線を構成する2本の白線の近似直線はU字型の底部(曲線部)に向かって先細りになる。その結果、図6(b)に示すように、ペアとなっている2つの近似直線の間の空間84,85の形状は、実際の白線と大きく乖離してしまう。
(Description of operation of double line correction unit 150)
FIG. 6A is a diagram illustrating an example of a bird's-eye view image data of a road surface and an approximate straight line of a white line recognized from the bird's-eye view image data. As shown in FIG. 6A, when the
そこで、本実施形態では、白線認識部140による白線認識の結果(近似直線の位置)を、二重線補正部150が、より実際の白線に近い近似直線に補正する。以下、二重線補正部150による補正処理について説明する。
Therefore, in the present embodiment, the double
二重線補正部150は、まず白線認識部140により認識された複数の白線から、U字型の二重線を構成すると考えられる2つの白線を選択する。2つの白線の上端同士や下端同士が大きく離れている場合、その2つの白線はU字型の二重線を構成するものではないと考えられるため、補正処理を行わない。以下の説明では、補正処理の対象として、図6(b)に示した2つの白線(近似直線80,81により構成される白線と、近似直線82,83により構成される白線)が選択された状態を想定する。
First, the double
補正処理において二重線補正部150は、まず、2つの白線の立ち上がりエッジに相当する近似直線同士(近似直線80と近似直線82)で、狭い方の端点を選択し、その端点から他方の端点に向けて所定長だけY座標をシフトさせたラインにおいて、横方向にエッジを探索する。
In the correction process, the double
図6(c)において、近似直線80と近似直線82とを見ると、上端の間隔よりも下端の間隔の方が狭いので、下端が存在する水平ラインL2から、所定長HだけY座標を上端に向かってシフトさせた水平ラインL3において、横方向に立ち上がりエッジを探索する。その結果、近似直線80側では、位置86において立ち上がりエッジが見つかり、近似直線82側では、位置89において立ち上がりエッジが見つかる。
In FIG. 6C, when the approximate
二重線補正部150は、ここで見つかったエッジ(位置86,89)と近似直線80,82の上端とを通る直線を考え、この直線が水平ラインL2と交差する位置87,90を求める。そして、ここで得られた位置87,90と近似直線80,82の上端とを結ぶ新たな直線88,91が、近似直線80,82よりも平行であれば、その位置87,90で近似直線80,82の下端を補正する。
The double
つまり、直線88および直線91が、近似直線80および近似直線82よりも平行であれば、近似直線80を直線88で置き換え、近似直線82を直線91で置き換えることにより、近似直線80,82を補正する。図6(c)の例では、直線88および直線91が近似直線80および近似直線82よりも平行であるので、二重線補正部150は近似直線80を直線88で置き換えると共に、近似直線82を直線91で置き換える。従って、2つの白線を構成する最終的な直線は、図6(d)に示す直線88および直線91になる。
That is, if the
二重線補正部150は以上で述べた処理を、2つの白線の立ち下がりエッジに相当する近似直線同士(近似直線81と近似直線83)についても繰り返す。このとき、水平ラインL3において探索するのは、立ち上がりエッジではなく立ち下がりエッジである。以上が補正処理である。
The double
図7は、二重線補正部150により実行される補正処理のフローチャートである。まずステップS100において、二重線補正部150は白線認識部140により認識された全ての白線から、任意の2つの白線を選択する。そして、ステップS110において、選択した2つの白線の上端の距離(間隔)が所定値以下か否かを判定する。間隔が所定値以下であった場合にはステップS120に進み、そうでなかった場合はステップS170に進む。
FIG. 7 is a flowchart of the correction process executed by the double
ステップS120では同様に、選択した2つの白線の下端の距離(間隔)が所定値以下か否かを判定する。間隔が所定値以下であった場合にはステップS130に進み、そうでなかった場合はステップS170に進む。ステップS130では、上端と下端のうち、間隔が狭い方の端点から他方の端点に向かって所定の長さだけY座標をシフトさせたライン上で、横方向にエッジを探索する。そして、ステップS140において、探索されたエッジを通る直線に基づいて、上端または下端の位置を再計算する。 Similarly, in step S120, it is determined whether the distance (interval) between the lower ends of the two selected white lines is equal to or less than a predetermined value. If the interval is equal to or smaller than the predetermined value, the process proceeds to step S130, and if not, the process proceeds to step S170. In step S130, an edge is searched for in the horizontal direction on a line in which the Y coordinate is shifted by a predetermined length from the end point having the smaller interval between the upper end and the lower end to the other end point. In step S140, the position of the upper end or the lower end is recalculated based on the straight line passing through the searched edge.
続くステップS150で二重線補正部150は、ステップS140で再計算した2つの白線が再計算前よりも平行になるか否かを判定する。再計算の結果、再計算前よりも平行になった場合にはステップS160に進み、そうでなかった場合はステップS170に進む。ステップS160では、ステップS140で再計算された座標で、ステップS100で選択した2つの白線の上端または下端を補正する(置き換える)。
In subsequent step S150, the double
ステップS170では、ステップS110以降の処理を全ての白線の組み合わせに対して実行したか否かを判定する。そして、まだ処理していない2つの白線の組み合わせが存在する場合にはステップS100に戻り、全ての白線の組み合わせについて処理が完了していた場合には図7の処理を終了する。つまり二重線補正部150は、ステップS110〜ステップS160の処理を、白線認識部140により認識された複数の白線のうち2つの白線を選択する全ての組み合わせについて実行する。
In step S170, it is determined whether or not the processing in step S110 and subsequent steps has been executed for all white line combinations. If there is a combination of two white lines that have not yet been processed, the process returns to step S100, and if the processing has been completed for all the combinations of white lines, the process of FIG. 7 ends. That is, the double
(駐車枠認識部160の動作の説明)
図8は、駐車枠認識部160の動作を説明するための図である。駐車枠認識部160は、駐車枠を、その左右に存在する2つの白線を特定することにより認識する。例えば図8(a)に示すように、U字型の二重線により駐車枠同士が区切られた駐車場であれば、駐車枠認識部160は、U字型の二重線に含まれる1つの白線34,35(駐車枠に直接隣接する方の白線)を左右それぞれで特定することにより駐車枠96を認識する。他方、図8(b)に示すように、単一の白線36,37により駐車枠同士が区切られた駐車場であれば、駐車枠認識部160は、各々の白線36,37を特定することにより駐車枠97を認識する。すなわち、本実施形態の駐車枠認識部160は、図8(a)に示す駐車場と、図8(b)に示す駐車場と、のどちらについても、駐車枠を認識することが可能である。
(Description of operation of parking frame recognition unit 160)
FIG. 8 is a diagram for explaining the operation of the parking
駐車枠認識部160は、二重線補正部150による補正処理のように、認識できた全ての白線から2つの白線を全ての組み合わせについて選択し、その2つの白線が駐車枠に特有の関係を満たしているかを判定することにより、駐車枠を認識する。以下、図8(c)に示す2つの白線92,93が選択されているものとして、駐車枠認識部160による駐車枠認識処理を説明する。
The parking
駐車枠認識部160は、まず2つの白線92,93が車両10に対して成す角度θ1,θ2を算出する。そして、θ1とθ2との差が所定のしきい値(例えば3度)を上回っている場合には、その2つの白線92,93が駐車枠を構成しないと判断する。これは、一般に駐車枠を構成する2つの白線は平行になっているためである。
The parking
次に駐車枠認識部160は、2つの白線92,93の間隔W1が所定範囲(例えば2.4m〜2.7m)から外れているか否かを判定する。そして、間隔W1がこの範囲から外れていた場合には、その2つの白線92,93が駐車枠を構成しないと判断する。この所定範囲は、一般的な駐車場のサイズに基づいて決定される。つまりこの判定は、2つの白線の間隔が、駐車場として期待されるサイズを逸脱していないことを確認するためのものである。
Next, the parking
次に駐車枠認識部160は、2つの白線92,93の下端のズレ量W2が所定値(例えば30cm)を上回っているか否かを判定する。そして、ズレ量W2がこの所定値を上回っていた場合には、その2つの白線92,93が駐車枠を構成しないと判断する。駐車枠を構成する白線であれば、その端点は揃っていることが期待される。従って、ズレ量W2が大きすぎる場合、その2つの白線92,93は駐車枠を構成していないと考えられる。
Next, the parking
駐車枠認識部160は、以上の判定を全てクリアした場合、2つの白線92,93が駐車枠を構成していると判断する。そして、図8(d)に示すように、その2つの白線92,93により囲まれた領域94を、駐車枠として認識する。
When all the above determinations are cleared, the parking
図9は、駐車枠認識部160が実行する駐車枠認識処理のフローチャートである。まずステップS200において、駐車枠認識部160は白線認識部140により認識された全ての白線(二重線補正部150により補正された白線を含む)から、任意の2つの白線を選択する。そしてステップS210において、その2つの白線の角度差が所定値Thθmax以下か否かを判定する。角度差がThθmaxであった場合にはステップS220に進み、そうでなかった場合はステップS250に進む。
FIG. 9 is a flowchart of parking frame recognition processing executed by the parking
次のステップS220では、その2つの白線の間隔が所定範囲ThWmin〜ThWmaxに収まるか、すなわち、間隔がThWmin以上で且つThWmax以下であるかを判定する。2つの白線の間隔が所定範囲に収まる場合にはステップS230に進み、そうでなかった場合はステップS250に進む。 In the next step S220, it is determined whether the interval between the two white lines falls within a predetermined range ThWmin to ThWmax, that is, whether the interval is greater than or equal to ThWmin and less than or equal to ThWmax. If the distance between the two white lines falls within the predetermined range, the process proceeds to step S230, and if not, the process proceeds to step S250.
続くステップS230において、駐車枠認識部160は、2つの白線の下端のズレ量が所定値ThBmax以下か否かを判定する。ズレ量がThBmax以下であった場合にはステップS240に進み、そうでなかった場合にはステップS250に進む。ステップS240では、2つの白線の上下端の座標、すなわち駐車枠の四隅の座標を駐車枠として登録する。出力部170は、ここで登録された四隅の座標に基づいて、前述の駐車枠情報を出力する。
In subsequent step S230, the parking
ステップS250では、ステップS210以降の処理を全ての白線の組み合わせに対して実行したか否かを判定する。そして、まだ処理していない2つの白線の組み合わせが存在する場合にはステップS200に戻り、全ての白線の組み合わせについて処理が完了していた場合には図9の処理を終了する。つまり駐車枠認識部160は、ステップS210〜ステップS240の処理を、白線認識部140により認識された複数の白線のうち2つの白線を選択する全ての組み合わせについて実行する。
In step S250, it is determined whether or not the processing after step S210 has been executed for all combinations of white lines. If there are two white line combinations that have not yet been processed, the process returns to step S200, and if all the white line combinations have been processed, the process of FIG. 9 ends. That is, the parking
上述した第1の実施の形態による車載画像処理装置によれば、次の作用効果が得られる。
(1)画像合成部120は、車両10の周辺を撮影した撮影画像を、車両10の上方の視点からの俯瞰画像に変換する。白線認識部140は、その俯瞰画像から、路面に存在する複数の白線の各々を近似直線として認識する。二重線補正部150は、認識されたそれら複数の白線から、U字二重線形状を構成する2つの白線を特定し、特定した2つの白線の各々について、当該白線の近似直線に含まれる2つの端点の一方の座標を俯瞰画像に基づいて再計算することにより、端点の一方の座標を補正する。二重線補正部150は、補正により2つの白線がより平行に近くなる場合にはその補正の結果を採用し、2つの白線がより平行に近くならない場合にはその補正の結果を破棄する。このようにしたので、U字二重線形状を有する白線を精度よく検出することができる
According to the vehicle-mounted image processing apparatus according to the first embodiment described above, the following operational effects are obtained.
(1) The
(2)二重線補正部150は、認識された複数の白線から、一方の端点同士の距離が所定のしきい値以下であり且つ他方の端点同士の距離が所定のしきい値以下である2つの白線を、U字二重線形状を構成する2つの白線として特定する。このようにしたので、一方の端点同士が偶然に近くにある、実際にはU字二重線形状を構成しない2つの白線を、U字二重線形状を構成する2つの白線として誤認識することがない。また、図6に示すように、実際にU字二重線形状を構成する2つの白線の補正前の認識結果は、正しい位置に比べて端点同士がより近づく傾向があるので、このようにした場合であっても、実際にはU字二重線形状を構成する2つの白線を、そうでない2つの白線であると誤認識することもない。
(2) The double
(3)二重線補正部150は、特定された2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点のうち、他方の白線との距離が近い方の端点の座標を俯瞰画像に基づいて再計算する。このようにしたので、U字二重線形状を構成する2つの白線の位置を、少ない演算量で的確に補正することができる。
(3) For each of the two specified white lines, the double
(4)白線認識部140は、俯瞰画像に対してエッジ検出処理を行うことにより複数の白線を認識し、二重線補正部150は、特定した2つの白線の各々について、当該白線の近似直線に含まれる2つの端点の一方から、2つの端点の他方に向けてシフトした位置において、俯瞰画像に対するエッジ検出処理を行うことにより、当該2つの端点の一方の座標を再計算する。このようにしたので、U字二重線形状を構成する2つの白線の位置を、少ない演算量で的確に補正することができる。
(4) The white
(5)後方カメラ200は、車両10の周辺を撮影することにより撮影画像を出力する。駐車枠認識部160は、認識された複数の白線から、駐車枠を構成する一対の白線を選択し、選択した一対の白線に基づいて駐車枠の座標を演算する。このようにしたので、U字二重線形状を有する白線により区切られた駐車枠の位置を正確に特定することができる。
(5) The
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。 The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(変形例1)
上述した第1の実施の形態では、車両の後方を撮影する後方カメラ200を用いて、駐車枠を認識させていた。本発明はこのような実施の形態に限定されない。例えば、車両の前方を撮影した結果に基づいて駐車枠を認識することも可能である。また、車両の前方、後方、左右側方にそれぞれ設けた4つのカメラで撮影した画像に基づいて、車両の真上から見た平面画像を作成する技術を本発明と併用することも可能である。つまり、画像合成部120が、4つのカメラで撮影した画像から上記の平面画像を合成するように車載画像処理装置100を構成してもよい。
(Modification 1)
In the first embodiment described above, the parking frame is recognized using the
また、車両10の後方を撮影する後方カメラ200に加えて、車両10の前方を撮影する前方カメラを設けた場合、それら2つのカメラを適宜使い分けることができる。例えば、車両10が前進状態のときは前方カメラにより撮影された撮影画像において認識された複数の白線を用いて駐車枠を特定し、車両10が後退状態のときは後方カメラ200により撮影された撮影画像において認識された複数の白線を用いて駐車枠を特定するように、駐車枠認識部160を構成することができる。
Further, when a front camera for photographing the front of the
(変形例2)
上述した第1の実施の形態では、1つの白線を、立ち上がりエッジと立ち下がりエッジとに対応する2つの近似直線により構成していた。本発明はこのような実施の形態に限定されず、立ち上がりエッジと立ち下がりエッジとのいずれかに対応する1つの近似直線により1つの白線を構成してもよい。
(Modification 2)
In the first embodiment described above, one white line is constituted by two approximate lines corresponding to the rising edge and the falling edge. The present invention is not limited to such an embodiment, and one white line may be constituted by one approximate straight line corresponding to either the rising edge or the falling edge.
(変形例3)
上述した第1の実施の形態では、車両の後方を撮影する後方カメラ200から得られる画像を俯瞰画像に変換して得られた画像に基づいて、白線を検出していた。本発明はこのような実施の形態に限定されず、俯瞰画像に変換する前の画像から検出した白線に基づいて、二重線を補正してもよい。例えば、後方カメラ200から得られた撮像画像から直接、白線認識部140により白線を近似直線として検出し、近似直線の端点を世界座標に変換した結果に基づいて2つの直線の平行度や距離を算出し、二重線補正部150で撮像画像上の二重線のエッジを再探索し、補正を行うことも可能である。ただし、俯瞰画像を用いる場合、撮像画像での処理に比べて、2直線間の平行度や距離の算出が容易なため、アルゴリズムがシンプルに構築できる利点がある。
(Modification 3)
In the first embodiment described above, a white line is detected based on an image obtained by converting an image obtained from the
(変形例4)
二重線補正部150による補正処理は、駐車枠を構成するU字型の二重線のみならず、隣り合う2本の線に外乱が生じたことに起因する誤認識についても補正することができる。例えば図10に示すように、走行中のレーンマーク(白線98a、98bにより構成される)の認識において、そのレーンマークが二重線かどうかを検出する場合、ゴミや汚れ等の外乱99が発生すると、U字型二重線のケースと同様に、白線98aと白線98bとが平行でないと判断される場合がある。このような場合でも、上述した補正手法を用いることで、処理時間をかけることなく白線の認識結果を平行に補正することができ、安定した二重線検出を行うことが可能となる。
(Modification 4)
The correction process by the double
本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。 As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .
100…車載画像処理装置、110…映像取得部、120…画像合成部、130…処理画像選択部、140…白線認識部、150…二重線補正部、160…駐車枠認識部、170…出力部、200…後方カメラ
DESCRIPTION OF
Claims (7)
前記処理対象画像出力部により出力された前記処理対象画像から、前記路面に存在する複数の白線の各々を近似直線として認識する白線認識部と、
前記白線認識部により認識された前記複数の白線から、U字二重線形状を構成する2つの白線を特定し、前記特定した2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点の一方の座標を前記処理対象画像に基づいて再計算することにより、前記端点の一方の座標を補正する補正部と、
前記補正部の前記補正によって前記特定された2つの白線が前記補正前に比べてより平行に近くなる場合には前記補正の結果を採用し、前記特定された2つの白線が前記補正前に比べてより平行に近くならない場合には前記補正の結果を破棄する補正結果取捨部と、
を備える車載画像処理装置。 A processing target image output unit that outputs a processing target image based on a photographed image obtained by photographing the periphery of the vehicle including the road surface ;
From outputted the processing target image by the processing target image output unit, and recognizes the white line recognition unit each of a plurality of white lines existing in the road surface as an approximate straight line,
Two white lines constituting a U-shaped double line shape are identified from the plurality of white lines recognized by the white line recognition unit, and each of the identified two white lines is included in the approximate straight line of the white line 2 A correction unit for correcting one coordinate of the end point by recalculating one coordinate of the two end points based on the processing target image;
When the two white lines specified by the correction by the correction unit become more parallel than before the correction, the result of the correction is adopted, and the two specified white lines are compared with those before the correction. A correction result discarding unit that discards the correction result when it is not nearly parallel,
A vehicle-mounted image processing apparatus comprising:
前記処理対象画像出力部は、前記撮影画像を前記車両の上方の視点からの画像に変換した俯瞰画像を前記処理対象画像として出力する車載画像処理装置。 The in-vehicle image processing apparatus according to claim 1,
The processed image output unit, the vehicle-mounted image processing apparatus for outputting an overhead image obtained by converting the captured image to the image from the upper viewpoint of the vehicle as the processing target image.
前記補正部は、前記白線認識部により認識された前記複数の白線から、一方の端点同士の距離が所定のしきい値以下であり且つ他方の端点同士の距離が所定のしきい値以下である2つの白線を、前記U字二重線形状を構成する2つの白線として特定する車載画像処理装置。 The in-vehicle image processing apparatus according to claim 2 ,
The correction unit has a distance between one end point of the plurality of white lines recognized by the white line recognition unit being a predetermined threshold value or less and a distance between the other end points being a predetermined threshold value or less. An in-vehicle image processing apparatus that identifies two white lines as two white lines constituting the U-shaped double line shape.
前記補正部は、前記特定された2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点のうち、他方の白線との距離が近い方の端点の座標を前記俯瞰画像に基づいて再計算する車載画像処理装置。 The in-vehicle image processing device according to claim 2 or 3 ,
The correction unit, for each of the identified two white lines, based on the overhead image, the coordinates of the end point that is closer to the other white line among the two end points included in the approximate line of the white line In-vehicle image processing device that recalculates.
前記白線認識部は、前記俯瞰画像に対してエッジ検出処理を行うことにより、前記複数の白線を認識し、
前記補正部は、前記特定した2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点の一方から、2つの端点の他方に向けてシフトした位置において、前記俯瞰画像に対するエッジ検出処理を行うことにより、当該2つの端点の一方の座標を再計算する車載画像処理装置。 The in-vehicle image processing device according to any one of claims 2 to 4,
The white line recognition unit recognizes the plurality of white lines by performing an edge detection process on the overhead image.
The correction unit detects, for each of the two specified white lines, edge detection for the overhead image at a position shifted from one of two end points included in the approximate line of the white line toward the other of the two end points. An in-vehicle image processing apparatus that recalculates one coordinate of the two end points by performing processing.
前記認識された複数の白線から、駐車枠を構成する一対の白線を選択する選択部と、
前記選択部により選択された一対の白線に基づいて、前記駐車枠の座標を演算する演算部とを備える車載画像処理装置。 The in-vehicle image processing device according to any one of claims 2 to 5,
A selection unit that selects a pair of white lines constituting a parking frame from the plurality of recognized white lines;
A vehicle-mounted image processing apparatus comprising: a calculation unit that calculates coordinates of the parking frame based on a pair of white lines selected by the selection unit.
前記選択部は、前記車両が前進状態のときは前記車両の前方を撮影する前方カメラにより撮影された前記撮影画像に基づいて前記一対の白線を選択し、前記車両が後退状態のときは前記車両の後方を撮影する後方カメラにより撮影された前記撮影画像に基づいて前記一対の白線を選択する車載画像処理装置。
The in-vehicle image processing device according to claim 6,
The selection unit selects the pair of white lines based on the captured image captured by a front camera that captures the front of the vehicle when the vehicle is in a forward state, and the vehicle when the vehicle is in a reverse state. A vehicle-mounted image processing apparatus that selects the pair of white lines based on the captured image captured by a rear camera that captures the rear of the camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012258715A JP6086424B2 (en) | 2012-11-27 | 2012-11-27 | In-vehicle image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012258715A JP6086424B2 (en) | 2012-11-27 | 2012-11-27 | In-vehicle image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014106706A JP2014106706A (en) | 2014-06-09 |
JP6086424B2 true JP6086424B2 (en) | 2017-03-01 |
Family
ID=51028145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012258715A Active JP6086424B2 (en) | 2012-11-27 | 2012-11-27 | In-vehicle image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6086424B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6817804B2 (en) * | 2016-12-16 | 2021-01-20 | クラリオン株式会社 | Bound line recognition device |
JP6778620B2 (en) * | 2017-01-17 | 2020-11-04 | 株式会社デンソーテン | Road marking device, road marking system, and road marking method |
JP6869467B2 (en) * | 2017-04-24 | 2021-05-12 | アイシン精機株式会社 | Parking support device |
JP7164172B2 (en) * | 2018-03-19 | 2022-11-01 | 株式会社デンソーテン | PARKING FRAME CONSTRUCTION DEVICE AND PARKING FRAME CONSTRUCTION METHOD |
JP2020015372A (en) * | 2018-07-24 | 2020-01-30 | 株式会社デンソーテン | Image processing device and image processing method |
JP2020095631A (en) * | 2018-12-14 | 2020-06-18 | 株式会社デンソーテン | Image processing device and image processing method |
JP7380073B2 (en) * | 2019-10-21 | 2023-11-15 | 株式会社アイシン | parking assist device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010030427A (en) * | 2008-07-29 | 2010-02-12 | Toyota Motor Corp | Parking support system and parking support device |
JP2012136206A (en) * | 2010-12-28 | 2012-07-19 | Fujitsu Ten Ltd | System and method for parking control |
JP2013018406A (en) * | 2011-07-12 | 2013-01-31 | Fujitsu Ten Ltd | Recognizing device of parking frame, recognizing method of parking frame and program |
-
2012
- 2012-11-27 JP JP2012258715A patent/JP6086424B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014106706A (en) | 2014-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6086424B2 (en) | In-vehicle image processing device | |
JP4801821B2 (en) | Road shape estimation device | |
JP5375958B2 (en) | Image processing apparatus and image processing method | |
JP4937030B2 (en) | Image processing apparatus for vehicle | |
JP4832321B2 (en) | Camera posture estimation apparatus, vehicle, and camera posture estimation method | |
JP5663352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2012081359A1 (en) | Lane recognition device | |
JP7206583B2 (en) | Information processing device, imaging device, device control system, moving object, information processing method and program | |
JP5402828B2 (en) | Lane boundary detection device, lane boundary detection program | |
JP6377970B2 (en) | Parallax image generation apparatus and parallax image generation method | |
JP6139465B2 (en) | Object detection device, driving support device, object detection method, and object detection program | |
JP6093314B2 (en) | Boundary line recognition device | |
JP6642906B2 (en) | Parking position detection system and automatic parking system using the same | |
JP2008102620A (en) | Image processing device | |
JP6152261B2 (en) | Car parking frame recognition device | |
JP2014106739A (en) | In-vehicle image processing device | |
EP3631675B1 (en) | Advanced driver assistance system and method | |
CN109522779B (en) | Image processing apparatus and method | |
JP5931691B2 (en) | White line detection device and white line detection method | |
JP2007018451A (en) | Road boundary line detecting device | |
JP5832850B2 (en) | Lane monitoring system and lane monitoring method | |
JP6677141B2 (en) | Parking frame recognition device | |
JP5957182B2 (en) | Road surface pattern recognition method and vehicle information recording apparatus | |
JP5472137B2 (en) | Boundary detection device and boundary detection program | |
JP6677142B2 (en) | Parking frame recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161101 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170104 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20170125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6086424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170921 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |