JP6086424B2 - In-vehicle image processing device - Google Patents

In-vehicle image processing device Download PDF

Info

Publication number
JP6086424B2
JP6086424B2 JP2012258715A JP2012258715A JP6086424B2 JP 6086424 B2 JP6086424 B2 JP 6086424B2 JP 2012258715 A JP2012258715 A JP 2012258715A JP 2012258715 A JP2012258715 A JP 2012258715A JP 6086424 B2 JP6086424 B2 JP 6086424B2
Authority
JP
Japan
Prior art keywords
vehicle
white
line
white lines
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012258715A
Other languages
Japanese (ja)
Other versions
JP2014106706A (en
Inventor
尊史 萩
尊史 萩
健人 緒方
健人 緒方
將裕 清原
將裕 清原
智史 鈴木
智史 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012258715A priority Critical patent/JP6086424B2/en
Publication of JP2014106706A publication Critical patent/JP2014106706A/en
Application granted granted Critical
Publication of JP6086424B2 publication Critical patent/JP6086424B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、車載画像処理装置に関する。   The present invention relates to an in-vehicle image processing apparatus.

従来、車両の周辺の画像を撮像し、撮像された画像から駐車スペースの枠線を認識する駐車支援装置が知られている(例えば特許文献1)。   2. Description of the Related Art Conventionally, a parking assistance device that captures an image around a vehicle and recognizes a frame line of a parking space from the captured image is known (for example, Patent Document 1).

特開2011−16405号公報JP 2011-16405 A

特許文献1には、単なる直線状の白線ではなく、U字二重線形状を有する白線が存在する場合に、白線の形状を正しく検出することができないという問題があった。   Patent Document 1 has a problem in that when a white line having a U-shaped double line shape is present instead of a simple white line, the shape of the white line cannot be detected correctly.

請求項1に記載の車載画像処理装置は、路面を含む車両の周辺を撮影した撮影画像に基づく処理対象画像を出力する処理対象画像出力部と、前記処理対象画像出力部により出力された前記処理対象画像から、前記路面に存在する複数の白線の各々を近似直線として認識する白線認識部と、前記白線認識部により認識された前記複数の白線から、U字二重線形状を構成する2つの白線を特定し、前記特定した2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点の一方の座標を前記処理対象画像に基づいて再計算することにより、前記端点の一方の座標を補正する補正部と、前記補正部の前記補正によって前記特定された2つの白線が前記補正前に比べてより平行に近くなる場合には前記補正の結果を採用し、前記特定された2つの白線が前記補正前に比べてより平行に近くならない場合には前記補正の結果を破棄する補正結果取捨部と、を備える。
The in-vehicle image processing apparatus according to claim 1, wherein the processing target image output unit outputs a processing target image based on a captured image obtained by capturing the periphery of the vehicle including the road surface, and the processing output by the processing target image output unit. from the target image, and recognizing the white line recognition unit each of a plurality of white lines existing in the road surface as an approximate straight line, from the white line detection unit recognized the plurality of white lines, the the two constituting the U-shaped double line shape A white line is specified, and for each of the two specified white lines, one of the two end points included in the approximate straight line of the white line is recalculated based on the processing target image, thereby obtaining one of the end points. When the two white lines specified by the correction unit for correcting coordinates and the correction by the correction unit are closer to parallel than before the correction, the correction result is adopted, and the specified And if the two white lines is not more parallel close than before the correction and a discarding correction result sifting unit results of the correction.

本発明によれば、U字二重線形状を有する白線を精度よく検出することができる。   According to the present invention, a white line having a U-shaped double line shape can be detected with high accuracy.

本発明の一実施形態による車載画像処理装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image processing apparatus 100 by one Embodiment of this invention. 車両と後方カメラ200との関係を模式的に示す図である。It is a figure which shows typically the relationship between a vehicle and the rear camera. 画像合成部120による画像合成処理を説明するための図である。It is a figure for demonstrating the image composition process by the image composition part. 白線認識処理を説明するための図である。It is a figure for demonstrating a white line recognition process. 白線認識部140が実行する白線認識処理のフローチャートである。It is a flowchart of the white line recognition process which the white line recognition part 140 performs. 二重線補正部150の動作を説明するための図である。6 is a diagram for explaining the operation of a double line correction unit 150. 二重線補正部150により実行される補正処理のフローチャートである。6 is a flowchart of a correction process executed by a double line correction unit 150. 駐車枠認識部160の動作を説明するための図である。It is a figure for demonstrating operation | movement of the parking frame recognition part. 駐車枠認識部160が実行する駐車枠認識処理のフローチャートである。It is a flowchart of the parking frame recognition process which the parking frame recognition part 160 performs. 変形例4を説明するための図である。It is a figure for demonstrating the modification 4. FIG.

(第1の実施の形態)
図1は、本発明の一実施形態による車載画像処理装置100の構成を示すブロック図である。図1に示す車載画像処理装置100は、車両に搭載されて使用されるものであり、映像取得部110、画像合成部120、処理画像選択部130、白線認識部140、二重線補正部150、駐車枠認識部160および出力部170を備える。また、映像取得部110には、後方カメラ200が接続されている。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an in-vehicle image processing apparatus 100 according to an embodiment of the present invention. An in-vehicle image processing apparatus 100 shown in FIG. 1 is used by being mounted on a vehicle, and includes a video acquisition unit 110, an image synthesis unit 120, a processed image selection unit 130, a white line recognition unit 140, and a double line correction unit 150. The parking frame recognition unit 160 and the output unit 170 are provided. Further, the rear camera 200 is connected to the video acquisition unit 110.

図2は、車両と後方カメラ200との関係を模式的に示す図であり、図2(a)には車両10をその上方から見た様子を、図2(b)には車両10をその側方から見た様子を、それぞれ示している。後方カメラ200は、例えば車両10のバンパーやナンバープレート近傍に設置され、車両10の後方の所定範囲20を撮影する電子式カメラである。後方カメラ200は、車両10の後方の路面を含む広範囲を撮影可能に構成されていることが望ましい。後方カメラ200により、所定周期(例えば30分の1秒)ごとに車両の後方が撮影される。   FIG. 2 is a diagram schematically showing the relationship between the vehicle and the rear camera 200. FIG. 2A shows the vehicle 10 viewed from above, and FIG. Each side view is shown. The rear camera 200 is an electronic camera that is installed, for example, in the vicinity of a bumper or license plate of the vehicle 10 and photographs a predetermined range 20 behind the vehicle 10. The rear camera 200 is preferably configured to be able to photograph a wide range including the road surface behind the vehicle 10. The rear camera 200 captures the rear of the vehicle every predetermined period (for example, 1/30 second).

映像取得部110は、後方カメラ200により所定周期ごとに撮影される車両後方の映像を、画像データ(撮影画像データ)として取得する。画像合成部120は、周知のアルゴリズムに則った画像処理を実行することで、映像取得部110により取得された画像データから、車両の真上から見た平面画像(俯瞰画像)データを合成する。   The video acquisition unit 110 acquires, as image data (captured image data), a video behind the vehicle that is captured by the rear camera 200 at predetermined intervals. The image composition unit 120 performs image processing in accordance with a well-known algorithm to synthesize planar image (overhead image) data viewed from right above the vehicle from the image data acquired by the video acquisition unit 110.

後方カメラ200は所定周期ごとに車両の後方を撮影するので、画像合成部120は所定周期ごとに俯瞰画像データを合成する。処理画像選択部130は、画像合成部120により合成されるそれら複数の俯瞰画像データから、駐車枠認識処理の対象とする俯瞰画像データを選択して白線認識部140に引き渡す。俯瞰画像データの選択方法としては種々の方法が存在する。例えば、車両乗員が不図示の操作部材に対し所定の操作を行ったときにだけ俯瞰画像データを白線認識部140に引き渡すようにすることもできるし、所定数の俯瞰画像データの一部を間引いて白線認識部140に引き渡すようにしてもよい。あるいは、車両の現在地と地図データとを照合し、車両が駐車場に存在する場合にのみ白線認識部140に俯瞰画像データを引き渡すようにすることもできる。すなわち、処理画像選択部130は、車両の周辺を撮影した撮影画像に基づく処理対象画像を出力するものであって、その処理対象画像は、画像合成部120により撮影画像データから変換された俯瞰画像データである。   Since the rear camera 200 captures the rear of the vehicle every predetermined period, the image composition unit 120 synthesizes the overhead image data every predetermined period. The processed image selection unit 130 selects the overhead image data to be subjected to the parking frame recognition process from the plurality of overhead image data synthesized by the image synthesis unit 120 and delivers it to the white line recognition unit 140. There are various methods for selecting the overhead image data. For example, the overhead image data can be delivered to the white line recognition unit 140 only when a vehicle occupant performs a predetermined operation on an operation member (not shown), or a part of a predetermined number of overhead image data is thinned out. The white line recognition unit 140 may be handed over. Alternatively, the current location of the vehicle and the map data can be collated, and the overhead image data can be delivered to the white line recognition unit 140 only when the vehicle exists in the parking lot. That is, the processed image selection unit 130 outputs a processing target image based on a captured image obtained by capturing the periphery of the vehicle, and the processing target image is an overhead image converted from the captured image data by the image composition unit 120. It is data.

白線認識部140は、処理画像選択部130により引き渡された俯瞰画像データから、路面に存在する白線を認識する。なお、本発明の説明において、路面に引かれた駐車枠を構成する線を便宜的に「白線」と称するが、そのような線の色は必ずしも白でなくてもよい。つまり、本発明の説明における「白線」とは、白色ではない線を含む概念である。二重線補正部150は、白線認識部140による白線の認識結果に対して、後述する二重線補正処理を適用する。駐車枠認識部160は、二重線補正部150による補正後の白線認識結果に基づいて、駐車枠を認識する。   The white line recognition unit 140 recognizes a white line existing on the road surface from the overhead image data delivered by the processed image selection unit 130. In the description of the present invention, a line constituting the parking frame drawn on the road surface is referred to as a “white line” for convenience, but the color of such a line is not necessarily white. That is, the “white line” in the description of the present invention is a concept including a line that is not white. The double line correction unit 150 applies a double line correction process to be described later to the white line recognition result by the white line recognition unit 140. The parking frame recognition unit 160 recognizes the parking frame based on the white line recognition result after correction by the double line correction unit 150.

出力部170は、演算処理部による駐車枠の認識結果に基づいて、車両周囲の駐車枠に対する駐車枠情報を出力する。例えば、車両に対する駐車枠の方向や駐車枠までの距離を示す情報を駐車枠情報として出力する。この駐車枠情報は、車載画像処理装置100と接続されている上位の車両制御装置(不図示)へと出力され、車両の駐車支援や走行制御等に利用される。たとえば、周囲に駐車場が存在する状況であることを自動で認識し、例えば、駐車場環境である場合には、モニタに自車周囲の俯瞰映像を自動で切り替えて表示することができる。これにより、公道において駐車場であると誤検知する状況を抑制し、適切なタイミングでユーザへの提示映像を切り替えることができるようになる。   The output unit 170 outputs parking frame information for parking frames around the vehicle based on the recognition result of the parking frame by the arithmetic processing unit. For example, information indicating the direction of the parking frame relative to the vehicle and the distance to the parking frame is output as parking frame information. The parking frame information is output to a host vehicle control device (not shown) connected to the in-vehicle image processing device 100, and is used for vehicle parking assistance, travel control, and the like. For example, it is possible to automatically recognize that there is a parking lot around, and for example, in a parking lot environment, it is possible to automatically switch and display a bird's-eye view image around the vehicle on the monitor. As a result, it is possible to suppress a situation in which it is erroneously detected as a parking lot on a public road, and to switch the video presented to the user at an appropriate timing.

また、出力部170は、演算処理部による駐車枠の認識結果に基づいて、自車からの相対的な位置情報として駐車枠情報を出力する。たとえば、駐車枠の左右枠線の端点座標、駐車枠線の角度および切片といった、実環境中における駐車枠の位置情報を出力する。この駐車枠情報は、車載画像処理装置100と接続されている上位の車両制御装置(不図示)へと出力され、車両の駐車支援や走行制御等に利用される。たとえば、自車から駐車枠までの相対的な位置姿勢に基づいて、駐車枠までの走行経路を計算し、ドライバーにブレーキやシフトポジション変更のタイミングや、舵角の操作量を通知することによって、駐車支援を行うことが可能となる。これにより、車庫入れ等の運転操作に不慣れなドライバーにとっても、短時間で駐車動作が完了できるようになる。   Moreover, the output part 170 outputs parking frame information as relative positional information from the own vehicle based on the recognition result of the parking frame by an arithmetic processing part. For example, the position information of the parking frame in the actual environment, such as the end point coordinates of the left and right frame lines of the parking frame, the angle and intercept of the parking frame line, is output. The parking frame information is output to a host vehicle control device (not shown) connected to the in-vehicle image processing device 100, and is used for vehicle parking assistance, travel control, and the like. For example, by calculating the travel route to the parking frame based on the relative position and orientation from the own vehicle to the parking frame, by notifying the driver of the timing of brake and shift position change and the amount of steering angle operation, Parking assistance can be performed. As a result, a parking operation can be completed in a short time even for a driver who is unfamiliar with driving operations such as garage entry.

さらには、自車から駐車枠までの相対的な位置姿勢に基づいて、駐車枠までの走行経路を計算し、自動で車両の前進・後退・旋回の制御量を計算し、その計算結果に従って車両運動を自動制御してもよい。これにより、車庫入れ等の運転操作に不慣れなドライバーにとっても、安全かつ正確に駐車動作を完了できるようになる。   Furthermore, the travel route to the parking frame is calculated based on the relative position and orientation from the own vehicle to the parking frame, and the control amount of the forward / backward / turning of the vehicle is automatically calculated. The movement may be automatically controlled. As a result, a parking operation can be completed safely and accurately even for a driver unfamiliar with driving operations such as garage entry.

以下、車載画像処理装置100を構成する各部の動作について、順に説明する。   Hereinafter, the operation of each unit constituting the in-vehicle image processing apparatus 100 will be described in order.

(画像合成部120の動作の説明)
図3は、画像合成部120による画像合成処理を説明するための図である。以下の説明では、図3(a)の俯瞰図に示すように、車両10の後方の路面に、駐車枠を構成する2つの白線30,31が存在する状態を仮定する。白線30は、U字型の二重線になっており、隣接する2つの駐車枠を区切っている。白線31も同様である。
(Description of operation of image composition unit 120)
FIG. 3 is a diagram for explaining image composition processing by the image composition unit 120. In the following description, as shown in the overhead view of FIG. 3A, it is assumed that two white lines 30 and 31 constituting a parking frame are present on the road surface behind the vehicle 10. The white line 30 is a U-shaped double line and separates two adjacent parking frames. The same applies to the white line 31.

このとき映像取得部110は、後方カメラ200から、図3(b)に示す映像40を取得する。画像合成部120は、この映像40に周知の画像処理を適用することにより、図3(c)に示す俯瞰画像データ41を合成する。   At this time, the video acquisition unit 110 acquires the video 40 shown in FIG. 3B from the rear camera 200. The image composition unit 120 synthesizes the overhead image data 41 shown in FIG. 3C by applying known image processing to the video 40.

(白線認識部140の動作の説明)
白線認識部140は、画像合成部120により合成された俯瞰画像データのうち、処理画像選択部130により選択された俯瞰画像データに対して、以下に説明する白線認識処理を実行する。
(Description of the operation of the white line recognition unit 140)
The white line recognition unit 140 performs white line recognition processing described below on the bird's-eye view image data selected by the processing image selection unit 130 out of the bird's-eye view image data synthesized by the image synthesis unit 120.

図4は、白線認識処理を説明するための図である。以下、図4(a)に示す俯瞰画像データ42が処理画像選択部130から引き渡されたものとして説明を行う。この俯瞰画像データ42には、駐車枠を構成する白線50,51に加えて、路面に存在する他の標示52や、撮影画面に映り込んだゴミや路面に存在する物体等であるノイズ53が含まれている。   FIG. 4 is a diagram for explaining white line recognition processing. In the following description, it is assumed that the overhead image data 42 shown in FIG. 4A is delivered from the processed image selection unit 130. In this overhead view image data 42, in addition to the white lines 50 and 51 constituting the parking frame, there are other signs 52 present on the road surface, noise 53 which is dust reflected on the photographing screen, objects present on the road surface, and the like. include.

白線認識処理において、白線認識部140はまず、俯瞰画像データ42の各水平ラインについて横方向のエッジ抽出を行う。一例として、図4(a)の破線L1で示したラインにおけるエッジ抽出を説明する。このラインを構成する各画素の輝度値60を図4(b)に示す。これら各画素の輝度値60の微分値を演算すると図4(c)のようになる。白線認識部140は、微分値61の極大位置および極小位置に、立ち上がりエッジおよび立ち下がりエッジが存在すると判断する。   In the white line recognition process, the white line recognition unit 140 first performs edge extraction in the horizontal direction for each horizontal line of the overhead image data 42. As an example, edge extraction in a line indicated by a broken line L1 in FIG. The luminance value 60 of each pixel constituting this line is shown in FIG. When the differential value of the luminance value 60 of each pixel is calculated, the result is as shown in FIG. The white line recognition unit 140 determines that rising edges and falling edges exist at the maximum position and the minimum position of the differential value 61.

例えば図4(c)であれば、白線認識部140は位置62,64に立ち上がりエッジが、位置63,65に立ち下がりエッジが存在すると判断する。以上のエッジ抽出を図4(a)の全水平ラインに対して行った結果を図4(d)に示す。図4(d)に示すエッジ抽出結果43は、8つのエッジ集合66〜73を含んでおり、エッジ集合66,68,70,72は立ち上がりエッジ、エッジ集合67,69,71,73は立ち下がりエッジである。   For example, in the case of FIG. 4C, the white line recognition unit 140 determines that rising edges exist at positions 62 and 64 and falling edges exist at positions 63 and 65. FIG. 4D shows the result of the above edge extraction performed on all the horizontal lines in FIG. The edge extraction result 43 shown in FIG. 4D includes eight edge sets 66 to 73, the edge sets 66, 68, 70, and 72 are rising edges, and the edge sets 67, 69, 71, and 73 are falling edges. It is an edge.

次に白線認識部140は、図4(d)のエッジ抽出結果43において、立ち上がりエッジと立ち下がりエッジとのペアが成り立つエッジのみを残し、それ以外のエッジを以降の処理から除外する。これは、白線が存在する場合、立ち上がりエッジと立ち下がりエッジが必ずペアになって出現すると考えられるためである。また、立ち上がりエッジと立ち下がりエッジとの間隔が所定の下限値(例えば3cm)より小さいペア、および、所定の上限値(例えば30cm)より大きいペアについても、以降の処理から除外する。所定の上限値および下限値は、駐車枠として使用される白線の太さに基づいて決定される。   Next, in the edge extraction result 43 in FIG. 4D, the white line recognizing unit 140 leaves only the edge where the pair of the rising edge and the falling edge is established, and excludes the other edges from the subsequent processing. This is because, when a white line exists, it is considered that the rising edge and the falling edge always appear as a pair. In addition, a pair whose interval between the rising edge and the falling edge is smaller than a predetermined lower limit value (for example, 3 cm) and a pair larger than a predetermined upper limit value (for example, 30 cm) are also excluded from the subsequent processing. The predetermined upper limit value and lower limit value are determined based on the thickness of the white line used as a parking frame.

例えば図4(d)において、エッジ66はエッジ67とペアが成立するので、これら2つのエッジは残される。同様に、エッジ68とエッジ69とのペア、エッジ70とエッジ71とのペアも残される。他方、エッジ72とエッジ73とのペアは、両者の間隔が近すぎるため、以降の処理から除外される。   For example, in FIG. 4D, since the edge 66 is paired with the edge 67, these two edges remain. Similarly, a pair of edge 68 and edge 69 and a pair of edge 70 and edge 71 are also left. On the other hand, the pair of the edge 72 and the edge 73 is excluded from the subsequent processing because the distance between the two is too close.

次に白線認識部140は、残された各エッジのうち、縦方向に連続するエッジをグループ化(グルーピング)する。そして、各グループのうち、少なくとも一方のエッジの長さが所定のしきい値より短いペアについて、以降の処理から除外する。これは、駐車枠として用いられる白線は一定以上の長さを有しており、極端に短いエッジは白線ではないと考えられるためである。例えば図4(d)において、立ち上がりエッジ70と立ち下がりエッジ71とのペアは、いずれも短すぎるので、以降の処理から除外される。従って、以降の処理では、図4(d)に図示した各エッジのうち、エッジ66から成るグループ、エッジ67から成るグループ、エッジ68から成るグループ、エッジ69から成るグループ、の4つのグループのみが処理対象となる。   Next, the white line recognizing unit 140 groups (groups) the continuous edges in the vertical direction among the remaining edges. Then, pairs in which at least one edge is shorter than a predetermined threshold in each group are excluded from the subsequent processing. This is because a white line used as a parking frame has a certain length or more, and an extremely short edge is considered not to be a white line. For example, in FIG. 4D, the pair of the rising edge 70 and the falling edge 71 are both too short and are excluded from the subsequent processing. Accordingly, in the subsequent processing, among the edges shown in FIG. 4D, only four groups of the group consisting of the edge 66, the group consisting of the edge 67, the group consisting of the edge 68, and the group consisting of the edge 69 are included. It becomes a processing target.

最後に白線認識部140は、残された各グループについて、そのグループに含まれるエッジの上下端を決定し、上下端を結ぶ直線でエッジを近似する。図4(d)において、残されたグループに含まれるエッジを直線により近似した様子を図4(e)に示す。エッジ66を近似した直線が直線74であり、エッジ67を近似した直線が直線75である。同様に、エッジ68を近似した直線が直線76であり、エッジ69を近似した直線が直線77である。互いにペアとなっている直線74と直線75との間の空間78、および、直線76と直線77との間の空間79に、白線が存在するものと考えられる。   Finally, the white line recognition unit 140 determines the upper and lower ends of the edges included in each remaining group, and approximates the edges with a straight line connecting the upper and lower ends. FIG. 4E shows a state in which the edge included in the remaining group in FIG. 4D is approximated by a straight line. A straight line approximating the edge 66 is a straight line 74, and a straight line approximating the edge 67 is a straight line 75. Similarly, a straight line approximating the edge 68 is a straight line 76, and a straight line approximating the edge 69 is a straight line 77. A white line is considered to exist in a space 78 between the straight line 74 and the straight line 75 and a space 79 between the straight line 76 and the straight line 77 that are paired with each other.

図5は、白線認識部140が実行する白線認識処理のフローチャートである。まずステップS10において白線認識部140は、俯瞰画像データの全水平ラインに対して横方向のエッジフィルタを適用することで、エッジ抽出を行う。そして、ステップS20において、輝度値の立ち上がりおよび立ち下がりのピーク位置を抽出する。   FIG. 5 is a flowchart of white line recognition processing executed by the white line recognition unit 140. First, in step S10, the white line recognition unit 140 performs edge extraction by applying a lateral edge filter to all horizontal lines of the overhead image data. In step S20, the peak positions of the rise and fall of the luminance value are extracted.

続くステップS30において、白線認識部140は、立ち上がりエッジと立ち下がりエッジとのペアが成立しないエッジ、および、ペアは成立するがその間隔が所定範囲外であるエッジ(間隔が大きすぎるか小さすぎるエッジ)を以降の処理から除外し、他のエッジのみを残す。次のステップS40では、連続して存在する各エッジをグルーピングし、その長さが所定のしきい値以上のグループのみを残す。そして、ステップS50において、立ち上がりエッジおよび立ち下がりエッジの上下端の座標を抽出し、各エッジを上端と下端を結ぶ直線で近似する。   In subsequent step S30, the white line recognition unit 140 determines that the edge where the pair of the rising edge and the falling edge is not established, and the edge where the pair is established but the interval is outside the predetermined range (the edge is too large or too small). ) Are excluded from the subsequent processing, and only other edges are left. In the next step S40, the consecutively existing edges are grouped, and only the group whose length is equal to or greater than a predetermined threshold is left. In step S50, the coordinates of the upper and lower ends of the rising edge and the falling edge are extracted, and each edge is approximated by a straight line connecting the upper end and the lower end.

白線認識部140は、以上で説明した白線認識処理を実行することにより、俯瞰画像データに存在する白線を認識する。ペアの間隔が狭すぎるエッジや、長さが短すぎるエッジは除外されるので、例えば図4(a)に示した白線以外の標示52やノイズ53が白線認識部140により白線として認識されることはない。   The white line recognition unit 140 recognizes a white line existing in the overhead image data by executing the white line recognition process described above. Edges whose pair interval is too narrow or edges whose length is too short are excluded. For example, the marking 52 and the noise 53 other than the white line shown in FIG. 4A are recognized as white lines by the white line recognition unit 140. There is no.

(二重線補正部150の動作の説明)
図6(a)は、路面の俯瞰画像データと、その俯瞰画像データから認識された白線の近似直線との一例を示す図である。図6(a)に示すように、U字型の二重線となっている白線32を上記の白線認識部140によって認識させた場合、U字型の端部(曲線部)が近似直線の上端または下端として認識される。従って、図6(a)に示すように、近似直線の一端がU字型の底部(曲線部)に存在すると認識されてしまい、二重線を構成する2本の白線の近似直線はU字型の底部(曲線部)に向かって先細りになる。その結果、図6(b)に示すように、ペアとなっている2つの近似直線の間の空間84,85の形状は、実際の白線と大きく乖離してしまう。
(Description of operation of double line correction unit 150)
FIG. 6A is a diagram illustrating an example of a bird's-eye view image data of a road surface and an approximate straight line of a white line recognized from the bird's-eye view image data. As shown in FIG. 6A, when the white line 32 that is a U-shaped double line is recognized by the white line recognition unit 140, the U-shaped end portion (curved portion) is an approximate straight line. Recognized as the top or bottom edge. Therefore, as shown in FIG. 6A, it is recognized that one end of the approximate line exists at the bottom of the U shape (curved part), and the approximate line of the two white lines constituting the double line is a U character. Tapered toward the bottom (curved part) of the mold. As a result, as shown in FIG. 6B, the shapes of the spaces 84 and 85 between the two approximate straight lines forming a pair are greatly deviated from the actual white line.

そこで、本実施形態では、白線認識部140による白線認識の結果(近似直線の位置)を、二重線補正部150が、より実際の白線に近い近似直線に補正する。以下、二重線補正部150による補正処理について説明する。   Therefore, in the present embodiment, the double line correction unit 150 corrects the white line recognition result (approximate straight line position) by the white line recognition unit 140 to an approximate straight line that is closer to the actual white line. Hereinafter, correction processing by the double line correction unit 150 will be described.

二重線補正部150は、まず白線認識部140により認識された複数の白線から、U字型の二重線を構成すると考えられる2つの白線を選択する。2つの白線の上端同士や下端同士が大きく離れている場合、その2つの白線はU字型の二重線を構成するものではないと考えられるため、補正処理を行わない。以下の説明では、補正処理の対象として、図6(b)に示した2つの白線(近似直線80,81により構成される白線と、近似直線82,83により構成される白線)が選択された状態を想定する。   First, the double line correction unit 150 selects two white lines that are considered to form a U-shaped double line from a plurality of white lines recognized by the white line recognition unit 140. When the upper ends and the lower ends of the two white lines are greatly separated from each other, the two white lines are considered not to form a U-shaped double line, and thus no correction processing is performed. In the following description, two white lines (a white line constituted by the approximate straight lines 80 and 81 and a white line constituted by the approximate straight lines 82 and 83) shown in FIG. Assume a state.

補正処理において二重線補正部150は、まず、2つの白線の立ち上がりエッジに相当する近似直線同士(近似直線80と近似直線82)で、狭い方の端点を選択し、その端点から他方の端点に向けて所定長だけY座標をシフトさせたラインにおいて、横方向にエッジを探索する。   In the correction process, the double line correction unit 150 first selects the narrower end point between the approximate lines corresponding to the rising edges of the two white lines (the approximate line 80 and the approximate line 82), and the other end point is selected from that end point. In the line in which the Y coordinate is shifted by a predetermined length toward, an edge is searched in the horizontal direction.

図6(c)において、近似直線80と近似直線82とを見ると、上端の間隔よりも下端の間隔の方が狭いので、下端が存在する水平ラインL2から、所定長HだけY座標を上端に向かってシフトさせた水平ラインL3において、横方向に立ち上がりエッジを探索する。その結果、近似直線80側では、位置86において立ち上がりエッジが見つかり、近似直線82側では、位置89において立ち上がりエッジが見つかる。   In FIG. 6C, when the approximate straight line 80 and the approximate straight line 82 are viewed, the lower end interval is narrower than the upper end interval, so that the Y coordinate is set to the upper end by a predetermined length H from the horizontal line L2 where the lower end exists. In the horizontal line L3 shifted toward, a rising edge is searched in the horizontal direction. As a result, a rising edge is found at the position 86 on the approximate straight line 80 side, and a rising edge is found at the position 89 on the approximate straight line 82 side.

二重線補正部150は、ここで見つかったエッジ(位置86,89)と近似直線80,82の上端とを通る直線を考え、この直線が水平ラインL2と交差する位置87,90を求める。そして、ここで得られた位置87,90と近似直線80,82の上端とを結ぶ新たな直線88,91が、近似直線80,82よりも平行であれば、その位置87,90で近似直線80,82の下端を補正する。   The double line correction unit 150 considers a straight line passing through the edge (position 86, 89) found here and the upper end of the approximate straight lines 80, 82, and obtains positions 87, 90 where the straight line intersects the horizontal line L2. If the new straight lines 88 and 91 connecting the positions 87 and 90 obtained here and the upper ends of the approximate straight lines 80 and 82 are parallel to the approximate straight lines 80 and 82, the approximate straight lines at the positions 87 and 90 are obtained. The lower ends of 80 and 82 are corrected.

つまり、直線88および直線91が、近似直線80および近似直線82よりも平行であれば、近似直線80を直線88で置き換え、近似直線82を直線91で置き換えることにより、近似直線80,82を補正する。図6(c)の例では、直線88および直線91が近似直線80および近似直線82よりも平行であるので、二重線補正部150は近似直線80を直線88で置き換えると共に、近似直線82を直線91で置き換える。従って、2つの白線を構成する最終的な直線は、図6(d)に示す直線88および直線91になる。   That is, if the straight line 88 and the straight line 91 are more parallel than the approximate straight line 80 and the approximate straight line 82, the approximate straight lines 80 and 82 are corrected by replacing the approximate straight line 80 with the straight line 88 and replacing the approximate straight line 82 with the straight line 91. To do. In the example of FIG. 6C, since the straight line 88 and the straight line 91 are more parallel than the approximate straight line 80 and the approximate straight line 82, the double line correction unit 150 replaces the approximate straight line 80 with the straight line 88 and replaces the approximate straight line 82. Replace with a straight line 91. Therefore, the final straight lines constituting the two white lines are a straight line 88 and a straight line 91 shown in FIG.

二重線補正部150は以上で述べた処理を、2つの白線の立ち下がりエッジに相当する近似直線同士(近似直線81と近似直線83)についても繰り返す。このとき、水平ラインL3において探索するのは、立ち上がりエッジではなく立ち下がりエッジである。以上が補正処理である。   The double line correction unit 150 repeats the processing described above for the approximate straight lines corresponding to the falling edges of the two white lines (the approximate straight line 81 and the approximate straight line 83). At this time, what is searched for in the horizontal line L3 is not the rising edge but the falling edge. The above is the correction processing.

図7は、二重線補正部150により実行される補正処理のフローチャートである。まずステップS100において、二重線補正部150は白線認識部140により認識された全ての白線から、任意の2つの白線を選択する。そして、ステップS110において、選択した2つの白線の上端の距離(間隔)が所定値以下か否かを判定する。間隔が所定値以下であった場合にはステップS120に進み、そうでなかった場合はステップS170に進む。   FIG. 7 is a flowchart of the correction process executed by the double line correction unit 150. First, in step S100, the double line correction unit 150 selects two arbitrary white lines from all white lines recognized by the white line recognition unit 140. In step S110, it is determined whether the distance (interval) between the upper ends of the two selected white lines is equal to or less than a predetermined value. If the interval is equal to or smaller than the predetermined value, the process proceeds to step S120, and if not, the process proceeds to step S170.

ステップS120では同様に、選択した2つの白線の下端の距離(間隔)が所定値以下か否かを判定する。間隔が所定値以下であった場合にはステップS130に進み、そうでなかった場合はステップS170に進む。ステップS130では、上端と下端のうち、間隔が狭い方の端点から他方の端点に向かって所定の長さだけY座標をシフトさせたライン上で、横方向にエッジを探索する。そして、ステップS140において、探索されたエッジを通る直線に基づいて、上端または下端の位置を再計算する。   Similarly, in step S120, it is determined whether the distance (interval) between the lower ends of the two selected white lines is equal to or less than a predetermined value. If the interval is equal to or smaller than the predetermined value, the process proceeds to step S130, and if not, the process proceeds to step S170. In step S130, an edge is searched for in the horizontal direction on a line in which the Y coordinate is shifted by a predetermined length from the end point having the smaller interval between the upper end and the lower end to the other end point. In step S140, the position of the upper end or the lower end is recalculated based on the straight line passing through the searched edge.

続くステップS150で二重線補正部150は、ステップS140で再計算した2つの白線が再計算前よりも平行になるか否かを判定する。再計算の結果、再計算前よりも平行になった場合にはステップS160に進み、そうでなかった場合はステップS170に進む。ステップS160では、ステップS140で再計算された座標で、ステップS100で選択した2つの白線の上端または下端を補正する(置き換える)。   In subsequent step S150, the double line correction unit 150 determines whether the two white lines recalculated in step S140 are more parallel than before the recalculation. As a result of the recalculation, the process proceeds to step S160 if it is more parallel than before the recalculation, and if not, the process proceeds to step S170. In step S160, the upper or lower ends of the two white lines selected in step S100 are corrected (replaced) with the coordinates recalculated in step S140.

ステップS170では、ステップS110以降の処理を全ての白線の組み合わせに対して実行したか否かを判定する。そして、まだ処理していない2つの白線の組み合わせが存在する場合にはステップS100に戻り、全ての白線の組み合わせについて処理が完了していた場合には図7の処理を終了する。つまり二重線補正部150は、ステップS110〜ステップS160の処理を、白線認識部140により認識された複数の白線のうち2つの白線を選択する全ての組み合わせについて実行する。   In step S170, it is determined whether or not the processing in step S110 and subsequent steps has been executed for all white line combinations. If there is a combination of two white lines that have not yet been processed, the process returns to step S100, and if the processing has been completed for all the combinations of white lines, the process of FIG. 7 ends. That is, the double line correction unit 150 executes the processing of steps S110 to S160 for all combinations that select two white lines among the plurality of white lines recognized by the white line recognition unit 140.

(駐車枠認識部160の動作の説明)
図8は、駐車枠認識部160の動作を説明するための図である。駐車枠認識部160は、駐車枠を、その左右に存在する2つの白線を特定することにより認識する。例えば図8(a)に示すように、U字型の二重線により駐車枠同士が区切られた駐車場であれば、駐車枠認識部160は、U字型の二重線に含まれる1つの白線34,35(駐車枠に直接隣接する方の白線)を左右それぞれで特定することにより駐車枠96を認識する。他方、図8(b)に示すように、単一の白線36,37により駐車枠同士が区切られた駐車場であれば、駐車枠認識部160は、各々の白線36,37を特定することにより駐車枠97を認識する。すなわち、本実施形態の駐車枠認識部160は、図8(a)に示す駐車場と、図8(b)に示す駐車場と、のどちらについても、駐車枠を認識することが可能である。
(Description of operation of parking frame recognition unit 160)
FIG. 8 is a diagram for explaining the operation of the parking frame recognition unit 160. The parking frame recognition unit 160 recognizes the parking frame by specifying two white lines existing on the left and right sides thereof. For example, as shown in FIG. 8 (a), if the parking lot is a parking lot in which parking frames are separated by a U-shaped double line, the parking frame recognition unit 160 is included in the U-shaped double line. The parking frame 96 is recognized by specifying two white lines 34 and 35 (white lines directly adjacent to the parking frame) on the left and right sides. On the other hand, as shown in FIG. 8B, if the parking lot is a parking lot where the parking frames are separated by a single white line 36, 37, the parking frame recognition unit 160 specifies each white line 36, 37. Thus, the parking frame 97 is recognized. That is, the parking frame recognition unit 160 of the present embodiment can recognize the parking frame for both the parking lot shown in FIG. 8A and the parking lot shown in FIG. 8B. .

駐車枠認識部160は、二重線補正部150による補正処理のように、認識できた全ての白線から2つの白線を全ての組み合わせについて選択し、その2つの白線が駐車枠に特有の関係を満たしているかを判定することにより、駐車枠を認識する。以下、図8(c)に示す2つの白線92,93が選択されているものとして、駐車枠認識部160による駐車枠認識処理を説明する。   The parking frame recognizing unit 160 selects two white lines from all the recognized white lines for all combinations as in the correction processing by the double line correcting unit 150, and the two white lines have a relationship unique to the parking frame. A parking frame is recognized by determining whether it is satisfied. Hereinafter, the parking frame recognition process by the parking frame recognition unit 160 will be described assuming that the two white lines 92 and 93 shown in FIG. 8C are selected.

駐車枠認識部160は、まず2つの白線92,93が車両10に対して成す角度θ1,θ2を算出する。そして、θ1とθ2との差が所定のしきい値(例えば3度)を上回っている場合には、その2つの白線92,93が駐車枠を構成しないと判断する。これは、一般に駐車枠を構成する2つの白線は平行になっているためである。   The parking frame recognition unit 160 first calculates angles θ1 and θ2 formed by the two white lines 92 and 93 with respect to the vehicle 10. When the difference between θ1 and θ2 exceeds a predetermined threshold (for example, 3 degrees), it is determined that the two white lines 92 and 93 do not constitute a parking frame. This is because the two white lines constituting the parking frame are generally parallel.

次に駐車枠認識部160は、2つの白線92,93の間隔W1が所定範囲(例えば2.4m〜2.7m)から外れているか否かを判定する。そして、間隔W1がこの範囲から外れていた場合には、その2つの白線92,93が駐車枠を構成しないと判断する。この所定範囲は、一般的な駐車場のサイズに基づいて決定される。つまりこの判定は、2つの白線の間隔が、駐車場として期待されるサイズを逸脱していないことを確認するためのものである。   Next, the parking frame recognition unit 160 determines whether or not the interval W1 between the two white lines 92 and 93 is out of a predetermined range (for example, 2.4 m to 2.7 m). And when the space | interval W1 has remove | deviated from this range, it determines that the two white lines 92 and 93 do not comprise a parking frame. This predetermined range is determined based on the size of a general parking lot. That is, this determination is for confirming that the interval between the two white lines does not deviate from the size expected for a parking lot.

次に駐車枠認識部160は、2つの白線92,93の下端のズレ量W2が所定値(例えば30cm)を上回っているか否かを判定する。そして、ズレ量W2がこの所定値を上回っていた場合には、その2つの白線92,93が駐車枠を構成しないと判断する。駐車枠を構成する白線であれば、その端点は揃っていることが期待される。従って、ズレ量W2が大きすぎる場合、その2つの白線92,93は駐車枠を構成していないと考えられる。   Next, the parking frame recognition unit 160 determines whether or not the amount of deviation W2 at the lower ends of the two white lines 92 and 93 exceeds a predetermined value (for example, 30 cm). And when the deviation | shift amount W2 exceeds this predetermined value, it determines that the two white lines 92 and 93 do not comprise a parking frame. If it is a white line constituting the parking frame, it is expected that the end points are aligned. Therefore, when the displacement amount W2 is too large, it is considered that the two white lines 92 and 93 do not constitute a parking frame.

駐車枠認識部160は、以上の判定を全てクリアした場合、2つの白線92,93が駐車枠を構成していると判断する。そして、図8(d)に示すように、その2つの白線92,93により囲まれた領域94を、駐車枠として認識する。   When all the above determinations are cleared, the parking frame recognition unit 160 determines that the two white lines 92 and 93 constitute a parking frame. And as shown in FIG.8 (d), the area | region 94 enclosed by the two white lines 92 and 93 is recognized as a parking frame.

図9は、駐車枠認識部160が実行する駐車枠認識処理のフローチャートである。まずステップS200において、駐車枠認識部160は白線認識部140により認識された全ての白線(二重線補正部150により補正された白線を含む)から、任意の2つの白線を選択する。そしてステップS210において、その2つの白線の角度差が所定値Thθmax以下か否かを判定する。角度差がThθmaxであった場合にはステップS220に進み、そうでなかった場合はステップS250に進む。   FIG. 9 is a flowchart of parking frame recognition processing executed by the parking frame recognition unit 160. First, in step S200, the parking frame recognition unit 160 selects two arbitrary white lines from all the white lines recognized by the white line recognition unit 140 (including the white lines corrected by the double line correction unit 150). In step S210, it is determined whether or not the angle difference between the two white lines is equal to or smaller than a predetermined value Thθmax. If the angle difference is Thθmax, the process proceeds to step S220, and if not, the process proceeds to step S250.

次のステップS220では、その2つの白線の間隔が所定範囲ThWmin〜ThWmaxに収まるか、すなわち、間隔がThWmin以上で且つThWmax以下であるかを判定する。2つの白線の間隔が所定範囲に収まる場合にはステップS230に進み、そうでなかった場合はステップS250に進む。   In the next step S220, it is determined whether the interval between the two white lines falls within a predetermined range ThWmin to ThWmax, that is, whether the interval is greater than or equal to ThWmin and less than or equal to ThWmax. If the distance between the two white lines falls within the predetermined range, the process proceeds to step S230, and if not, the process proceeds to step S250.

続くステップS230において、駐車枠認識部160は、2つの白線の下端のズレ量が所定値ThBmax以下か否かを判定する。ズレ量がThBmax以下であった場合にはステップS240に進み、そうでなかった場合にはステップS250に進む。ステップS240では、2つの白線の上下端の座標、すなわち駐車枠の四隅の座標を駐車枠として登録する。出力部170は、ここで登録された四隅の座標に基づいて、前述の駐車枠情報を出力する。   In subsequent step S230, the parking frame recognition unit 160 determines whether or not the amount of deviation between the lower ends of the two white lines is equal to or less than a predetermined value ThBmax. If the amount of deviation is equal to or less than ThBmax, the process proceeds to step S240, and if not, the process proceeds to step S250. In step S240, the coordinates of the upper and lower ends of the two white lines, that is, the coordinates of the four corners of the parking frame are registered as parking frames. The output unit 170 outputs the aforementioned parking frame information based on the coordinates of the four corners registered here.

ステップS250では、ステップS210以降の処理を全ての白線の組み合わせに対して実行したか否かを判定する。そして、まだ処理していない2つの白線の組み合わせが存在する場合にはステップS200に戻り、全ての白線の組み合わせについて処理が完了していた場合には図9の処理を終了する。つまり駐車枠認識部160は、ステップS210〜ステップS240の処理を、白線認識部140により認識された複数の白線のうち2つの白線を選択する全ての組み合わせについて実行する。   In step S250, it is determined whether or not the processing after step S210 has been executed for all combinations of white lines. If there are two white line combinations that have not yet been processed, the process returns to step S200, and if all the white line combinations have been processed, the process of FIG. 9 ends. That is, the parking frame recognizing unit 160 executes the processes in steps S210 to S240 for all combinations that select two white lines among the plurality of white lines recognized by the white line recognizing unit 140.

上述した第1の実施の形態による車載画像処理装置によれば、次の作用効果が得られる。
(1)画像合成部120は、車両10の周辺を撮影した撮影画像を、車両10の上方の視点からの俯瞰画像に変換する。白線認識部140は、その俯瞰画像から、路面に存在する複数の白線の各々を近似直線として認識する。二重線補正部150は、認識されたそれら複数の白線から、U字二重線形状を構成する2つの白線を特定し、特定した2つの白線の各々について、当該白線の近似直線に含まれる2つの端点の一方の座標を俯瞰画像に基づいて再計算することにより、端点の一方の座標を補正する。二重線補正部150は、補正により2つの白線がより平行に近くなる場合にはその補正の結果を採用し、2つの白線がより平行に近くならない場合にはその補正の結果を破棄する。このようにしたので、U字二重線形状を有する白線を精度よく検出することができる
According to the vehicle-mounted image processing apparatus according to the first embodiment described above, the following operational effects are obtained.
(1) The image composition unit 120 converts a captured image obtained by photographing the periphery of the vehicle 10 into an overhead image from a viewpoint above the vehicle 10. The white line recognition unit 140 recognizes each of a plurality of white lines existing on the road surface as an approximate straight line from the overhead image. The double line correction unit 150 identifies two white lines constituting the U-shaped double line shape from the recognized white lines, and each of the identified two white lines is included in an approximate straight line of the white line. One coordinate of the end point is corrected by recalculating one coordinate of the two end points based on the overhead image. The double line correction unit 150 adopts the result of the correction when the two white lines become more parallel due to the correction, and discards the result of the correction when the two white lines do not become more parallel. Since it did in this way, the white line which has U-shaped double line shape can be detected accurately.

(2)二重線補正部150は、認識された複数の白線から、一方の端点同士の距離が所定のしきい値以下であり且つ他方の端点同士の距離が所定のしきい値以下である2つの白線を、U字二重線形状を構成する2つの白線として特定する。このようにしたので、一方の端点同士が偶然に近くにある、実際にはU字二重線形状を構成しない2つの白線を、U字二重線形状を構成する2つの白線として誤認識することがない。また、図6に示すように、実際にU字二重線形状を構成する2つの白線の補正前の認識結果は、正しい位置に比べて端点同士がより近づく傾向があるので、このようにした場合であっても、実際にはU字二重線形状を構成する2つの白線を、そうでない2つの白線であると誤認識することもない。 (2) The double line correction unit 150 has a distance between one end point of a plurality of recognized white lines that is equal to or less than a predetermined threshold value and a distance between the other end points is equal to or less than a predetermined threshold value. Two white lines are specified as two white lines constituting a U-shaped double line shape. As a result, two white lines that do not actually form a U-shaped double line shape are mistakenly recognized as two white lines that form a U-shaped double line shape. There is nothing. In addition, as shown in FIG. 6, the recognition result before correction of the two white lines that actually configure the U-shaped double line shape tends to bring the end points closer to each other than the correct position. Even in this case, the two white lines that actually constitute the U-shaped double line shape are not erroneously recognized as the two white lines that are not.

(3)二重線補正部150は、特定された2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点のうち、他方の白線との距離が近い方の端点の座標を俯瞰画像に基づいて再計算する。このようにしたので、U字二重線形状を構成する2つの白線の位置を、少ない演算量で的確に補正することができる。 (3) For each of the two specified white lines, the double line correction unit 150 calculates the coordinates of the end point that is closer to the other white line among the two end points included in the approximate line of the white line. Recalculate based on the overhead image. Since it did in this way, the position of the two white lines which comprise a U-shaped double line | wire shape can be correct | amended exactly with a small amount of calculations.

(4)白線認識部140は、俯瞰画像に対してエッジ検出処理を行うことにより複数の白線を認識し、二重線補正部150は、特定した2つの白線の各々について、当該白線の近似直線に含まれる2つの端点の一方から、2つの端点の他方に向けてシフトした位置において、俯瞰画像に対するエッジ検出処理を行うことにより、当該2つの端点の一方の座標を再計算する。このようにしたので、U字二重線形状を構成する2つの白線の位置を、少ない演算量で的確に補正することができる。 (4) The white line recognition unit 140 recognizes a plurality of white lines by performing an edge detection process on the overhead image, and the double line correction unit 150 performs an approximate straight line of the white line for each of the two specified white lines. In the position shifted from one of the two end points to the other of the two end points, edge detection processing is performed on the bird's-eye view image to recalculate one coordinate of the two end points. Since it did in this way, the position of the two white lines which comprise a U-shaped double line | wire shape can be correct | amended exactly with a small amount of calculations.

(5)後方カメラ200は、車両10の周辺を撮影することにより撮影画像を出力する。駐車枠認識部160は、認識された複数の白線から、駐車枠を構成する一対の白線を選択し、選択した一対の白線に基づいて駐車枠の座標を演算する。このようにしたので、U字二重線形状を有する白線により区切られた駐車枠の位置を正確に特定することができる。 (5) The rear camera 200 outputs a photographed image by photographing the periphery of the vehicle 10. The parking frame recognition unit 160 selects a pair of white lines constituting the parking frame from the plurality of recognized white lines, and calculates the coordinates of the parking frame based on the selected pair of white lines. Since it did in this way, the position of the parking frame divided | segmented by the white line which has U-shaped double line shape can be pinpointed correctly.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。   The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.

(変形例1)
上述した第1の実施の形態では、車両の後方を撮影する後方カメラ200を用いて、駐車枠を認識させていた。本発明はこのような実施の形態に限定されない。例えば、車両の前方を撮影した結果に基づいて駐車枠を認識することも可能である。また、車両の前方、後方、左右側方にそれぞれ設けた4つのカメラで撮影した画像に基づいて、車両の真上から見た平面画像を作成する技術を本発明と併用することも可能である。つまり、画像合成部120が、4つのカメラで撮影した画像から上記の平面画像を合成するように車載画像処理装置100を構成してもよい。
(Modification 1)
In the first embodiment described above, the parking frame is recognized using the rear camera 200 that captures the rear of the vehicle. The present invention is not limited to such an embodiment. For example, it is possible to recognize the parking frame based on the result of photographing the front of the vehicle. Further, it is also possible to use in combination with the present invention a technique for creating a planar image viewed from directly above a vehicle based on images taken by four cameras provided at the front, rear, and left and right sides of the vehicle. . That is, the in-vehicle image processing apparatus 100 may be configured so that the image composition unit 120 synthesizes the above-described planar image from images captured by four cameras.

また、車両10の後方を撮影する後方カメラ200に加えて、車両10の前方を撮影する前方カメラを設けた場合、それら2つのカメラを適宜使い分けることができる。例えば、車両10が前進状態のときは前方カメラにより撮影された撮影画像において認識された複数の白線を用いて駐車枠を特定し、車両10が後退状態のときは後方カメラ200により撮影された撮影画像において認識された複数の白線を用いて駐車枠を特定するように、駐車枠認識部160を構成することができる。   Further, when a front camera for photographing the front of the vehicle 10 is provided in addition to the rear camera 200 for photographing the rear of the vehicle 10, these two cameras can be properly used. For example, when the vehicle 10 is in the forward state, the parking frame is specified using a plurality of white lines recognized in the captured image captured by the front camera, and when the vehicle 10 is in the reverse state, the image is captured by the rear camera 200. The parking frame recognition unit 160 can be configured to specify a parking frame using a plurality of white lines recognized in the image.

(変形例2)
上述した第1の実施の形態では、1つの白線を、立ち上がりエッジと立ち下がりエッジとに対応する2つの近似直線により構成していた。本発明はこのような実施の形態に限定されず、立ち上がりエッジと立ち下がりエッジとのいずれかに対応する1つの近似直線により1つの白線を構成してもよい。
(Modification 2)
In the first embodiment described above, one white line is constituted by two approximate lines corresponding to the rising edge and the falling edge. The present invention is not limited to such an embodiment, and one white line may be constituted by one approximate straight line corresponding to either the rising edge or the falling edge.

(変形例3)
上述した第1の実施の形態では、車両の後方を撮影する後方カメラ200から得られる画像を俯瞰画像に変換して得られた画像に基づいて、白線を検出していた。本発明はこのような実施の形態に限定されず、俯瞰画像に変換する前の画像から検出した白線に基づいて、二重線を補正してもよい。例えば、後方カメラ200から得られた撮像画像から直接、白線認識部140により白線を近似直線として検出し、近似直線の端点を世界座標に変換した結果に基づいて2つの直線の平行度や距離を算出し、二重線補正部150で撮像画像上の二重線のエッジを再探索し、補正を行うことも可能である。ただし、俯瞰画像を用いる場合、撮像画像での処理に比べて、2直線間の平行度や距離の算出が容易なため、アルゴリズムがシンプルに構築できる利点がある。
(Modification 3)
In the first embodiment described above, a white line is detected based on an image obtained by converting an image obtained from the rear camera 200 that captures the rear of the vehicle into an overhead image. The present invention is not limited to such an embodiment, and a double line may be corrected based on a white line detected from an image before conversion into an overhead image. For example, the white line is detected as an approximate line directly from the captured image obtained from the rear camera 200, and the parallelism and distance between the two lines are calculated based on the result of converting the end points of the approximate line to world coordinates. It is also possible to perform the correction by calculating and re-searching the edge of the double line on the captured image by the double line correction unit 150. However, when using a bird's-eye view image, there is an advantage that the algorithm can be constructed simply because the parallelism and distance between the two straight lines can be easily calculated as compared with the processing in the captured image.

(変形例4)
二重線補正部150による補正処理は、駐車枠を構成するU字型の二重線のみならず、隣り合う2本の線に外乱が生じたことに起因する誤認識についても補正することができる。例えば図10に示すように、走行中のレーンマーク(白線98a、98bにより構成される)の認識において、そのレーンマークが二重線かどうかを検出する場合、ゴミや汚れ等の外乱99が発生すると、U字型二重線のケースと同様に、白線98aと白線98bとが平行でないと判断される場合がある。このような場合でも、上述した補正手法を用いることで、処理時間をかけることなく白線の認識結果を平行に補正することができ、安定した二重線検出を行うことが可能となる。
(Modification 4)
The correction process by the double line correction unit 150 can correct not only the U-shaped double line that constitutes the parking frame but also misrecognition caused by the occurrence of disturbance in two adjacent lines. it can. For example, as shown in FIG. 10, in the recognition of a running lane mark (consisting of white lines 98a and 98b), when detecting whether the lane mark is a double line, a disturbance 99 such as dust or dirt occurs. Then, as in the case of the U-shaped double line, it may be determined that the white line 98a and the white line 98b are not parallel. Even in such a case, by using the above-described correction method, the recognition result of the white line can be corrected in parallel without taking a processing time, and stable double line detection can be performed.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

100…車載画像処理装置、110…映像取得部、120…画像合成部、130…処理画像選択部、140…白線認識部、150…二重線補正部、160…駐車枠認識部、170…出力部、200…後方カメラ DESCRIPTION OF SYMBOLS 100 ... Car-mounted image processing apparatus, 110 ... Image | video acquisition part, 120 ... Image composition part, 130 ... Processed image selection part, 140 ... White line recognition part, 150 ... Double line correction part, 160 ... Parking frame recognition part, 170 ... Output 200, rear camera

Claims (7)

路面を含む車両の周辺を撮影した撮影画像に基づく処理対象画像を出力する処理対象画像出力部と、
前記処理対象画像出力部により出力された前記処理対象画像から、前記路面に存在する複数の白線の各々を近似直線として認識する白線認識部と、
前記白線認識部により認識された前記複数の白線から、U字二重線形状を構成する2つの白線を特定し、前記特定した2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点の一方の座標を前記処理対象画像に基づいて再計算することにより、前記端点の一方の座標を補正する補正部と、
前記補正部の前記補正によって前記特定された2つの白線が前記補正前に比べてより平行に近くなる場合には前記補正の結果を採用し、前記特定された2つの白線が前記補正前に比べてより平行に近くならない場合には前記補正の結果を破棄する補正結果取捨部と、
を備える車載画像処理装置。
A processing target image output unit that outputs a processing target image based on a photographed image obtained by photographing the periphery of the vehicle including the road surface ;
From outputted the processing target image by the processing target image output unit, and recognizes the white line recognition unit each of a plurality of white lines existing in the road surface as an approximate straight line,
Two white lines constituting a U-shaped double line shape are identified from the plurality of white lines recognized by the white line recognition unit, and each of the identified two white lines is included in the approximate straight line of the white line 2 A correction unit for correcting one coordinate of the end point by recalculating one coordinate of the two end points based on the processing target image;
When the two white lines specified by the correction by the correction unit become more parallel than before the correction, the result of the correction is adopted, and the two specified white lines are compared with those before the correction. A correction result discarding unit that discards the correction result when it is not nearly parallel,
A vehicle-mounted image processing apparatus comprising:
請求項1に記載の車載画像処理装置において、
前記処理対象画像出力部は、前記撮影画像を前記車両の上方の視点からの画像に変換した俯瞰画像を前記処理対象画像として出力する車載画像処理装置。
The in-vehicle image processing apparatus according to claim 1,
The processed image output unit, the vehicle-mounted image processing apparatus for outputting an overhead image obtained by converting the captured image to the image from the upper viewpoint of the vehicle as the processing target image.
請求項に記載の車載画像処理装置において、
前記補正部は、前記白線認識部により認識された前記複数の白線から、一方の端点同士の距離が所定のしきい値以下であり且つ他方の端点同士の距離が所定のしきい値以下である2つの白線を、前記U字二重線形状を構成する2つの白線として特定する車載画像処理装置。
The in-vehicle image processing apparatus according to claim 2 ,
The correction unit has a distance between one end point of the plurality of white lines recognized by the white line recognition unit being a predetermined threshold value or less and a distance between the other end points being a predetermined threshold value or less. An in-vehicle image processing apparatus that identifies two white lines as two white lines constituting the U-shaped double line shape.
請求項2または3に記載の車載画像処理装置において、
前記補正部は、前記特定された2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点のうち、他方の白線との距離が近い方の端点の座標を前記俯瞰画像に基づいて再計算する車載画像処理装置。
The in-vehicle image processing device according to claim 2 or 3 ,
The correction unit, for each of the identified two white lines, based on the overhead image, the coordinates of the end point that is closer to the other white line among the two end points included in the approximate line of the white line In-vehicle image processing device that recalculates.
請求項〜4のいずれか一項に記載の車載画像処理装置において、
前記白線認識部は、前記俯瞰画像に対してエッジ検出処理を行うことにより、前記複数の白線を認識し、
前記補正部は、前記特定した2つの白線の各々について、当該白線の前記近似直線に含まれる2つの端点の一方から、2つの端点の他方に向けてシフトした位置において、前記俯瞰画像に対するエッジ検出処理を行うことにより、当該2つの端点の一方の座標を再計算する車載画像処理装置。
The in-vehicle image processing device according to any one of claims 2 to 4,
The white line recognition unit recognizes the plurality of white lines by performing an edge detection process on the overhead image.
The correction unit detects, for each of the two specified white lines, edge detection for the overhead image at a position shifted from one of two end points included in the approximate line of the white line toward the other of the two end points. An in-vehicle image processing apparatus that recalculates one coordinate of the two end points by performing processing.
請求項〜5のいずれか一項に記載の車載画像処理装置において、
前記認識された複数の白線から、駐車枠を構成する一対の白線を選択する選択部と、
前記選択部により選択された一対の白線に基づいて、前記駐車枠の座標を演算する演算部とを備える車載画像処理装置。
The in-vehicle image processing device according to any one of claims 2 to 5,
A selection unit that selects a pair of white lines constituting a parking frame from the plurality of recognized white lines;
A vehicle-mounted image processing apparatus comprising: a calculation unit that calculates coordinates of the parking frame based on a pair of white lines selected by the selection unit.
請求項6に記載の車載画像処理装置において、
前記選択部は、前記車両が前進状態のときは前記車両の前方を撮影する前方カメラにより撮影された前記撮影画像に基づいて前記一対の白線を選択し、前記車両が後退状態のときは前記車両の後方を撮影する後方カメラにより撮影された前記撮影画像に基づいて前記一対の白線を選択する車載画像処理装置。
The in-vehicle image processing device according to claim 6,
The selection unit selects the pair of white lines based on the captured image captured by a front camera that captures the front of the vehicle when the vehicle is in a forward state, and the vehicle when the vehicle is in a reverse state. A vehicle-mounted image processing apparatus that selects the pair of white lines based on the captured image captured by a rear camera that captures the rear of the camera.
JP2012258715A 2012-11-27 2012-11-27 In-vehicle image processing device Active JP6086424B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012258715A JP6086424B2 (en) 2012-11-27 2012-11-27 In-vehicle image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012258715A JP6086424B2 (en) 2012-11-27 2012-11-27 In-vehicle image processing device

Publications (2)

Publication Number Publication Date
JP2014106706A JP2014106706A (en) 2014-06-09
JP6086424B2 true JP6086424B2 (en) 2017-03-01

Family

ID=51028145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012258715A Active JP6086424B2 (en) 2012-11-27 2012-11-27 In-vehicle image processing device

Country Status (1)

Country Link
JP (1) JP6086424B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6817804B2 (en) * 2016-12-16 2021-01-20 クラリオン株式会社 Bound line recognition device
JP6778620B2 (en) * 2017-01-17 2020-11-04 株式会社デンソーテン Road marking device, road marking system, and road marking method
JP6869467B2 (en) * 2017-04-24 2021-05-12 アイシン精機株式会社 Parking support device
JP7164172B2 (en) * 2018-03-19 2022-11-01 株式会社デンソーテン PARKING FRAME CONSTRUCTION DEVICE AND PARKING FRAME CONSTRUCTION METHOD
JP2020015372A (en) * 2018-07-24 2020-01-30 株式会社デンソーテン Image processing device and image processing method
JP2020095631A (en) * 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP7380073B2 (en) * 2019-10-21 2023-11-15 株式会社アイシン parking assist device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010030427A (en) * 2008-07-29 2010-02-12 Toyota Motor Corp Parking support system and parking support device
JP2012136206A (en) * 2010-12-28 2012-07-19 Fujitsu Ten Ltd System and method for parking control
JP2013018406A (en) * 2011-07-12 2013-01-31 Fujitsu Ten Ltd Recognizing device of parking frame, recognizing method of parking frame and program

Also Published As

Publication number Publication date
JP2014106706A (en) 2014-06-09

Similar Documents

Publication Publication Date Title
JP6086424B2 (en) In-vehicle image processing device
JP4801821B2 (en) Road shape estimation device
JP5375958B2 (en) Image processing apparatus and image processing method
JP4937030B2 (en) Image processing apparatus for vehicle
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
WO2012081359A1 (en) Lane recognition device
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP5402828B2 (en) Lane boundary detection device, lane boundary detection program
JP6377970B2 (en) Parallax image generation apparatus and parallax image generation method
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP6093314B2 (en) Boundary line recognition device
JP6642906B2 (en) Parking position detection system and automatic parking system using the same
JP2008102620A (en) Image processing device
JP6152261B2 (en) Car parking frame recognition device
JP2014106739A (en) In-vehicle image processing device
EP3631675B1 (en) Advanced driver assistance system and method
CN109522779B (en) Image processing apparatus and method
JP5931691B2 (en) White line detection device and white line detection method
JP2007018451A (en) Road boundary line detecting device
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP6677141B2 (en) Parking frame recognition device
JP5957182B2 (en) Road surface pattern recognition method and vehicle information recording apparatus
JP5472137B2 (en) Boundary detection device and boundary detection program
JP6677142B2 (en) Parking frame recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170104

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170125

R150 Certificate of patent or registration of utility model

Ref document number: 6086424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250