JP2014106704A - In-vehicle image processing device - Google Patents

In-vehicle image processing device Download PDF

Info

Publication number
JP2014106704A
JP2014106704A JP2012258699A JP2012258699A JP2014106704A JP 2014106704 A JP2014106704 A JP 2014106704A JP 2012258699 A JP2012258699 A JP 2012258699A JP 2012258699 A JP2012258699 A JP 2012258699A JP 2014106704 A JP2014106704 A JP 2014106704A
Authority
JP
Japan
Prior art keywords
image
point
detected
end points
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012258699A
Other languages
Japanese (ja)
Inventor
Shoji Muramatsu
彰二 村松
Taketo Ogata
健人 緒方
Masahiro Kiyohara
將裕 清原
Tomohito Suzuki
智史 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012258699A priority Critical patent/JP2014106704A/en
Publication of JP2014106704A publication Critical patent/JP2014106704A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reliably detect a road marker even when a three-dimensional object is present.SOLUTION: An image converting and synthesizing unit 20 converts an image including a road surface taken by an imaging unit 10 into a bird's-eye view image. An end point position detecting unit 30 scans the bird's-eye view image in at least one predetermined direction so as to detect a position of a first point where the brightness varies from dark to bright, and a position of a second point where the brightness varies from bright to dark, within a predetermined distance from the first point in the predetermined direction; and the end point position detecting unit detects positions of both end points of a center line M obtained by connecting a plurality of center points between the first points and the second points, the center points detected along a direction orthogonal to the predetermined direction. A radial edge detecting unit 40 detects, from line segments connecting the end points, a line segment extending from a point corresponding to the position where the imaging unit 10 is installed, toward a peripheral edge of the bird's-eye view image. A road marker detecting unit 50 detects a cross-walk Z (road marker) based on the line segments excluding the line segment detected by the radial edge detecting unit 40, in the line segments connecting both end points of the center line M.

Description

本発明は、車載カメラによって、路面に描かれた横断歩道や道路標識等の道路マーカを検出する車載画像処理装置に関するものである。   The present invention relates to an in-vehicle image processing apparatus that detects a road marker such as a pedestrian crossing or a road sign drawn on a road surface by an in-vehicle camera.

近年、車両にカメラを搭載して、そのカメラで車両の周辺を観測し、観測された画像の中から、路面に引かれた白線や黄線によって表現された横断歩道や道路標識等を検出して、こうして検出された情報を運転者に伝えて安全運転を支援するシステムが研究開発されている。   In recent years, a camera has been installed in a vehicle, the surroundings of the vehicle are observed with the camera, and pedestrian crossings and road signs represented by white lines and yellow lines drawn on the road surface are detected from the observed images. Thus, a system for supporting the safe driving by transmitting the detected information to the driver has been researched and developed.

このようなシステムでは、例えば、横断歩道等の路面標識の認識を行う際に、道路の走路境界を示す白線を構成するエッジ情報を抑制して、横断歩道を確実に検出している(例えば特許文献1)。   In such a system, for example, when recognizing a road surface sign such as a pedestrian crossing, edge information constituting a white line indicating a road boundary of a road is suppressed to reliably detect a pedestrian crossing (for example, a patent) Reference 1).

特開2011−154480号公報JP 2011-154480 A

しかしながら、特許文献1に開示された発明によると、横断歩道の認識を行う際に、横断歩道と誤認識する可能性のある、道路の走路境界を示す白線の情報を抑制することはできるが、道路上には、走路境界を示す白線以外にも、横断歩道のような道路標識(以下、道路マーカと呼ぶ。)を認識する際に、誤認識を誘発する構造物が存在する。例えば、道路上にある立体物を構成するエッジや、レンズに付着した水滴等は、その明暗パターンが道路マーカと類似する場合、道路マーカと誤認識をしてしまうという問題がある。したがって、単に走路境界示す白線の情報を抑制しただけでは、横断歩道のような道路マーカを安定して確実に検出するのは困難である。   However, according to the invention disclosed in Patent Document 1, when recognizing a pedestrian crossing, it is possible to suppress white line information indicating the road boundary of a road, which may be erroneously recognized as a pedestrian crossing, In addition to the white line indicating the road boundary, there are structures on the road that cause misrecognition when recognizing a road sign such as a pedestrian crossing (hereinafter referred to as a road marker). For example, an edge constituting a three-dimensional object on a road, a water droplet attached to a lens, or the like has a problem that it is erroneously recognized as a road marker when its light and dark pattern is similar to a road marker. Therefore, it is difficult to stably and reliably detect a road marker such as a pedestrian crossing simply by suppressing the information on the white line indicating the road boundary.

本発明は、上記課題に鑑みてなされたもので、路面上にある立体物を構成するエッジ情報や、レンズに付着した水滴等の、道路マーカを検出する上でノイズとなる物標を予め除去することによって、路面に描かれた横断歩道や道路標識等の道路マーカを安定して確実に検出することができる車載画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and removes in advance information that becomes noise when detecting a road marker such as edge information constituting a three-dimensional object on a road surface or a water droplet attached to a lens. It is an object of the present invention to provide an in-vehicle image processing apparatus that can stably and reliably detect a road marker such as a pedestrian crossing or a road sign drawn on a road surface.

本発明に係る車載画像処理装置は、車両に設置されて、前記車両の周囲を観測して、少なくとも路面を含む画像を撮像する撮像部と、前記撮像部で撮像された画像を、前記車両の真上から見下ろした俯瞰画像に変換する画像変換部と、前記俯瞰画像を少なくとも1つの所定方向にスキャンしながら、輝度が暗から明に変化する第1の点の位置と前記第1の点から前記所定方向に所定距離以内にある、輝度が明から暗に変化する第2の点の位置を検出し、前記所定方向に直交する方向に亘って検出された複数の第1の点からなる線素の両端点の位置、複数の第2の点からなる線素の両端点の位置、または前記第1の点と前記第2の点の中点同士を連結した中心線の両端点の位置を検出する端点位置検出部と、前記両端点を結ぶ線分の中から、前記撮像部の設置位置に対応する点から前記俯瞰画像の周縁に向かって延びる線分を検出する放射状エッジ検出部と、前記両端点を結ぶ線分のうち、前記放射状エッジ検出部で検出された線分を除いた線分に基づいて道路マーカを検出する道路マーカ検出部と、を有することを特徴とする。   An in-vehicle image processing apparatus according to the present invention is installed in a vehicle, observes the surroundings of the vehicle, captures an image including at least a road surface, and captures an image captured by the imaging unit. From the first point and the position of the first point at which the luminance changes from dark to bright while scanning the overhead image in at least one predetermined direction while converting the overhead image to a bird's eye view looking down from above A line made up of a plurality of first points detected in a direction perpendicular to the predetermined direction by detecting a position of a second point within a predetermined distance in the predetermined direction, the luminance of which changes from light to dark. The position of both end points of the element, the position of both end points of the line element composed of a plurality of second points, or the position of both end points of the center line connecting the midpoints of the first point and the second point From the end point position detection unit to be detected and the line segment connecting the both end points, A radial edge detection unit that detects a line segment extending from the point corresponding to the installation position of the imaging unit toward the periphery of the overhead image, and a line detected by the radial edge detection unit among the line segments that connect the both end points And a road marker detection unit that detects a road marker based on the line segment excluding the minutes.

このように構成された本発明に係る車載画像処理装置によれば、撮像部で撮像された路面を含む画像が、画像変換部で俯瞰画像に変換されて、端点位置検出部が、俯瞰画像を少なくとも1つの所定方向にスキャンしながら、輝度が暗から明に変化する第1の点の位置と前記第1の点から前記所定方向に所定距離以内にある、輝度が明から暗に変化する第2の点の位置を検出し、前記所定方向に直交する方向に亘って検出された複数の第1の点からなる線素の両端点の位置、複数の第2の点からなる線素の両端点の位置、または前記第1の点と前記第2の点の中点同士を連結した中心線の両端点の位置を検出して、放射状エッジ検出部が、端点位置検出部で検出された両端点を結ぶ線分の中から、撮像部の設置位置に対応する点から俯瞰画像の周縁に向かって延びる線分を検出して、道路マーカ検出部が、端点位置検出部で検出された両端点を結ぶ線分のうち、放射状エッジ検出部で検出された線分を除いた線分に基づいて道路マーカを検出するため、道路上に存在する立体物を構成するエッジや、レンズに付着した水滴等の影響を除去することができ、これによって、路面に描かれた道路マーカを安定して確実に検出することができる。   According to the in-vehicle image processing device according to the present invention configured as described above, an image including a road surface imaged by the imaging unit is converted into an overhead image by the image conversion unit, and the end point position detection unit converts the overhead image into an overhead image. The first point where the luminance changes from dark to bright while scanning in at least one predetermined direction and the first point where the luminance changes within a predetermined distance from the first point in the predetermined direction. The positions of the two end points of the line element consisting of a plurality of first points and the ends of the line element consisting of a plurality of second points, which are detected in the direction orthogonal to the predetermined direction. The positions of the points or the positions of both end points of the center line connecting the midpoints of the first point and the second point are detected, and the radial edge detection unit detects both ends detected by the end point position detection unit. From the line segment connecting the points, from the point corresponding to the installation position of the imaging unit, A line segment is detected by detecting a line segment extending toward the edge, and the road marker detection unit excludes the line segment detected by the radial edge detection unit from the line segments connecting the both end points detected by the end point position detection unit. Because the road marker is detected based on the image, it is possible to remove the influence of the edges that make up a three-dimensional object on the road and the water droplets attached to the lens, thereby stabilizing the road marker drawn on the road surface. And can be reliably detected.

本発明に係る車載画像処理装置によれば、路面に描かれた道路マーカを安定して確実に検出することができる。   According to the vehicle-mounted image processing apparatus according to the present invention, a road marker drawn on a road surface can be detected stably and reliably.

本発明に係る車載画像処理装置の実施例1が実装された車両について説明する図である。It is a figure explaining the vehicle by which Example 1 of the vehicle-mounted image processing apparatus which concerns on this invention was mounted. 本発明の実施例1の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of Example 1 of this invention. (a)は具体的な道路環境の1例を示す図である。(b)は(a)の道路環境を車載した撮像部で撮像して、俯瞰画像に変換して合成した画像の1例である。(A) is a figure showing an example of a concrete road environment. (B) is an example of the image which image | photographed with the imaging part which mounted the road environment of (a) in-vehicle, converted into the bird's-eye view image, and was synthesize | combined. (a)は立体物を構成するエッジの特徴について説明する図である。(b)は放射状エッジの検出方法について説明する図である。(A) is a figure explaining the characteristic of the edge which comprises a solid object. (B) is a figure explaining the detection method of a radial edge. 道路マーカの1例である横断歩道の検出方法について説明する図である。It is a figure explaining the detection method of the pedestrian crossing which is an example of a road marker. 本発明の実施例1の処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a process of Example 1 of this invention. 画像に付着した水滴の影響を除去する例について説明する図である、It is a figure explaining the example which removes the influence of the water drop adhering to the image.

以下、本発明に係る車載画像処理装置の実施形態について、図面を参照して説明する。なお、以下の説明において、画像に格納された濃淡値のことを輝度値と呼ぶ。また、画像Iの画素(x,y)の輝度値をI(x,y)で表すものとする。   Embodiments of an in-vehicle image processing apparatus according to the present invention will be described below with reference to the drawings. In the following description, the gray value stored in the image is referred to as a luminance value. Also, the luminance value of the pixel (x, y) of the image I is represented by I (x, y).

本実施例は、本発明の車載画像処理装置を、路面に描かれた横断歩道,停止線,駐車枠,道路標識等の道路マーカを検出して、検出された道路マーカに基づいて、注意喚起や運転アドバイス等の運転支援情報を提供するシステムに適用した例である。   In this embodiment, the in-vehicle image processing apparatus according to the present invention detects a road marker such as a pedestrian crossing, a stop line, a parking frame, or a road sign drawn on the road surface, and alerts based on the detected road marker. It is an example applied to a system that provides driving support information such as driving advice.

まず、図1と図2を用いて、本発明に係る車載画像処理装置の構成を説明する。本車載画像処理装置5(図2参照)は、車両1(図1参照)に実装されて、図1に示すように、車両1の前方を撮像する前方カメラ10Aと、車両1の左ドアミラーに装着されて、車両の左方向を撮像する左方カメラ10Bと、車両1の右ドアミラーに装着されて、車両の右方向を撮像する右方カメラ10Cと、車両1の後方を撮像する後方カメラ10Dを有している。そして、これら4台のカメラによって構成された撮像部10によって、車両1の周囲の路面を観測できるようになっている。なお、各カメラは、レンズ等の集光機能を有する光学系とC−MOS等の光電変換素子とから構成されている。   First, the configuration of the in-vehicle image processing apparatus according to the present invention will be described with reference to FIGS. 1 and 2. The in-vehicle image processing device 5 (see FIG. 2) is mounted on a vehicle 1 (see FIG. 1), and as shown in FIG. 1, a front camera 10A that images the front of the vehicle 1 and a left door mirror of the vehicle 1 A left camera 10B that is mounted and images the left direction of the vehicle, a right camera 10C that is mounted on the right door mirror of the vehicle 1 and images the right direction of the vehicle, and a rear camera 10D that images the rear of the vehicle 1 have. The road surface around the vehicle 1 can be observed by the imaging unit 10 constituted by these four cameras. Each camera is composed of an optical system having a light collecting function such as a lens and a photoelectric conversion element such as a C-MOS.

図2は、実施例1の全体構成を示すブロック図である。車載画像処理装置5は、車両1(図1参照)に実装されて、車両1の周囲の路面を含む領域を撮像する撮像部10と、撮像部10を構成する前方カメラ10A,左方カメラ10B,右方カメラ10C,後方カメラ10Dで撮像された画像を、それぞれ、車両1の上空から見下ろした俯瞰画像に座標変換して、1枚の画像に合成する画像変換、合成部20と、画像変換、合成部20で合成された画像の中から、所定の方向に近接する複数の+エッジと−エッジの中点同士を連結した線分の両端点の位置を検出する端点位置検出部30と、端点位置検出部30で検出された複数の両端点の中から、その両端点を結ぶ線分が、俯瞰画像の中で撮像部10の設置位置から、その撮像部10が撮像した画像の周縁部に向けて放射状に延びているものを検出する放射状エッジ検出部40と、検出された両端点の位置を記憶しておく端点リスト45と、横断歩道や停車線、路面標識、駐車枠等の道路マーカの形状特徴が記憶された道路マーカデータベース48と、端点リスト45に記憶された両端点の位置と道路マーカデータベース48に基づいて道路マーカを検出する道路マーカ検出部50と、車両1の運転者に対して、検出された道路マーカに応じた注意喚起表示を行う、ディスプレイ装置や音声出力装置からなる情報出力部60と、からなる。   FIG. 2 is a block diagram illustrating the overall configuration of the first embodiment. The in-vehicle image processing device 5 is mounted on the vehicle 1 (see FIG. 1), and the imaging unit 10 that captures an area including the road surface around the vehicle 1, and the front camera 10A and the left camera 10B that configure the imaging unit 10. , Image conversion that combines the images captured by the right camera 10 </ b> C and the rear camera 10 </ b> D into a bird's-eye view image looking down from above the vehicle 1, and combines them into a single image, and image conversion An end point position detection unit 30 that detects positions of both end points of a line segment connecting the midpoints of a plurality of + edges and − edges that are close to each other in a predetermined direction from the image synthesized by the synthesis unit 20; Of the plurality of end points detected by the end point position detection unit 30, the line segment connecting the both end points is the peripheral portion of the image captured by the image capturing unit 10 from the installation position of the image capturing unit 10 in the overhead image. Check for radial extension toward A radial edge detector 40, an end point list 45 for storing the positions of the detected end points, and a road marker database storing road marker shape features such as pedestrian crossings, lanes, road markings, and parking frames 48, a road marker detection unit 50 for detecting a road marker based on the positions of both end points stored in the end point list 45 and the road marker database 48, and the driver of the vehicle 1 according to the detected road marker. And an information output unit 60 including a display device and a voice output device.

以下、車載画像処理装置5の動作概要のうち、ポイントになる部分について説明する。
<俯瞰画像の生成、合成方法の説明>
図3(b)に示すように、前方カメラ10Aで撮像した画像と、左方カメラ10Bで撮像した画像と、右方カメラ10Cで撮像した画像と、後方カメラ10Dで撮像した画像は、画像変換、合成部20において、車両1を真上から見下ろした俯瞰画像に座標変換されて、さらに、1枚の画像Iとして合成される。
Hereinafter, the point which is a point in the operation | movement outline | summary of the vehicle-mounted image processing apparatus 5 is demonstrated.
<Description of generation and synthesis method of overhead image>
As shown in FIG. 3B, an image captured by the front camera 10A, an image captured by the left camera 10B, an image captured by the right camera 10C, and an image captured by the rear camera 10D are converted into an image. The synthesizing unit 20 performs coordinate conversion to an overhead image obtained by looking down the vehicle 1 from directly above, and further, the image is synthesized as one image I.

この画像Iは、車両1の位置を表す領域Vの回りに、前方カメラ10Aで撮像した画像が変換された俯瞰画像Iと、左方カメラ10Bで撮像した画像が変換された俯瞰画像Iと、右方カメラ10Cで撮像した画像が変換された俯瞰画像Iと、後方カメラ10Dで撮像した画像が変換された俯瞰画像Iが、各カメラの設置方向に対応する方向に向けて合成されたものである。すなわち、例えば俯瞰画像Iは、前方カメラ10Aが設置された位置に対応する俯瞰画像上の点Oから、領域Vにおける車両1の前方に対応する方向に、領域Vからの距離が大きくなるほど広い範囲が映るように配置される。 This image I includes an overhead image I 1 obtained by converting an image captured by the front camera 10A and an overhead image I 2 obtained by converting an image captured by the left camera 10B around a region V representing the position of the vehicle 1. Then, the overhead image I 3 converted from the image captured by the right camera 10C and the overhead image I 4 converted from the image captured by the rear camera 10D are combined in a direction corresponding to the installation direction of each camera. It has been done. That is, for example, the bird's-eye view image I 1 increases as the distance from the region V increases in the direction corresponding to the front of the vehicle 1 in the region V from the point O 1 on the bird's-eye view image corresponding to the position where the front camera 10A is installed. Arranged so that a wide range is reflected.

俯瞰画像I,俯瞰画像I,俯瞰画像Iについても同様に、それぞれ、左方カメラ10B,右方カメラ10C,後方カメラ10Dが設置された位置に対応する俯瞰画像上の位置から、領域Vにおける車両1の左方に対応する方向、右方に対応する方向、後方に対応する方向に、それぞれ、領域Vからの距離が大きくなるほど広い範囲が映るように配置される。 Similarly, the bird's-eye view image I 2 , the bird's-eye view image I 3 , and the bird's-eye view image I 4 are each viewed from the position on the bird's-eye view image corresponding to the position where the left camera 10B, the right camera 10C, and the rear camera 10D are installed. In the direction corresponding to the left side of the vehicle 1 in V, the direction corresponding to the right side, and the direction corresponding to the rear side, the larger the distance from the region V, the larger the range is displayed.

なお、この俯瞰画像への座標変換は、昨今、車両周囲のモニタリングシステムとして実用化されている公知の技術であるため、詳細な処理方法の説明は省略する。   In addition, since the coordinate conversion to this bird's-eye view image is a well-known technique that has recently been put into practical use as a monitoring system around the vehicle, a detailed description of the processing method is omitted.

<道路マーカ候補領域の検出方法の説明>
次に、道路マーカ候補領域の端点位置を検出する方法について説明する。
<Description of detection method of road marker candidate area>
Next, a method for detecting the end point position of the road marker candidate region will be described.

車両1が図3(a)に示す道路Rにあるときに、撮像部10で撮像された画像I(図3(b))の中には、道路Rの路面に描かれた横断歩道Zがその像Z’として映り、また、道路Rに設置された電信柱Sがその像S’として映る。   When the vehicle 1 is on the road R shown in FIG. 3A, a pedestrian crossing Z drawn on the road surface of the road R is included in the image I (FIG. 3B) captured by the imaging unit 10. The image Z ′ is reflected, and the telephone pole S installed on the road R is reflected as the image S ′.

画像Iの左上を原点(0,0)として、左右方向をx、上下方向をyとする。そして、端点位置検出部30(図2参照)において、画像Iの中を、左から右に向かって、画像Iに格納された輝度値I(x,y)を参照しながら、隣接する2つの画素の輝度値の差を計算する。参照した画素(x,y)に対して、輝度差I(x−1,y)−I(x,y)と、輝度差I(x,y)−I(x+1,y)を、画像Iの全ての画素に対して順次計算する。   The upper left of the image I is the origin (0, 0), the horizontal direction is x, and the vertical direction is y. Then, in the end point position detection unit 30 (see FIG. 2), while referring to the luminance value I (x, y) stored in the image I from the left to the right in the image I, two adjacent points are detected. The difference between the luminance values of the pixels is calculated. For the referenced pixel (x, y), the luminance difference I (x−1, y) −I (x, y) and the luminance difference I (x, y) −I (x + 1, y) are represented as an image I. The calculation is sequentially performed for all the pixels.

そして、輝度値が所定値よりも大きく明るく変化する画素、すなわち、予め設定した輝度差しきい値Ithに対して、I(x,y)−I(x−1,y)>Ithを満たす画素、すなわち、輝度が暗から明に所定値以上変化する点を第1の点として検出する。この画素を+エッジと呼ぶ。 The pixel luminance value changes significantly brighter than a predetermined value, i.e., the luminance difference threshold I th set in advance, satisfy I (x, y) -I ( x-1, y)> I th A pixel, that is, a point where the luminance changes from dark to bright by a predetermined value or more is detected as the first point. This pixel is called a + edge.

さらに、輝度値が所定値よりも大きく暗く変化する画素、すなわち、I(x,y)−I(x+1,y)>Ithである画素、すなわち、輝度が明から暗に所定値以上変化する点を第2の点として検出する。この画素を−エッジと呼ぶ。 Further, a pixel whose luminance value changes darker than a predetermined value, that is, a pixel where I (x, y) −I (x + 1, y)> I th , that is, a luminance changes by a predetermined value or more from light to dark. A point is detected as a second point. This pixel is called -edge.

道路マーカであれば、+エッジを構成する画素と−エッジを構成する画素の間隔は、道路マーカを構成する白線の幅とほぼ等しくなるため、画像Iの中から検出された+エッジを構成する画素と、その+エッジに隣接して検出された−エッジを構成する画素のペア(エッジペアと呼ぶ。)の間隔wが所定距離以内であるとき、このエッジペアは、道路マーカを構成する可能性が高いと判断して、+エッジを構成する画素と−エッジを構成する画素を検出する。   In the case of a road marker, since the interval between the pixels constituting the + edge and the pixels constituting the − edge is substantially equal to the width of the white line constituting the road marker, the + edge detected from the image I is constituted. When an interval w between a pixel and a pair of pixels constituting an −edge detected adjacent to the + edge (referred to as an edge pair) is within a predetermined distance, the edge pair may constitute a road marker. It is determined that the pixel is high, and a pixel constituting the + edge and a pixel constituting the − edge are detected.

例えば、画像Iに格納された輝度値を、図3(b)の左から右に向かって参照したとき、例えば、道路Rの路面領域に対して高い輝度を有する電信柱Sの像S’の領域においては、図4(a)に示すように、+エッジで構成される画素が連続して構成される線分Lと、−エッジで構成される画素が連続して構成される線分Lが検出される。 For example, when the luminance value stored in the image I is referred from the left to the right in FIG. 3B, for example, the image S ′ of the telephone pole S having a high luminance with respect to the road surface area of the road R. in the region, as shown in FIG. 4 (a), + the line segment L 1 composed pixel is formed continuously with the edge, - the line segment constituted by pixels formed at the edge is continuously L 2 is detected.

すなわち、電信柱Sの像S’の領域にあっては、+エッジと−エッジに挟まれた領域は、輝度を参照した左右方向に直交する方向に亘って連続して検出される。こうして形成された、+エッジで構成される画素が連続して構成される線分Lと、−エッジで構成される画素が連続して構成される線分Lによって挟まれた領域を道路マーカ候補領域と呼ぶ。 That is, in the area of the image S ′ of the telephone pole S, the area sandwiched between the + edge and the − edge is continuously detected in the direction orthogonal to the left-right direction with reference to the luminance. Thus formed, the line segment L 1 constituted by consecutive pixels composed + edge - road region sandwiched by the configured line L 2 formed pixels are continuously at the edge This is called a marker candidate area.

こうした道路マーカ候補領域の検出は、画像Iの全体に対して行われる。   Such detection of the road marker candidate region is performed on the entire image I.

<道路マーカ候補領域の端点検出方法の説明>
次に、検出された道路マーカ候補領域の中から、その端点を検出する方法について説明する。
<Description of end point detection method of road marker candidate area>
Next, a method for detecting the end point from the detected road marker candidate region will be described.

+エッジで構成される画素が連続して構成される線分Lと、−エッジで構成される画素が連続して構成される線分Lから、画像Iを左右方向に探索したときに隣り合って検出された+エッジで構成される画素と−エッジで構成される画素の中点同士を連結した中心線Mを検出する。これによって、例えば、電信柱Sの像S’の領域からは、図4(a)に示すように、点mと点mを結ぶ中心線Mが検出される。このようにして検出された中心線Mの両端点(点mと点m)を、道路マーカ候補領域の端点と呼ぶ。 + A segment L 1 composed pixel is formed continuously with the edge, - from the line segment L 2 consists pixel is formed continuously at the edge, when searching an image I in the transverse direction A center line M is detected by connecting the midpoints of pixels formed by + edges and pixels formed by −edges that are detected adjacent to each other. Thereby, for example, from the region of the image S ′ of the telephone pole S, as shown in FIG. 4A, a center line M connecting the points m 1 and mn is detected. The end points (point m 1 and point m n ) of the center line M detected in this way are called end points of the road marker candidate region.

なお、実際は、1つの道路マーカ候補領域の中から、端点m,mだけではなく、より多くの中点を検出して、それらの中点を連結して中心線Mとする。 In practice, not only the end points m 1 and mn but also more midpoints are detected from one road marker candidate region, and these midpoints are connected to form the center line M.

こうした端点の検出を、領域Vの内部を除く画像Iの全体について行い、検出された端点は、端点リスト45に記憶される。
<放射状エッジの検出方法の説明>
前述した電信柱Sは路面から垂直に立っているため、その像S’の領域から検出した中心線Mの両端点m,mと点Oとは1直線上にある。
Such end points are detected for the entire image I excluding the inside of the region V, and the detected end points are stored in the end point list 45.
<Description of radial edge detection method>
Since the above-mentioned telephone pole S stands vertically from the road surface, both end points m 1 and mn of the center line M detected from the area of the image S ′ and the point O 1 are on one straight line.

これは、前述した俯瞰画像を生成する際に行う座標変換は、カメラに映った点が、全て路面上の点であると仮定して行われるため、路面から垂直に立ち上がった物標を構成する点は、その点の高い位置にあるほど、カメラから遠方の路面上にあるものとして座標変換されるためである。   This is because the coordinate conversion performed when generating the above-described bird's-eye view image is performed on the assumption that all points reflected on the camera are points on the road surface, so that a target standing upright from the road surface is formed. This is because the higher the position of the point, the more the point is coordinate-transformed as being on a road surface far from the camera.

さらに、電信柱Sの左右の垂直エッジを構成する点は、俯瞰画像上で、それぞれ線分Lと線分Lに座標変換されるが、このとき、線分Lと線分Lは、点Oから遠さかるほど、その間隔が広がるように変換される。すなわち、実環境において路面から垂直に立ち上がった垂直エッジのペアは、俯瞰画像上では、撮像部が設置された位置に対応する点から放射状に広がる領域に座標変換される。 Further, the points constituting the left and right vertical edges of the telephone pole S are coordinate-converted into the line segment L 1 and the line segment L 2 on the overhead image, respectively, but at this time, the line segment L 1 and the line segment L 2 are converted. Is converted so that the distance from the point O 1 increases as the distance from the point O 1 increases. That is, a pair of vertical edges that rise vertically from the road surface in the actual environment is coordinate-converted on the overhead image to a region that spreads radially from a point corresponding to the position where the imaging unit is installed.

本発明では、この特徴を用いて、実環境における垂直エッジの有無を判断する。そして、俯瞰画像の中からその条件に該当するエッジを除去することによって、立体物の存在に影響されずに、道路マーカの検出を行う。   In the present invention, this feature is used to determine the presence or absence of vertical edges in the real environment. Then, the road marker is detected without being affected by the presence of the three-dimensional object by removing the edge corresponding to the condition from the overhead image.

放射状に広がるエッジの検出は、放射状エッジ検出部40において行われる。具体的な検出方法について、図4,5を用いて、俯瞰画像Iの内部で放射状エッジを検出する場合を例にあげて説明する。 The detection of the edge that spreads radially is performed by the radial edge detector 40. A specific detection method will be described with reference to FIGS. 4 and 5, taking as an example a case where a radial edge is detected inside the overhead image I 1 .

端点リスト35に記憶された、中心線Mの両端点の座標(例えば点mと点m)を読み出して、前方カメラ10Aの設置位置に対応する点Oの座標と、点mの座標と、点mの座標を用いて、図4(b)に示すように、画像Iの左右方向に対して線分Oのなす角度θaと、画像Iの左右方向に対して線分mのなす角度θbの差の絶対値を求める。 The coordinates (for example, the points m 1 and m n ) of the both ends of the center line M stored in the end point list 35 are read, and the coordinates of the point O 1 corresponding to the installation position of the front camera 10A and the point m 1 Using the coordinates and the coordinates of the point mn , as shown in FIG. 4B, the angle θa formed by the line segment O 1 mn with respect to the horizontal direction of the image I and the horizontal direction of the image I The absolute value of the difference between the angles θb formed by the line segments m 1 mn is obtained.

このとき、角度θaと角度θbの差の絶対値が、所定の角度θcと等しいときに、線分mは点Oから放射状に延びるエッジであると判断する。 At this time, when the absolute value of the difference between the angle θa and the angle θb is equal to the predetermined angle θc, it is determined that the line segment m 1 mn is an edge extending radially from the point O 1 .

実際は、角度θcに所定の幅を持たせて、角度θaと角度θbの差の絶対値が、その幅の中に収まっているときに、線分mは点Oから放射状に延びたエッジであると判断する。 Actually, when the angle θc has a predetermined width and the absolute value of the difference between the angle θa and the angle θb is within the width, the line segment m 1 mn extends radially from the point O 1. It is determined that it is an edge.

なお、この判断方法は、前方カメラ10Aの設置位置に対応する点Oと、中心線Mの両側の端点m,mのうち前方カメラ10Aの設置位置に近い側の端点mと点Oを結ぶ線分Oと、前記両側の端点m,mを結ぶ線分mとのなす角度θcが所定値以内であると言い換えることもできる。 This determination method is based on the point O 1 corresponding to the installation position of the front camera 10A and the end point mn on the side close to the installation position of the front camera 10A among the end points m n and m 1 on both sides of the center line M. In other words, the angle θc formed by the line segment O 1 mn connecting O 1 and the line segment m 1 mn connecting the end points m n and m 1 on both sides is within a predetermined value.

横断歩道のように路面に描かれた物標を構成するエッジは、電信柱Sの左右の垂直エッジのように、俯瞰画像の中で放射状に延びた形状に座標変換されないため、先に説明した線分の角度による評価を行うと、角度θcは所定の幅の範囲に収まらない。そのため、放射状に延びた形状ではないと判断される。   The edges constituting the target drawn on the road surface like a pedestrian crossing are not coordinate-converted into a radially extending shape in the overhead view image like the left and right vertical edges of the telegraph pole S, and thus described above. When the evaluation is performed based on the angle of the line segment, the angle θc does not fall within a predetermined width range. Therefore, it is determined that the shape does not extend radially.

同様の処理は、俯瞰画像Iの内部で検出された全ての端点について行われる。また、俯瞰画像I,I,Iの内部についても同様の処理を行うが、その場合は、点Oを用いるのではなく、左方カメラ10B,右方カメラ10C,後方カメラ10Dのそれぞれの設置位置に対応した画像Iの中の点の位置を用いる。 Similar processing is performed for all the endpoints detected in the interior of the overhead image I 1. In addition, the same processing is performed on the inside of the overhead images I 2 , I 3 , and I 4. In this case, instead of using the point O 1 , the left camera 10 B, the right camera 10 C, and the rear camera 10 D are used. The position of the point in the image I corresponding to each installation position is used.

このようにして、放射状に延びた中心線Mであると判断されたときには、端点リスト35の中から、中心線Mの両側の端点を削除する。   In this way, when it is determined that the center line M extends radially, the end points on both sides of the center line M are deleted from the end point list 35.

<横断歩道の検出方法の説明>
次に、路面に描かれた横断歩道Zを検出する方法について説明する。横断歩道Zを検出する方法には様々なものが考えられ、そのいずれの方法を適用してもよい。ここでは、横断歩道Zの形状特徴を利用した検出方法について説明する。
<Description of pedestrian crossing detection method>
Next, a method for detecting the pedestrian crossing Z drawn on the road surface will be described. There are various methods for detecting the pedestrian crossing Z, and any of these methods may be applied. Here, a detection method using the shape feature of the pedestrian crossing Z will be described.

横断歩道Zの形状特徴は、例えば、以下の(1)〜(2)のようなものである。   The shape features of the pedestrian crossing Z are, for example, the following (1) to (2).

(1)横断歩道Zは、道路Rの伸びる方向に沿う長さDの白線が、間隔Wで引かれている。   (1) In the pedestrian crossing Z, a white line having a length D along the direction in which the road R extends is drawn at an interval W.

(2)横断歩道Zは本数Nの白線から構成されており、それらの白線は全て互いに平行になっている。   (2) The pedestrian crossing Z is composed of N white lines, and these white lines are all parallel to each other.

これらの形状特徴を図示すると、図5のようになる。こうした形状特徴は、予め、道路マーカデータベース48に格納しておく。   These shape features are illustrated in FIG. Such shape features are stored in the road marker database 48 in advance.

なお、前記した形状特徴のうち、長さDと間隔Wの値は、画像Iが観測している範囲によって変化する。しかし、撮像した画像を俯瞰画像に変換するパラメータは予めわかっているため、横断歩道を構成する白線の長さDと間隔Wは、容易に推定することができ、こうして推定した値を用いて横断歩道Zの検出を行う。   Of the shape features described above, the values of the length D and the interval W vary depending on the range in which the image I is observed. However, since the parameters for converting the captured image into a bird's-eye view image are known in advance, the length D and the interval W of the white line that forms the pedestrian crossing can be easily estimated. The sidewalk Z is detected.

道路マーカ検出部50では、端点リスト45に記憶された中心線Mの端点の位置を読み出して、道路マーカデータベース48に格納されている情報と照合することによって、画像Iの中に横断歩道Zの像Z’が映っているか否かを判断する。   The road marker detection unit 50 reads the position of the end point of the center line M stored in the end point list 45 and collates it with the information stored in the road marker database 48, so that the pedestrian crossing Z is displayed in the image I. It is determined whether or not the image Z ′ is reflected.

具体的には、端点リスト45に記憶された中心線Mの端点の位置に基づいて、各中心線Mの長さと予想される長さDとの比較、隣り合う中心線Mの間隔と予想される間隔Wとの比較、隣り合う中心線M同士の平行度と評価、さらに、長さDの条件、間隔Wの条件、平行度の条件を全て満たす中心線Mの本数と、横断歩道が存在したときに予想される中心線Mの本数Nとの比較を行って、横断歩道Zの像Z’が映っているか否かを判断する。   Specifically, based on the position of the end point of the center line M stored in the end point list 45, the length of each center line M is compared with the expected length D, and the interval between adjacent center lines M is expected. Comparison with the interval W, the parallelism between adjacent centerlines M and evaluation, the number of centerlines M that satisfy all the conditions of length D, the interval W, and the parallelism, and there are crosswalks A comparison is made with the number N of centerlines M expected at this time to determine whether an image Z ′ of the pedestrian crossing Z is reflected.

この横断歩道の検出を行うときには、放射状に広がるエッジが既に取り除かれているため、処理対象となる端点の数が少なくなることによって、横断歩道の誤検出や未検出を防止できるとともに、横断歩道の検出を短時間で行うことができる   When detecting this pedestrian crossing, the edges that spread radially are already removed, so the number of endpoints to be processed can be reduced, thereby preventing false detection and non-detection of the pedestrian crossing. Detection can be performed in a short time

<実施例1の作用の説明>
次に、実施例1に係る車載画像処理装置5の一連の動作の流れについて、図6のフローチャートを用いて説明する。
<Description of Operation of Example 1>
Next, a flow of a series of operations of the in-vehicle image processing apparatus 5 according to the first embodiment will be described with reference to the flowchart of FIG.

(ステップS10) 撮像部10によって、車両1の周囲を撮像する。   (Step S <b> 10) The periphery of the vehicle 1 is imaged by the imaging unit 10.

(ステップS20) 画像変換、合成部20において、撮像部10で撮像された画像が俯瞰図に変換され、さらに、図3(b)に示すような1枚の画像Iに合成される。   (Step S20) In the image conversion / synthesis unit 20, the image captured by the imaging unit 10 is converted into an overhead view, and further combined into a single image I as shown in FIG.

(ステップS30) 端点位置検出部30において、画像Iの中から、左右方向に所定の間隔をもって隣接する、+エッジを構成する画素と−エッジを構成する画素のペアであるエッジペアを検出する。   (Step S30) The end point position detection unit 30 detects, from the image I, an edge pair that is a pair of a pixel that forms a + edge and a pixel that forms a −edge, which are adjacent to each other in the left-right direction at a predetermined interval.

(ステップS40) さらに、端点位置検出部30において、エッジペアを構成する2つの画素の中点で構成される中心線Mを検出する。   (Step S <b> 40) Further, the end point position detection unit 30 detects the center line M formed by the midpoints of the two pixels constituting the edge pair.

(ステップS50) そして、端点位置検出部30において、中心線Mの両側の端点の位置を求める。   (Step S50) Then, in the end point position detection unit 30, the positions of the end points on both sides of the center line M are obtained.

(ステップS60) 検出された端点の位置を、端点リスト45に記憶する。   (Step S60) The positions of the detected end points are stored in the end point list 45.

(ステップS70) 放射状エッジ検出部40において、端点リスト45に記憶された、中心線Mの両側の端点の位置を読み出して、先に説明した方法によって、中心線Mが放射状に広がるエッジをなしているか否かを判定する。放射状に広がるエッジをなしていると判定されたらステップS80に進み、放射状に広がるエッジをなしていないと判定されたらステップS90に進む。   (Step S70) In the radial edge detection unit 40, the positions of the end points on both sides of the center line M stored in the end point list 45 are read, and the center line M forms an edge that spreads radially by the method described above. It is determined whether or not. If it is determined that a radially extending edge is formed, the process proceeds to step S80. If it is determined that a radially extending edge is not formed, the process proceeds to step S90.

(ステップS80) 放射状エッジをなしていると判定された中心線Mの両側の端点を端点リスト45から削除する。   (Step S80) The end points on both sides of the center line M determined to have a radial edge are deleted from the end point list 45.

(ステップS90) 道路マーカ検出部50において、画像Iの中から横断歩道Zの像Z’を検出する。ここでは、道路マーカデータベース48に記憶された横断歩道の形状特徴を読み出して、そこに記憶された横断歩道の形状特徴を有する一群の中心線Mが、端点リスト45に記憶された、複数の中心線Mの両側の端点の位置を表すデータの中に存在するか否かを判断する。具体的には、端点リスト45に記憶された中心線Mの両側の端点の位置を読み出して、中心線Mの長さと、隣接する中心線M同士の間隔と、隣接する中心線M同士の平行度を評価して、さらに、条件を満たす中心線Mの本数を評価して、横断歩道Zの像Z’の有無を判断する。   (Step S90) The road marker detection unit 50 detects an image Z ′ of the pedestrian crossing Z from the image I. Here, the shape feature of the pedestrian crossing stored in the road marker database 48 is read out, and a group of center lines M having the shape feature of the pedestrian crossing stored therein are stored in the end point list 45. It is determined whether or not it exists in the data representing the positions of the end points on both sides of the line M. Specifically, the positions of the end points on both sides of the center line M stored in the end point list 45 are read out, the length of the center line M, the interval between the adjacent center lines M, and the parallel between the adjacent center lines M. The degree is evaluated, and the number of center lines M satisfying the condition is further evaluated to determine the presence or absence of the image Z ′ of the pedestrian crossing Z.

(ステップS100) 横断歩道Zの像Z’が検出されたときは、情報出力部60によって、横断歩道の手前では歩行者に注意する旨の情報を、画面表示もしくは音声ガイドによって出力し、運転者の注意喚起を行う。   (Step S100) When the image Z ′ of the pedestrian crossing Z is detected, the information output unit 60 outputs information indicating that the pedestrian should be noted before the pedestrian crossing by screen display or voice guide, and the driver Call attention.

以上説明したように、このように構成された本発明の車載画像処理装置5によれば、撮像部10で撮像された路面を含む画像が、画像変換、合成部20(画像変換部)で俯瞰画像に変換されて、端点位置検出部30が、俯瞰画像の中を左から右に向かって(少なくとも1つの所定方向に)スキャンしながら、輝度が暗から明に変化する第1の点の位置と前記第1の点から前記所定方向に所定距離以内にある、輝度が明から暗に変化する第2の点の位置を検出し、前記所定方向に直交する方向に亘って検出された複数の第1の点からなる線素の両端点の位置、複数の第2の点からなる線素の両端点の位置、または前記第1の点と前記第2の点の中点同士を連結した中心線Mの両端点の位置を検出して、放射状エッジ検出部40が、端点位置検出部30で検出された両端点によって構成される線分の中から、撮像部10の設置位置に対応する点から俯瞰画像の周縁に向かって延びる線分を検出して、道路マーカ検出部50が、端点位置検出部30で検出された両端点によって構成される線分のうち、放射状エッジ検出部40で検出された線分を除いた線分に基づいて横断歩道Z(道路マーカ)を検出するため、道路上に存在する立体物を構成するエッジの影響を除去することができ、これによって、路面に描かれた横断歩道Z(道路マーカ)を安定して確実に検出することができる。   As described above, according to the in-vehicle image processing device 5 of the present invention configured as described above, an image including a road surface imaged by the imaging unit 10 is overlooked by the image conversion / synthesis unit 20 (image conversion unit). The position of the first point that is converted into an image and whose luminance changes from dark to bright while the end point position detection unit 30 scans the overhead image from left to right (in at least one predetermined direction). And a position of a second point within a predetermined distance in the predetermined direction from the first point where the luminance changes from light to dark, and a plurality of points detected in a direction orthogonal to the predetermined direction are detected. The position of both end points of the line element consisting of the first point, the position of both end points of the line element consisting of the plurality of second points, or the center connecting the midpoints of the first point and the second point The positions of both end points of the line M are detected, and the radial edge detection unit 40 detects the end point positions. 30 detects a line segment extending from the point corresponding to the installation position of the imaging unit 10 toward the periphery of the bird's-eye view image from among the line segments configured by the two end points detected in 30, the road marker detection unit 50, In order to detect the pedestrian crossing Z (road marker) based on the line segment formed by the end point position detection unit 30 excluding the line segment detected by the radial edge detection unit 40 among the line segments formed by the both end points. The influence of the edges constituting the three-dimensional object existing on the road can be removed, whereby the pedestrian crossing Z (road marker) drawn on the road surface can be detected stably and reliably.

また、本発明の車載画像処理装置5によれば、放射状エッジ検出部40が、俯瞰画像の中で、中心線Mの両端点のうち前方カメラ10Aの設置位置である点Oに近い側の端点mと前方カメラ10Aの設置位置である点Oとを結ぶ線分Oと、前記両側の端点を結ぶ線分mとのなす角度の差が所定の角度θc以内であるときに、その中心線Mの両端点を結ぶ線分mを放射状エッジとするため、3つの点Oと、mと、mの位置関係を調べるという非常に簡単な処理によって放射状エッジを検出することができる。 Further, according to the in-vehicle image processing device 5 of the present invention, the radial edge detection unit 40 is located on the side close to the point O 1 that is the installation position of the front camera 10A among the two end points of the center line M in the overhead view image. and a line segment O 1 m n connecting point and O 1 is a installation position of the end point m n and front camera 10A, the difference in angle between the line segment m 1 m n connecting the two sides of the end point within a predetermined angle θc Therefore, since the line segment m 1 mn connecting the two end points of the center line M is a radial edge, the positional relationship among the three points O 1 , mn , and m 1 is very simple. Radial edges can be detected by processing.

なお、実施例1では、電信柱Sを例にあげて、道路上に存在する立体物を構成するエッジの影響を除去する例を説明したが、他の立体物がある場合、例えば、ガードレールや停止車両が存在した場合にも同様に、それらのエッジを除去することができるのはいうまでもない。   In the first embodiment, the telegraph pole S is taken as an example, and the example of removing the influence of the edge constituting the three-dimensional object existing on the road has been described. However, when there is another three-dimensional object, for example, a guardrail, It goes without saying that those edges can be removed in the same manner when there is a stopped vehicle.

また、立体物以外にも、そのエッジの形状が放射状に広がるものがある。例えば、カメラのレンズに付着した水滴は、立体物ではないが、レンズ表面に付着することによって、図4(a)に示した電信柱Sの像S’のように、画像上で放射状のエッジを構成する。   In addition to the three-dimensional object, there is a thing whose edge shape spreads radially. For example, water droplets attached to the lens of the camera are not three-dimensional objects, but are attached to the lens surface, thereby causing radial edges on the image like the image S ′ of the telephone pole S shown in FIG. Configure.

レンズに付着した水滴は重力によって路面の方向(下方向)に流れ落ちるため、俯瞰変換前の画像において、立体物と同様に鉛直方向のエッジ成分を有するためである。   This is because the water droplets adhering to the lens flow down in the direction of the road surface (downward) due to gravity, and thus have an edge component in the vertical direction in the image before the overhead conversion, like the three-dimensional object.

図7に、前方カメラ10Aで撮像した俯瞰画像Iの中に、水滴が付着した様子を示す。図7に示すように、レンズに水滴Ma,Mbが付着しており、水滴Maの辺縁のエッジである、端点ma11と端点ma1nを有する線分Laと、端点ma21と端点ma2nを有する線分La、そして、水滴Mbの辺縁のエッジである端点mb11と端点mb1nを有する線分Lbと端点mb21と端点mb2nを有する線分Lbからなる放射状エッジを形成する。 7, in the overhead view image I 1 captured by the front camera 10A, showing a state in which water drops are attached. As shown in FIG. 7, the water droplets Ma and Mb are attached to the lens, the line segment La 1 having the end point m a11 and the end point m a1n , the end point m a21, and the end point m, which are the edges of the water drop Ma. line La 2 having a2n, and radial edges consisting of a line segment Lb 2 with line Lb 1 and end point m b21 and end points m B2n having end points m b11 and end points m b1n a peripheral edge of the water droplet Mb Form.

このような放射状エッジも、実施例1で説明した方法を用いることによって検出することができる。そして、道路マーカを検出する際に、水滴によって発生した放射状エッジも削除して処理を行うことによって、雨天時であっても安定した道路マーカの検出が可能となる。   Such a radial edge can also be detected by using the method described in the first embodiment. And when detecting a road marker, the radial edge which generate | occur | produced with the water droplet is also deleted, and it processes, Even if it is raining, the stable road marker can be detected.

なお、図7に示した例では、線分Laと線分Laに挟まれた領域Ma、および、線分Lbと線分Lbに挟まれた領域Mbには水滴が付着していると予想されるため、線分のみでなく、それらの線分に挟まれた領域の情報を道路マーカの検出に使用しないことによって、道路マーカの検出結果の信頼度を高めることもできる。 In the example shown in FIG. 7, water droplets adhere to the area Ma sandwiched between the line segment La 1 and the line segment La 2 and the area Mb sandwiched between the line segment Lb 1 and the line segment Lb 2. Therefore, the reliability of the detection result of the road marker can be increased by not using the information of not only the line segment but also the area sandwiched between the line segments for the detection of the road marker.

水滴が付着した領域Maや領域Mbは透明な領域となるため、水滴を透過して道路や背景の情報が映りこむ可能性があり、これによって、擬似的なエッジが発生する可能性がある。そのため、放射状エッジに挟まれた領域の情報を道路マーカの検出に使用しないことによって、こうした擬似的なエッジによる道路マーカの誤検出を防止することができる。なお、水滴に挟まれた放射状エッジであることは、その領域の内部の輝度分布を算出して、例えば、輝度分布から算出されるエッジ強度が弱いときに、水滴が存在すると判断すればよい。   Since the area Ma and the area Mb to which water droplets are attached are transparent areas, information on roads and backgrounds may be reflected through the water droplets, which may cause a pseudo edge. Therefore, by not using the information of the region sandwiched between the radial edges for the detection of the road marker, it is possible to prevent erroneous detection of the road marker due to such a pseudo edge. It should be noted that a radial edge sandwiched between water droplets may be determined by calculating the luminance distribution inside the region and, for example, when the edge intensity calculated from the luminance distribution is weak, that a water droplet is present.

具体的には、図7において、端点ma11,端点ma1n,端点ma21,端点ma2nで囲まれた領域Maと、端点mb11,端点mb1n,端点mb21,端点mb2nで囲まれた領域Mbの内部の輝度分布からエッジ強度を算出して、水滴であると予測されたときには、その領域の内部の輝度値を、道路マーカの検出に用いないようにする。 Specifically, in FIG. 7, the region Ma surrounded by the end point m a11 , the end point m a1n , the end point m a21 , and the end point m a2n , and the end point m b11 , the end point m b1n , the end point m b21 , and the end point m b2n are surrounded. When the edge intensity is calculated from the luminance distribution inside the region Mb and predicted to be a water droplet, the luminance value inside the region is not used for detection of the road marker.

このように、本発明の車載画像処理装置5によれば、放射状エッジ検出部40で検出された複数の放射状エッジに挟まれた領域のうち、輝度分布が所定の条件を満たす領域の輝度情報を除いて道路マーカの検出を行うため、放射状エッジに挟まれた領域の内部に出現する擬似エッジによる道路マーカの誤検出を防止することができる。   Thus, according to the in-vehicle image processing device 5 of the present invention, the luminance information of the region where the luminance distribution satisfies the predetermined condition among the regions sandwiched between the plurality of radial edges detected by the radial edge detection unit 40 is obtained. In addition, since the road marker is detected, it is possible to prevent erroneous detection of the road marker due to the pseudo edge appearing inside the area sandwiched between the radial edges.

以上、放射状エッジが出現する例として、立体物が存在する例と、レンズ表面に水滴が付着した例を説明したが、太陽光や街路灯の光が路面に反射して撮像部10に撮像されることによって生じる路面反射が発生したときにも、放射状エッジが観測される場合がある。このような路面反射についても、立体物や水滴と同様にして、放射状エッジを道路マーカの検出処理から削除することによって、道路マーカの検出の信頼度を高めることができる。   As described above, as examples in which a radial edge appears, an example in which a three-dimensional object is present and an example in which water droplets adhere to the lens surface have been described. However, sunlight or street light is reflected on the road surface and captured by the imaging unit 10. Radial edges may also be observed when road surface reflections occur due to this. For such road surface reflection, the reliability of detection of the road marker can be increased by deleting the radial edge from the road marker detection process in the same manner as the three-dimensional object or water drop.

なお、実施例1では、道路マーカ候補領域の中心線Mを検出して、この中心線Mが放射状エッジをなすときに、道路マーカの候補から除去する構成としたが、これは、道路マーカ候補領域の中心線Mではなく、道路マーカ候補領域を構成する+エッジからなる線分を検出して、その線分が放射状エッジをなすときに、その+エッジからなる線分を道路マーカの候補から除去するようにしてもよいし、または道路マーカ候補領域を構成する−エッジからなる線分を検出して、その線分が放射状エッジをなすときに、その−エッジからなる線分を道路マーカの候補から除去するようにしても同様の効果を得ることができる。   In the first embodiment, the center line M of the road marker candidate region is detected and removed from the road marker candidates when the center line M forms a radial edge. When a line segment composed of + edges constituting the road marker candidate area is detected instead of the center line M of the area, and the line segment forms a radial edge, the line segment composed of the + edges is detected from the road marker candidates. The road marker candidate area may be removed, or when a line segment including an edge is detected and the line segment forms a radial edge, the line segment including the edge is detected by the road marker. Even if it is removed from the candidates, the same effect can be obtained.

また、実施例1では、画像Iの中を、左から右に向かってスキャンしながら+エッジを構成する画素と−エッジを構成する画素を検出したが、これは、他に方向に向かってスキャンしながら+エッジを構成する画素と−エッジを構成する画素を検出して、複数の方向で検出した+エッジを構成する画素と−エッジを構成する画素を合わせて、+エッジを構成する画素と−エッジを構成する画素として取り扱うようにしてもよい。   Further, in the first embodiment, while scanning from the left to the right in the image I, the pixels forming the + edge and the pixels forming the − edge are detected. While detecting the pixels constituting the + edge and the pixels constituting the − edge and combining the pixels constituting the + edge and the pixels constituting the − edge detected in a plurality of directions, the pixels constituting the + edge -You may make it handle as a pixel which comprises an edge.

このように複数の方向に亘って+エッジを構成する画素と−エッジを構成する画素を検出することによって、画像Iの中で任意の方向に向かって延びている道路マーカを確実に検出することができる。   Thus, by detecting the pixels constituting the + edge and the pixels constituting the − edge in a plurality of directions, the road marker extending in an arbitrary direction in the image I can be reliably detected. Can do.

なお、実施例1では横断歩道Zの像Z’を検出する例を説明したが、これは、横断歩道に限定されるものではない。すなわち、路面に描かれた道路マーカであれば、停止線、駐車枠、道路標識等の横断歩道以外の道路マーカであっても検出することができる。なお、このときに検出する道路マーカの形状特徴は、予め道路マーカデータベース48に登録しておくものとする。   In the first embodiment, the example of detecting the image Z ′ of the pedestrian crossing Z has been described. However, this is not limited to the pedestrian crossing. In other words, a road marker drawn on the road surface can be detected even if it is a road marker other than a pedestrian crossing such as a stop line, a parking frame, or a road sign. It is assumed that the shape feature of the road marker detected at this time is registered in the road marker database 48 in advance.

以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。   As mentioned above, although the Example of this invention was explained in full detail with drawing, since an Example is only an illustration of this invention, this invention is not limited only to the structure of an Example. Of course, changes in design and the like within a range not departing from the gist are included in the present invention.

5 車載画像処理装置
10 撮像部
10A 前方カメラ
10B 左方カメラ
10C 右方カメラ
10D 後方カメラ
20 画像変換、合成部
30 端点位置検出部
40 放射状エッジ検出部
45 端点リスト
48 道路マーカデータベース
50 道路マーカ検出部
60 情報出力部
DESCRIPTION OF SYMBOLS 5 Car-mounted image processing apparatus 10 Image pick-up part 10A Front camera 10B Left camera 10C Right camera 10D Rear camera 20 Image conversion and composition part 30 End point position detection part 40 Radial edge detection part 45 End point list 48 Road marker database 50 Road marker detection part 60 Information output section

Claims (3)

車両に設置されて、前記車両の周囲を観測して、少なくとも路面を含む画像を撮像する撮像部と、
前記撮像部で撮像された画像を、前記車両の真上から見下ろした俯瞰画像に変換する画像変換部と、
前記俯瞰画像を少なくとも1つの所定方向にスキャンしながら、輝度が暗から明に変化する第1の点の位置と前記第1の点から前記所定方向に所定距離以内にある、輝度が明から暗に変化する第2の点の位置を検出し、前記所定方向に直交する方向に亘って検出された複数の第1の点からなる線素の両端点の位置、複数の第2の点からなる線素の両端点の位置、または前記第1の点と前記第2の点の中点同士を連結した中心線の両端点の位置を検出する端点位置検出部と、
前記両端点を結ぶ線分のうち、前記撮像部の設置位置に対応する点から前記俯瞰画像の周縁に向かって延びる線分を検出する放射状エッジ検出部と、
前記両端点を結ぶ線分の中から、前記放射状エッジ検出部で検出された線分を除いた線分に基づいて道路マーカの位置を検出する道路マーカ検出部と、を有することを特徴とする車載画像処理装置。
An imaging unit that is installed in a vehicle, observes the surroundings of the vehicle, and captures an image including at least a road surface;
An image conversion unit that converts an image captured by the image capturing unit into an overhead image viewed from directly above the vehicle;
While scanning the overhead image in at least one predetermined direction, the position of the first point where the luminance changes from dark to bright and within a predetermined distance from the first point in the predetermined direction, the luminance is from light to dark The position of the second point that changes to the predetermined direction is detected, and the positions of both end points of the line element composed of the plurality of first points detected in the direction orthogonal to the predetermined direction are composed of the plurality of second points. An end point position detection unit for detecting positions of both end points of the line element, or positions of both end points of the center line connecting the midpoints of the first point and the second point;
A radial edge detector that detects a line segment extending from a point corresponding to an installation position of the imaging unit to a peripheral edge of the overhead image, among line segments connecting the both end points;
A road marker detection unit that detects a position of a road marker based on a line segment obtained by removing the line segment detected by the radial edge detection unit from the line segment connecting the both end points. In-vehicle image processing device.
前記放射状エッジ検出部は、前記俯瞰画像の中で、前記両端点のうち前記撮像部の設置位置に近い側の端点と前記撮像部の設置位置とを結ぶ線分と、前記両端点を結ぶ線分とのなす角度の差が所定値以内であるときに、前記両端点を結ぶ線分を放射状エッジとすることを特徴とする請求項1に記載の車載画像処理装置。   In the overhead image, the radial edge detection unit includes a line segment connecting an end point of the both end points closer to the installation position of the imaging unit and the installation position of the imaging unit, and a line connecting the both end points. The in-vehicle image processing apparatus according to claim 1, wherein a line segment connecting the both end points is a radial edge when a difference in angle with the minute is within a predetermined value. 前記放射状エッジ検出部で検出された複数の放射状エッジに挟まれた領域のうち、前記領域の輝度分布が所定の条件を満たすときに、前記領域の内部の輝度情報を除いて道路マーカの検出を行うことを特徴とする請求項1または請求項2に記載の車載画像処理装置。   Among areas sandwiched between a plurality of radial edges detected by the radial edge detection unit, when a luminance distribution of the area satisfies a predetermined condition, road marker detection is performed except for luminance information inside the area. The in-vehicle image processing apparatus according to claim 1, wherein the on-vehicle image processing apparatus is performed.
JP2012258699A 2012-11-27 2012-11-27 In-vehicle image processing device Pending JP2014106704A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012258699A JP2014106704A (en) 2012-11-27 2012-11-27 In-vehicle image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012258699A JP2014106704A (en) 2012-11-27 2012-11-27 In-vehicle image processing device

Publications (1)

Publication Number Publication Date
JP2014106704A true JP2014106704A (en) 2014-06-09

Family

ID=51028144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012258699A Pending JP2014106704A (en) 2012-11-27 2012-11-27 In-vehicle image processing device

Country Status (1)

Country Link
JP (1) JP2014106704A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009429A (en) * 2014-06-26 2016-01-18 富士重工業株式会社 Vehicle exterior environment recognition device
JP2017010078A (en) * 2015-06-16 2017-01-12 日産自動車株式会社 Road surface sign detection apparatus and road surface sign detection method
CN109484393A (en) * 2017-09-08 2019-03-19 本田技研工业株式会社 Controller of vehicle, control method for vehicle and storage medium
JP2019128798A (en) * 2018-01-24 2019-08-01 株式会社デンソーテン Adhered matter detection apparatus and adhered matter detection method
CN110533945A (en) * 2019-08-28 2019-12-03 肇庆小鹏汽车有限公司 Method for early warning, system, vehicle and the storage medium of traffic lights
WO2019235433A1 (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Crosswalk detection device, method and program
EP3588374A1 (en) * 2018-06-29 2020-01-01 Mazda Motor Corporation Line detector for vehicle, method of detecting line for vehicle, and computer program product
JP2020030466A (en) * 2018-08-20 2020-02-27 株式会社Soken Object detection device
CN111563405A (en) * 2019-02-14 2020-08-21 歌乐株式会社 Image processing apparatus, image processing method, and program
CN112016381A (en) * 2019-05-30 2020-12-01 歌乐株式会社 Image processing apparatus and image processing method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009429A (en) * 2014-06-26 2016-01-18 富士重工業株式会社 Vehicle exterior environment recognition device
JP2017010078A (en) * 2015-06-16 2017-01-12 日産自動車株式会社 Road surface sign detection apparatus and road surface sign detection method
CN109484393A (en) * 2017-09-08 2019-03-19 本田技研工业株式会社 Controller of vehicle, control method for vehicle and storage medium
CN109484393B (en) * 2017-09-08 2022-01-14 本田技研工业株式会社 Vehicle control device, vehicle control method, and storage medium
JP2019128798A (en) * 2018-01-24 2019-08-01 株式会社デンソーテン Adhered matter detection apparatus and adhered matter detection method
JP7059649B2 (en) 2018-01-24 2022-04-26 株式会社デンソーテン Deposit detection device and deposit detection method
JPWO2019235433A1 (en) * 2018-06-04 2021-05-13 日本電信電話株式会社 Pedestrian crossing detectors, methods and programs
WO2019235433A1 (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Crosswalk detection device, method and program
JP6996623B2 (en) 2018-06-04 2022-02-04 日本電信電話株式会社 Pedestrian crossing detectors, methods and programs
EP3588374A1 (en) * 2018-06-29 2020-01-01 Mazda Motor Corporation Line detector for vehicle, method of detecting line for vehicle, and computer program product
CN110659553A (en) * 2018-06-29 2020-01-07 马自达汽车株式会社 Marking line detection device for vehicle
JP2020030466A (en) * 2018-08-20 2020-02-27 株式会社Soken Object detection device
JP7135579B2 (en) 2018-08-20 2022-09-13 株式会社Soken Object detection device
CN111563405A (en) * 2019-02-14 2020-08-21 歌乐株式会社 Image processing apparatus, image processing method, and program
CN111563405B (en) * 2019-02-14 2023-08-22 歌乐株式会社 Image processing apparatus and image processing method
CN112016381A (en) * 2019-05-30 2020-12-01 歌乐株式会社 Image processing apparatus and image processing method
CN112016381B (en) * 2019-05-30 2024-04-02 歌乐株式会社 Image processing apparatus and image processing method
CN110533945A (en) * 2019-08-28 2019-12-03 肇庆小鹏汽车有限公司 Method for early warning, system, vehicle and the storage medium of traffic lights

Similar Documents

Publication Publication Date Title
JP2014106704A (en) In-vehicle image processing device
JP4359710B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP6126094B2 (en) In-vehicle image recognition device
JP4456086B2 (en) Vehicle periphery monitoring device
RU2546547C1 (en) Driving aid and method of vehicle detection nearby it
US9965690B2 (en) On-vehicle control device
JP4568637B2 (en) Road recognition device
JP2010088045A (en) Night view system, and nighttime walker display method
KR101406316B1 (en) Apparatus and method for detecting lane
JP2011100174A (en) Apparatus and method for detecting vehicle on lane
JP2013186663A (en) Crosswalk recognition device and crosswalk recognition method
JP2013186664A (en) Crosswalk recognition device and crosswalk recognition method
JP2010224670A (en) Periphery monitoring device for vehicle
WO2012066751A1 (en) Peripheral monitoring device for vehicle
JP2006318059A (en) Apparatus, method, and program for image processing
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4813304B2 (en) Vehicle periphery monitoring device
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2009025050A (en) Quality discrimination device of visual field, quality discrimination method of visual field and computer program
JP2016009331A (en) Vehicle surroundings monitoring apparatus
JP2010277384A (en) Device and method for supporting traveling
JP2008286648A (en) Distance measuring device, distance measuring system, and distance measuring method
KR101154110B1 (en) Apparatus and method for measuring velocity of moving vehicle using image processing method
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle