KR100773870B1 - Method for recognizing traffic lines by using two cameras - Google Patents

Method for recognizing traffic lines by using two cameras Download PDF

Info

Publication number
KR100773870B1
KR100773870B1 KR1020060063860A KR20060063860A KR100773870B1 KR 100773870 B1 KR100773870 B1 KR 100773870B1 KR 1020060063860 A KR1020060063860 A KR 1020060063860A KR 20060063860 A KR20060063860 A KR 20060063860A KR 100773870 B1 KR100773870 B1 KR 100773870B1
Authority
KR
South Korea
Prior art keywords
image
cameras
lane
camera
road
Prior art date
Application number
KR1020060063860A
Other languages
Korean (ko)
Inventor
임상묵
Original Assignee
주식회사 피엘케이 테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피엘케이 테크놀로지 filed Critical 주식회사 피엘케이 테크놀로지
Priority to KR1020060063860A priority Critical patent/KR100773870B1/en
Application granted granted Critical
Publication of KR100773870B1 publication Critical patent/KR100773870B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping

Abstract

A traffic lane recognizing method using two cameras is provided to display clearly traffic lanes of a long range and to show the lane of a short range through a wide view angle by photographing the road with two cameras and combining images obtained by the cameras, as one. A method for recognizing traffic lanes from images obtained by photographing the road with two cameras comprises the steps of: positioning two cameras at the upper and lower sides in the center of a vehicle and photographing the image of the road with dividing the image according to short and long ranges, by making the focal distances of the cameras different(S410); combining the divided road images as one(S420); converting the combined image to be digitally processed(S430); filtering the image by a digital filter to divide clearly a boundary between an object and the background on the digital image(S440); calculating a lane specific point from geometrical information of the filtered image(S450); and recognizing the lane from the calculated lane specific point(S460).

Description

2대의 카메라를 이용한 차선인식 방법{Method for recognizing traffic lines by using two cameras}Lane recognition method using two cameras {Method for recognizing traffic lines by using two cameras}

도 1은 종래 기술에 따른 1대의 카메라를 이용한 차선인식 방법의 차선인식 범위를 나타내는 도면.1 is a view showing a lane recognition range of the lane recognition method using a single camera according to the prior art.

도 2는 본 발명의 제1실시예에 따른 2대의 카메라를 이용한 차선인식 방법의 차선인식 범위를 나타내는 도면.2 is a view showing a lane recognition range of the lane recognition method using two cameras according to a first embodiment of the present invention.

도 3은 본 발명에 따른 차선인식 방법이 적용된 차선인식 장치의 구성을 나타내는 블럭도.Figure 3 is a block diagram showing the configuration of a lane recognition device to which the lane recognition method according to the present invention is applied.

도 4는 본 발명의 제1실시예에 따른 2대의 카메라를 이용한 차선인식 방법을 나타내는 순서도.4 is a flowchart illustrating a lane recognition method using two cameras according to a first embodiment of the present invention.

도 5는 도 4에 도시된 차선인식 방법을 통해 영상을 처리하는 과정을 나타내는 도면.FIG. 5 is a diagram illustrating a process of processing an image through the lane recognition method illustrated in FIG. 4.

도 6은 본 발명의 제2실시예에 따른 2대의 카메라를 이용한 차선인식 방법의 차선인식 범위를 나타내는 도면.6 is a view showing a lane recognition range of the lane recognition method using two cameras according to a second embodiment of the present invention.

<단면의 주요 부분에 대한 부호 설명><Description of the symbols for the main parts of the section>

120 : 영상 취합부 130 : 디지털 영상변환부120: image collecting unit 130: digital image conversion unit

140 : 영상 필터부 150 : 차선 인식부140: image filter unit 150: lane recognition unit

160 : 표시부 170 : 중앙처리부160: display unit 170: central processing unit

100, 100a, 100b, 200a, 200b : 카메라100, 100a, 100b, 200a, 200b: camera

본 발명은 2대의 카메라를 이용한 차선인식 방법에 관한 것으로서, 더욱 상세하게는 차량에 구비되는 2대의 카메라를 통해서 주행도로의 영상을 각각 촬영하고, 이를 하나의 주행도로의 영상으로 취합하여 차선을 인식함으로써, 카메라의 화각을 보다 확장시켜 사각영역을 줄이고, 차선을 보다 선명하게 인식할 수 있는 차선인식 방법에 관한 것이다.The present invention relates to a lane recognition method using two cameras, and more particularly, to capture a video of a driving road through two cameras provided in a vehicle, and to recognize the lane by collecting them as an image of one driving road. Therefore, the present invention relates to a lane recognition method that can further expand the angle of view of the camera to reduce blind spots and recognize lanes more clearly.

일반적으로 이동물체가 선을 추적하여 이동할 때, 선을 이탈한 것을 감지하여 외부로 경보를 발하기 위해서는, 우선적으로 영상인식장치 등을 사용하여 선을 인식하여야 한다.In general, when a moving object moves by tracking a line, in order to detect an out of line and alert the outside, an image recognition device or the like should first be used to recognize the line.

즉, 영상을 이용한 인식장치는 이동물체에서 인식하기 위한 목표물의 영상을 카메라 등을 이용하여 획득한 후, 디지털 영상처리 기술을 이용하여 목표물의 특징을 추출하고, 추출된 특징을 이용하여 목표물을 확인하는 과정을 수행하는데, 이러한 영상인식장치가 본래의 기능을 원활히 수행하기 위해서는 이동하는 물체에서 목표물인 선을 보다 정확하게 추출할 수 있어야 한다.That is, the recognition apparatus using an image acquires an image of a target to be recognized by a moving object using a camera, and then extracts a feature of the target by using a digital image processing technology, and identifies the target by using the extracted feature. In order for the image recognition apparatus to perform its original function smoothly, it is necessary to be able to accurately extract the target line from the moving object.

이와 같은, 영상인식장치는 자동차, RT(Robot Technology), AGV(Automated Guided Vehicle) 등의 분야에 폭넓게 적용될 수 있으며, 특히 자동차 분야에서는 고속 주행시에도 정확한 차선 인식을 보장하여야 하기 때문에 타분야에 비하여 기술적 난이도가 높다. 여기서 차선은 운전의 기준선으로서 전진, 후진, 차선변경, 진로변경, 전진주차, 후진주차 및 종렬주차 등 모든 운전 행위의 기준이 된다.Such image recognition device can be widely applied in the fields of automobile, robot technology (RT), automated guided vehicle (AGV), and the like, especially in the automobile field, it is necessary to ensure accurate lane recognition even at high speeds. Difficulty is high. Here, the lane is a reference line for driving, and is a standard for all driving behaviors such as forward, reverse, lane change, course change, forward parking, reverse parking, and row parking.

현재 고기능화, 지능화가 진행되고 있는 첨단안전차량(Advanced Safety Vehicle;ASV)은 차선인식 방법의 주요 적용대상으로서 졸음운전 방지를 위한 차선이탈 경보장치, 초보자의 주차를 돕기 위한 후방주차 가이드 및 종렬주차 가이드장치, 위험한 상황에서 핸들에 작은 토크를 가하여 차선을 유지시키는 차선유지장치 등에 적용되며 점차 그 적용범위가 넓혀지고 있다.Advanced Safety Vehicles (ASVs), which are currently being highly functionalized and intelligent, are the main targets for lane recognition methods, lane departure warning devices to prevent drowsy driving, rear parking guides and rear parking guides to help beginners park. Applied to a lane keeping device that maintains a lane by applying a small torque to the handle in a dangerous situation, the range of application is gradually expanded.

위와 같이 주행도로를 영상으로 획득하고, 획득된 영상에서 차선을 구분하여 인식하는 종래 기술에 따른 차선인식 방법들을 살펴보면, 대부분의 방법들이 1대의 카메라를 이용하여 주행도로의 영상을 획득하고, 획득된 영상에서 차선을 구분하여 인식하는 특징을 가지며, 2대의 카메라를 이용하여 주행도로의 영상을 획득하는 경우에도 2대의 카메라를 입체카메라의 일종인 스테레오 카메라(stereo camera)로 사용하여 차선보다는 차량간의 거리를 인식하는 특징을 가진다.Looking at the lane recognition method according to the prior art that acquires the driving road as an image as described above, and distinguishes and recognizes the lane from the obtained image, most of the methods to obtain the image of the driving road using one camera, It distinguishes the lanes from the image and recognizes the road. Using two cameras, the distance between the cars rather than the lanes is obtained by using the two cameras as a stereo camera, which is a kind of three-dimensional camera. It has the feature of recognizing it.

카메라를 이용하여 주행도로를 영상으로 인식하는 경우에, 카메라에 구비된 렌즈의 초점거리에 따라서 영상으로 인식되는 대상물의 원근(遠近)에 따른 선명도와 카메라에 인식되는 영상의 시야각인 화각이 결정된다. 즉, 카메라에 구비된 렌즈에 따라 카메라의 초점거리가 짧은 경우에는 카메라로 촬영되는 영상의 시야각, 즉 화각이 넓어져서 근거리의 차선을 넓게 인식할 수 장점이 있는 반면 원거리의 물체를 선명하게 인식하지 못하는 단점이 있으며, 이와 반대로 카메라의 초점거리 가 긴 경우에는 주행도로를 촬영한 영상에서 원거리는 선명하게 보이는 장점이 있는 반면 카메라로 인식되는 영상의 화각이 줄어들어 근거리의 차선을 전부 인식하지 못하는 단점이 있다.In the case of recognizing a driving road as an image using a camera, the angle of view, which is the sharpness according to the perspective of the object recognized as the image and the viewing angle of the image recognized by the camera, is determined according to the focal length of the lens provided in the camera. . In other words, if the focal length of the camera is short depending on the lens provided in the camera, the field of view of the image taken by the camera, that is, the angle of view, becomes wider, so that the near-lane lane can be widely recognized, while the remote object is not clearly recognized. On the contrary, when the focal length of the camera is long, the far point is clearly seen in the image of the driving road, while the angle of view of the image recognized by the camera is reduced, which makes it impossible to recognize all near lanes. have.

따라서 차선을 직선으로 간주하여 인식할 때에는 카메라의 초점거리가 비교적 짧은 렌즈를 사용하는 것이, 차선의 곡률반경을 계산하기 위하여 차선을 곡선으로 간주하여 인식할 때에는 초점거리가 비교적 긴 카메라를 사용하는 것이 유리하다.Therefore, when recognizing a lane as a straight line, it is recommended to use a lens with a relatively short focal length of the camera, and to use a camera having a relatively focal length when recognizing the lane as a curve to calculate the radius of curvature of the lane. It is advantageous.

이와 같은 카메라 초점거리의 특성과 종래의 기술에 따른 차선인식 방법을 비교하여 살펴보면, 1대의 카메라로 주행도로의 영상을 촬영하고, 촬영된 주행도로에서 차선의 특성을 파악하기 위해서는, 주행도로의 원거리 영역을 포함하여야 하는데 이 경우에는 초점거리가 긴 카메라가 사용된다. 그러나 초점거리가 긴 카메라로 주행도로를 촬영하는 경우에는 카메라에서 촬영되는 영상의 화각이 좁아져서 카메라에서 촬영되지 않는 사각영역이 발생하는 문제점이 있다.To compare the characteristics of the camera focal length and the lane recognition method according to the prior art, in order to capture the image of the driving road with one camera, and to grasp the characteristics of the lane on the recorded driving road, the distance of the driving road The area must be covered, in which case a long focal length camera is used. However, when photographing a driving road with a long focal length camera, there is a problem in that a blind spot that is not captured by the camera is generated because the angle of view of the image photographed by the camera is narrowed.

또한, 사각영역을 줄이기 위해서 초점거리가 짧은 카메라를 사용하여 주행도로의 영상을 촬영하면, 차선의 사각영역은 줄어들지만 주행도로의 원거리 영역이 선명하게 촬영되지 않아 차선의 특성을 구분지어 인식하는데 어려운 문제점도 있다.In addition, if the image of the driving road is taken by using a camera having a short focal length to reduce the blind area, the blind area of the lane is reduced but the remote area of the driving road is not clearly captured, making it difficult to distinguish the characteristics of the lane. There is also a problem.

본 발명은 상기한 문제점을 해결하기 위한 것이다. 즉, 차량에 구비된 2대의 카메라를 이용하여 주행도로의 영상을 촬영하고 각각의 카메라에서 획득된 영상을 하나의 영상으로 취합함으로써, 원거리의 차선을 선명하게 나타내는 동시에 근거리의 차선을 넓은 화각으로 보여주는 주행도로의 영상을 획득하여 차선을 보다 정확하게 인식하는데 그 목적이 있다.The present invention is to solve the above problems. That is, by taking images of the driving road using two cameras provided in the vehicle and collecting the images obtained from each camera into one image, the lanes of the distance are clearly displayed and the near lanes are displayed with a wide angle of view. The purpose is to recognize the lane more accurately by acquiring the image of the driving road.

상기한 목적을 달성하기 위하여 기술적 사상으로서의 본 발명은, 주행도로의 영상을 2대의 카메라로 촬영하여 획득한 영상으로부터 차선을 구분지어 인식하는 방법에 있어서, 상기 카메라로 주행도로의 영상을 근거리와 원거리로 분할하여 촬영하는 단계와, 상기 분할되어 촬영된 주행도로의 영상을 하나의 영상으로 취합하는 단계와, 상기 취합된 영상을 디지털 처리가 가능하도록 전환하는 디지털 영상변환 단계와, 상기 변환된 디지털 영상에서 대상물과 배경의 경계가 명확해지도록 디지털 필터를 통한 화상처리를 하는 영상 필터링 단계와, 상기 필터링된 영상의 기하학적 정보로부터 차선 특징점(Candidate Points)을 산출하는 단계와, 상기 산출된 차선 특징점으로부터 차선을 인식하는 단계를 포함하여 이루어지는 것을 특징으로 하는 2대의 카메라를 이용한 차선인식 방법을 제공한다.In order to achieve the above object, the present invention as a technical concept, in the method for recognizing the lanes from the image obtained by photographing the image of the driving road with two cameras, the image of the driving road by the camera in the near and far Photographing by dividing the image into images; collecting images of the divided roads into one image; converting the collected image into digital processing; and converting the collected image into a digital image; An image filtering step of performing image processing through a digital filter so that the boundary between the object and the background becomes clear; calculating lane feature points from geometric information of the filtered image; and lanes from the calculated lane feature points Two cameras comprising the step of recognizing Provided by the lane recognition method.

이하, 본 발명의 바람직한 실시예를 첨부 도면에 의거하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

일반적으로 영상인식을 위한 카메라로는 CCD카메라와 CMOS카메라의 두가지 종류가 사용된다. 간략하게 두 종류의 카메라의 장·단점을 살펴보면, 빛에너지에 의하여 발생된 전하를 축적한 후 전송하여 영상인식을 하는 CCD카메라는 CMOS카메라에 비해서 화질이 우수하며 감도가 높은 장점이 있으나, 가격이 비싸고 주변회로가 복잡하여 발열이 심한 단점이 있으며, 빛에너지에 의해 발생된 전하를 반도체 스위치로 읽어 영상인식을 하는 CMOS카메라는 CCD카메라에 비해 노이즈가 많이 발생하고 감도가 낮은 단점이 있으나, 회로 직접도가 높아 주변IC와 원칩화가 가능하고 소비전력이 적고, 가격이 저렴한 장점이 있다.In general, two types of cameras for image recognition are used, a CCD camera and a CMOS camera. Briefly, the advantages and disadvantages of the two types of cameras are that CCD cameras, which accumulate and transfer charge generated by light energy and recognize images, have superior image quality and high sensitivity compared to CMOS cameras. Expensive and complicated peripheral circuits cause severe heat generation. CMOS cameras that read images generated by light energy with semiconductor switches generate more noise and have lower sensitivity than CCD cameras. It is possible to make one chip with peripheral IC because of high degree, and it has low power consumption and low price.

따라서, 본 실시예에서는 CMOS카메라를 사용하여 주행도로의 영상을 촬영한다.Therefore, in the present embodiment, the image of the driving road is photographed using a CMOS camera.

도 1은 종래 기술에 따른 1대의 카메라를 이용한 차선인식 방법의 차선인식 범위를 나타내는 도면이다.1 is a view showing a lane recognition range of the lane recognition method using a single camera according to the prior art.

도 1을 참조하면, 종래 기술에 따른 1대의 카메라를 이용한 차선인식 방법은 1대의 카메라(100)를 차량의 중앙부에 구비하여 차량 전방의 주행도로를 촬영한다.Referring to FIG. 1, the lane recognition method using one camera according to the related art includes one camera 100 at a center portion of a vehicle to photograph a driving road in front of the vehicle.

상기 카메라(100)를 통하여 촬영된 주행도로의 영상은 상기 카메라(100)를 통한 촬영영역(R)과 상기 촬영영역(R) 외부의 비촬영영역인 사각지역으로 구분된다. 여기에서 사각지역은 카메라로 인식할 수 없는 부분을 의미한다.The image of the driving road photographed by the camera 100 is divided into a photographing area R through the camera 100 and a blind area which is a non-capturing area outside the photographing area R. Here, the blind spot means a part that cannot be recognized by the camera.

또한, 주행도로의 차선은 상기 촬영영역(R)에 포함된 인식차선(C)과 사각지역에 포함된 비인식차선(U)으로 구분된다.In addition, the lane of the driving road is divided into a recognition lane C included in the photographing area R and an unrecognized lane U included in the blind area.

위와 같은 상기 카메라(100)를 통한 차선의 인식여부는 상기 카메라(100)의 내부에 구비된 렌즈의 초점거리에 따라 결정된다.Whether to recognize the lane through the camera 100 as described above is determined according to the focal length of the lens provided in the camera 100.

즉, 상기 카메라(100)에 사용된 렌즈의 초점거리가 긴 경우에는 상기 카메 라(100)에서 인식할 수 있는 화각이 좁아져서 차량에서 근거리 떨어진 대상물 및 배경 등을 폭넓게 인식하지 못하고 화각의 양측에 사각지역을 발생시키지만, 차량에서 원거리 떨어진 대상물 및 배경 등은 선명하게 촬영할 수 있다. 이와 반대로, 상기 카메라(100)에 사용된 렌즈의 초점거리가 짧은 경우에는 화각이 넓어져서 근거리의 대상물 및 배경 등을 폭넓게 인식할 수 있지만, 원거리의 대상물 및 배경 등은 희미하게 촬영한다. 따라서, 근거리를 넓은 화각으로 촬영하는 동시에 원거리가 선명하게 나타난 영상을 획득하는 것이 어렵다는 문제점이 있다.In other words, when the focal length of the lens used in the camera 100 is long, the angle of view that can be recognized by the camera 100 is narrowed, so that objects and backgrounds far from the vehicle are not widely recognized and are not widely recognized on both sides of the angle of view. Although blind spots are generated, objects and backgrounds far from the vehicle can be captured clearly. On the contrary, when the focal length of the lens used in the camera 100 is short, the angle of view is widened to recognize the object and the background in a short distance, but the object and the background in the far distance are blurred. Therefore, there is a problem in that it is difficult to capture a near distance at a wide angle of view and to obtain an image having a clear distance.

도 2는 본 발명의 제1실시예에 따른 2대의 카메라를 이용한 차선인식 방법의 차선인식 범위를 나타내는 도면이다.2 is a diagram illustrating a lane recognition range of a lane recognition method using two cameras according to a first embodiment of the present invention.

도 2의(a)는 차량의 전방을 인식하는 2대의 카메라(100a, 100b)를 차량의 양측에 각각 위치시켜, 주행도로를 분할하여 촬영한 상태를 나타내는 도면이며, 도 2의(b)는 도 2의(a)의 영상(110a, 110b)을 취합하여 나타낸 도면이다.FIG. 2A is a view showing a state in which two cameras 100a and 100b for recognizing the front of the vehicle are positioned on both sides of the vehicle, respectively, and photographed by dividing the driving road. FIG. FIG. 2A shows the images 110a and 110b collected together.

도 2의(a)에 도시된 각각의 카메라(100a, 100b)에 있어서 초점거리는 도 1에 도시된 카메라(100)의 초점거리보다 길게 설정되어, 도 1에 도시된 1대의 카메라(100) 보다 화각은 좁지만, 원거리의 대상물 및 배경을 선명하게 촬영하도록 초점거리가 결정된다.In each of the cameras 100a and 100b shown in FIG. 2A, the focal length is set longer than the focal length of the camera 100 shown in FIG. 1, so that the focal length is longer than that of the one camera 100 shown in FIG. 1. Although the angle of view is narrow, the focal length is determined to clearly photograph a far object and a background.

이와 같이, 각 카메라에서 파노라마(Panorama) 방식으로 촬영되어 얻어진 분할 영상을 도 2의(b)의 영상과 같이 하나로 취합하여, 취합된 영상에 대한 차선인식 과정을 수행하게 된다.As described above, the divided images obtained by taking a panorama method from each camera are combined into one, as shown in the image of FIG. 2 (b), to perform a lane recognition process on the combined images.

여기서 파노라마 방식이란, 한 화면을 담는 사진 속에 풍경을 많이 담아내기 위해 보통 사진보다 옆방향 또는 윗방향으로 길게 찍는 방식이며, 파노라마 방식을 사용하여 촬영된 복수개의 영상을 하나의 영상으로 취합할 때는 영상에 표현된 주변부의 경계 높낮이를 균일하게 맞추어야 한다.In this case, the panorama method is a method of taking a long sideward or upward direction than a normal picture to capture a lot of scenery in a picture that contains one screen. The height of the boundary of the periphery as indicated in the

주행도로를 일정한 촬영영역(R)을 분할하여 촬영하는 상기 2대의 카메라(100a, 100b)는 동일한 초점거리를 가지고 있어서 각각의 분할 영상에서 나타나는 주행도로, 차선 및 배경 등을 겹쳐서 하나의 영상으로 취합이 가능하다.The two cameras 100a and 100b which photograph a driving road by dividing a predetermined shooting area R have the same focal length, and thus combine the driving roads, lanes and backgrounds that appear in each divided image into one image. This is possible.

이와 같이, 도 2의(b)에 도시된 주행도로의 영상을 살펴보면, 도 1에 도시된 1대의 카메라(100)을 이용하여 획득한 주행도로의 영상보다 화각은 넓어져 근거리의 촬영영역에서 사각지역을 감소시키고, 원거리의 차선도 보다 선명하게 촬영되는 것을 확인할 수 있다.As described above, referring to the image of the driving road shown in FIG. 2B, the angle of view is wider than the image of the driving road obtained by using one camera 100 shown in FIG. You can see that the area is reduced, and the distant lanes are shot more clearly.

도 3은 본 발명에 따른 차선인식 방법이 적용된 차선인식 장치의 구성을 나타내는 블럭도이다.3 is a block diagram showing the configuration of a lane recognition apparatus to which the lane recognition method according to the present invention is applied.

도 3을 참조하여 본 발명에 따른 차선인식 방법이 적용된 차선인식 장치의 구성을 살펴보면, 차선인식 장치는 차량에 구비되어 주행도로의 영상을 입력받는 2대의 카메라(100a, 100b)와, 상기 2대의 카메라(100a, 100b)에서 획득된 영상을 입력받아 하나의 영상으로 취합하는 영상 취합부(120)와, 상기 영상 취합부(120)에서 취합된 영상을 컴퓨터의 입, 출력이 가능하도록 디지털화하는 디지털 영상변환부(130)와, 상기 디지털 영상변환부(130)에서 변환된 디지털 영상에서 특정 대상물과 경계가 명확해지도록 화상처리를 하는 영상 필터부(140)와, 상기 필터링 된 영상의 기하학적 정보로부터 차선 특징을 산출하여 차선을 인식하는 차선 인식 부(150)로 구성된다.Referring to the configuration of the lane recognition device to which the lane recognition method according to the present invention is applied with reference to FIG. 3, the lane recognition device is provided in a vehicle and receives two cameras 100a and 100b to receive an image of a driving road. An image collector 120 that receives an image obtained by the cameras 100a and 100b and collects the image into a single image, and digitalizes the image collected by the image collector 120 to enable input and output of a computer. An image conversion unit 130, an image filter unit 140 which performs image processing so that a specific object and a boundary are clear in the digital image converted by the digital image conversion unit 130, and the geometric information of the filtered image. It is composed of a lane recognition unit 150 for calculating a lane feature to recognize the lane.

상기 영상 취합부(120)는 상기 2대의 카메라(100a, 100b)를 통하여 분할 촬영되어 얻어진 영상을 하나의 영상으로 취합하는 부분이다. 즉, 상기 영상 취합부(120)는 상기 2대의 카메라(100a, 100b)에서 각각 얻어진 분할 영상에서 공통적으로 나타나는 대상물 또는 배경을 찾고, 이러한 대상물 또는 배경이 완전히 겹쳐지도록 하여 하나의 영상으로 취합한다.The image collecting unit 120 is a part which collects the images obtained by dividing images through the two cameras 100a and 100b into one image. That is, the image collecting unit 120 finds an object or a background that is common in the divided images respectively obtained by the two cameras 100a and 100b, and combines the object or the background into one image so that the object or the background completely overlaps.

또한, 상기 디지털 영상변환부(130)는 아날로그 영상을 디지털 영상으로 변환시키는 부분이다. 즉, 상기 디지털 영상변환부(130)는 상기 영상 취합부(120)에서 하나의 영상으로 취합되어 얻어진 아날로그 이미지를 영상의 수치 측정 및 제어가 가능한 디지털 이미지로 변환시킨다.In addition, the digital image converter 130 converts an analog image into a digital image. That is, the digital image converting unit 130 converts the analog image obtained by collecting the single image in the image collecting unit 120 into a digital image capable of numerical measurement and control of the image.

상기 영상 필터부(140)는 상기 디지털 영상변환부(130)에 의해서 얻어진 디지털 이미지를 필터링하여 영상에 포함된 주행도로, 차량, 차선 및 도로 주변의 건물 등의 외곽선을 명확하게 나타냄으로써 특정 대상물과 경계를 구분지어 주는 부분이다.The image filter 140 filters the digital image obtained by the digital image converter 130 to clearly display the outlines of the driving road, the vehicle, the lane, and the buildings around the road, which are included in the image. It is the part that separates the boundary.

한편, 상기 차선 인식부(150)는 상기 영상 필터부(140)에서 얻어진 특정 대상물, 즉, 다른 대상물 및 배경과 구분되는 차선의 기학학적 특징을 산출하여 차선을 구분하고 인식하는 부분이다.Meanwhile, the lane recognizing unit 150 is a part for identifying and recognizing lanes by calculating a geometrical characteristic of a specific object obtained by the image filter 140, that is, a lane distinguished from other objects and a background.

도 4는 본 발명의 제1실시예에 따른 2대의 카메라를 이용한 차선인식 방법을 나타내는 순서도이며, 도 5는 도 4에 도시된 차선인식 방법을 통해 영상을 처리하는 과정을 나타내는 도면이다.4 is a flowchart illustrating a lane recognition method using two cameras according to the first embodiment of the present invention, and FIG. 5 is a view illustrating a process of processing an image through the lane recognition method shown in FIG. 4.

이하, 도 4 및 도 5를 참조하여, 2대의 카메라를 이용한 차선인식 방법을 설명하면 다음과 같다.Hereinafter, a lane recognition method using two cameras will be described with reference to FIGS. 4 and 5.

우선, 차량에 구비된 상기 2대의 카메라(100a, 100b)로 차량의 전방으로 보이는 주행도로의 영상을 분할하여 촬영한다.(S410)First, the two cameras 100a and 100b provided in the vehicle divide and photograph an image of a driving road seen in front of the vehicle (S410).

위와 같이 상기 2대의 카메라(100a, 100b)에 의해서 분할 촬영된 주행도로의 영상은 상기 영상 취합부(120)를 통해서 도 5의(a)와 같이 나타나는 하나의 영상으로 취합된다.(S420)As described above, the image of the driving road divided by the two cameras 100a and 100b is collected into one image as shown in FIG. 5A through the image collecting unit 120 (S420).

이후, 상기 취합된 영상을 디지털 처리가 가능하도록 상기 디지털 영상변환부(130)를 통해 도 5의(b)와 같이 나타나는 디지털 영상으로 변환시킨다.(S430)Thereafter, the collected image is converted into a digital image as shown in FIG. 5B through the digital image converter 130 to enable digital processing.

이후, 상기 변환된 디지털 영상을 상기 영상 필터부(140)를 통해서 대상물과 배경의 경계가 명확해지도록 디지털 필터를 통한 화상처리를 실시한다. 이와 같이 디지털 필터를 통해 화상처리된 영상은 도 5의(b)와 같이 나타난다.(S440)Thereafter, the converted digital image is subjected to image processing through the digital filter so that the boundary between the object and the background becomes clear through the image filter unit 140. As such, the image processed through the digital filter is displayed as shown in (b) of FIG. 5 (S440).

상기 영상 필터부(140)에서 이루어지는 화상처리는 소벨 엣지 필터(Sobel Edge Filter) 방식으로 이루어진다. 즉, 소벨 엣지 필터 방식을 사용하면 영상에서 대상물 및 배경 등의 경계를 명확하게 구별하고 각각의 대상물 및 배경 등을 라인으로 나타낸다.The image processing performed by the image filter unit 140 is performed using a Sobel Edge Filter method. In other words, when the Sobel edge filter method is used, the boundaries of the object and the background are clearly distinguished from each other in the image, and each object and the background are represented by lines.

이후, 상기 영상 필터링된 영상의 기하학적인 정보로부터 차선 특징점(Candidate Points;CP)을 산출한다.(S450)Thereafter, lane feature points (CP) are calculated from the geometric information of the filtered image.

즉, 도 5의(c)에 도시된 것처럼 영상 필터링 단계를 통해 얻어진 영상은 영상에 표현되는 대상물 및 배경이 모두 라인으로 나타나는데, 상기 영상을 분할한 후, 각각의 분할영역에서 나타나는 라인에서 차선의 특성을 나타내는 기하학적인 특이점을 찾아 차선 특징점(CP)으로 산출한다.That is, as shown in (c) of FIG. 5, an image obtained through the image filtering step is represented by a line in which both an object and a background expressed in the image are divided. The geometric singularity showing the characteristic is found and calculated as the lane characteristic point (CP).

최종적으로, 위와 같이 산출된 상기 차선 특징점(CP)으로부터 도 5의(d)에 도시된 바와 같이 차선을 인식한다.(S460)Finally, the lane is recognized as shown in FIG. 5D from the lane feature point CP calculated as described above (S460).

도 6은 본 발명의 제2실시예에 따른 2대의 카메라를 이용한 차선인식 방법의 차선인식 범위를 나타내는 도면이다.6 is a diagram illustrating a lane recognition range of a lane recognition method using two cameras according to a second embodiment of the present invention.

도 6을 참조하면, 2대의 카메라(200a, 200b)는 전술한 제1실시예의 설치방법과 다르게 차량의 중앙부에 상하로 구비되고 각각의 초점거리가 다르게 설정됨으로써, 1대의 카메라는 좁은 촬영영역(Ra)을 가지면서 주행도로를 원거리로 촬영하고, 나머지 1대의 카메라는 넓은 촬영영역(Rb)를 가지면서 근거리의 주행도로를 폭넓게 촬영하도록 구성된다.Referring to FIG. 6, two cameras 200a and 200b are provided up and down in the center of the vehicle and different focal lengths are set differently from each other in the installation method of the first embodiment. Ra) is taken to shoot the driving road at a long distance, and the other one camera is configured to shoot a wide range of near-road driving road having a wide shooting area (Rb).

즉, 2대의 카메라는 초점거리가 긴 렌즈가 사용되어 원거리를 선명하게 촬영하되, 촬영영역(Ra)의 폭이 좁은 카메라(200a)와, 초점거리가 짧은 렌즈가 사용되어 원거리는 선명하지 않지만 넓은 촬영영역(Rb)을 가지는 카메라(200b)로 구성된다.That is, the two cameras use a long focal length lens to clearly capture a long distance, but the camera 200a of a narrow shooting area Ra and a short focal length lens are used to make the long distance not clear but wide. The camera 200b has a photographing area Rb.

위와 같이 초점거리가 각기 다른 2대의 카메라(200a, 200b)에서 촬영된 분할 영상에서 차선의 폭(W)이 동일한 지점을 찾고, 각각의 분할 영역에 나타나는 차선(Ca, Cb)의 기울기가 동일하게 하여 두개의 분할 영역을 겹침으로써 하나의 영상으로 취합한다.In the divided images captured by the two cameras 200a and 200b having different focal lengths as described above, the spots having the same width W are found, and the slopes of the lanes Ca and Cb appearing in the divided regions are equal. By overlapping the two divided regions into one image.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것은 아니며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변경 및 변형이 가능하다는 것은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백하다 할 것이다.The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and various substitutions, changes, and modifications are possible in the technical field of the present invention without departing from the technical spirit of the present invention. It will be clear to those of ordinary knowledge.

이상에서 설명한 바와 같이, 2대의 카메라를 이용한 차선인식 방법은 1대의 카메라를 이용하여 차선을 인식하는 종래의 방법보다 도로 영상의 사각지역을 감소시키고 도로의 영상을 보다 넓고 선명하게 인식함으로써, 차선을 보다 정확하게 인식할 수 있는 효과가 있다.As described above, the lane recognition method using two cameras reduces the blind spot of the road image and recognizes the lane image more broadly and clearly than the conventional method of recognizing the lane using one camera. There is an effect that can be recognized more accurately.

Claims (2)

(삭제)(delete) 주행도로의 영상을 2대의 카메라로 촬영하여 획득한 영상으로부터 차선을 구분지어 인식하는 방법에 있어서,In a method for recognizing lanes separately from an image obtained by photographing an image of a driving road with two cameras, 상기 2대의 카메라를 차량의 중앙부에 상하로 위치시키고, 상기 카메라의 초점거리를 각기 다르게 하여, 주행도로의 영상을 근거리와 원거리로 분할하여 촬영하는 단계와;Positioning the two cameras vertically in the center of the vehicle, and dividing an image of a driving road into near and long distances by varying a focal length of the cameras; 상기 분할되어 촬영된 주행도로의 영상을 하나의 영상으로 취합하는 단계와;Collecting the divided images of the traveling road into one image; 상기 취합된 영상을 디지털 처리가 가능하도록 전환하는 디지털 영상변환 단계와;A digital image conversion step of converting the collected image to enable digital processing; 상기 변환된 디지털 영상에서 대상물과 배경의 경계가 명확해지도록 디지털 필터를 통한 화상처리를 하는 영상 필터링 단계와;An image filtering step of performing image processing through a digital filter so that a boundary between an object and a background becomes clear in the converted digital image; 상기 필터링된 영상의 기하학적 정보로부터 차선 특징점을 산출하는 단계와;Calculating lane feature points from the geometric information of the filtered image; 상기 산출된 차선 특징점으로부터 차선을 인식하는 단계;Recognizing a lane from the calculated lane feature point; 를 포함하여 구성되는 것을 특징으로 하는 2대의 카메라를 이용한 차선인식 방법.Lane recognition method using two cameras, characterized in that comprises a.
KR1020060063860A 2006-07-07 2006-07-07 Method for recognizing traffic lines by using two cameras KR100773870B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060063860A KR100773870B1 (en) 2006-07-07 2006-07-07 Method for recognizing traffic lines by using two cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060063860A KR100773870B1 (en) 2006-07-07 2006-07-07 Method for recognizing traffic lines by using two cameras

Publications (1)

Publication Number Publication Date
KR100773870B1 true KR100773870B1 (en) 2007-11-06

Family

ID=39061034

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060063860A KR100773870B1 (en) 2006-07-07 2006-07-07 Method for recognizing traffic lines by using two cameras

Country Status (1)

Country Link
KR (1) KR100773870B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103996305A (en) * 2014-04-22 2014-08-20 国通道路交通管理工程技术研究中心有限公司 Method and system for correcting key transport vehicle line-pressing illegal behavior
KR101473426B1 (en) * 2010-11-03 2014-12-16 삼성테크윈 주식회사 Method for recognizing travelling route of vehicle and apparatus thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011580A (en) 1996-06-27 1998-01-16 Nissan Motor Co Ltd Lane recognizing device for vehicle
JP2002245596A (en) * 2001-02-14 2002-08-30 Toshiba Corp Lane overstepping detecting device and method
JP2006054662A (en) * 2004-08-11 2006-02-23 Mitsubishi Electric Corp Drive support device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011580A (en) 1996-06-27 1998-01-16 Nissan Motor Co Ltd Lane recognizing device for vehicle
JP2002245596A (en) * 2001-02-14 2002-08-30 Toshiba Corp Lane overstepping detecting device and method
JP2006054662A (en) * 2004-08-11 2006-02-23 Mitsubishi Electric Corp Drive support device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101473426B1 (en) * 2010-11-03 2014-12-16 삼성테크윈 주식회사 Method for recognizing travelling route of vehicle and apparatus thereof
CN103996305A (en) * 2014-04-22 2014-08-20 国通道路交通管理工程技术研究中心有限公司 Method and system for correcting key transport vehicle line-pressing illegal behavior
CN103996305B (en) * 2014-04-22 2016-07-06 国通道路交通管理工程技术研究中心有限公司 A kind of method and system correcting emphasis haulage vehicle line ball infringement

Similar Documents

Publication Publication Date Title
CN113271400B (en) Imaging device and electronic equipment
US10970568B2 (en) Vehicular vision system with object detection
KR101742490B1 (en) System for inspecting vehicle in violation by intervention and the method thereof
JP2863381B2 (en) Vehicle monitoring method
JP5561064B2 (en) Vehicle object recognition device
JP5546321B2 (en) In-vehicle display device using multiple camera images
TWI757419B (en) Camera device, camera module and camera control method
JP2020187474A (en) Traveling lane recognition device, traveling lane recognition method and program
US11176397B2 (en) Object recognition device
KR100773870B1 (en) Method for recognizing traffic lines by using two cameras
JP5434277B2 (en) Driving support device and driving support method
Baris et al. Classification and tracking of traffic scene objects with hybrid camera systems
JP6701327B2 (en) Glare detection method and device
JPS61135842A (en) Substance recognition system for a car
KR20200010691A (en) Character recognition and traffic control system using heterogeneous camera
JP2006318061A (en) Apparatus, method, and program for image processing
WO2021124657A1 (en) Camera system
JPH08315116A (en) Image processor
JPH1141521A (en) Image pickup device, instrument and method for measuring distance between vehicles
JP3447461B2 (en) Moving obstacle detecting apparatus and method
EP3329419A1 (en) Method for capturing an object on a road in the environment of a motor vehicle, camera system and motor vehicle using the same
JP5866238B2 (en) Outside environment recognition device and outside environment recognition method
JP2006012013A (en) Mobile object tracking device
JP3543912B2 (en) Optical flow detection method
KR101864765B1 (en) Device and method using fish-eye lens distortion correction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20121101

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131002

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20141020

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20151102

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20171019

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180928

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20191015

Year of fee payment: 13