KR20100097907A - A scheme of extracting forward vehicle area using the acquired land and road area information - Google Patents

A scheme of extracting forward vehicle area using the acquired land and road area information Download PDF

Info

Publication number
KR20100097907A
KR20100097907A KR1020090016787A KR20090016787A KR20100097907A KR 20100097907 A KR20100097907 A KR 20100097907A KR 1020090016787 A KR1020090016787 A KR 1020090016787A KR 20090016787 A KR20090016787 A KR 20090016787A KR 20100097907 A KR20100097907 A KR 20100097907A
Authority
KR
South Korea
Prior art keywords
vehicle
road
lane
area
image
Prior art date
Application number
KR1020090016787A
Other languages
Korean (ko)
Inventor
한헌수
한영준
유재형
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Priority to KR1020090016787A priority Critical patent/KR20100097907A/en
Publication of KR20100097907A publication Critical patent/KR20100097907A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47KSANITARY EQUIPMENT NOT OTHERWISE PROVIDED FOR; TOILET ACCESSORIES
    • A47K13/00Seats or covers for all kinds of closets
    • A47K13/24Parts or details not covered in, or of interest apart from, groups A47K13/02 - A47K13/22, e.g. devices imparting a swinging or vibrating motion to the seats
    • A47K13/28Adjustably-mounted seats or covers
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47KSANITARY EQUIPMENT NOT OTHERWISE PROVIDED FOR; TOILET ACCESSORIES
    • A47K13/00Seats or covers for all kinds of closets
    • A47K13/10Devices for raising and lowering, e.g. tilting or lifting mechanisms; Collapsible or rotating seats or covers
    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03DWATER-CLOSETS OR URINALS WITH FLUSHING DEVICES; FLUSHING VALVES THEREFOR
    • E03D5/00Special constructions of flushing devices, e.g. closed flushing system
    • E03D5/10Special constructions of flushing devices, e.g. closed flushing system operated electrically, e.g. by a photo-cell; also combined with devices for opening or closing shutters in the bowl outlet and/or with devices for raising/or lowering seat and cover and/or for swiveling the bowl

Landscapes

  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Hydrology & Water Resources (AREA)
  • Water Supply & Treatment (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: The detection rate of the vehicles is enhanced against the road image having the complex background. The efficiency red phosphorus because of limiting to the extracted vehicles domain, the vehicles is detected. CONSTITUTION: The fetch strategy of the front vehicles domain using lane and road region area information. The exact lane is detected from the complex road image. The step of considering connectivity between pixel it uses the edge chain code. The lane according to the direction of the running vehicle is detected(12).

Description

차선과 도로영역정보를 이용한 전방차량 영역의 추출기법{A Scheme of Extracting Forward Vehicle Area Using the Acquired Land and Road Area Information}A Scheme of Extracting Forward Vehicle Area Using the Acquired Land and Road Area Information}

정보통신Communication

지능형 자동차를 위한 연구는 무인자동차뿐만 아니라 안전운전을 보장하기 위한 목적으로 국내외적으로 매우 활발하게 진행되고 있다. 최근 자동차 안전과 사고예방의 개선을 위한 연구들이 자동차 제조업자들을 비롯해 정부 및 대학 연구소에서 활발하게 연구되고 있다. 기존 방법들은 운전 중에 다른 자동차와 충돌하거나 주행 차선에서 차량이 이탈하려고 예상될 때 현 상황을 운전자에게 인지해주는 교통사고의 예방에 중점을 두었다. 또한 도로상에 존재하는 차량과 사람을 포함하는 장애물을 구분하고 해당 목표물까지 거리정보도 제공하는 방법을 수행하였다. Researches for intelligent cars are actively conducted at home and abroad for the purpose of ensuring safe driving as well as driverless cars. Recently, researches for improving automobile safety and accident prevention have been actively conducted in automobile manufacturers, government and university research institutes. Existing methods have focused on the prevention of traffic accidents that alert drivers to the situation when they are expected to collide with other cars while driving or to leave the lane. In addition, the method distinguishes obstacles including vehicles and people on the road and provides distance information to the target.

 최근 연구에서는 시내도로와 같은 복잡한 환경에서 얻어진 도로 영상에서 차선, 차량, 장애물을 분리하는 영상처리 기법들이 많이 제안되고 있다. 즉, 영상 처리 기법으로부터 자동차 인식 및 추적, 충돌 회피에 관련된 기법들도 제안되고 있다. 레이저, 레이더, 초음파, 적외선 등과 같은 센서들을 복합적으로 사용하여 주변의 지형정보와 장애물을 검출하고 있다. 또한 CCD 카메라를 이용하여 획득된 도로 영상에서 차량과 장애물을 구분하는 방법들이 연구되고 있다. 영상을 이용한 기법들은 낮과 밤의 시간과 조명환경, 잡음에 큰 영향을 받기 때문에 장애물 검출에 어려움이 있어 외부 조명환경에 강인한 장애물 검출 기법이 필요하다.Recently, many image processing techniques have been proposed to separate lanes, vehicles, and obstacles from road images obtained in complex environments such as downtown roads. In other words, techniques related to vehicle recognition, tracking, and collision avoidance have been proposed. It uses a combination of sensors such as laser, radar, ultrasound, and infrared to detect nearby terrain information and obstacles. In addition, methods for distinguishing vehicles and obstacles from road images acquired using CCD cameras have been studied. Since the techniques using the image are greatly influenced by day and night time, lighting environment and noise, it is difficult to detect obstacles. Therefore, the obstacle detection technique robust to the external lighting environment is required.

 다양한 영상과 센서기반 무인 자동차의 개발이 활발하게 연구되면서 무인 자동차 대회인 DARPA Grand Challenge 대회가 성황리에 개최되고 있다. 2004년도에 처음 시작된 이 대회의 목표는 사막의 상황에서 지정된 코스를 자동차 스스로가 판단하여 주행하는 것이다. 2007 년도에는 모형의 도시환경을 구성하여 (DARPA Urban Challenge) 각 상황에 맞는 주행을 하도록 하였으며, 53개 팀이 참가하였다. 대회에 참가한 무인 자동차의 대부분은 레이더, 레이저, GPS, CCD 카메라 등과 같이 여러 분야의 센서를 복합적으로 사용하여 주변 환경을 인식한다. 여기서 CCD 카메라는 전방에 존재하는 차량을 검출하고 추적 및 회피하는 분야에 사용되고 있다. As the development of various images and sensor-based driverless vehicles is being actively studied, the DARPA Grand Challenge competition, which is a driverless automobile competition, is being held successfully. The goal of the competition, which began in 2004, is to drive the car on its own on a designated course in the desert. In 2007, the urban environment of the model (DARPA Urban Challenge) was constructed to drive for each situation, and 53 teams participated. Most of the autonomous cars participating in the competition recognize the environment by using a combination of sensors from various fields such as radar, laser, GPS and CCD camera. CCD cameras are used in the field of detecting, tracking, and avoiding vehicles in front of the vehicle.

차량 검출은 차량 주행 보조 시스템에서 안전한 주행을 위한 필수 정보이다. 이와 관련된 연구가 많은 관심을 받고 있으며 다양한 검출 알고리즘이 제안되고 있다. 차량에서 검출할 수 있는 가장 두드러지는 특징은 에지 영상에서 수직, 수평성분이다. Sun은 이러한 수직, 수평 성분에 대한 특징 검출을 위해 가버필터를 이용하는 기법을 제안하였으며 SVM과 같은 분류기를 사용하여 도로 영역에 실제 자동차가 존재하는지를 검증하였다. 복잡한 도로 영상에서 차량의 검출기의 효율성을 높 이기 위해 도로 영역 내에 차량들이 존재하는 차량 영역이 추출되어야 한다.  Vehicle detection is essential information for safe driving in a vehicle driving assistance system. Related research has received much attention and various detection algorithms have been proposed. The most prominent feature that can be detected in the vehicle is the vertical and horizontal components in the edge image. Sun has proposed a technique that uses Gabor filters to detect features of vertical and horizontal components, and uses a classifier such as SVM to verify the existence of a real car in the road area. In order to increase the efficiency of the vehicle detector in the complicated road image, the vehicle area in which the vehicles exist in the road area should be extracted.

도로 형태를 일반적인 직선과 곡선의 조합으로 가정하는 모델기반 차량 영역의 추출 기법은 잡음과 차선 정보의 손실에 강인하다. 하지만 특정한 형태의 도로에 초점을 맞추고 있기 때문에 임의 도로형태에서 차량 영역 검출에는 적합하지 않다. 위 문제를 해결하기 위해 직선, 곡선의 도로에 모두 적용이 가능한 B-Snake 기법을 이용한 차선의 검출로부터 차량 영역을 추출하는 기법이 제안되었다. The model-based vehicle region extraction technique, which assumes the road shape as a general combination of straight lines and curves, is robust against noise and loss of lane information. However, because it focuses on a particular type of road, it is not suitable for vehicle area detection in any road type. In order to solve the above problem, a method of extracting a vehicle area from lane detection using a B-Snake technique, which is applicable to both straight and curved roads, has been proposed.

또한 Kang 은 도로와 차선이 가지는 색상과 넓이 정보 구별할 수 있는 특징 정보를 이용하여 차선을 검출하는 기법을 제안하였다. 탬플릿 매칭을 통해 차선후보를 선정하고 그 후보들 중에 가장 높은 값을 가지는 것에 대한 차선 모델을 통해 차선을 선정하였다. Kang also proposed a lane detection technique using feature information to distinguish color and width information of roads and lanes. Lane candidates were selected through template matching, and lanes were selected through the lane model for the highest value among the candidates.

 많은 연구들이 영상 내에서 직선성분을 검출하는 기법인 허프변환(Hough Transform)을 이용한 차선의 검출로부터 차량 영역을 추출하는 기법을 제안하고 있다. 허프 변환은 영상 내에서 직선으로 나열된 화소들을 검출하는데 효율적인 방법으로 알려져 있다. 이런 특징을 응용한 다양한 변형된 허프변환 방법들이 차량 영역을 찾는 연구에 사용되고 있다. Hua-jun은 허프 공간상으로의 변환을 이용한 소실점 추정에 관한 연구를 통해 차선을 검출한다. 일반적인 허프변환을 이용한 차량 영역의 추출은 도로 영상에서 배경 정보가 단순한 경우에 잘 적용된다. 시내도로와 같이 복잡하고 다양한 배경을 가지는 도로 영상에는 에지의 정보가 복잡하기 때문에 정확한 차선 검출이 힘들어 차량 영역을 추출하는데 어렵다.Many studies have proposed a method for extracting a vehicle region from lane detection using Hough Transform, which is a technique for detecting a linear component in an image. Hough transform is known as an efficient method for detecting pixels arranged in a straight line in an image. Various modified Hough transform methods using this feature have been used for the research of finding vehicle area. Hua-jun detects lanes through the study of the vanishing point estimation using the transform into Hough space. Extraction of vehicle area using general Hough transform is well applied when background information is simple in road image. As road information with complex and diverse backgrounds such as downtown roads has complex edge information, accurate lane detection is difficult and it is difficult to extract a vehicle area.

일반적인 허프변환을 이용한 차량 영역의 추출은 도로 영상에서 배경 정보가 단순한 경우에 잘 적용된다. 시내도로와 같이 복잡하고 다양한 배경을 가지는 도로 영상에는 에지의 정보가 복잡하기 때문에 정확한 차선 검출이 힘들어 차량 영역을 추출하는데 어렵다. 이러한 복잡한 도로 영상에서 차량 검출의 효율성을 높이고자 한다.Extraction of vehicle area using general Hough transform is well applied when background information is simple in road image. As road information with complex and diverse backgrounds such as downtown roads has complex edge information, accurate lane detection is difficult and it is difficult to extract a vehicle area. In this complex road image, we want to improve the efficiency of vehicle detection.

복잡한 도로 영상에서 차량 검출의 효율성을 높이기 위해 체인코드를 이용한 차선의 검출로부터 도로 영역을 찾아 차량이 존재하는 차량 영역을 추출하는 기법이다. In order to increase the efficiency of vehicle detection in complex road images, it is a technique of extracting a vehicle area where a vehicle exists by finding road areas from lane detection using chain codes.

상기 과제를 달성하기 위한, 본 발명은 (a)복잡한 도로 영상에서 정확한 차선을 검출하기 위해 에지 체인코드를 이용하여 화소들간의 연결성을 고려하는 단계; (b) 주행 차량의 방향과 일치하는 차선을 검출한 후, 중앙의 차선으로부터 차도의 폭과 차선의 소실점을 찾아 인접하는 차도를 검출하는 단계; (c) 주행 차선과 인접 차선을 포함하는 도로 영역 내에 차량의 에지 정보를 이용하여 차량이 존재하는 차량 영역을 추출하는 단계를 포함한다.In order to achieve the above object, the present invention comprises the steps of (a) considering the connectivity between the pixels using the edge chain code to detect the correct lane in a complex road image; (b) detecting lanes coinciding with the direction of the traveling vehicle and detecting adjacent lanes by finding the width of the laneway and the vanishing point of the lane from the center lane; (c) extracting a vehicle region in which the vehicle exists using edge information of the vehicle in the road region including the driving lane and the adjacent lane.

차선과 도로 영역 정보를 이용한 차량 영역의 추출 기법은 복잡한 배경을 갖는 도로 영상에 차량의 검출율을 높이고 추출된 차량 영역에 한정할 수 있기 때문에 차량을 검출하는데 매우 효율적이다.The vehicle area extraction method using lane and road area information is highly efficient for detecting a vehicle because it can increase the detection rate of the vehicle in the road image having a complicated background and limit the detection to the extracted vehicle area.

본 발명에 따른 차선과 도로영역정보를 이용한 전방차량 영역의 추출기법은 (a)복잡한 도로 영상에서 정확한 차선을 검출하기 위해 에지 체인코드를 이용하여 화소들간의 연결성을 고려하는 단계; (b) 주행 차량의 방향과 일치하는 차선을 검출한 후, 중앙의 차선으로부터 차도의 폭과 차선의 소실점을 찾아 인접하는 차도를 검출하는 단계; (c) 주행 차선과 인접 차선을 포함하는 도로 영역 내에 차량의 에지 정보를 이용하여 차량이 존재하는 차량 영역을 추출하는 단계를 포함한다.According to an embodiment of the present invention, a method of extracting a front vehicle area using lane and road area information includes: (a) considering connectivity between pixels using an edge chain code to detect an accurate lane in a complex road image; (b) detecting lanes coinciding with the direction of the traveling vehicle and detecting adjacent lanes by finding the width of the laneway and the vanishing point of the lane from the center lane; (c) extracting a vehicle region in which the vehicle exists using edge information of the vehicle in the road region including the driving lane and the adjacent lane.

도 1은 상기 (a)단계의 에지 도로 영상으로부터 체인코드를 적용한 연결 화소들의 방향성을 고려하는 차선 검출기법에 관한 흐름도를 보여준다. 복잡한 도로 영상에서 정확한 차선을 검출하기 위해 에지 체인코드를 이용하여 화소들간의 연결성을 고려하기 위해 8방향 체인코드를 사용한다. 체인코드는 물체의 외곽선 성분의 연결성을 이용하여 물체의 형태를 알아내는데 유용한 방법이다. 이러한 체인코드는 연결된 화소들의 방향에 대한 정보를 담고 있기 때문에 직선 형태와 같이 일정한 방향으로 연결되어 있는 특징들에 대한 검출이 용이하다. 또한 시작점을 기준으로 하여 주축 진행방향과 다른 성분에 대한 제거가 가능하다는 장점을 가지고 있다. 따라서 영상 내에서 존재하는 복잡한 에지 성분에서 특정 방향에 따른 직선 성분들 의 분리가 가능하다.FIG. 1 is a flowchart illustrating a lane detector method considering directionalities of connected pixels to which a chaincode is applied from an edge road image of step (a). An 8-way chaincode is used to consider the connectivity between pixels using edge chaincode to detect accurate lanes in a complicated road image. Chaincodes are a useful way to determine the shape of an object using the connectivity of its outline components. Since the chaincode contains information on the direction of the connected pixels, it is easy to detect features connected in a certain direction such as a straight line. In addition, it has the advantage that it is possible to remove the spindle direction and other components based on the starting point. Therefore, it is possible to separate straight line components in a specific direction from complex edge components existing in an image.

영상 내에서 직선을 일정한 방향으로 연속적으로 이어져 있는 화소들의 집합을 고려해 볼 때, 도로영상에서 차선은 도2와 같이 소실점을 향하는 방향으로 이어져 있는 직선들의 집합으로 볼 수 있다. 도로차선의 검출을 위해서 소실점으로 향하는 방향을 갖는 직선 성분들을 에지 도로 영상으로부터 분리한다. Considering the set of pixels continuously connected in a certain direction in a straight line in the image, the lane in the road image can be seen as a set of straight lines in a direction toward the vanishing point as shown in FIG. In order to detect the road lane, the linear components having a direction toward the vanishing point are separated from the edge road image.

도로의 영상에서 나타나는 차선의 성분은 일반적으로 소실점을 향하는 직선으로 표현된다. 자동차의 수평 중심에 장착된 카메라로부터 포착된 도로 영상의 소실점은 수평 중심에서 놓이고 도로 차선은 소실점을 향한다. 도로 영상에서 차선을 쉽게 찾기 위해 도 3처럼 영상의 수평 중심을 기준으로 도로 영상을 좌우로 양분한다. 나뉜 각 영역에서 중심을 향하는 연결 화소들의 집합으로부터 획득된 직선들은 도로차선의 후보들이다. 도 9 는 실제의 도로 영상에 대한 도로의 차선 성분 및 각각의 중심 방향 성분을 이용하여 소실점을 구한 결과를 보여준다. 도 4(13)는 에지 영상의 양쪽 영역에서 중심 방향 성분이 체인 코드 값을 가지는 직선 성분에 대한 검출 결과를 보여준다. 도 4(14)는 도4(13)에서 얻어진 차선 후보들 중에서 잡음 성분을 제거하고 남은 도로 차선들이 소실점을 향하는 것을 보여준다. The lane components appearing on the road image are generally represented by a straight line towards the vanishing point. The vanishing point of the road image captured from the camera mounted at the horizontal center of the vehicle is located at the horizontal center and the road lane faces the vanishing point. In order to easily find a lane in the road image, the road image is divided into left and right directions based on the horizontal center of the image as shown in FIG. 3. The straight lines obtained from the set of connection pixels toward the center in each divided region are candidates for the road lane. FIG. 9 shows the result of the vanishing point using the lane components and the respective center direction components of the road for the actual road image. FIG. 4 (13) shows a detection result for the linear component having the chain code value of the central direction component in both regions of the edge image. FIG. 4 (14) shows that the road lanes remaining after removing the noise component among the lane candidates obtained in FIG. 4 (13) face the vanishing point.

도로 영상에서 차선정보의 획득은 진행 차량이 주행 방향을 결정할 수 있는 정보뿐만 아니라 차량이 주행 중에 차량들을 빠르게 검출함으로써 충돌을 회피하는 경고신호를 제공한다. 도로 영상의 전체를 검색하지 않고 주행 차도에 인접하는 차량들을 검출하는 시간을 단축하기 위해 중심 차도 및 인접 차도를 포함하는 도로영역을 분리하고, 도로 영역에서 전방 차량들을 포함하는 차량 영역을 찾는다. 도 5 는 전방 차량의 검출을 위한 차량 영역을 찾는 기법의 흐름도를 보여준다.The acquisition of lane information in the road image provides not only information for determining the driving direction of the traveling vehicle but also a warning signal for avoiding collision by quickly detecting vehicles while the vehicle is driving. In order to shorten the time for detecting vehicles adjacent to the driving road without searching the entire road image, the road area including the center roadway and the adjacent roadway is separated, and the vehicle area including the front vehicles is found in the road area. 5 shows a flowchart of a technique for finding a vehicle area for detection of a forward vehicle.

본 발명에서는 도로가 여러 차선을 갖는 도로 영상에서 도로 영역을 진행 차량의 중심 차도를 비롯하여 좌우 인접 차도를 포함하는 영역으로 정의한다. 주행 차량의 중심 차도는 앞 장에서 얻어진 소실점과 도로 영상의 수평 중심에 인접한 차선을 연결하는 영역이다. 좌우 차도는 중심 차도의 넓이를 보정하여 도 6(11)처럼 좌우로 연장함으로서 구해진다. 본 발명에서 정의한 도로영역은 도 6(11)에서 보여 주듯이 중심차도(C)와 중심차도의 넓이로부터 계산된 좌우 인도 차도(L,R)를 포함한다. 검출한 차선들의 정보와 소실점의 정보는 주행 차량의 도로 영역을 찾을 수 있는 많은 실마리를 제공한다. 도로 차선들을 연장하여 얻어진 소실점의 위치와 영상의 수평 중심에 인접한 양쪽의 차선 정보는 주행 차량의 중심 차도를 결정한다. In the present invention, the road is defined as a region including left and right adjacent roadways as well as a center roadway of a traveling vehicle in a road image in which a road has multiple lanes. The center roadway of the driving vehicle is the area connecting the vanishing point obtained in the previous chapter with the lane adjacent to the horizontal center of the road image. The left and right roadways are obtained by correcting the width of the center roadway and extending left and right as shown in FIG. 6 (11). As shown in FIG. 6 (11), the road area defined in the present invention includes a central roadway C and left and right roadways L and R calculated from the area of the center roadway. The information of the detected lanes and the vanishing point provide many clues to find the road area of the driving vehicle. The location of the vanishing point obtained by extending the road lanes and both lane information adjacent to the horizontal center of the image determine the center lane of the traveling vehicle.

차량이 중심 차도에서 주행하는 상황에서 전방 차량과 충돌을 회피하기 위해서 도로 영역에서 실시간으로 전방 차량이 검출되어야 한다. 차량 검출기의 탐색 범위를 도로 영역 상에 차량이 존재할 것으로 예측되는 차량 영역으로 제한함으로써 실시간 전방 차량의 검출이 가능하다. 차량 영역을 도로 영역의 차도 내에 주행 차량에 가장 근접한 전방 차량이 차지는 영역으로 정의한다. 차량 영역의 폭은 차선 정보로부터 계산된 차도의 폭으로, 높이는 차량의 종류나 주행 차량과 거리에 따라 달라지기 때문에 차량 영역의 폭에 비례하는 크기로 설정하였다. In a situation where the vehicle is traveling on the central roadway, the front vehicle must be detected in real time in the road area to avoid collision with the front vehicle. Real-time front vehicle detection is possible by limiting the search range of the vehicle detector to the vehicle area where the vehicle is expected to be present on the road area. The vehicle area is defined as the area occupied by the front vehicle closest to the traveling vehicle in the roadway of the road area. The width of the vehicle area is the width of the roadway calculated from the lane information, and the height is set to a size proportional to the width of the vehicle area because the height varies depending on the type of the vehicle or the driving vehicle and the distance.

Figure 112009012290164-PAT00002
Figure 112009012290164-PAT00002

차량 영역을 찾기 위해 도로 영역을 구성하는 각 차도의 영역에 대해서 수평 에지 투영을 적용한다. 차량에서 가장 두드러지게 나타나는 수직, 수평성분을 이용하여 각 영역에서 나타나는 에지 성분 중에서 프로젝션 변화 성분의 누적이 강한 부분을 차량이 놓인 차량영역으로 결정한다. 수학식 1는 수평과 수직 방향에 대한 에지 성분의 프로젝션 관계식을 나타낸다.In order to find the vehicle area, horizontal edge projection is applied to the area of each roadway constituting the road area. Using the vertical and horizontal components that are most prominent in the vehicle, the portion of the edge component appearing in each region with a strong accumulation of the projection change component is determined as the vehicle region in which the vehicle is placed. Equation 1 shows the projection relationship of the edge components in the horizontal and vertical directions.

차량이 도로에 접촉한 상태에서 주행하며, 전방 차량의 종류와 거리에 따라 차량 영역의 폭과 높이의 비가 결정되기 때문에 차량의 높이를 결정하기 쉽지 않다. 본 논문에서는 전방 차량의 검출을 놓치지 않기 위해 차량 영역의 높이를 차량 영역의 폭의 2/3크기로 정하였다 It is difficult to determine the height of the vehicle because the vehicle travels in contact with the road and the ratio of the width and height of the vehicle area is determined by the type and distance of the vehicle ahead. In this paper, the height of the vehicle area is set to 2/3 of the width of the vehicle area so as not to miss the detection of the vehicle ahead.

사전에 결정된 차량 영역은 차도에 놓인 전방 차량을 포함하는 대략적인 영역을 표현한다. 본 논문은 차도에 놓인 전방 차량의 검출을 위해 추출한 차량 영역의 효용성을 검증하기 위해 BDF(Bayesian Discriminating Features)을 이용한 차량 검출기를 사용하였다. The predetermined vehicle area represents an approximate area including the front vehicle lying on the roadway. In this paper, a vehicle detector using Bayesian Discriminating Features (BDF) is used to verify the effectiveness of the extracted vehicle area for the detection of the vehicle ahead.

BDF 기법을 이용한 차량 검출기는 학습과정과 시험과정으로 구성된다. 학습과정에서 우선적으로 차량과 비차량 훈련 집합의 모든 입력영상(∈R mxn) 들에 대해서 사전 정의된 특징들을 추출하여 특징행렬을 구성한다. 본 논문의 BDF를 이용한 차량 검출기는 특징벡터의 구성을 위해 정규화한 그레이 스케일 영상(∈R mn), 1차원 Harr Wavelet 표현(∈R (m-1)n, R m (n-1)),수평/수직 프로젝션(∈R m, R n)의 특징들을 사용하였다. 수학식 2는 각각의 특징들을 정규화하여 구성한 특징벡터의 표현을 보여준다. The vehicle detector using the BDF technique consists of a learning process and a test process. In the learning process, the feature matrix is first constructed by extracting predefined features for all input images (∈ R mxn ) of the vehicle and non-vehicle training sets. In this paper, the vehicle detector using BDF is normalized gray scale image (∈ R mn ), one-dimensional Harr Wavelet representation (∈ R (m-1) n , R m (n-1) ), The features of horizontal / vertical projection (∈ R m , R n ) were used. Equation 2 shows a representation of a feature vector composed by normalizing each feature.

Figure 112009012290164-PAT00003
Figure 112009012290164-PAT00003

여기서 t는 전치 연산자이며

Figure 112009012290164-PAT00004
는 각각 특징들을 정규화한 그레이 영상, 수평/수직 1-D Harr Wavelet 표현, 수평/수직 프로젝션 특징이다. 입력 영상에 대한 특징벡터 는 3mn의 차원을 갖는다. Where t is the transposition operator
Figure 112009012290164-PAT00004
Are gray image normalized features, horizontal / vertical 1-D Harr Wavelet representation, and horizontal / vertical projection features. The feature vector for the input image has a dimension of 3mn.

특징벡터들로부터 공분산 행렬을 구성하여 주성분 분석(PCA)을 수행한다. 각 입력 영상들을 고유공간으로 투영하여 가중치 벡터가 얻고, 최종적으로 차량과 비차량 클래스의 각각을 정규분포로 모델링한다. 수학식 3은 Bayesian 이론에 의한 차량 클래스와 비차량 클래스의 후행 확률 분포이다. Principal component analysis (PCA) is performed by constructing a covariance matrix from feature vectors. Each input image is projected into the eigenspace to obtain a weight vector, and finally, each of the vehicle and non-vehicle classes is modeled with a normal distribution. Equation 3 is a trailing probability distribution of the vehicle class and the non-vehicle class based on the Bayesian theory.

Figure 112009012290164-PAT00005
Figure 112009012290164-PAT00005

Figure 112009012290164-PAT00006
Figure 112009012290164-PAT00006

Bayesian Decision Rule에 따라 입력 특징벡터 가 차량 클래스에 속할 후행확률이 비차량 클래스에 속할 후행확률보다 큰 경우에 차량으로 이와 반대일 경우 비차량으로 판단한다(수학식 4).According to the Bayesian Decision Rule, when the trailing probability that the input feature vector belongs to the vehicle class is greater than the trailing probability that belongs to the non-vehicle class, the vehicle is judged to be non-vehicle when the reverse characteristic is opposite (Equation 4).

Figure 112009012290164-PAT00007
Figure 112009012290164-PAT00007

시험과정에서는 테스트 영상이 입력되면 훈련과정과 동일하게 특징 추출 단계를 거치게 된다. 추출된 특징벡터는 훈련과정에서 주성분 분석을 통해서 구해진 변환 행렬을 통해서 고유공간으로 투영되어 가중치 벡터가 얻어진다. 마지막으로 각 클래스에 대한 확률적 통계 값을 계산하고 Bayesian Decision Rule을 이용하여 입력 영상이 자동차인지 비자동차인지를 결정하게 된다. In the test process, when the test image is input, the feature extraction step is performed in the same manner as in the training process. The extracted feature vector is projected into the eigenspace through the transformation matrix obtained through principal component analysis in the training process to obtain the weight vector. Finally, stochastic statistical values for each class are calculated and Bayesian Decision Rule is used to determine whether the input image is car or non-car.

도 7는 주행 영상으로부터 도로영역과 차량을 얻는 과정을 보여준다. 도 7(12)는 주행 차량의 중심 차도를 보여주고 도 7(11,13)는 주행 차량의 도로영상에 대한 중심 차도와 좌우 차도를 포함한 도로 영역을 보여준다. 도 7(14)는 도로영역에서 차량을 검출한 결과를 보여준다.7 shows a process of obtaining a road area and a vehicle from a driving image. 7 (12) shows the center roadway of the driving vehicle, and FIG. 7 (11, 13) shows the road area including the center roadway and the left and right roadway for the road image of the driving vehicle. 7 (14) shows the result of detecting the vehicle in the road area.

도 1은 본 발명의 체인코드를 이용한 차선검출 기법의 흐름도이다.1 is a flowchart of a lane detection technique using a chaincode of the present invention.

도 2는 본 발명의 소실점 방향의 직선성분을 보여주는 그림이다. 2 is a diagram showing a linear component in the vanishing point direction of the present invention.

도 3는 본 발명의 영상의 중심을 기준으로 양분하고 각 영역에서 중심을 향하는 주축 방향 성분을 획득하는 그림이다.FIG. 3 is a diagram of dividing a main axis direction component bisecting based on the center of an image of the present invention and pointing toward the center in each region.

도 4는 본 발명의 도로 영상으로부터 도로 차선 및 소실점의 획득하는 과정을 보여주는 영상이다.4 is an image showing a process of obtaining a road lane and a vanishing point from a road image of the present invention.

도 5는 본 발명의 전방 차량 검출을 위한 차량 영역의 추출의 흐름도를 보여준다. 5 shows a flow chart of extraction of a vehicle region for front vehicle detection of the present invention.

도 6는 도로 영상에서 도로영역의 구분과 실시예의 영상이다.6 is an image of an embodiment and classification of a road area in a road image.

도 7는 도로영역에서 전방차량의 차량영역 검출결과의 영상이다.7 is an image of a vehicle region detection result of a front vehicle in a road region.

Claims (3)

도로영역을 검출할 목적으로, 카메라 입력영상으로부터 체인코드를 이용하여 차선을 검출하는 기법.A technique for detecting a lane using a chain code from a camera input image for the purpose of detecting a road area. 도로영역으로부터 차량의 좌우 차도를 찾을 목적으로, 중심 차선의 폭을 측정하여 좌우 차도를 검출하는 기법.A technique for detecting left and right lanes by measuring the width of the center lane in order to find left and right lanes of a vehicle from a road area. 진행하는 차량의 중앙 차도와 좌우 차도에 위치한 전방 차량의 검출로부터 차량영역의 효용성을 검증하기 위해 BDF(Bayesian Discriminating Features) 기법을 이용하는 방법.A method using Bayesian Discriminating Features (BDF) to verify the effectiveness of the vehicle area from the detection of forward vehicles located in the center and left and right lanes of the vehicle.
KR1020090016787A 2009-02-27 2009-02-27 A scheme of extracting forward vehicle area using the acquired land and road area information KR20100097907A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090016787A KR20100097907A (en) 2009-02-27 2009-02-27 A scheme of extracting forward vehicle area using the acquired land and road area information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090016787A KR20100097907A (en) 2009-02-27 2009-02-27 A scheme of extracting forward vehicle area using the acquired land and road area information

Publications (1)

Publication Number Publication Date
KR20100097907A true KR20100097907A (en) 2010-09-06

Family

ID=43004945

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090016787A KR20100097907A (en) 2009-02-27 2009-02-27 A scheme of extracting forward vehicle area using the acquired land and road area information

Country Status (1)

Country Link
KR (1) KR20100097907A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140054922A (en) * 2012-10-30 2014-05-09 현대모비스 주식회사 Method and device for detecting front vehicle
US11200432B2 (en) 2018-10-23 2021-12-14 Samsung Electronics Co., Ltd. Method and apparatus for determining driving information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140054922A (en) * 2012-10-30 2014-05-09 현대모비스 주식회사 Method and device for detecting front vehicle
US11200432B2 (en) 2018-10-23 2021-12-14 Samsung Electronics Co., Ltd. Method and apparatus for determining driving information

Similar Documents

Publication Publication Date Title
CN106652468B (en) The detection and from vehicle violation early warning alarm set and method in violation of rules and regulations of road vehicle front truck
CN101739829B (en) Video-based vehicle overspeed monitoring method and system
CN102765365B (en) Pedestrian detection method based on machine vision and pedestrian anti-collision warning system based on machine vision
CN101881615B (en) Method for detecting visual barrier for driving safety
Kim et al. Robust detection of non-motorized road users using deep learning on optical and LIDAR data
EP3594853A2 (en) Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
Cualain et al. Automotive standards-grade lane departure warning system
KR101663574B1 (en) Method and system for detection of sudden pedestrian crossing for safe driving during night time
KR101240499B1 (en) Device and method for real time lane recogniton and car detection
KR102031503B1 (en) Method and system for detecting multi-object
KR20220040473A (en) detection of emergency vehicles
CN109948552B (en) Method for detecting lane line in complex traffic environment
Chen et al. A visual method tor the detection of available parking slots
EP2741234B1 (en) Object localization using vertical symmetry
CN105678287A (en) Ridge-measure-based lane line detection method
CN106114505A (en) A kind of front truck anti-collision warning method of vehicle DAS (Driver Assistant System)
Nava et al. A collision warning oriented brake lights detection and classification algorithm based on a mono camera sensor
Yoneda et al. Simultaneous state recognition for multiple traffic signals on urban road
KR20160081190A (en) Method and recording medium for pedestrian recognition using camera
CN114495066A (en) Method for assisting backing
KR20100097907A (en) A scheme of extracting forward vehicle area using the acquired land and road area information
Álvarez et al. Perception advances in outdoor vehicle detection for automatic cruise control
CN107256382A (en) Virtual bumper control method and system based on image recognition
JP2014157489A (en) Vehicle platoon controller
Kim et al. Real Time multi-lane detection using relevant lines based on line labeling method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application