WO2015105239A1 - Vehicle and lane position detection system and method - Google Patents

Vehicle and lane position detection system and method Download PDF

Info

Publication number
WO2015105239A1
WO2015105239A1 PCT/KR2014/003288 KR2014003288W WO2015105239A1 WO 2015105239 A1 WO2015105239 A1 WO 2015105239A1 KR 2014003288 W KR2014003288 W KR 2014003288W WO 2015105239 A1 WO2015105239 A1 WO 2015105239A1
Authority
WO
WIPO (PCT)
Prior art keywords
road
lane
pixels
driving
area
Prior art date
Application number
PCT/KR2014/003288
Other languages
French (fr)
Korean (ko)
Inventor
김동신
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Publication of WO2015105239A1 publication Critical patent/WO2015105239A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Definitions

  • the present invention relates to a vehicle and lane position detection system and method.
  • LDWS lane departure warning system
  • safe driving assistance system such as the lane maintenance
  • vehicle automatic control system the vehicle automatic control system
  • An embodiment of the present invention provides a system and method for detecting a relative position on a road of a vehicle and a lane that can assist autonomous driving or driving by estimating the position of a lane in progress and a relative vehicle position on a road. To provide.
  • Lane position detection system the segment unit for segmenting the road image obtained by the sensor into super pixels;
  • a classification unit classifying the superpixels into a road pixel constituting a road area and a non-road pixel constituting a non-road area adjacent to the road area;
  • a boundary detector for generating a plurality of vanishing lines in a boundary region where the road pixel and the non-road pixel are mixed;
  • a position estimator for generating a candidate road region by a pair of vanishing line selected from the plurality of vanishing lines, and estimating a driving position from a shape of the candidate road region.
  • the classifier may classify the superpixel into road pixels or non-road pixels based on at least one of visual and spatial features of the superpixel.
  • the classification unit may classify the unclassified super pixel into road pixels or non-road pixels using spatial information between adjacent super pixels.
  • the boundary detector may select a plurality of particle pairs from particles distributed in correspondence with a probability distribution set in the boundary area, and generate a plurality of vanishing lines by the plurality of particle pairs.
  • the boundary detector may select the particle pair so that the vanishing line does not pass through the road area.
  • the location estimating unit may estimate the driving position and the driving lane based on the entire road width and the lane width.
  • the position estimating unit may set a candidate group from a plurality of driving positions estimated from a plurality of vanishing line pairs, and estimate the driving position and the driving lane based on the total road width and the lane width with respect to the candidate group.
  • the position estimating unit may estimate a position having the highest density among the candidate groups as a driving position, and estimate a driving lane corresponding to the set driving position.
  • Lane position detection method segmenting the road image obtained by the sensor into super pixels; Classifying the superpixels into road pixels constituting a road area and non-road pixels constituting a non-road area adjacent to the road area; Generating a plurality of vanishing lines in a boundary region where the road pixel and the non-road pixel are mixed; And generating a candidate road region by a pair of vanishing line selected from the plurality of vanishing lines, and estimating a driving position from the shape of the candidate road region.
  • the classifying step may include classifying the super pixel as a road pixel or a non-road pixel based on at least one of a visual feature and a spatial feature of the super pixel.
  • the classifying step may include classifying an unclassified super pixel into a road pixel or a non-road pixel using spatial information between adjacent super pixels.
  • the generating of the candidate vanishing line may include distributing particles in the boundary region corresponding to a probability distribution set in the boundary region; And selecting a plurality of particle pairs from the distributed particles, and generating a plurality of vanishing lines by the plurality of particle pairs.
  • the particle pair may be selected such that the vanishing line does not pass through the roadway region.
  • the estimating driving position may include estimating the driving position and the driving lane based on the entire road width and the lane width.
  • the position estimating may include: setting a candidate group from a plurality of driving positions estimated from a plurality of vanishing line pairs; And estimating the driving position and the driving lane with respect to the candidate group based on the entire road width and the lane width.
  • the estimating driving lane may include estimating a position having the highest density of the candidate group as a driving position and estimating a driving lane corresponding to the set driving position.
  • an expensive DGPS Different Global Positioning System
  • DGPS Different Global Positioning System
  • FIG. 1 is a block diagram schematically illustrating a vehicle and a lane detection system according to an exemplary embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a road image input from a sensor.
  • FIG. 3 is a diagram illustrating a segment image obtained by segmenting the road image of FIG. 2 into super pixels.
  • FIG 4 is an exemplary view showing a road area and a non-road area according to an embodiment of the present invention.
  • FIG. 5 is a diagram schematically illustrating a result classified into road pixels and non-road pixels according to an exemplary embodiment of the present invention.
  • FIG. 6 is an exemplary view schematically showing a boundary area between a road area and a non-road area according to an embodiment of the present invention.
  • FIG. 7 is an exemplary view showing vanishing lines generated in a boundary area according to an exemplary embodiment of the present invention.
  • FIG. 8 is an exemplary diagram illustrating a plurality of driving positions estimated from a plurality of vanishing line pairs according to an exemplary embodiment of the present invention.
  • FIG. 9 is an exemplary diagram illustrating a result of determining a relative driving position in a road image and a relative position of a driving lane in a converted image according to an exemplary embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a method of detecting a position of a vehicle and a lane in driving according to an embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a pixel classification method of FIG. 10.
  • FIG. 12 is a flowchart for describing a method for generating candidate vanishing lines in FIG. 10.
  • Lane position detection system the segment unit for segmenting the road image obtained by the sensor into super pixels;
  • a classification unit classifying the superpixels into a road pixel constituting a road area and a non-road pixel constituting a non-road area adjacent to the road area;
  • a boundary detector for generating a plurality of vanishing lines in a boundary region where the road pixel and the non-road pixel are mixed;
  • a position estimator for generating a candidate road region by a pair of vanishing line selected from the plurality of vanishing lines, and estimating a driving position from a shape of the candidate road region.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
  • Embodiments of the present invention can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, embodiments of the invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented in software programming or software elements, embodiments of the present invention include various algorithms implemented in combinations of data structures, processes, routines or other programming constructs. It may be implemented in a programming or scripting language such as C, C ++, Java, assembler, or the like.
  • inventions may be implemented with an algorithm running on one or more processors.
  • embodiments of the present invention may employ the prior art for electronic configuration, signal processing, and / or data processing.
  • Terms such as mechanism, element, means, configuration can be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
  • FIG. 1 is a block diagram schematically illustrating a vehicle and a lane detection system according to an exemplary embodiment of the present invention.
  • a road-based autonomous driving system is a system that guarantees safe driving by correcting its position using lane information or inducing lane maintenance or change by determining a driving lane using a direct localization sensor such as GPS. .
  • a direct localization sensor such as GPS.
  • the lane is blurred or erased, it is difficult to recognize the lane with only lane information.
  • Accurate navigation devices are also expensive and accumulate in errors, and do not compensate themselves for errors. And even if a separate error correction algorithm is used, it is not robust as an algorithm that is not based on MAP.
  • the vehicle and lane position detection system 1 may detect the position of a moving object such as a vehicle or a mobile robot by recognizing a road area of a road currently being driven and a non-road area adjacent to the road area. Therefore, the embodiment of the present invention can infer the position of the movable body or the camera mounted on the movable body without using expensive equipment such as GPS.
  • the vehicle and lane position detection system 1 estimates approximate distance information from the left and right boundary of the road area to the position of the sensor 2 or the center position of the vehicle equipped with the sensor 2, that is, the current driving position of the vehicle. can do.
  • the sensor 2 is an image recognition device attached to a driving vehicle, and may be, for example, a camera that acquires a surrounding image of the vehicle.
  • the sensor 2 may be installed at the front, rear, or side of the vehicle, and may be selectively mounted at an appropriate position so as to obtain an image of the road optimally.
  • the range of the surrounding image obtained by the sensor 2 may vary according to the type of the sensor 2 mounted on the vehicle, and the entire width of the road or the width of the currently driving lane may be displayed on the image.
  • embodiments of the present invention are not limited thereto, and various sensors, such as an infrared sensor, a radar (RADAR), or a lidar (LIDAR) sensor, in addition to the image recognition apparatus, may be used alone or in a fused form.
  • sensors such as an infrared sensor, a radar (RADAR), or a lidar (LIDAR) sensor, in addition to the image recognition apparatus, may be used alone or in a fused form.
  • the vehicle and lane position detection system 1 may provide position information of the vehicle to the driver through the information providing device 3.
  • the information providing apparatus 3 is a display device that provides a two-dimensional or three-dimensional image of an image obtained from the sensor 2 and a driving lane detection result from the vehicle and lane position detection system 1, and the vehicle and lane position detection.
  • the system 1 may be connected by wire or wirelessly.
  • the information providing apparatus 3 may provide information to the driver in various ways such as an image, a text, and a voice, and a display method (for example, lane and non-lane guide for each color, etc.) set in a manner agreed with the user when providing an image. ) So that users can easily recognize it.
  • the information providing apparatus 3 may convert and provide a driving lane detection result into a bird view form.
  • the range of the road provided by the information providing device 3 may vary depending on the range of the image acquired by the sensor 2, and may provide the entirety of the acquired image or may provide only the road in the direction in which the vehicle is currently traveling. have.
  • the vehicle and lane position detection system 1 may include a segment unit 11, a classification unit 13, a boundary detector 15, and a position estimator 17.
  • the segment unit 11 receives a road image including road information from a sensor 2 connected to the vehicle and the lane detection system 1.
  • the road information may include lane marking drawn on the road surface.
  • the segment unit 11 may segment a road image composed of a plurality of pixels into super pixels.
  • the segment part 11 may divide the road image into uniform areas having similar characteristics. In this case, the divided uniform region is called a super pixel.
  • Each superpixel may be represented by a color distribution and a texture distribution representing a visual feature, and a central mass position representing a spatial feature.
  • the segment part 11 may store the visual and spatial features of each super pixel in the memory 4.
  • FIG. 2 is a diagram illustrating a road image input from the sensor 2
  • FIG. 3 is a diagram illustrating a segment image obtained by segmenting the road image of FIG. 2 into super pixels.
  • the classification unit 13 may learn the road area and the non-road area through samples of the road area and the non-road area under various environments and situations such as weather, lighting, and lane damage.
  • the classifier 13 may be updated to reflect the lane position detection result.
  • the non-road area is an area adjacent to the road area, not a remaining area other than the road area in the road image, as shown in FIG. 4.
  • the area adjacent to the road may have unique visual features.
  • the road area can be detected more accurately by using the features of the road area and the non-road area together.
  • the classifying unit 13 may classify each super pixel into a road pixel and a non-road pixel based on the visual and spatial characteristics of the road area and the non-road area according to the learning result.
  • the classifier 13 may include an ANN classifier, an adaboost classifier, a naive bayes classifier, or a support vector machine (SVM) for classifying super pixels.
  • SVM support vector machine
  • Embodiments of the present invention are not limited to the classifier described above, and various classifiers or algorithms that can classify super pixels based on features may be applied to the super pixel classification.
  • the classifying unit 13 may classify unclassified super pixels that are not classified as road pixels or non-road pixels as road pixels or non-road pixels based on a correlation with adjacent super pixels.
  • the classifier 13 may triangulate the superpixels to indicate a relationship between the superpixels.
  • the classifier 13 may apply the Delaunay triangulation technique.
  • the present invention is not limited to this, and of course, other techniques capable of defining spatial relationships can be used.
  • the classifying unit 13 converts the unclassified super pixel into a road pixel or a non-pixel in consideration of spatial correlation of the super pixels based on, for example, a Markov random field (MRF) or a conditional random field (CRF). Can be classified as pixels.
  • MRF Markov random field
  • CRF conditional random field
  • the present invention is not limited to this, and of course, other techniques capable of performing clustering may be used.
  • the classifying unit 13 is sequentially or in parallel by a first classifier for classifying road pixels based on the characteristic information of the road area and a second classifier for classifying non-road pixels based on the characteristic information for the non-road area.
  • Superpixels can be classified as road pixels or non-road pixels.
  • the classifying unit 13 may classify the superpixels into road pixels or non-road pixels by one classifier based on the feature information about the road area and the non-road area.
  • the classifying unit 13 may classify the road pixel or the non-road pixel arbitrarily according to a predetermined classification criterion.
  • the output of the classification unit 13 is a result of the classification of the super pixels, and the boundary between the road area and the non-road area is not clearly distinguished, and there is an area where the road pixel and the non-road pixel are mixed.
  • the boundary detector 15 may set a region where the road pixel and the non-road pixel are mixed as the boundary region and generate a plurality of vanishing lines in the boundary region.
  • 6 is an exemplary view schematically showing a boundary area between a road area and a non-road area.
  • the boundary detector 15 may generate and distribute particles in the boundary region.
  • the probability distribution may be set such that the center of the boundary region has the highest probability and the probability decreases as the distance from the center increases. Particles in the boundary region may be distributed corresponding to the set probability distribution.
  • the boundary detector 15 may generate a vanishing line (VL) by selecting any particle pair among the distributed particles.
  • the boundary detector 15 may select the particle pair so that the vanishing line connecting the particle pair does not pass the road area.
  • VL vanishing line
  • the position estimator 17 may select any vanishing line pair from the plurality of vanishing lines.
  • the vanishing line pair may correspond to the boundary line pair of the left road boundary and the right road boundary.
  • a vanishing point is predicted by the vanishing line pair, and a candidate road region in which the vanishing line pair is a road boundary pair may be determined.
  • the position estimating unit 17 may estimate the position of the sensor 2, that is, the driving position of the vehicle, from the shape of the candidate road area.
  • 8 is an exemplary diagram illustrating a plurality of driving positions CP estimated from a plurality of vanishing line pairs.
  • the location estimating unit 17 extracts road information including the total width of the road and the lane width by using the road map database in the memory 4, and uses the extracted road information to display the currently traveling lane corresponding to the driving position. It is possible to estimate the relative position of, i.e., in which of the lanes.
  • the position estimating unit 17 may set a driving position candidate group including a plurality of driving positions excluding a driving position corresponding to noise from the plurality of driving positions estimated from the plurality of vanishing line pairs. Since the driving position away from the region where the driving position is concentrated is unlikely to be the actual driving position, it may be determined as noise and may be excluded.
  • the position estimating unit 17 may determine the driving lane to which the driving position belongs to the driving position candidate group based on the entire road width and the lane width. As another example, the position estimating unit 17 may set the position having the highest probability in the driving position candidate group, that is, the position with the highest density of the driving positions as the final driving position, and determine the driving lane to which the set driving position belongs.
  • the position estimator 17 may convert the road area represented by the vanishing line into the road area represented by the parallel boundary line.
  • the information providing apparatus 3 may display the estimated driving position on the converted image.
  • the position estimator 17 may perform image transformation by homography (or warping) using camera internal parameters and coordinate transformation. Since image conversion by homography or warping is a well-known technique, a detailed description thereof will be omitted.
  • FIG. 9 is an exemplary view illustrating a result of determining a relative position X ′ of a driving lane by reflecting a width L and a lane width of an actual road from a candidate driving position X in a road image.
  • the two lanes driving on the road of all three lanes it can be seen that the two lanes driving on the road of all three lanes.
  • FIG. 10 is a flowchart illustrating a method of detecting a position of a vehicle and a lane in driving according to an embodiment of the present invention.
  • 11 is a flowchart illustrating a pixel classification method of FIG. 10.
  • FIG. 12 is a flowchart for describing a method for generating candidate vanishing lines in FIG. 10.
  • the vehicle and lane position detection system may receive a road image from a sensor and segment the road image into super pixels (S101).
  • the visual and spatial features of each super pixel can be stored in memory.
  • the visual feature may include a color distribution and a texture distribution.
  • the spatial feature may comprise a central mass position.
  • the vehicle and lane position detection system may classify the super pixels into road and non-road pixels based on the visual and spatial features of the super pixels (S103).
  • Classified road pixels may constitute a road area
  • non-road pixels may constitute a non-road area.
  • the non-road area is an area adjacent to the road area, not a remaining area other than the road area.
  • the vehicle and lane position detection system may classify road pixels from super pixels based on information about road areas acquired through training on road areas and non-road areas ( S113).
  • the vehicle and lane position detection system detects the rough road area by classifying the unclassified superpixels as road pixels using spatial information between adjacent superpixels (S133). It may be (S153).
  • the vehicle and lane position detection system may classify the non-road pixels from the super pixels based on the information about the non-road area acquired through the training of the road area and the non-road area (S113).
  • the vehicle and lane position detection system classifies the unclassified superpixel into nonroad pixels using spatial information between adjacent superpixels (S173).
  • the area can be detected (S193).
  • the vehicle and lane position detection system may classify a road pixel or a non-road pixel arbitrarily according to a predetermined classification criterion when one super pixel is classified into road pixels and non-road pixels.
  • the vehicle and lane position detection system may convert the unclassified super pixel into a road pixel or a non-road pixel based on spatial information between adjacent super pixels or a predetermined classification criterion when an unclassified super pixel exists in an area where road pixels and non-road pixels are mixed. Can be classified as
  • Vehicle and lane position detection systems may classify road pixels and non-road pixels in parallel or sequentially.
  • the vehicle and lane position detection system may generate a plurality of vanishing lines in a boundary area where road pixels and non-road pixels are mixed (S105).
  • the vehicle and lane position detection system may set a boundary area between a rough road area and a non-road area (S115). Since the detected rough road area and the non-road area are a collection of super pixels, the boundary between the road area and the non-road area is not clear, and the road area and the non-road pixel may be mixed in the boundary area.
  • the vehicle and lane position detection system may set a predetermined area where road pixels and non-road pixels are mixed as a boundary area.
  • the vehicle and lane position detection system may distribute the particles in the boundary area (S135).
  • the vehicle and lane position detection system may set the probability distribution in the boundary region, generate particles in the boundary region, and distribute the particles corresponding to the probability distribution.
  • the highest probability may be set along the center of the boundary region, and the probability distribution may be set in the boundary region such that the probability decreases as the distance from the center increases.
  • the vehicle and lane position detection system may select any particle pair among the distributed particles and generate a vanishing line connecting the pair of particles (S155). At this time, the vehicle and lane position detection system may select the particle pair so that the vanishing line connecting the particle pair does not pass the road area.
  • the vehicle and lane position detection system may generate a candidate road area from the vanishing line pair, and estimate the driving position from the shape of the candidate road area (S107).
  • the vehicle and lane position detection system may select any vanishing line pair from the plurality of vanishing lines.
  • the vanishing line pair may correspond to the boundary line pair of the left road boundary and the right road boundary.
  • the vanishing point is predicted by the pair of vanishing lines, and a candidate road region having the vanishing pairs as road boundaries may be generated.
  • the vehicle and lane position detection system may estimate the position of the sensor, that is, the driving position of the vehicle, which obtained the road image from the shape of the candidate road area.
  • the vehicle and lane position detection system extracts road information including the total width and lane width of the road extracted from the road map database, and uses the extracted road information to determine the relative position of the currently driving lane corresponding to the driving position, that is, It is possible to estimate the number of lanes in the entire lane.
  • the vehicle and lane position detection system may set a driving position candidate group excluding the driving position corresponding to noise from the plurality of driving positions estimated from the plurality of vanishing line pairs.
  • the vehicle and lane position detection system may determine the driving lane to which the driving position belongs based on the road width and the lane width for the driving position candidate group.
  • the vehicle and lane position detection system may set the position having the highest density in the driving position candidate group as the driving position, and determine the driving lane corresponding to the set driving position.
  • the driver can grasp the vehicle position and the driving lane on the driving road, and thus can assist in driving such as determining lane departure or changing lanes.
  • the vehicle position information may be corrected by detecting the vehicle position according to an embodiment of the present invention.
  • An embodiment of the present invention may be applied to an indoor autonomous driving robot to perform line tracing.
  • the vehicle and lane position detection method according to the present invention can be embodied as computer readable codes on a computer readable recording medium.
  • Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention provides a vehicle and lane position detection system and method. A vehicle and lane position detection system of the present invention may comprise: a segment unit for segmenting a road image obtained by a sensor with super pixels; a classification unit for classifying the super pixels into a road pixel configuring a road area and an off-road area which is close to the road area; a boundary detection unit for generating a plurality of vanishing lines in a boundary area where the road pixel and the off-road pixel coexist; and a position estimation unit for generating a candidate road area by a pair of vanishing lines selected from the plurality of vanishing lines and estimating a driving position from a type of the candidate road area.

Description

차량 및 차선 위치 검출 시스템 및 방법Vehicle and Lane Position Detection System and Method
본 발명은 차량 및 차선의 위치 검출 시스템 및 방법에 관한 것이다. The present invention relates to a vehicle and lane position detection system and method.
최근 정보통신 기술의 진전에 따라 차선이탈 경고 시스템(LDWS : Lane Departure Warning System)이나 차선유지와 같은 안전운전 보조시스템, 차량 자동 제어시스템 등이 개발되어 실용화가 급속하게 진행되고 있다. Recently, with the development of information and communication technology, the lane departure warning system (LDWS), the safe driving assistance system such as the lane maintenance, and the vehicle automatic control system have been developed, and the practical use is rapidly progressing.
본 발명의 실시예는 주행 중인 차량이 진행 중인 차선의 위치와 도로에서의 상대적인 차량의 위치를 추정하여 자율주행이나 운전자의 주행을 도와줄 수 있는 차량 및 차선의 도로에서의 상대적인 위치 검출 시스템 및 방법을 제공하고자 한다.An embodiment of the present invention provides a system and method for detecting a relative position on a road of a vehicle and a lane that can assist autonomous driving or driving by estimating the position of a lane in progress and a relative vehicle position on a road. To provide.
본 발명의 실시예에 따른 차선 위치 검출 시스템은, 센서에 의해 획득한 도로 영상을 수퍼 픽셀들로 세그먼트화하는 세그먼트부; 상기 수퍼 픽셀들을 도로 영역을 구성하는 도로 픽셀과 상기 도로 영역에 인접하는 비도로 영역을 구성하는 비도로 픽셀로 분류하는 분류부; 상기 도로 픽셀과 비도로 픽셀이 혼재하는 경계 영역에서 복수의 소실선들을 생성하는 경계 검출부; 및 상기 복수의 소실선들로부터 선택된 소실선 쌍에 의해 후보 도로 영역을 생성하고, 상기 후보 도로 영역의 형태로부터 주행 위치를 추정하는 위치 추정부;를 포함할 수 있다. Lane position detection system according to an embodiment of the present invention, the segment unit for segmenting the road image obtained by the sensor into super pixels; A classification unit classifying the superpixels into a road pixel constituting a road area and a non-road pixel constituting a non-road area adjacent to the road area; A boundary detector for generating a plurality of vanishing lines in a boundary region where the road pixel and the non-road pixel are mixed; And a position estimator for generating a candidate road region by a pair of vanishing line selected from the plurality of vanishing lines, and estimating a driving position from a shape of the candidate road region.
상기 분류부는, 상기 수퍼 픽셀의 시각 특징 및 공간 특징 중 적어도 하나를 기초로 상기 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류할 수 있다. The classifier may classify the superpixel into road pixels or non-road pixels based on at least one of visual and spatial features of the superpixel.
상기 분류부는, 인접한 수퍼 픽셀들 간의 공간 정보를 이용하여 미분류 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류할 수 있다. The classification unit may classify the unclassified super pixel into road pixels or non-road pixels using spatial information between adjacent super pixels.
상기 경계 검출부는, 상기 경계 영역에 설정된 확률 분포에 대응하여 분포된 파티클들로부터 복수의 파티클 쌍을 선택하고, 상기 복수의 파티클 쌍에 의해 복수의 소실선들을 생성할 수 있다. The boundary detector may select a plurality of particle pairs from particles distributed in correspondence with a probability distribution set in the boundary area, and generate a plurality of vanishing lines by the plurality of particle pairs.
상기 경계 검출부는, 상기 소실선이 상기 도로 영역을 통과하지 않도록 상기 파티클 쌍을 선택할 수 있다. The boundary detector may select the particle pair so that the vanishing line does not pass through the road area.
상기 위치 추정부는, 도로 전체 폭 및 차선 폭을 기초로 상기 주행 위치 및 주행 차선을 추정할 수 있다. The location estimating unit may estimate the driving position and the driving lane based on the entire road width and the lane width.
상기 위치 추정부는, 복수의 소실선 쌍으로부터 추정된 복수의 주행 위치들로부터 후보군을 설정하고, 상기 후보군에 대해 도로 전체 폭 및 차선 폭을 기초로 상기 주행 위치 및 주행 차선을 추정할 수 있다. The position estimating unit may set a candidate group from a plurality of driving positions estimated from a plurality of vanishing line pairs, and estimate the driving position and the driving lane based on the total road width and the lane width with respect to the candidate group.
상기 위치 추정부는, 상기 후보군에서 밀집도가 가장 높은 위치를 주행 위치로 추정하고, 상기 설정된 주행 위치에 대응하는 주행 차선을 추정할 수 있다. The position estimating unit may estimate a position having the highest density among the candidate groups as a driving position, and estimate a driving lane corresponding to the set driving position.
본 발명의 실시예에 따른 차선 위치 검출 방법은, 센서에 의해 획득한 도로 영상을 수퍼 픽셀들로 세그먼트화하는 단계; 상기 수퍼 픽셀들을 도로 영역을 구성하는 도로 픽셀과 상기 도로 영역에 인접하는 비도로 영역을 구성하는 비도로 픽셀로 분류하는 단계; 상기 도로 픽셀과 비도로 픽셀이 혼재하는 경계 영역에서 복수의 소실선들을 생성하는 단계; 및 상기 복수의 소실선들로부터 선택된 소실선 쌍에 의해 후보 도로 영역을 생성하고, 상기 후보 도로 영역의 형태로부터 주행 위치를 추정하는 단계;를 포함할 수 있다. Lane position detection method according to an embodiment of the present invention, segmenting the road image obtained by the sensor into super pixels; Classifying the superpixels into road pixels constituting a road area and non-road pixels constituting a non-road area adjacent to the road area; Generating a plurality of vanishing lines in a boundary region where the road pixel and the non-road pixel are mixed; And generating a candidate road region by a pair of vanishing line selected from the plurality of vanishing lines, and estimating a driving position from the shape of the candidate road region.
상기 분류 단계는, 상기 수퍼 픽셀의 시각 특징 및 공간 특징 중 적어도 하나를 기초로 상기 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류하는 단계;를 포함할 수 있다. The classifying step may include classifying the super pixel as a road pixel or a non-road pixel based on at least one of a visual feature and a spatial feature of the super pixel.
상기 분류 단계는, 인접한 수퍼 픽셀들 간의 공간 정보를 이용하여 미분류 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류하는 단계;를 포함할 수 있다. The classifying step may include classifying an unclassified super pixel into a road pixel or a non-road pixel using spatial information between adjacent super pixels.
상기 후보 소실선 생성 단계는, 상기 경계 영역에 설정된 확률 분포에 대응하여 상기 경계 영역에 파티클들을 분포시키는 단계; 및 상기 분포된 파티클들로부터 복수의 파티클 쌍을 선택하고, 상기 복수의 파티클 쌍에 의해 복수의 소실선들을 생성하는 단계;를 포함할 수 있다. The generating of the candidate vanishing line may include distributing particles in the boundary region corresponding to a probability distribution set in the boundary region; And selecting a plurality of particle pairs from the distributed particles, and generating a plurality of vanishing lines by the plurality of particle pairs.
상기 소실선이 상기 도로 영역을 통과하지 않도록 상기 파티클 쌍이 선택될 수 있다. The particle pair may be selected such that the vanishing line does not pass through the roadway region.
상기 주행 위치 추정 단계는, 도로 전체 폭 및 차선 폭을 기초로 상기 주행 위치 및 주행 차선을 추정하는 단계;를 포함할 수 있다. The estimating driving position may include estimating the driving position and the driving lane based on the entire road width and the lane width.
상기 위치 추정 단계는, 복수의 소실선 쌍으로부터 추정된 복수의 주행 위치들로부터 후보군을 설정하는 단계; 및 상기 후보군에 대해 도로 전체 폭 및 차선 폭을 기초로 상기 주행 위치 및 주행 차선을 추정하는 단계;를 포함할 수 있다. The position estimating may include: setting a candidate group from a plurality of driving positions estimated from a plurality of vanishing line pairs; And estimating the driving position and the driving lane with respect to the candidate group based on the entire road width and the lane width.
상기 주행 차선 추정 단계는, 상기 후보군의 밀집도가 가장 높은 위치를 주행 위치로 추정하고, 상기 설정된 주행 위치에 대응하는 주행 차선을 추정하는 단계;를 포함할 수 있다. The estimating driving lane may include estimating a position having the highest density of the candidate group as a driving position and estimating a driving lane corresponding to the set driving position.
본 발명의 실시예는 주행 중인 차량과 차선의 상대적 위치를 추정함으로써 기존의 차량 위치 추정에 사용되는 고가의 DGPS(Differential Global Positioning System) 시스템을 저가의 시스템으로 대체할 수 있고, 자율주행이나 운전자의 차선 변경 등의 주행에 도움을 줄 수 있다.According to an embodiment of the present invention, by estimating the relative position of a vehicle and a driving lane, an expensive DGPS (Differential Global Positioning System) system, which is used for estimating a vehicle position, may be replaced with a low cost system. Can help with lane changes.
도 1은 본 발명의 실시예에 따른 차량 및 차선 검출 시스템을 개략적으로 도시한 블록도이다. 1 is a block diagram schematically illustrating a vehicle and a lane detection system according to an exemplary embodiment of the present invention.
도 2는 센서로부터 입력된 도로 영상을 나타낸 도면이다. 2 is a diagram illustrating a road image input from a sensor.
도 3은 도 2의 도로 영상을 수퍼 픽셀들로 세그먼트화한 세그먼트 영상을 나타낸 도면이다. FIG. 3 is a diagram illustrating a segment image obtained by segmenting the road image of FIG. 2 into super pixels.
도 4는 본 발명의 실시예에 따른 도로 영역과 비도로 영역을 나타낸 예시도이다. 4 is an exemplary view showing a road area and a non-road area according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 도로 픽셀 및 비도로 픽셀로 분류된 결과를 개략적으로 도시한 예이다. 5 is a diagram schematically illustrating a result classified into road pixels and non-road pixels according to an exemplary embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 도로 영역 및 비도로 영역 간의 경계 영역을 개략적으로 도시한 예시도이다. 6 is an exemplary view schematically showing a boundary area between a road area and a non-road area according to an embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 경계 영역에서 생성된 소실선들을 도시한 예시도이다. 7 is an exemplary view showing vanishing lines generated in a boundary area according to an exemplary embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 복수의 소실선 쌍들로부터 추정된 복수의 주행 위치들을 도시한 예시도이다. 8 is an exemplary diagram illustrating a plurality of driving positions estimated from a plurality of vanishing line pairs according to an exemplary embodiment of the present invention.
도 9는 본 발명의 실시예에 따른 도로 영상에서 후보 주행 위치와 변환 영상에서 주행 중인 차선의 상대적 위치를 결정한 결과를 도시한 예시도이다. FIG. 9 is an exemplary diagram illustrating a result of determining a relative driving position in a road image and a relative position of a driving lane in a converted image according to an exemplary embodiment of the present invention.
도 10은 본 발명의 실시예에 따른 주행 중인 차량 및 차선의 위치를 검출하는 방법을 설명하는 흐름도이다. 10 is a flowchart illustrating a method of detecting a position of a vehicle and a lane in driving according to an embodiment of the present invention.
도 11은 도 10의 픽셀 분류 방법을 설명하는 흐름도이다. 11 is a flowchart illustrating a pixel classification method of FIG. 10.
도 12는 도 10의 후보 소실선 생성 방법을 설명하는 흐름도이다.FIG. 12 is a flowchart for describing a method for generating candidate vanishing lines in FIG. 10.
본 발명의 실시예에 따른 차선 위치 검출 시스템은, 센서에 의해 획득한 도로 영상을 수퍼 픽셀들로 세그먼트화하는 세그먼트부; 상기 수퍼 픽셀들을 도로 영역을 구성하는 도로 픽셀과 상기 도로 영역에 인접하는 비도로 영역을 구성하는 비도로 픽셀로 분류하는 분류부; 상기 도로 픽셀과 비도로 픽셀이 혼재하는 경계 영역에서 복수의 소실선들을 생성하는 경계 검출부; 및 상기 복수의 소실선들로부터 선택된 소실선 쌍에 의해 후보 도로 영역을 생성하고, 상기 후보 도로 영역의 형태로부터 주행 위치를 추정하는 위치 추정부;를 포함할 수 있다. Lane position detection system according to an embodiment of the present invention, the segment unit for segmenting the road image obtained by the sensor into super pixels; A classification unit classifying the superpixels into a road pixel constituting a road area and a non-road pixel constituting a non-road area adjacent to the road area; A boundary detector for generating a plurality of vanishing lines in a boundary region where the road pixel and the non-road pixel are mixed; And a position estimator for generating a candidate road region by a pair of vanishing line selected from the plurality of vanishing lines, and estimating a driving position from a shape of the candidate road region.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. In the following embodiments, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the following embodiments, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, one or more It is to be understood that it does not exclude in advance the possibility of the presence or addition of other features or numbers, steps, operations, components, components or combinations thereof.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, embodiments of the invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented in software programming or software elements, embodiments of the present invention include various algorithms implemented in combinations of data structures, processes, routines or other programming constructs. It may be implemented in a programming or scripting language such as C, C ++, Java, assembler, or the like. The functional aspects may be implemented with an algorithm running on one or more processors. In addition, embodiments of the present invention may employ the prior art for electronic configuration, signal processing, and / or data processing. Terms such as mechanism, element, means, configuration can be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
도 1은 본 발명의 실시예에 따른 차량 및 차선 검출 시스템을 개략적으로 도시한 블록도이다. 1 is a block diagram schematically illustrating a vehicle and a lane detection system according to an exemplary embodiment of the present invention.
도로 기반 자율주행시스템은 차선 정보를 이용하여 자신의 위치를 보정하거나, GPS 등의 위치 센서(direct localization sensor)를 이용하여 주행 차선을 판단함으로써 차선 유지 또는 변경을 유도하여 안전 주행을 보장하는 시스템이다. 그러나 차선이 흐릿하거나 지워져 있는 경우 차선 정보만으로의 강건하게 차선을 인식하기 어렵다. 또한 정확한 항법장치는 고가이면서 에러가 누적되며, 자체적으로 에러를 보정하지 못한다. 그리고, 별도의 에러 보정 알고리즘을 사용하더라도 이는 맵(MAP) 기반이 아닌 알고리즘으로서 강건하지 않다. A road-based autonomous driving system is a system that guarantees safe driving by correcting its position using lane information or inducing lane maintenance or change by determining a driving lane using a direct localization sensor such as GPS. . However, if the lane is blurred or erased, it is difficult to recognize the lane with only lane information. Accurate navigation devices are also expensive and accumulate in errors, and do not compensate themselves for errors. And even if a separate error correction algorithm is used, it is not robust as an algorithm that is not based on MAP.
본 발명의 실시예에 따른 차량 및 차선 위치 검출 시스템(1)은 현재 주행 중인 도로의 도로 영역과 도로 영역에 인접한 비도로 영역을 인식하여 차량 또는 이동 로봇과 같은 이동체의 위치를 검출할 수 있다. 따라서 본 발명의 실시예는 GPS와 같은 고가의 장비를 이용하지 않고 이동체 또는 이동체에 장착된 카메라의 위치를 추론할 수 있다. The vehicle and lane position detection system 1 according to an exemplary embodiment of the present invention may detect the position of a moving object such as a vehicle or a mobile robot by recognizing a road area of a road currently being driven and a non-road area adjacent to the road area. Therefore, the embodiment of the present invention can infer the position of the movable body or the camera mounted on the movable body without using expensive equipment such as GPS.
이하에서는 이동체로서 차량을 일 예로 설명하겠으며, 이는 다른 이동체에 동일하게 적용할 수 있음은 물론이다. 차량 및 차선 위치 검출 시스템(1)은 도로 영역의 좌우 경계로부터 센서(2)의 위치까지 또는 센서(2)를 장착한 차량의 중앙 위치까지의 대략적인 거리정보, 즉 차량의 현재 주행 위치를 추정할 수 있다.Hereinafter, a vehicle will be described as an example of a moving object, which can be applied to other moving bodies in the same manner. The vehicle and lane position detection system 1 estimates approximate distance information from the left and right boundary of the road area to the position of the sensor 2 or the center position of the vehicle equipped with the sensor 2, that is, the current driving position of the vehicle. can do.
센서(2)는 주행 중인 차량에 부착된 영상 인식 장치로서, 예를 들어, 차량의 주변 영상을 획득하는 카메라일 수 있다. 센서(2)는 차량의 전방, 후방, 또는 측방에 설치될 수 있으며, 도로의 영상을 최적으로 획득할 수 있도록 적절한 위치에 선택 장착이 가능하다. 센서(2)에 의해 획득되는 주변 영상의 범위는 차량에 장착되는 센서(2)의 종류에 따라 달라질 수 있으며, 도로의 전체 폭 또는 현재 주행 중인 차선의 폭이 영상에 나타날 수 있도록 할 수 있다. The sensor 2 is an image recognition device attached to a driving vehicle, and may be, for example, a camera that acquires a surrounding image of the vehicle. The sensor 2 may be installed at the front, rear, or side of the vehicle, and may be selectively mounted at an appropriate position so as to obtain an image of the road optimally. The range of the surrounding image obtained by the sensor 2 may vary according to the type of the sensor 2 mounted on the vehicle, and the entire width of the road or the width of the currently driving lane may be displayed on the image.
그러나, 본 발명의 실시예는 이에 한정되지 않고, 영상 인식 장치 외에 적외선 센서, 레이더(RADAR) 또는 라이다(LIDAR) 센서 등 다양한 센서들이 단독 또는 융합된 형태로 이용될 수 있다.However, embodiments of the present invention are not limited thereto, and various sensors, such as an infrared sensor, a radar (RADAR), or a lidar (LIDAR) sensor, in addition to the image recognition apparatus, may be used alone or in a fused form.
차량 및 차선 위치 검출 시스템(1)은 차량의 위치 정보를 정보제공장치(3)를 통해 운전자에게 제공할 수 있다. The vehicle and lane position detection system 1 may provide position information of the vehicle to the driver through the information providing device 3.
정보제공장치(3)는 센서(2)로부터 획득된 영상 및 차량 및 차선 위치 검출 시스템(1)으로부터 주행 차선 검출 결과를 2차원 또는 3차원의 영상으로 제공하는 디스플레이 장치로서, 차량 및 차선 위치 검출 시스템(1)과 유선 또는 무선으로 연결될 수 있다. 정보제공장치(3)는 영상 또는 문자, 음성 등 다양한 방법으로 운전자에게 정보를 제공할 수 있으며, 영상 제공시 사용자와 합의된 방식으로 설정된 표시방법(예를 들어, 색상별로 차선과 비차선 안내 등)을 제공하여 사용자가 용이하게 인식할 수 있도록 할 수 있다. 정보제공장치(3)는 주행 차선 검출 결과를 버드 뷰 형태로 변환하여 제공할 수 있다. The information providing apparatus 3 is a display device that provides a two-dimensional or three-dimensional image of an image obtained from the sensor 2 and a driving lane detection result from the vehicle and lane position detection system 1, and the vehicle and lane position detection. The system 1 may be connected by wire or wirelessly. The information providing apparatus 3 may provide information to the driver in various ways such as an image, a text, and a voice, and a display method (for example, lane and non-lane guide for each color, etc.) set in a manner agreed with the user when providing an image. ) So that users can easily recognize it. The information providing apparatus 3 may convert and provide a driving lane detection result into a bird view form.
정보제공장치(3)가 제공하는 도로의 범위는 센서(2)가 획득한 영상의 범위에 따라 달라질 수 있으며, 획득된 영상의 전체를 제공할 수도 있고 현재 주행하고 있는 방향의 도로만을 제공할 수도 있다. The range of the road provided by the information providing device 3 may vary depending on the range of the image acquired by the sensor 2, and may provide the entirety of the acquired image or may provide only the road in the direction in which the vehicle is currently traveling. have.
도 1을 참조하면, 차량 및 차선 위치 검출 시스템(1)은 세그먼트부(11), 분류부(13), 경계 검출부(15) 및 위치 추정부(17)를 포함할 수 있다. Referring to FIG. 1, the vehicle and lane position detection system 1 may include a segment unit 11, a classification unit 13, a boundary detector 15, and a position estimator 17.
세그먼트부(11)는 차량 및 차선 검출 시스템(1)에 연결된 센서(2)로부터 도로 정보를 포함하는 도로 영상을 입력받는다. 도로 정보는 도로 면에 그려진 차선 표시(lane marking)를 포함할 수 있다. The segment unit 11 receives a road image including road information from a sensor 2 connected to the vehicle and the lane detection system 1. The road information may include lane marking drawn on the road surface.
세그먼트부(11)는 복수의 픽셀들로 구성된 도로 영상을 수퍼 픽셀들로 세그먼트화할 수 있다. 세그먼트부(11)는 도로 영상을 비슷한 특징을 갖는 균일 영역으로 분할할 수 있다. 이때 분할된 균일 영역을 수퍼 픽셀이라 한다. 각 수퍼 픽셀은 시각 특징(visual feature)을 나타내는 색상 분포(color distribution) 및 질감 분포(texture distribution), 공간 특징을 나타내는 중심 좌표(central mass position)로 표현될 수 있다. 세그먼트부(11)는 각 수퍼 픽셀의 시각 특징 및 공간 특징을 메모리(4)에 저장할 수 있다. The segment unit 11 may segment a road image composed of a plurality of pixels into super pixels. The segment part 11 may divide the road image into uniform areas having similar characteristics. In this case, the divided uniform region is called a super pixel. Each superpixel may be represented by a color distribution and a texture distribution representing a visual feature, and a central mass position representing a spatial feature. The segment part 11 may store the visual and spatial features of each super pixel in the memory 4.
도 2는 센서(2)로부터 입력된 도로 영상을 나타낸 도면이고, 도 3은 도 2의 도로 영상을 수퍼 픽셀들로 세그먼트화한 세그먼트 영상을 나타낸 도면이다. FIG. 2 is a diagram illustrating a road image input from the sensor 2, and FIG. 3 is a diagram illustrating a segment image obtained by segmenting the road image of FIG. 2 into super pixels.
분류부(13)는 날씨, 조명, 차선 훼손 정도 등 다양한 환경 및 상황 하에서의 도로 영역 및 비도로 영역의 샘플들을 통해 도로 영역과 비도로 영역을 학습할 수 있다. 분류부(13)는 차선 위치 검출 결과를 반영하여 업데이트될 수 있다. The classification unit 13 may learn the road area and the non-road area through samples of the road area and the non-road area under various environments and situations such as weather, lighting, and lane damage. The classifier 13 may be updated to reflect the lane position detection result.
여기서, 비도로 영역은 도 4에 도시된 바와 같이, 도로 영상에서 도로 영역 외의 나머지 영역이 아닌, 도로 영역에 인접한 영역이다. 도로와 인접한 영역은 독특한 시각 특징을 가질 수 있다. 본 발명의 실시예에서는 도로 영역과 비도로 영역의 특징을 함께 이용함으로써 도로 영역을 더욱 정확하게 검출할 수 있다. Here, the non-road area is an area adjacent to the road area, not a remaining area other than the road area in the road image, as shown in FIG. 4. The area adjacent to the road may have unique visual features. In the embodiment of the present invention, the road area can be detected more accurately by using the features of the road area and the non-road area together.
분류부(13)는 학습 결과에 따른 도로 영역 및 비도로 영역의 시각 특징 및 공간 특징을 기초로, 각 수퍼 픽셀을 도로 픽셀 및 비도로 픽셀로 분류할 수 있다. 분류부(13)는 수퍼 픽셀의 분류를 위해 ANN 분류기(Artificial Neural Network Classifier), 아다부스트 분류기(Adaboost Classifier), 나이브 베이즈 분류기(Naive Bayes Classifier) 또는 Support Vector Machine(SVM)을 포함할 수 있다. 본 발명의 실시예는 전술된 분류기에 한정되지 않으며, 특징 기반으로 수퍼 픽셀을 분류할 수 있는 다양한 분류기 또는 알고리즘이 수퍼 픽셀 분류에 적용될 수 있다. The classifying unit 13 may classify each super pixel into a road pixel and a non-road pixel based on the visual and spatial characteristics of the road area and the non-road area according to the learning result. The classifier 13 may include an ANN classifier, an adaboost classifier, a naive bayes classifier, or a support vector machine (SVM) for classifying super pixels. . Embodiments of the present invention are not limited to the classifier described above, and various classifiers or algorithms that can classify super pixels based on features may be applied to the super pixel classification.
분류부(13)는 도로 픽셀 또는 비도로 픽셀로 분류되지 않은 미분류 수퍼 픽셀을 인접 수퍼 픽셀과의 상관 관계를 기초로 도로 픽셀 또는 비도로 픽셀로 분류할 수 있다. The classifying unit 13 may classify unclassified super pixels that are not classified as road pixels or non-road pixels as road pixels or non-road pixels based on a correlation with adjacent super pixels.
공간적으로 서로 인접하는 수퍼 픽셀들은 동일한 영역에 속할 가능성이 높은 것으로 예상할 수 있다. 분류부(13)는 수퍼 픽셀들을 삼각화하여 수퍼 픽셀들 간의 관계를 나타낼 수 있으며, 일 예로서, 들로네 삼각화 기법(Delaunay triangulation technique)을 적용할 수 있다. 그러나, 본 발명은 이에 한정되지 않고, 공간상 관계를 규정할 수 있는 다른 기법이 사용될 수 있음은 물론이다. Super pixels that are spatially adjacent to each other can be expected to belong to the same area. The classifier 13 may triangulate the superpixels to indicate a relationship between the superpixels. For example, the classifier 13 may apply the Delaunay triangulation technique. However, the present invention is not limited to this, and of course, other techniques capable of defining spatial relationships can be used.
분류부(13)는 예를 들어, 마코프 랜덤 필드(Markov random field: MRF) 또는 조건부 랜덤 필드(Conditional random field: CRF) 기반으로 수퍼 픽셀들의 공간 상관도를 고려하여 미분류 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류할 수 있다. 그러나, 본 발명은 이에 한정되지 않고, 클러스터링을 수행할 수 있는 다른 기법이 사용될 수 있음은 물론이다. The classifying unit 13 converts the unclassified super pixel into a road pixel or a non-pixel in consideration of spatial correlation of the super pixels based on, for example, a Markov random field (MRF) or a conditional random field (CRF). Can be classified as pixels. However, the present invention is not limited to this, and of course, other techniques capable of performing clustering may be used.
분류부(13)는 도로 영역에 대한 특징 정보를 기초로 도로 픽셀을 분류하는 제1분류기와 비도로 영역에 대한 특징 정보를 기초로 비도로 픽셀을 분류하는 제2분류기에 의해 순차적으로 또는 병렬적으로 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류할 수 있다. 또는 분류부(13)는 도로 영역 및 비도로 영역에 대한 특징 정보를 기초로 하나의 분류기에 의해 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류할 수도 있다.The classifying unit 13 is sequentially or in parallel by a first classifier for classifying road pixels based on the characteristic information of the road area and a second classifier for classifying non-road pixels based on the characteristic information for the non-road area. Superpixels can be classified as road pixels or non-road pixels. Alternatively, the classifying unit 13 may classify the superpixels into road pixels or non-road pixels by one classifier based on the feature information about the road area and the non-road area.
분류부(13)는 하나의 수퍼 픽셀이 도로 픽셀 및 비도로 픽셀로 중복 분류되는 경우, 기 설정된 분류 기준에 따라 임의로 도로 픽셀 또는 비도로 픽셀로 분류할 수 있다. When one super pixel is classified into road pixels and non-road pixels, the classifying unit 13 may classify the road pixel or the non-road pixel arbitrarily according to a predetermined classification criterion.
도 5는 도로 픽셀로 및 비도로 픽셀로 분류된 결과를 개략적으로 도시한 예이다. 분류부(13)의 출력은 수퍼 픽셀들의 분류 결과로서 도로 영역과 비도로 영역의 경계가 명확히 구분되지 않고, 도로 픽셀과 비도로 픽셀이 혼재하는 영역이 존재한다.5 is an example schematically showing a result classified into road pixels and non-road pixels. The output of the classification unit 13 is a result of the classification of the super pixels, and the boundary between the road area and the non-road area is not clearly distinguished, and there is an area where the road pixel and the non-road pixel are mixed.
경계 검출부(15)는 도로 픽셀과 비도로 픽셀이 혼재하는 영역을 경계 영역으로 설정하고, 경계 영역에서 복수의 소실선들을 생성할 수 있다. 도 6은 도로 영역 및 비도로 영역 간의 경계 영역을 개략적으로 도시한 예시도이다. The boundary detector 15 may set a region where the road pixel and the non-road pixel are mixed as the boundary region and generate a plurality of vanishing lines in the boundary region. 6 is an exemplary view schematically showing a boundary area between a road area and a non-road area.
경계 검출부(15)는 경계 영역에 파티클들을 생성하여 분포시킬 수 있다. 이때 경계 영역의 중심이 가장 높은 확률을 갖고 중심에서 멀어질수록 확률이 낮아지도록 확률 분포가 설정될 수 있다. 경계 영역의 파티클들은 설정된 확률 분포에 대응하여 분포될 수 있다. The boundary detector 15 may generate and distribute particles in the boundary region. In this case, the probability distribution may be set such that the center of the boundary region has the highest probability and the probability decreases as the distance from the center increases. Particles in the boundary region may be distributed corresponding to the set probability distribution.
경계 검출부(15)는 분포된 파티클들 중 임의의 파티클 쌍을 선택하여 소실선(vanishing line: VL)을 생성할 수 있다. 경계 검출부(15)는 파티클 쌍을 연결하는 소실선이 도로 영역을 지나지 않도록 파티클 쌍을 선택할 수 있다. 도 7은 경계 영역에서 생성된 소실선들을 도시한 예시도이다. The boundary detector 15 may generate a vanishing line (VL) by selecting any particle pair among the distributed particles. The boundary detector 15 may select the particle pair so that the vanishing line connecting the particle pair does not pass the road area. 7 is an exemplary diagram illustrating vanishing lines generated in a boundary region.
위치 추정부(17)는 복수의 소실선들로부터 임의의 소실선 쌍을 선택할 수 있다. 소실선 쌍은 좌측 도로 경계선 및 우측 도로 경계선의 경계선 쌍에 대응할 수 있다. 소실선 쌍에 의해 소실점이 예측되고, 소실선 쌍을 도로 경계선 쌍으로 하는 후보 도로 영역이 결정될 수 있다. 위치 추정부(17)는 후보 도로 영역의 형태로부터 센서(2)의 위치, 즉 차량의 주행 위치를 추정할 수 있다. 도 8은 복수의 소실선 쌍들로부터 추정된 복수의 주행 위치(CP)들을 도시한 예시도이다. The position estimator 17 may select any vanishing line pair from the plurality of vanishing lines. The vanishing line pair may correspond to the boundary line pair of the left road boundary and the right road boundary. A vanishing point is predicted by the vanishing line pair, and a candidate road region in which the vanishing line pair is a road boundary pair may be determined. The position estimating unit 17 may estimate the position of the sensor 2, that is, the driving position of the vehicle, from the shape of the candidate road area. 8 is an exemplary diagram illustrating a plurality of driving positions CP estimated from a plurality of vanishing line pairs.
위치 추정부(17)는 메모리(4) 내의 도로맵 데이터베이스를 이용하여 도로의 전체 폭 및 차선 폭을 포함하는 도로 정보를 추출하고, 추출된 도로 정보를 이용하여 주행 위치에 대응하는 현재 주행 중인 차선의 상대적 위치, 즉 전체 차선 중 몇 차선에서 주행하고 있는지를 추정할 수 있다.The location estimating unit 17 extracts road information including the total width of the road and the lane width by using the road map database in the memory 4, and uses the extracted road information to display the currently traveling lane corresponding to the driving position. It is possible to estimate the relative position of, i.e., in which of the lanes.
위치 추정부(17)는 복수의 소실선 쌍으로부터 추정된 복수의 주행 위치들로부터 노이즈에 해당하는 주행 위치를 배제한 복수의 주행 위치들을 포함하는 주행 위치 후보군을 설정할 수 있다. 주행 위치가 밀집된 영역에서 떨어진 주행 위치는 실제 주행 위치일 가능성이 낮으므로 이를 노이즈로 판단하여 배제할 수 있다. 위치 추정부(17)는 주행 위치 후보군에 대해 도로 전체 폭 및 차선 폭을 기초로 상기 주행 위치가 속하는 주행 차선을 결정할 수 있다. 다른 예로서, 위치 추정부(17)는 주행 위치 후보군에서 확률이 가장 높은 위치, 즉 주행 위치의 밀집도가 가장 높은 위치를 최종 주행 위치로 설정하고, 설정된 주행 위치가 속하는 주행 차선을 결정할 수 있다. The position estimating unit 17 may set a driving position candidate group including a plurality of driving positions excluding a driving position corresponding to noise from the plurality of driving positions estimated from the plurality of vanishing line pairs. Since the driving position away from the region where the driving position is concentrated is unlikely to be the actual driving position, it may be determined as noise and may be excluded. The position estimating unit 17 may determine the driving lane to which the driving position belongs to the driving position candidate group based on the entire road width and the lane width. As another example, the position estimating unit 17 may set the position having the highest probability in the driving position candidate group, that is, the position with the highest density of the driving positions as the final driving position, and determine the driving lane to which the set driving position belongs.
위치 추정부(17)는 소실선으로 표현되는 도로 영역을 평행한 경계선으로 표현되는 도로 영역으로 변환할 수 있다. 정보제공장치(3)는 추정된 주행 위치를 변환된 영상에 표시할 수 있다. 위치 추정부(17)는 카메라 내부 파라미터 및 좌표 변환을 이용한 호모그래피(또는 와핑)에 의해 영상 변환을 수행할 수 있다. 호모그래피 또는 와핑에 의한 영상 변환은 공지된 기술이므로 상세한 설명은 생략하겠다. The position estimator 17 may convert the road area represented by the vanishing line into the road area represented by the parallel boundary line. The information providing apparatus 3 may display the estimated driving position on the converted image. The position estimator 17 may perform image transformation by homography (or warping) using camera internal parameters and coordinate transformation. Since image conversion by homography or warping is a well-known technique, a detailed description thereof will be omitted.
도 9는 도로 영상에서 후보 주행 위치(X)로부터 실제 도로의 폭(L) 및 차선 폭을 반영하여 주행 중인 차선의 상대적 위치(X')를 결정한 결과를 도시한 예시도이다. 도 9의 실시예에서는 전체 3차선의 도로에서 2차선을 주행하고 있음을 알 수 있다. FIG. 9 is an exemplary view illustrating a result of determining a relative position X ′ of a driving lane by reflecting a width L and a lane width of an actual road from a candidate driving position X in a road image. In the embodiment of Figure 9 it can be seen that the two lanes driving on the road of all three lanes.
도 10은 본 발명의 실시예에 따른 주행 중인 차량 및 차선의 위치를 검출하는 방법을 설명하는 흐름도이다. 도 11은 도 10의 픽셀 분류 방법을 설명하는 흐름도이다. 도 12는 도 10의 후보 소실선 생성 방법을 설명하는 흐름도이다. 10 is a flowchart illustrating a method of detecting a position of a vehicle and a lane in driving according to an embodiment of the present invention. 11 is a flowchart illustrating a pixel classification method of FIG. 10. FIG. 12 is a flowchart for describing a method for generating candidate vanishing lines in FIG. 10.
도 10을 참조하면, 차량 및 차선 위치 검출 시스템은 센서로부터 도로 영상을 입력받고, 도로 영상을 수퍼 픽셀들로 세그먼트화할 수 있다(S101). 각 수퍼 픽셀의 시각 특징 및 공간 특징은 메모리에 저장될 수 있다. 시각 특징은 색상 분포(color distribution) 및 질감 분포(texture distribution)를 포함할 수 있다. 공간 특징은 중심 좌표(central mass position)를 포함할 수 있다. Referring to FIG. 10, the vehicle and lane position detection system may receive a road image from a sensor and segment the road image into super pixels (S101). The visual and spatial features of each super pixel can be stored in memory. The visual feature may include a color distribution and a texture distribution. The spatial feature may comprise a central mass position.
차량 및 차선 위치 검출 시스템은 수퍼 픽셀들의 시각 특징 및 공간 특징을 기초로 수퍼 픽셀을 분류하여 도로 픽셀 및 비도로 픽셀로 분류할 수 있다(S103). 분류된 도로 픽셀들은 도로 영역을 구성하고, 비도로 픽셀들은 비도로 영역을 구성할 수 있다. 비도로 영역은 도로 영역 외의 나머지 영역이 아닌, 도로 영역에 인접한 영역이다. The vehicle and lane position detection system may classify the super pixels into road and non-road pixels based on the visual and spatial features of the super pixels (S103). Classified road pixels may constitute a road area, and non-road pixels may constitute a non-road area. The non-road area is an area adjacent to the road area, not a remaining area other than the road area.
도 11을 함께 참조하면, 차량 및 차선 위치 검출 시스템은 도로 영역과 비도로 영역에 대한 학습(training)을 통해 습득한 도로 영역에 대한 정보를 바탕으로 수퍼 픽셀들로부터 도로 픽셀을 분류할 수 있다(S113). Referring to FIG. 11, the vehicle and lane position detection system may classify road pixels from super pixels based on information about road areas acquired through training on road areas and non-road areas ( S113).
차량 및 차선 위치 검출 시스템은 분류된 도로 픽셀들 사이에 미분류 수퍼 픽셀이 존재하는 경우, 인접한 수퍼 픽셀들 간의 공간 정보를 이용하여 미분류 수퍼 픽셀을 도로 픽셀로 분류함으로써(S133) 개략적인 도로 영역을 검출할 수 있다(S153). When the unclassified superpixels exist between the classified road pixels, the vehicle and lane position detection system detects the rough road area by classifying the unclassified superpixels as road pixels using spatial information between adjacent superpixels (S133). It may be (S153).
그리고, 차량 및 차선 위치 검출 시스템은 도로 영역과 비도로 영역에 대한 학습(training)을 통해 습득한 비도로 영역에 대한 정보를 바탕으로 수퍼 픽셀들로부터 비도로 픽셀을 분류할 수 있다(S113). In addition, the vehicle and lane position detection system may classify the non-road pixels from the super pixels based on the information about the non-road area acquired through the training of the road area and the non-road area (S113).
차량 및 차선 위치 검출 시스템은 분류된 비도로 픽셀들 사이에 미분류 수퍼 픽셀이 존재하는 경우, 인접한 수퍼 픽셀들 간의 공간 정보를 이용하여 미분류 수퍼 픽셀을 비도로 픽셀로 분류함으로써(S173) 개략적인 비도로 영역을 검출할 수 있다(S193). If there is an unclassified superpixel between the classified nonroad pixels, the vehicle and lane position detection system classifies the unclassified superpixel into nonroad pixels using spatial information between adjacent superpixels (S173). The area can be detected (S193).
차량 및 차선 위치 검출 시스템은 하나의 수퍼 픽셀이 도로 픽셀 및 비도로 픽셀로 중복 분류되는 경우, 기 설정된 분류 기준에 따라 임의로 도로 픽셀 또는 비도로 픽셀로 분류할 수 있다. 또한 차량 및 차선 위치 검출 시스템은 도로 픽셀과 비도로 픽셀이 혼재하는 영역에서 미분류 수퍼 픽셀이 존재하는 경우 인접한 수퍼 픽셀들 간의 공간 정보 또는 기 설정된 분류 기준에 따라 미분류 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류할 수 있다. The vehicle and lane position detection system may classify a road pixel or a non-road pixel arbitrarily according to a predetermined classification criterion when one super pixel is classified into road pixels and non-road pixels. In addition, the vehicle and lane position detection system may convert the unclassified super pixel into a road pixel or a non-road pixel based on spatial information between adjacent super pixels or a predetermined classification criterion when an unclassified super pixel exists in an area where road pixels and non-road pixels are mixed. Can be classified as
차량 및 차선 위치 검출 시스템은 병렬적으로 또는 순차적으로 도로 픽셀 및 비도로 픽셀을 분류할 수 있다. Vehicle and lane position detection systems may classify road pixels and non-road pixels in parallel or sequentially.
차량 및 차선 위치 검출 시스템은 도로 픽셀과 비도로 픽셀이 혼재하는 경계 영역에서 복수의 소실선들을 생성할 수 있다(S105). The vehicle and lane position detection system may generate a plurality of vanishing lines in a boundary area where road pixels and non-road pixels are mixed (S105).
도 12를 함께 참조하면, 차량 및 차선 위치 검출 시스템은 개략적인 도로 영역과 비도로 영역의 경계 영역을 설정할 수 있다(S115). 검출된 개략적인 도로 영역과 비도로 영역은 수퍼 픽셀들의 집합이므로, 도로 영역과 비도로 영역의 경계가 명확하지 않고, 경계 영역에는 도로 픽셀과 비도로 픽셀이 혼재할 수 있다. 차량 및 차선 위치 검출 시스템은 도로 픽셀과 비도로 픽셀이 혼재하는 일정 영역을 경계 영역으로 설정할 수 있다. Referring to FIG. 12 together, the vehicle and lane position detection system may set a boundary area between a rough road area and a non-road area (S115). Since the detected rough road area and the non-road area are a collection of super pixels, the boundary between the road area and the non-road area is not clear, and the road area and the non-road pixel may be mixed in the boundary area. The vehicle and lane position detection system may set a predetermined area where road pixels and non-road pixels are mixed as a boundary area.
차량 및 차선 위치 검출 시스템은 경계 영역에 파티클들을 분포시킬 수 있다(S135). 차량 및 차선 위치 검출 시스템은 경계 영역에 확률 분포를 설정하고, 경계 영역에 파티클들을 생성하여 파티클들을 확률 분포에 대응하여 분포시킬 수 있다. 이때 경계 영역의 중심을 따라 가장 높은 확률이 설정되고, 중심에서 멀어질수록 확률이 낮아지도록 경계 영역에 확률 분포가 설정될 수 있다. The vehicle and lane position detection system may distribute the particles in the boundary area (S135). The vehicle and lane position detection system may set the probability distribution in the boundary region, generate particles in the boundary region, and distribute the particles corresponding to the probability distribution. In this case, the highest probability may be set along the center of the boundary region, and the probability distribution may be set in the boundary region such that the probability decreases as the distance from the center increases.
차량 및 차선 위치 검출 시스템은 분포된 파티클들 중 임의의 파티클 쌍을 선택하고, 파티클 쌍을 연결하는 소실선을 생성할 수 있다(S155). 이때 차량 및 차선 위치 검출 시스템은 파티클 쌍을 연결하는 소실선이 도로 영역을 지나지 않도록 파티클 쌍을 선택할 수 있다.The vehicle and lane position detection system may select any particle pair among the distributed particles and generate a vanishing line connecting the pair of particles (S155). At this time, the vehicle and lane position detection system may select the particle pair so that the vanishing line connecting the particle pair does not pass the road area.
차량 및 차선 위치 검출 시스템은 소실선 쌍으로부터 후보 도로 영역을 생성하고, 후보 도로 영역의 형태로부터 주행 위치를 추정할 수 있다(S107). 차량 및 차선 위치 검출 시스템은 복수의 소실선들로부터 임의의 소실선 쌍을 선택할 수 있다. 소실선 쌍은 좌측 도로 경계선 및 우측 도로 경계선의 경계선 쌍에 대응할 수 있다. 한 쌍의 소실선에 의해 소실점이 예측되고, 소실선 쌍을 도로 경계선으로 하는 후보 도로 영역이 생성될 수 있다. 차량 및 차선 위치 검출 시스템은 후보 도로 영역의 형태로부터 도로 영상을 획득한 센서의 위치, 즉 차량의 주행 위치를 추정할 수 있다. The vehicle and lane position detection system may generate a candidate road area from the vanishing line pair, and estimate the driving position from the shape of the candidate road area (S107). The vehicle and lane position detection system may select any vanishing line pair from the plurality of vanishing lines. The vanishing line pair may correspond to the boundary line pair of the left road boundary and the right road boundary. The vanishing point is predicted by the pair of vanishing lines, and a candidate road region having the vanishing pairs as road boundaries may be generated. The vehicle and lane position detection system may estimate the position of the sensor, that is, the driving position of the vehicle, which obtained the road image from the shape of the candidate road area.
차량 및 차선 위치 검출 시스템은 도로맵 데이터베이스로부터 추출된 도로의 전체 폭 및 차선 폭을 포함하는 도로 정보를 추출하고, 추출된 도로 정보를 이용하여 주행 위치에 대응하는 현재 주행 중인 차선의 상대적 위치, 즉 전체 차선 중 몇 차선에서 주행하고 있는지를 추정할 수 있다.The vehicle and lane position detection system extracts road information including the total width and lane width of the road extracted from the road map database, and uses the extracted road information to determine the relative position of the currently driving lane corresponding to the driving position, that is, It is possible to estimate the number of lanes in the entire lane.
차량 및 차선 위치 검출 시스템은 복수의 소실선 쌍으로부터 추정된 복수의 주행 위치들로부터 노이즈에 해당하는 주행 위치를 배제한 주행 위치 후보군을 설정할 수 있다. 차량 및 차선 위치 검출 시스템은 주행 위치 후보군에 대해 도로 전체 폭 및 차선 폭을 기초로 주행 위치가 속하는 주행 차선을 결정할 수 있다. 다른 예로서, 차량 및 차선 위치 검출 시스템은 주행 위치 후보군에서 밀집도가 가장 높은 위치를 주행 위치로 설정하고, 설정된 주행 위치에 대응하는 주행 차선을 결정할 수도 있다. The vehicle and lane position detection system may set a driving position candidate group excluding the driving position corresponding to noise from the plurality of driving positions estimated from the plurality of vanishing line pairs. The vehicle and lane position detection system may determine the driving lane to which the driving position belongs based on the road width and the lane width for the driving position candidate group. As another example, the vehicle and lane position detection system may set the position having the highest density in the driving position candidate group as the driving position, and determine the driving lane corresponding to the set driving position.
차량 및 차선 위치 검출 시스템에서 판단된 결과 영상은 디스플레이되어 운전자는 주행 도로에서 차량 위치 및 주행 차선을 파악할 수 있어 차선 이탈 여부 판단, 차선 변경 등의 운행에 도움을 받을 수 있다.As a result image determined by the vehicle and lane position detection system is displayed, the driver can grasp the vehicle position and the driving lane on the driving road, and thus can assist in driving such as determining lane departure or changing lanes.
또한 자율주행 중 차량의 현재 위치를 알기 위해 사용되는 센서의 값에 노이즈 발생 시 이를 보정하기 위해 본 발명의 실시예에 따라 차량 위치를 검출하여 차량의 위치정보를 보정할 수 있다.In addition, in order to correct this when noise occurs in a value of a sensor used to know the current position of the vehicle during autonomous driving, the vehicle position information may be corrected by detecting the vehicle position according to an embodiment of the present invention.
본 발명의 실시예는 실내 자율주행 로봇에 적용되어 라인 추적(Line Tracing)을 수행할 수 있다. An embodiment of the present invention may be applied to an indoor autonomous driving robot to perform line tracing.
본 발명에 따른 차량 및 차선 위치 검출 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The vehicle and lane position detection method according to the present invention can be embodied as computer readable codes on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

Claims (16)

  1. 센서에 의해 획득한 도로 영상을 수퍼 픽셀들로 세그먼트화하는 세그먼트부;A segment unit for segmenting the road image obtained by the sensor into super pixels;
    상기 수퍼 픽셀들을 도로 영역을 구성하는 도로 픽셀과 상기 도로 영역에 인접하는 비도로 영역을 구성하는 비도로 픽셀로 분류하는 분류부;A classification unit classifying the superpixels into a road pixel constituting a road area and a non-road pixel constituting a non-road area adjacent to the road area;
    상기 도로 픽셀과 비도로 픽셀이 혼재하는 경계 영역에서 복수의 소실선들을 생성하는 경계 검출부; 및A boundary detector for generating a plurality of vanishing lines in a boundary region where the road pixel and the non-road pixel are mixed; And
    상기 복수의 소실선들로부터 선택된 소실선 쌍에 의해 후보 도로 영역을 생성하고, 상기 후보 도로 영역의 형태로부터 주행 위치를 추정하는 위치 추정부;를 포함하는 차량 및 차선 위치 검출 시스템.And a position estimator for generating a candidate road region by a pair of vanishing line selected from the plurality of vanishing lines, and estimating a driving position from a shape of the candidate road region.
  2. 제1항에 있어서, 상기 분류부는,The method of claim 1, wherein the classification unit,
    상기 수퍼 픽셀의 시각 특징 및 공간 특징 중 적어도 하나를 기초로 상기 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류하는, 차량 및 차선 위치 검출 시스템.And classify the superpixel into road pixels or non-road pixels based on at least one of the visual and spatial features of the super pixel.
  3. 제1항에 있어서, 상기 분류부는, The method of claim 1, wherein the classification unit,
    인접한 수퍼 픽셀들 간의 공간 정보를 이용하여 미분류 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류하는, 차량 및 차선 위치 검출 시스템.A vehicle and lane position detection system for classifying unclassified superpixels into road pixels or non-road pixels using spatial information between adjacent super pixels.
  4. 제1항에 있어서, 상기 경계 검출부는,The method of claim 1, wherein the boundary detection unit,
    상기 경계 영역에 설정된 확률 분포에 대응하여 분포된 파티클들로부터 복수의 파티클 쌍을 선택하고, 상기 복수의 파티클 쌍에 의해 복수의 소실선들을 생성하는, 차량 및 차선 위치 검출 시스템. And selecting a plurality of particle pairs from the particles distributed corresponding to the probability distribution set in the boundary area, and generating a plurality of vanishing lines by the plurality of particle pairs.
  5. 제4항에 있어서, 상기 경계 검출부는,The method of claim 4, wherein the boundary detection unit,
    상기 소실선이 상기 도로 영역을 통과하지 않도록 상기 파티클 쌍을 선택하는, 차선 위치 검출 시스템.And select the pair of particles such that the vanishing line does not pass through the roadway area.
  6. 제1항에 있어서, 상기 위치 추정부는,The method of claim 1, wherein the position estimating unit,
    도로 전체 폭 및 차선 폭을 기초로 도로상에서 상기 주행 위치 및 주행 차선을 추정하는, 차량 및 차선 위치 검출 시스템.A vehicle and lane position detection system for estimating the driving position and the driving lane on a road based on a road width and a lane width.
  7. 제1항에 있어서, 상기 위치 추정부는,The method of claim 1, wherein the position estimating unit,
    복수의 소실선 쌍으로부터 추정된 복수의 주행 위치들로부터 후보군을 설정하고, 상기 후보군에 대해 도로 전체 폭 및 차선 폭을 기초로 상기 주행 위치 및 주행 차선을 추정하는, 차량 및 차선 위치 검출 시스템.And a candidate group is set from a plurality of driving positions estimated from a plurality of vanishing line pairs, and the driving position and the traveling lane are estimated for the candidate group based on a total road width and a lane width.
  8. 제7항에 있어서, 상기 위치 추정부는,The method of claim 7, wherein the position estimating unit,
    상기 후보군에서 밀집도가 가장 높은 위치를 주행 위치로 추정하고, 상기 설정된 주행 위치에 대응하는 주행 차선을 추정하는, 차량 및 차선 위치 검출 시스템.And estimating a position having the highest density in the candidate group as a traveling position, and estimating a traveling lane corresponding to the set traveling position.
  9. 센서에 의해 획득한 도로 영상을 수퍼 픽셀들로 세그먼트화하는 단계;Segmenting the road image obtained by the sensor into super pixels;
    상기 수퍼 픽셀들을 도로 영역을 구성하는 도로 픽셀과 상기 도로 영역에 인접하는 비도로 영역을 구성하는 비도로 픽셀로 분류하는 단계;Classifying the superpixels into road pixels constituting a road area and non-road pixels constituting a non-road area adjacent to the road area;
    상기 도로 픽셀과 비도로 픽셀이 혼재하는 경계 영역에서 복수의 소실선들을 생성하는 단계; 및Generating a plurality of vanishing lines in a boundary region where the road pixel and the non-road pixel are mixed; And
    상기 복수의 소실선들로부터 선택된 소실선 쌍에 의해 후보 도로 영역을 생성하고, 상기 후보 도로 영역의 형태로부터 주행 위치를 추정하는 단계;를 포함하는 차량 및 차선 위치 검출 방법.And generating a candidate road region by a pair of vanishing line selected from the plurality of vanishing lines, and estimating a driving position from a shape of the candidate road region.
  10. 제9항에 있어서, 상기 분류 단계는,The method of claim 9, wherein the classification step,
    상기 수퍼 픽셀의 시각 특징 및 공간 특징 중 적어도 하나를 기초로 상기 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류하는 단계;를 포함하는, 차선 위치 검출 방법.And classifying the super pixel into road pixels or non-road pixels based on at least one of the visual and spatial features of the super pixel.
  11. 제9항에 있어서, 상기 분류 단계는, The method of claim 9, wherein the classification step,
    인접한 수퍼 픽셀들 간의 공간 정보를 이용하여 미분류 수퍼 픽셀을 도로 픽셀 또는 비도로 픽셀로 분류하는 단계;를 포함하는, 차선 위치 검출 방법.And classifying the unclassified super pixel into road pixels or non-road pixels using spatial information between adjacent super pixels.
  12. 제9항에 있어서, 상기 후보 소실선 생성 단계는,The method of claim 9, wherein the candidate vanishing line generation step,
    상기 경계 영역에 설정된 확률 분포에 대응하여 상기 경계 영역에 파티클들을 분포시키는 단계; 및Distributing particles in the boundary area corresponding to a probability distribution set in the boundary area; And
    상기 분포된 파티클들로부터 복수의 파티클 쌍을 선택하고, 상기 복수의 파티클 쌍에 의해 복수의 소실선들을 생성하는 단계;를 포함하는, 차량 및 차선 위치 검출 방법. Selecting a plurality of particle pairs from the distributed particles, and generating a plurality of vanishing lines by the plurality of particle pairs.
  13. 제12항에 있어서, The method of claim 12,
    상기 소실선이 상기 도로 영역을 통과하지 않도록 상기 파티클 쌍이 선택되는, 차량 및 차선 위치 검출 방법.And the pair of particles are selected such that the vanishing line does not pass through the roadway area.
  14. 제9항에 있어서, 상기 주행 위치 추정 단계는,The method of claim 9, wherein the driving position estimation step,
    도로 전체 폭 및 차선 폭을 기초로 상기 주행 위치 및 주행 차선을 추정하는 단계;를 포함하는, 차량 및 차선 위치 검출 방법.Estimating the driving position and the driving lane based on a road width and a lane width.
  15. 제9항에 있어서, 상기 위치 추정 단계는,The method of claim 9, wherein the step of estimating position,
    복수의 소실선 쌍으로부터 추정된 복수의 주행 위치들로부터 후보군을 설정하는 단계; 및 Setting a candidate group from the plurality of travel positions estimated from the plurality of vanishing line pairs; And
    상기 후보군에 대해 도로 전체 폭 및 차선 폭을 기초로 상기 주행 위치 및 주행 차선을 추정하는 단계;를 포함하는, 차선 위치 검출 방법.And estimating the driving position and the driving lane based on the total road width and the lane width with respect to the candidate group.
  16. 제15항에 있어서, 상기 주행 차선 결정 단계는,The method of claim 15, wherein the determining the driving lane,
    상기 후보군의 밀집도가 가장 높은 위치를 주행 위치로 추정하고, 상기 설정된 주행 위치에 대응하는 주행 차선을 추정하는 단계;를 포함하는, 차량 및 차선 위치 검출 방법.And estimating a position at which the density of the candidate group is the highest as a driving position, and estimating a driving lane corresponding to the set driving position.
PCT/KR2014/003288 2014-01-13 2014-04-16 Vehicle and lane position detection system and method WO2015105239A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140004049A KR102016549B1 (en) 2014-01-13 2014-01-13 System and methof of detecting vehicle and lane position
KR10-2014-0004049 2014-01-13

Publications (1)

Publication Number Publication Date
WO2015105239A1 true WO2015105239A1 (en) 2015-07-16

Family

ID=53524051

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/003288 WO2015105239A1 (en) 2014-01-13 2014-04-16 Vehicle and lane position detection system and method

Country Status (2)

Country Link
KR (1) KR102016549B1 (en)
WO (1) WO2015105239A1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631880A (en) * 2015-12-31 2016-06-01 百度在线网络技术(北京)有限公司 Lane line segmentation method and apparatus
CN106778551A (en) * 2016-11-30 2017-05-31 南京理工大学 A kind of fastlink and urban road Lane detection method
CN107122713A (en) * 2017-03-27 2017-09-01 华南理工大学 It is a kind of based on deep learning like physical property detection method
CN107369160A (en) * 2017-06-28 2017-11-21 苏州比格威医疗科技有限公司 A kind of OCT image median nexus film new vessels partitioning algorithm
CN109002795A (en) * 2018-07-13 2018-12-14 清华大学 Method for detecting lane lines, device and electronic equipment
CN109389095A (en) * 2018-10-24 2019-02-26 中车株洲电力机车研究所有限公司 A kind of pavement strip image-recognizing method and training method
CN111095291A (en) * 2018-02-27 2020-05-01 辉达公司 Real-time detection of lanes and boundaries by autonomous vehicles
CN112269907A (en) * 2020-11-02 2021-01-26 山东万里红信息技术有限公司 Processing method of health big data of Internet of things
CN113591777A (en) * 2021-08-11 2021-11-02 宁波未感半导体科技有限公司 Laser radar signal processing method, electronic device, and storage medium
CN114889606A (en) * 2022-04-28 2022-08-12 吉林大学 Low-cost high-precision positioning method based on multi-sensor fusion

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102480416B1 (en) 2016-12-23 2022-12-23 삼성전자주식회사 Device and method for estimating information about a lane
WO2018117538A1 (en) * 2016-12-23 2018-06-28 삼성전자 주식회사 Method for estimating lane information, and electronic device
KR101882683B1 (en) 2017-07-13 2018-07-30 한국건설기술연구원 System fo detecting position information of road lane using real time kinematic (rtk)- global navigation satellite system (gnss), and method for the same
KR102053246B1 (en) * 2017-12-26 2019-12-06 영남대학교 산학협력단 System and method for detecting road
US10423840B1 (en) * 2019-01-31 2019-09-24 StradVision, Inc. Post-processing method and device for detecting lanes to plan the drive path of autonomous vehicle by using segmentation score map and clustering map
KR102177880B1 (en) * 2019-03-08 2020-11-12 현대모비스 주식회사 Class labeling apparatus for autonomous driving
CN110262447B (en) * 2019-05-24 2020-07-28 南京航空航天大学 ACS closed loop system fault positioning method based on ANN
CN113240180B (en) * 2021-05-18 2022-08-05 国网河南省电力公司电力科学研究院 Power transmission line galloping early warning method based on Bayes-Adaboost improved algorithm

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010100554A (en) * 2000-05-03 2001-11-14 정명식 Pavement road cognition system by the filter
US20050270374A1 (en) * 2004-06-02 2005-12-08 Toyota Jidosha Kabushiki Kaisha Lane boundary detector
US20100098295A1 (en) * 2008-04-24 2010-04-22 Gm Global Technology Operations, Inc. Clear path detection through road modeling
WO2012011715A2 (en) * 2010-07-19 2012-01-26 주식회사 이미지넥스트 Vehicle collision warning system and method therefor
WO2012011713A2 (en) * 2010-07-19 2012-01-26 주식회사 이미지넥스트 System and method for traffic lane recognition

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100809417B1 (en) 2006-09-28 2008-03-05 한국전자통신연구원 Traveling lane recognizing apparatus and method thereof
JP2013187562A (en) * 2012-03-05 2013-09-19 Nissan Motor Co Ltd Posterior sight support device for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010100554A (en) * 2000-05-03 2001-11-14 정명식 Pavement road cognition system by the filter
US20050270374A1 (en) * 2004-06-02 2005-12-08 Toyota Jidosha Kabushiki Kaisha Lane boundary detector
US20100098295A1 (en) * 2008-04-24 2010-04-22 Gm Global Technology Operations, Inc. Clear path detection through road modeling
WO2012011715A2 (en) * 2010-07-19 2012-01-26 주식회사 이미지넥스트 Vehicle collision warning system and method therefor
WO2012011713A2 (en) * 2010-07-19 2012-01-26 주식회사 이미지넥스트 System and method for traffic lane recognition

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631880A (en) * 2015-12-31 2016-06-01 百度在线网络技术(北京)有限公司 Lane line segmentation method and apparatus
CN106778551B (en) * 2016-11-30 2020-07-31 南京理工大学 Method for identifying highway section and urban road lane line
CN106778551A (en) * 2016-11-30 2017-05-31 南京理工大学 A kind of fastlink and urban road Lane detection method
CN107122713A (en) * 2017-03-27 2017-09-01 华南理工大学 It is a kind of based on deep learning like physical property detection method
CN107122713B (en) * 2017-03-27 2020-07-28 华南理工大学 Analog property detection method based on deep learning
CN107369160A (en) * 2017-06-28 2017-11-21 苏州比格威医疗科技有限公司 A kind of OCT image median nexus film new vessels partitioning algorithm
CN107369160B (en) * 2017-06-28 2020-04-03 苏州比格威医疗科技有限公司 Choroid neogenesis blood vessel segmentation algorithm in OCT image
CN111095291B (en) * 2018-02-27 2024-04-09 辉达公司 Real-time detection of lanes and boundaries by autonomous vehicles
CN111095291A (en) * 2018-02-27 2020-05-01 辉达公司 Real-time detection of lanes and boundaries by autonomous vehicles
CN109002795A (en) * 2018-07-13 2018-12-14 清华大学 Method for detecting lane lines, device and electronic equipment
CN109002795B (en) * 2018-07-13 2021-08-27 清华大学 Lane line detection method and device and electronic equipment
CN109389095B (en) * 2018-10-24 2021-10-22 中车株洲电力机车研究所有限公司 Pavement marking image recognition method and training method
CN109389095A (en) * 2018-10-24 2019-02-26 中车株洲电力机车研究所有限公司 A kind of pavement strip image-recognizing method and training method
CN112269907A (en) * 2020-11-02 2021-01-26 山东万里红信息技术有限公司 Processing method of health big data of Internet of things
CN112269907B (en) * 2020-11-02 2021-09-03 山东万里红信息技术有限公司 Processing method of health big data of Internet of things
CN113591777A (en) * 2021-08-11 2021-11-02 宁波未感半导体科技有限公司 Laser radar signal processing method, electronic device, and storage medium
CN113591777B (en) * 2021-08-11 2023-12-08 宁波未感半导体科技有限公司 Laser radar signal processing method, electronic equipment and storage medium
CN114889606A (en) * 2022-04-28 2022-08-12 吉林大学 Low-cost high-precision positioning method based on multi-sensor fusion

Also Published As

Publication number Publication date
KR20150084234A (en) 2015-07-22
KR102016549B1 (en) 2019-08-30

Similar Documents

Publication Publication Date Title
WO2015105239A1 (en) Vehicle and lane position detection system and method
US9245188B2 (en) Lane detection system and method
CN111753797B (en) Vehicle speed measuring method based on video analysis
US11170272B2 (en) Object detection device, object detection method, and computer program for object detection
CN105716567A (en) Method for determining the distance between an object and a motor vehicle by means of a monocular imaging device
JP7176478B2 (en) Image recognition device
WO2020235734A1 (en) Method for estimating distance to and location of autonomous vehicle by using mono camera
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
CN111027381A (en) Method, device, equipment and storage medium for recognizing obstacle by monocular camera
WO2020067751A1 (en) Device and method for data fusion between heterogeneous sensors
WO2018101603A1 (en) Road object recognition method and device using stereo camera
US11335099B2 (en) Proceedable direction detection apparatus and proceedable direction detection method
CN114543819B (en) Vehicle positioning method, device, electronic equipment and storage medium
WO2019147024A1 (en) Object detection method using two cameras having different focal distances, and apparatus therefor
Liu et al. Vehicle detection and ranging using two different focal length cameras
US11069049B2 (en) Division line detection device and division line detection method
CN112711255B (en) Mobile robot obstacle avoidance method, control equipment and storage medium
US11087150B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
US10853947B2 (en) Device, method, and program for detecting boundary lines included in captured images
KR20150055345A (en) Method to estimate the distance between vehicles using image alalysis and apparatus therefor
CN110088803B (en) Image pickup apparatus
JP2021092996A (en) Measurement system, vehicle, measurement method, measurement device and measurement program
US20150178574A1 (en) Brightness value calculation apparatus and lane marking detection system
US12002371B2 (en) Neuromorphic cameras for aircraft
WO2020204350A2 (en) Movement path generating apparatus and method for autonomous vehicle using around view monitoring system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14878030

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14878030

Country of ref document: EP

Kind code of ref document: A1