KR20060134719A - Method for recognizing parking site of vehicle - Google Patents

Method for recognizing parking site of vehicle Download PDF

Info

Publication number
KR20060134719A
KR20060134719A KR1020050054626A KR20050054626A KR20060134719A KR 20060134719 A KR20060134719 A KR 20060134719A KR 1020050054626 A KR1020050054626 A KR 1020050054626A KR 20050054626 A KR20050054626 A KR 20050054626A KR 20060134719 A KR20060134719 A KR 20060134719A
Authority
KR
South Korea
Prior art keywords
parking
vehicle
obstacle
detecting
disparity map
Prior art date
Application number
KR1020050054626A
Other languages
Korean (ko)
Inventor
정호기
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020050054626A priority Critical patent/KR20060134719A/en
Publication of KR20060134719A publication Critical patent/KR20060134719A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Abstract

A method for recognizing a parking area for vehicles is provided to improve operation speed of a parking area searching system by restricting an inspection range by using a bird's eye view. A parking area recognizer(110) recognizes 3D position information of a parked vehicle from a 3D stereo vision camera and outputs the recognized result. A path generator(120) determines a path toward the parking area according to the 3D position information. A vehicle status sensor(130) includes a speed sensor, a steering angle sensor, a yaw rate sensor, and an accelerometer. A vehicle position estimator(140) estimates the present position of the vehicle from the sensed result of the vehicle status sensor. An HMI(Human Machine Interface,150) displays the recognized result from the parking area recognizer and displays a control signal according to the manipulation of a user. A path tracking controller(160) tracks a parking path according to the estimated vehicle position and the input signal from the HMI and outputs a steering angle command. A steering unit(170) adjusts the steering angle according to the steering angle command from the path tracking controller.

Description

차량의 주차 구획 인식방법{method for recognizing parking site of vehicle}Recognizing parking site of vehicle

도1은 본 발명에 따른 차량의 주차 구획 인식방법이 적용되는 장치의 일예를 나타낸 도면1 is a view showing an example of an apparatus to which a parking section recognition method of a vehicle according to the present invention is applied;

도2는 본 발명에 따른 차량의 주차 구획 인식방법의 플로우 차트2 is a flowchart of a method for recognizing a parking section of a vehicle according to the present invention.

도3은 도1의 카메라에 의해 촬상된 이미지를 나타낸 도면3 is a view showing an image picked up by the camera of FIG.

도4는 도1의 주차 구획 인식부에서의 촬상된 이미지의 픽셀 클래서피케이션(classification) 결과를 나타낸 도면FIG. 4 is a diagram illustrating pixel classification results of an image picked up by the parking section recognition unit of FIG. 1; FIG.

도5는 도1의 주차 구획 인식부에서의 클래서피케이션 결과를 스트레오 매칭(stereo matching) 결과를 나타낸 도면FIG. 5 is a diagram illustrating a stereo matching result of a classification result in the parking section recognition unit of FIG. 1; FIG.

도6은 도1의 주차 구획 인식부에서의 로드(road)/옵스터클(obstacle) 분리 결과를 나타낸 도면FIG. 6 is a view illustrating a road / obstacle separation result in the parking section recognition unit of FIG. 1; FIG.

도7은 도1의 주차 구획 인식부에서의 주차 구획 표시의 디스퍼러티 맵(disparity map of parking site marking)으로부터 검출된 버즈 아이 뷰(bird's eye view)를 나타낸 도면FIG. 7 is a diagram illustrating a bird's eye view detected from a disparity map of parking site marking in the parking section recognition unit of FIG.

도8은 도1의 주차 구획 인식부에서의 옵스터클 디스퍼러티 맵(obstacle disparity map)으로부터 옵스터클 뎁스 맵(obstacle depth map)을 나타낸 도면FIG. 8 is a diagram illustrating an obstacle depth map from an obstacle disparity map in the parking partition recognition unit of FIG. 1. FIG.

도9는 사용자로 입력된 시드 포인트(seed point) 위치와 도2에 따른 가이드라인(guideline)과 옵스터클 히스토그램(obstacle histogram)을 나타낸 도면FIG. 9 is a diagram illustrating a seed point input by a user, a guideline, and an obstacle histogram according to FIG. 2. FIG.

도10은 도에 따른 주차 구회 표시 결과와 입력 이미지 결과를 나타낸 도면FIG. 10 is a view showing parking zone display results and input image results according to FIG.

도면의 주요부분에 대한 부호의 설명Explanation of symbols for main parts of the drawings

110 : 주차 구획 인식부 120 : 경로 계획 발생부110: parking section recognition unit 120: route planning generation unit

130 : 차량 자세 센서 140 : 차량 위치 추정부130: vehicle attitude sensor 140: vehicle position estimation unit

150 : 휴먼 머신 인터페이스부 160 : 경로 추적 제어부150: human machine interface unit 160: path tracking control unit

170 : 조향부170: steering unit

본 발명은 차량에 관한 것으로, 특히 차량의 주차 구획 인식방법에 관한 것이다.The present invention relates to a vehicle, and more particularly to a method for recognizing a parking section of a vehicle.

일반적으로 보면, 여성과 노 운전자는 차량들 사이를 후진으로 주차하는데 압박을 느낀다. In general, women and rowers are under pressure to park backwards between vehicles.

따라서, 많은 차량들이 방해물로부터의 정지거리를 운전자에게 경고하는 초음파 주차 도움 시스템을 채용하고 있다. Therefore, many vehicles employ an ultrasonic parking assistance system that warns the driver of the stopping distance from the obstacle.

예들 들어, 토요타와 에이신 세이키는 후방 시각 카메라의 이미지로 예견되는 운전 코스를 조사하여 운전자를 돕기 위한 후방 가이드 모니터를 소개했다. 에이신 세이키의 다음 세대 장치는 운전에게 최상의 시각을 제공하기 위한 환경 인식 기능을 포함하는 것을 기대하고 있다. 그들은 최상의 뷰어 포인트(view point)로부터 가상된 이미지를 만들기 위해 휠 스피드 센서와, 운전 기술과 시각 카메라 즉, 인터미디에이트 뷰어 리컨스트럭션(Intermediate View Reconstruction:IVR) 기술로부터의 구조를 사용한다.For example, Toyota and Aishin Seiki introduced a rear guide monitor to assist drivers by investigating the driving course predicted by images of rear vision cameras. Asin Seiki's next generation of devices is expected to include environmental awareness to give the driver the best possible vision. They use wheel speed sensors, structures from driving technology and visual cameras, such as Intermediate View Reconstruction (IVR) technology, to create virtualized images from the best viewer point.

자동 주차 시스템은 자동 스티어링 제어와 자동 브레이킹 제어로 주차 운전을 자동화하게 된다.The automatic parking system will automate parking operation with automatic steering control and automatic braking control.

이러한 자동 주차 시스템은 세가지 요소로 구성된다. : 타겟 위치의 위치 측정으로 포함하는 경로 생성, 계획된 궤도를 수행하는 것을 이용한 자동 스티어링과 브레이킹 시스템, 휴먼 머신 인터페이스(Human Machine Interface:HMI)는 운전자의 입력을 받아, 진행중인 주차 진행의 시각 정보를 제공한다.This automatic parking system consists of three elements. : Automatic steering and braking system using a path generation including the measurement of the position of the target position, performing the planned trajectory, Human Machine Interface (HMI) receives the driver's input and provides visual information of the ongoing parking progress do.

타겟 위치의 위치 측정은 다양한 방법들 즉, 완전한 수동 지시, GPS 하부 구조 및 가용 주차 구획의 비전 기반 위치 측정으로 실행될 수 있다.Positioning of the target location can be performed in a variety of ways, namely complete manual indication, GPS infrastructure and vision based positioning of available parking compartments.

토요타의 인텔리전트 파킹 어시스트(Intelligent Parking Assist:IPA)는 운전자의 책임으로 브레이킹 제어가 남은 반자동 주차 시스템이다. 토요타의 IPA는 HMI에 의한 타겟 위치의 위치 측정을 개발했다. 그것은 후방 시각 카메라의 이미지로 가능한 타겟 위치를 보여주게 되며, 운전자는 위, 아래, 좌, 우 및 회전과 같은 방향 제어 버튼을 이용하여 타겟 위치의 변화가 가능하다.Toyota's Intelligent Parking Assist (IPA) is a semi-automatic parking system with braking control left at the driver's responsibility. Toyota's IPA has developed a position measurement of the target position by HMI. It shows the possible target position in the image of the rear vision camera, and the driver can change the target position using direction control buttons such as up, down, left, right and rotation.

반자동 주차 시스템은 상품화되었음에도 불구하고, 완전한 수동 지시는 매일 사용하기에는 너무 지루하고, 복잡하다.Although semi-automatic parking systems have been commercialized, complete manual instructions are too boring and complex for daily use.

따라서, 가용 주착 구획의 비전 기반 위치 측정의 필요성이 빠르게 증가하는 것은 당연한 것이다.Thus, it is natural that the need for vision-based position measurement of available weld compartments is rapidly increasing.

따라서 본 발명은 상기와 같은 문제점을 해결하기 위해 안출한 것으로서, 버즈 아이 뷰(bird's eye view)와 옵스터클 뎁스 맵(obstacle depth map)을 이용하여 주차 구획의 조사범위를 제한함으로써 운영 속도를 증가시키고, 스테인(stain), 웨이스트(waste) 및 쉐도우(shadow)와 같은 노이즈에 강하도록 하기 위한 차량의 주차 구획 인식방법을 제공하는데 그 목적이 있다.Accordingly, the present invention has been made to solve the above problems, by increasing the operating speed by limiting the irradiation range of the parking compartment using a bird's eye view and an obstacle depth map. It is an object of the present invention to provide a method for recognizing a parking section of a vehicle to be resistant to noise such as stain, waste, and shadow.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 차량의 주차 구획 인식방법의 특징은, 3차원 스테레오 비전 카메라에 의해 주차 구획의 레프트 이미지(left image)와 라이트 이미지(fight image)를 촬상하는 단계와, 상기 촬상된 주차 구획의 레프트 이미지(left image)와 라이트 이미지(fight image)를 픽셀 단위로 클래서피케이션하여 버티클 에지(vertical edge)를 검출하는 단계와, 상기 검출된 버티클 에지를 스테레오 매칭(stereo matching)하여 디스퍼러티 맵(disparity map)을 검출하는 하는 단계와, 상기 검출된 디스퍼러티 맵을 플레인 서피스 컨스트레인트(plane surface constraint)를 통해 주차 구획 표시의 디스퍼러티 맵(disparity map)과 옵스터클 디스퍼러티 맵(obstacle disparity map)을 분리하는 단계와, 상기 분리된 주차 구획 표시의 디스퍼러티 맵으로부터 z,x 월드 좌표 포인트로 매핑된 버즈 아이 뷰(bird's eye view)를 검출하는 단계와, 상기 분리된 주차 구획 표시의 옵스터클 디스퍼러티 맵으로부터 z,x 월드 좌표 포인트로 매핑된 옵스터클 뎁스 맵 (obstacle depth map)을 검출하는 단계로 이루어진 차량의 주차 구획 인식방법에 있어서, 상기 검출된 주차 구획 표시의 버즈 아이 뷰(bird's eye view)를 허프 변환하여 가이드라인을 검출하는 단계와; 상기 검출된 옵스터클 뎁스 맵(obstacle depth map)에 가이드라인을 투영하여 옵스터클 히스토그램(obstacle histogram)을 검출하는 단계와; 상기 검출된 옵스터클 히스토그램과 사용자로부터 입력된 시드 포인트(seed point)에 의해 상기 버즈 아이 뷰(bird's eye view)내의 서치 레인지(search range)를 설정하는 단계와; 상기 설정된 서치 레인지에 템플리트 매칭(template matching)을 통해 주차 구획을 인식하는 단계를 포함하여 구성되는데 있다.In order to achieve the above object, there is provided a method of recognizing a parking compartment of a vehicle according to the present invention, including: imaging a left image and a right image of a parking compartment by a 3D stereo vision camera; Detecting a vertical edge by performing a left pixel and a right image of the captured parking section on a pixel-by-pixel basis, and stereo matching the detected vertical edge detecting a disparity map by stereo matching and disparity map of the detected disparity map through a plane surface constraint separating the map and the obstacle disparity map, and z, x world coordinate points from the disparity map of the separated parking partition representation. Detecting a mapped bird's eye view; and an obstacle depth map mapped from z-to-x world coordinate points from an opterkle disparity map of the separated parking compartment representation. A method for recognizing a parking section of a vehicle, the method comprising: detecting a guideline by huff transforming a bird's eye view of the detected parking section display; Detecting an obstacle histogram by projecting a guideline onto the detected obstacle depth map; Setting a search range in the bird's eye view based on the detected optocle histogram and a seed point input from a user; And recognizing the parking section through template matching in the set search range.

상기 주차 구획 인식 단계는 상기 설정된 서치 레인지에 인너 렉탱글(inner rectangle)과 아웃터 렉탱글(outer rectangle)에 의한 템플리트 매칭을 수행하는 것을 다른 특징으로 하는데 있다.The parking section recognition step is characterized in that the matching of the template by the inner rectangle and the outer rectangle in the set search range is another feature.

본 발명의 다른 목적, 특징 및 잇점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings.

이하, 본 발명에 따른 차량의 주차 구획 인식방법의 바람직한 실시예에 대하여 설명하면 다음과 같다.Hereinafter, a preferred embodiment of a method for recognizing a parking section of a vehicle according to the present invention will be described.

도1은 본 발명에 따른 차량의 주차 구획 인식방법이 적용되는 장치의 일예를 나타낸 도면으로서, 3차원 스테레오 비전 카메라(미부호)와, 주차 구획 인식부(110)와, 경로 계획 발생부(120)와, 차량 자세 센서(130)와, 차량 위치 추정부(140)와, 휴먼 머신 인터페이스부(150)와, 경로 추적 제어부(160)와, 조향부(170) 를 포함하여 구성된다.1 is a view showing an example of an apparatus to which a vehicle parking partition recognition method according to the present invention is applied, and includes a three-dimensional stereo vision camera (unsigned), a parking partition recognition unit 110, and a route plan generation unit 120. ), A vehicle attitude sensor 130, a vehicle position estimating unit 140, a human machine interface unit 150, a path tracking control unit 160, and a steering unit 170.

도2는 본 발명에 따른 차량의 주차 구획 인식방법의 플로우 차트이고, 도3은 도1의 카메라에 의해 촬상된 이미지를 나타낸 도면이며, 도4는 도1의 주차 구획 인식부에서의 촬상된 이미지의 픽셀 클래서피케이션(classification) 결과를 나타낸 도면이고, 도5는 도1의 주차 구획 인식부에서의 클래서피케이션 결과를 스트레오 매칭(stereo matching) 결과를 나타낸 도면이다.FIG. 2 is a flowchart illustrating a method for recognizing a parking section of a vehicle according to the present invention, FIG. 3 is a view showing an image captured by the camera of FIG. 1, and FIG. 4 is a captured image in the parking section recognition unit of FIG. FIG. 5 is a diagram illustrating a pixel classification result, and FIG. 5 is a diagram illustrating a stereo matching result of the classification result in the parking section recognition unit of FIG. 1.

도6은 도1의 주차 구획 인식부에서의 로드(road)/옵스터클(obstacle) 분리 결과를 나타낸 도면이고, 도7은 도1의 주차 구획 인식부에서의 주차 구획 표시의 디스퍼러티 맵(disparity map of parking site marking)으로부터 검출된 버즈 아이 뷰(bird's eye view)를 나타낸 도면이며, 도8은 도1의 주차 구획 인식부에서의 옵스터클 디스퍼러티 맵(obstacle disparity map)으로부터 옵스터클 뎁스 맵(obstacle depth map)을 나타낸 도면이다.FIG. 6 is a diagram illustrating a road / obstacle separation result in the parking section recognition unit of FIG. 1, and FIG. 7 is a disparity map of the parking section display in the parking section recognition unit of FIG. 1. FIG. 8 is a view illustrating a bird's eye view detected from a disparity map of parking site marking, and FIG. 8 is selected from an obstacle disparity map in the parking section recognition unit of FIG. 1. It is a figure which shows an obstacle depth map.

도9는 사용자로 입력된 시드 포인트(seed point) 위치와 도2에 따른 가이드라인(guideline)과 옵스터클 히스토그램(obstacle histogram)을 나타낸 도면이고, 도10은 도에 따른 주차 구회 표시 결과와 입력 이미지 결과를 나타낸 도면이다.FIG. 9 is a view illustrating a seed point position input by a user, a guideline and an histogram histogram according to FIG. 2, and FIG. 10 is a parking section display result and input according to FIG. A diagram showing image results.

이와 같이 구성된 본 발명에 따른 차량의 주차 구획 인식방법에 대하여 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.Referring to the accompanying drawings, a method for recognizing a parking compartment of a vehicle according to the present invention configured as described above will be described in detail as follows.

주차 구획을 인식하여 차량을 반자동/자동으로 주차하는데 도움을 주는 시스템은 다음과 같다.The following system helps to park the vehicle semi-automatically / automatically by recognizing the parking area.

먼저, 도1에 도시된 바와 같이, 주차 구획 인식부(110)는 3차원 스테레오 비 전 카메라(미부호)로부터 촬상된 주차 구획 이미지로부터 3차원 주차 구획 인식하여 주차된 차량의 3차원 위치정보와 주차장 인식 결과를 출력하게 된다. 상기 카메라로는 테스트 차량의 후면에 설치된 포인트 그레이 리서치 범블리비 카메라(Point Gray Research's Bumblebee camera)가 사용된다.First, as shown in FIG. 1, the parking section recognition unit 110 recognizes the three-dimensional parking section from the parking section image captured by the three-dimensional stereo vision camera (unsigned) and the three-dimensional location information of the parked vehicle. The parking lot recognition result is output. The camera is a Point Gray Research Bumblebee camera installed in the rear of the test vehicle.

그러면, 경로 계획 발생부(120)는 상기 주차 구획 인식부(110)에서 출력된 주차된 차량의 3차원 위치 정보에 따라 경로를 계획하여 출력하게 된다.Then, the route plan generation unit 120 plans and outputs the route according to the 3D position information of the parked vehicle output from the parking section recognition unit 110.

또한, 차량 자세 센서(130)는 미도시된 차륜속도센서, 조향각센서, 요 레이트(Yaw rate)센서, 가속도센서로부터 자기 차량의 차륜속도, 조향각, 선회속도, 가속도를 감지하여 출력하게 된다.In addition, the vehicle attitude sensor 130 detects and outputs a wheel speed, a steering angle, a turning speed, and an acceleration of the vehicle from a wheel speed sensor, a steering angle sensor, a yaw rate sensor, and an acceleration sensor not shown.

그러면 차량 위치 추정부(140)는 상기 차량 자세 센서(130)로부터 출력된 차륜속도, 조향각, 선회속도, 가속도로부터 자기 차량의 위치를 추정하여 출력하게 된다.Then, the vehicle position estimator 140 estimates and outputs the position of the vehicle from the wheel speed, the steering angle, the turning speed, and the acceleration output from the vehicle attitude sensor 130.

또한, 휴먼 머신 인터페이스부(150)는 상기 주차 구획 인식부(110)에서 출력된 주차장 인식 결과를 디스플레이하고, 사용자의 조작에 따른 제어신호를 인터페이스하게 된다.In addition, the human machine interface unit 150 displays a parking lot recognition result output from the parking compartment recognition unit 110 and interfaces a control signal according to a user's manipulation.

그러면 경로 추적 제어부(160)는 상기 경로 계획 발생부(120)로부터 출력된 경로계획과 상기 차량 위치 추정부(140)로부터 출력된 차량 위치 추정치 및 휴먼 머신 인터페이스부(150)로부터 인터페이스된 사용자 입력신호에 따라 주차 경로를 추적하여 조향각 명령을 출력하게 된다.The route tracking control unit 160 then outputs the route plan output from the route plan generator 120, the vehicle position estimate output from the vehicle position estimator 140, and the user input signal interfaced from the human machine interface unit 150. According to the parking path to track the steering angle command output.

이에 따라 조향부(170)는 상기 경로 추적 제어부(160)로부터 출력된 조향각 명령에 따라 조향각을 조정하게 된다.Accordingly, the steering unit 170 adjusts the steering angle according to the steering angle command output from the path tracking control unit 160.

이렇게 조향을 조정함으로써 반자동 또는 자동 주차가 가능하게 된다.This steering adjustment enables semi-automatic or automatic parking.

이때, 상기 주차 구획 인식부(110)는 도2에 도시된 본 발명에 따른 주차 구획 인식방법에 따라 다음과 같이 주차 구획을 인식하게 된다.At this time, the parking section recognition unit 110 recognizes the parking section as follows according to the parking section recognition method according to the present invention shown in FIG.

먼저, 도3의 3차원 스테레오 비전 카메라로부터 촬상된 전형적인 주차 구획의 스테레오 이미지인 (a) 레프트 이미지(left image)와 (b) 라이트 이미지(right image)로부터 하기한 표1에 도시된 바와 같이 레프트 이미지(left image)와 라이트 이미지(right image) 각각의 하나의 픽셀과 그 주위의 4개의 이웃 픽셀들의 인텐서티(intensity) 차이로 하기한 표2에 도시된 바와 같이, 픽셀 클래스(pixel class)를 검출하게 된다.First, from (a) left image and (b) right image, which are stereo images of a typical parking compartment captured from the three-dimensional stereo vision camera of FIG. 3, left as shown in Table 1 below. As shown in Table 2 below, the pixel class is represented by the difference in intensity between one pixel of each of the left image and the right image and the four neighboring pixels around the pixel. Will be detected.

상기 검출된 각 이미지는 640*480 해상도와 24비트 칼라 정보를 가지게 되고, 각 이미지는 포인트 그레이 리서치 트릭럽스 렉티리케이션 라이브러리(Point Gray Research's Triclops rectification library)에 의해 수정되게 된다.Each detected image has 640 * 480 resolution and 24-bit color information, and each image is modified by a Point Gray Research Triclops rectification library.

(표 1)Table 1

Figure 112005033520068-PAT00001
Figure 112005033520068-PAT00001

(표2)Table 2

Figure 112005033520068-PAT00002
Figure 112005033520068-PAT00002

여기서, 표2의 픽셀 클래스(pixel class)인

Figure 112005033520068-PAT00003
는 표1의 하나의 픽셀과 그 주위의 4개의 이웃 픽셀들을 하기한 수학식1에 의해 검출되게 되는데, 부드러운 면의 픽셀은 제로 클래스(zero class)로 분류되고, 에지 픽셀(edge pixel)은 넌-제로 클래스(non-zero class)로 클래서피케이션되게 되며, 쓰레스홀드(threshold) T의 효과를 줄이기 위해 히스토그램 이퀄라이제이션(histogram equalization) 또는 어뎁티브 쓰레스홀드(adaptive threshold)가 사용될 수 있다.Here, the pixel class of Table 2
Figure 112005033520068-PAT00003
Is detected by Equation 1 below, with one pixel of Table 1 and four neighboring pixels surrounding it, wherein the smooth-sided pixels are classified as zero class, and the edge pixels are non-zero. It will be clasified into a non-zero class, and histogram equalization or adaptive thresholds can be used to reduce the effect of threshold T.

(수학식 1)(Equation 1)

Figure 112005033520068-PAT00004
Figure 112005033520068-PAT00004

여기서,

Figure 112005033520068-PAT00005
는 그레이 벨루(gray value)이다.here,
Figure 112005033520068-PAT00005
Is a gray value.

이러한 픽셀 클래서피케이션 리절트(pixel classification result)는 도4의 (a) 픽셀 클래서파이드 에즈 호리전탈 에지(pixels classified as horizontal edge)와 (b) 픽셀 클래서파이드 에즈 버티컬 에지(pixels classified as vertical edge)에 나타낸 바와 같다. 여기서, 토탈 픽셀(total pixels)의 13.7%가 호리전탈 에지(horizontal edge)로, 7.8%는 버티컬 에지(vertical edge)로 분류되게 된다.Such pixel classification results (pixel classification classified as vertical edge) and (b) pixels classified as vertical edge (pixel) classified as vertical edge (Fig. 4). edge). Here, 13.7% of the total pixels are classified as horizontal edges and 7.8% as vertical edges.

이렇게 검출된 픽셀 클래서파이드 에즈 호리전탈 에지(pixels classified as horizontal edge)와 픽셀 클래서파이드 에즈 버티컬 에지(pixels classified as vertical edge)중 픽셀 클래서파이드 에즈 버티컬 에지(pixels classified as vertical edge)에 의해서만 스테레오 매칭(stereo matching)이 수행되게 되는데, 스테레오 매칭은 도5에 도시된 바와 같은, (a) 레프트 이미지(left image)의 조사 포인트(investigated point)가 (b) 라이트 이미지(right image)의 코레스펀딩 포인트(corresponding point)를 검출하는 것으로서, 클래스 컴페어리즌(class comparison), 클래스 시멀러러티(class similarity), 칼라 시멀러러티(color similarity) 및 맥시멈 시멀러러티 디텍션(maximum similarity detection)을 통해 스텝-바이-스텝 테스트 시퀀스(step-by-step test sequences)로 구성되게 된다. Only by the pixel classified as vertical edge of the detected pixel classified as horizontal edge and pixel classified as vertical edge. Stereo matching is performed, wherein stereo matching is performed by (a) an investigated point of the left image, as shown in FIG. 5, and (b) a chores of the right image. Steps through class comparison, class similarity, color similarity and maximum similarity detection as detecting the funding point. It consists of step-by-step test sequences.

이전 테스트 스텝에서 통과한 코레스펀던스 캔디데이트(correspondence candidates)만이 다음 테스트에서 조사되게 된다. 픽셀의 조사 범위는 범블리비 버티컬 얼라인먼트(Bumblebee vertical alignment)가 정확하다는 가정하에 -35~35 디스퍼러티(disparity)를 갖는 호리전탈 라인(horizontal line)으로 제한되게 된다.Only correspondence candidates that passed in the previous test step will be examined in the next test. The irradiation range of the pixel is limited to a horizontal line with -35 to 35 disparity assuming that the Bumblebee vertical alignment is correct.

즉, 코레스펀던스 테스트(correspondency test)는 조사 픽셀과 세임 클래스(same class)를 갖는 픽셀들로 수행되게 된다.That is, the correspondence test is performed on the irradiation pixel and the pixels having the same class.

이어, 클래스 시멀러러티(class similarity)는 캔디데이트 픽셀(candidate pixel)이 3*3 클래스 윈도우(class window)에서 조사된 픽셀과 얼마나 유사한가를 측정하는 것으로, 하기한 수학식2에 의해 측정되게 된다.Subsequently, class similarity is a measure of how similar a candidate pixel is to a pixel irradiated in a 3 * 3 class window, which is measured by Equation 2 below.

(수학식 2)(Equation 2)

Figure 112005033520068-PAT00006
Figure 112005033520068-PAT00006

여기서, here,

Figure 112005033520068-PAT00007
Figure 112005033520068-PAT00007

이어, 칼라 시멀러러티(color similarity)는 캔디데이트 픽셀(candidate pixel)이 5*5 칼라 윈도우(color window)에서 조사된 픽셀과 얼마나 유사한가를 측정하는 것으로, 하기한 수학식3에 의해 측정되게 된다.Subsequently, color similarity is a measure of how similar a candy date pixel is to a pixel irradiated in a 5 * 5 color window, which is measured by Equation 3 below.

(수학식 3)(Equation 3)

Figure 112005033520068-PAT00008
Figure 112005033520068-PAT00008

여기서,here,

Figure 112005033520068-PAT00009
Figure 112005033520068-PAT00009

이어, 맥시멈 시멀러러티 디텍션(maximum similarity detection)은 클래스 시멀러러티(class similarity)와 칼라 시멀러러티(color similarity)의 결과물로서, 하기한 수학식4에 의한 결과물이다. 하이스트 토탈 시멀러러티(highest total similarity)는 어떤 쓰레스홀드(certain threshold)보다 낮다면, 조사 픽셀은 코레스펀딩 포인트(corresponding point)를 찾는데 실패한 것으로 무시된다.Next, maximum similarity detection is a result of class similarity and color similarity, which is a result of Equation 4 below. If the highest total similarity is lower than some threshold, then the irradiated pixel is ignored as having failed to find the corresponding point.

(수학식 4)(Equation 4)

Figure 112005033520068-PAT00010
Figure 112005033520068-PAT00010

일반적으로, 로드 서피스(road surface)상의 픽셀들은 플렌 서피스 컨스트레인트(plane surface constraint)인 d(x,y) 즉, 픽셀의 y 좌표는 방정식 (5)와 같은 픽셀 디스퍼러티(disparity of pixel)를 갖는 선형 관계를 만족하게 된다.In general, the pixels on the road surface are d (x, y), which is the plane surface constraint, that is, the y coordinate of the pixel is the pixel disparity of pixel as shown in equation (5). Satisfies a linear relationship with

(수학식 5)(Equation 5)

Figure 112005033520068-PAT00011
Figure 112005033520068-PAT00011

여기서, B는 베이스라인(baseline)이고, H는 높이(Height)이며,

Figure 112005033520068-PAT00012
는 포컬 렝스(focal length)이고,
Figure 112005033520068-PAT00013
는 틸트 앵글(tilt angle)이다.Where B is the baseline, H is the height,
Figure 112005033520068-PAT00012
Is the focal length,
Figure 112005033520068-PAT00013
Is the tilt angle.

옵스터클의 픽셀들(obstacles of pixels) 예들 들어, 인접 차량들은 컨스트레인트(constraint)를 따르지 않는다. 그러므로, 스테레오 매칭의 결과인 디스퍼러티 맵(disparity map)은 도6에 도시된 바와 같은, 두개의 디스퍼러티 맵(disparity map) : (a) 옵스터클 디스퍼러티 맵(obstacle disparity map)과 (b) 주차 구획 표시의 디스퍼러티 맵(disparity map of parking site marking)으로 분리될 수 있다.Obstacles of pixels For example, adjacent vehicles do not follow a constraint. Therefore, the disparity map that is the result of the stereo matching is divided into two disparity maps, as shown in Fig. 6: (a) an obstacle disparity map. And (b) a disparity map of parking site marking.

이와 같이 분리된 주차 구획 표시의 디스퍼러티 맵(disparity map of parking site marking)을

Figure 112005033520068-PAT00014
Figure 112005033520068-PAT00015
좌표 포인트로 매핑하여 주차 구획 표시의 버즈 아이 뷰(bird's eye view)를 검출하고, 옵스터클 디스퍼러티 맵(obstacle disparity map)으로부터
Figure 112005033520068-PAT00016
Figure 112005033520068-PAT00017
좌표 포인트로 매핑하여 옵스터클 뎁스 맵(obstacle depth map)을 검출하게 되는데(S1, S2), 이러한 과정은 다음과 같다.This disparity map of parking site marking
Figure 112005033520068-PAT00014
Wow
Figure 112005033520068-PAT00015
Map to coordinate points to detect a bird's eye view of the parking parcel indication, and from the obstacle disparity map
Figure 112005033520068-PAT00016
Wow
Figure 112005033520068-PAT00017
Mapping to the coordinate point to detect the obstacle depth map (Obstacle depth map) (S1, S2), this process is as follows.

카메라와 물체간의 디스퍼러티(disparity)인

Figure 112005033520068-PAT00018
는 하기한 방정식 (6-1) 과 같은 디스퍼러티(disparity)에 역 비례하게 된다.The disparity between the camera and the object
Figure 112005033520068-PAT00018
Is inversely proportional to the disparity as shown in equation (6-1) below.

(수학식 6-1)(Equation 6-1)

Figure 112005033520068-PAT00019
Figure 112005033520068-PAT00019

상기 언급한 플렌 서피스 컨스트레인트(plane surface constraint)는 하기한 방정식 (6-2)과 같이 간단화될 수 있다. P1과 P2는 카메라 환경의 컨스탄트 파라메터(constant parameter)이다.The above-mentioned plane surface constraint can be simplified as shown in equation (6-2) below. P 1 and P 2 are constant parameters of the camera environment.

(수학식 6-2)(Equation 6-2)

Figure 112005033520068-PAT00020
Figure 112005033520068-PAT00020

여기서, here,

Figure 112005033520068-PAT00021
Figure 112005033520068-PAT00021

로드 서피스(road surface)상의 픽셀의 y 좌표와

Figure 112005033520068-PAT00022
사이의 관계는 하기한 방정식 (6-3), (6-4)와 같이 간략화될 수 있다.The y coordinate of the pixel on the road surface
Figure 112005033520068-PAT00022
The relationship between can be simplified as shown in the following equations (6-3) and (6-4).

(수학식 6-3)(Equation 6-3)

Figure 112005033520068-PAT00023
Figure 112005033520068-PAT00023

(수학식 6-4)(Equation 6-4)

Figure 112005033520068-PAT00024
Figure 112005033520068-PAT00024

Figure 112005033520068-PAT00025
와 픽셀의 x 좌표 사이의 관계는 3각 측량에 의해 하기한 방정식 (6- 5)와 같이 정의된다.
Figure 112005033520068-PAT00025
The relationship between and the x coordinate of the pixel is defined by triangulation as shown in equation (6-5) below.

(수학식 6-5)(Equation 6-5)

Figure 112005033520068-PAT00026
Figure 112005033520068-PAT00026

이러한 관계를 사용하여 도7 (a) 및 (b)에 도시된 바와 같이, 주차 구획 표시의 디스퍼러티 맵(disparity map of parking site marking)이 버즈 아이 뷰어(bird's eye view)로 변환된다. 버즈 아이 뷰어(bird's eye view)는 주차 구획 표시의 디스퍼러티 맵(disparity map of parking site marking)으로부터

Figure 112005033520068-PAT00027
Figure 112005033520068-PAT00028
의 알오아이(ROI:Region Of Interest)로의 값을 복사하여 이루어진다. 주차 구획 표시의 다른 칼라를 갖는 픽셀들은 아스팔트와 잔디와 같이 구조의 노이즈를 제거하는 것으로 무시된다.Using this relationship, as shown in Figures 7 (a) and (b), the disparity map of parking site marking is converted to a bird's eye view. The bird's eye view comes from the disparity map of parking site marking
Figure 112005033520068-PAT00027
Wow
Figure 112005033520068-PAT00028
This is done by copying the value into the ROI (Region Of Interest). Pixels with different colors of parking compartment markings are ignored to remove noise from the structure, such as asphalt and grass.

그리고, 옵스터클 뎁스 맵(obstacle depth map)은 플렌 서피스 컨스트레인트(plane surface constraint)를 불만족시키는 픽셀들의 디스퍼러티(disparity) 정보를 투영함으로써

Figure 112005033520068-PAT00029
Figure 112005033520068-PAT00030
로 좌표 포인으로 매핑된 검출되게 된다(S2). 도8 (a) 및 (b)에 도시된 바와 같이, 옵스터클 디스퍼러티 맵(obstacle disparity map)에서 픽셀에 상응하는 월드 좌표 포인트(
Figure 112005033520068-PAT00031
Figure 112005033520068-PAT00032
)는 상기한 방정식 (6-1)과 (6-5)에 의해 결정될 수 있다. The obstacle depth map then projects the disparity information of the pixels that dissatisfied the plane surface constraint.
Figure 112005033520068-PAT00029
Wow
Figure 112005033520068-PAT00030
It is detected that the mapped to the coordinate point as (S2). As shown in Fig. 8 (a) and (b), the world coordinate point corresponding to the pixel in the obstacle disparity map (
Figure 112005033520068-PAT00031
Wow
Figure 112005033520068-PAT00032
) Can be determined by the above equations (6-1) and (6-5).

상기 S1단계에서 검출된 주차 구획 표시의 버즈 아이 뷰(bird's eye view)를 허프 변환(hough transform)하여 가이드라인(guideline)을 검출하게 된다(S3).A guideline is detected by hough transforming a bird's eye view of the parking partition display detected in step S1 (S3).

이어, 상기 S2단계에서 검출된 옵스터클 디스퍼러티 맵(obstacle disparity map)에 가이드라인을 투영하여 옵스터클 히스토그램(obstacle histogram)을 검출하게 된다(S4).Subsequently, the guideline is projected onto the obstacle disparity map detected in step S2 to detect an obstacle histogram (S4).

여기서, 스테레오 매칭(stereo matching)은 실시간 수행을 위한 서브 픽셀 해상도를 수행하지 않기 때문에, 디스퍼러티 맵(disparity map)의 픽셀은 옵스터클 뎁스 맵(obstacle depth map)에서 수직 어레이에 컨트리뷰트(contribute)된다. 옵스터클 뎁스 맵(obstacle depth map)의 요소는 상응하는 디스퍼러티 맵 픽셀(disparity map pixel)들의 컨트리뷰션(contribution)을 축적하게 된다. 어떤 문턱값 하의 옵스터클 뎁스 맵(obstacle depth map)의 요소들을 제거함으로써 디스퍼러티 맵(disparity map)상의 노이즈는 제거될 수 있다. 일반적으로, 디스퍼러티 맵(disparity)의 노이즈는 옵스터클 뎁스 맵(obstacle depth map)상에서 피크를 만들지 않는다. 따라서, 자유 공간(free space)은 어떤 문턱값하의 옵스터클 히스토그램(obstacle histocle)의 연속하는 부분이다.Here, since stereo matching does not perform sub pixel resolution for real-time performance, pixels of the disparity map are contributed to a vertical array in an obstacle depth map. contribute) The elements of the obstacle depth map accumulate contributions of corresponding disparity map pixels. Noise on the disparity map can be eliminated by removing elements of the obstacle depth map under a certain threshold. In general, noise in the disparity map does not produce a peak on the obstacle depth map. Thus, free space is the continuous portion of an obstacle histocle under a certain threshold.

이어, 상기 S4단계에서 검출된 옵스터클 히스토그램(obstacle histacle)에 도9 (a)에 도시된 바와 같이, 사용자로부터 입력된 시드 포인트(seed point)로부터 양방향 서치 레인지(search range)가 설정되게 된다(S5).Subsequently, as shown in FIG. 9 (a), the bidirectional search range is set from the seed point input from the user in the obstacle histacle detected in step S4. (S5).

여기서, 자기 차량의 위치는 주차 에어리어의 세로 방향에 관련된 -40~40도로 제한된다. 그러므로, 이러한 각 범위에서 허프 변환의 피크는 도9 (b)에 도시된 가이드라인이다. 가이드라인 방향에서 주차 구획 센터의 조사 범위 자유 공간의 중심 20%이다. 가이드라인 방향에 직교하는 다른 방향에서 주차 구획 센터의 초기 추 정은 가이드라인으로부터 템플리트(template) 길이의 반 사이즈까지의 먼 위치이다. 직교 방향의 조사 범위는 10픽셀이고, 각 조사 범위는 10도이다.Here, the position of the own vehicle is limited to -40 to 40 degrees related to the longitudinal direction of the parking area. Therefore, the peak of the Hough transform in each of these ranges is the guideline shown in Fig. 9B. In the direction of the guideline, the survey area of the parking compartment center is 20% of the center of the free space. In other directions orthogonal to the guideline direction, the initial estimate of the parking compartment center is a distant position from the guideline to half the size of the template. The irradiation range in the orthogonal direction is 10 pixels, and each irradiation range is 10 degrees.

이어, S5단계에서 설정된 서치 레인지에 인너 렉탱글(inner rectangle)과 아웃터 렉탱글(outer rectangle)에 의한 템플리트 매칭(template matching)하여 주차 구획을 인식하게 된다(S6).Subsequently, the parking section is recognized by template matching by an inner lectangle and an outer rectangle in the search range set in step S5 (S6).

즉, 최종 템플리트 매칭(template matching)은 주차 구획 도면에 관한 규격으로부터 유추된 2 렉탱글(rectangle)로 구성되는 템플리트(template)를 사용한다. 템플리트 매칭(template matching)은 주차 구획 표시의 얼마나 많은 픽셀이 2 렉탱글(rectangle) 즉, 이너와 아웃터 렉탱글(inner and outer rectangle) 사이에 존재하는 지를 측정한다. 도10 (a)는 주차 구획 표시의 버즈 아이 뷰어(bird's eye view)상에 대한 결과를 나타낸다. 도10 (b)는 입력 이미지의 버즈 아이 뷰어(bird's eye view)에 대한 결과를 투영한다. 조사 범위는 옵스터클 뎁스 맵(obstacle depth map)에 의해 좁아지기 때문에 템플리트 매칭(template matching)은 스테인(stain), 웨이스트(waste) 및 쉐도우(shadow)에도 불구하고 정확한 위치를 성공적으로 검출한다. 게다가, 위치화 과정의 버틀넥(bottleneck)인 템플리트 매칭(template matching)은 적은 시간 소비한다. 1G㎐의 피씨에서 총 계산 시간은 약 400~500msec이다.That is, the final template matching uses a template consisting of two rectangles inferred from the specification regarding the parking compartment drawing. Template matching measures how many pixels of the parking compartment representation exist between two rectangles, ie, inner and outer rectangles. Fig. 10 (a) shows the result on the bird's eye view of the parking compartment display. Figure 10 (b) projects the results for a bird's eye view of the input image. Since the irradiation range is narrowed by the obstacle depth map, template matching successfully detects the correct position in spite of stain, waste and shadow. In addition, template matching, the bottleneck of the localization process, consumes less time. The total calculation time is about 400-500 msec at 1 G㎐ of PC.

이상에서 설명한 바와 같이 본 발명에 따른 차량의 주차 구획 인식방법은 버즈 아이 뷰(bird's eye view)를 이용하여 주차 구획의 조사범위를 제한함으로써 운 영 속도를 증가시키고, 스테인(stain), 웨이스트(waste) 및 쉐도우(shadow)와 같은 노이즈에 강한 효과가 있다.As described above, the vehicle parking section recognition method according to the present invention increases the operating speed by limiting the irradiation range of the parking section using a bird's eye view, and maintains a stain and waste. And noise such as shadows.

이상 설명한 내용을 통해 당업자라면 본 발명의 기술 사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다.Those skilled in the art will appreciate that various changes and modifications can be made without departing from the spirit of the present invention.

따라서, 본 발명의 기술적 범위는 실시예에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위 및 그와 균등한 것들에 의하여 정해져야 한다.Therefore, the technical scope of the present invention should not be limited to the contents described in the embodiments, but should be defined by the claims and their equivalents.

Claims (2)

3차원 스테레오 비전 카메라에 의해 주차 구획의 레프트 이미지(left image)와 라이트 이미지(fight image)를 촬상하는 단계와, 상기 촬상된 주차 구획의 레프트 이미지(left image)와 라이트 이미지(fight image)를 픽셀 단위로 클래서피케이션하여 버티클 에지(vertical edge)를 검출하는 단계와, 상기 검출된 버티클 에지를 스테레오 매칭(stereo matching)하여 디스퍼러티 맵(disparity map)을 검출하는 하는 단계와, 상기 검출된 디스퍼러티 맵을 플레인 서피스 컨스트레인트(plane surface constraint)를 통해 주차 구획 표시의 디스퍼러티 맵(disparity map)과 옵스터클 디스퍼러티 맵(obstacle disparity map)을 분리하는 단계와, 상기 분리된 주차 구획 표시의 디스퍼러티 맵으로부터 z,x 월드 좌표 포인트로 매핑된 버즈 아이 뷰(bird's eye view)를 검출하는 단계와, 상기 분리된 주차 구획 표시의 옵스터클 디스퍼러티 맵으로부터 z,x 월드 좌표 포인트로 매핑된 옵스터클 뎁스 맵(obstacle depth map)을 검출하는 단계로 이루어진 차량의 주차 구획 인식방법에 있어서, Imaging a left image and a right image of the parking compartment by means of a three-dimensional stereo vision camera; and performing a left image and a right image of the captured parking compartment by pixel Detecting a vertical edge by classifying the unit, detecting a disparity map by stereo matching the detected vertical edge, and detecting the vertical edge. Separating the disparity map of the parking compartment mark from the disparity map and the obstacle disparity map through a plane surface constraint; Detecting a bird's eye view mapped to a z, x world coordinate point from the disparity map of the separated parking compartment representation; In teokeul parking disc recognition method of a vehicle compartment comprising the step of detecting the option requester greater depth maps (depth obstacle map) mapped to the z, x coordinate points from World peoreo Ti map, 상기 검출된 주차 구획 표시의 버즈 아이 뷰(bird's eye view)를 허프 변환하여 가이드라인을 검출하는 단계와; Huff transforming a bird's eye view of the detected parking segment indication to detect guidelines; 상기 검출된 옵스터클 뎁스 맵(obstacle depth map)에 가이드라인을 투영하여 옵스터클 히스토그램(obstacle histogram)을 검출하는 단계와; Detecting an obstacle histogram by projecting a guideline onto the detected obstacle depth map; 상기 검출된 옵스터클 히스토그램과 사용자로부터 입력된 시드 포인트(seed point)에 의해 상기 버즈 아이 뷰(bird's eye view)내의 서치 레인지(search range)를 설정하는 단계와; Setting a search range in the bird's eye view based on the detected optocle histogram and a seed point input from a user; 상기 설정된 서치 레인지에 템플리트 매칭(template matching)을 수행하여 주차 구획을 인식하는 단계를 포함하여 이루어진 것을 특징으로 하는 차량의 주차 구획 인식방법.And performing a template matching on the set search range to recognize a parking section. 제항에 있어서,The method of claim 상기 주차 구획 인식 단계는 상기 설정된 서치 레인지에 인너 렉탱글(inner rectangle)과 아웃터 렉탱글(outer rectangle)에 의한 템플리트 매칭을 수행하는 것을 특징으로 하는 차량의 주차 구획 인식방법.The parking section recognition step of the vehicle parking section recognition method characterized in that for performing the template matching by the inner rectangle and the outer rectangle (tangle) in the set search range.
KR1020050054626A 2005-06-23 2005-06-23 Method for recognizing parking site of vehicle KR20060134719A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050054626A KR20060134719A (en) 2005-06-23 2005-06-23 Method for recognizing parking site of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050054626A KR20060134719A (en) 2005-06-23 2005-06-23 Method for recognizing parking site of vehicle

Publications (1)

Publication Number Publication Date
KR20060134719A true KR20060134719A (en) 2006-12-28

Family

ID=37813055

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050054626A KR20060134719A (en) 2005-06-23 2005-06-23 Method for recognizing parking site of vehicle

Country Status (1)

Country Link
KR (1) KR20060134719A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100816377B1 (en) * 2006-09-14 2008-03-25 주식회사 만도 Method and Apparatus for Recognizing Parking Slot Marking by Using Hough Transformation and Parking Assist System Using Same
KR20190013688A (en) * 2017-06-22 2019-02-11 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 Traffic forecasting based on map images for autonomous driving
KR102180193B1 (en) 2019-05-30 2020-11-18 한양대학교 산학협력단 Method and apparatus for parking space pose detection using parking stripe template matching
CN112289070A (en) * 2020-10-20 2021-01-29 广州小鹏自动驾驶科技有限公司 Parking space detection method and device, vehicle and readable medium
KR20230140713A (en) 2022-03-30 2023-10-10 한화비전 주식회사 Apparatus and method for monitoring car parking

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100816377B1 (en) * 2006-09-14 2008-03-25 주식회사 만도 Method and Apparatus for Recognizing Parking Slot Marking by Using Hough Transformation and Parking Assist System Using Same
KR20190013688A (en) * 2017-06-22 2019-02-11 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 Traffic forecasting based on map images for autonomous driving
US11367354B2 (en) 2017-06-22 2022-06-21 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Traffic prediction based on map images for autonomous driving
KR102180193B1 (en) 2019-05-30 2020-11-18 한양대학교 산학협력단 Method and apparatus for parking space pose detection using parking stripe template matching
CN112289070A (en) * 2020-10-20 2021-01-29 广州小鹏自动驾驶科技有限公司 Parking space detection method and device, vehicle and readable medium
KR20230140713A (en) 2022-03-30 2023-10-10 한화비전 주식회사 Apparatus and method for monitoring car parking

Similar Documents

Publication Publication Date Title
US9652980B2 (en) Enhanced clear path detection in the presence of traffic infrastructure indicator
JP4328692B2 (en) Object detection device
US10129521B2 (en) Depth sensing method and system for autonomous vehicles
US8233660B2 (en) System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
US8332134B2 (en) Three-dimensional LIDAR-based clear path detection
JP3937414B2 (en) Planar detection apparatus and detection method
US8452053B2 (en) Pixel-based texture-rich clear path detection
JP5023186B2 (en) Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection
JP2005136946A (en) Camera based position recognization apparatus and method for road vehicle
US20090041337A1 (en) Image processing apparatus and method
CN107646114A (en) Method for estimating track
JP2004531424A (en) Sensing device for cars
JP6171593B2 (en) Object tracking method and system from parallax map
Gern et al. Vision-based lane recognition under adverse weather conditions using optical flow
JP2006054681A (en) Moving object periphery monitoring apparatus
JP2009198445A (en) Device and method for object detection
Shunsuke et al. GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon
JP6815963B2 (en) External recognition device for vehicles
KR20060134719A (en) Method for recognizing parking site of vehicle
US11904843B2 (en) Autonomous parking systems and methods for vehicles
JP2006053754A (en) Plane detection apparatus and detection method
KR102003387B1 (en) Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
JP4270386B2 (en) Moving body moving amount calculation device
CN113353071B (en) Narrow area intersection vehicle safety auxiliary method and system based on deep learning
US20230186638A1 (en) Device for determining a topography of a vehicle environment, vehicle and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application