KR102385907B1 - Method And Apparatus for Autonomous Vehicle Navigation System - Google Patents

Method And Apparatus for Autonomous Vehicle Navigation System Download PDF

Info

Publication number
KR102385907B1
KR102385907B1 KR1020200055203A KR20200055203A KR102385907B1 KR 102385907 B1 KR102385907 B1 KR 102385907B1 KR 1020200055203 A KR1020200055203 A KR 1020200055203A KR 20200055203 A KR20200055203 A KR 20200055203A KR 102385907 B1 KR102385907 B1 KR 102385907B1
Authority
KR
South Korea
Prior art keywords
vehicle
tunnel
candidate group
image
tunnel lighting
Prior art date
Application number
KR1020200055203A
Other languages
Korean (ko)
Other versions
KR20200052868A (en
Inventor
이원오
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150176020A external-priority patent/KR102428765B1/en
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020200055203A priority Critical patent/KR102385907B1/en
Publication of KR20200052868A publication Critical patent/KR20200052868A/en
Application granted granted Critical
Publication of KR102385907B1 publication Critical patent/KR102385907B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Abstract

본 발명은 터널 내에서의 정확한 자율주행 차량 항법을 제공하기 위하여, 차량 전방 영상을 입력받고, 전방 영상을 이진화(binarization) 영상으로 변환하고, 이진화 영상에서 밝기(brightness)가 일정 이상인 픽셀의 비율이 기 설정된 기준 이상인 영역을 터널 조명 후보군으로 추출하고, 터널 조명 후보군을 차량 중심 좌표계(vehicle center coordinate system)로 변환하고, 변환된 상기 터널 조명 후보군을 기초로 맵매칭(map matching)하여 차량의 위치를 결정하는 자율주행 차량 항법 장치 및 그 항법에 관한 것이다.In order to provide accurate autonomous vehicle navigation in a tunnel, the present invention receives an image of the front of the vehicle, converts the image in front of it into a binarization image, and the ratio of pixels having a brightness greater than or equal to a certain level in the binarization image. An area above a preset standard is extracted as a tunnel lighting candidate group, the tunnel lighting candidate group is converted into a vehicle center coordinate system, and the location of the vehicle is determined by map matching based on the converted tunnel lighting candidate group. It relates to a self-driving vehicle navigation device for determining and navigation thereof.

Figure R1020200055203
Figure R1020200055203

Description

자율주행 차량 항법 장치 및 항법{Method And Apparatus for Autonomous Vehicle Navigation System}Autonomous vehicle navigation system and navigation {Method And Apparatus for Autonomous Vehicle Navigation System}

본 발명은 자율주행 차량의 항법 시스템에 관한 것으로, 보다 상세하게는 터널 안의 터널 조명을 검출하여 이를 맵매칭의 입력 값으로 사용함으로써, 자율주행 항법 기술에 터널 내에 정확도 해결을 제공하는 터널 조명을 이용한 자율주행 차량 항법 시스템에 관한 것이다.The present invention relates to a navigation system for an autonomous vehicle, and more particularly, by detecting tunnel lighting in a tunnel and using it as an input value for map matching, using tunnel lighting that provides an accuracy solution in a tunnel to autonomous navigation technology It relates to an autonomous vehicle navigation system.

기존의 자율주행 항법 기술(autonomous driving navigation system)은 터널 등의 특수한 환경에서는 그 성능 및 정확도가 떨어진다는 단점이 있다. 특히 터널(turnnel) 구간에서는 GPS(Global Positioning System)의 신호를 사용할 수 없으므로 이를 보완하기 위한 정밀한 맵매칭(map matching) 기술이 필요하다. 그러나 터널 내부의 오염 및 조명에 따른 차선의 멸실 또는 차량 정체(traffic congestion)로 일어날 수 있는 차선 가림 현상으로 인해 제약이 있어 왔다.The existing autonomous driving navigation system has a disadvantage in that its performance and accuracy are poor in a special environment such as a tunnel. In particular, since the signal of the Global Positioning System (GPS) cannot be used in the tunnel section, a precise map matching technology is required to compensate for this. However, there have been limitations due to lane occlusion that may occur due to traffic congestion or loss of lanes due to contamination and lighting inside the tunnel.

뿐만 아니라, 차선을 이용한 기존의 맵매칭은 차선 모양의 특성상 횡방향 측위(lateral positioning)의 정확도에 비해 종방향 측위(longitudinal positioning)의 정확도가 상대적으로 떨어진다는 단점이 있어 왔다. 이 경우 터널의 길이가 길수록 맵매칭을 이용한 주행 시 종방향으로의 에러가 누적이 된다는 문제점이 있다.In addition, the existing map matching using lanes has a disadvantage in that the accuracy of the longitudinal positioning is relatively lower than that of the lateral positioning due to the characteristics of the lane shape. In this case, as the length of the tunnel increases, there is a problem in that errors in the longitudinal direction are accumulated when driving using map matching.

본 발명의 목적은 실시예카메라 센서를 이용하여 입수되는 영상으로부터 차선 뿐만 아니라 터널 조명을 검출하여 이를 맵매칭의 입력 값으로 사용함으로써, 기존 자율주행 항법 기술이 터널 내에서 그 정확도가 하락하는 문제를 해결하는 방법을 제안하는 것에 그 목적이 있다.An object of the present invention is to detect not only lanes but also tunnel lights from images obtained using the camera sensor of the embodiment and use them as input values for map matching, thereby solving the problem that the accuracy of the existing autonomous navigation technology decreases in the tunnel. The purpose is to suggest a way to solve it.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일실시예의 일 측면에 의하면 본 발명은 터널의 내부를 주행 중인 차량의 전방 영상을 입력받는 수신부; 상기 전방 영상을 이진화(binarization) 영상으로 변환하는 변환부; 상기 이진화 영상으로부터 밝기(brightness)가 일정 레벨 이상인 픽셀의 비율이 기 설정된 기준 이상인 영역을 터널 조명 후보군으로 추출하는 추출부; 상기 터널 조명 후보군을 차량 중심 좌표계(vehicle center coordinate system)로 변환하는 좌표계변환부; 및According to an aspect of an embodiment of the present invention, the present invention includes a receiving unit for receiving a front image of a vehicle driving in a tunnel; a conversion unit converting the front image into a binarization image; an extracting unit for extracting, from the binarized image, an area in which a ratio of pixels having a brightness of a certain level or more is equal to or greater than a preset standard as a tunnel illumination candidate group; a coordinate system transformation unit converting the tunnel lighting candidate group into a vehicle center coordinate system; and

변환된 터널 조명 후보군을 기초로 맵매칭(map matching)하여 차량의 위치를 결정하는 위치결정부를 포함하는 것을 특징으로 하는 자율주행 차량 항법 장치를 포함한다. It includes an autonomous vehicle navigation device comprising a positioning unit that determines the location of the vehicle by map matching based on the converted tunnel lighting candidate group.

본 발명의 일 실시예에 따른 다른 측면에 의하면, 본 발명은 차량 전방 영상을 입력받는 수신과정; 상기 전방 영상을 이진화(binarization) 영상으로 변환하는 이진화과정; 상기 이진화 영상에서 밝기(brightness)가 일정 이상인 픽셀의 비율이 기 설정된 기준 이상인 영역을 터널 조명 후보군으로 추출하는 추출과정; 상기 터널 조명 후보군을 차량 중심 좌표계(vehicle center coordinate system)로 변환하는 좌표변환과정; 및 변환된 상기 터널 조명 후보군을 기초로 맵매칭(map matching)하여 차량의 위치를 결정하는 위치결정과정을 포함하는 것을 특징으로 하는 자율주행 차량 항법 장치를 포함한다.According to another aspect according to an embodiment of the present invention, the present invention includes a receiving process of receiving an image of the front of the vehicle; a binarization process of converting the front image into a binarization image; an extraction process of extracting, as a tunnel lighting candidate group, an area in the binarized image in which a ratio of pixels having a brightness equal to or greater than a predetermined threshold is greater than or equal to a preset standard; a coordinate transformation process of transforming the tunnel lighting candidate group into a vehicle center coordinate system; and a positioning process of determining the location of the vehicle by map matching based on the converted tunnel lighting candidate group.

본 발명의 터널 조명을 이용한 자율주행 차량 항법 시스템에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the autonomous vehicle navigation system using the tunnel lighting of the present invention, there are one or more of the following effects.

첫째, 터널 내 측위 정확도가 우수한 장점이 있다.First, it has the advantage of excellent positioning accuracy in the tunnel.

둘째, 추가 원가 발생이 없고 성능이 향상됨에 따라 경쟁력 확보가 가능한 장점도 있다.Second, there is also the advantage of being able to secure competitiveness as there is no additional cost and performance is improved.

셋째, 차량의 자율주행 시 GPS가 동작하지 않는 터널 등의 자율주행 취약지역으로, 터널 조명 사용으로 취약성을 극복할 수 있다.Third, it is a vulnerable area for autonomous driving, such as a tunnel where GPS does not work when the vehicle is autonomously driving, and the vulnerability can be overcome by using tunnel lighting.

넷째, 기존 자율주행 방법에 비해 터널 종방향 정확도가 획기적으로 향상하는 장점도 있다.Fourth, compared to the existing autonomous driving method, there is an advantage in that the longitudinal accuracy of the tunnel is significantly improved.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일실시예에 따른 터널 조명을 이용한 자율주행 차량 항법 장치의 구성을 도시한 블록구성도이다.
도 2는 본 발명의 일실시예에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템의 맵매칭 기술을 도시한 개념도이다.
도 3은 본 발명의 일실시예에 따른 맵매칭을 위한 터널 조명 검출 기법을 도시한 블록도이다.
도 4는 본 발명의 일실시예예에 따른 터널 조명을 이용한 자율주행의 예시도이다.
1 is a block diagram illustrating the configuration of an autonomous vehicle navigation device using tunnel lighting according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a map matching technology of an autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention.
3 is a block diagram illustrating a tunnel lighting detection technique for map matching according to an embodiment of the present invention.
4 is an exemplary diagram of autonomous driving using tunnel lighting according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 본 발명의 실시예들에 의하여 터널 조명을 이용한 자율주행 차량 항법 시스템을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. Hereinafter, the present invention will be described with reference to drawings for explaining an autonomous vehicle navigation system using tunnel lighting according to embodiments of the present invention.

도 1은 본 발명의 일실시예에 따른 터널 조명을 이용한 자율주행 차량 항법 장치의 구성을 도시한 블록구성도이다. 도 1을 참조하면, 본 발명의 일실시예에 따른 터널 조명을 이용한 자율주행 차량 항법 장치는 위치정보 측정부(100), 환경인지 센서부(200), 레이더 감지부(300), 센서융합 측위부(400), 주변환경 인지부(500), 주행경로 생성부(600), 차량제어부(700)를 전부 또는 일부 포함한다. 1 is a block diagram showing the configuration of an autonomous vehicle navigation apparatus using tunnel lighting according to an embodiment of the present invention. Referring to FIG. 1 , an autonomous driving vehicle navigation apparatus using tunnel lighting according to an embodiment of the present invention includes a location information measurement unit 100 , an environment recognition sensor unit 200 , a radar sensing unit 300 , and sensor fusion positioning All or part of the unit 400 , the surrounding environment recognition unit 500 , the driving route generation unit 600 , and the vehicle control unit 700 are included.

위치정보 측정부(measuring part for positional information)(100)는 자율주행 차량의 위치정보를 실시간으로 측정한다. 위치정보 측정부(100)는 차량의 현재 위치 정보와 지도정보를 위성으로부터 받을 수 있다. 위치정보 측정부(100)는 내비게이션(navigation), GNSS(Global Navigation Satellite System)등을 포함할 수 있다. The measuring part for positional information 100 measures the location information of the autonomous vehicle in real time. The location information measuring unit 100 may receive current location information and map information of the vehicle from a satellite. The location information measuring unit 100 may include a navigation system, a global navigation satellite system (GNSS), and the like.

환경인지 센서부(sensor part for environmental awareness)(200)는 자율주행 차량의 주변 영상을 실시간으로 촬영할 수 있다. 환경인지 센서부(200)는 라이더(lidar), 카메라, 스테레오 카메라 등을 포함할 수 있다.The sensor part for environmental awareness 200 may capture images around the autonomous vehicle in real time. The environment recognition sensor unit 200 may include a lidar, a camera, a stereo camera, and the like.

레이더 감지부(rader sensing part)(300)는 차량 외부 환경에 존재하는 사물의 속성 및 움직임 정보를 출력한다. 레이더 정보 분석을 통하여 주행 차량의 주변 차량의 움직임 방향 및 속도, 신호등, 보행자, 장애물 등 외부 상황에 대한 정보를 출력할 수 있다. 상기 레이더 감지부(300)는 V2X(Vehicle to Everything communication) 단말기, 전방 레이더, 후측방 레이더 등을 포함할 수 있다.The radar sensing part 300 outputs property and motion information of an object existing in an environment outside the vehicle. Through the analysis of radar information, information on external conditions such as the moving direction and speed of vehicles around the driving vehicle, traffic lights, pedestrians, and obstacles can be output. The radar detector 300 may include a vehicle to everything communication (V2X) terminal, a front radar, a rear radar, and the like.

센서융합 측위부(measuring part for sensor convergence)(400)는 상기 위치정보 측정부(100)로부터 위치 정보와 환경인지 센서부(200)로부터 촬영 영상을 기반으로 맵매칭 기술을 통해 차량의 정확한 위치를 추정(position estimating)할 수 있다.A sensor convergence measuring unit (measuring part for sensor convergence) 400 determines the exact location of the vehicle through map matching technology based on the location information from the location information measurement unit 100 and the captured image from the environment recognition sensor unit 200 position can be estimated.

주변환경 인지부(part for surrounding awareness)(500)는 상기 환경인지 센서부(200)의 촬영 영상과 상기 레이더 감지부(300)의 주요 정보를 기반으로 주변 환경 정보를 출력할 수 있다. The part for surrounding awareness 500 may output surrounding environment information based on the captured image of the environment awareness sensor 200 and main information of the radar sensor 300 .

주행경로 생성부(part for generating driving route)(600)는 상기 센서융합 측위부(400)와 상기 주변환경 인지부(500)로부터 출력 정보를 결합하여 경로를 생성할 수 있다. A part for generating driving route 600 may generate a route by combining output information from the sensor fusion positioning unit 400 and the surrounding environment recognition unit 500 .

차량제어부(part for vehicle control)(700)는 상기 주행경로부가 생성한 경로를 기반으로 차량의 자율주행을 보조 할 수 있다. A vehicle control unit (part for vehicle control) 700 may assist the autonomous driving of the vehicle based on the path generated by the driving path unit.

도 2는 본 발명의 일실시예에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템의 맵매칭 기술을 도시한 개념도이다.2 is a conceptual diagram illustrating a map matching technology of an autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention.

도 2의 (a)는 위치정보 측정부(100)를 이용한 위성측위의 예시도이다.FIG. 2A is an exemplary diagram of satellite positioning using the location information measuring unit 100 .

위치정보 측정부(100)는 네비게이션과 GNSS 등의 센서를 활용하여 위성 측위를 실행하고, 위성 측위 정보를 기반으로 현재 주행 차량의 센서융합용 정밀지도(220)를 구축할 수 있다.The location information measurement unit 100 may perform satellite positioning by utilizing sensors such as navigation and GNSS, and build a precision map 220 for sensor fusion of a currently driving vehicle based on the satellite positioning information.

도 2의 (b)는 환경인지 센서부(200)를 이용한차선 추출 예시도이다.2B is an exemplary diagram of lane extraction using the environment recognition sensor unit 200 .

환경인지 센서부(200)는 라이더를 기반으로 하여 터널 내 주행 중인 차량의 전방의 기하 구조물(222)을 추출 할 수 있다.The environmental awareness sensor unit 200 may extract the geometric structure 222 in front of the vehicle driving in the tunnel based on the rider.

상기 환경인지 센서부(200)는 전방 영상에서 LKAS(Lane Keeping Assist System), LDWS(Lane Departure Warning System) 등의 ADAS(Advanced Driver Assistance System)를 기반으로 촬영한 영상 내에서 차선(224)을 추출할 수 있다.The environment recognition sensor unit 200 extracts a lane 224 from an image taken based on an Advanced Driver Assistance System (ADAS) such as a Lane Keeping Assist System (LKAS) and a Lane Departure Warning System (LDWS) from the front image. can do.

도 2의 (c)는 측위 정보 확률적 결합 기술(technology of statistical combination for positioning information)과 센서 데이터 매칭 기술(sensor data matching technology)을 사용하여 미리 구축되어 있는 지도와 상기 추측된 차선을 상호 매칭(226)함으로서 현재 주행 중인차량의 위치(228)를 사전에추정할 수 있다.FIG. 2(c) shows a map constructed in advance using a technology of statistical combination for positioning information and a sensor data matching technology and the estimated lanes are mutually matched ( 226), it is possible to estimate in advance the location 228 of the vehicle currently driving.

도 3은 본 발명의 맵매칭을 위한 터널 조명 검출 기법을 도시한 블록도이다.3 is a block diagram illustrating a tunnel lighting detection technique for map matching according to the present invention.

자율주행 차량에 장착된 카메라로부터 차량 전방의 영상을 수신한다(S301).An image of the front of the vehicle is received from a camera mounted on the autonomous vehicle (S301).

수신한전방 영상을 일정 이상의 임계값을 갖는 이진화 영상으로 변환한다. 변환된 이진화 영상 중, 라벨링(labeling) 기법을 이용하여, 일정 크기 이상이고, 특정 가로 대 세로 비를 가지며, 영역 내 차지하는 밝은 픽셀의 비율이 일정 이상인 부분을 터널 조명 후보군으로 결정한다(S302).The received front image is converted into a binarized image having a threshold value greater than or equal to a certain threshold. Among the converted binarized images, using a labeling technique, a portion having a certain size or more, a specific aspect ratio, and a ratio of bright pixels occupying the area of a certain level or more is determined as a tunnel illumination candidate group (S302).

상기 터널 조명 후보군 이외의 지역은 노이즈로 판단하여 제거한다(S303). 상기 검출된 터널 조명 후보군을 맵매칭을 위한 차량 중심 좌표계로 변환 한다. 변환을 위해 수학식 1과 같은 변환 공식을 적용한다 (S304). Areas other than the tunnel lighting candidate group are determined as noise and removed (S303). The detected tunnel lighting candidate group is converted into a vehicle-centered coordinate system for map matching. For conversion, a conversion formula such as Equation 1 is applied (S304).

[수학식 1][Equation 1]

Figure 112020046813963-pat00001
Figure 112020046813963-pat00001

[수학식 2)[Equation 2)

Figure 112020046813963-pat00002
Figure 112020046813963-pat00002

여기에서, u, v는 영상 좌표계 값, X, Y, Z는 차량 중심 좌표계의 값을 나타낸다. s는 Homogenous 좌표계의 일종의 scale factor를, M은 카메라의 내부 파라미터(intrinsic parameters)를, r1 r2 r3 t는 카메라의 외부 파라미터(extrinsic parameter)를 각각 의미한다. h1~h9는 영상 좌표계에서 차량 중심 좌표계로의 이동을 위한 파라미터들로, 이미지와 차량 중심 좌표계의 최소 4개의 좌표상 좌표 쌍을 통해 계산할 수 있다. 이때 계산된 터널 조명의 높이 (Z) 값은 좌표계의 변환 전에 결정되어 있어야 한다.Here, u and v are values of the image coordinate system, and X, Y, and Z are values of the vehicle center coordinate system. s denotes a kind of scale factor of the homogenous coordinate system, M denotes intrinsic parameters of the camera, and r1 r2 r3 t denotes external parameters of the camera, respectively. h1 to h9 are parameters for moving from the image coordinate system to the vehicle-centered coordinate system, and can be calculated using at least four coordinate pairs of the image and the vehicle-centered coordinate system. At this time, the calculated height (Z) value of the tunnel lighting should be determined before the coordinate system transformation.

변환된 조명의 값은 미리 구축되어 있는 지도와 매칭을 통하여 자율주행 차량의 위치를 파악하는 맵매칭 기법에 사용된다. 상기 맵매칭 기법을 통해 차선이 오염이나 교통정체(traffic congestion)로 인해 검출 정확도가 하락하는 문제를 근원적으로 해결할 수 있으며, 처리속도가 빠르고 정확도가 높아 자율주행을 위한 측위 시스템의 성능향상에 큰 도움을 줄 수 있다. The converted lighting value is used in a map matching technique that identifies the location of an autonomous vehicle through matching with a pre-built map. Through the map matching technique, it is possible to fundamentally solve the problem of a decrease in detection accuracy due to lane contamination or traffic congestion, and it is very helpful in improving the performance of the positioning system for autonomous driving due to its fast processing speed and high accuracy can give

도 4는 본 발명의 일실시예예에 따른 터널 조명을 이용한 자율주행의 예시도이다.4 is an exemplary diagram of autonomous driving using tunnel lighting according to an embodiment of the present invention.

차선(410)을 이용한 맵매칭 기법은, 상기 차선(410)의 모양이 종방향으로 연속되어 있다는 특성으로 인해, 횡방향 측위는 상대적으로 정확하나 종방향 측위는 그 정확도가 떨어진다는 한계점을 가지고 있다. 특히 터널 내에서는 절대 측위 정보(absolute positioning information)를 송출해 주는 GPS를 사용할 수 없으므로, 맵매칭의 종방향 에러는 계속해서 누적되는 경향이 있다. 따라서 차량이 터널을 통과할 때쯤에는 수십 미터에서 터널의 길이에 따라 백 미터 이상까지 종방향 측위 오차가 발생할 수 있다. 제안하는 특허에서는 터널 내에 설치되어 있는 중앙등(420)을 맵매칭에 이용하여, 위와 같은 근본적인 문제점을 해결한다. 구체적으로, 이 또한 상기 중앙등(420)의 실제 설치 위치 (X,Y,Z)를 미리 지도 상에 저장해 두고, 전방카메라를 이용하여 검출된 상기 중앙등(420)을 좌표 변환하여 맵매칭하는 기법으로 수행된다. 이를 통해, 종방향 에러의 누적을 막을 수 있으며 터널 내 자율주행 항법시스템의 정확도를 향상시킬 수 있다.The map matching technique using the lane 410 has a limitation in that the lateral positioning is relatively accurate but the longitudinal positioning is less accurate due to the characteristic that the shape of the lane 410 is continuous in the longitudinal direction. . In particular, since GPS that transmits absolute positioning information cannot be used in the tunnel, the longitudinal error of map matching tends to accumulate. Therefore, by the time the vehicle passes through the tunnel, a longitudinal positioning error may occur from several tens of meters to more than 100 meters depending on the length of the tunnel. In the proposed patent, the central light 420 installed in the tunnel is used for map matching to solve the above fundamental problem. Specifically, this also stores the actual installation location (X, Y, Z) of the central light 420 on the map in advance, and coordinates transformation of the central light 420 detected using the front camera to map matching. method is carried out In this way, the accumulation of longitudinal errors can be prevented and the accuracy of the autonomous navigation system in the tunnel can be improved.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and in the technical field to which the present invention belongs, without departing from the gist of the present invention as claimed in the claims Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100 : 위치정보 측정부
200 : 환경인지 센서부
300 : 레이더 감지부
400 : 센서융합 측위부
500 : 주변환경 인지부
600 : 주행경로 생성부
700 : 차량제어부
100: location information measurement unit
200: environment perception sensor unit
300: radar detection unit
400: sensor fusion positioning unit
500: surrounding environment recognition unit
600: driving route generation unit
700: vehicle control unit

Claims (9)

터널의 내부를 주행 중인 차량의 전방 영상을 입력받는 수신부;
상기 전방 영상을 이진화(binarization) 영상으로 변환하는 변환부;
상기 이진화 영상으로부터 밝기(brightness)가 일정 레벨 이상인 픽셀의 비율이 기 설정된 기준 이상인 영역을 터널 조명 후보군으로 추출하는 추출부;
상기 터널 조명 후보군을 차량 중심 좌표계(vehicle center coordinate system)로 변환하는 좌표계변환부; 및
변환된 터널 조명 후보군을 기초로 맵매칭(map matching)하여 차량의 위치를 결정하는 위치결정부를 포함하되,
상기 위치결정부는,
상기 변환된 터널 조명 후보군을 기초로 기 저장된 터널 조명의 위치에 대하여 맵매칭을 수행하는 것
을 특징으로 하는 자율주행 차량 항법 장치.
a receiving unit receiving an input of a front image of a vehicle driving in the tunnel;
a conversion unit converting the front image into a binarization image;
an extracting unit for extracting, from the binarized image, an area in which a ratio of pixels having a brightness of a certain level or more is equal to or greater than a preset standard as a tunnel illumination candidate group;
a coordinate system transformation unit converting the tunnel lighting candidate group into a vehicle center coordinate system; and
A positioning unit that determines the location of the vehicle by map matching based on the converted tunnel lighting candidate group,
The positioning unit,
Performing map matching on the location of the tunnel lighting stored in advance based on the converted tunnel lighting candidate group
Self-driving vehicle navigation system, characterized in that.
제 1 항에 있어서,
상기 추출부는,
상기 이진화 영상 중에서, 상기 이진화 영상을 라벨링(labeling)하여 일정 크기 이상을 가지고 일정한 가로 대 세로 비율을 갖는 이진화 영상을 대상으로 상기 터널 조명 후보군을 추출하는 것을 특징으로 하는 자율주행 차량 항법 장치.
The method of claim 1,
The extraction unit,
Among the binarized images, by labeling the binarized image, the tunnel illumination candidate group is extracted from a binarized image having a predetermined size or more and a constant horizontal to vertical ratio.
제 1 항에 있어서
상기 좌표계변환부는,
상기 터널 내 조명의 높이를 기초로 상기 터널 조명 후보군을 상기 차량 중심 좌표계로 변환하는 것을 특징으로 하는 자율주행 차량 항법 장치.
2. The method of claim 1
The coordinate system transformation unit,
The autonomous vehicle navigation device of claim 1, wherein the tunnel lighting candidate group is converted into the vehicle-centered coordinate system based on the height of the lighting in the tunnel.
제 1 항에 있어서,
상기 맵매칭은,
상기 차량의 위치 정보 및 상기 차량의 주변 촬영 영상의 전부 또는 일부를 기초로 수행되는 것을 특징으로 하는 자율주행 차량 항법 장치.
The method of claim 1,
The map matching is
The self-driving vehicle navigation device, characterized in that the operation is performed based on all or a part of the location information of the vehicle and an image captured around the vehicle.
제 1 항에 있어서,
상기 위치결정부는,
상기 터널 조명 후보군 및 상기 차량의 주변 환경 정보를 기초로 가상의 차선정보를 획득하고, 상기 가상의 차선정보를 기초로 상기 맵매칭을 수행하는 것을 특징으로 하는 자율주행 차량 항법 장치.
The method of claim 1,
The positioning unit,
and obtaining virtual lane information based on the tunnel lighting candidate group and surrounding environment information of the vehicle, and performing the map matching based on the virtual lane information.
제 5 항에 있어서,
상기 가상의 차선정보는,
라이다(lidar)를 기반으로 추출한 차량 전방 기하 구조물을 이용하여 ADAS(Advanced Driver Assistance Systems)를 기반으로 추출하는 것을 특징으로 하는 자율주행 차량 항법 장치.
6. The method of claim 5,
The virtual lane information is
An autonomous driving vehicle navigation device, characterized in that it is extracted based on ADAS (Advanced Driver Assistance Systems) using a vehicle front geometric structure extracted based on lidar.
제 1 항에 있어서,
결정된 차량의 위치와 상기 차량의 주변 환경 정보를 기초로 상기 차량의 주행 경로를 생성하는 주행경로 생성부를 더 포함하는 것을 특징으로 하는 자율주행 차량 항법 장치.
The method of claim 1,
The autonomous vehicle navigation apparatus of claim 1, further comprising: a driving path generator configured to generate a driving path of the vehicle based on the determined vehicle location and surrounding environment information of the vehicle.
제 7 항에 있어서,
생성된 주행경로를 기반으로 상기 차량을 제어하는 차량제어부를 더 포함하는 것을 특징으로 하는 자율주행 차량 항법 장치.
8. The method of claim 7,
The autonomous driving vehicle navigation device according to claim 1, further comprising a vehicle controller configured to control the vehicle based on the generated driving route.
차량 전방 영상을 입력받는 수신과정;
상기 전방 영상을 이진화(binarization) 영상으로 변환하는 이진화과정;
상기 이진화 영상에서 밝기(brightness)가 일정 이상인 픽셀의 비율이 기 설정된 기준 이상인 영역을 터널 조명 후보군으로 추출하는 추출과정;
상기 터널 조명 후보군을 차량 중심 좌표계(vehicle center coordinate system)로 변환하는 좌표변환과정; 및
변환된 상기 터널 조명 후보군을 기초로 맵매칭(map matching)하여 차량의 위치를 결정하는 위치결정과정을 포함하되,
상기 위치결정과정은,
상기 변환된 터널 조명 후보군을 기초로 기 저장된 터널 조명의 위치에 대하여 맵매칭을 수행하는 것
을 특징으로 하는 자율주행 차량 항법.
A receiving process of receiving an image of the front of the vehicle;
a binarization process of converting the front image into a binarization image;
an extraction process of extracting, as a tunnel lighting candidate, an area in the binarized image in which a ratio of pixels having a brightness equal to or greater than a certain level is equal to or greater than a preset standard;
a coordinate transformation process of transforming the tunnel lighting candidate group into a vehicle center coordinate system; and
A positioning process of determining the location of the vehicle by map matching based on the converted tunnel lighting candidate group,
The positioning process is
Performing map matching on the location of the tunnel lighting stored in advance based on the converted tunnel lighting candidate group
Autonomous vehicle navigation characterized by
KR1020200055203A 2015-12-10 2020-05-08 Method And Apparatus for Autonomous Vehicle Navigation System KR102385907B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200055203A KR102385907B1 (en) 2015-12-10 2020-05-08 Method And Apparatus for Autonomous Vehicle Navigation System

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150176020A KR102428765B1 (en) 2015-12-10 2015-12-10 Autonomous driving vehicle navigation system using the tunnel lighting
KR1020200055203A KR102385907B1 (en) 2015-12-10 2020-05-08 Method And Apparatus for Autonomous Vehicle Navigation System

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150176020A Division KR102428765B1 (en) 2015-12-10 2015-12-10 Autonomous driving vehicle navigation system using the tunnel lighting

Publications (2)

Publication Number Publication Date
KR20200052868A KR20200052868A (en) 2020-05-15
KR102385907B1 true KR102385907B1 (en) 2022-04-11

Family

ID=81210205

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200055203A KR102385907B1 (en) 2015-12-10 2020-05-08 Method And Apparatus for Autonomous Vehicle Navigation System

Country Status (1)

Country Link
KR (1) KR102385907B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117269887A (en) * 2023-11-21 2023-12-22 荣耀终端有限公司 Positioning method, electronic equipment and readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006193068A (en) * 2005-01-14 2006-07-27 Denso Corp Vehicular tunnel detector and vehicular light controller
JP2007108043A (en) * 2005-10-14 2007-04-26 Xanavi Informatics Corp Location positioning device, location positioning method
JP2007240380A (en) * 2006-03-09 2007-09-20 Alpine Electronics Inc Intra-tunnel position detector

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150084143A (en) * 2014-01-13 2015-07-22 한양대학교 산학협력단 Self-control driving device based on various driving environment in autonomous vehicle and path planning method for the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006193068A (en) * 2005-01-14 2006-07-27 Denso Corp Vehicular tunnel detector and vehicular light controller
JP2007108043A (en) * 2005-10-14 2007-04-26 Xanavi Informatics Corp Location positioning device, location positioning method
JP2007240380A (en) * 2006-03-09 2007-09-20 Alpine Electronics Inc Intra-tunnel position detector

Also Published As

Publication number Publication date
KR20200052868A (en) 2020-05-15

Similar Documents

Publication Publication Date Title
US20240125610A1 (en) Lane marking localization
KR102428765B1 (en) Autonomous driving vehicle navigation system using the tunnel lighting
CN107161141B (en) Unmanned automobile system and automobile
US10520949B2 (en) Method and device for localizing a vehicle in its surroundings
CN105793669B (en) Vehicle position estimation system, device, method, and camera device
US9208389B2 (en) Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor
CA2990775C (en) Vehicle position determination apparatus and vehicle position determination method
WO2018177026A1 (en) Device and method for determining road edge
US20200174112A1 (en) Method and apparatus for enhanced camera and radar sensor fusion
US20200133272A1 (en) Automatic generation of dimensionally reduced maps and spatiotemporal localization for navigation of a vehicle
US20180273031A1 (en) Travel Control Method and Travel Control Apparatus
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
CN106463051B (en) Traffic signal recognition device and traffic signal recognition method
CN110530372B (en) Positioning method, path determining device, robot and storage medium
KR101446546B1 (en) Display system of vehicle information based on the position
CN106289159B (en) Vehicle distance measurement method and device based on distance measurement compensation
EP3358545A1 (en) Travel control method and travel control device
US11002553B2 (en) Method and device for executing at least one measure for increasing the safety of a vehicle
JP2018180772A (en) Object detection device
KR102441075B1 (en) Apparatus and method for estmating position of vehicle base on road surface display
JP7229052B2 (en) vehicle control device, vehicle control system
WO2020097512A2 (en) Lane marking localization and fusion
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
US11928871B2 (en) Vehicle position estimation device and traveling position estimation method
JP2018048949A (en) Object recognition device

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant