KR102428765B1 - Autonomous driving vehicle navigation system using the tunnel lighting - Google Patents
Autonomous driving vehicle navigation system using the tunnel lighting Download PDFInfo
- Publication number
- KR102428765B1 KR102428765B1 KR1020150176020A KR20150176020A KR102428765B1 KR 102428765 B1 KR102428765 B1 KR 102428765B1 KR 1020150176020 A KR1020150176020 A KR 1020150176020A KR 20150176020 A KR20150176020 A KR 20150176020A KR 102428765 B1 KR102428765 B1 KR 102428765B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- unit
- information
- tunnel
- tunnel lighting
- Prior art date
Links
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 238000005259 measurement Methods 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 18
- 238000005286 illumination Methods 0.000 claims description 4
- 238000009434 installation Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 6
- 230000001149 cognitive effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000007423 decrease Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
Abstract
본 발명은 차량의 위치정보와 지도정보를 측위를 하는 위치정보 측정부, 차량 주변을 촬영하는 환경인지 센서부, 차량 주변을 사물을 감지하는 레이더 감지부, 상기 위치정보 측정부의 차량 위치와 상기 환경인지 센서부의 촬영 영상을 기반으로 미리 정확한 자차 위치를 추정하는 센서융합 측위부, 상기 촬영 영상과 사물을 기반으로 주변 환경 정보를 출력하는 주변환경 인지부, 상기 측위 정보와 주변 환경 정보를 융합하여 차량의 주행 경로를 생성하는 주행경로 생성부, 상기 생성된 경로를 기반으로 차량을 제어하는 차량제어부를 포함하는 터널 조명을 이용한 자율주행 차량 항법 시스템에 관한 것이다.The present invention provides a location information measurement unit for positioning vehicle location information and map information, an environment recognition sensor unit for photographing the surroundings of the vehicle, a radar detection unit for detecting objects around the vehicle, and the vehicle location and the environment of the location information measurement unit A sensor fusion positioning unit that estimates the exact location of the own vehicle in advance based on the captured image of the cognitive sensor unit, a surrounding environment recognition unit that outputs surrounding environment information based on the captured image and object, To a navigation system for autonomous driving vehicles using tunnel lighting, comprising: a driving path generator for generating a driving path; and a vehicle control unit for controlling a vehicle based on the generated path.
Description
본 발명은 터널 조명을 이용한 자율주행 차량 항법 시스템에 관한 것으로, 보다 상세하게는 터널 안의 터널 조명을 검출하여 이를 맵매칭의 입력 값으로 사용함으로써, 자율주행 항법 기술에 터널 내에 정확도 해결을 제공하는 터널 조명을 이용한 자율주행 차량 항법 시스템에 관한 것이다.The present invention relates to an autonomous vehicle navigation system using tunnel lighting, and more particularly, a tunnel that provides an accurate solution in a tunnel to autonomous navigation technology by detecting the tunnel lighting in the tunnel and using it as an input value for map matching. It relates to an autonomous vehicle navigation system using lighting.
기존 자율주행 항법 기술은 터널 등의 특수한 환경에서는 그 정확도가 떨어진다는 단점이 있다. 특히 터널 구간에서는 GPS의 신호를 전혀 사용할 수 없으므로 이를 보정하는 더욱 정밀한 맵매칭 기술이 필요함에도, 오염 및 조명에 따른 차선 자체의 손실, 차량 정체로 일어날 수 있는 차선 가림 현상으로 인해 이를 해결하기는 어려운 실정이다. 또한, 기존 차선을 이용한 맵매칭은 차선 모양의 특성상 횡방향 측위의 정확도는 상대적으로 정확하나, 종방향 측위 정확도가 떨어진다는 단점이 있다. 만약 긴 터널을 맵매칭을 이용하여 주행한다면, 종방향으로의 에러가 누적이 되어 수십 미터의 에러가 발생하는 문제점이 있다.Existing autonomous navigation technology has a disadvantage in that its accuracy is poor in special environments such as tunnels. In particular, since GPS signals cannot be used at all in the tunnel section, more precise map matching technology is needed to correct this, but it is difficult to solve this problem due to the loss of lanes due to pollution and lighting, and the blocking of lanes that may occur due to traffic congestion. the current situation. In addition, map matching using existing lanes has a disadvantage in that, although the lateral positioning accuracy is relatively accurate due to the characteristics of the lane shape, the longitudinal positioning accuracy is poor. If a long tunnel is driven using map matching, errors in the longitudinal direction are accumulated, resulting in errors of several tens of meters.
상기의 문제점을 해결하기 위하여 본 특허에서는 본 발명의 일실시례에 따른 터널 내 조명을 이용한 맵매칭 시스템은, 카메라 센서로 입력되는 영상에서 차선뿐만 아니라 터널 조명을 검출하여 이를 맵매칭의 입력 값으로 사용함으로써, 기존 자율주행 항법 기술이 터널 내에서 그 정확도가 하락하는 문제를 해결하는 방법을 제안하는 것에 그 목적이 있다.In order to solve the above problems, in this patent, a map matching system using in-tunnel lighting according to an embodiment of the present invention detects not only lanes but also tunnel lighting from an image input to a camera sensor, and uses this as an input value for map matching. The purpose is to propose a method to solve the problem that the accuracy of the existing autonomous navigation technology decreases in the tunnel by using it.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기 목적을 달성하기 위하여, 본 발명의 실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템은 차량의 위치정보와 지도정보를 측위를 하는 위치정보 측정부, 차량 주변을 촬영하는 환경인지 센서부, 차량 주변을 사물을 감지하는 레이더 감지부, 상기 위치정보 측정부의 차량 위치와 상기 환경인지 센서부의 촬영 영상을 기반으로 미리 정확한 자차 위치를 추정하는 센서융합 측위부, 상기 촬영 영상과 사물을 기반으로 주변 환경 정보를 출력하는 주변환경 인지부, 상기 측위 정보와 주변 환경 정보를 융합하여 차량의 주행 경로를 생성하는 주행경로 생성부, 상기 생성된 경로를 기반으로 차량을 제어하는 차량제어부를 포함한다. In order to achieve the above object, an autonomous driving vehicle navigation system using tunnel lighting according to an embodiment of the present invention includes a location information measurement unit for positioning vehicle location information and map information, an environment recognition sensor unit for photographing the surroundings of the vehicle, A radar detector for detecting objects around the vehicle, a sensor fusion positioning unit for estimating the exact location of the own vehicle in advance based on the location of the vehicle by the location information measurement unit and the captured image of the environment recognition sensor unit, and the surroundings based on the captured image and the object It includes a surrounding environment recognition unit for outputting environment information, a driving path generation unit for generating a driving path of the vehicle by fusing the positioning information and surrounding environment information, and a vehicle control unit for controlling the vehicle based on the generated path.
본 발명의 실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템은 카메라 센서로 입력되는 영상에서 차선뿐만 아니라 터널 조명을 검출하여 이를 맵매칭의 입력 값으로 사용함으로써, 기존 자율주행 항법 기술이 터널 내에서 그 정확도가 하락하는 문제를 해결하고자 한다. 이는 차선과 같이 오염이나 정체로 인해 검출 정확도가 하락하는 문제를 근원적으로 해결할 수 있으며, 처리속도가 빠르고 정확도가 높아 자율주행을 위한 측위 시스템의 성능향상에 큰 도움을 줄 수 있다. 또한, GPS와 같은 절대 측위 정보를 이용할 수 없는 터널 내의 종방향 오차 누적 현상을 해결할 수 있어, 차선을 이용한 맵매칭 시스템의 근본적인 문제를 해결할 수 있다.The autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention detects not only the lane but also the tunnel lighting from the image input by the camera sensor and uses it as an input value for map matching, so that the existing autonomous driving navigation technology can In order to solve the problem of the decrease in accuracy. This can fundamentally solve the problem of reduced detection accuracy due to contamination or congestion, such as lanes, and can greatly help improve the performance of positioning systems for autonomous driving due to its high processing speed and high accuracy. In addition, it is possible to solve the longitudinal error accumulation phenomenon in the tunnel where absolute positioning information such as GPS cannot be used, thereby solving the fundamental problem of the map matching system using lanes.
본 특허에서 제안하는 방법은 센서융합 측위 부분의 맵 매칭 방법의 하나로, 기존 카메라 센서를 통해 검출하던 차선 정보 이외에 터널 조명을 검출하여 터널 내 맵매칭에 활용하고자 한다.The method proposed in this patent is one of the map matching methods of the sensor fusion positioning part. In addition to the lane information detected through the existing camera sensor, the tunnel lighting is detected and used for map matching in the tunnel.
기타 실시례들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The specific details of other embodiments are included in the detailed description and drawings.
본 발명의 터널 조명을 이용한 자율주행 차량 항법 시스템에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the autonomous vehicle navigation system using the tunnel lighting of the present invention, there are one or more of the following effects.
첫째, 경쟁사 자율주행차량 맵매칭 대비 터널 내 측위 정확도가 우수한 장점이 있다.First, it has the advantage of superior positioning accuracy in the tunnel compared to competitor self-driving vehicle map matching.
둘째, 경쟁사 대비 추가 원가 발생이 없고 성능이 향상됨에 따라 경쟁력 확보가 가능한 장점도 있다.Second, There is no additional cost compared to competitors, and it has the advantage of securing competitiveness as performance is improved.
셋째, 터널은 자율주행 시 GPS가 동작하지 않는 취약지역으로써 터널 조명 사용으로 취약지역 극복이 가능한 장점도 있다.Third, the tunnel is a vulnerable area where GPS does not operate during autonomous driving, so it is possible to overcome the vulnerable area by using tunnel lighting.
넷째, 기존 자율주행 방법에 비해 터널 종방향 정확도가 획기적으로 향상하는 장점도 있다.Fourth, compared to the existing autonomous driving method, there is an advantage in that the longitudinal accuracy of the tunnel is dramatically improved.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 장치의 구성을 도시한 구성도.
도 2는 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템의 맵매칭 기술을 도시한 개념도.
도 3은 본 발명의 일실시례에 따른 맵매칭을 위한 터널 조명 검출 기법을 도시한 블록도.
도 4는 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템의 예시도.1 is a block diagram showing the configuration of an autonomous vehicle navigation device using tunnel lighting according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a map matching technology of an autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention.
3 is a block diagram illustrating a tunnel lighting detection technique for map matching according to an embodiment of the present invention.
4 is an exemplary diagram of an autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시례들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시례들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시례들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.
이하, 본 발명의 실시례들에 의하여 터널 조명을 이용한 자율주행 차량 항법 시스템을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. Hereinafter, the present invention will be described with reference to drawings for explaining an autonomous vehicle navigation system using tunnel lighting according to embodiments of the present invention.
도 1은 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 장치의 구성을 도시한 구성도이다. 도 1을 참조하면, 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 장치는 위치정보 측정부(100), 환경인지 센서부(200), 레이더 감지부(300), 센서융합 측위부(400), 주변환경 인지부(500), 주행경로 생성부(600), 차량제어부(700)를 포함할 수 있다. 1 is a configuration diagram illustrating the configuration of an autonomous vehicle navigation device using tunnel lighting according to an embodiment of the present invention. Referring to FIG. 1 , an autonomous driving vehicle navigation device using tunnel lighting according to an embodiment of the present invention includes a location
위치정보 측정부(100)는 자율주행 차량의 위치정보를 실시간 측정한다. 상기 위치정보 측정부(100)는 차량의 현재 위치 정보와 지도정보를 위성으로부터 받을 수 있다. 상기 위치정보 측정부(100)는 네베게이션, GNSS등을 포함할수 있다. The location
환경인지 센서부(200)는 상기 자율주행 차량의 주변 영상을 실시간 촬영할 수 있다. 상기 환경인지 센서부(200)는 Lidar, 카메라, 스테레오 카메라 등을 포함할 수 있다.The environment-
레이더 감지부(300)는 차량 외부 환경의 사물의 속성 및 움직임 정보를 출력한다. 상기 레이더 정보 분석을 통하여 주행 차량의 주변 차량의 움직임 방향 및 속도, 신호등, 보행자, 장애물 등의 외부 상황의 주요 위험 정보를 출력할 수 있다. 상기 레이더 감지부(300)는 V2X 단말기, 전방 레이더, 후측방 레이더 등을 포함할 수 있다.The
센서융합 측위부(400)는 상기 위치정보 측정부(100)의 위치 정보와 상기 환경인지 센서부(200)의 촬영 영상을 기반으로 맵매칭 기술을 통해 정확한 차량 위치를 추정할 수 있다.The sensor
주변환경 인지부(500)는 상기 환경인지 센서부(200)의 촬영 영상과 상기 레이더 감지부(300)의 주요 위험 정보를 기반으로 주변 환경 정보를 출력할 수 있다. The surrounding
주행경로 생성부(600)는 상기 센서융합 측위부(400)와 상기 주변환경 인지부(500)의 출력 정보를 융합하여 경로를 생성할 수 있다. The driving
차량제어부(700)는 상기 주행경로부에서 생성된 경로를 기반으로 차량을 자율주행 할 수 있다. The
도 2는 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템의 맵매칭 기술을 도시한 개념도이다.2 is a conceptual diagram illustrating a map matching technology of an autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention.
도 2(a)는 위치정보 측정부(100)를 통한 위성측위 예시도이다.FIG. 2(a) is an exemplary view of satellite positioning through the location
위치정보 측정부(100)를 네비게이션과 GNSS 등의 센서를 활용하여 위성 측위를 실행하고, 상기 위성 측위 정보를 기반으로 현재 주행 차량의 센서융합용 정밀지도(220)를 구축할 수 있다.The location
도 2(b)는 환경인지 센서부(200)를 통한 차선 추출 예시도이다.2( b ) is an exemplary diagram of lane extraction through the environment
환경인지 센서부(200)는 Lidar을 기반으로 하여 터널 내 차량 전방의 기하 구조물(222)을 추축할 수 있다.The environment
상기 환경인지 센서부(200)는 전방 영상에서 LKAS, LDWS 등의 ADAS 시스템을 기반으로 영상 내에서 차선(224)을 추축할수 있다.The environment
도 3(c)은 측위 정보 확률적 결합 기술과 센서 데이터 매칭 기술을 사용하여 미리 구축되어 있는 지도와 상기 추측된 차선을 매칭(226)함으로서 차량의 위치(228)를 정확히 추정할수 있다.3(c) shows that the
도 3은 본 발명의 맵매칭을 위한 터널 조명 검출 기법을 도시한 블록도이다.3 is a block diagram illustrating a tunnel lighting detection technique for map matching according to the present invention.
자율주행 차량에 장착된 카메라로부터 차량 전방의 영상을 입력 받는다(S301).An image of the front of the vehicle is received from a camera mounted on the autonomous vehicle (S301).
상기 전방 영상을 일정 이상의 임계값을 갖는 이진화 영상으로 변환한다. 상기 이진화 영상 중 라벨링 기법을 이용하여, 일정 크기 이상이고, 특정 가로 대 세로 비를 가지며, 영역 내 차지하는 밝은 픽셀의 비율이 일정 이상인 부분을 터널 조명 후보군으로 결정한다(S302).The front image is converted into a binarized image having a threshold value greater than or equal to a certain threshold. Using a labeling technique among the binarized images, a portion having a predetermined size or more, a specific horizontal to vertical ratio, and a ratio of bright pixels occupying an area of a predetermined or more is determined as a tunnel illumination candidate group (S302).
상기 터널 조명 후보군 이외의 지역은 노이즈로 판단하고 제거한다(S303). 상기 검출된 터널 조명 후보군을 맵매칭을 위한 차량 중심 좌표계로 변환하여야 한다. 이를 위해 아래 수식과 같은 변환 공식을 적용하여 차량 중심 좌표계로 변환한다(S304). Areas other than the tunnel lighting candidate group are determined as noise and removed (S303). The detected tunnel lighting candidate group should be converted into a vehicle-centered coordinate system for map matching. To this end, it is converted into a vehicle-centered coordinate system by applying a transformation formula as shown in the following equation (S304).
(수학식 1) (Equation 1)
(수학식 2)(Equation 2)
여기에서, u, v는 영상 좌표계 값, X, Y, Z는 차량 중심 좌표계의 값을 나타낸다. s는 Homogenous 좌표계의 일종의 scale factor를, M은 카메라의 intrinsic parameters를, r1 r2 r3 t는 카메라의 extrinsic parameter를 각각 의미한다. h1~h9는 영상 좌표계에서 차량 중심 좌표계로의 이동을 위한 parameter 들로, 이미지와 차량 중심 좌표계의 최소 4개의 좌표상 좌표 쌍을 통해 계산할 수 있다. 이때 계산된 터널 조명의 높이 (Z) 값은 미리 알고 있어야 한다.Here, u and v represent values of the image coordinate system, and X, Y, and Z represent values of the vehicle center coordinate system. s stands for a kind of scale factor of the homogenous coordinate system, M stands for intrinsic parameters of the camera, and r1 r2 r3 t stands for extrinsic parameters of the camera, respectively. h1 to h9 are parameters for moving from the image coordinate system to the vehicle-centered coordinate system, and can be calculated using at least four coordinate pairs of the image and the vehicle-centered coordinate system. At this time, the calculated height (Z) value of the tunnel lighting should be known in advance.
상기 변환된 조명의 값은 미리 구축되어 있는 지도와 매칭을 통하여 자율주행 차량의 위치를 파악하는 맵매칭 기법에 사용된다. 상기 맵매칭 기법을 통해 차선과 같이 오염이나 정체로 인해 검출 정확도가 하락하는 문제를 근원적으로 해결할 수 있으며, 처리속도가 빠르고 정확도가 높아 자율주행을 위한 측위 시스템의 성능향상에 큰 도움을 줄 수 있다. The converted illumination value is used in a map matching technique for identifying the location of an autonomous vehicle through matching with a map that has been built in advance. Through the map matching technique, it is possible to fundamentally solve the problem of a decrease in detection accuracy due to pollution or congestion, such as lanes, and it can greatly help improve the performance of the positioning system for autonomous driving due to its high processing speed and high accuracy. .
도 4는 터널 조명을 이용한 자율주행 차량 항법 시스템의 예시도이다.4 is an exemplary diagram of an autonomous vehicle navigation system using tunnel lighting.
도 4를 참조하면, 차선(410)을 이용한 맵매칭 기법은, 상기 차선(410)의 모양이 종방향으로 연속되어 있다는 특성으로 인해, 횡방향 측위는 상대적으로 정확하나 종방향 측위는 그 정확도가 떨어진다는 한계점을 가지고 있다. 특히 절대 측위 정보를 송출해 주는 GPS를 터널 내에선 전혀 사용할 수 없으므로, 맵매칭의 종방향 에러는 계속해서 누적된. 따라서 터널을 통과할 때쯤에는 수십 미터에서 터널의 길이에 따라 백 미터 이상까지 종방향 측위 오차가 발생할 수 있다. 제안하는 특허에서는 터널 내 설치되어 있는 중앙등(420)을 맵매칭 특징으로 이용하여, 위와 같은 근본적인 문제점을 해결한다. 이 또한 상기 중앙등(420)의 실제 설치 위치 (X,Y,Z)를 미리 지도상에 저장해 두고, 전방카메라로 검출된 상기 중앙등(420)을 좌표 변환하여 맵매칭하는 기법으로 수행된다. 이를 통해, 종방향 에러의 누적을 막을 수 있으며 터널 내 자율주행 항법시스템의 정확도를 획기적으로 향상시킬 수 있다.Referring to FIG. 4 , in the map matching technique using the
이상에서는 본 발명의 바람직한 실시례에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시례에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and in the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.
100 : 위치정보 측정부
200 : 환경인지 센서부
300 : 레이더 감지부
400 : 센서융합 측위부
500: 주변환경 인지부
600 : 주행경로 생성부
700: 차량제어부100: location information measurement unit
200: environment perception sensor unit
300: radar detection unit
400: sensor fusion positioning unit
500: environmental awareness unit
600: driving route generation unit
700: vehicle control unit
Claims (7)
차량 주변을 촬영하는 환경인지 센서부;
차량 주변을 사물을 감지하는 레이더 감지부;
상기 위치정보 측정부의 차량 위치와 상기 환경인지 센서부의 촬영 영상을 기반으로 미리 정확한 자차 위치를 추정하는 센서융합 측위부;
상기 촬영 영상과 사물을 기반으로 주변 환경 정보를 출력하는 주변환경 인지부;
상기 측위 정보와 주변 환경 정보를 융합하여 차량의 주행 경로를 생성하는 주행경로 생성부; 및
상기 생성된 경로를 기반으로 차량을 제어하는 차량제어부;
를 포함하는 터널 조명을 이용한 자율주행 차량 항법 장치.a location information measurement unit for positioning vehicle location information and map information;
an environment-aware sensor unit for photographing the surroundings of the vehicle;
a radar detector for detecting objects around the vehicle;
a sensor fusion positioning unit for estimating an accurate location of the own vehicle in advance based on the vehicle location of the location information measuring unit and the captured image of the environment recognition sensor unit;
a surrounding environment recognition unit for outputting surrounding environment information based on the captured image and the object;
a driving path generating unit generating a driving path of the vehicle by fusing the positioning information and surrounding environment information; and
a vehicle control unit for controlling a vehicle based on the generated path;
An autonomous vehicle navigation device using tunnel lighting comprising a.
상기 주변환경 인지부는 상기 환경인지 센서부의 영상 정보와 근거로 터널 조명을 검출하여 가상의 차선정보를 이용하여 가상경로를 설정하는 터널 조명을 이용한 자율주행 차량 항법 장치.
The method of claim 1 .
The autonomous driving vehicle navigation device using tunnel lighting, wherein the ambient environment recognition unit detects tunnel lighting based on the image information and the basis of the environment recognition sensor unit and sets a virtual route using virtual lane information.
상기 주행경로 생성부는 검출된 가상의 차선정보와 획득된 실제 차선정보의 맵 매칭을 통하여 상기 차량의 현재 위치정보를 보정하는
터널 조명을 이용한 자율주행 차량 항법 장치.2. The method of claim 1
The driving route generator corrects the current location information of the vehicle through map matching between the detected virtual lane information and the acquired real lane information.
Autonomous vehicle navigation system using tunnel lighting.
상기 센서융합 측위부는 상기 환경인지 센서부로부터 영상을 일정 이상의 임계값을 갖는 이진화 영상으로 변환하는 터널 조명을 이용한 자율주행 차량 항법 장치.2. The method of claim 1
The sensor fusion positioning unit is an autonomous vehicle navigation device using tunnel lighting that converts an image from the environment recognition sensor unit into a binarized image having a threshold value greater than or equal to a certain threshold.
상기 전방 영상을 이진화 영상으로 변환하는 단계;
상기 이진화 영상에서 터널 조명 후보군을 추출하는 단계;
상기 터널 조명 후보군을 차량 중심 좌표계로 변환하는 단계;
상기 좌표계를 지도와 상기 차량의 위치에 맵 매칭하는 단계;
상기 맵 매칭 정보를 이용하여 자율주행하는 단계;
를 포함하되,
상기 이진화 영상에서 터널 조명 후보군을 추출하는 단계는,
상기 이진화 영상 중, 일정 크기 이상이고, 특정 가로 대 세로 비를 가지며, 영역 내 차지하는 밝은 픽셀의 비율이 일정 이상인 부분을 터널 조명 후보군으로 결정하는 단계를 포함하는
터널 조명을 이용한 자율주행 차량 항법 시스템의 제어방법.outputting an image in front of the vehicle through a camera;
converting the front image into a binarized image;
extracting a tunnel illumination candidate group from the binarized image;
converting the tunnel lighting candidate group into a vehicle-centered coordinate system;
map matching the coordinate system to a map and a location of the vehicle;
autonomous driving using the map matching information;
including,
Extracting the tunnel lighting candidate group from the binarized image comprises:
Determining a portion of the binarized image that is larger than a certain size, has a specific aspect ratio, and has a ratio of bright pixels occupying a certain area or higher, as a tunnel illumination candidate group
A method of controlling an autonomous vehicle navigation system using tunnel lighting.
상기 차량 중심 좌표계 변환 단계는 터널 내 조명의 높이를 이용하여 상기 차량 중심 좌표계를 측정하는 것을 특징으로 하는 터널 조명을 이용한 자율주행 차량 항법 시스템의 제어방법.6. The method of claim 5
The vehicle-centered coordinate system transformation step is a control method of an autonomous vehicle navigation system using tunnel lighting, characterized in that the vehicle-centered coordinate system is measured using the height of the lighting in the tunnel.
상기 맵 매칭 단계는 중앙등의 설치 위치를 미리 지도상에 저장해 두고, 전방카메라로 검출된 중앙등을 좌표 변환하여 맵매칭하는 것을 특징으로 하는 터널 조명을 이용한 자율주행 차량 항법 시스템의 제어방법.6. The method of claim 5
The map matching step stores the installation location of the center light on a map in advance, converts the coordinates of the center light detected by the front camera, and matches the map.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150176020A KR102428765B1 (en) | 2015-12-10 | 2015-12-10 | Autonomous driving vehicle navigation system using the tunnel lighting |
KR1020200055203A KR102385907B1 (en) | 2015-12-10 | 2020-05-08 | Method And Apparatus for Autonomous Vehicle Navigation System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150176020A KR102428765B1 (en) | 2015-12-10 | 2015-12-10 | Autonomous driving vehicle navigation system using the tunnel lighting |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200055203A Division KR102385907B1 (en) | 2015-12-10 | 2020-05-08 | Method And Apparatus for Autonomous Vehicle Navigation System |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170068937A KR20170068937A (en) | 2017-06-20 |
KR102428765B1 true KR102428765B1 (en) | 2022-08-02 |
Family
ID=59281139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150176020A KR102428765B1 (en) | 2015-12-10 | 2015-12-10 | Autonomous driving vehicle navigation system using the tunnel lighting |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102428765B1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109597404A (en) * | 2017-09-30 | 2019-04-09 | 徐工集团工程机械股份有限公司 | Road roller and its controller, control method and system |
KR102030612B1 (en) * | 2018-08-23 | 2019-10-10 | 한국지질자원연구원 | Navigation system using map which position is defined as spatial shape information |
KR20200064339A (en) | 2018-11-29 | 2020-06-08 | 주식회사 파인디지털 | Electronic device for vehicle and method for performing position determination of vehicle in a tunnel using an image |
KR102610752B1 (en) * | 2018-12-10 | 2023-12-08 | 현대자동차주식회사 | Apparatus and method for controlling automonous driving of vehicle |
KR102290026B1 (en) * | 2019-05-30 | 2021-08-13 | 한양대학교 산학협력단 | Waypoint pose detection and positioning method and apparatus using waypoints |
CN115147785B (en) * | 2021-03-29 | 2024-08-23 | 东风汽车集团股份有限公司 | Vehicle identification method and device, electronic equipment and storage medium |
KR102595416B1 (en) | 2021-11-11 | 2023-10-27 | 재단법인 지능형자동차부품진흥원 | Method for estimating location of autonomous vehicle in shadow area and autonomous driving system for thereof |
KR102701822B1 (en) | 2022-01-19 | 2024-09-05 | 현대건설주식회사 | A tunnel civil surveying and monitoring robot capable of positioning by text recognition and a surveying method using the same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007108043A (en) * | 2005-10-14 | 2007-04-26 | Xanavi Informatics Corp | Location positioning device, location positioning method |
JP2007240380A (en) * | 2006-03-09 | 2007-09-20 | Alpine Electronics Inc | Intra-tunnel position detector |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150084143A (en) * | 2014-01-13 | 2015-07-22 | 한양대학교 산학협력단 | Self-control driving device based on various driving environment in autonomous vehicle and path planning method for the same |
-
2015
- 2015-12-10 KR KR1020150176020A patent/KR102428765B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007108043A (en) * | 2005-10-14 | 2007-04-26 | Xanavi Informatics Corp | Location positioning device, location positioning method |
JP2007240380A (en) * | 2006-03-09 | 2007-09-20 | Alpine Electronics Inc | Intra-tunnel position detector |
Also Published As
Publication number | Publication date |
---|---|
KR20170068937A (en) | 2017-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102428765B1 (en) | Autonomous driving vehicle navigation system using the tunnel lighting | |
CN110174093B (en) | Positioning method, device, equipment and computer readable storage medium | |
KR102483649B1 (en) | Vehicle localization method and vehicle localization apparatus | |
EP3137850B1 (en) | Method and system for determining a position relative to a digital map | |
EP3283843B1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
US11250288B2 (en) | Information processing apparatus and information processing method using correlation between attributes | |
CN110530372B (en) | Positioning method, path determining device, robot and storage medium | |
CN112074885A (en) | Lane sign positioning | |
CN108692719B (en) | Object detection device | |
US9123242B2 (en) | Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program | |
US10369993B2 (en) | Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free | |
CN109374008A (en) | A kind of image capturing system and method based on three mesh cameras | |
CN106463051B (en) | Traffic signal recognition device and traffic signal recognition method | |
JP7190261B2 (en) | position estimator | |
US11204610B2 (en) | Information processing apparatus, vehicle, and information processing method using correlation between attributes | |
WO2016178335A1 (en) | Lane detection apparatus and lane detection method | |
CN111025308B (en) | Vehicle positioning method, device, system and storage medium | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
US11468691B2 (en) | Traveling lane recognition apparatus and traveling lane recognition method | |
KR20160125803A (en) | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest | |
JP2018084492A (en) | Self-position estimation method and self-position estimation device | |
JP7526858B2 (en) | Measurement device, measurement method, and program | |
KR102385907B1 (en) | Method And Apparatus for Autonomous Vehicle Navigation System | |
JP2023181415A (en) | Information processing device | |
JP2018205142A (en) | Position estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |