KR102428765B1 - Autonomous driving vehicle navigation system using the tunnel lighting - Google Patents

Autonomous driving vehicle navigation system using the tunnel lighting Download PDF

Info

Publication number
KR102428765B1
KR102428765B1 KR1020150176020A KR20150176020A KR102428765B1 KR 102428765 B1 KR102428765 B1 KR 102428765B1 KR 1020150176020 A KR1020150176020 A KR 1020150176020A KR 20150176020 A KR20150176020 A KR 20150176020A KR 102428765 B1 KR102428765 B1 KR 102428765B1
Authority
KR
South Korea
Prior art keywords
vehicle
unit
information
tunnel
tunnel lighting
Prior art date
Application number
KR1020150176020A
Other languages
Korean (ko)
Other versions
KR20170068937A (en
Inventor
이원오
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020150176020A priority Critical patent/KR102428765B1/en
Publication of KR20170068937A publication Critical patent/KR20170068937A/en
Priority to KR1020200055203A priority patent/KR102385907B1/en
Application granted granted Critical
Publication of KR102428765B1 publication Critical patent/KR102428765B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)

Abstract

본 발명은 차량의 위치정보와 지도정보를 측위를 하는 위치정보 측정부, 차량 주변을 촬영하는 환경인지 센서부, 차량 주변을 사물을 감지하는 레이더 감지부, 상기 위치정보 측정부의 차량 위치와 상기 환경인지 센서부의 촬영 영상을 기반으로 미리 정확한 자차 위치를 추정하는 센서융합 측위부, 상기 촬영 영상과 사물을 기반으로 주변 환경 정보를 출력하는 주변환경 인지부, 상기 측위 정보와 주변 환경 정보를 융합하여 차량의 주행 경로를 생성하는 주행경로 생성부, 상기 생성된 경로를 기반으로 차량을 제어하는 차량제어부를 포함하는 터널 조명을 이용한 자율주행 차량 항법 시스템에 관한 것이다.The present invention provides a location information measurement unit for positioning vehicle location information and map information, an environment recognition sensor unit for photographing the surroundings of the vehicle, a radar detection unit for detecting objects around the vehicle, and the vehicle location and the environment of the location information measurement unit A sensor fusion positioning unit that estimates the exact location of the own vehicle in advance based on the captured image of the cognitive sensor unit, a surrounding environment recognition unit that outputs surrounding environment information based on the captured image and object, To a navigation system for autonomous driving vehicles using tunnel lighting, comprising: a driving path generator for generating a driving path; and a vehicle control unit for controlling a vehicle based on the generated path.

Figure R1020150176020
Figure R1020150176020

Description

터널 조명을 이용한 자율주행 차량 항법 시스템{Autonomous driving vehicle navigation system using the tunnel lighting}Autonomous driving vehicle navigation system using the tunnel lighting

본 발명은 터널 조명을 이용한 자율주행 차량 항법 시스템에 관한 것으로, 보다 상세하게는 터널 안의 터널 조명을 검출하여 이를 맵매칭의 입력 값으로 사용함으로써, 자율주행 항법 기술에 터널 내에 정확도 해결을 제공하는 터널 조명을 이용한 자율주행 차량 항법 시스템에 관한 것이다.The present invention relates to an autonomous vehicle navigation system using tunnel lighting, and more particularly, a tunnel that provides an accurate solution in a tunnel to autonomous navigation technology by detecting the tunnel lighting in the tunnel and using it as an input value for map matching. It relates to an autonomous vehicle navigation system using lighting.

기존 자율주행 항법 기술은 터널 등의 특수한 환경에서는 그 정확도가 떨어진다는 단점이 있다. 특히 터널 구간에서는 GPS의 신호를 전혀 사용할 수 없으므로 이를 보정하는 더욱 정밀한 맵매칭 기술이 필요함에도, 오염 및 조명에 따른 차선 자체의 손실, 차량 정체로 일어날 수 있는 차선 가림 현상으로 인해 이를 해결하기는 어려운 실정이다. 또한, 기존 차선을 이용한 맵매칭은 차선 모양의 특성상 횡방향 측위의 정확도는 상대적으로 정확하나, 종방향 측위 정확도가 떨어진다는 단점이 있다. 만약 긴 터널을 맵매칭을 이용하여 주행한다면, 종방향으로의 에러가 누적이 되어 수십 미터의 에러가 발생하는 문제점이 있다.Existing autonomous navigation technology has a disadvantage in that its accuracy is poor in special environments such as tunnels. In particular, since GPS signals cannot be used at all in the tunnel section, more precise map matching technology is needed to correct this, but it is difficult to solve this problem due to the loss of lanes due to pollution and lighting, and the blocking of lanes that may occur due to traffic congestion. the current situation. In addition, map matching using existing lanes has a disadvantage in that, although the lateral positioning accuracy is relatively accurate due to the characteristics of the lane shape, the longitudinal positioning accuracy is poor. If a long tunnel is driven using map matching, errors in the longitudinal direction are accumulated, resulting in errors of several tens of meters.

상기의 문제점을 해결하기 위하여 본 특허에서는 본 발명의 일실시례에 따른 터널 내 조명을 이용한 맵매칭 시스템은, 카메라 센서로 입력되는 영상에서 차선뿐만 아니라 터널 조명을 검출하여 이를 맵매칭의 입력 값으로 사용함으로써, 기존 자율주행 항법 기술이 터널 내에서 그 정확도가 하락하는 문제를 해결하는 방법을 제안하는 것에 그 목적이 있다.In order to solve the above problems, in this patent, a map matching system using in-tunnel lighting according to an embodiment of the present invention detects not only lanes but also tunnel lighting from an image input to a camera sensor, and uses this as an input value for map matching. The purpose is to propose a method to solve the problem that the accuracy of the existing autonomous navigation technology decreases in the tunnel by using it.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위하여, 본 발명의 실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템은 차량의 위치정보와 지도정보를 측위를 하는 위치정보 측정부, 차량 주변을 촬영하는 환경인지 센서부, 차량 주변을 사물을 감지하는 레이더 감지부, 상기 위치정보 측정부의 차량 위치와 상기 환경인지 센서부의 촬영 영상을 기반으로 미리 정확한 자차 위치를 추정하는 센서융합 측위부, 상기 촬영 영상과 사물을 기반으로 주변 환경 정보를 출력하는 주변환경 인지부, 상기 측위 정보와 주변 환경 정보를 융합하여 차량의 주행 경로를 생성하는 주행경로 생성부, 상기 생성된 경로를 기반으로 차량을 제어하는 차량제어부를 포함한다. In order to achieve the above object, an autonomous driving vehicle navigation system using tunnel lighting according to an embodiment of the present invention includes a location information measurement unit for positioning vehicle location information and map information, an environment recognition sensor unit for photographing the surroundings of the vehicle, A radar detector for detecting objects around the vehicle, a sensor fusion positioning unit for estimating the exact location of the own vehicle in advance based on the location of the vehicle by the location information measurement unit and the captured image of the environment recognition sensor unit, and the surroundings based on the captured image and the object It includes a surrounding environment recognition unit for outputting environment information, a driving path generation unit for generating a driving path of the vehicle by fusing the positioning information and surrounding environment information, and a vehicle control unit for controlling the vehicle based on the generated path.

본 발명의 실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템은 카메라 센서로 입력되는 영상에서 차선뿐만 아니라 터널 조명을 검출하여 이를 맵매칭의 입력 값으로 사용함으로써, 기존 자율주행 항법 기술이 터널 내에서 그 정확도가 하락하는 문제를 해결하고자 한다. 이는 차선과 같이 오염이나 정체로 인해 검출 정확도가 하락하는 문제를 근원적으로 해결할 수 있으며, 처리속도가 빠르고 정확도가 높아 자율주행을 위한 측위 시스템의 성능향상에 큰 도움을 줄 수 있다. 또한, GPS와 같은 절대 측위 정보를 이용할 수 없는 터널 내의 종방향 오차 누적 현상을 해결할 수 있어, 차선을 이용한 맵매칭 시스템의 근본적인 문제를 해결할 수 있다.The autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention detects not only the lane but also the tunnel lighting from the image input by the camera sensor and uses it as an input value for map matching, so that the existing autonomous driving navigation technology can In order to solve the problem of the decrease in accuracy. This can fundamentally solve the problem of reduced detection accuracy due to contamination or congestion, such as lanes, and can greatly help improve the performance of positioning systems for autonomous driving due to its high processing speed and high accuracy. In addition, it is possible to solve the longitudinal error accumulation phenomenon in the tunnel where absolute positioning information such as GPS cannot be used, thereby solving the fundamental problem of the map matching system using lanes.

본 특허에서 제안하는 방법은 센서융합 측위 부분의 맵 매칭 방법의 하나로, 기존 카메라 센서를 통해 검출하던 차선 정보 이외에 터널 조명을 검출하여 터널 내 맵매칭에 활용하고자 한다.The method proposed in this patent is one of the map matching methods of the sensor fusion positioning part. In addition to the lane information detected through the existing camera sensor, the tunnel lighting is detected and used for map matching in the tunnel.

기타 실시례들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The specific details of other embodiments are included in the detailed description and drawings.

본 발명의 터널 조명을 이용한 자율주행 차량 항법 시스템에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the autonomous vehicle navigation system using the tunnel lighting of the present invention, there are one or more of the following effects.

첫째, 경쟁사 자율주행차량 맵매칭 대비 터널 내 측위 정확도가 우수한 장점이 있다.First, it has the advantage of superior positioning accuracy in the tunnel compared to competitor self-driving vehicle map matching.

둘째, 경쟁사 대비 추가 원가 발생이 없고 성능이 향상됨에 따라 경쟁력 확보가 가능한 장점도 있다.Second,  There is no additional cost compared to competitors, and it has the advantage of securing competitiveness as performance is improved.

셋째, 터널은 자율주행 시 GPS가 동작하지 않는 취약지역으로써 터널 조명 사용으로 취약지역 극복이 가능한 장점도 있다.Third, the tunnel is a vulnerable area where GPS does not operate during autonomous driving, so it is possible to overcome the vulnerable area by using tunnel lighting.

넷째, 기존 자율주행 방법에 비해 터널 종방향 정확도가 획기적으로 향상하는 장점도 있다.Fourth, compared to the existing autonomous driving method, there is an advantage in that the longitudinal accuracy of the tunnel is dramatically improved.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 장치의 구성을 도시한 구성도.
도 2는 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템의 맵매칭 기술을 도시한 개념도.
도 3은 본 발명의 일실시례에 따른 맵매칭을 위한 터널 조명 검출 기법을 도시한 블록도.
도 4는 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템의 예시도.
1 is a block diagram showing the configuration of an autonomous vehicle navigation device using tunnel lighting according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a map matching technology of an autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention.
3 is a block diagram illustrating a tunnel lighting detection technique for map matching according to an embodiment of the present invention.
4 is an exemplary diagram of an autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시례들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시례들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시례들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 본 발명의 실시례들에 의하여 터널 조명을 이용한 자율주행 차량 항법 시스템을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. Hereinafter, the present invention will be described with reference to drawings for explaining an autonomous vehicle navigation system using tunnel lighting according to embodiments of the present invention.

도 1은 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 장치의 구성을 도시한 구성도이다. 도 1을 참조하면, 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 장치는 위치정보 측정부(100), 환경인지 센서부(200), 레이더 감지부(300), 센서융합 측위부(400), 주변환경 인지부(500), 주행경로 생성부(600), 차량제어부(700)를 포함할 수 있다. 1 is a configuration diagram illustrating the configuration of an autonomous vehicle navigation device using tunnel lighting according to an embodiment of the present invention. Referring to FIG. 1 , an autonomous driving vehicle navigation device using tunnel lighting according to an embodiment of the present invention includes a location information measurement unit 100 , an environment recognition sensor unit 200 , a radar sensing unit 300 , and sensor fusion positioning. It may include a unit 400 , a surrounding environment recognition unit 500 , a driving route generation unit 600 , and a vehicle control unit 700 .

위치정보 측정부(100)는 자율주행 차량의 위치정보를 실시간 측정한다. 상기 위치정보 측정부(100)는 차량의 현재 위치 정보와 지도정보를 위성으로부터 받을 수 있다. 상기 위치정보 측정부(100)는 네베게이션, GNSS등을 포함할수 있다. The location information measurement unit 100 measures location information of the autonomous vehicle in real time. The location information measuring unit 100 may receive current location information and map information of the vehicle from a satellite. The location information measuring unit 100 may include navigation, GNSS, and the like.

환경인지 센서부(200)는 상기 자율주행 차량의 주변 영상을 실시간 촬영할 수 있다. 상기 환경인지 센서부(200)는 Lidar, 카메라, 스테레오 카메라 등을 포함할 수 있다.The environment-aware sensor unit 200 may capture images around the autonomous vehicle in real time. The environment recognition sensor unit 200 may include a lidar, a camera, a stereo camera, and the like.

레이더 감지부(300)는 차량 외부 환경의 사물의 속성 및 움직임 정보를 출력한다. 상기 레이더 정보 분석을 통하여 주행 차량의 주변 차량의 움직임 방향 및 속도, 신호등, 보행자, 장애물 등의 외부 상황의 주요 위험 정보를 출력할 수 있다. 상기 레이더 감지부(300)는 V2X 단말기, 전방 레이더, 후측방 레이더 등을 포함할 수 있다.The radar detector 300 outputs property and motion information of an object in the vehicle external environment. Through the analysis of the radar information, it is possible to output main risk information of an external situation such as a movement direction and speed of a vehicle surrounding the driving vehicle, a traffic light, a pedestrian, an obstacle, and the like. The radar detector 300 may include a V2X terminal, a front radar, a rear radar, and the like.

센서융합 측위부(400)는 상기 위치정보 측정부(100)의 위치 정보와 상기 환경인지 센서부(200)의 촬영 영상을 기반으로 맵매칭 기술을 통해 정확한 차량 위치를 추정할 수 있다.The sensor fusion positioning unit 400 may estimate the exact vehicle location through map matching technology based on the location information of the location information measurement unit 100 and the captured image of the environment recognition sensor unit 200 .

주변환경 인지부(500)는 상기 환경인지 센서부(200)의 촬영 영상과 상기 레이더 감지부(300)의 주요 위험 정보를 기반으로 주변 환경 정보를 출력할 수 있다. The surrounding environment recognizing unit 500 may output surrounding environment information based on the captured image of the environment recognizing sensor unit 200 and main risk information of the radar sensing unit 300 .

주행경로 생성부(600)는 상기 센서융합 측위부(400)와 상기 주변환경 인지부(500)의 출력 정보를 융합하여 경로를 생성할 수 있다. The driving path generating unit 600 may generate a path by fusing the output information of the sensor fusion positioning unit 400 and the surrounding environment recognition unit 500 .

차량제어부(700)는 상기 주행경로부에서 생성된 경로를 기반으로 차량을 자율주행 할 수 있다. The vehicle control unit 700 may autonomously drive the vehicle based on the path generated by the driving path unit.

도 2는 본 발명의 일실시례에 따른 터널 조명을 이용한 자율주행 차량 항법 시스템의 맵매칭 기술을 도시한 개념도이다.2 is a conceptual diagram illustrating a map matching technology of an autonomous vehicle navigation system using tunnel lighting according to an embodiment of the present invention.

도 2(a)는 위치정보 측정부(100)를 통한 위성측위 예시도이다.FIG. 2(a) is an exemplary view of satellite positioning through the location information measuring unit 100 .

위치정보 측정부(100)를 네비게이션과 GNSS 등의 센서를 활용하여 위성 측위를 실행하고, 상기 위성 측위 정보를 기반으로 현재 주행 차량의 센서융합용 정밀지도(220)를 구축할 수 있다.The location information measurement unit 100 may perform satellite positioning by using sensors such as navigation and GNSS, and based on the satellite positioning information, a precision map 220 for sensor fusion of a currently driving vehicle may be built.

도 2(b)는 환경인지 센서부(200)를 통한 차선 추출 예시도이다.2( b ) is an exemplary diagram of lane extraction through the environment recognition sensor unit 200 .

환경인지 센서부(200)는 Lidar을 기반으로 하여 터널 내 차량 전방의 기하 구조물(222)을 추축할 수 있다.The environment recognition sensor unit 200 may pivot the geometric structure 222 in front of the vehicle in the tunnel based on the lidar.

상기 환경인지 센서부(200)는 전방 영상에서 LKAS, LDWS 등의 ADAS 시스템을 기반으로 영상 내에서 차선(224)을 추축할수 있다.The environment recognition sensor unit 200 may extract a lane 224 from the front image based on an ADAS system such as LKAS or LDWS.

도 3(c)은 측위 정보 확률적 결합 기술과 센서 데이터 매칭 기술을 사용하여 미리 구축되어 있는 지도와 상기 추측된 차선을 매칭(226)함으로서 차량의 위치(228)를 정확히 추정할수 있다.3(c) shows that the location 228 of the vehicle can be accurately estimated by matching (226) the pre-built map and the estimated lane using the positioning information probabilistic combining technique and the sensor data matching technique.

도 3은 본 발명의 맵매칭을 위한 터널 조명 검출 기법을 도시한 블록도이다.3 is a block diagram illustrating a tunnel lighting detection technique for map matching according to the present invention.

자율주행 차량에 장착된 카메라로부터 차량 전방의 영상을 입력 받는다(S301).An image of the front of the vehicle is received from a camera mounted on the autonomous vehicle (S301).

상기 전방 영상을 일정 이상의 임계값을 갖는 이진화 영상으로 변환한다. 상기 이진화 영상 중 라벨링 기법을 이용하여, 일정 크기 이상이고, 특정 가로 대 세로 비를 가지며, 영역 내 차지하는 밝은 픽셀의 비율이 일정 이상인 부분을 터널 조명 후보군으로 결정한다(S302).The front image is converted into a binarized image having a threshold value greater than or equal to a certain threshold. Using a labeling technique among the binarized images, a portion having a predetermined size or more, a specific horizontal to vertical ratio, and a ratio of bright pixels occupying an area of a predetermined or more is determined as a tunnel illumination candidate group (S302).

상기 터널 조명 후보군 이외의 지역은 노이즈로 판단하고 제거한다(S303). 상기 검출된 터널 조명 후보군을 맵매칭을 위한 차량 중심 좌표계로 변환하여야 한다. 이를 위해 아래 수식과 같은 변환 공식을 적용하여 차량 중심 좌표계로 변환한다(S304). Areas other than the tunnel lighting candidate group are determined as noise and removed (S303). The detected tunnel lighting candidate group should be converted into a vehicle-centered coordinate system for map matching. To this end, it is converted into a vehicle-centered coordinate system by applying a transformation formula as shown in the following equation (S304).

(수학식 1) (Equation 1)

Figure 112015121118037-pat00001
Figure 112015121118037-pat00001

(수학식 2)(Equation 2)

Figure 112015121118037-pat00002
Figure 112015121118037-pat00002

여기에서, u, v는 영상 좌표계 값, X, Y, Z는 차량 중심 좌표계의 값을 나타낸다. s는 Homogenous 좌표계의 일종의 scale factor를, M은 카메라의 intrinsic parameters를, r1 r2 r3 t는 카메라의 extrinsic parameter를 각각 의미한다. h1~h9는 영상 좌표계에서 차량 중심 좌표계로의 이동을 위한 parameter 들로, 이미지와 차량 중심 좌표계의 최소 4개의 좌표상 좌표 쌍을 통해 계산할 수 있다. 이때 계산된 터널 조명의 높이 (Z) 값은 미리 알고 있어야 한다.Here, u and v represent values of the image coordinate system, and X, Y, and Z represent values of the vehicle center coordinate system. s stands for a kind of scale factor of the homogenous coordinate system, M stands for intrinsic parameters of the camera, and r1 r2 r3 t stands for extrinsic parameters of the camera, respectively. h1 to h9 are parameters for moving from the image coordinate system to the vehicle-centered coordinate system, and can be calculated using at least four coordinate pairs of the image and the vehicle-centered coordinate system. At this time, the calculated height (Z) value of the tunnel lighting should be known in advance.

상기 변환된 조명의 값은 미리 구축되어 있는 지도와 매칭을 통하여 자율주행 차량의 위치를 파악하는 맵매칭 기법에 사용된다. 상기 맵매칭 기법을 통해 차선과 같이 오염이나 정체로 인해 검출 정확도가 하락하는 문제를 근원적으로 해결할 수 있으며, 처리속도가 빠르고 정확도가 높아 자율주행을 위한 측위 시스템의 성능향상에 큰 도움을 줄 수 있다. The converted illumination value is used in a map matching technique for identifying the location of an autonomous vehicle through matching with a map that has been built in advance. Through the map matching technique, it is possible to fundamentally solve the problem of a decrease in detection accuracy due to pollution or congestion, such as lanes, and it can greatly help improve the performance of the positioning system for autonomous driving due to its high processing speed and high accuracy. .

도 4는 터널 조명을 이용한 자율주행 차량 항법 시스템의 예시도이다.4 is an exemplary diagram of an autonomous vehicle navigation system using tunnel lighting.

도 4를 참조하면, 차선(410)을 이용한 맵매칭 기법은, 상기 차선(410)의 모양이 종방향으로 연속되어 있다는 특성으로 인해, 횡방향 측위는 상대적으로 정확하나 종방향 측위는 그 정확도가 떨어진다는 한계점을 가지고 있다. 특히 절대 측위 정보를 송출해 주는 GPS를 터널 내에선 전혀 사용할 수 없으므로, 맵매칭의 종방향 에러는 계속해서 누적된. 따라서 터널을 통과할 때쯤에는 수십 미터에서 터널의 길이에 따라 백 미터 이상까지 종방향 측위 오차가 발생할 수 있다. 제안하는 특허에서는 터널 내 설치되어 있는 중앙등(420)을 맵매칭 특징으로 이용하여, 위와 같은 근본적인 문제점을 해결한다. 이 또한 상기 중앙등(420)의 실제 설치 위치 (X,Y,Z)를 미리 지도상에 저장해 두고, 전방카메라로 검출된 상기 중앙등(420)을 좌표 변환하여 맵매칭하는 기법으로 수행된다. 이를 통해, 종방향 에러의 누적을 막을 수 있으며 터널 내 자율주행 항법시스템의 정확도를 획기적으로 향상시킬 수 있다.Referring to FIG. 4 , in the map matching technique using the lane 410, lateral positioning is relatively accurate due to the characteristic that the shape of the lane 410 is continuous in the longitudinal direction, but the accuracy of the longitudinal positioning is low. There is a limit to falling. In particular, since GPS, which transmits absolute positioning information, cannot be used in the tunnel at all, the longitudinal error of map matching continues to accumulate. Therefore, when passing through the tunnel, a longitudinal positioning error may occur from several tens of meters to more than 100 meters depending on the length of the tunnel. In the proposed patent, the central light 420 installed in the tunnel is used as a map matching feature to solve the above fundamental problem. This is also performed by storing the actual installation location (X, Y, Z) of the center light 420 on the map in advance, and map matching by converting the coordinates of the center light 420 detected by the front camera. In this way, the accumulation of longitudinal errors can be prevented and the accuracy of the autonomous navigation system in the tunnel can be dramatically improved.

이상에서는 본 발명의 바람직한 실시례에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시례에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and in the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100 : 위치정보 측정부
200 : 환경인지 센서부
300 : 레이더 감지부
400 : 센서융합 측위부
500: 주변환경 인지부
600 : 주행경로 생성부
700: 차량제어부
100: location information measurement unit
200: environment perception sensor unit
300: radar detection unit
400: sensor fusion positioning unit
500: environmental awareness unit
600: driving route generation unit
700: vehicle control unit

Claims (7)

차량의 위치정보와 지도정보를 측위를 하는 위치정보 측정부;
차량 주변을 촬영하는 환경인지 센서부;
차량 주변을 사물을 감지하는 레이더 감지부;
상기 위치정보 측정부의 차량 위치와 상기 환경인지 센서부의 촬영 영상을 기반으로 미리 정확한 자차 위치를 추정하는 센서융합 측위부;
상기 촬영 영상과 사물을 기반으로 주변 환경 정보를 출력하는 주변환경 인지부;
상기 측위 정보와 주변 환경 정보를 융합하여 차량의 주행 경로를 생성하는 주행경로 생성부; 및
상기 생성된 경로를 기반으로 차량을 제어하는 차량제어부;
를 포함하는 터널 조명을 이용한 자율주행 차량 항법 장치.
a location information measurement unit for positioning vehicle location information and map information;
an environment-aware sensor unit for photographing the surroundings of the vehicle;
a radar detector for detecting objects around the vehicle;
a sensor fusion positioning unit for estimating an accurate location of the own vehicle in advance based on the vehicle location of the location information measuring unit and the captured image of the environment recognition sensor unit;
a surrounding environment recognition unit for outputting surrounding environment information based on the captured image and the object;
a driving path generating unit generating a driving path of the vehicle by fusing the positioning information and surrounding environment information; and
a vehicle control unit for controlling a vehicle based on the generated path;
An autonomous vehicle navigation device using tunnel lighting comprising a.
제 1 항에 있어서.
상기 주변환경 인지부는 상기 환경인지 센서부의 영상 정보와 근거로 터널 조명을 검출하여 가상의 차선정보를 이용하여 가상경로를 설정하는 터널 조명을 이용한 자율주행 차량 항법 장치.
The method of claim 1 .
The autonomous driving vehicle navigation device using tunnel lighting, wherein the ambient environment recognition unit detects tunnel lighting based on the image information and the basis of the environment recognition sensor unit and sets a virtual route using virtual lane information.
제 1 항에 있어서
상기 주행경로 생성부는 검출된 가상의 차선정보와 획득된 실제 차선정보의 맵 매칭을 통하여 상기 차량의 현재 위치정보를 보정하는
터널 조명을 이용한 자율주행 차량 항법 장치.
2. The method of claim 1
The driving route generator corrects the current location information of the vehicle through map matching between the detected virtual lane information and the acquired real lane information.
Autonomous vehicle navigation system using tunnel lighting.
제 1 항에 있어서
상기 센서융합 측위부는 상기 환경인지 센서부로부터 영상을 일정 이상의 임계값을 갖는 이진화 영상으로 변환하는 터널 조명을 이용한 자율주행 차량 항법 장치.
2. The method of claim 1
The sensor fusion positioning unit is an autonomous vehicle navigation device using tunnel lighting that converts an image from the environment recognition sensor unit into a binarized image having a threshold value greater than or equal to a certain threshold.
카메라를 통해 차량 전방 영상을 출력하는 단계;
상기 전방 영상을 이진화 영상으로 변환하는 단계;
상기 이진화 영상에서 터널 조명 후보군을 추출하는 단계;
상기 터널 조명 후보군을 차량 중심 좌표계로 변환하는 단계;
상기 좌표계를 지도와 상기 차량의 위치에 맵 매칭하는 단계;
상기 맵 매칭 정보를 이용하여 자율주행하는 단계;
를 포함하되,
상기 이진화 영상에서 터널 조명 후보군을 추출하는 단계는,
상기 이진화 영상 중, 일정 크기 이상이고, 특정 가로 대 세로 비를 가지며, 영역 내 차지하는 밝은 픽셀의 비율이 일정 이상인 부분을 터널 조명 후보군으로 결정하는 단계를 포함하는
터널 조명을 이용한 자율주행 차량 항법 시스템의 제어방법.
outputting an image in front of the vehicle through a camera;
converting the front image into a binarized image;
extracting a tunnel illumination candidate group from the binarized image;
converting the tunnel lighting candidate group into a vehicle-centered coordinate system;
map matching the coordinate system to a map and a location of the vehicle;
autonomous driving using the map matching information;
including,
Extracting the tunnel lighting candidate group from the binarized image comprises:
Determining a portion of the binarized image that is larger than a certain size, has a specific aspect ratio, and has a ratio of bright pixels occupying a certain area or higher, as a tunnel illumination candidate group
A method of controlling an autonomous vehicle navigation system using tunnel lighting.
제 5 항에 있어서
상기 차량 중심 좌표계 변환 단계는 터널 내 조명의 높이를 이용하여 상기 차량 중심 좌표계를 측정하는 것을 특징으로 하는 터널 조명을 이용한 자율주행 차량 항법 시스템의 제어방법.
6. The method of claim 5
The vehicle-centered coordinate system transformation step is a control method of an autonomous vehicle navigation system using tunnel lighting, characterized in that the vehicle-centered coordinate system is measured using the height of the lighting in the tunnel.
제 5 항에 있어서
상기 맵 매칭 단계는 중앙등의 설치 위치를 미리 지도상에 저장해 두고, 전방카메라로 검출된 중앙등을 좌표 변환하여 맵매칭하는 것을 특징으로 하는 터널 조명을 이용한 자율주행 차량 항법 시스템의 제어방법.
6. The method of claim 5
The map matching step stores the installation location of the center light on a map in advance, converts the coordinates of the center light detected by the front camera, and matches the map.
KR1020150176020A 2015-12-10 2015-12-10 Autonomous driving vehicle navigation system using the tunnel lighting KR102428765B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150176020A KR102428765B1 (en) 2015-12-10 2015-12-10 Autonomous driving vehicle navigation system using the tunnel lighting
KR1020200055203A KR102385907B1 (en) 2015-12-10 2020-05-08 Method And Apparatus for Autonomous Vehicle Navigation System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150176020A KR102428765B1 (en) 2015-12-10 2015-12-10 Autonomous driving vehicle navigation system using the tunnel lighting

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200055203A Division KR102385907B1 (en) 2015-12-10 2020-05-08 Method And Apparatus for Autonomous Vehicle Navigation System

Publications (2)

Publication Number Publication Date
KR20170068937A KR20170068937A (en) 2017-06-20
KR102428765B1 true KR102428765B1 (en) 2022-08-02

Family

ID=59281139

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150176020A KR102428765B1 (en) 2015-12-10 2015-12-10 Autonomous driving vehicle navigation system using the tunnel lighting

Country Status (1)

Country Link
KR (1) KR102428765B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109597404A (en) * 2017-09-30 2019-04-09 徐工集团工程机械股份有限公司 Road roller and its controller, control method and system
KR102030612B1 (en) * 2018-08-23 2019-10-10 한국지질자원연구원 Navigation system using map which position is defined as spatial shape information
KR20200064339A (en) 2018-11-29 2020-06-08 주식회사 파인디지털 Electronic device for vehicle and method for performing position determination of vehicle in a tunnel using an image
KR102610752B1 (en) * 2018-12-10 2023-12-08 현대자동차주식회사 Apparatus and method for controlling automonous driving of vehicle
KR102290026B1 (en) * 2019-05-30 2021-08-13 한양대학교 산학협력단 Waypoint pose detection and positioning method and apparatus using waypoints
CN115147785B (en) * 2021-03-29 2024-08-23 东风汽车集团股份有限公司 Vehicle identification method and device, electronic equipment and storage medium
KR102595416B1 (en) 2021-11-11 2023-10-27 재단법인 지능형자동차부품진흥원 Method for estimating location of autonomous vehicle in shadow area and autonomous driving system for thereof
KR102701822B1 (en) 2022-01-19 2024-09-05 현대건설주식회사 A tunnel civil surveying and monitoring robot capable of positioning by text recognition and a surveying method using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108043A (en) * 2005-10-14 2007-04-26 Xanavi Informatics Corp Location positioning device, location positioning method
JP2007240380A (en) * 2006-03-09 2007-09-20 Alpine Electronics Inc Intra-tunnel position detector

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150084143A (en) * 2014-01-13 2015-07-22 한양대학교 산학협력단 Self-control driving device based on various driving environment in autonomous vehicle and path planning method for the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108043A (en) * 2005-10-14 2007-04-26 Xanavi Informatics Corp Location positioning device, location positioning method
JP2007240380A (en) * 2006-03-09 2007-09-20 Alpine Electronics Inc Intra-tunnel position detector

Also Published As

Publication number Publication date
KR20170068937A (en) 2017-06-20

Similar Documents

Publication Publication Date Title
KR102428765B1 (en) Autonomous driving vehicle navigation system using the tunnel lighting
CN110174093B (en) Positioning method, device, equipment and computer readable storage medium
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
EP3137850B1 (en) Method and system for determining a position relative to a digital map
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
US11250288B2 (en) Information processing apparatus and information processing method using correlation between attributes
CN110530372B (en) Positioning method, path determining device, robot and storage medium
CN112074885A (en) Lane sign positioning
CN108692719B (en) Object detection device
US9123242B2 (en) Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
CN109374008A (en) A kind of image capturing system and method based on three mesh cameras
CN106463051B (en) Traffic signal recognition device and traffic signal recognition method
JP7190261B2 (en) position estimator
US11204610B2 (en) Information processing apparatus, vehicle, and information processing method using correlation between attributes
WO2016178335A1 (en) Lane detection apparatus and lane detection method
CN111025308B (en) Vehicle positioning method, device, system and storage medium
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
US11468691B2 (en) Traveling lane recognition apparatus and traveling lane recognition method
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
JP2018084492A (en) Self-position estimation method and self-position estimation device
JP7526858B2 (en) Measurement device, measurement method, and program
KR102385907B1 (en) Method And Apparatus for Autonomous Vehicle Navigation System
JP2023181415A (en) Information processing device
JP2018205142A (en) Position estimation device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant