KR102176834B1 - Environment feature based position recognition apparatus and method for autonomous vehicles - Google Patents

Environment feature based position recognition apparatus and method for autonomous vehicles Download PDF

Info

Publication number
KR102176834B1
KR102176834B1 KR1020190008710A KR20190008710A KR102176834B1 KR 102176834 B1 KR102176834 B1 KR 102176834B1 KR 1020190008710 A KR1020190008710 A KR 1020190008710A KR 20190008710 A KR20190008710 A KR 20190008710A KR 102176834 B1 KR102176834 B1 KR 102176834B1
Authority
KR
South Korea
Prior art keywords
road
vehicle
driving
map
driving lane
Prior art date
Application number
KR1020190008710A
Other languages
Korean (ko)
Other versions
KR20200094841A (en
Inventor
강연식
황종락
안경재
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Priority to KR1020190008710A priority Critical patent/KR102176834B1/en
Publication of KR20200094841A publication Critical patent/KR20200094841A/en
Application granted granted Critical
Publication of KR102176834B1 publication Critical patent/KR102176834B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율주행차량의 환경특징 기반 위치인식 장치에 관한 것으로, 주행차선 정보를 가지는 도로 지도를 수신하는 도로 지도 수신부, 라이다 센서를 통해 수신된 적어도 하나의 객체 중 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 객체를 결정하는 도로 객체 결정부, 결정된 상기 객체를 상기 도로 지도에 반영하여 주행환경 지도를 생성하는 주행환경 지도 생성부 및 결정된 상기 객체의 반사각 패턴을 기초로 차량의 주행차선 위치를 결정하는 주행차선 위치 결정부를 포함한다. 따라서, 본 발명은 라이다 정보를 통해 지상의 반사율이 높은 물체를 인식하여 자율주행차량의 위치를 인식할 수 있다.The present invention relates to a location recognition device based on environmental characteristics of an autonomous vehicle, a road map receiving unit that receives a road map with driving lane information, a specific height reference and a specific reflectance reference among at least one object received through a lidar sensor A road object determination unit that determines an object having an abnormality, a driving environment map generation unit that generates a driving environment map by reflecting the determined object on the road map, and determines the driving lane position of the vehicle based on the determined reflection angle pattern of the object And a driving lane positioning unit. Therefore, the present invention can recognize the position of the autonomous vehicle by recognizing an object having a high reflectance on the ground through the lidar information.

Description

자율주행차량의 환경특징 기반 위치인식 장치 및 방법 {ENVIRONMENT FEATURE BASED POSITION RECOGNITION APPARATUS AND METHOD FOR AUTONOMOUS VEHICLES}Location recognition device and method based on environmental characteristics of autonomous vehicles {ENVIRONMENT FEATURE BASED POSITION RECOGNITION APPARATUS AND METHOD FOR AUTONOMOUS VEHICLES}

본 발명은 차량의 환경특징 기반의 위치인식 기술에 관한 것으로, 보다 상세하게는 라이다 정보를 통해 지상의 반사율이 높은 물체를 인식하여 자율주행차량의 위치를 인식하는 자율주행차량의 환경특징 기반 위치인식 장치 및 방법에 관한 것이다.The present invention relates to a location recognition technology based on the environmental characteristics of a vehicle, and more particularly, the location based on environmental characteristics of an autonomous vehicle that recognizes the location of the autonomous vehicle by recognizing an object with high reflectance on the ground through LiDAR information. It relates to a recognition device and method.

자율주행자동차란 운전자 또는 승객의 조작 없이 자동차 스스로 운행이 가능한 자동차를 말한다. 자율주행자동차는 네비게이션처럼 GNSS(Global Navigation Satellite Sysrem)를 통해 자차량의 위치를 인식하여 그에 따라 주행을 한다. 여기에서, 자율주행 기술 중 위치인식은 자신의 위치를 나타내는 기술로 위치인식의 강인함에 따라 자율주행의 정밀도가 결정되는 필수적인 기술이다. 자율주행에서 위치인식 기술은 위성 기반 측위 시스템(GNSS)과 자율주행 차량에 장착된 센서를 이용한 위치인식 방법이 있다. 그러나, 터널과 고층 빌딩의 도심지 등 위성의 수신이 어려운 음영지역에서는 위치인식 오차가 크게 발생하여 실외 자율주행에 어려움이 있다. 또한 카메라 센서를 이용한 위치 인식 기법은 기상 환경에 영향을 많이 받으며 주변 환경상황에 따라 실외에 있는 특징이 측정되지 않는 문제가 있다. 따라서, 음영지역에 영향을 받지 않으며 환경에 강인한 물체 감지를 통한 위치인식 방식이 필요하다.An autonomous vehicle refers to a vehicle that can operate by itself without driver or passenger manipulation. The autonomous vehicle recognizes the location of its own vehicle through GNSS (Global Navigation Satellite Sysrem) like a navigation system and drives accordingly. Here, among autonomous driving technologies, position recognition is a technology that indicates one's own position, and is an essential technology that determines the precision of autonomous driving according to the robustness of position recognition. Location recognition technology in autonomous driving includes a satellite-based positioning system (GNSS) and a location recognition method using sensors mounted on autonomous vehicles. However, in shaded areas where satellite reception is difficult, such as tunnels and urban areas of high-rise buildings, location recognition errors are large, making outdoor autonomous driving difficult. In addition, the location recognition technique using a camera sensor is highly affected by the weather environment, and there is a problem in that outdoor features are not measured depending on the surrounding environment. Therefore, there is a need for a location recognition method through detection of an object that is not affected by shaded areas and is robust to the environment.

한국공개특허 제10-2007-0090426 (2007.09.06)호Korean Patent Publication No. 10-2007-0090426 (2007.09.06)

본 발명의 일 실시예는 라이다 정보를 통해 지상의 반사율이 높은 객체를 인식하여 자율주행차량의 위치를 인식하는 자율주행차량의 환경특징 기반 위치인식 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is to provide a location recognition apparatus and method based on environmental characteristics of an autonomous vehicle that recognizes an object having a high reflectance on the ground through LiDAR information to recognize the location of the autonomous vehicle.

본 발명의 일 실시예는 터널이나 고층 빌딩이 있는 도심지 등의 위성이 수신이 어려운 음영지역에 영향을 받지 않으면서 환경에 강인한 물체(객체) 감지를 통해 자율주행차량의 위치를 인식하는 자율주행차량의 환경특징 기반 위치인식 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is an autonomous vehicle that recognizes the location of an autonomous vehicle through detection of an object (object) that is robust to the environment without being affected by a shadowed area where satellites are difficult to receive, such as a tunnel or a high-rise building. To provide a location recognition device and method based on environmental characteristics of

본 발명의 일 실시예는 자율주행에 필요한 환경 및 위치 인식 기술로서, 자율주행에 관련된 자동차, 실외 로봇 등 자율주행 이동수단 전반에 걸쳐 사용될 수 있는 자율주행차량의 환경특징 기반 위치인식 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is an environment and location recognition technology required for autonomous driving. An apparatus and method for recognizing a location based on environmental characteristics of an autonomous vehicle that can be used throughout autonomous driving means such as automobiles and outdoor robots related to autonomous driving. I want to provide.

실시예들 중에서, 자율주행차량의 환경특징 기반 위치인식 장치는 주행차선 정보를 가지는 도로 지도를 수신하는 도로 지도 수신부, 라이다 센서를 통해 수신된 적어도 하나의 객체 중 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 객체를 결정하는 도로 객체 결정부, 결정된 상기 객체를 상기 도로 지도에 반영하여 주행환경 지도를 생성하는 주행환경 지도 생성부 및 결정된 상기 객체의 반사각 패턴을 기초로 차량의 주행차선 위치를 결정하는 주행차선 위치 결정부를 포함한다.Among the embodiments, the apparatus for recognizing a location based on environmental characteristics of an autonomous vehicle is a road map receiving unit that receives a road map with driving lane information, and a specific height reference and a specific reflectance reference among at least one object received through a lidar sensor. A road object determination unit that determines an object having a, a driving environment map generation unit that generates a driving environment map by reflecting the determined object on the road map, and determines a driving lane position of the vehicle based on the determined reflection angle pattern of the object. It includes a driving lane positioning unit.

상기 도로 지도 수신부는 주행도로의 상부에 배치되는 도로표지판의 위치를 수신하여 상기 도로 지도에 맵핑할 수 있다.The road map receiver may receive a location of a road sign disposed on an upper portion of a driving road and map it to the road map.

상기 도로 객체 결정부는 상기 차량의 주행 과정에서 상기 도로표지판의 위치가 특정 거리 이내에 위치되면 상기 라이다 센서를 통해, 결정된 상기 객체로서 상기 도로표지판을 검출할 수 있다.The road object determination unit may detect the road sign as the determined object through the lidar sensor when the position of the road sign is located within a specific distance during the driving process of the vehicle.

상기 도로 객체 결정부는 상기 도로표지판까지 남은 거리를 기초로 상기 특정 높이 기준 및 상기 특정 반사율 기준을 산출할 수 있다.The road object determination unit may calculate the specific height reference and the specific reflectance reference based on the remaining distance to the road sign.

상기 도로 객체 결정부는 상기 차량의 주행속도를 기초로, 결정된 상기 객체가 상기 도로표지판에 해당하는지 여부를 검증할 수 있다.The road object determination unit may verify whether the determined object corresponds to the road sign based on the driving speed of the vehicle.

상기 주행차선 위치 결정부는 상기 적어도 하나의 객체 중 특정 패턴을 가지는 지면 객체를 검출하여 양 차선들 사이에서의 상기 차량의 위치를 결정할 수 있다.The driving lane position determining unit may determine a position of the vehicle between both lanes by detecting a ground object having a specific pattern among the at least one object.

상기 주행차선 위치 결정부는 상기 표지판들의 반사각 패턴을 검출하여 상기 차량의 주행차선 위치를 갱신할 수 있다. The driving lane position determining unit may update the driving lane position of the vehicle by detecting reflection angle patterns of the signs.

상기 주행차선 위치 결정부는 상기 양 차선들의 상기 차량간 간격 변화율을 기초로 상기 차량의 차선 변경 의도를 검출하여 상기 차량의 주행차선 위치를 갱신할 수 있다.The driving lane position determining unit may update the driving lane position of the vehicle by detecting the intention to change the lane of the vehicle based on the rate of change of the gap between the vehicles of the two lanes.

상기 주행차선 위치 결정부는 결정된 상기 객체의 중앙을 결정하고 상기 중앙에서 이탈된 양 끝단의 각도 편차를 산출하여 상기 차량의 주행차선 위치를 결정할 수 있다.The driving lane position determining unit may determine the position of the driving lane of the vehicle by determining a center of the determined object and calculating angular deviations of both ends deviated from the center.

실시예들 중에서, 자율주행차량의 환경특징 기반 위치인식 방법은 주행차선 정보를 가지는 도로 지도를 수신하는 단계, 라이다 센서를 통해 수신된 적어도 하나의 객체 중 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 객체를 결정하는 단계, 결정된 상기 객체를 상기 도로 지도에 반영하여 주행환경 지도를 생성하는 단계 및 결정된 상기 객체의 반사각 패턴을 기초로 차량의 주행차선 위치를 결정하는 단계를 포함할 수 있다.Among embodiments, the method for recognizing a location based on environmental characteristics of an autonomous vehicle includes receiving a road map having information on a driving lane, and having a specific height reference and a specific reflectance reference or higher among at least one object received through a lidar sensor. Determining an object, generating a driving environment map by reflecting the determined object on the road map, and determining a driving lane position of the vehicle based on the determined reflection angle pattern of the object.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology can have the following effects. However, since it does not mean that a specific embodiment should include all of the following effects or only the following effects, it should not be understood that the scope of the rights of the disclosed technology is limited thereby.

본 발명의 일 실시예에 따른 자율주행차량의 환경특징 기반 위치인식 장치 및 방법은 라이다 정보를 통해 지상의 반사율이 높은 물체를 인식하여 자율주행차량의 위치를 인식할 수 있다.The apparatus and method for recognizing a location based on environmental characteristics of an autonomous vehicle according to an embodiment of the present invention may recognize an object having a high reflectance on the ground through LiDAR information to recognize the location of the autonomous vehicle.

본 발명의 일 실시예에 따른 자율주행차량의 환경특징 기반 위치인식 장치 및 방법은 터널이나 고층 빌딩이 있는 도심지 등의 위성이 수신이 어려운 음영지역에 영향을 받지 않으면서 환경에 강인한 물체 감지를 통해 자율주행차량의 위치를 인식할 수 있다. 즉, 본 발명은 실외, 다양하고 복잡한 환경과 폭우 등 기상 악조건에서도 자율주행에 필요한 강인한 위치인식이 가능하며 그에 따라, 향후 자율주행에 관련되어 적용범위가 넓다.The apparatus and method for recognizing a location based on environmental features of an autonomous vehicle according to an embodiment of the present invention are not affected by shadowed areas where satellites are difficult to receive, such as tunnels or high-rise buildings, through detection of objects that are robust to the environment. It can recognize the location of an autonomous vehicle. That is, the present invention enables robust location recognition required for autonomous driving outdoors, even in adverse weather conditions such as various and complex environments and heavy rain, and accordingly, the scope of application related to future autonomous driving is wide.

본 발명의 일 실시예에 따른 자율주행차량의 환경특징 기반 위치인식 장치 및 방법은 자율주행에 필요한 환경 및 위치 인식 기술로서, 자율 주행에 관련된 자동차, 실외 로봇 등 자율주행 이동수단 전반에 걸쳐 사용될 수 있다.The device and method for location recognition based on environmental characteristics of an autonomous vehicle according to an embodiment of the present invention is a technology for recognizing the environment and location required for autonomous driving, and can be used throughout autonomous driving vehicles such as vehicles and outdoor robots related to autonomous driving. have.

도 1은 본 발명의 일 실시예에 따른 자율주행차량의 환경특징 기반 위치인식 시스템을 설명하는 도면이다.
도 2는 도 1에 있는 자율주행차량의 환경특징 기반 위치인식 장치를 나타내는 블록도이다.
도 3은 도 1에 있는 자율주행차량의 환경특징 기반 위치인식 장치의 기능적 구성을 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 자율주행차량의 환경특징 기반 위치인식 방법을 설명하는 흐름도이다.
FIG. 1 is a diagram illustrating a location recognition system based on environmental features of an autonomous vehicle according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a location recognition device based on environmental features of the autonomous vehicle of FIG. 1.
FIG. 3 is a block diagram showing a functional configuration of a location recognition device based on environmental features of the autonomous vehicle shown in FIG. 1.
4 is a flowchart illustrating a method of recognizing a location based on environmental features of an autonomous vehicle according to an embodiment of the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the embodiments can be variously changed and have various forms, the scope of the present invention should be understood to include equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only those effects, the scope of the present invention should not be understood as being limited thereto.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are used to distinguish one component from other components, and the scope of rights is not limited by these terms. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" to another component, it should be understood that although it may be directly connected to the other component, another component may exist in the middle. On the other hand, when it is mentioned that a certain component is "directly connected" to another component, it should be understood that no other component exists in the middle. On the other hand, other expressions describing the relationship between the constituent elements, that is, "between" and "just between" or "neighboring to" and "directly neighboring to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions are to be understood as including plural expressions unless the context clearly indicates otherwise, and terms such as “comprise” or “have” refer to implemented features, numbers, steps, actions, components, parts, or It is to be understood that it is intended to designate that a combination exists and does not preclude the presence or addition of one or more other features or numbers, steps, actions, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (for example, a, b, c, etc.) is used for convenience of explanation, and the identification code does not describe the order of each step, and each step has a specific sequence clearly in context. Unless otherwise stated, it may occur differently from the stated order. That is, each of the steps may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the field to which the present invention belongs, unless otherwise defined. Terms defined in commonly used dictionaries should be construed as having meanings in the context of related technologies, and cannot be construed as having an ideal or excessive formal meaning unless explicitly defined in the present application.

도 1은 본 발명의 일 실시예에 따른 자율주행차량의 환경특징 기반 위치인식 시스템을 설명하는 도면이다.FIG. 1 is a diagram illustrating a location recognition system based on environmental features of an autonomous vehicle according to an embodiment of the present invention.

도 1을 참조하면, 자율주행차량의 환경특징 기반 위치인식 시스템(100)은 자율주행차량의 환경특징 기반 위치인식 장치(110, 이하, 환경특징 기반 위치인식 장치), 라이다 센서(120) 및 데이터베이스(130)을 포함한다.Referring to FIG. 1, a location recognition system based on environmental features of an autonomous vehicle 100 includes a location recognition device based on environmental features (110, hereinafter, a location recognition device based on environmental features), a lidar sensor 120, and Includes database 130.

환경특징 기반 위치인식 장치(110)는 라이다 센서(120)와 유무선 네트워크를 통해 연결되어 라이다 정보를 수신하는 컴퓨팅 장치에 해당할 수 있다. 일 실시예에서, 환경특징 기반 위치인식 장치(110)는 라이다 정보를 기초로 반사율이 높은 특정 물체(도로 객체)를 검출하여 자율주행차량의 위치를 인식할 수 있다. 보다 구체적으로, 환경특징 기반 위치인식 장치(110)는 도로 위 특정 객체에 대한 환경특징 추출을 통해 주행환경 지도를 생성하고 도로 지도와 비교함으로써 자율주행차량의 위치를 추정할 수 있다. 예를 들어, 환경특징 기반 위치인식 장치(110)는 터널 등 위성신호의 수신이 불가능한 장소에서도 자율주행차량의 위치를 정확하게 인식할 수 있다.The environment feature-based location recognition device 110 may correspond to a computing device that is connected to the lidar sensor 120 through a wired or wireless network to receive lidar information. In an embodiment, the environment feature-based location recognition device 110 may detect a specific object (road object) having high reflectivity based on LiDAR information to recognize the location of the autonomous vehicle. More specifically, the environment feature-based location recognition device 110 may estimate the location of the autonomous vehicle by generating a driving environment map by extracting environmental features for a specific object on the road and comparing it with the road map. For example, the environment feature-based location recognition device 110 can accurately recognize the location of an autonomous vehicle even in a place where satellite signals cannot be received, such as a tunnel.

라이다 센서(Light Detection And Ranging, LIDAR)(120)는 자율주행차량에 장착되어 목표물의 반사율, 위치정보 등을 포함하는 포인트 클라우드 정보를 자율주행차량에 제공할 수 있다. 보다 구체적으로, 라이다 센서(120)는 자율주행차량의 주변 목표물(객체)에 빛을 방출하고 빛이 돌아오기까지 걸리는 시간 및 강도를 측정해 목표물의 거리, 반사율, 방향, 속도, 온도, 물질 분포 및 농도특성을 감지할 수 있다. 라이다 센서(120)는 감지된 라이다 정보들을 포인트 클라우드로 수집하여 실시간으로 3차원 지도를 생성하는데 사용할 수 있다. 라이다 센서(120)는 환경특징 기반 위치인식 장치(110)와 네트워크를 통해 연결되어 다양한 상기 라이다 정보를 포함하는 정보들을 송수신할 수 있다.The lidar sensor (Light Detection And Ranging, LIDAR) 120 may be mounted on the autonomous vehicle to provide point cloud information including reflectance and location information of a target to the autonomous vehicle. More specifically, the lidar sensor 120 emits light to a nearby target (object) of the autonomous vehicle and measures the time and intensity it takes for the light to return to the target object's distance, reflectance, direction, speed, temperature, and material. Distribution and concentration characteristics can be detected. The lidar sensor 120 may collect the detected lidar information as a point cloud and use it to generate a 3D map in real time. The lidar sensor 120 may be connected to the environment feature-based location recognition device 110 through a network to transmit and receive information including various kinds of lidar information.

데이터베이스(130)는 환경특징 기반 위치인식 장치(110)가 라이다 센서(120)로부터 수신한 라이다 정보를 포함하는 다양한 형태의 자율주행차량의 위치 인식을 수행하기 위해 필요한 정보들을 저장할 수 있다. 예를 들어, 데이터베이스(130)는 포인트 클라우드 데이터, 도로 위 환경 객체들의 반사율 정보들 및 추출된 반사율이 높은 특정 객체의 크기, 높이 등의 특징에 관한 정보들을 저장할 수 있으며, 반드시 이에 한정되지 않고, 주행 환경내 도로의 객체를 통해 주행환경 지도를 생성하고 도로 지도와 비교하여 자율주행차량의 위치를 인식하는 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다. 예를 들어, 데이터베이스(130)는 도로 지도를 수신하여 저장할 수 있고 환경지도를 생성하여 저장할 수 있다. 일 실시예에서, 데이터베이스(130)는 지도를 저장하고 보관하는 다양한 방식의 클라우드 기반 지도 데이터베이스에 해당할 수 있다.The database 130 may store information necessary for the environment feature-based location recognition device 110 to perform location recognition of various types of autonomous vehicles including lidar information received from the lidar sensor 120. For example, the database 130 may store point cloud data, reflectance information of environmental objects on a road, and information on features such as the size and height of a specific object having a high extracted reflectance, but is not limited thereto, In the process of generating a driving environment map through objects on the road in the driving environment and recognizing the location of the autonomous vehicle by comparing it with the road map, information collected or processed in various forms may be stored. For example, the database 130 may receive and store a road map, and may generate and store an environment map. In one embodiment, the database 130 may correspond to a cloud-based map database of various methods for storing and storing maps.

도 2는 도 1에 있는 자율주행차량의 환경특징 기반 위치인식 장치를 나타내는 블록도이다.FIG. 2 is a block diagram illustrating a location recognition device based on environmental features of the autonomous vehicle in FIG. 1.

도 2를 참조하면, 환경특징 기반 위치인식 장치(110)는 프로세서(210), 메모리(220), 사용자 입출력부(230) 및 네트워크 입출력부(240)를 포함할 수 있다.Referring to FIG. 2, the environment feature-based location recognition device 110 may include a processor 210, a memory 220, a user input/output unit 230, and a network input/output unit 240.

프로세서(210)는 라이다 정보를 수신하고 환경내 특정 객체를 추출하여 주행환경 지도를 생성하며 도로 지도와의 비교를 통해 자율주행차량의 위치를 인식(추정)하기 위한 각 프로시저를 실행할 수 있고, 그 과정 전반에서 읽혀지거나 작성되는 메모리(220)를 관리할 수 있으며, 메모리(220)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄할 수 있다. 프로세서(210)는 환경특징 기반 위치인식 장치(110)의 동작 전반을 제어할 수 있고, 메모리(220), 사용자 입출력부(230) 및 네트워크 입출력부(240)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 환경특징 기반 위치인식 장치(110)의 CPU(Central Processing Unit) 및 GPU(Graphic Processing Unit)로 구현될 수 있다.The processor 210 receives LiDAR information, extracts specific objects in the environment, generates a driving environment map, and executes each procedure for recognizing (estimating) the location of the autonomous vehicle through comparison with the road map. , It is possible to manage the memory 220 that is read or written throughout the process, and a synchronization time between the volatile memory and the nonvolatile memory in the memory 220 can be scheduled. The processor 210 can control the overall operation of the environmental feature-based location recognition device 110, and is electrically connected to the memory 220, the user input/output unit 230, and the network input/output unit 240 to flow data between them. Can be controlled. The processor 210 may be implemented with a CPU (Central Processing Unit) and a GPU (Graphic Processing Unit) of the location recognition apparatus 110 based on environmental features.

메모리(220)는 SSD(Solid State Disk) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 환경특징 기반 위치인식 장치(110)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다.The memory 220 is implemented as a non-volatile memory such as a solid state disk (SSD) or a hard disk drive (HDD), and includes an auxiliary storage device used to store all data required for the location recognition device 110 based on environmental characteristics. In addition, a main memory device implemented as a volatile memory such as random access memory (RAM) may be included.

사용자 입출력부(230)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함할 수 있다. 예를 들어, 사용자 입출력부(230)는 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(230)는 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 환경특징 기반 위치인식 장치(110)는 서버로서 수행될 수 있다.The user input/output unit 230 may include an environment for receiving a user input and an environment for outputting specific information to a user. For example, the user input/output unit 230 may include an input device including an adapter such as a touch pad, a touch screen, an on-screen keyboard, or a pointing device, and an output device including an adapter such as a monitor or a touch screen. In one embodiment, the user input/output unit 230 may correspond to a computing device accessed through a remote connection, and in such a case, the environment feature-based location recognition device 110 may be performed as a server.

네트워크 입출력부(240)은 네트워크를 통해 외부 장치 또는 시스템과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다.The network input/output unit 240 includes an environment for connecting to an external device or system through a network, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), and a VAN ( Value Added Network) may include an adapter for communication.

도 3은 도 1에 있는 자율주행차량의 환경특징 기반 위치인식 장치의 기능적 구성을 나타내는 블록도이다.FIG. 3 is a block diagram showing a functional configuration of a location recognition device based on environmental characteristics of the autonomous vehicle shown in FIG. 1.

도 3을 참조하면, 환경특징 기반 위치인식 장치(110)는 도로 지도 수신부(310), 도로 객체 결정부(320), 주행환경 지도 생성부(330), 주행차선 위치 결정부(340) 및 제어부(350)를 포함할 수 있다.Referring to FIG. 3, the environment feature-based location recognition device 110 includes a road map receiving unit 310, a road object determining unit 320, a driving environment map generating unit 330, a driving lane position determining unit 340, and a control unit. 350 may be included.

도로 지도 수신부(310)는 도로 지도를 수신할 수 있다. 여기에서, 도로 지도는 도로의 주행차선 정보를 포함하여 도로에 관한 다양한 정보를 가지는 지도에 해당할 수 있다. 일 실시예에서, 도로 지도 수신부(310)는 차량의 주행도로의 상부에 배치되는 도로표지판의 위치를 수신하여 도로 지도에 맵핑(mapping)할 수 있다. 보다 구체적으로, 도로 지도 수신부(310)는 주행차선 정보만을 가지는 도로 지도를 수신하는 과정에서 주행도로의 도로표지판의 위치 정보를 가지는 특정 지도 또는 데이터를 수신하여 도로 지도에 맵핑할 수 있다. 예를 들어, 도로 지도 수신부(310)는 주행도로의 도로표지판의 위치를 상세히 나타내는 특정 정밀지도를 수신하여 도로 지도에 맵핑할 수 있다. 도로 지도 수신부(310)는 결과적으로, 주행차선 정보 및 도로표지판의 위치 정보를 모두 포함하는 도로 지도를 수신할 수 있다.The road map receiving unit 310 may receive a road map. Here, the road map may correspond to a map having various information about a road including information on a driving lane of the road. In an embodiment, the road map receiving unit 310 may receive a location of a road sign disposed on an upper portion of a driving road of a vehicle and map it to a road map. More specifically, the road map receiving unit 310 may receive a specific map or data having location information of a road sign of a driving road in a process of receiving a road map having only driving lane information and map it to a road map. For example, the road map receiving unit 310 may receive a specific precision map indicating in detail the location of a road sign on a driving road and map it to a road map. As a result, the road map receiving unit 310 may receive a road map including both driving lane information and location information of a road sign.

도로 객체 결정부(320)는 라이다 센서(120)를 통해 수신된 적어도 하나의 객체 중 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 객체를 결정할 수 있다. 여기에서, 적어도 하나의 객체는 도로에 존재하는 도로표지판, 연석, 중앙분리대, 과속 방지턱 등에 해당할 수 있고, 도로 환경을 의미할 수 있다. 보다 구체적으로, 도로 객체 결정부(320)는 차량의 주행경로 상에 있는 도로표지판, 중앙 분리대 등 적어도 하나의 객체 중 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 한 종류의 객체를 결정할 수 있다. 예를 들어, 도로 객체 결정부(320)는 특정 높이 기준 및 특정 반사율 기준의 설정을 통해 도로표지판을 객체로 결정할 수 있다. 일 실시예에서, 도로 객체 결정부(320)는 차량의 주행 과정에서 도로표지판의 위치가 특정 거리 이내에 위치되면 라이다 센서(120)를 통해, 결정된 객체로서 도로표지판을 검출할 수 있다. 보다 구체적으로, 도로 객체 결정부(320)는 자율주행차량의 경우에 기 설정된 주행 경로상에서 차량과 도로표지판의 위치가 이미 결정되어 있으므로, 도로표지판의 위치가 차량으로부터 특정 거리 이내에 위치되면 라이다 센서를 통해 도로표지판을 객체로서 검출할 수 있다. 예를 들어, 도로 객체 결정부(320)는 도로표지판의 위치가 차량으로부터 전방 10미터 이내에 위치되면 라이다 센서를 도로표지판을 검출할 수 있다. The road object determination unit 320 may determine an object having a specific height reference and a specific reflectance reference or higher among at least one object received through the lidar sensor 120. Here, the at least one object may correspond to a road sign, a curb, a center divider, a speed bump, etc. existing on a road, and may mean a road environment. More specifically, the road object determination unit 320 may determine one type of object having a specific height criterion and a specific reflectance criterion among at least one object such as a road sign and a center separator on the driving path of the vehicle. For example, the road object determination unit 320 may determine a road sign as an object by setting a specific height reference and a specific reflectance reference. In one embodiment, the road object determination unit 320 may detect the road sign as the determined object through the lidar sensor 120 when the position of the road sign is located within a specific distance during the driving process of the vehicle. More specifically, in the case of an autonomous vehicle, the road object determination unit 320 has already determined the positions of the vehicle and the road sign on a preset driving path, so if the position of the road sign is located within a specific distance from the vehicle, the lidar sensor Through this, road signs can be detected as objects. For example, when the position of the road sign is located within 10 meters in front of the vehicle, the road object determination unit 320 may detect the road sign using a lidar sensor.

일 실시예에서, 도로 객체 결정부(320)는 도로표지판까지 남은 거리를 기초로 특정 높이 기준 및 특정 반사율 기준을 산출할 수 있다. 보다 구체적으로, 도로 객체 결정부(320)는 도로표지판까지 남은 거리가 작을수록 특정 높이 기준 및 특정 반사율 기준을 작게 산출할 수 있다. 예를 들어, 도로 객체 결정부(320)는 도로표지판까지 남은 거리가 일정비율로 줄어듦에 따라 기 설정된 특정 높이 기준 및 특정 반사율 기준을 일정비율로 줄어들도록 결정할 수 있다. 일 실시예에서, 도로 객체 결정부(320)는 차량의 주행속도를 기초로, 결정된 객체가 도로표지판에 해당하는지 여부를 검증할 수 있다. 예를 들어, 도로 객체 결정부(320)는 라이다 센서(120)를 통해 검출된 차량의 주행속도가 일정하게 줄어들거나 늘어나는 경우에는 객체를 정적 객체로서 도로표지판에 해당한다고 결정하고, 만약, 차량의 주행속도가 일정하지 않고 위아래로 변동되는 경우라면 객체를 동적 객체로서 다른 차량으로 결정할 수 있다. 보다 구체적으로, 도로 객체 결정부(320)는 차량의 일정하게 감소 또는 증가하는 주행속도를 기초로 다른 차량과 구분하여 도로표지판을 객체로서 검증할 수 있다. In an embodiment, the road object determination unit 320 may calculate a specific height reference and a specific reflectance reference based on the remaining distance to the road sign. More specifically, the road object determination unit 320 may calculate a specific height reference and a specific reflectance reference smaller as the remaining distance to the road sign is smaller. For example, the road object determination unit 320 may determine to reduce a predetermined height reference and a specific reflectance reference to a predetermined ratio as the remaining distance to the road sign is reduced by a predetermined ratio. In an embodiment, the road object determination unit 320 may verify whether the determined object corresponds to a road sign based on the driving speed of the vehicle. For example, when the driving speed of the vehicle detected through the lidar sensor 120 decreases or increases, the road object determination unit 320 determines that the object corresponds to a road sign as a static object. If the driving speed of is not constant and fluctuates up and down, the object can be determined as another vehicle as a dynamic object. More specifically, the road object determination unit 320 may verify the road sign as an object by distinguishing it from other vehicles based on a constant decrease or increasing driving speed of the vehicle.

주행환경 지도 생성부(330)는 결정된 객체를 도로 지도에 반영하여 주행환경 지도를 생성할 수 있다. 일 실시예에서, 주행환경 지도 생성부(330)는 도로표지판을 도로 지도에 반영하여 주행환경 지도를 생성할 수 있다. 보다 구체적으로, 주행환경 지도 생성부(330)는 지상 위에 있는 반사율이 높은 도로표지판을 객체로 하여 도로표지판의 크기, 중심점, 반사율, 높이 등의 특징을 추출하고 도로 지도에 반영하여 주행환경 지도를 생성할 수 있다.The driving environment map generation unit 330 may generate a driving environment map by reflecting the determined object on the road map. In an embodiment, the driving environment map generation unit 330 may generate a driving environment map by reflecting the road sign on the road map. More specifically, the driving environment map generation unit 330 extracts features such as the size, center point, reflectance, and height of the road sign using a road sign having high reflectivity on the ground as an object, and reflects it on the road map to create a driving environment map. Can be generated.

주행차선 위치 결정부(340)는 결정된 객체의 반사각 패턴을 기초로 차량의 주행차선 위치를 결정할 수 있다. 보다 구체적으로, 주행차선 위치 결정부(340)는 라이다 센서(120)를 통해 방출된 빔의 객체에서 반사되는 반사각의 패턴에 따라서 차량이 몇차선에서 주행하고 있는지를 결정할 수 있다. 예를 들어, 주행차선 위치 결정부(340)는 도로 지도에서 결정된 차선의 개수와 결정된 객체로서 도로표지판의 위치를 기초로 차량의 라이다 센서(120)로부터 방출된 빔의 도로표지판에서의 반사각 패턴을 검출하여 특정 위치의 도로표지판에 대한 특정 반사각 패턴을 통해 차량의 주행차선 위치를 결정할 수 있다. 즉, 주행차선 위치 결정부(340)는 도로 지도로부터 도로 위 차선의 개수를 검출하고 결정된 도로 위 객체의 위치를 검출하여 도로 지도에 반영하여 주행환경 지도를 생성하고 주행환경 지도를 기초로 도로표지판의 반사각 패턴을 검출하여 반사각 패턴에 따른 차량의 주행차선 위치를 결정할 수 있다. 예를 들어, 주행차선 위치 결정부(340)는 1차선에 위치한 차량에 대한 특정 도로표지판의 반사각과 3차선에 위치한 차량에 대한 동일한 도로표지판의 반사각의 차이를 통해서 차량이 몇(어떤)차선에 위치하고 있는지를 결정할 수 있다. 예를 들어, 3개의 차선이 존재하는 도로에서 1 내지 3차선에 걸쳐서 상부에 위치하고 있는 도로표지판에 대해서 1차선을 주행하고 있는 차량의 경우와 3차선을 주행하고 있는 차량의 경우의 반사각이 정반대로 나타남에 따라 차량이 각각 1차선 또는 3차선을 주행하고 있는지 여부를 결정할 수 있다.The driving lane position determining unit 340 may determine a driving lane position of the vehicle based on the determined reflection angle pattern of the object. More specifically, the driving lane positioning unit 340 may determine in which lane the vehicle is driving according to a pattern of reflection angles reflected from the object of the beam emitted through the lidar sensor 120. For example, the driving lane position determining unit 340 reflects the reflection angle pattern of the beam emitted from the lidar sensor 120 of the vehicle based on the number of lanes determined on the road map and the position of the road sign as the determined object. It is possible to determine the location of the driving lane of the vehicle through a specific reflection angle pattern for the road sign at a specific location by detecting. That is, the driving lane position determining unit 340 detects the number of lanes on the road from the road map, detects the location of the determined object on the road, reflects it on the road map, generates a driving environment map, and creates a road sign based on the driving environment map. By detecting the reflection angle pattern of, the driving lane position of the vehicle may be determined according to the reflection angle pattern. For example, the driving lane positioning unit 340 may determine how many (some) lanes a vehicle is in through a difference between the reflection angle of a specific road sign for a vehicle located in one lane and a reflection angle of the same road sign for a vehicle located in three lanes. You can decide if it is located. For example, on a road with three lanes, the reflection angle of a vehicle traveling in one lane and a vehicle traveling in three lanes is opposite to the road sign located at the top over one to three lanes. As it appears, it is possible to determine whether the vehicle is traveling in one lane or three lanes, respectively.

일 실시예에서, 주행차선 위치 결정부(340)는 적어도 하나의 객체 중 특정 패턴을 가지는 지면 객체를 검출하여 양 차선들 사이에서의 차량의 위치를 결정할 수 있다. 예를 들어, 주행차선 위치 결정부(340)는 특정 패턴을 가지는 지면 객체로서 양 차선을 검출할 수 있다. 주행차선 위치 결정부(340)는 차선의 색깔, 실선 또는 점선 등 특정 패턴을 가지는 지면의 양 차선을 검출하여 검출된 양 차선들 사이에서 차량의 위치를 결정할 수 있다. 보다 구체적으로, 주행차선 위치 결정부(340)는 라이다 센서(120)를 통해 차량이 주행중인 레인의 양 차선의 위치를 검출하여 상대적인 차량의 위치를 양 차선 사이에서 정확하게 검출할 수 있다. 즉, 주행차선 위치 결정부(340)는 양 차선 사이에서 차량이 중앙으로 주행하고 있는지 한쪽 차선으로 치우쳐져서 주행하고 있는지 여부를 결정할 수 있다. 일 실시예에서, 주행차선 위치 결정부(340)는 양 차선들의 차량과의 간격 변화율을 기초로 차량의 차선 변경 의도를 검출하여 차량의 주행차선 위치를 갱신할 수 있다. 주행차선 위치 결정부(340)는 라이다 센서(120)를 통해 검출된 양 차선들의 차량과의 간격 변화에 따른 변화율을 산출하여 차량의 차선 변경 의도를 검출할 수 있다. 예를 들어, 주행차선 위치 결정부(340)는 차량의 양 차선들 중 우측 차선과의 간격이 일정 기준 이상 줄어드는 경우 차량이 우측 차선으로 차선을 변경하려고 하는 의도를 가진다고 판단하여 차량의 주행차선 위치를 일정시간 이후에 우측 차선으로 갱신할 수 있다. In an embodiment, the driving lane position determining unit 340 may determine a position of a vehicle between two lanes by detecting a ground object having a specific pattern among at least one object. For example, the driving lane positioning unit 340 may detect both lanes as a ground object having a specific pattern. The driving lane position determining unit 340 may determine the position of the vehicle between the detected lanes by detecting both lanes on the ground having a specific pattern such as a color of the lane, a solid line or a dotted line. More specifically, the driving lane position determining unit 340 may accurately detect the relative position of the vehicle between the two lanes by detecting the positions of both lanes of the lane on which the vehicle is running through the lidar sensor 120. That is, the driving lane position determining unit 340 may determine whether the vehicle is driving in the center between the two lanes or is skewed toward one lane. In an embodiment, the driving lane position determining unit 340 may update the driving lane position of the vehicle by detecting the intention to change the lane of the vehicle based on the rate of change of the distance between the two lanes and the vehicle. The driving lane position determining unit 340 may detect a lane change intention of the vehicle by calculating a rate of change according to a change in the distance between the two lanes detected through the lidar sensor 120 and the vehicle. For example, the driving lane position determining unit 340 determines that the vehicle has an intention to change the lane to the right lane when the distance between the right lane among the two lanes of the vehicle decreases by more than a certain standard, and the driving lane position of the vehicle Can be updated to the right lane after a certain period of time.

일 실시예에서, 주행차선 위치 결정부(340)는 결정된 객체의 중앙을 결정하고 중앙에서 이탈된 양 끝단의 각도 편차를 산출하여 차량의 주행차선 위치를 결정할 수 있다. 예를 들어, 주행차선 위치 결정부(340)는 라이다 센서(120)를 통해 도로표지판의 중앙을 결정하고 도로표지판의 양 끝단의 중앙으로부터의 각도 편차를 산출하여 차량의 주행차선 위치를 결정할 수 있다. 주행차선 위치 결정부(340)는 차량이 위치한 각 차선에 따라 달라지는 도로표지판의 중앙에서 양 끝단의 각도 편차를 기초로 차량이 몇차선으로 주행하고 있는지를 결정할 수 있다. 예를 들어, 주행차선 위치 결정부(340)는 1차선의 상부에 위치한 도로표지판의 중앙에서 양 끝단의 각도 편차를 검출한 결과 양 끝단의 각도 편차가 동일한 경우라면, 차량이 1차선을 주행하고 있는 것으로 검출할 수 있다.In an embodiment, the driving lane position determining unit 340 may determine the location of the driving lane of the vehicle by determining the center of the determined object and calculating angular deviations of both ends deviated from the center. For example, the driving lane position determination unit 340 may determine the center of the road sign through the lidar sensor 120 and calculate the angle deviation from the center of both ends of the road sign to determine the driving lane position of the vehicle. have. The driving lane position determining unit 340 may determine how many lanes the vehicle is driving based on the angular deviation of both ends from the center of a road sign that varies according to each lane in which the vehicle is located. For example, the driving lane positioning unit 340 detects the angular deviation of both ends at the center of the road sign located above the first lane, and if the angular deviation of both ends is the same, the vehicle travels in the first lane. It can be detected as being present.

제어부(350)는 환경특징 기반 위치인식 장치(110)의 전반적인 제어를 수행하고, 도로 지도 수신부(310), 도로 객체 결정부(320), 주행환경 지도 생성부(330) 및 주행차선 위치 결정부(340)간 제어 흐름 및 데이터 흐름을 관리할 수 있다.The control unit 350 performs overall control of the environment feature-based location recognition device 110, and a road map receiving unit 310, a road object determining unit 320, a driving environment map generating unit 330, and a driving lane position determining unit Control flow and data flow between 340 can be managed.

도 4는 본 발명의 일 실시예에 따른 자율주행차량의 환경특징 기반 위치인식 방법을 나타내는 흐름도이다.4 is a flow chart illustrating a method for recognizing a location based on environmental features of an autonomous vehicle according to an embodiment of the present invention.

도 4에서, 환경특징 기반 위치인식 장치(110)는 도로 지도 수신부(310)를 통해, 주행차선 정보를 가지는 도로 지도를 수신할 수 있다(단계 S410). 일 실시예에서, 도로 지도 수신부(310)는 클라우드 기반의 지도 데이터베이스와 연동되어 실시간으로 업데이트되는 주행차선 정보 또는 도로표지판 정보를 가지는 도로 지도를 주기적으로 내려 받을 수 있다. 일 실시예에서, 도로 지도 수신부(310)는 라이다 센서(120)로부터 수신되는 라이다 정보를 기초로 차량이 위치한 특정 지역을 검출하고 해당 지역에 대한 도로 지도를 선택적으로 수신할 수 있다. In FIG. 4, the environment feature-based location recognition apparatus 110 may receive a road map having driving lane information through the road map receiving unit 310 (step S410). In an embodiment, the road map receiving unit 310 may periodically download a road map having driving lane information or road sign information updated in real time in connection with a cloud-based map database. In an embodiment, the road map receiving unit 310 may detect a specific area in which the vehicle is located based on the lidar information received from the lidar sensor 120 and selectively receive a road map for the corresponding region.

환경특징 기반 위치인식 장치(110)는 도로 객체 결정부(320)를 통해, 라이다 센서(120)로부터 수신된 적어도 하나의 객체 중 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 객체를 결정할 수 있다(단계 S420). 일 실시예에서, 도로 객체 결정부(320)는 기 설정된 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 도로표지판을 객체로 결정할 수 있다. The environment feature-based location recognition device 110 may determine, through the road object determination unit 320, an object having a specific height reference and a specific reflectance reference or higher among at least one object received from the lidar sensor 120 ( Step S420). In an embodiment, the road object determination unit 320 may determine a road sign having a predetermined height reference and a specific reflectance reference or higher as the object.

환경특징 기반 위치인식 장치(110)는 주행환경 지도 생성부(330)를 통해, 결정된 객체를 도로 지도에 반영하여 주행환경 지도를 생성할 수 있다(단계 S430). The environment feature-based location recognition device 110 may generate a driving environment map by reflecting the determined object on the road map through the driving environment map generator 330 (step S430).

환경특징 기반 위치인식 장치(110)는 주행차선 위치 결정부(340)를 통해, 결정된 객체의 반사각 패턴을 기초로 차량의 주행차선 위치를 결정할 수 있다(단계 S440).The environment feature-based location recognition device 110 may determine the location of the vehicle's driving lane based on the determined reflection angle pattern of the object through the driving lane position determining unit 340 (step S440).

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will understand that you can do it.

100: 자율주행차량의 환경특징 기반 위치인식 시스템
110: 자율주행차량의 환경특징 기반 위치인식 장치
120: 라이다 센서
130: 데이터베이스
210: 프로세서 220: 메모리
230: 사용자 입출력부
240: 네트워크 입출력부
310: 도로 지도 수신부 320: 도로 객체 결정부
330: 주행환경 지도 생성부 340: 주행차선 위치 결정부
350: 제어부
100: Location recognition system based on environmental characteristics of autonomous vehicles
110: Location recognition device based on environmental characteristics of an autonomous vehicle
120: lidar sensor
130: database
210: processor 220: memory
230: user input/output unit
240: network input/output unit
310: road map receiving unit 320: road object determining unit
330: driving environment map generation unit 340: driving lane position determination unit
350: control unit

Claims (9)

주행차선 정보를 가지는 도로 지도를 수신하는 도로 지도 수신부;
라이다 센서를 통해 수신된 적어도 하나의 객체 중 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 객체를 결정하는 도로 객체 결정부;
결정된 상기 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 객체를 상기 도로 지도에 반영하여 주행환경 지도를 생성하는 주행환경 지도 생성부; 및
결정된 상기 객체의 반사각 패턴 및 상기 도로 지도에서 결정된 차선의 개수를 기초로 차량의 주행차선 위치를 결정하는 주행차선 위치 결정부를 포함하고,
상기 도로 지도 수신부는
주행도로의 상부에 배치되는 도로표지판의 위치를 수신하여 상기 도로 지도에 맵핑하고,
상기 도로 객체 결정부는
상기 도로표지판까지 남은 거리를 기초로 상기 특정 높이 기준 및 상기 특정 반사율 기준을 산출하는 것을 특징으로 하는 자율주행차량의 환경특징 기반 위치인식 장치.
A road map receiving unit for receiving a road map having driving lane information;
A road object determination unit that determines an object having a specific height reference and a specific reflectance reference or higher among at least one object received through the lidar sensor;
A driving environment map generation unit configured to generate a driving environment map by reflecting the determined object having a specific height reference and a specific reflectance standard or higher on the road map; And
A driving lane position determining unit for determining a driving lane position of the vehicle based on the determined reflection angle pattern of the object and the number of lanes determined in the road map,
The road map receiver
Receiving the position of the road sign disposed on the top of the driving road and mapping it to the road map,
The road object determination unit
The location recognition device based on environmental characteristics of an autonomous vehicle, characterized in that calculating the specific height reference and the specific reflectance reference based on the remaining distance to the road sign.
삭제delete 제1항에 있어서, 상기 도로 객체 결정부는
상기 차량의 주행 과정에서 상기 도로표지판의 위치가 특정 거리 이내에 위치되면 상기 라이다 센서를 통해, 결정된 상기 객체로서 상기 도로표지판을 검출하는 것을 특징으로 하는 자율주행차량의 환경특징 기반 위치인식 장치.
The method of claim 1, wherein the road object determination unit
When the position of the road sign is located within a specific distance during the driving process of the vehicle, the road sign is detected as the determined object through the lidar sensor.
삭제delete 제1항에 있어서, 상기 도로 객체 결정부는
상기 차량의 주행속도를 기초로, 결정된 상기 객체가 상기 도로표지판에 해당하는지 여부를 검증하는 것을 특징으로 하는 자율주행차량의 환경특징 기반 위치인식 장치.
The method of claim 1, wherein the road object determination unit
An apparatus for recognizing a location based on environmental characteristics of an autonomous vehicle, characterized in that it verifies whether the determined object corresponds to the road sign based on the driving speed of the vehicle.
제1항에 있어서, 상기 주행차선 위치 결정부는
상기 적어도 하나의 객체 중 특정 패턴을 가지는 지면 객체를 검출하여 양 차선들 사이에서의 상기 차량의 위치를 결정하는 것을 특징으로 하는 자율주행차량의 환경특징 기반 위치인식 장치.
The method of claim 1, wherein the driving lane positioning unit
An apparatus for recognizing a location based on environmental features of an autonomous vehicle, comprising detecting a ground object having a specific pattern among the at least one object to determine the location of the vehicle between both lanes.
제6항에 있어서, 상기 주행차선 위치 결정부는
상기 양 차선들의 상기 차량과의 간격 변화율을 기초로 상기 차량의 차선 변경 의도를 검출하여 상기 차량의 주행차선 위치를 갱신하는 것을 특징으로 하는 자율주행차량의 환경특징 기반 위치인식 장치.
The method of claim 6, wherein the driving lane positioning unit
An environmental feature-based location recognition apparatus for an autonomous vehicle, characterized in that, based on a rate of change of the distance between the two lanes and the vehicle, the vehicle's intention to change lanes is detected to update the location of the vehicle's driving lane.
제1항에 있어서, 상기 주행차선 위치 결정부는
결정된 상기 객체의 중앙을 결정하고 상기 중앙에서 이탈된 양 끝단의 각도 편차를 산출하여 상기 차량의 주행차선 위치를 결정하는 것을 특징으로 하는 자율주행차량의 환경특징 기반 위치인식 장치.
The method of claim 1, wherein the driving lane positioning unit
A position recognition device based on environmental characteristics of an autonomous vehicle, characterized in that the determined center of the object is determined and angle deviations of both ends deviated from the center are calculated to determine the location of the driving lane of the vehicle.
주행차선 정보를 가지는 도로 지도를 수신하는 도로 지도 수신 단계;
라이다 센서를 통해 수신된 적어도 하나의 객체 중 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 객체를 결정하는 도로 객체 결정 단계;
결정된 상기 특정 높이 기준 및 특정 반사율 기준 이상을 가지는 객체를 상기 도로 지도에 반영하여 주행환경 지도를 생성하는 주행환경 지도 생성 단계; 및
결정된 상기 객체의 반사각 패턴 및 상기 도로 지도에서 결정된 차선의 개수를 기초로 차량의 주행차선 위치를 결정하는 주행차선 위치 결정 단계를 포함하고,
상기 도로 지도 수신 단계는
주행도로의 상부에 배치되는 도로표지판의 위치를 수신하여 상기 도로 지도에 맵핑하고,
상기 도로 객체 결정 단계는
상기 도로표지판까지 남은 거리를 기초로 상기 특정 높이 기준 및 상기 특정 반사율 기준을 산출하는 것을 특징으로 하는 자율주행차량의 환경특징 기반 위치인식 방법.
A road map receiving step of receiving a road map having driving lane information;
A road object determining step of determining an object having a specific height reference and a specific reflectance reference or more among at least one object received through the lidar sensor;
A driving environment map generating step of generating a driving environment map by reflecting the determined object having the specific height criterion and the specific reflectance criterion or higher on the road map; And
A driving lane position determining step of determining a driving lane position of the vehicle based on the determined reflection angle pattern of the object and the number of lanes determined in the road map,
The step of receiving the road map
Receiving the position of the road sign disposed on the top of the driving road and mapping it to the road map,
The step of determining the road object is
And calculating the specific height reference and the specific reflectance reference based on the remaining distance to the road sign.
KR1020190008710A 2019-01-23 2019-01-23 Environment feature based position recognition apparatus and method for autonomous vehicles KR102176834B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008710A KR102176834B1 (en) 2019-01-23 2019-01-23 Environment feature based position recognition apparatus and method for autonomous vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008710A KR102176834B1 (en) 2019-01-23 2019-01-23 Environment feature based position recognition apparatus and method for autonomous vehicles

Publications (2)

Publication Number Publication Date
KR20200094841A KR20200094841A (en) 2020-08-10
KR102176834B1 true KR102176834B1 (en) 2020-11-10

Family

ID=72049604

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008710A KR102176834B1 (en) 2019-01-23 2019-01-23 Environment feature based position recognition apparatus and method for autonomous vehicles

Country Status (1)

Country Link
KR (1) KR102176834B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102540636B1 (en) * 2022-10-27 2023-06-13 주식회사 모빌테크 Method for create map included direction information and computer program recorded on record-medium for executing method therefor

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102355914B1 (en) * 2020-08-31 2022-02-07 (주)오토노머스에이투지 Method and device for controlling velocity of moving body based on reflectivity of driving road using lidar sensor
KR102288933B1 (en) * 2020-11-10 2021-08-10 임헌용 METHOD, APPARATUS AND SYSTEM FOR BUILDING OF precision road map
KR102603774B1 (en) * 2021-09-08 2023-11-21 한국건설기술연구원 Driving assistance information processing system and method using road traffic information facilities
KR102538104B1 (en) * 2022-06-17 2023-05-31 한국건설기술연구원 LiDAR detection type road facility

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151081A (en) * 2004-11-26 2006-06-15 Nissan Motor Co Ltd Driving intention estimating device, driving operation auxiliary device for vehicle and vehicle having driving operation auxiliary device for vehicle
KR101569919B1 (en) * 2013-10-30 2015-11-17 인하대학교 산학협력단 Apparatus and method for estimating the location of the vehicle
KR101937777B1 (en) 2018-05-14 2019-01-11 주식회사 에스오에스랩 Lidar device and method for measuring distance using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100781807B1 (en) 2006-03-02 2007-12-04 김진완 self-control automobile and method of tracking target waypoint
KR102392999B1 (en) * 2015-07-13 2022-05-02 현대모비스 주식회사 System for tuning FOV of sensor and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151081A (en) * 2004-11-26 2006-06-15 Nissan Motor Co Ltd Driving intention estimating device, driving operation auxiliary device for vehicle and vehicle having driving operation auxiliary device for vehicle
KR101569919B1 (en) * 2013-10-30 2015-11-17 인하대학교 산학협력단 Apparatus and method for estimating the location of the vehicle
KR101937777B1 (en) 2018-05-14 2019-01-11 주식회사 에스오에스랩 Lidar device and method for measuring distance using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102540636B1 (en) * 2022-10-27 2023-06-13 주식회사 모빌테크 Method for create map included direction information and computer program recorded on record-medium for executing method therefor

Also Published As

Publication number Publication date
KR20200094841A (en) 2020-08-10

Similar Documents

Publication Publication Date Title
KR102176834B1 (en) Environment feature based position recognition apparatus and method for autonomous vehicles
US10240934B2 (en) Method and system for determining a position relative to a digital map
CN111833717B (en) Method, device, equipment and storage medium for positioning vehicle
US9142063B2 (en) Positioning system utilizing enhanced perception-based localization
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
Chalvatzaras et al. A survey on map-based localization techniques for autonomous vehicles
CN108627175A (en) The system and method for vehicle location for identification
WO2017208503A1 (en) Map data update device, map data update method and map data update program
JP2011511281A (en) Map matching method with objects detected by sensors
CN107153422B (en) Aircraft landing system and method
US11668573B2 (en) Map selection for vehicle pose system
CN110608746B (en) Method and device for determining the position of a motor vehicle
KR102006291B1 (en) Method for estimating pose of moving object of electronic apparatus
US11327155B2 (en) Radar sensor misalignment detection for a vehicle
WO2019239477A1 (en) Map generation device and map generation system
Qian et al. A LiDAR aiding ambiguity resolution method using fuzzy one-to-many feature matching
US20200062252A1 (en) Method and apparatus for diagonal lane detection
US11288554B2 (en) Determination method and determination device
KR102255924B1 (en) Vehicle and method for detecting lane
US11562501B1 (en) Multi-mode visual geometry localization
US20230236021A1 (en) Information processing device
KR102171922B1 (en) Apparatus and method for detecting obstacles to driving in vehicles
CN114281832A (en) High-precision map data updating method and device based on positioning result and electronic equipment
KR20220139756A (en) Apparatus for predicting trajectory of peripheral vehicle and method thereof
KR102585525B1 (en) Object detection device and method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]