KR102637515B1 - Vehicle and controlling method for the same - Google Patents

Vehicle and controlling method for the same Download PDF

Info

Publication number
KR102637515B1
KR102637515B1 KR1020160094638A KR20160094638A KR102637515B1 KR 102637515 B1 KR102637515 B1 KR 102637515B1 KR 1020160094638 A KR1020160094638 A KR 1020160094638A KR 20160094638 A KR20160094638 A KR 20160094638A KR 102637515 B1 KR102637515 B1 KR 102637515B1
Authority
KR
South Korea
Prior art keywords
point data
vehicle
position information
control unit
matching
Prior art date
Application number
KR1020160094638A
Other languages
Korean (ko)
Other versions
KR20180011989A (en
Inventor
유병용
신기철
허명선
오영철
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160094638A priority Critical patent/KR102637515B1/en
Publication of KR20180011989A publication Critical patent/KR20180011989A/en
Application granted granted Critical
Publication of KR102637515B1 publication Critical patent/KR102637515B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

양상 가능한 라이더를 사용하면서 주변 차량으로부터 데이터를 제공받고 이를 조합하여 차량 주변 환경 정보를 제공함으로써, 다른 차량 및 건물 등에 가려져 인식할 수 없었던 주변 환경을 정확하게 인식하고 효율적인 자율 주행이 가능한 차량 및 차량의 제어방법을 제공한다.
개시된 발명의 일 측면에 따른 차량은 차량 주변의 객체에 대한 제 1 점 데이터를 수집하는 라이더(Lidar) 센서; 상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하는 통신부; 및 상기 라이더 센서가 전달하는 제 1 점 데이터와 상기 통신부가 전달하는 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 제어부;를 포함한다.
By using a bimodal lidar, data is provided from surrounding vehicles and combined to provide environmental information around the vehicle, accurately recognizing the surrounding environment that could not be recognized due to being obscured by other vehicles and buildings, and controlling vehicles and vehicles that enable efficient autonomous driving. Provides a method.
A vehicle according to one aspect of the disclosed invention includes a Lidar sensor that collects first point data about objects around the vehicle; a communication unit that receives position information and second point data from outside the vehicle; And a control unit that generates environmental information around the vehicle by matching the first point data transmitted by the lidar sensor and the second point data transmitted by the communication unit to the position information.

Description

차량 및 차량의 제어방법{VEHICLE AND CONTROLLING METHOD FOR THE SAME}Vehicle and vehicle control method {VEHICLE AND CONTROLLING METHOD FOR THE SAME}

개시된 발명은 주변 환경을 인식하는 차량 및 차량의 제어방법에 관한 것이다.The disclosed invention relates to a vehicle that recognizes the surrounding environment and a method of controlling the vehicle.

차량은 운전자 및 탑승자에게 안전 서비스를 제공한다. 일 예로 차량은 운전자의 시각 정보를 보충하고 전방 차량과의 거리를 계산한다. 안전 서비스는 주변 차량 및 대상체를 감지하고 차량 스스로 위치를 인식하는 단계에서 시작하는데, 차량은 주변 환경을 검출하기 위해서 다양한 차량 센서(Sensor)를 이용한다.Vehicles provide safety services to drivers and passengers. For example, the vehicle supplements the driver's visual information and calculates the distance to the vehicle ahead. Safety services begin with the stage of detecting surrounding vehicles and objects and recognizing the vehicle's own location. The vehicle uses various vehicle sensors to detect the surrounding environment.

차량에는 차량용 레이더(Radar) 센서 또는 라이더(Lidar) 센서가 설치될 수 있다. 차량용 레이더 센서와 라이더 센서는 각각 차량의 주행 시 차량 주변의 환경 정보를 제공한다. A vehicle radar sensor or Lidar sensor may be installed in the vehicle. Automotive radar sensors and lidar sensors each provide information about the environment around the vehicle when the vehicle is driving.

그 중 라이더 센서는 차량의 자율 주행에 있어서 핵심적인 역할을 수행한다. 구체적으로 라이더 센서는 차량 주변 환경에 대한 정보를 점 데이터로 제공한다. Among them, lidar sensors play a key role in autonomous driving of vehicles. Specifically, lidar sensors provide information about the vehicle's surrounding environment as point data.

한편, 자율 주행에 관한 연구에 사용되는 라이더 센서는 360도로 회전하거나, 3D 영상을 출력하는 등 고가의 센서가 사용된다. 그러나 이러한 고가의 라이더 센서는 내구성, 양산성 및 디자인에 적합하지 않고 OEM(Original Equipment Manufacturing)방식에서는 비용이 크게 증가하는 문제가 있었다.Meanwhile, lidar sensors used in research on autonomous driving are expensive sensors that rotate 360 degrees or output 3D images. However, these expensive lidar sensors are not suitable for durability, mass production, and design, and the OEM (Original Equipment Manufacturing) method has the problem of significantly increasing costs.

이러한 문제점을 해결하기 위해서 개시된 발명은 양상 가능한 라이더를 사용하면서 주변 차량으로부터 데이터를 제공받고 이를 조합하여 차량 주변 환경 정보를 제공함으로써, 다른 차량 및 건물 등에 가려져 인식할 수 없었던 주변 환경을 정확하게 인식하고 효율적인 자율 주행이 가능한 차량 및 차량의 제어방법을 제공한다.In order to solve this problem, the disclosed invention uses a bimodal lidar to receive data from surrounding vehicles and combines them to provide environmental information around the vehicle, accurately recognizing the surrounding environment that could not be recognized because it was obscured by other vehicles and buildings, and efficiently Provides vehicles capable of autonomous driving and vehicle control methods.

개시된 발명의 일 측면에 따른 차량은 차량 주변의 객체에 대한 제 1 점 데이터를 수집하는 라이더(Lidar) 센서; 상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하는 통신부; 및 상기 라이더 센서가 전달하는 제 1 점 데이터와 상기 통신부가 전달하는 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 제어부;를 포함한다.A vehicle according to one aspect of the disclosed invention includes a Lidar sensor that collects first point data about objects around the vehicle; a communication unit that receives position information and second point data from outside the vehicle; And a control unit that generates environmental information around the vehicle by matching the first point data transmitted by the lidar sensor and the second point data transmitted by the communication unit to the position information.

상기 제어부는, 상기 포지션 정보에 기초하여, 상기 제 1점 데이터와 상기 제 2 점 데이터를 동기화할 수 있다.The control unit may synchronize the first point data and the second point data based on the position information.

상기 제어부는, 상기 제 1 및 제 2 점 데이터에 기초하여, 상기 차량의 주변 위치를 수정하는 코너 매칭을 수행할 수 있다.The control unit may perform corner matching to modify the surrounding position of the vehicle based on the first and second point data.

상기 제어부는, 상기 제 1 점 데이터 또는 상기 제 2 데이터 중 어느 하나의 점 데이터가 미리 설정된 각도를 초과하면 상기 코너 매칭을 수행할 수 있다.The control unit may perform the corner matching when either the first point data or the second data exceeds a preset angle.

상기 제어부는, 상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터를 수정하는 직선 매칭을 수행할 수 있다.The control unit may perform straight line matching to modify the first point data or the second point data based on the position information.

상기 제어부는, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 포지션 정보를 수정할 수 있다.The control unit may modify the position information based on the rotation speed included in the first point data and the second point data.

상기 제어부는, 상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터 중 상기 차량이 주행하는 차로 밖에 위치하는 점 데이터를 제외하고 상기 포지션 정보에 매칭할 수 있다.Based on the position information, the control unit may match the position information, excluding point data located outside the lane in which the vehicle is traveling, among the first point data or the second point data.

상기 제어부는, 상기 환경 정보를 생성한 후, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 제외된 점 데이터를 다시 수정하여 상기 환경 정보를 생성할 수 있다.After generating the environment information, the control unit may generate the environment information by modifying the excluded point data again based on the rotation speed included in the first point data and the second point data.

상기 제어부는, 상기 포지션 정보를 매칭시킨 후, 상기 차량 주변의 환경 정보의 정합성을 검토할 수 있다.After matching the position information, the control unit may review consistency of environmental information around the vehicle.

상기 통신부는, 상기 라이더 센서가 수집한 상기 제 1 점 데이터를 상기 차량의 외부로 송신할 수 있다.The communication unit may transmit the first point data collected by the lidar sensor to the outside of the vehicle.

개시된 발명의 다른 측면에 따른 차량의 제어방법은 차량 주변의 객체에 대한 제 1 점 데이터를 수집하고; 상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하고; 상기 라이더 센서가 전달하는 제 1 점 데이터와 상기 통신부가 전달하는 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 것;을 포함한다.A method for controlling a vehicle according to another aspect of the disclosed invention includes collecting first point data about objects around the vehicle; receive position information and second point data from outside the vehicle; It includes; generating environmental information around the vehicle by matching the first point data transmitted by the lidar sensor and the second point data transmitted by the communication unit to the position information.

상기 생성하는 것은, 상기 포지션 정보에 기초하여, 상기 제 1점 데이터와 상기 제 2 점 데이터를 동기화하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함할 수 있다.The generating may include generating environmental information around the vehicle by synchronizing the first point data and the second point data based on the position information.

상기 생성하는 것은, 상기 제 1 및 제 2 점 데이터에 기초하여, 상기 차량의 주변 위치를 수정하는 코너 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함할 수 있다.The generating may include generating environmental information around the vehicle by performing corner matching to modify the surrounding location of the vehicle based on the first and second point data.

상기 생성하는 것은, 상기 제 1 점 데이터 또는 상기 제 2 데이터 중 어느 하나의 점 데이터가 미리 설정된 각도를 초과하면 상기 코너 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 더 포함할 수 있다.The generating may further include performing the corner matching to generate environmental information around the vehicle when either the first point data or the second data exceeds a preset angle. there is.

상기 생성하는 것은, 상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터를 수정하는 직선 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함할 수 있다.The generating may include generating environmental information around the vehicle by performing straight line matching to modify the first point data or the second point data based on the position information.

상기 생성하는 것은, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 포지션 정보를 수정한 상기 환경 정보를 생성하는 포함할 수 있다.The generating may include generating the environment information in which the position information is modified based on the rotation speed included in the first point data and the second point data.

상기 생성하는 것은, 상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터 중 상기 차량이 주행하는 차로 밖에 위치하는 점 데이터를 제외하고 상기 포지션 정보를 매칭시켜 환경 정보를 생성하는 것;을 포함할 수 있다.The generating is to generate environment information by matching the position information, based on the position information, excluding point data located outside the lane in which the vehicle is traveling, among the first point data or the second point data. May include ;.

상기 생성하는 것은, 상기 환경 정보를 생성한 후, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 제외된 점 데이터를 다시 수정하여 상기 환경 정보를 생성하는 것;을 더 포함할 수 있다.The generating includes generating the environment information and then modifying the excluded point data again based on the rotation speed included in the first point data and the second point data to generate the environment information; More may be included.

상기 포지션 정보를 매칭시킨 후, 상기 차량 주변의 환경 정보의 정합성을 검토하는 것;을 더 포함할 수 있다.After matching the position information, reviewing the consistency of environmental information around the vehicle may be further included.

상기 라이더 센서가 수집한 상기 제 1 점 데이터를 상기 차량의 외부로 송신하는 것;을 더 포함할 수 있다.It may further include transmitting the first point data collected by the lidar sensor to the outside of the vehicle.

개시된 실시예에 따른 차량 및 차량의 제어방법은 양상 가능한 라이더를 사용하면서 주변 차량으로부터 라이더 센서의 데이터를 제공받고 이를 조합하여 차량 주변 환경 정보를 제공함으로써, 다른 차량 및 건물 등에 가려져 인식할 수 없었던 주변 환경을 정확하게 인식하고 효율적인 자율 주행이 가능하게 한다.The vehicle and vehicle control method according to the disclosed embodiment uses a bimodal lidar, receives lidar sensor data from surrounding vehicles, combines this, and provides information on the vehicle's surrounding environment, thereby providing information on the vehicle's surroundings, surroundings that could not be recognized due to being obscured by other vehicles and buildings. It accurately recognizes the environment and enables efficient autonomous driving.

도 1은 일 실시예에 따른 차량의 외관도이다.
도 2는 차량이 포함하는 라이더 센서가 출력하는 센싱 값을 도식화한 예시도이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 차량 및 주변 차량의 라이더 센서가 수집하는 점 데이터를 설명하기 위한 도면이다.
도 5는 일 예에 따라 제어부가 포지션 정보 및 점 데이터를 매칭시키는 동작을 설명하기 위한 도면이다.
도 6는 일 예에 따라 점 데이터 동기화 동작을 설명하기 위한 도면이다.
도 7 내지 도 10은 일 예에 따라 제어부가 점 데이터를 매칭시키는 동작을 설명하기 위한 도면이다.
도 11은 포지션 정보와 라이더 센서의 점 데이터를 정합하는 동작을 설명하기 위한 도면이다.
도 12는 일 예에 따라 차량의 동작을 설명하기 위한 순서도이다.
1 is an exterior view of a vehicle according to an embodiment.
Figure 2 is an example diagram illustrating sensing values output from a lidar sensor included in a vehicle.
Figure 3 is a control block diagram of a vehicle according to one embodiment.
Figure 4 is a diagram for explaining point data collected by lidar sensors of a vehicle and surrounding vehicles.
Figure 5 is a diagram for explaining an operation of a control unit matching position information and point data according to an example.
FIG. 6 is a diagram for explaining a point data synchronization operation according to an example.
7 to 10 are diagrams for explaining an operation of a control unit matching point data according to an example.
Figure 11 is a diagram for explaining the operation of matching position information and point data of the lidar sensor.
Figure 12 is a flowchart for explaining the operation of a vehicle according to an example.

본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되는 이하의 상세한 설명과 바람직한 실시 예들로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서에서, 제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.The objectives, specific advantages and novel features of the present invention will become more apparent from the following detailed description and preferred embodiments taken in conjunction with the accompanying drawings. In this specification, when adding reference numbers to components in each drawing, it should be noted that identical components are given the same number as much as possible even if they are shown in different drawings. Additionally, in describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In this specification, terms such as first and second are used to distinguish one component from another component, and the components are not limited by the terms.

도 1은 일 실시예에 따른 차량의 외관도이고, 도 2는 차량이 포함하는 라이더 센서가 출력하는 센싱 값을 도식화한 예시도이다.FIG. 1 is an exterior view of a vehicle according to an embodiment, and FIG. 2 is an example diagram illustrating sensing values output from a lidar sensor included in the vehicle.

도 1을 참조하면, 일 실시예에 따른 차량(100)은 차량(100)의 전면, 측면, 또는 후면에 객체 내지 다른 차량을 감지하는 근접 센서, 강수 여부 또는 강수량을 감지하는 레인 센서 등의 감지 장치를 포함할 수 있다.Referring to FIG. 1, the vehicle 100 according to one embodiment includes a proximity sensor that detects objects or other vehicles on the front, side, or rear of the vehicle 100, and a rain sensor that detects whether or not there is precipitation or the amount of precipitation. May include devices.

근접 센서는 라이더 센서(Lidar, 120)를 포함하고, 필요에 따라 각각은 차량(100)에 복수 개 마련될 수 있다. 도 1에서는 차량(100) 전면에 세 개의 라이더 센서(120)가 설치되는 것으로 도시되었으나, 라이더 센서(120)가 마련되는 위치와 개수는 이에 한정되지 아니한다.The proximity sensor includes a lidar sensor (Lidar, 120), and a plurality of each may be provided in the vehicle 100 as needed. In FIG. 1, three lidar sensors 120 are shown to be installed on the front of the vehicle 100, but the location and number of lidar sensors 120 are not limited to this.

한편, 레이더(Radar) 센서는 물체에 전자파(예를 들면 전파, 마이크로파 등)를 조사하고, 물체로부터 반사되는 전자파를 수신하여 물체의 거리, 방향, 고도, 속도 등을 알 수 있는 감지 센서를 의미한다. Meanwhile, a radar sensor refers to a detection sensor that irradiates electromagnetic waves (e.g. radio waves, microwaves, etc.) to an object and receives electromagnetic waves reflected from the object to determine the distance, direction, altitude, speed, etc. of the object. do.

이와 비교하여 라이더 센서(120)는 물체에 레이더 센서가 조사하는 전자파보다 짧은 파장을 갖는 레이저 빔(예를 들어, 적외선, 가시광선 등)을 조사하고, 물체로부터 반사된 광을 수신하여 물체의 거리, 방향, 고도, 속도 등을 알 수 있는 감지 센서를 의미한다. 즉, 라이더 센서(120)는 레이더 센서에 비해 높은 에너지 밀도와 짧은 주기를 가지는 펄스 신호를 생성할 수 있고, 레이더 센서에 비해 방위 분해능 및 거리 분해능이 높다.In comparison, the lidar sensor 120 radiates a laser beam (e.g., infrared, visible light, etc.) having a shorter wavelength than the electromagnetic wave irradiated by the radar sensor to the object, and receives the light reflected from the object to determine the distance between the object and the object. , refers to a detection sensor that can determine direction, altitude, speed, etc. That is, the lidar sensor 120 can generate a pulse signal with a higher energy density and shorter period than a radar sensor, and has higher azimuth resolution and distance resolution than a radar sensor.

라이더 센서(120)와 관련된 시스템은 레이저를 송신하는 송신부, 반사되어 되돌아오는 레이저를 검출하는 검출부, 검출부가 전달하는 신호를 수집하여 처리하는 프로세서 등을 포함할 수 있으며, 개시된 발명에서 설명하는 라이더 센서(120)는 이러한 시스템 구성을 총칭할 수 있다.The system related to the lidar sensor 120 may include a transmitter that transmits a laser, a detector that detects the reflected and returned laser, a processor that collects and processes the signal transmitted by the detector, and the lidar sensor described in the disclosed invention. (120) can collectively refer to these system configurations.

라이더 센서(120)는 레이저 신호의 변조 방법에 따라 Time-Of-Flight(TOF) 방식과 Phase-shift 방식으로 구분될 수 있다. The lidar sensor 120 can be divided into a Time-Of-Flight (TOF) method and a Phase-shift method depending on the modulation method of the laser signal.

TOF 방식은 레이저가 펄스 신호를 방출하여 측정 범위 내에 있는 물체들로부터 반사 펄스 신호들이 수신기에 도착하는 시간을 측정함으로써 주변 물체와의 거리를 측정한다. The TOF method measures the distance to surrounding objects by emitting a pulse signal from a laser and measuring the time it takes for reflected pulse signals from objects within the measurement range to arrive at the receiver.

Phase-shift 방식은 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고 측정 범위 내에 있는 물체로부터 반사되어 되돌아 오는 신호의 위상 변화량을 측정하여 시간 및 거리를 계산하는 방식이다. The phase-shift method calculates time and distance by emitting a laser beam that is continuously modulated with a specific frequency and measuring the amount of phase change in the signal reflected back from an object within the measurement range.

개시된 라이더 센서의 레이저 광원은 250nm부터 11 μm까지의 파장 영역에서 특정 파장을 가지거나 파장 가변이 가능한 레이저 광원들이 사용되며, 소형, 저전력이 가능한 반도체 레이저 다이오드를 광원으로 사용할 수 있다. The laser light source of the disclosed lidar sensor has a specific wavelength or a variable wavelength in the wavelength range from 250 nm to 11 μm, and a small, low-power semiconductor laser diode can be used as the light source.

도 2를 참조하면, 일 실시예에 따른 라이더 센서(120)는 차량(100) 전면의 객체(Ob)의 위치 정보를 점 데이터(Di)로 출력할 수 있다. Referring to FIG. 2, the lidar sensor 120 according to an embodiment may output location information of an object Ob on the front of the vehicle 100 as point data Di.

구체적으로 라이더 센서(120)는 광을 이용하는 특성에 의해 객체(이하 오브젝트, Object)의 전면에서 반사된 광 각각에 대응하는 점 데이터(Di)를 출력할 수 있다. Specifically, the lidar sensor 120 may output point data (Di) corresponding to each light reflected from the front of an object (hereinafter referred to as an object) due to the characteristic of using light.

라이더 센서(120)가 수집하는 점 데이터의 개수는 도2 에서와 같이, 레이저 광원이 조사하는 정도에 따라 다양할 수 있다. 따라서 도 4이하에서 표시된 점 데이터는 수집한 점 데이터(Di)의 군집을 표현한 것이고, 개시된 발명을 설명하기 위해서 간략하게 도시한 것이다.As shown in FIG. 2, the number of point data collected by the lidar sensor 120 may vary depending on the degree of irradiation by the laser light source. Accordingly, the point data shown in FIG. 4 and below represent a cluster of collected point data Di, and are briefly shown to explain the disclosed invention.

한편, 라이더 센서(120)는 물체로부터 반사되는 레이저 빔의 수신 시간을 측정하여 거리를 측정하는 Laser Rangefinder 기술을 기반으로 할 수 있다. Meanwhile, the lidar sensor 120 may be based on Laser Rangefinder technology that measures the distance by measuring the reception time of a laser beam reflected from an object.

더 나아가 라이더 센서(120)는 Laser rangefinder 기술을 기반으로 Point-Scanning을 통해 Point-cloud, 즉 점 데이터를 대량으로 수집하거나 광각의 Flash-Laser에 대하여 반사되는 레이저를 다중 배열 수신소자를 통해 수집함으로써, 3차원 영상을 구현할 수도 있다.Furthermore, the lidar sensor 120 collects a large amount of point-cloud, or point data, through point-scanning based on laser rangefinder technology, or collects laser reflected from a wide-angle flash-laser through a multi-array receiving element. , 3D images can also be realized.

그러나 3차원 영상을 구현하는 라이더 센서(120)는 고가이며, 내구성, 양산성, 디자인적 측면에서 OEM 방식의 차량 제조에는 현실적으로 적합하지 않은 문제가 있다.However, the lidar sensor 120 that implements 3D images is expensive, and has problems in that it is not realistically suitable for OEM-type vehicle manufacturing in terms of durability, mass production, and design.

따라서 개시된 발명의 일 실시예에 따른 차량(100)은 도 2와 같이 점 데이터를 수집할 수 있는 채널(channel)을 수 개로 제한한 라이더 센서(120)를 포함할 수 있으며, 주변 환경을 정확하게 인식하기 위해 필요한 점 데이터는 주변 차량의 라이더 센서가 수집하는 외부의 점 데이터를 공유함으로써 해결한다.Therefore, the vehicle 100 according to an embodiment of the disclosed invention may include a lidar sensor 120 with a limited number of channels capable of collecting point data as shown in FIG. 2, and accurately recognizes the surrounding environment. The point data required for this is solved by sharing external point data collected by lidar sensors of surrounding vehicles.

한편, 개시된 발명은 라이더 센서(120)의 채널을 반드시 한정할 필요가 없으며. 개시된 차량(100)이 주변 차량에 설치된 라이더 센서가 수집하는 데이터를 종합하여 주변 환경을 인식할 수 있으면 충분하고, 제한은 없다.Meanwhile, the disclosed invention does not necessarily limit the channel of the lidar sensor 120. It is sufficient as long as the disclosed vehicle 100 can recognize the surrounding environment by combining data collected by lidar sensors installed in surrounding vehicles, and there is no limitation.

도 3은 일 실시예에 따른 차량의 제어 블록도이다.Figure 3 is a control block diagram of a vehicle according to one embodiment.

도 3을 참조하면, 개시된 발명의 일 실시예에 따른 차량(100)은 통신부(110), 라이더 센서(120), 및 제어부(130)를 포함한다.Referring to FIG. 3, a vehicle 100 according to an embodiment of the disclosed invention includes a communication unit 110, a lidar sensor 120, and a control unit 130.

통신부(110)는 차량(100)의 외부, 예를 들어 보행자(40), 주변 차량(50) 및 통신망(60)으로부터 다양한 정보를 수신한다. 또한, 통신부(110)는 차량(100)의 라이더 센서(120)가 수집한 점 데이터를 차량(100)의 주변으로 송신할 수도 있다.The communication unit 110 receives various information from outside the vehicle 100, for example, pedestrians 40, surrounding vehicles 50, and the communication network 60. Additionally, the communication unit 110 may transmit point data collected by the lidar sensor 120 of the vehicle 100 to the surroundings of the vehicle 100.

다양한 정보를 송,수신하기 위한 통신부(110)의 기술을 V2X 통신이라 한다.The technology of the communication unit 110 for sending and receiving various information is called V2X communication.

여기서 V2X 통신이란, 차량(100) 스스로 주체가 되어 다른 휴대 단말기, 통신망 또는 차량끼리 정보를 공유하는 시스템을 말하며, 차량과 모든 인터페이스(Interface)간의 통신 기술을 의미한다.Here, V2X communication refers to a system in which the vehicle 100 becomes the subject and shares information with other portable terminals, communication networks, or vehicles, and refers to communication technology between the vehicle and all interfaces.

구체적으로 V2X의 형태는 차량과 이동매체 기기간 통신(Vehicle-to-Nomadic devices, V2N), 차량과 차량간 통신(Vehicle-to-Vehicle, V2V) 및 차량과 인프라간 통신(Vehicle-to-Infrastructure, V2I)을 포함할 수 있다. 도 3에서 도시된 보행자(40)와 통신부(110)간의 통신은 V2N을 의미하고, 주변 차량(50)과 통신부(110)간의 통신은 V2V를 통신망(60)과 통신부(110)간의 통신은 V2I를 의미한다.Specifically, the forms of V2X include communication between vehicles and mobile media devices (Vehicle-to-Nomadic devices, V2N), communication between vehicles and vehicles (Vehicle-to-Vehicle, V2V), and communication between vehicles and infrastructure (Vehicle-to-Infrastructure, V2I) may be included. The communication between the pedestrian 40 and the communication unit 110 shown in FIG. 3 refers to V2N, the communication between the surrounding vehicle 50 and the communication unit 110 refers to V2V, and the communication between the communication network 60 and the communication unit 110 refers to V2I. means.

개시된 통신부(110)가 사용하는 V2X통신은 VANET (Vehicular Adhoc Networks)을 네트워크 기술을 사용할 수 있다. The V2X communication used by the disclosed communication unit 110 may use VANET (Vehicular Adhoc Networks) network technology.

여기서 VANET은 MANET(Mobile Ad-hoc Networks)의 한 형태로 고속으로 이동하는 네트워크의 각 노드에서 사용되는 무선 통신을 의미한다. Here, VANET is a form of MANET (Mobile Ad-hoc Networks) and refers to wireless communication used in each node of a network that moves at high speed.

만약 일반적인 MANET 기술을 차량(100)의 통신 기술로 이용한다면, 네트워크의 노드(각 차량)는 이동하기 때문에 네트워크의 단절이 빈번히 발생할 수 있다. 또한, 차량(100)이 고속으로 이동할 수 있으므로, 네트워크 링크 연결 시간이 짧아지고, 패킷 손실률이 높아지므로 네트워크 연결 상태가 전체적으로 불안정할 수 있다. If general MANET technology is used as a communication technology for the vehicle 100, network disconnections may occur frequently because the network nodes (each vehicle) move. Additionally, because the vehicle 100 can move at high speed, the network link connection time is shortened and the packet loss rate is high, so the overall network connection state may be unstable.

따라서 VANET은 기존의 MANET(예: WiFi)보다 짧은 채널 대역폭을 사용한다. 일 예로 WiFi의 표준 채널 대역폭은 20MHz이다. 이와 비교하여 VANET 네트워크는 10 MHz를 채널 대역폭으로 사용할 수 있다. 이렇게 VANET은 채널 대역폭을 줄이고 V2X 통신을 수행함으로써, 주파수의 선택적 페이딩 영향을 줄일 수 있다. Therefore, VANET uses shorter channel bandwidth than existing MANET (e.g. WiFi). For example, the standard channel bandwidth of WiFi is 20 MHz. In comparison, VANET networks can use 10 MHz as channel bandwidth. In this way, VANET can reduce the effect of selective fading of frequency by reducing the channel bandwidth and performing V2X communication.

또한, VANET은 V2X의 다른 AP(Access Point)와의 통신을 설정하기 전에 주요 인증 과정을 생략하여 통신을 수행함으로써, 빠른 통신을 수행할 수도 있다.Additionally, VANET can also perform fast communication by performing communication by omitting the main authentication process before establishing communication with another AP (Access Point) of V2X.

한편, 앞서 언급한 네트워크 기술은 개시된 통신부(110)가 사용하는 무선 통신 기술의 일 예에 불과하며, 개시된 통신부(110)는 차량(100)의 주변과 통신할 수 있는 통신 기술을 수행할 수 있는 장치이면 충분하고 제한은 없다.Meanwhile, the network technology mentioned above is only an example of the wireless communication technology used by the disclosed communication unit 110, and the disclosed communication unit 110 is capable of performing communication technology capable of communicating with the surroundings of the vehicle 100. Any device is sufficient and there are no limitations.

다시 도 3을 참조하면, 통신부(110)는 보행자(40), 주변 차량(50) 및 통신망(60)으로부터 다양한 정보를 수신한다. Referring again to FIG. 3, the communication unit 110 receives various information from the pedestrian 40, surrounding vehicles 50, and the communication network 60.

구체적으로 통신부(110)가 수신하는 정보는 주변 차량의 라이더 센서에서 수신하는 점 데이터 정보 뿐만 아니라 GPS(Global Positioning System), 차량(100)의 현재 위치 및 현재 위치의 주변 지도 정보를 포함하는 포지션 정보를 함께 수신할 수 있다. 통신부(110)가 수신하는 다양한 정보는 제어부(130)로 전달되고, 제어부(130)는 이러한 정보를 기초로 차량(100)의 주위 환경 정보를 생성한다.Specifically, the information received by the communication unit 110 is not only point data information received from lidar sensors of surrounding vehicles, but also position information including GPS (Global Positioning System), the current location of the vehicle 100, and map information surrounding the current location. can be received together. Various information received by the communication unit 110 is transmitted to the control unit 130, and the control unit 130 generates information about the surrounding environment of the vehicle 100 based on this information.

한편, 통신부(110)가 제어부(130)로 전달하는 정보는 CAN(Controller Area Network), LIN(Local Interconnect Network), MOST(Media Oriented System Transport)등과 같은 차량 내 유선망을 통해서 전달되거나, 블루투스(Bluetooth) 등과 같은 무선망을 통해 구축될 수 있으며, 제한은 없다.Meanwhile, the information transmitted by the communication unit 110 to the control unit 130 is transmitted through a wired network in the vehicle such as CAN (Controller Area Network), LIN (Local Interconnect Network), MOST (Media Oriented System Transport), or Bluetooth. ), etc., and there are no restrictions.

라이더 센서(120)는 전술한 바와 같이, 레이저를 이용하여 객체의 위치, 즉 라이더 점 데이터(Di) 및 속도 등을 센싱 값으로 출력한다. As described above, the lidar sensor 120 uses a laser to output the position of the object, that is, lidar point data (Di) and speed, as sensing values.

여기서 속도는 차량(100) 전방을 기준으로 종방향 속도, 횡방향 속도를 포함한다. 또한, 라이더 센서(120)는 차량(100)이 theta(Z)축을 기준으로 회전하는 회전 속도를 센싱 값으로 출력할 수 있다.Here, the speed includes longitudinal speed and lateral speed based on the front of the vehicle 100. Additionally, the lidar sensor 120 may output the rotational speed at which the vehicle 100 rotates about the theta (Z) axis as a sensing value.

구체적으로 차량(100)의 거동은 차량 전면, 즉 X축 방향의 전 후 직선운동(종방향 운동), Y축 방향의 좌 우 직선운동(횡방향 운동), Z축 방향의 상 하 직선운동 및 각 축을 중심으로 하는 회전운동 이렇게 6축 자유도로 표현 할 수 있다. Specifically, the behavior of the vehicle 100 is the front of the vehicle, that is, linear motion forward and backward in the Rotational movement around each axis can be expressed in 6-axis degrees of freedom.

여기서 X축 회전운동을 Roll, Y축 회전운동을 Pitch, Z축 회전운동은 Yaw라고 하며, Yaw의 초당 각도 즉, 회전 속도를 Yaw rate이라고 한다. Yaw rate는 주행 중인 차량(100)에서 운전자가 스티어링 휠을 조작하여 발생할 수 있는데, 라이더 센서(120)는 레이저 빔의 반사 시간에 기초하여 Yaw rate를 출력할 수 있다.Here, the X-axis rotational movement is called Roll, the Y-axis rotational movement is called Pitch, and the Z-axis rotational movement is called Yaw, and the angle per second of Yaw, that is, the rotational speed, is called Yaw rate. The yaw rate can be generated by the driver operating the steering wheel in the driving vehicle 100, and the lidar sensor 120 can output the yaw rate based on the reflection time of the laser beam.

라이더 센서(120)는 출력된 Yaw rate를 포함하는 속도 정보 및 반사되어 수집되는 점 데이터를 제어부(130)로 전달한다.The lidar sensor 120 transmits speed information including the output yaw rate and reflected and collected point data to the control unit 130.

제어부(130)는 통신부(110)와 라이더 센서(120)가 전달하는 포지션 정보 및 점 데이터 등에 기초하여 차량(100)의 주변 환경 정보를 생성한다.The control unit 130 generates information on the surrounding environment of the vehicle 100 based on the position information and point data transmitted by the communication unit 110 and the lidar sensor 120.

여기서 제어부(130)는 차량(100) 주변의 환경 정보를 생성하기 위해서 라이더 센서(120)가 수집하는 점 데이터(제 1 점 데이터) 및 통신부(110)가 전달하는 점 데이터(제 2 점 데이터)를 필요로 한다. 즉, 제 2 점 데이터는 통신부(110)가 차량(100)의 주변 차량 등으로부터 수신한 라이더 센서의 점 데이터를 의미한다.Here, the control unit 130 uses point data collected by the lidar sensor 120 (first point data) and point data transmitted by the communication unit 110 (second point data) to generate environmental information around the vehicle 100. requires. That is, the second point data refers to the point data of the lidar sensor that the communication unit 110 receives from vehicles surrounding the vehicle 100.

먼저, 제어부(130)는 통신부(110)에서 전달된 각 차량의 포지션 정보에 기초하여 라이더 센서가 수집한 점 데이터를 동기화시킨다. 여기서 점 데이터는 차량(100)에 설치된 라이더 센서(120)가 수집한 점 데이터일 수 있고, 차량(100) 주변의 차량이 통신부(110)를 통해 전달하는 점 데이터일 수 있다. 따라서 제어부(130)는 점 데이터를 구분, 즉 동기화한다.First, the control unit 130 synchronizes the point data collected by the lidar sensor based on the position information of each vehicle transmitted from the communication unit 110. Here, the point data may be point data collected by the lidar sensor 120 installed in the vehicle 100, or may be point data transmitted by vehicles around the vehicle 100 through the communication unit 110. Therefore, the control unit 130 separates or synchronizes the point data.

이후 제어부(130)는 점 데이터 중 차로 밖에 위치하는 점 데이터를 제외하고, 신뢰도가 높은 점 데이터에 기초하여 주변 차량의 위치를 수정(이하 코너 매칭)한다. 이후, 제어부(130)는 직선 성분이 강한 점 데이터를 주변 차량의 위치에 맞추어 수정(이하, 직선 매칭)하고, 각 동기화된 점 데이터들을 수신하는 라이더 센서의 틀어진 각도(이하, 회전 속도)를 저장하며, 회전 속도 등에 기초하여 앞서 제외한 차량 밖 점 데이터를 수정한다. Afterwards, the control unit 130 excludes point data located outside the lane among the point data and corrects the positions of surrounding vehicles based on point data with high reliability (hereinafter referred to as corner matching). Afterwards, the control unit 130 corrects the point data with a strong straight line component to match the positions of surrounding vehicles (hereinafter referred to as straight line matching) and stores the twisted angle (hereinafter referred to as rotation speed) of the lidar sensor receiving each synchronized point data. And, based on rotation speed, etc., data on points outside the vehicle previously excluded are corrected.

마지막으로 제어부(130)는 매칭된 데이터에 기초하여 차량(100) 주변의 정보를 정합한다. 이와 관련된 상세한 설명은 도 4 이하를 참조하여 후술한다.Finally, the control unit 130 matches information around the vehicle 100 based on the matched data. A detailed description related to this will be described later with reference to FIG. 4 and below.

한편, 제어부(130)는 주변 환경 정보를 생성하는 것 이외에 통신부(110) 및 라이더 센서(120)를 제어할 수 있는 프로세서(processor)이다. 또한 제어부(130)는 데이터를 저장할 수 저장매체와 함께 집적될 수 있으며, 차량(100)에 내장된 시스템 온 칩(System On Chip, SOC)에 집적될 수 있다. 다만, 차량(100)에 내장된 시스템 온 칩이 하나만 존재하는 것은 아니고, 복수 개일 수도 있으므로, 하나의 시스템 온 칩에만 집적되는 것으로 제한되진 않는다.Meanwhile, the control unit 130 is a processor that can control the communication unit 110 and the lidar sensor 120 in addition to generating surrounding environment information. Additionally, the control unit 130 can be integrated with a storage medium capable of storing data, and can be integrated into a system on chip (SOC) built into the vehicle 100. However, since there is not only one system-on-chip built into the vehicle 100, but there may be multiple, the system-on-chip is not limited to being integrated into only one system-on-chip.

개시된 일 예에 따른 차량(100)은 설명하지 않은 다른 모듈이나 구성을 포함할 수 있으며, 제한은 없다.The vehicle 100 according to the disclosed example may include other modules or components not described, and is not limited.

도 4는 차량 및 주변 차량의 라이더 센서가 수집하는 점 데이터를 설명하기 위한 도면이다. 구체적으로 도 4의 a (이하 도4a)는 각 차량(100)의 라이더 센서(120)가 발산하는 레이저를 설명하기 위한 도면이고, 도 4의 b (이하 도 4b)는 제어부(130)가 라이더 센서(120)가 센싱한 점 데이터를 전달받은 출력을 설명하기 위한 도면이다.Figure 4 is a diagram for explaining point data collected by lidar sensors of a vehicle and surrounding vehicles. Specifically, Figure 4a (hereinafter Figure 4a) is a diagram for explaining the laser emitted by the lidar sensor 120 of each vehicle 100, and Figure 4b (hereinafter Figure 4b) shows the control unit 130 controlling the lidar sensor 120. This is a diagram to explain the output received from the point data sensed by the sensor 120.

도 4a를 참조하면, 차량(100)은 차량(100)의 전면에 세 대의 차량과 후면에 차량 한 대(이하 주변 차량)와 도로를 함께 주행하고 있다. Referring to FIG. 4A, the vehicle 100 is traveling on the road with three vehicles in front of the vehicle 100 and one vehicle in the rear (hereinafter referred to as surrounding vehicles).

개시된 발명의 일 실시예에 따른 차량(100) 및 주변의 차량은 양산 가능한 라이더 센서(120)를 포함할 수 있다. 앞서 언급한 바와 같이. 라이더 센서(120)는 주변으로 짧은 파장의 레이저를 발산하여 오브젝트를 감지한다. 다만 양산 가능한 라이더 센서(120)는 점 데이터를 도 4a와 같이 수 개의 채널 범위 내에서 점 데이터를 수집할 수 있는 센서를 의미한다.The vehicle 100 and surrounding vehicles according to an embodiment of the disclosed invention may include a lidar sensor 120 that can be mass-produced. as I mentioned before. The lidar sensor 120 detects an object by emitting a short-wavelength laser to the surrounding area. However, the lidar sensor 120 that can be mass-produced refers to a sensor that can collect point data within the range of several channels, as shown in FIG. 4A.

도 4a 에서 도시된 차량(100) 및 주변의 차량의 라이더 센서(120)는 전면에 설치될 수 있고, 이 경우 각 차량(100)의 라이더 센서(120)가 수집하는 주변 객체에 관한 점 데이터는 제한될 수 밖에 없다. The lidar sensors 120 of the vehicle 100 and surrounding vehicles shown in FIG. 4A may be installed on the front, and in this case, the point data about surrounding objects collected by the lidar sensor 120 of each vehicle 100 is It can only be limited.

예를 들어, 개시된 차량(100)에 설치된 라이더 센서(120)는 차량(100) 전면에서 주행 중인 세 대의 차량에 대한 점 데이터만을 수집할 수 있다. 이렇게 수집된 점 데이터만을 이용한다면, 차량(100) 주변의 환경 정보는 실제 환경과 다를 수 있다. 따라서 개시된 차량(100)은 주변 차량에 설치된 라이더 센서가 수집하는 점 데이터를 공유한다.For example, the lidar sensor 120 installed in the disclosed vehicle 100 may collect only point data for three vehicles running in front of the vehicle 100. If only point data collected in this way is used, environmental information around the vehicle 100 may be different from the actual environment. Accordingly, the disclosed vehicle 100 shares point data collected by lidar sensors installed in surrounding vehicles.

도 4a에서 도시된 각 점 데이터와 도형은 차량(100) 및 주변 차량의 라이더 센서를 구분하여 표시한 것이다.Each point data and figure shown in FIG. 4A separately displays lidar sensors of the vehicle 100 and surrounding vehicles.

한편, 차량(100)에 설치된 라이더 센서(120)는 주행 차로의 전방에 위치한 차량 3대를 오브젝트로 점 데이터를 수집할 수 있다. 다만, 각 차량은 주행 중이므로, 진동 또는 스티어링 휠의 조향에 따라 수집된 점 데이터는 왜곡될 수 있다. Meanwhile, the lidar sensor 120 installed in the vehicle 100 can collect point data using the three vehicles located in front of the driving lane as objects. However, since each vehicle is driving, the collected point data may be distorted due to vibration or steering of the steering wheel.

만약 차량(100)이 차량(100)과 같은 차선에서 주행하는 전면 차량에 대해서 수집한 점 데이터에서 왜곡이 없다면, 전면 차량의 후면과 나란히 이어진 점 데이터가 표시되어야 한다. 그러나 주행 중에 수집되어 점 데이터는 도 4b에서 도시된 바와 같이 왜곡될 수 있다.If there is no distortion in the point data collected by the vehicle 100 for the vehicle in front traveling in the same lane as the vehicle 100, the point data that runs parallel to the rear of the vehicle in front should be displayed. However, because it is collected while driving, the point data may be distorted as shown in FIG. 4B.

따라서 제어부(130)는 이렇게 왜곡될 수 있는 점 데이터를 수정하여 정확한 환경 정보를 생성한다. 이와 관련된 자세한 설명은 도 6 내지 도 11을 통해 후술한다.Therefore, the control unit 130 corrects the point data that may be distorted and generates accurate environmental information. A detailed description related to this will be described later with reference to FIGS. 6 to 11.

한편, 차량(100) 주변의 차량에 설치된 라이더 센서는 차로 외곽에 있는 건물 또는 구조물에 대한 점 데이터를 수집할 수 있다. 이렇게 수집된 점 데이터는 차량(100)의 통신부(110)를 통해 공유되며, 도 4b에서 도시된 바와 같이 차로의 외곽에 표시된 점 데이터의 형태로 전달될 수 있다.Meanwhile, lidar sensors installed on vehicles around the vehicle 100 may collect point data about buildings or structures outside the lane. The point data collected in this way is shared through the communication unit 110 of the vehicle 100, and can be delivered in the form of point data displayed on the outside of the lane as shown in FIG. 4B.

도 5는 일 예에 따라 제어부가 포지션 정보 및 점 데이터를 매칭시키는 동작을 설명하기 위한 도면이다. Figure 5 is a diagram for explaining an operation of a control unit matching position information and point data according to an example.

구체적으로 도 5a는 도 4b에서 도시된 점 데이터를 차량(100)의 포지션 정보와 동기화 시킨 데이터를 의미한다.Specifically, FIG. 5A refers to data that synchronizes the point data shown in FIG. 4B with the position information of the vehicle 100.

앞서 언급한 바와 같이, 차량(100)은 GPS 등을 이용하여 현재 차량(100)이 위치하는 포지션 정보 및 주변 차량의 위치 정보를 획득할 수 있다. 이후 제어부(130)는 도 4b에서 수집된 각각의 점 데이터를 포지션 정보와 조합하여 도 5a와 같은 데이터를 생성할 수 있다. As mentioned above, the vehicle 100 may obtain position information where the vehicle 100 is currently located and location information of surrounding vehicles using GPS or the like. Thereafter, the control unit 130 may generate data as shown in FIG. 5A by combining each point data collected in FIG. 4B with position information.

한편, 제어부(130)는 왜곡될 수 있는 점 데이터 또는 포지션 정보를 도 5b와 같이 수정한다. 즉, 5b는 5a의 데이터를 매칭시킨 결과를 도시한 것이다.Meanwhile, the control unit 130 corrects point data or position information that may be distorted as shown in FIG. 5B. That is, 5b shows the result of matching the data in 5a.

구체적으로 제어부(130)는 다른 주변 차량으로부터 점 데이터를 전달받고, 정확한 주변 정보를 생성하기 위해서 각 데이터를 매칭시킨다. 앞서 언급한 바와 같이 각각의 차량에서 수집한 데이터는 왜곡이 발생할 수 있고, 제어부(130)는 각 데이터마다 신뢰도를 설정하여 왜곡된 정보를 매칭시킴으로써, 실제와 유사한 주변 정보를 생성할 수 있다. 제어부(130)가 수행하는 매칭에 관한 상세한 설명은 도 6 이하를 참조하여 후술한다.Specifically, the control unit 130 receives point data from other nearby vehicles and matches each data to generate accurate surrounding information. As mentioned above, data collected from each vehicle may be distorted, and the control unit 130 sets reliability for each data and matches the distorted information, thereby generating surrounding information similar to reality. A detailed description of the matching performed by the control unit 130 will be described later with reference to FIG. 6 and below.

도 6는 일 예에 따라 점 데이터 동기화 동작을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining a point data synchronization operation according to an example.

도 6를 참조하면, 먼저 제어부(130)는 각각의 점 데이터가 어느 차량에서 수집된 것인지를 구분한다.Referring to FIG. 6, first, the control unit 130 distinguishes from which vehicle each point data was collected.

앞서 언급한 바와 같이, 제어부(130)는 통신부(110)를 통해 주변 차량에 설치된 라이더 센서로부터 점 데이터를 전달받는다. 또한, 제어부(130)는 차량(100)내에 설치된 라이더 센서(120)로부터 주변 오브젝트에 대한 점 데이터를 수집할 수 있다. 따라서 제어부(130)는 수집된 점 데이터가 어느 차량으로부터 수신된 것인지 판단하기 위한 동기화를 실시한다.As mentioned above, the control unit 130 receives point data from lidar sensors installed in surrounding vehicles through the communication unit 110. Additionally, the control unit 130 may collect point data about surrounding objects from the lidar sensor 120 installed in the vehicle 100. Therefore, the control unit 130 performs synchronization to determine which vehicle the collected point data was received from.

이후 제어부(130)는 점 데이터를 현재 차량(100)의 포지션 정보를 기초로 매칭시킬 수 있다.Thereafter, the control unit 130 may match the point data based on the current position information of the vehicle 100.

통신부(110)가 점 데이터를 수신하는 경우, 점 데이터가 수집된 각 차량의 위치 정보도 함께 전달받을 수 있다. 따라서 제어부(130)는 각 차량의 위치 정보를 GPS 등으로부터 수신한 차량(100)의 위치와 함께 포지션 정보를 생성하고, 점 데이터를 각각을 차량과 맞추어 도 6과 같이 동기화시킬 수 있다.When the communication unit 110 receives point data, location information of each vehicle for which point data has been collected can also be received. Accordingly, the control unit 130 can generate position information together with the location of the vehicle 100 received from GPS, etc., and synchronize the point data with each vehicle as shown in FIG. 6.

한편, 도 6의 도형은 동기화를 설명하기 위한 일 예에 불과하며, 제한은 없다.Meanwhile, the figure in FIG. 6 is only an example to explain synchronization, and there is no limitation.

도 7 내지 도 10은 일 예에 따라 제어부가 점 데이터를 매칭시키는 동작을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.7 to 10 are diagrams for explaining an operation of a control unit matching point data according to an example. To avoid redundant explanation, they are explained together below.

도 7를 참조하면, 제어부(130)는 동기화된 데이터에서 차로 밖 점 데이터를 제외한다. 자율 주행에 있어서, 차로 밖 주변 데이터는 상대적으로 중요도가 낮을 수 있다. 따라서 제어부(130)는 도 7과 같이 차로 밖 오브젝트에 대한 점 데이터를 일시적으로 제외하고 이하의 매칭을 실행한다.Referring to FIG. 7, the control unit 130 excludes data on points outside the lane from the synchronized data. In autonomous driving, surrounding data outside the lane may be of relatively low importance. Therefore, the control unit 130 temporarily excludes point data for objects outside the lane as shown in FIG. 7 and performs the following matching.

도 8은 제어부(130)가 수행하는 코너 매칭에 관한 도면이다. Figure 8 is a diagram related to corner matching performed by the control unit 130.

차로 밖 점 데이터를 제외한 후, 제어부(130)는 도 8과 같이 제어부(130)는 차량(100) 주변의 차량의 위치를 이동시키는 코너 매칭을 수행할 수 있다.After excluding data on points outside the lane, the control unit 130 may perform corner matching to move the position of the vehicle around the vehicle 100, as shown in FIG. 8 .

구체적으로 차량(100)이 주행하는 차선의 옆 차선에 위치하는 주변 차량에 대한 점 데이터는 일정한 각도를 포함하여 군집 형태로 수집될 수 있다. 일정한 각도를 포함하는 코너 형태의 점 데이터는 실제 오브젝트의 위치와 일치할 확률이 높다. 따라서 제어부(130)는 코너를 이루어 형성되는 점 데이터의 군집에 맞추어 주변 차량의 위치를 수정한다.Specifically, point data on surrounding vehicles located in the lane next to the lane in which the vehicle 100 is traveling may be collected in the form of a cluster including a certain angle. Corner-shaped point data containing a certain angle has a high probability of matching the location of the actual object. Therefore, the control unit 130 corrects the positions of surrounding vehicles according to the cluster of point data formed at the corner.

도 8을 참조하면, 차량(100)의 주변 차량의 위치가 코너 형태의 점 데이터에 맞추어 수정된다.Referring to FIG. 8, the positions of vehicles surrounding the vehicle 100 are modified to match the corner-shaped point data.

도 9는 제어부(130)가 수행하는 직선 매칭에 관한 도면이다.Figure 9 is a diagram related to straight line matching performed by the control unit 130.

도 9를 참조하면, 제어부(130)는 차량(100) 주변의 차량의 위치에 맞추어 직선 형태의 점 데이터를 수정하는 직선 매칭을 수행할 수 있다.Referring to FIG. 9 , the control unit 130 may perform straight line matching to modify point data in the form of a straight line according to the position of the vehicle around the vehicle 100.

구체적으로 수집된 점 데이터 중 직선 형태의 군집은 주변 차량의 위치에 비해서 신뢰도가 낮을 수 있다. 왜냐하면 직선 형태의 점 데이터는 수집하는 라이더 센서(120)의 진동 등에 의해서 왜곡될 확률이 크기 때문이다.Specifically, among the collected point data, straight-line clusters may have lower reliability than the positions of surrounding vehicles. This is because there is a high probability that straight point data will be distorted due to the vibration of the collecting lidar sensor 120.

따라서 제어부(130)는 직선 형태의 점 데이터를 차량의 위치에 맞추어 도 9와 같이 수정할 수 있다. 도 9를 참조하면, 차량(100)의 주행 차로에서 차량(100)의 전면에 위치하는 주변 차량의 포지션 정보에 맞추어 점 데이터가 수정된다.Therefore, the control unit 130 can modify the point data in the form of a straight line to match the position of the vehicle, as shown in FIG. 9. Referring to FIG. 9 , point data is modified according to the position information of surrounding vehicles located in front of the vehicle 100 in the driving lane of the vehicle 100.

도 10은 차로 밖 점 데이터의 매칭을 수행하는 제어부(130)의 동작을 설명하기 위한 도면이다.Figure 10 is a diagram for explaining the operation of the control unit 130 that performs matching of data on points outside the lane.

도 8 내지 도 9에서 설명한 코너 매칭 및 직선 매칭을 수행한 후, 제어부(130)는 도 7에서 제외한 차로 밖에 위치한 점 데이터를 수정한다. 이러한 매칭은 각 차량의 Yaw rate를 기준으로 실행될 수 있다.After performing the corner matching and straight line matching described in FIGS. 8 and 9, the control unit 130 modifies the point data located outside the lane except in FIG. 7. This matching can be performed based on the yaw rate of each vehicle.

도 10에서 각 차량에 표시된 3차원 정보는 도 3에서 설명한 Roll, Pitch 및 Yaw를 임의로 도시한 것이다. 여기서 th는 theta, 즉 Yaw rate를 의미할 수 있으며, 각 차량의 회전 속도를 판단하는 기준이 될 수 있다. The 3D information displayed on each vehicle in FIG. 10 is an arbitrary representation of Roll, Pitch, and Yaw described in FIG. 3. Here, th may mean theta, that is, Yaw rate, and may be a standard for judging the rotation speed of each vehicle.

도 10을 참조하면, 제어부(130)는 차로 외곽의 점 데이터 중 기울어진 점 데이터 군집을 각 차량의 3차원 정보에 기초하여 수정할 수 있다. 즉, 각 차량의 회전 속도가 0이 아닌 경우 그 차량에서 수집한 점 데이터가 왜곡될 수 있으므로 제어부(130) 회전 속도를 기초로 기울어진 차로 외곽의 점 데이터를 수정할 수 있다.Referring to FIG. 10, the control unit 130 may modify a cluster of inclined point data among point data outside the lane based on 3D information of each vehicle. That is, if the rotation speed of each vehicle is not 0, the point data collected from that vehicle may be distorted, so the point data outside the inclined lane can be modified based on the rotation speed of the control unit 130.

도 11은 포지션 정보와 라이더 센서의 점 데이터를 정합하는 동작을 설명하기 위한 도면이다.Figure 11 is a diagram for explaining the operation of matching position information and point data of the lidar sensor.

제어부(130)는 도 10에서 수정된 점 데이터 및 포지션 정보에 기초하여 주변 환경 정보를 정합할 수 있다. 여기서 정합이란 제어부(130)가 수정된 점 데이터에 기초하여 주변의 건물 및 주변 차량 등을 다시 위치시키는 것을 의미한다.The control unit 130 may match surrounding environment information based on the point data and position information modified in FIG. 10 . Here, matching means that the control unit 130 re-positions surrounding buildings and surrounding vehicles based on the modified point data.

일 예로 정합 과정에서 수정된 주변의 차량 또는 건물의 위치와 중복되는 점 데이터는 도 10과 같이 삭제될 수 있다. For example, point data overlapping with the positions of surrounding vehicles or buildings modified during the matching process may be deleted as shown in FIG. 10 .

이 후 제어부(130)는 정합된 정보를 주위 환경 정보로 활용할 수 있다.Afterwards, the control unit 130 can use the matched information as surrounding environment information.

한편, 앞서 설명한 제어부(130)의 동작은 개시된 발명의 일 예에 불과하며, 제어부(130)가 수행하는 매칭 동작은 다양할 수 있으며, 제한은 없다.Meanwhile, the operation of the control unit 130 described above is only an example of the disclosed invention, and the matching operation performed by the control unit 130 may vary and is not limited.

도 12는 일 예에 따라 차량의 동작을 설명하기 위한 순서도이다.Figure 12 is a flowchart for explaining the operation of a vehicle according to an example.

먼저, 차량(100)에 설치된 라이더 센서(120)는 점 데이터를 수집할 수 있다(300).First, the lidar sensor 120 installed in the vehicle 100 can collect point data (300).

개시된 발명은 양산 가능한 라이더 센서(120)를 차량(100)에 설치할 수 있으며, 일 예에 따른 라이더 센서(120)는 수 개 범위 내의 채널만을 가지고, 점 데이터를 수집할 수 있다. In the disclosed invention, a mass-producible lidar sensor 120 can be installed in the vehicle 100, and the lidar sensor 120 according to one example has only channels within a few ranges and can collect point data.

따라서 라이더 센서(120)가 수집한 점 데이터만으로는 차량(100) 주변의 환경 정보를 정확하게 수집할 수 없고, 차량(100)은 통신부(110)가 수행하는 V2X 통신 등을 통해 추가적인 점 데이터를 전달받을 수 있다.Therefore, it is not possible to accurately collect environmental information around the vehicle 100 with only the point data collected by the lidar sensor 120, and the vehicle 100 does not receive additional point data through V2X communication performed by the communication unit 110. You can.

통신부(110)는 차량(100)의 포지션 정보 및 주변 차량에 설치된 라이더 센서가 수집하는 점 데이터를 전달받는다(310).The communication unit 110 receives position information of the vehicle 100 and point data collected by lidar sensors installed in surrounding vehicles (310).

여기서 통신부(110)는 위성으로부터 수집된 GPS 정보 등이 포함된 포지션 정보 및 주변 차량의 V2V 통신을 통해 전달하는 추가적인 점 데이터를 전달받을 수 있다. 즉, 제어부(130)는 점 데이터 및 포지션 정보를 주변의 차량과 공유할 수 있다.Here, the communication unit 110 can receive position information including GPS information collected from satellites and additional point data transmitted through V2V communication from surrounding vehicles. That is, the control unit 130 can share point data and position information with surrounding vehicles.

이 후 차량(100)의 제어부(130)는 포지션 정보 및 라이더 센서의 점 데이터를 매칭시킨다(330).Afterwards, the control unit 130 of the vehicle 100 matches the position information and the point data of the lidar sensor (330).

앞서 언급한 바와 같이, 제어부(130)는 신뢰도에 기초하여 미리 설정된 과정에 따라 수집된 데이터를 수정할 수 있다. 이와 관련된 상세한 설명은 도 13에서 구체적으로 후술한다.As mentioned above, the control unit 130 can modify collected data according to a preset process based on reliability. A detailed description related to this will be described in detail later in FIG. 13.

제어부(130)는 매칭된 데이터에 기초하여 차량(100)의 환경 정보를 생성한다(340).The control unit 130 generates environmental information of the vehicle 100 based on the matched data (340).

이렇게 생성된 환경 정보는 차량(100)의 자율 주행에 활용되거나, AVN 장치 등을 통해 운전자에게 디스플레이 될 수 있다.The environmental information generated in this way can be used for autonomous driving of the vehicle 100 or displayed to the driver through an AVN device, etc.

도 13은 점 데이터를 포지션 정보와 매칭시키는 동작을 설명하기 위한 순서도이다.Figure 13 is a flowchart for explaining the operation of matching point data with position information.

도 13을 참조하면, 제어부(130)는 각 차량에서 수신된 라이더 센서의 점 데이터를 동기화한다(400).Referring to FIG. 13, the control unit 130 synchronizes the point data of the lidar sensor received from each vehicle (400).

도 6에서 언급한 바와 같이, 통신부(110)는 차량(100)의 주변 차량으로부터 점 데이터를 수신할 수 있다. 제어부(130)는 통신부(110)가 전달하는 점 데이터가 어떤 차량에서부터 전달되었는지 확인한다. 이 후 제어부(130)는 통신부(110)가 전달하는 포지션 정보에 기초하여 각 차량과 점 데이터를 동기화한다.As mentioned in FIG. 6 , the communication unit 110 may receive point data from vehicles surrounding the vehicle 100 . The control unit 130 checks from which vehicle the point data transmitted by the communication unit 110 was transmitted. Afterwards, the control unit 130 synchronizes each vehicle and the point data based on the position information transmitted by the communication unit 110.

제어부(130)는 동기화 된 점 데이터에서 차로 밖에 위치하는 점 데이터를 제외한다(410).The control unit 130 excludes point data located outside the lane from the synchronized point data (410).

이 후 제어부(130)는 나머지 점 데이터에서 코너 매칭을 실행한다(420).Afterwards, the control unit 130 performs corner matching on the remaining point data (420).

도 7에서 언급한 바와 같이, 코너 매칭은 점 데이터에 기초하여 포지션 정보를 수정하는 것을 의미한다. 즉, 코너 매칭을 수행하는 제어부(130)는 미리 설정된 각도 이상이 되는 점 데이터 군집을 주변 차량의 포지션 정보보다 신뢰하여 점 데이터에 포지션 정보를 매칭시킨다. As mentioned in FIG. 7, corner matching means modifying position information based on point data. That is, the control unit 130 that performs corner matching trusts the point data cluster with a preset angle or more than the position information of surrounding vehicles and matches the position information to the point data.

제어부(130)는 직선 매칭을 실행한다(430).The control unit 130 performs straight line matching (430).

도 8에서 언급한 바와 같이, 직선 매칭은 직선으로 형성된 점 데이터의 신뢰도를 낮게 평가한 것으로 포지션 정보에 기초한 주변 차량의 위치에 점 데이터의 위치를 수정하는 것을 의미한다. 즉 제어부(130)는 주변 차량의 위치에 맞추어 직선 형태로 형성된 점 데이터를 수정한다.As mentioned in FIG. 8, straight line matching is a low evaluation of the reliability of point data formed by a straight line and means modifying the position of the point data to the position of surrounding vehicles based on position information. That is, the control unit 130 modifies the point data formed in a straight line according to the positions of surrounding vehicles.

제어부(130)는 제외했던 차로 밖에 점 데이터를 매칭한다(440).The control unit 130 matches point data outside the excluded lane (440).

도 9에서 언급한 바와 같이, 제어부(130)는 직선 매칭에 의해서 이동된 차량의 위치 및 포지션 정보에 포함된 각 차량의 Yaw rate에 기초하여 410단계에서 제외된 차로 밖 점 데이터를 다시 생성하여 수정한다.As mentioned in FIG. 9, the control unit 130 regenerates and modifies the out-of-lane point data excluded in step 410 based on the location of the vehicle moved by straight line matching and the yaw rate of each vehicle included in the position information. do.

이 후 제어부(130)는 매칭된 점 데이터와 포지션 정보에 기초하여 주변 오브젝트를 정합시키고, 주변 환경 정보를 생성한다(450).Afterwards, the control unit 130 matches surrounding objects based on the matched point data and position information and generates surrounding environment information (450).

제어부(130)는 정합된 주변 환경 정보를 검토한다(460).The control unit 130 reviews the matched surrounding environment information (460).

정합성 검토의 일 예로, 제어부(130)는 정합 과정에서 포지션 정보와 중복되어 남겨진 점 데이터를 삭제할 수 있다.As an example of consistency review, the control unit 130 may delete point data remaining redundant with position information during the matching process.

정리하면 개시된 일 예에 따른 차량(100)은 고가의 라이더 센서를 이용하지 않고, 수 개의 채널을 통해 주위의 점 데이터를 수집할 수 있는 라이더 센서(120)를 이용하고, 그 밖에 필요한 정보는 차량(120) 주변의 차량에서 수신된 포지션 정보 및 점 데이터를 통해 보충한다. 이를 기초로 개시된 차량(100)은 수집된 다양한 데이터를 매칭시켜 각 정보를 정합함으로써, 정확한 주변 환경 정보를 생성할 수 있다.In summary, the vehicle 100 according to the disclosed example does not use an expensive lidar sensor, but uses a lidar sensor 120 that can collect surrounding point data through several channels, and other necessary information is stored in the vehicle. (120) Supplemented through position information and point data received from surrounding vehicles. The vehicle 100 disclosed based on this can generate accurate surrounding environment information by matching various collected data and matching each piece of information.

100: 차량,
110: 통신부,
120: 라이더 센서
100: vehicle,
110: Ministry of Communications,
120: lidar sensor

Claims (20)

차량 주변의 객체에 대한 제 1 점 데이터를 수집하는 라이더(Lidar) 센서;
상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하는 통신부; 및
상기 라이더 센서가 전달하는 제 1 점 데이터와 상기 통신부가 전달하는 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 제어부;를 포함하고,
상기 제어부는,
상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터 중 상기 차량이 주행하는 차로 밖에 위치하는 점 데이터를 제외하고 상기 포지션 정보에 매칭하고,
상기 환경 정보를 생성한 후, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 제외된 점 데이터를 다시 수정하여 상기 환경 정보를 생성하는 차량.
Lidar sensors that collect first-point data about objects around the vehicle;
a communication unit that receives position information and second point data from outside the vehicle; and
A control unit that generates environmental information around the vehicle by matching the first point data transmitted by the lidar sensor and the second point data transmitted by the communication unit to the position information,
The control unit,
Based on the position information, match the position information excluding point data located outside the lane in which the vehicle is traveling among the first point data or the second point data,
After generating the environmental information, the vehicle generates the environmental information by modifying the excluded point data again based on the rotational speed included in the first point data and the second point data.
제 1항에 있어서,
상기 제어부는,
상기 포지션 정보에 기초하여, 상기 제 1점 데이터와 상기 제 2 점 데이터를 동기화하는 차량.
According to clause 1,
The control unit,
A vehicle that synchronizes the first point data and the second point data based on the position information.
제 1항에 있어서,
상기 제어부는,
상기 제 1 및 제 2 점 데이터에 기초하여, 상기 차량의 주변 위치를 수정하는 코너 매칭을 수행하는 차량.
According to clause 1,
The control unit,
A vehicle performing corner matching to modify a peripheral position of the vehicle based on the first and second point data.
제 3항에 있어서,
상기 제어부는,
상기 제 1 점 데이터 또는 상기 제 2 데이터 중 어느 하나의 점 데이터의 군집이 미리 설정된 각도를 초과하면 상기 코너 매칭을 수행하는 차량.
According to clause 3,
The control unit,
A vehicle that performs the corner matching when a cluster of point data of either the first point data or the second data exceeds a preset angle.
제 1항에 있어서,
상기 제어부는,
상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터를 수정하는 직선 매칭을 수행하는 차량.
According to clause 1,
The control unit,
A vehicle that performs straight line matching to modify the first point data or the second point data based on the position information.
제 1항에 있어서,
상기 제어부는,
상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 포지션 정보를 수정하는 차량.
According to clause 1,
The control unit,
A vehicle that corrects the position information based on the rotational speed included in the first point data and the second point data.
삭제delete 삭제delete 제 1항에 있어서,
상기 제어부는,
상기 포지션 정보를 매칭시킨 후, 상기 차량 주변의 환경 정보의 정합성을 검토하는 차량.
According to clause 1,
The control unit,
A vehicle that checks the consistency of environmental information around the vehicle after matching the position information.
제 1항에 있어서,
상기 통신부는,
상기 라이더 센서가 수집한 상기 제 1 점 데이터를 상기 차량의 외부로 송신하는 차량.
According to clause 1,
The Department of Communications,
A vehicle that transmits the first point data collected by the lidar sensor to the outside of the vehicle.
차량 주변의 객체에 대한 제 1 점 데이터를 수집하고;
상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하고;
상기 제 1 점 데이터와 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 것;을 포함하고,
상기 생성하는 것은,
상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터 중 상기 차량이 주행하는 차로 밖에 위치하는 점 데이터를 제외하고 상기 포지션 정보를 매칭시켜 환경 정보를 생성하고, 상기 환경 정보를 생성한 후, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 제외된 점 데이터를 다시 수정하여 상기 환경 정보를 생성하는 것을 포함하는 차량의 제어방법.
Collect first point data about objects around the vehicle;
receive position information and second point data from outside the vehicle;
Generating environmental information around the vehicle by matching the first point data and the second point data to the position information,
The above generates,
Based on the position information, generate environment information by matching the position information, excluding point data located outside the lane in which the vehicle is traveling, among the first point data or the second point data, and generating the environment information. and then generating the environment information by modifying the excluded point data again based on the rotation speed included in the first point data and the second point data.
제 11항에 있어서,
상기 생성하는 것은,
상기 포지션 정보에 기초하여, 상기 제 1점 데이터와 상기 제 2 점 데이터를 동기화하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함하는 차량의 제어방법.
According to clause 11,
The above generates,
Based on the position information, synchronizing the first point data and the second point data to generate environmental information around the vehicle.
제 11항에 있어서,
상기 생성하는 것은,
상기 제 1 및 제 2 점 데이터에 기초하여, 상기 차량의 주변 위치를 수정하는 코너 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함하는 차량의 제어방법.
According to clause 11,
The above generates,
Based on the first and second point data, performing corner matching to modify the surrounding position of the vehicle to generate environmental information around the vehicle.
제 13항에 있어서,
상기 생성하는 것은,
상기 제 1 점 데이터 또는 상기 제 2 데이터 중 어느 하나의 점 데이터의 군집이 미리 설정된 각도를 초과하면 상기 코너 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 더 포함하는 차량의 제어방법.
According to clause 13,
The above generates,
If a cluster of point data of either the first point data or the second data exceeds a preset angle, performing the corner matching to generate environmental information around the vehicle; A method of controlling a vehicle further comprising: .
제 11항에 있어서,
상기 생성하는 것은,
상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터를 수정하는 직선 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함하는 차량의 제어방법.
According to clause 11,
The above generates,
Based on the position information, performing straight line matching to modify the first point data or the second point data to generate environmental information around the vehicle.
제 11항에 있어서,
상기 생성하는 것은,
상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 포지션 정보를 수정한 상기 환경 정보를 생성하는 포함하는 차량의 제어방법.
According to clause 11,
The above generates,
A method of controlling a vehicle including generating the environment information in which the position information is modified based on a rotation speed included in the first point data and the second point data.
삭제delete 삭제delete 제 11항에 있어서,
상기 포지션 정보를 매칭시킨 후, 상기 차량 주변의 환경 정보의 정합성을 검토하는 것;을 더 포함하는 차량의 제어방법.
According to clause 11,
After matching the position information, reviewing consistency of environmental information around the vehicle.
제 11항에 있어서,
상기 라이더 센서가 수집한 상기 제 1 점 데이터를 상기 차량의 외부로 송신하는 것;을 더 포함하는 차량의 제어방법.
According to clause 11,
A method of controlling a vehicle further comprising transmitting the first point data collected by the lidar sensor to the outside of the vehicle.
KR1020160094638A 2016-07-26 2016-07-26 Vehicle and controlling method for the same KR102637515B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160094638A KR102637515B1 (en) 2016-07-26 2016-07-26 Vehicle and controlling method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160094638A KR102637515B1 (en) 2016-07-26 2016-07-26 Vehicle and controlling method for the same

Publications (2)

Publication Number Publication Date
KR20180011989A KR20180011989A (en) 2018-02-05
KR102637515B1 true KR102637515B1 (en) 2024-02-19

Family

ID=61224829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160094638A KR102637515B1 (en) 2016-07-26 2016-07-26 Vehicle and controlling method for the same

Country Status (1)

Country Link
KR (1) KR102637515B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11656358B2 (en) 2018-11-02 2023-05-23 Waymo Llc Synchronization of multiple rotating sensors of a vehicle
KR102177268B1 (en) * 2018-12-20 2020-11-10 한국전자기술연구원 Road Object Map Generation Method using Road Radar Information Generated by V2X Base Station
KR102266155B1 (en) * 2019-10-02 2021-06-17 (주)카네비컴 Lidar system for scanning 360°surroundings of moving object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009098023A (en) * 2007-10-17 2009-05-07 Toyota Motor Corp Object detector and object detection method
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102262369B1 (en) * 2014-05-09 2021-06-08 한화디펜스 주식회사 Apparatus and Method for Detecting Nearby Vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009098023A (en) * 2007-10-17 2009-05-07 Toyota Motor Corp Object detector and object detection method
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kenta Ito 外 3인. A Road Condition Monitoring System Using Various Sensor Data in Challenged Communication Network Environment. 2015 ICAINAW. 2015년*
공승현 外 2인. 센서융합 측위 기술의 현황과 연구 동향. 2015 29th International Conference on Advanced Information Networking and Applications Workshops, 2015년 8월 1부.*

Also Published As

Publication number Publication date
KR20180011989A (en) 2018-02-05

Similar Documents

Publication Publication Date Title
US11194057B2 (en) ASIL-classification by cooperative positioning
US10168418B1 (en) System and method for avoiding sensor interference using vehicular communication
CN109154647B (en) Distance sensor and calibration method performed by apparatus and system including the same
CN109426259B (en) System and method for synchronous vehicle sensor data acquisition processing using vehicle communication
CN109426258B (en) System and method for synchronized vehicle sensor data acquisition processing using vehicle communication
US20210006344A1 (en) Method, system, and device for seamless fault tolerant clock synchronization in a vehicle communication system
US9834212B2 (en) Apparatus and method for controlling vehicle using vehicle communication
Butt et al. On the integration of enabling wireless technologies and sensor fusion for next-generation connected and autonomous vehicles
US11334090B2 (en) Method and system for determining autonomous vehicle (AV) action based on vehicle and edge sensor data
US20200293041A1 (en) Method and system for executing a composite behavior policy for an autonomous vehicle
Obst et al. Multi-sensor data fusion for checking plausibility of V2V communications by vision-based multiple-object tracking
Adegoke et al. Infrastructure Wi-Fi for connected autonomous vehicle positioning: A review of the state-of-the-art
US11208085B2 (en) Automotive braking control system, apparatus, and method considering weather condition
US11488389B2 (en) Verifying timing of sensors used in autonomous driving vehicles
US11348380B2 (en) Beacon system in an autonomous vehicle radar for vehicle identification
EP3913328A1 (en) Vehicle positioning apparatus, system and method, and vehicle
US20210354719A1 (en) Synchronizing sensors of autonomous driving vehicles
KR102203475B1 (en) Method for controlling vehicle in autonomous driving system and apparatus thereof
KR102528421B1 (en) Communications terminal for vehicle and method for positioning vehicle using the same
KR102637515B1 (en) Vehicle and controlling method for the same
KR20210040947A (en) Information processing device and information processing method, computer program, information processing system, and mobile device
US20220080829A1 (en) Vehicle image processing device and method for displaying visual information on display included in vehicle
KR20190035115A (en) Vehicle control system, external electronic control unit, vehicle control method, and application
EP3361449A1 (en) Information processing device, information processing method, computer-readable medium, and moving object
KR101781041B1 (en) Radar apparatus for vehicle, Driver assistance apparatus and Vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant