KR20150049934A - A Method for Filtering Ground Data and An Apparatus thereof - Google Patents

A Method for Filtering Ground Data and An Apparatus thereof Download PDF

Info

Publication number
KR20150049934A
KR20150049934A KR1020130131136A KR20130131136A KR20150049934A KR 20150049934 A KR20150049934 A KR 20150049934A KR 1020130131136 A KR1020130131136 A KR 1020130131136A KR 20130131136 A KR20130131136 A KR 20130131136A KR 20150049934 A KR20150049934 A KR 20150049934A
Authority
KR
South Korea
Prior art keywords
data
epw
ground
value
sensor
Prior art date
Application number
KR1020130131136A
Other languages
Korean (ko)
Other versions
KR102030168B1 (en
Inventor
허명선
오영철
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020130131136A priority Critical patent/KR102030168B1/en
Publication of KR20150049934A publication Critical patent/KR20150049934A/en
Application granted granted Critical
Publication of KR102030168B1 publication Critical patent/KR102030168B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Disclosed are a method for filtering ground data and an apparatus thereof. The apparatus comprises: a sensor which receives data about objects around a vehicle; a storage part which stores the received data and predetermined standards; and a processing part which compares the received data and predetermined standards, and filters the data about the objects which are judged to represent the ground among the objects around the vehicle.

Description

지면 데이터 필터링 방법 및 그 장치{A Method for Filtering Ground Data and An Apparatus thereof}FIELD OF THE INVENTION [0001] The present invention relates to a method of filtering ground data,

본 발명은 차량의 센서에서 방사된 레이저를 이용하여 측정된 정보를 분석하여, 지면 데이터를 필터링하고 장애물에 대한 데이터를 판단하는 기술과 관련된다.The present invention relates to a technique for analyzing measured information using a laser emitted from a sensor of a vehicle, filtering ground data and determining data for the obstacle.

일반적으로 라이다(LiDAR) 등의 센서를 이용하여 측정된 데이터는 측정 범위 내에서 감지되는 모든 물체에 대한 정보를 포함한다. 그러나 시스템의 목적에 따라서, 감지된 데이터 중 일부에 대한 데이터는 노이즈 데이터가 되어 불필요할 수 있다. 예를 들어, 주변 물체, 주변 차량, 사람 등을 인지하고자 하는 차량용 시스템의 경우, 지면이 감지되어 나타나는 데이터는 불필요하므로 제거되어야 한다. 다중 레이어 라이다(Multi-Layer LiDAR)의 경우, 하위 레이어가 지면을 향하는 경우가 많고, 그렇지 않다 하더라도 차량의 롤링(rolling)이나 피칭(pitching) 등에 의해서 지면을 향하는 경우가 발생할 수 있다.Generally, data measured using sensors such as LiDAR include information about all objects detected within the measurement range. However, depending on the purpose of the system, the data on some of the sensed data may become unnecessary as noise data. For example, in the case of a vehicle system that recognizes surrounding objects, surrounding vehicles, people, etc., data that is detected when the ground is detected is unnecessary and should be removed. In the case of multi-layer LiDAR, the lower layer often faces the ground, and if not, it may happen that the vehicle is facing the ground due to rolling or pitching of the vehicle.

본 발명에서는 센서를 이용하여 측정된 데이터에서 지면 데이터를 효과적으로 필터링하는 방법 및 그 장치를 제공하는 것을 그 목적으로 한다.The present invention aims to provide a method and apparatus for efficiently filtering ground data from data measured using a sensor.

그러나 상기한 목적으로 여기에 개시된 내용을 한정하는 것은 아니며, 발명을 실시하기 위한 구체적인 내용 또는 청구항에서 언급하는 의도는 모두 본 발명의 목적으로 포함된다.It is to be understood, however, that the invention is not to be limited to the disclosed embodiments, and all such modifications as would be obvious to one skilled in the art are intended to be included within the scope of the following claims.

상기한 과제를 해결하기 위한 지면 데이터를 필터링 하는 장치는, 차량 주위의 오브젝트에 대한 데이터를 수신하는 센서; 상기 수신된 데이터와 미리 정의된 기준을 저장하는 저장부; 및 상기 수신된 데이터를 상기 미리 정의된 기준과 비교하여, 상기 차량 주위의 오브젝트 중 지면을 나타내는 것으로 판단되는 상기 오브젝트에 대한 데이터를 필터링하는 처리부를 포함할 수 있다.According to an aspect of the present invention, there is provided an apparatus for filtering ground surface data, comprising: a sensor for receiving data on an object around the vehicle; A storage unit for storing the received data and a predefined criterion; And a processing unit for comparing the received data with the predefined criterion to filter data on the object that is determined to represent the ground surface of the object around the vehicle.

또한, 상기 센서는 상기 오브젝트를 감지하기 위해 하나 이상의 빔(beam)을 방사하고, 상기 빔 각각은, 복수 개의 서로 다른 레이어를 포함할 수 있다.In addition, the sensor emits one or more beams for sensing the object, and each of the beams may include a plurality of different layers.

또한, 상기 처리부는 상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기를 획득하고, 상기 기울기가 상기 미리 정의된 기준에 해당하는 경우, 상기 감지된 오브젝트를 지면을 나타내는 것으로 판단할 수 있다.The processing unit may obtain a slope from the data of the objects sensed in two adjacent layers of the layer, and when the slope corresponds to the predefined criterion, determine that the sensed object represents a ground .

또한, 상기 처리부는 상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 상기 센서와 상기 감지된 오브젝트 사이의 거리를 획득하고, 상기 획득된 거리의 차이 값이 상기 미리 정의된 기준에 해당하는 경우, 상기 감지된 오브젝트를 지면을 나타내는 것으로 판단할 수 있다.In addition, the processing unit may acquire a distance between the sensor and the sensed object from data of objects sensed in two layers adjacent to each other among the layers, and determine whether a difference value of the obtained distances corresponds to the predefined criterion , It can be determined that the detected object represents a ground surface.

또한, 상기 미리 정의된 기준은 도로를 나타내는 EPW 값이고, 상기 처리부는 상기 수신된 데이터에 포함된 EPW(Echo Pulse width) 값이 상기 미리 정의된 기준에 해당하는 경우, 상기 오브젝트를 지면을 나타내는 것으로 판단할 수 있다.If the EPW value included in the received data corresponds to the predefined criterion, the processing unit may indicate the ground surface of the object as an EPW value It can be judged.

또한, 상기 미리 정의된 기준은 기준 각도, 기준 거리 차이, 및 도로를 나타내는 기준 EPW 값을 포함하고, 상기 처리부는, 상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기, 각 오브젝트에 대한 거리 차이, 및 상기 수신된 데이터에 포함된 EPW 값을 각각 상기 기준 각도, 상기 기준 거리 차이, 및 상기 기준 EPW 값과 비교하여, 모든 경우에 상기 오브젝트가 지면을 나타내는 것으로 판단되면 상기 오브젝트에 대한 데이터를 필터링 할 수 있다.In addition, the predefined criteria may include a reference angle, a reference distance difference, and a reference EPW value indicating a road, and the processing unit may calculate a slope, a slope, and a slope from the data of the objects detected in two adjacent layers, And EPW values included in the received data are compared with the reference angle, the reference distance difference, and the reference EPW value, respectively, and if it is determined in all cases that the object represents a ground surface, You can filter the data for.

또한 상기 과제를 해결하기 위한 차량 시스템이 지면 데이터를 필터링하는 방법은, 센서를 이용하여 차량 주위의 오브젝트에 대한 데이터를 수신하는 단계; 상기 수신된 데이터를 저장부에 저장하는 단계; 상기 수신된 데이터를 미리 정의된 기준과 비교하는 단계; 및 상기 비교 결과에 기초하여, 상기 오브젝트 중 지면을 나타내는 것으로 판단된 데이터를 필터링하는 단계를 포함할 수 있다.Also, a method for filtering ground surface data of a vehicle system to solve the above-described problems includes receiving data on an object around a vehicle using a sensor; Storing the received data in a storage unit; Comparing the received data with a predefined criterion; And filtering the data determined as representing the ground of the object based on the comparison result.

본 발명에 따르면, 라이다 센서와 같은 감지 유닛을 이용하여 차량 주변의 데이터를 감지하였을 때, 지면에 해당하는 데이터를 효과적으로 필터링하여 정확도와 신뢰도를 보장하는 처리 결과를 사용자에게 제공할 수 있는 효과가 있다.According to the present invention, when data around the vehicle is sensed by using a sensing unit such as a lidar sensor, the effect of filtering the data corresponding to the ground effectively to provide the processing result of ensuring accuracy and reliability have.

도 1은 센서를 이용하여 차량 주변을 탐지하는 일반적인 상황을 나타낸다.
도 2는 차량 전방의 물체에 관한 정보를 가공한 예시적인 이미지를 나타낸다.
도 3은 센서에 의해 감지된 데이터 중에서 지면으로 판단되는 데이터를 식별하는 방법을 나타낸다.
도 4는 본 발명에 따른 지면 데이터 필터링 장치의 일 예시를 나타낸다.
도 5a와 도 5b는 본 발명에 따른 지면 데이터 필터링 시스템의 예시들을 나타낸다.
도 6은 본 발명에 따른 지면 데이터 처리 방법의 흐름도를 나타낸다.
FIG. 1 shows a general situation in which the sensor is used to detect the vicinity of a vehicle.
Fig. 2 shows an exemplary image obtained by processing information on an object in front of the vehicle.
FIG. 3 shows a method of identifying data judged as a ground surface among data sensed by a sensor.
4 shows an example of a ground data filtering apparatus according to the present invention.
Figures 5A and 5B illustrate examples of a floor data filtering system according to the present invention.
FIG. 6 shows a flowchart of a method of processing sheet data according to the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 다양한 실시 예들을 상세히 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 즉, 하기의 설명에서는 본 발명의 실시 예에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.Various embodiments of the present invention will now be described in detail with reference to the accompanying drawings. Note that, in the drawings, the same components are denoted by the same reference symbols as possible. Further, the detailed description of well-known functions and constructions that may obscure the gist of the present invention will be omitted. In other words, it should be noted that only parts necessary for understanding the operation according to the embodiment of the present invention will be described, and descriptions of other parts will be omitted so as not to disturb the gist of the present invention.

이하의 설명에서 본 발명의 전자 장치는 본 발명의 다양한 실시 예에서 설명하는 기능을 지원하는 모든 정보통신기기, 멀티미디어기기 및 그에 대한 응용기기와 같이 AP(Application Processor), GPU(Graphic Processing Unit), CPU(Central Processing Unit)를 사용하는 모든 디바이스를 포함할 수 있다. 예를 들어, 상기 전자 장치는 다양한 통신 시스템에 대응되는 각 통신 프로토콜들(communication protocols)에 의거하여 동작하는 이동통신 단말기를 비롯하여, 태블릿(tablet) PC(Personal Computer), 스마트 폰(Smart Phone), 디지털 카메라, PMP(Portable Multimedia Player), 텔레매틱스(Telematics), 네비게이션 디바이스(Navigation Device), 기타 차량 탑재 시스템(In-Vehicle System)을 포함할 수 있다.In the following description, the electronic device according to the present invention may be applied to all information communication devices, multimedia devices, and application devices supporting the functions described in the various embodiments of the present invention, such as AP (Application Processor), GPU (Graphic Processing Unit) And may include all devices using a CPU (Central Processing Unit). For example, the electronic device may include a mobile communication terminal operating based on communication protocols corresponding to various communication systems, a tablet PC (personal computer), a smart phone, A digital camera, a portable multimedia player (PMP), a telematics, a navigation device, and an in-vehicle system.

본 명세서에서 오브젝트(object)라 함은 센서에 의해 감지된 대상을 의미한다. 예를 들어, 센서는 하나 이상의 빔을 방사하여, 반사되는 빔으로부터 대상에 대한 정보를 수집할 수 있는데, 이때 이 빔을 반사시키는 주체는 본 명세서에서 오브젝트로 이해될 수 있다. 지면, 도로, 측벽, 장애물과 같은 것들이 오브젝트에 해당할 수 있다.In the present specification, an object refers to a target detected by a sensor. For example, a sensor may emit one or more beams to collect information about the object from the reflected beam, wherein the subject that reflects the beam may be understood as an object herein. Objects such as ground, roads, sidewalls, and obstacles can correspond to objects.

도 1은 센서를 이용하여 차량 주변을 탐지하는 일반적인 상황을 나타낸다. 차량(100)은 전면에 전방의 장애물과 같은 정보를 수집하기 위한 센서(110)를 포함할 수 있다. 센서(110)는 레이저와 같은 빔(beam)을 방사하여, 반사되어 돌아오는 데이터로부터 차량(100) 주변의 물체에 대한 정보를 수집할 수 있다. 도 1을 참조하면, 차량(100)은 노면이 고르지 않은 도로(130)를 주행 중이며, 차량(100)의 전방에는 보행자 등과 같은 장애물(120)이 위치하여 있다. 센서로부터 방사된 빔 중 일부는 도로(130)를 감지하며, 다른 일부는 장애물(120)을 감지한다. 센서(110)로부터 방사되는 빔은 지면에 대해 복수 개의 각으로 방사될 수 있다. 즉, 센서(110)로부터 방사되는 빔은, 지면에 대해 수직한 방향으로 복수 개의 레이어(layer)를 가질 수 있다. 이때, 가장 하위에 위치한 레이어가 지면과 평행한 방향이거나, 또는 지면에 대해 상향을 지시하여도, 만약 일정 정도의 오르막 도로를 만나거나 노면 상태가 고르지 않은 경우에는 가장 하위 레이어에서도 지면에 대한 데이터들이 수집될 수 있다.FIG. 1 shows a general situation in which the sensor is used to detect the vicinity of a vehicle. The vehicle 100 may include a sensor 110 for collecting information such as a front obstacle on the front side. The sensor 110 may emit a laser-like beam and collect information about an object in the vicinity of the vehicle 100 from data reflected and returned. Referring to FIG. 1, a vehicle 100 is traveling on an uneven road surface 130, and an obstacle 120 such as a pedestrian is located in front of the vehicle 100. Some of the beam emitted from the sensor senses the road 130, while the other part senses the obstacle 120. The beam emitted from the sensor 110 may be radiated at a plurality of angles relative to the ground. That is, the beam emitted from the sensor 110 may have a plurality of layers in a direction perpendicular to the paper surface. In this case, if the lowest layer is parallel to the ground, or if it indicates an upward direction with respect to the ground, if it meets a certain degree of uphill road or if the road surface condition is uneven, Can be collected.

센서(110)를 통해 수집된 데이터는 가공되어 사용자(예를 들어, 차량 운전자)에게 디스플레이 될 수 있다. 이와 관련된 예시적인 이미지가 도 2에 도시된다.Data collected via the sensor 110 may be processed and displayed to a user (e.g., a vehicle operator). An exemplary image related to this is shown in FIG.

도 2는 차량 전방의 물체에 관한 정보를 가공한 예시적인 이미지를 나타낸다. 제1 이미지(210)는 카메라로 촬영된 차량 전방의 이미지를 나타낸다. 제2 이미지(220)는 센서로부터 수집된 데이터에 기초하여 생성된 가공 이미지이다. 도시하지는 않았지만, 제2 이미지(220)에서 지면 데이터를 필터링하고 사용자에게 친숙하게 가공된 2차 가공 이미지가 차량의 텔레매틱스, HUD(Head Unit Display), 스마트디바이스와 같은 디스플레이 유닛을 통해 제공될 수 있다.Fig. 2 shows an exemplary image obtained by processing information on an object in front of the vehicle. The first image 210 represents an image of the front of the vehicle photographed by the camera. The second image 220 is a processed image generated based on the data collected from the sensor. Although not shown, a second processed image that has been processed in a user-friendly manner by filtering the ground data in the second image 220 may be provided through a display unit such as a telematics of a vehicle, a head unit display (HUD), or a smart device .

제1 이미지(210)를 참조하면, 현재 운행 중인 차량 전방에는 별다른 장애물이 존재하지 않는다. 그러나 센서를 통해 감지된 데이터에 기초하여 가공된 제2 이미지(220)에는 도로 양 측면의 벽으로부터 수집된 것으로 판단되는 자료 외에도, 실제로는 도면을 감지한 데이터지만 마치 전방의 특정 장애물인 것처럼 판단될 수 있는 데이터가 포함된다. 즉 제2 이미지(220)에서는 전방의 도로 면이 측정되어 마치 장애물이 있는 것처럼 보여지게 된다. 사용자에게 최종적으로 제공되는 이미지에는 이와 같은 데이터들이 필터링될 것이 요구된다. 이하에서는 도 3을 참조하여, 지면으로 판단되는 데이터를 식별하는 방법을 설명한다.Referring to the first image 210, there is no obstacle ahead of the current vehicle. However, in addition to the data judged to have been collected from the walls on both sides of the road in the processed second image 220 based on the data sensed through the sensor, the data actually sensed by the drawing is judged to be a specific obstacle ahead Data that can be stored. That is, in the second image 220, the front road surface is measured and appears as if there is an obstacle. The images ultimately provided to the user are required to filter such data. Hereinafter, referring to FIG. 3, a method of identifying data determined as a ground will be described.

도 3은 센서에 의해 감지된 데이터 중에서 지면으로 판단되는 데이터를 식별하는 방법을 나타낸다. 도 3에서 센서는 라이다 센서를 의미하는 것으로 도시되었으나, 본 명세서에 개시된 방법이 적용 가능한 어떠한 종류의 센서, 예를 들어 레이더 또는 초음파 센서 등도 도 3에 도시된 센서로 이해될 수 있다.FIG. 3 shows a method of identifying data judged as a ground surface among data sensed by a sensor. Although the sensor in FIG. 3 is shown to mean a Lidar sensor, any kind of sensor, for example a radar or ultrasonic sensor, to which the method disclosed herein is applicable can also be understood as a sensor shown in FIG.

도 3에 있어서, 차량이 진행하는 방향은 y축, 차량 진행 방향의 좌-우측 방향은 x축, 및 지면에서 수직한 방향은 z축으로 이해될 수 있다. 예를 들어, 라이다 센서가 차량의 전방으로 100°의 범위(FOV: field of vies)를 감지할 수 있고, 분해능(resolution)이 0.1°라면, 라이다 센서의 FOV는 1,000개의 빔으로 구성된다. 또한, 라이다 센서가 4개의 레이어(layer)를 지원하는 경우, 각각의 빔은 4개의 레이어로 구성될 수 있다. 라이다 센서가 차량 전방을 탐지할 때, 각각의 레이어에 대한 1,000개의 데이터, 도합 4,000개의 데이터가 감지될 수 있다. 물론 이는 예시적인 것이며, 라이다 센서의 FOV, 분해능, 및 지원하는 레이어의 수는 구체적인 실시 예에 따라서 다르게 조정될 수 있다. 일 예시에서, 차량은 복수 개의 라이다 센서를 가질 수 있으며, 센서의 회전 가능한 특징으로 인해 FOV가 변경될 수 있다. 그러나 일련의 변형 예시들에서도, 센서에 의해 감지된 데이터로부터 지면에 해당하는 데이터를 필터링하는 방법에는 후술하는 원리가 여전히 적용된다. 이하에서는 100°의 FOV, 0.1°의 분해능, 4개의 레이어를 지원하는 라이다 센서를 기준으로 설명한다.In Fig. 3, it can be understood that the direction in which the vehicle travels is the y-axis, the left-right direction of the vehicle traveling direction is the x-axis, and the direction perpendicular to the ground is the z-axis. For example, if the Lidar sensor can sense a field of vision (FOV) of 100 degrees forward of the vehicle and the resolution is 0.1 °, then the FID of the Lidar sensor consists of 1,000 beams . Further, when the Raida sensor supports four layers, each beam can be composed of four layers. When the Raida sensor detects the front of the vehicle, 1,000 data for each layer, 4,000 data pieces can be detected. Of course, this is exemplary, and the FOV, resolution, and number of layers supported by the Lidar sensor can be adjusted differently according to specific embodiments. In one example, the vehicle may have a plurality of Lidar sensors, and the FOV may change due to the rotatable characteristics of the sensor. However, even in a series of modified examples, the principles described below still apply to the method of filtering the data corresponding to the ground from the data sensed by the sensor. In the following, the description will be made on the basis of a LIDAR sensor supporting FOV of 100 DEG, resolution of 0.1 DEG, and four layers.

도 3의 좌측 이미지는 차량의 진행방향(y축)을 기준으로, 동일 레이어에 대한 물체(object) 탐지를 나타낸다. 본 예시에서, 차량에 탑재된 라이다 센서는 전방 기준 100°범위에서 1000개의 빔을 이용하여 감지되는 물체에 대한 정보를 수집한다. 도시된 레이어가 1번째(가장 낮게 위치한) 레이어인 경우, 각각의 빔은 beam(1,1), beam(1,2), 또는 beam(1,1000)으로 7구분될 수 있다. 만약 2번째 레이어인 경우, beam(2,1), beam(2,2), 또는 beam(2,1000)으로 구분될 수 있다. 즉, 라이다 센서에서 방사되는 빔은 beam(layer, n)으로 구분될 수 있다. 이때 수집되는 정보에는 센서로부터 물체까지의 거리, 물체의 이동 여부, 및 수신된 반사 신호의 폭(EPW: Echo Pulse Width) 등이 포함될 수 있다.The left image of FIG. 3 shows the object detection for the same layer based on the traveling direction (y-axis) of the vehicle. In this example, a Lidar sensor mounted on a vehicle collects information about an object to be sensed using 1000 beams in a forward reference 100 [deg.] Range. If the illustrated layer is the first (lowest located) layer, each beam can be divided into 7 beams (1,1), beams (1,2), or beams (1,1000). If it is the second layer, it can be divided into beam (2,1), beam (2,2), or beam (2,1000). That is, the beam emitted from the Raid sensor can be divided into a beam (layer, n). The information collected at this time may include the distance from the sensor to the object, the movement of the object, and the width of the received reflected signal (EPW: Echo Pulse Width).

도 3의 우측 이미지는 차량의 진행방향(y축)을 기준으로, 동일 순번의 빔에 대한 물체의 탐지를 나타낸다. 편의상 좌측(차량의 중심을 기준으로 하여 운전자 측)으로부터 100번째 빔에 대한 데이터로 이해될 수 있다. 즉, 도 3의 우측 이미지에 도시된 빔은 beam(1,100), beam(2,100), beam(3,100), 및 beam(4,100)으로 이해될 수 있다.The right image of FIG. 3 shows the detection of an object with respect to the beam of the same order, with respect to the traveling direction (y-axis) of the vehicle. For convenience, it can be understood as data for the 100th beam from the left side (the driver side with respect to the center of the vehicle). That is, the beam shown in the right image of FIG. 3 can be understood as beam (1,100), beam (2,100), beam (3,100), and beam (4,100).

라이다 센서로부터 방출된 빔에 의해 차량 주변의 물체들이 감지된다. 100번째 빔에 의해서는 레이어마다(즉 제1 레이어부터 제4 레이어까지) 각각 1개씩 4개의 감지된 데이터가 획득된다. 전술한 각각의 빔에 의해 획득된 값을 value(1,100), value(2,100), value(3,100), 및 value(4,100)으로 정의할 수 있다. 이하에서는 편의상 도시된 4개의 빔을 B1, B2, B3, B4로, 감지된 4개의 값을 V1, V2, V3, V4로 설명한다.Objects around the vehicle are detected by the beam emitted from the Lidar sensor. By the 100th beam, four sensed data are obtained for each layer (i.e., from the first layer to the fourth layer), one by one. The values obtained by each of the above-described beams can be defined as value (1,100), value (2,100), value (3,100), and value (4,100). For the sake of convenience, the four beams shown as B1, B2, B3, and B4 will be referred to for convenience, and four detected values will be described as V1, V2, V3, and V4.

(1) 기울기 조건(1) Tilt condition

V1과 V2가 센서에 의해 지면이 감지된 데이터이고 V3와 V4가 장애물에 의해 감지된 데이터인 경우에, V1과 V1를 연결하는 가상의 선은 상대적으로 V3와 V4를 연결하는 가상의 선에 비해 지면에 대한 각도(기울기)가 작게 된다. (즉, θ1 < θ2) 나아가, 일반적으로 라이다 센서의 측정 방향(차량의 진행 방향)과의 각도가, 지면일 경우에는 0에 가깝고 장애물인 경우에는 90도에 가까워지게 된다.If V1 and V2 are ground-sensed data by sensors and V3 and V4 are data sensed by obstacles, the hypothetical line connecting V1 and V1 is relative to the hypothetical line connecting V3 and V4 The angle (inclination) with respect to the ground becomes small. (I.e.,? 1 <? 2). Further, in general, the angle with respect to the measurement direction (traveling direction of the vehicle) of the Lidar sensor is close to 0 in the case of a ground surface and close to 90 degrees in the case of an obstacle.

이 가상의 선의 기울기는 간단한 삼각함수를 이용하여 획득될 수 있다. 일반적으로 라이다 센서의 레이어를 구성하는 빔의 방사 각도는 고정되어 있다. 예를 들어, 제1 레이어의 방사 각도가 z축에 대하여 α, 제2 레이어의 방사 각도가 z축에 대하여 β이며, 제1 레이어가 제2 레이어보다 하위 축일 때, θ1 은 다음과 같은 수식으로 결정될 수 있다.The slope of this hypothetical line can be obtained using a simple trigonometric function. Generally, the radiation angle of the beam constituting the layer of the Raid sensor is fixed. For example, when the radiation angle of the first layer is?, The radiation angle of the second layer is? With respect to the z-axis, and the first layer is lower than the second layer,? 1 is expressed by the following equation Can be determined.

단, 여기서 r1은 센서로부터 V1 검출 지점까지의 거리, r2는 센서로부터 V2 검출 지점까지의 거리를 의미한다. 기울기는 항상 상기의 수식으로 결정되는 것은 아니며, 적절한 근사와 보정에 기초하여 획득될 수 있다.Where r1 is the distance from the sensor to the V1 detection point, and r2 is the distance from the sensor to the V2 detection point. The slope is not always determined by the above equation, but can be obtained based on appropriate approximation and correction.

감지된 데이터가 지면에 해당하는지 여부를 판단하기 위한 소정의 기준 값이 설정될 수 있다. 이 기준 값은 라이다 센서가 위치한 높이, 라이다 센서의 각 레이어에서 빔이 방출되는 (z축에 대한) 각도, 동일 레이어에서 빔이 방출되는 (y축에 대한) 각도 등의 정보에 기초하여 설정될 수 있다. 만약 측정된 기울기가 이 기준 값보다 작은 각도를 나타내면 도로 면으로, 측정된 기울기가 이 기준 값보다 크면 장애물로 판단될 수 있다. 이와 같은 기준 값은 실험적으로 결정될 수도 있으며, 사용자에 의해 설정될 수도 있다.A predetermined reference value for determining whether the sensed data corresponds to the paper surface can be set. This reference value is based on information such as the height at which the Lidar sensor is located, the angle at which the beam is emitted (at the z-axis) in each layer of the RidA sensor, and the angle at which the beam is emitted at the same layer Can be set. If the measured slope is smaller than this reference value, it can be judged as an obstacle if the measured slope is larger than this reference value. Such a reference value may be determined experimentally or may be set by a user.

감지된 데이터가 지면에 해당하는지 여부를 판단하기 위한 소정의 기준 범위가 설정될 수 있다. 예를 들어, 기울기가 20도 미만인 경우에는 도로, 20도 이상 60도 미만인 경우에는 판단 보류, 60도 이상인 경우에는 장애물로 판단될 수 있다. 도시된 예시에서, 제1 레이어와 제2 레이어에 의해 측정된 기울기는 도로의 범위에 포함되지만, 제2 레이어와 제3 레이어에 의해 측정된 기울기는 판단 보류 범위에 포함될 수 있다. 이 경우, 제3 레이어와 제4 레이어에 의해 측정된 기울기가 장애물 범위에 포함되면, 제3 레이어에 의해 측정된 데이터는 최종적으로 장애물로 판단될 수 있다. 또는, 후술하는 밀집도 조건이나 EPW 조건에 의해, 제3 레이어에 의해 감지된 데이터의 성격이 최종 결정될 수 있다.A predetermined reference range for judging whether or not the sensed data corresponds to the ground can be set. For example, if the slope is less than 20 degrees, it may be judged as a road, if it is more than 20 degrees but less than 60 degrees, it may be judged as a judgment suspension, and if it is more than 60 degrees, In the illustrated example, the slope measured by the first layer and the second layer is included in the range of the road, but the slope measured by the second layer and the third layer may be included in the judgment pending range. In this case, if the slope measured by the third layer and the fourth layer is included in the obstacle range, the data measured by the third layer may ultimately be determined as an obstacle. Alternatively, the nature of the data sensed by the third layer may be finally determined by the density condition or the EPW condition described later.

(2) 밀집도 조건(2) density condition

전술한 기울기가 상대적으로 큰 경우라 하더라도, 도로에 해당할 수 있다. 예를 들어, 전방에 낮은 턱이 존재하는 경우나, 차량 전방에 높은 언덕 길이 위치하는 경우에는 두 레이어에서 측정된 값을 연결하는 가상의 선의 기울기가 크게 측정될 수 있다. 또는 기울기 조건에 의해서는 측정된 데이터가 도로인지 여부를 확실하게 판단하기 곤란한 상황이 발생할 수 있다. 이와 같은 점을 보완하기 위한 방법으로, 측정된 값들의 밀집도를 이용할 수 있다.Even if the above-described slope is relatively large, it may correspond to a road. For example, if there is a low jaw in front, or if it is located at a high hill length in front of the vehicle, the slope of the hypothetical line connecting the measured values in the two layers can be measured to a large extent. Or a situation in which it is difficult to reliably determine whether or not the measured data is road by the inclination condition. As a way to overcome this, we can use the density of the measured values.

일반적으로 도로는 평평하며, 굴곡이 있더라도 차량의 운행에 지장이 없을 정도로 넓은 범위에 걸쳐서 존재한다. 이에 반하여 보행자나 다른 차량, 가로수 등의 장애물은 도로 상에 수직으로 배치되는 경우가 많다. 따라서, 전술한 바와 같이, 제1 레이어와 제2 레이어에 포함된 빔이 도로 면을 향하고, 제3 레이어와 제4레이어에 포함된 빔이 장애물을 향하는 경우에, 센서로부터 제1 레이어에서 측정된 물체(도로)까지의 거리(r1)와 제2 레이어에서 측정된 물체(도로)까지의 거리(r2)는, 도로의 특성상, 상대적으로 길게 된다. 즉, 거리 값의 분포가 분산되어 나타나게 된다. 그러나 제3 레이어에서 측정된 물체(장애물)까지의 거리(r3)와 제4 레이어에서 측정된 물체(장애물)까지의 거리(r4)는 거의 유사한 값을 가지게 된다. 즉, 거리 값의 분포가 특정 수치에 밀집되어 나타난다. 따라서, 서로 다른 레이어에서 센서에 의해 감지된 거리가 특정 기준 값 이내로 밀집되어 나타나는 경우, 해당 데이터는 장애물로 탐지된 데이터로 판단될 수 있다. 예를 들어, beam(3,800)~beam(3, 900)과 beam(4,800)~beam(4,900)에 의해 측정된 거리 값이 특정 기준 값 이내로 (예를 들어, 50cm 이내)로 감지되었다면, 차량의 진행방향 우측에 소정의 장애물이 있는 것으로 판단될 수 있다.Generally, roads are flat and exist over a wide range, even if there is a curvature, so that the operation of the vehicle is not hindered. On the other hand, obstacles such as pedestrians, other vehicles, and roadside trees are often arranged vertically on the road. Therefore, as described above, when the beam included in the first layer and the second layer is directed to the road surface, and the beam included in the third layer and the fourth layer is directed to the obstacle, The distance r1 from the distance r1 to the object (road) to the object (road) measured from the second layer becomes relatively longer due to the characteristics of the road. That is, the distribution of distance values appears dispersedly. However, the distance (r3) to the object (obstacle) measured in the third layer and the distance (r4) to the object (obstacle) measured in the fourth layer have almost similar values. That is, the distribution of the distance value is concentrated on a specific value. Therefore, when the distances detected by the sensors at different layers appear densely within a specified reference value, the corresponding data can be determined as data detected as an obstacle. For example, if the distance value measured by beam (3,800) to beam (3,900) and beam (4,800) to beam (4,900) is detected within a specified reference value (for example, within 50 cm) It can be judged that there is a predetermined obstacle on the right side of the traveling direction.

(3) EPW 조건(3) EPW condition

수신된 펄스 폭(echo pulse width)이 감지된 데이터가 지면을 나타내는지 장애물을 나타내는지 판단하기 위해 사용될 수 있다. 일반적으로 지면의 경우, 빔의 입사각이 크고, 특히 도로의 경우 아스팔트의 색상이 검정색인 경우가 많다. 따라서, 일반적으로 지면에 해당하는 오브젝트로부터 반사된 빔의 EPW 값은, 장애물로부터 반사된 빔의 EPW 값보다 크다.The echo pulse width can be used to determine whether the sensed data represents the ground or an obstacle. Generally, in the case of the ground, the incidence angle of the beam is large, and in the case of the road, the color of the asphalt is often black. Therefore, the EPW value of the beam reflected from an object generally corresponding to the ground is larger than the EPW value of the beam reflected from the obstacle.

각각의 빔은 도 3에 도시된 바와 같이 복수 개의 레이어로 구성되고, 인접한 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기가 획득될 수 있다. 예를 들어, 제1 레이어에서 획득된 V1과 제2 레이어에서 획득된 V2는 모두 지면에 대한 데이터이며, 이로부터 지면에 대한 기울기가 획득될 수 있다. 또한 V2와 V3는 각각 지면과 장애물로부터 획득된 데이터이다. 이로부터 획득된 기울기는 통상적인 지면의 기울기와 통상적인 장애물의 기울기 사이의 적당한 값을 가질 수 있다. 또한 V3와 V4는 모두 장애물로부터 획득된 데이터이며, 이로부터 장애물의 기울기가 획득될 수 있다. 이와 같이 제1 레이어에서부터 제4 레이어까지, 또는 하위 레이어에서부터 상위 레이어까지 순차적으로 비교하여 인접한 두 레이어에서 감지된 오브젝트 사이의 기울기를 획득할 수 있다.Each beam is composed of a plurality of layers as shown in Fig. 3, and a slope can be obtained from the data of the object detected at the adjacent layer. For example, both V1 obtained at the first layer and V2 obtained at the second layer are data on the ground, from which the slope with respect to the ground can be obtained. V2 and V3 are data obtained from the ground and obstacles, respectively. The slope obtained therefrom can have an appropriate value between the slope of the normal ground and the slope of the normal obstacle. Also, both V3 and V4 are data obtained from the obstacle from which the slope of the obstacle can be obtained. In this manner, the slopes between the objects detected in the adjacent two layers can be obtained by comparing sequentially from the first layer to the fourth layer or from the lower layer to the upper layer.

유사한 방식으로, 인접한 레이어에서 측정된 오브젝트 사이의 거리 차이가 획득될 수 있다. V1, V2, V3, V4 각각에 해당하는 오브젝트와 센서 사이의 거리가 r1, r2, r3, r4로 획득될 수 있고, r1과 r2, r2와 r3, r3와 r4의 거리 차이 값이 획득될 수 있다. 도시된 예시에서, r1과 r2, r2와 r3 사이의 거리 차이 값은 상대적으로 큰 값을 가지지만, 장애물에 해당하는 r3와 r4 사이의 거리 차이 값은 상대적으로 작은 값을 가지게 된다. 즉, 거리 값의 분포가 밀집되어 나타나게 된다. In a similar manner, a distance difference between objects measured at adjacent layers can be obtained. The distances between the objects corresponding to V1, V2, V3 and V4 can be obtained as r1, r2, r3 and r4 and the distance difference values of r1 and r2, r2 and r3, r3 and r4 can be obtained have. In the illustrated example, the distance difference value between r1 and r2, r2 and r3 has a relatively large value, but the distance difference value between r3 and r4 corresponding to the obstacle has a relatively small value. That is, the distribution of the distance values becomes dense.

상술한 기울기 조건, 밀집도 조건, EPW 조건 중 적어도 하나가 충족되는 경우에 해당 오브젝트를 지면으로부터 획득된 데이터로 판단할 수 있다. 그러나 일 실시 예에서는, 필터링 결과의 정확도를 향상시키기 위하여, 세 가지 조건을 모두 만족시키는 오브젝트가 지면을 나타내는 것으로 판단될 수 있다.When at least one of the slope condition, the dense condition, and the EPW condition is satisfied, the object can be determined as data obtained from the ground. However, in one embodiment, in order to improve the accuracy of the filtering result, an object satisfying all three conditions can be determined to represent the ground surface.

이하에서는 도 4 내지 도 5를 참조하여, 본 발명의 일 실시 예에 따른 지면 데이터 필터링 장치에 대하여 설명한다.Hereinafter, a ground data filtering apparatus according to an embodiment of the present invention will be described with reference to FIGS.

도 4는 본 발명에 따른 지면 데이터 필터링 장치의 일 예시를 나타낸다. 도 4를 참조하면, 지면 데이터 필터링 장치(400)는 감지부(sensing unit)(410), 저장부(storing unit)(420), 처리부(processing unit)(430), 및 표시부(display unit)(440)를 포함한다. 또한, 저장부(420)는 데이터 매트릭스(data matrix)(422), EPW 값(424), 및 그 외 미리 정의된 기준 값에 대한 정보 등을 포함할 수 있다.4 shows an example of a ground data filtering apparatus according to the present invention. 4, the ground data filtering apparatus 400 includes a sensing unit 410, a storing unit 420, a processing unit 430, and a display unit (not shown) 440). The storage 420 may also include a data matrix 422, an EPW value 424, and other predefined reference values.

감지부(410)는 일종의 센서일 수 있다. 예를 들어, 라이다 센서, 레이더 센서, 초음파 센서 등이 감지부(410)에 해당할 수 있다. 감지부(410)는 차량 주변에 위치한 오브젝트에 대한 데이터를 수신한다. 또한, 감지부(410)는 두 개 이상의 센서를 포함할 수 있고, 차량에 센서가 부착된 위치는 고정될 수도 있고 유동적일 수도 있으며, 사용자에 의해 조정될 수도 있다.The sensing unit 410 may be a sensor. For example, a radar sensor, a radar sensor, an ultrasonic sensor, or the like may correspond to the sensing unit 410. The sensing unit 410 receives data about an object located in the vicinity of the vehicle. In addition, the sensing unit 410 may include two or more sensors, and the position at which the sensor is attached to the vehicle may be fixed, fluid, or may be adjusted by a user.

감지부(410)에 의해 감지되는 범위는 센서의 부착 위치에 따라 차량의 전 방위에 해당할 수 있다. 본 발명에서는 통상적으로 차량의 전방의 소정 범위로서 이해될 수 있다. 상기 소정 범위는 센서의 특징에 의해 결정된다. 예를 들어, 센서의 FOV가 100°인 경우, 소정 범위는 차량에 센서가 위치한 지점으로부터 진행방향 기준으로 좌측 및 우측으로 각각 50°의 범위 내에서 센서의 빔 특성이 지원하는 직선거리, 즉 부채꼴 형태의 영역이 될 수 있다. 예를 들어, 센서의 빔이 직선거리 L까지 측정 가능하고, FOV가 α인 경우, 상기 소정 범위는 0.5*α*L2이 된다. 또한 센서는 지원하는 레이어에 따라서, 상기 소정 범위에 해당하는 복수 개의 레이어에 걸친 영역으로부터 오브젝트를 감지할 수 있다.The range sensed by the sensing unit 410 may correspond to the full azimuth of the vehicle depending on the attachment position of the sensor. The present invention can be generally understood as a predetermined range in front of the vehicle. The predetermined range is determined by the characteristics of the sensor. For example, when the FOV of the sensor is 100 °, the predetermined range is a linear distance supported by the beam characteristics of the sensor within a range of 50 ° to the left and right from the position where the sensor is located on the vehicle, It can be an area of the form. For example, if the beam of the sensor can measure up to the linear distance L, and the FOV is?, The predetermined range is 0.5 *? * L 2 . In addition, the sensor can sense an object from a region extending over a plurality of layers corresponding to the predetermined range according to a layer supported by the sensor.

저장부(420)는 센서에 의해 수집된 오브젝트에 대한 데이터를 저장한다. 이 저장부는 HDD나 SSD, SD 카드, 또는 플래시 메모리일 수 있다. 데이터는 일종의 데이터 매트릭스(422)에 저장될 수 있다. 데이터 매트릭스(422)는 레이어 행(layer row)과 빔 열(beam column)으로 구성될 수 있다. 예를 들면, 제1행에는 제1 레이어에서 수집된 오브젝트에 대한 데이터들이 포함되고, 제2행에는 제2 레이어에서 수집된 오브젝트에 대한 데이터들이 포함되는 방식이다. 이와 같은 데이터 매트릭스는 동일한 빔 열에서 대응되는 레이어 행에 해당하는 데이터들을 순차적으로 비교(예를 들어, 첫 번째 빔에 대한 제1레이어, 제2레이어, ..., 제n레이어의 값을 비교)하여 오브젝트가 지면을 나타내는 오브젝트인지 여부를 판단하기 위해 사용될 수 있다.The storage unit 420 stores data about objects collected by the sensor. The storage unit may be an HDD, an SSD, an SD card, or a flash memory. The data may be stored in a sort of data matrix 422. The data matrix 422 may be composed of a layer row and a beam column. For example, the first row includes data about objects collected in the first layer, and the second row includes data about objects collected from the second layer. Such a data matrix sequentially compares data corresponding to a corresponding layer row in the same beam column (for example, comparing the values of the first layer, the second layer, ..., the nth layer with respect to the first beam ) To determine whether the object is an object representing a ground surface.

저장부(420)는 또한, EPW 값(424)들을 저장할 수 있다. 또한 저장부(420)에는 일반적으로 도로임을 나타내는 EPW 값들이 미리 저장되어 있을 수 있다. 이와 같은 EPW 값(242)들은 해당 오브젝트로부터 수신된 데이터가 도로인지 아닌지를 판단하기 위해 사용될 수 있다. 이 외에도 저장부(420)는, 해당 오브젝트가 지면을 나타내는지 판단하기 위해 사용되는 기준 각도의 값, 기준 거리 차이의 값, 또는 그 범위에 대한 정보들을 포함하고 있을 수 있다.(예를 들어, 기타 데이터(426))The storage 420 may also store EPW values 424. In addition, the EPW values indicating that the road is generally stored may be stored in the storage unit 420 in advance. Such EPW values 242 may be used to determine whether the data received from the object is road or not. In addition, the storage unit 420 may include information on a value of a reference angle used to determine whether the object represents a ground, a value of a reference distance difference, or a range thereof (for example, Other data 426)

처리부(430)는 저장부(420)에 저장된 데이터들을 이용하여 오브젝트가 지면을 나타내는지 여부를 판단할 수 있다. 예를 들어, 처리부(430)는 데이터 매트릭스에서 인접한 2개의 레이어(즉, 인접한 2개의 행)에서 감지된 오브젝트에 대한 데이터로부터, 두 오브젝트를 연결하는 가상의 실선이 지면과 이루는 각도, 즉 기울기를 획득할 수 있다. 이 획득된 기울기를 미리 정의된 기준과 비교한다. 만약 획득된 기울기가 소정의 각도보다 작거나, 지면을 나타내는 것으로 정의된 각도의 범위에 포함되는 경우, -즉 기울기 조건을 만족하는 경우- 해당 오브젝트는 지면을 나타내는 것으로 판단될 수 있다. The processing unit 430 may determine whether the object represents a ground using the data stored in the storage unit 420. For example, the processing unit 430 may calculate, from data on objects detected in two adjacent layers (i.e., adjacent two rows) in the data matrix, an angle formed by an imaginary solid line connecting the two objects with the ground, Can be obtained. This obtained slope is compared with a predefined criterion. If the obtained inclination is smaller than the predetermined angle or included in the range of the angle defined as representing the ground, that is, if the inclination condition is satisfied, it can be determined that the object represents the ground.

또한, 처리부(430)는 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터, 센서와 오브젝트 사이의 거리를 획득할 수 있다. 만약 두 오브젝트와 센서 사이의 거리 값의 차이가 소정 크기 이하이거나, 지면을 나타내는 것으로 정의된 크기의 범위에 포함되는 경우, -즉 밀집도 조건을 만족하는 경우- 해당 오브젝트는 지면을 나타내는 것으로 판단될 수 있다.In addition, the processing unit 430 can obtain the distance between the sensor and the object from the data of the object sensed in two adjacent layers. If the difference between the distance values between the two objects and the sensor is less than a predetermined size or included in a range of sizes defined as representing the ground, that is, if the density condition is satisfied, the object may be determined to represent the ground have.

또한, 처리부(430)는 수신된 데이터에 포함된 EPW 값이 도로에 해당하는 EPW 값인 경우에, 해당 오브젝트를 지면을 나타내는 것으로 판단할 수 있다.In addition, when the EPW value included in the received data is the EPW value corresponding to the road, the processing unit 430 can determine that the object represents the ground surface.

상술한 기준 중 적어도 하나를 만족하는 오브젝트에 대한 데이터를 지면 데이터로 판단할 수 있으나, 정확도의 향상을 위해서 상술한 기준을 모두 만족하는 오브젝트에 대한 데이터를 지면 데이터로 판단하는 것도 가능하다.Data on an object satisfying at least one of the above criteria can be judged as ground data, but it is also possible to judge data on an object satisfying all of the above-mentioned criteria as ground data in order to improve the accuracy.

표시부(440)는 지면 데이터가 필터링된 결과를 사용자 또는 차량 운전자에게 제공한다. 이때 제공되는 영상은 사용자 친화적으로 적절하게 가공된 영상일 수 있다. 예를 들어, 지면 데이터가 필터링된 감지 결과가 전방 특정 거리 이내에 장애물이 있는 것을 나타내면, 해당 위치 또는 거리에 대한 안내와 함께 스티어링 휠의 조향 안내가 함께 제공될 수 있다.The display unit 440 provides the user or the vehicle driver with the filtered result of the ground surface data. At this time, the provided image may be a user-friendly and properly processed image. For example, if the ground data indicates that the filtered detection result has an obstacle within a certain forward distance, steering guidance of the steering wheel may be provided together with guidance of the position or distance.

이와 같은 디스플레이, 또는 장치(400)를 구성하는 다른 부분은, 별도의 독립된(stand-alone) 장치로 구현될 수도 있는데, 이에 대한 예시를 도 5a와 도 5b를 참조하여 설명한다.Such a display or other part of the device 400 may be implemented as a separate stand-alone device, an example of which will be described with reference to FIGS. 5A and 5B.

도 5a와 도 5b는 본 발명에 따른 지면 데이터 필터링 시스템의 예시들을 나타낸다. 도 5a와 도 5b에 도시된 구성을 설명함에 있어서, 전술한 구성과 중복되는 설명은 생략한다.Figures 5A and 5B illustrate examples of a floor data filtering system according to the present invention. In explaining the configurations shown in Figs. 5A and 5B, the description overlapping with the above-described configuration will be omitted.

도 5a를 참조하면, 시스템은 처리장치(510)와 디스플레이 장치(520)를 포함한다. 처리장치(520)는 전술한 감지부(410), 저장부(420), 처리부(430)를 포함하며, 추가적으로 통신부(450)를 포함한다. 통신부(450)는 디스플레이 장치(520)에 포함된 통신부(524)와 연결되어, 디스플레이 장치(520)의 표시부(522)에 의해 지면 데이터가 필터링 된 결과가 디스플레이 되도록 데이터를 제공할 수 있다. 통신부(450)와 통신부(524) 사이의 연결은 LAN과 같은 유선 연결뿐만 아니라, Wi-Fi, Bluetooth, 또는 NFC와 같은 근거리 통신을 통해서도 가능하다. 예를 들어, 처리장치(510)는 차량에 탑재된 텔레매틱스 시스템일 수 있으며, 디스플레이 장치(520)는 텔레매틱스와 통신할 수 있는 스마트폰, 태블릿, 스마트 워치와 같은 모바일 컴퓨팅 디바이스 일 수 있다. 또한 디스플레이 장치(520)는 차량의 HUD일 수도 있다.Referring to FIG. 5A, the system includes a processing unit 510 and a display unit 520. The processing unit 520 includes the sensing unit 410, the storage unit 420, and the processing unit 430 described above, and further includes a communication unit 450. The communication unit 450 may be connected to the communication unit 524 included in the display device 520 to provide data so that the result of filtering the ground data by the display unit 522 of the display device 520 is displayed. The connection between the communication unit 450 and the communication unit 524 is possible not only by a wired connection such as a LAN but also by a local communication such as Wi-Fi, Bluetooth, or NFC. For example, the processing unit 510 may be a telematics system mounted on a vehicle, and the display device 520 may be a mobile computing device such as a smart phone, a tablet, or a smart watch capable of communicating with telematics. The display device 520 may also be the HUD of the vehicle.

도 5b는 시스템의 다른 구성 예시를 나타낸다. 도 5b를 참조하면, 감지부(410)는 처리장치(530)와 독립적으로 구성된다. 감지부(410)와 처리장치(530)는 can 버스 등으로 연결될 수 있다. 감지부(410)를 처리장치(530)와 별도로 구성함으로써, 감지부(410)의 교체, 교환, 추가 등을 용이하게 할 수 있다.5B shows another configuration example of the system. Referring to FIG. 5B, the sensing unit 410 is configured independently of the processing unit 530. The sensing unit 410 and the processing unit 530 may be connected by a CAN bus or the like. By replacing the sensing unit 410 with the processing unit 530, the sensing unit 410 can be easily replaced, replaced, or added.

도 6은 본 발명에 따른 지면 데이터 처리 방법의 흐름도를 나타낸다. 프로세스는 단계 610에서 시작한다. 단계 620에서, 시스템은 센서 등을 이용하여 차량 주변에 위치한 오브젝트에 대한 데이터를 수집한다. 센서는 오브젝트를 감지하기 위해 하나 이상의 빔을 방사하고, 빔은 복수 개의 레이어를 갖는다. 단계 630에서 시스템은 센서에 의해 수신된 데이터를 저장부에 저장한다. 저장되는 데이터는 데이터 매트릭스의 형태를 가질 수 있다. 데이터 매트릭스에 대한 설명은 전술한 바 있으므로 생략한다. 또한 수신된 데이터에 포함된 EPW 값도 저장될 수 있다. 단계 642, 644, 646에서는 수신된 데이터, 또는 그로부터 획득된 데이터를 시스템에 미리 정의되어 있는 기준과 비교한다. 단계 642, 644, 646은 순차적으로 수행될 수도 있고, 동시에 수행될 수도 있다.FIG. 6 shows a flowchart of a method of processing sheet data according to the present invention. The process begins at step 610. In step 620, the system collects data about objects located around the vehicle using sensors and the like. The sensor emits one or more beams to sense the object, and the beam has a plurality of layers. In step 630, the system stores the data received by the sensor in the storage. The data to be stored may have the form of a data matrix. The description of the data matrix is omitted as it has been described above. The EPW value included in the received data can also be stored. In steps 642, 644, and 646, the received data, or data obtained therefrom, is compared with a predefined criterion in the system. Steps 642, 644 and 646 may be performed sequentially or concurrently.

단계 642에서, 인접한 레이어에서 감지된 두 오브젝트에 대한 기울기가 판단된다. 상기 기울기는 두 오브젝트를 연결하는 가상의 실선이 지면과 이루는 각도를 의미할 수 있다.In step 642, the slope for the two objects detected in the adjacent layer is determined. The inclination may refer to an angle formed by a virtual solid line connecting the two objects with the ground surface.

단계 644에서, 인접한 레이어에서 감지된 두 오브젝트에 대한 밀집도가 판단된다. 상기 밀집도는 두 오브젝트와 센서 사이의 거리 값의 차이로부터 결정되며, 거리 값의 차이가 작을 수록 밀집도가 높은 것으로, 클 수록 밀집도가 낮은 것으로 판단된다.At step 644, the density of the two objects detected in the adjacent layer is determined. The density is determined from the difference in the distance value between the two objects and the sensor, and the smaller the difference in the distance value is, the higher the density is, and the greater the density is, the lower the density is.

단계 646에서, 수집된 데이터에 포함된 EPW 값이 판단된다.In step 646, the EPW value included in the collected data is determined.

단계 650에서, 단계 642, 644, 646에서 판단된 기울기, 밀집도, EPW가 미리 정의된 기준(조건)을 충족시키는지 여부를 판단한다. 조건을 충족하면 해당 오브젝트는 지면을 나타내는 것으로 판단되고(단계 662), 충족하지 않으면 해당 오브젝트는 장애물로 판단될 수 있다(단계 664). 일 실시 예에서는, 기울기, 밀집도, EPW 조건 중 적어도 하나를 만족하는 경우 지면으로 판단될 수 있으나, 다른 실시 예에서는 세 가지 조건 모두를 만족하는 경우, 해당 오브젝트가 지면으로 판단될 수 있고, 판단된 지면 데이터는 필터링 될 수 있다.In step 650, it is determined whether the slope, density, and EPW determined in steps 642, 644, and 646 satisfy a predefined criterion (condition). If the condition is met, the object is determined to represent the ground (step 662), and if not, the object may be determined to be an obstacle (step 664). In one embodiment, it can be determined as a paper surface when at least one of a slope, a density, and an EPW condition is satisfied. In another embodiment, when all three conditions are satisfied, the object can be determined as a ground surface, Ground data can be filtered.

단계 670에서 프로세스는 종료된다. 그러나 도 5와 관련하여 전술한 바와 같이, 지면 데이터가 필터링된 결과는 디스플레이 되거나, 디스플레이 하기 위하여 타 디바이스로 전송될 수 있다. 또한, 단계 620에서 취득된 데이터는 단계 630에서 소정의 저장부에 저장되기 전에 디바이스 사이의 전송 과정을 거칠 수 있다. 즉, 도 6에 도시된 흐름도는 예시적인 것이며, 당업자의 수준에서 전술한 설명에 대응하는 일부 단계가 생략되거나 부가될 수 있다.At step 670, the process ends. However, as described above in connection with FIG. 5, the filtered result of the ground data can be displayed or transmitted to another device for display. In addition, the data acquired in step 620 may be transferred between devices before being stored in a predetermined storage in step 630. [ That is, the flowchart shown in FIG. 6 is exemplary and some steps corresponding to the above description may be omitted or added at the level of those skilled in the art.

본 명세서에서, 특정 기능을 수행하기 위한 수단으로서 표현된 요소는 특정 기능을 수행하는 임의의 방식을 포괄하고, 이러한 요소는 특정 기능을 수행하는 회로 요소들의 조합, 또는 특정 기능을 수행하기 위한 소프트웨어를 수행하기 위해 적합한 회로와 결합된, 펌웨어(firmware), 마이크로코드(microcode) 등을 포함하는 임의의 형태의 소프트웨어를 포함할 수 있다.In this specification, elements represented as means for performing a specific function encompass any way of performing a particular function, and these elements may be implemented as a combination of circuit elements performing a specific function, or software for performing a specific function May include any form of software, including firmware, microcode, etc., coupled with suitable circuitry to perform.

본 명세서에서 본 발명의 원리들의 '일 실시 예'와 이런 표현의 다양한 변형들의 지칭은 이 실시 예와 관련되어 특정 특징, 구조, 특성 등이 본 발명의 원리의 적어도 하나의 실시 예에 포함된다는 것을 의미한다. 따라서, 표현 '일 실시 예에서'와, 본 명세서 전체를 통해 개시된 임의의 다른 변형 예시들은 반드시 모두 동일한 실시 예를 지칭하는 것은 아니다.Reference throughout this specification to &quot; one embodiment &quot; of the principles of the invention and various modifications of such expression in connection with this embodiment means that a particular feature, structure, characteristic or the like is included in at least one embodiment of the principles of the invention it means. Thus, the appearances of the phrase &quot; in one embodiment &quot; and any other variation disclosed throughout this specification are not necessarily all referring to the same embodiment.

본 명세서를 통해 개시된 모든 실시 예들과 조건부 예시들은, 본 발명의 기술 분야에서 통상의 지식을 가진 당업자가 독자가 본 발명의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
It is to be understood that all embodiments and conditional statements disclosed herein are intended to assist one skilled in the art to understand the principles and concepts of the present invention to those skilled in the art, It will be understood that the invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

400: 지면 데이터 필터링 장치
410: 감지부
420: 저장부
430: 처리부
440: 표시부
400: ground data filtering device
410:
420:
430:
440:

Claims (12)

지면 데이터를 필터링하는 장치에 있어서,
차량 주위의 오브젝트에 대한 데이터를 수신하는 센서;
상기 수신된 데이터와 미리 정의된 기준을 저장하는 저장부; 및
상기 수신된 데이터를 상기 미리 정의된 기준과 비교하여, 상기 차량 주위의 오브젝트 중 지면을 나타내는 것으로 판단되는 상기 오브젝트에 대한 데이터를 필터링하는 처리부를 포함하는 장치.
An apparatus for filtering ground surface data,
A sensor for receiving data about an object around the vehicle;
A storage unit for storing the received data and a predefined criterion; And
And a processing unit for comparing the received data with the predefined criterion to filter data for the object that is determined to represent the ground of the object around the vehicle.
제1항에 있어서,
상기 센서는 상기 오브젝트를 감지하기 위해 하나 이상의 빔(beam)을 방사하고,
상기 빔 각각은, 복수 개의 서로 다른 레이어를 포함하는 것을 특징으로 하는 장치.
The method according to claim 1,
The sensor emits one or more beams for sensing the object,
Each of the beams comprising a plurality of different layers.
제2항에 있어서,
상기 처리부는 상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기를 획득하고,
상기 기울기가 상기 미리 정의된 기준에 해당하는 경우, 상기 감지된 오브젝트를 지면을 나타내는 것으로 판단하는 것을 특징으로 하는 장치.
3. The method of claim 2,
Wherein the processing unit obtains a slope from data of objects detected in two adjacent layers among the layers,
And determines that the sensed object represents a ground surface when the slope corresponds to the predefined criterion.
제2항에 있어서,
상기 처리부는 상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 상기 센서와 상기 감지된 오브젝트 사이의 거리를 획득하고,
상기 획득된 거리의 차이 값이 상기 미리 정의된 기준에 해당하는 경우, 상기 감지된 오브젝트를 지면을 나타내는 것으로 판단하는 것을 특징으로 하는 장치.
3. The method of claim 2,
Wherein the processing unit obtains the distance between the sensor and the sensed object from the data of the object sensed in two adjacent layers of the layer,
And determines that the sensed object represents a ground surface when the difference value of the obtained distance corresponds to the predefined criterion.
제1항에 있어서,
상기 미리 정의된 기준은 도로를 나타내는 EPW 값이고,
상기 처리부는 상기 수신된 데이터에 포함된 EPW(Echo Pulse width) 값이 상기 미리 정의된 기준에 해당하는 경우, 상기 오브젝트를 지면을 나타내는 것으로 판단하는 것을 특징으로 하는 장치.
The method according to claim 1,
The predefined criterion is an EPW value representing a road,
Wherein the processing unit determines that the object represents a ground when the EPW value included in the received data corresponds to the predefined criterion.
제2항에 있어서,
상기 미리 정의된 기준은 기준 각도, 기준 거리 차이, 및 도로를 나타내는 기준 EPW 값을 포함하고,
상기 처리부는, 상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기, 각 오브젝트에 대한 거리 차이, 및 상기 수신된 데이터에 포함된 EPW 값을 각각 상기 기준 각도, 상기 기준 거리 차이, 및 상기 기준 EPW 값과 비교하여, 모든 경우에 상기 오브젝트가 지면을 나타내는 것으로 판단되면 상기 오브젝트에 대한 데이터를 필터링하는 것을 특징으로 하는 장치.
3. The method of claim 2,
Wherein the predefined criterion comprises a reference angle, a reference distance difference, and a reference EPW value representing the road,
The processing unit may calculate a slope, a difference in distance to each object, and an EPW value included in the received data from the data of the objects detected in two layers adjacent to each other, And comparing the reference EPW value with the reference EPW value to filter data for the object if it is determined that the object represents a ground in all cases.
차량 시스템이 지면 데이터를 필터링하는 방법에 있어서,
센서를 이용하여 차량 주위의 오브젝트에 대한 데이터를 수신하는 단계;
상기 수신된 데이터를 저장부에 저장하는 단계;
상기 수신된 데이터를 미리 정의된 기준과 비교하는 단계; 및
상기 비교 결과에 기초하여, 상기 오브젝트 중 지면을 나타내는 것으로 판단된 데이터를 필터링하는 단계를 포함하는 방법.
A method for a vehicle system to filter ground surface data,
Receiving data about an object around the vehicle using a sensor;
Storing the received data in a storage unit;
Comparing the received data with a predefined criterion; And
And filtering the data determined to represent the ground of the object based on the comparison result.
제7항에 있어서,
상기 센서는 상기 오브젝트를 감지하기 위해 하나 이상의 빔(beam)을 방사하고, 상기 빔 각각은, 복수 개의 서로 다른 레이어를 포함하는 것을 특징으로 하는 방법.
8. The method of claim 7,
Wherein the sensor emits one or more beams for sensing the object, each of the beams comprising a plurality of different layers.
제8항에 있어서,
상기 비교하는 단계는,
상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기를 획득하는 단계; 및
상기 기울기가 상기 미리 정의된 기준에 해당하는 경우, 상기 감지된 오브젝트가 지면을 나타내는 것으로 판단하는 단계를 포함하는 것을 특징으로 하는 방법.
9. The method of claim 8,
Wherein the comparing comprises:
Obtaining a slope from data on objects sensed in two adjacent layers among the layers; And
And determining that the sensed object represents a ground surface if the slope corresponds to the predefined criterion.
제8항에 있어서,
상기 비교하는 단계는,
상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 상기 센서와 상기 감지된 오브젝트 사이의 거리를 획득하는 단계; 및
상기 획득된 거리의 차이 값이 상기 미리 정의된 기준에 해당하는 경우, 상기 감지된 오브젝트가 지면을 나타내는 것으로 판단하는 단계를 포함하는 것을 특징으로 하는 방법.
9. The method of claim 8,
Wherein the comparing comprises:
Obtaining a distance between the sensor and the sensed object from data for an object sensed in two adjacent layers of the layer; And
And determining that the sensed object represents a ground surface if the difference value of the obtained distance corresponds to the predefined criterion.
제7항에 있어서,
상기 미리 정의된 기준은 도로를 나타내는 EPW 값이고,
상기 비교하는 단계는, 상기 수신된 데이터에 포함된 EPW(Echo Pulse width) 값이 상기 미리 정의된 기준에 해당하는 경우, 상기 오브젝트가 지면을 나타내는 것으로 판단하는 단계를 포함하는 것을 특징으로 하는 방법.
8. The method of claim 7,
The predefined criterion is an EPW value representing a road,
Wherein the comparing comprises determining that the object represents a ground if the EPW value included in the received data corresponds to the predefined criterion.
제8항에 있어서,
상기 미리 정의된 기준은 기준 각도, 기준 거리 차이, 및 도로를 나타내는 기준 EPW 값을 포함하고,
상기 비교하는 단계는,
상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기, 각 오브젝트에 대한 거리 차이, 및 상기 수신된 데이터에 포함된 EPW 값을 각각 상기 기준 각도, 상기 기준 거리 차이, 및 상기 기준 EPW 값과 비교하는 단계; 및
상기 기울기, 상기 각 오브젝트에 대한 거리 차이, 상기 수신된 데이터에 포함된 EPW 값이 모두 상기 기준 각도, 상기 기준 거리 차이, 및 상기 기준 EPW 값을 만족하면, 상기 오브젝트가 지면을 나타내는 것으로 판단하는 단계를 포함하는 것을 특징으로 하는 방법.
9. The method of claim 8,
Wherein the predefined criterion comprises a reference angle, a reference distance difference, and a reference EPW value representing the road,
Wherein the comparing comprises:
The EPW value included in the received data and the slope, the distance difference between the objects, and the EPW value from the data of the objects sensed in two layers adjacent to each other are referred to as the reference angle, With a value; And
Determining that the object represents a ground if the inclination, the distance difference for each object, and the EPW values included in the received data satisfy the reference angle, the reference distance difference, and the reference EPW value, &Lt; / RTI &gt;
KR1020130131136A 2013-10-31 2013-10-31 A Method for Filtering Ground Data and An Apparatus thereof KR102030168B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130131136A KR102030168B1 (en) 2013-10-31 2013-10-31 A Method for Filtering Ground Data and An Apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130131136A KR102030168B1 (en) 2013-10-31 2013-10-31 A Method for Filtering Ground Data and An Apparatus thereof

Publications (2)

Publication Number Publication Date
KR20150049934A true KR20150049934A (en) 2015-05-08
KR102030168B1 KR102030168B1 (en) 2019-10-08

Family

ID=53387923

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130131136A KR102030168B1 (en) 2013-10-31 2013-10-31 A Method for Filtering Ground Data and An Apparatus thereof

Country Status (1)

Country Link
KR (1) KR102030168B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170028603A (en) * 2015-09-04 2017-03-14 현대모비스 주식회사 Device for recognizing of obstacle around the vehicle and method thereof
KR20190049246A (en) * 2017-11-01 2019-05-09 현대오트론 주식회사 LIDAR signal processing apparatus, method and LIDAR
KR20200055377A (en) * 2018-11-13 2020-05-21 현대오트론 주식회사 LIDAR signal processing apparatus and LIDAR apparatus
KR102389466B1 (en) * 2022-01-04 2022-04-25 (주)오토노머스에이투지 Method for detecting contamination of lidar sensor and apparatus using the same
WO2022159110A1 (en) * 2021-01-25 2022-07-28 Waymo Llc Lidar pulse elongation
US11513198B2 (en) 2019-01-04 2022-11-29 Waymo Llc LIDAR pulse elongation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001219782A (en) * 2000-02-14 2001-08-14 Hino Motors Ltd Optical axis angle adjusting device for headlight
JP2006343148A (en) * 2005-06-07 2006-12-21 Nagoya Institute Of Technology Collision avoiding system with image sensor and laser
KR20070045814A (en) * 2005-10-28 2007-05-02 엘지전자 주식회사 Moving control device and method of roving robot
JP2011210165A (en) * 2010-03-30 2011-10-20 Denso Corp Detection device
KR20120002180U (en) * 2010-09-16 2012-03-26 이현우 Method and apparatus for measuring slope in moving object
KR20120034352A (en) * 2010-10-01 2012-04-12 한국전자통신연구원 System and method for detecting obstacle applying to vehicle
JP2012242247A (en) * 2011-05-19 2012-12-10 Honda Motor Co Ltd Object detector

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001219782A (en) * 2000-02-14 2001-08-14 Hino Motors Ltd Optical axis angle adjusting device for headlight
JP2006343148A (en) * 2005-06-07 2006-12-21 Nagoya Institute Of Technology Collision avoiding system with image sensor and laser
KR20070045814A (en) * 2005-10-28 2007-05-02 엘지전자 주식회사 Moving control device and method of roving robot
JP2011210165A (en) * 2010-03-30 2011-10-20 Denso Corp Detection device
KR20120002180U (en) * 2010-09-16 2012-03-26 이현우 Method and apparatus for measuring slope in moving object
KR20120034352A (en) * 2010-10-01 2012-04-12 한국전자통신연구원 System and method for detecting obstacle applying to vehicle
JP2012242247A (en) * 2011-05-19 2012-12-10 Honda Motor Co Ltd Object detector

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170028603A (en) * 2015-09-04 2017-03-14 현대모비스 주식회사 Device for recognizing of obstacle around the vehicle and method thereof
KR20190049246A (en) * 2017-11-01 2019-05-09 현대오트론 주식회사 LIDAR signal processing apparatus, method and LIDAR
KR20200055377A (en) * 2018-11-13 2020-05-21 현대오트론 주식회사 LIDAR signal processing apparatus and LIDAR apparatus
US11513198B2 (en) 2019-01-04 2022-11-29 Waymo Llc LIDAR pulse elongation
US11892567B2 (en) 2019-01-04 2024-02-06 Waymo Llc LIDAR pulse elongation
WO2022159110A1 (en) * 2021-01-25 2022-07-28 Waymo Llc Lidar pulse elongation
KR102389466B1 (en) * 2022-01-04 2022-04-25 (주)오토노머스에이투지 Method for detecting contamination of lidar sensor and apparatus using the same

Also Published As

Publication number Publication date
KR102030168B1 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
CN109215083B (en) Method and device for calibrating external parameters of vehicle-mounted sensor
KR102030168B1 (en) A Method for Filtering Ground Data and An Apparatus thereof
US20200348408A1 (en) Vehicle Positioning Method and Vehicle Positioning Apparatus
CN109017570B (en) Vehicle surrounding scene presenting method and device and vehicle
US8126210B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP5959581B2 (en) Vehicle periphery monitoring device
US20160188986A1 (en) Detection system and detection method
US20210073557A1 (en) Systems and methods for augmenting upright object detection
US8422737B2 (en) Device and method for measuring a parking space
JP5434285B2 (en) Obstacle detection device
CN109946703B (en) Sensor attitude adjusting method and device
CN104111058B (en) Vehicle distance measurement method and device, vehicle relative velocity measuring method and device
US20090122136A1 (en) Object detection device
WO2019000945A1 (en) On-board camera-based distance measurement method and apparatus, storage medium, and electronic device
US9594966B2 (en) Obstacle detection device and obstacle detection method
JP2013232091A (en) Approaching object detection device, approaching object detection method and approaching object detection computer program
KR101592685B1 (en) System for detecting obstacle using a road surface model setting and method thereof
KR102539287B1 (en) Apparatus for controlling vehicle based on reliablity of multi lidar and method thereof
JP6887112B2 (en) Parking support method and parking support device and program using it
JP2009245042A (en) Traffic flow measurement device and program
CN114973208B (en) Vehicle blind area monitoring and early warning method and related equipment
CN203142524U (en) Road obstacle recognition system
KR20130084753A (en) Method of supplying car driving informaton using mobile apparatus
JP2010164356A (en) Circumference monitoring device for vehicle
KR101959193B1 (en) Apparatus for detecting inter-vehicle distance using lamp image and Method for detecting inter-vehicle distance using the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant