KR102030168B1 - A Method for Filtering Ground Data and An Apparatus thereof - Google Patents
A Method for Filtering Ground Data and An Apparatus thereof Download PDFInfo
- Publication number
- KR102030168B1 KR102030168B1 KR1020130131136A KR20130131136A KR102030168B1 KR 102030168 B1 KR102030168 B1 KR 102030168B1 KR 1020130131136 A KR1020130131136 A KR 1020130131136A KR 20130131136 A KR20130131136 A KR 20130131136A KR 102030168 B1 KR102030168 B1 KR 102030168B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- ground
- vehicle
- sensor
- filtering
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/487—Extracting wanted echo signals, e.g. pulse detection
- G01S7/4876—Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/484—Transmitters
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
지면 데이터를 필터링 하는 장치가 개시된다. 상기 장치는, 차량 주위의 오브젝트에 대한 데이터를 수신하는 센서; 상기 수신된 데이터와 미리 정의된 기준을 저장하는 저장부; 및 상기 수신된 데이터를 상기 미리 정의된 기준과 비교하여, 상기 차량 주위의 오브젝트 중 지면을 나타내는 것으로 판단되는 상기 오브젝트에 대한 데이터를 필터링하는 처리부를 포함할 수 있다.An apparatus for filtering ground data is disclosed. The apparatus includes a sensor for receiving data about an object around a vehicle; A storage unit for storing the received data and predefined criteria; And a processor configured to compare the received data with the predefined criteria and to filter data about the object determined to represent the ground among the objects around the vehicle.
Description
본 발명은 차량의 센서에서 방사된 레이저를 이용하여 측정된 정보를 분석하여, 지면 데이터를 필터링하고 장애물에 대한 데이터를 판단하는 기술과 관련된다.The present invention relates to a technique for analyzing information measured using a laser emitted from a sensor of a vehicle to filter ground data and determine data on obstacles.
일반적으로 라이다(LiDAR) 등의 센서를 이용하여 측정된 데이터는 측정 범위 내에서 감지되는 모든 물체에 대한 정보를 포함한다. 그러나 시스템의 목적에 따라서, 감지된 데이터 중 일부에 대한 데이터는 노이즈 데이터가 되어 불필요할 수 있다. 예를 들어, 주변 물체, 주변 차량, 사람 등을 인지하고자 하는 차량용 시스템의 경우, 지면이 감지되어 나타나는 데이터는 불필요하므로 제거되어야 한다. 다중 레이어 라이다(Multi-Layer LiDAR)의 경우, 하위 레이어가 지면을 향하는 경우가 많고, 그렇지 않다 하더라도 차량의 롤링(rolling)이나 피칭(pitching) 등에 의해서 지면을 향하는 경우가 발생할 수 있다.In general, data measured using a sensor such as LiDAR includes information on all objects detected within a measurement range. However, depending on the purpose of the system, data for some of the sensed data may become noise data and may be unnecessary. For example, in the case of a vehicle system that wants to recognize a surrounding object, a surrounding vehicle, a person, and the like, data that is detected and displayed on the ground is unnecessary and should be removed. In the case of a multi-layer LiDAR, the lower layer often faces the ground, and even if the lower layer faces the ground due to rolling or pitching of the vehicle.
본 발명에서는 센서를 이용하여 측정된 데이터에서 지면 데이터를 효과적으로 필터링하는 방법 및 그 장치를 제공하는 것을 그 목적으로 한다.It is an object of the present invention to provide a method and apparatus for efficiently filtering ground data from measured data using a sensor.
그러나 상기한 목적으로 여기에 개시된 내용을 한정하는 것은 아니며, 발명을 실시하기 위한 구체적인 내용 또는 청구항에서 언급하는 의도는 모두 본 발명의 목적으로 포함된다.However, it is not intended to limit the contents disclosed herein for the above purpose, all the specific details for carrying out the invention or the intention mentioned in the claims are included for the purpose of the present invention.
상기한 과제를 해결하기 위한 지면 데이터를 필터링 하는 장치는, 차량 주위의 오브젝트에 대한 데이터를 수신하는 센서; 상기 수신된 데이터와 미리 정의된 기준을 저장하는 저장부; 및 상기 수신된 데이터를 상기 미리 정의된 기준과 비교하여, 상기 차량 주위의 오브젝트 중 지면을 나타내는 것으로 판단되는 상기 오브젝트에 대한 데이터를 필터링하는 처리부를 포함할 수 있다.An apparatus for filtering ground data for solving the above problems includes a sensor for receiving data on an object around a vehicle; A storage unit for storing the received data and predefined criteria; And a processor configured to compare the received data with the predefined criteria and to filter data about the object determined to represent the ground among the objects around the vehicle.
또한, 상기 센서는 상기 오브젝트를 감지하기 위해 하나 이상의 빔(beam)을 방사하고, 상기 빔 각각은, 복수 개의 서로 다른 레이어를 포함할 수 있다.The sensor may emit one or more beams to detect the object, and each of the beams may include a plurality of different layers.
또한, 상기 처리부는 상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기를 획득하고, 상기 기울기가 상기 미리 정의된 기준에 해당하는 경우, 상기 감지된 오브젝트를 지면을 나타내는 것으로 판단할 수 있다.In addition, the processor may acquire a slope from data about objects detected in two adjacent layers among the layers, and determine that the detected object represents the ground when the slope corresponds to the predefined criterion. Can be.
또한, 상기 처리부는 상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 상기 센서와 상기 감지된 오브젝트 사이의 거리를 획득하고, 상기 획득된 거리의 차이 값이 상기 미리 정의된 기준에 해당하는 경우, 상기 감지된 오브젝트를 지면을 나타내는 것으로 판단할 수 있다.The processor may be further configured to obtain a distance between the sensor and the detected object from data about objects detected in two adjacent layers among the layers, and the difference value of the obtained distance corresponds to the predefined criterion. In this case, it may be determined that the detected object represents the ground.
또한, 상기 미리 정의된 기준은 도로를 나타내는 EPW 값이고, 상기 처리부는 상기 수신된 데이터에 포함된 EPW(Echo Pulse width) 값이 상기 미리 정의된 기준에 해당하는 경우, 상기 오브젝트를 지면을 나타내는 것으로 판단할 수 있다.The predefined criterion may be an EPW value representing a road, and the processor may indicate that the object represents the ground when an echo pulse width (EPW) value included in the received data corresponds to the predefined criterion. You can judge.
또한, 상기 미리 정의된 기준은 기준 각도, 기준 거리 차이, 및 도로를 나타내는 기준 EPW 값을 포함하고, 상기 처리부는, 상기 레이어 중 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기, 각 오브젝트에 대한 거리 차이, 및 상기 수신된 데이터에 포함된 EPW 값을 각각 상기 기준 각도, 상기 기준 거리 차이, 및 상기 기준 EPW 값과 비교하여, 모든 경우에 상기 오브젝트가 지면을 나타내는 것으로 판단되면 상기 오브젝트에 대한 데이터를 필터링 할 수 있다.The predefined criterion may include a reference EPW value indicating a reference angle, a reference distance difference, and a road, and the processing unit may include an inclination from data for objects detected in two adjacent layers among the layers, and each object. Comparing the distance difference with respect to and the EPW value included in the received data with the reference angle, the reference distance difference, and the reference EPW value, respectively, and in all cases if it is determined that the object represents the ground. You can filter the data.
또한 상기 과제를 해결하기 위한 차량 시스템이 지면 데이터를 필터링하는 방법은, 센서를 이용하여 차량 주위의 오브젝트에 대한 데이터를 수신하는 단계; 상기 수신된 데이터를 저장부에 저장하는 단계; 상기 수신된 데이터를 미리 정의된 기준과 비교하는 단계; 및 상기 비교 결과에 기초하여, 상기 오브젝트 중 지면을 나타내는 것으로 판단된 데이터를 필터링하는 단계를 포함할 수 있다.In addition, the method for filtering the ground data by the vehicle system for solving the above problems, the method comprising the steps of: receiving data on an object around the vehicle using a sensor; Storing the received data in a storage unit; Comparing the received data with predefined criteria; And filtering the data determined to represent the ground of the object based on the comparison result.
본 발명에 따르면, 라이다 센서와 같은 감지 유닛을 이용하여 차량 주변의 데이터를 감지하였을 때, 지면에 해당하는 데이터를 효과적으로 필터링하여 정확도와 신뢰도를 보장하는 처리 결과를 사용자에게 제공할 수 있는 효과가 있다.According to the present invention, when sensing the data around the vehicle by using a sensing unit such as a lidar sensor, it is possible to effectively filter the data corresponding to the ground to provide a user with a processing result that guarantees accuracy and reliability. have.
도 1은 센서를 이용하여 차량 주변을 탐지하는 일반적인 상황을 나타낸다.
도 2는 차량 전방의 물체에 관한 정보를 가공한 예시적인 이미지를 나타낸다.
도 3은 센서에 의해 감지된 데이터 중에서 지면으로 판단되는 데이터를 식별하는 방법을 나타낸다.
도 4는 본 발명에 따른 지면 데이터 필터링 장치의 일 예시를 나타낸다.
도 5a와 도 5b는 본 발명에 따른 지면 데이터 필터링 시스템의 예시들을 나타낸다.
도 6은 본 발명에 따른 지면 데이터 처리 방법의 흐름도를 나타낸다.1 illustrates a general situation of detecting a vehicle surroundings using a sensor.
2 shows an exemplary image of processing information about an object in front of a vehicle.
3 illustrates a method of identifying data, which is determined to be the ground, among the data sensed by the sensor.
4 shows an example of a ground data filtering apparatus according to the present invention.
5A and 5B show examples of a ground data filtering system according to the present invention.
6 shows a flowchart of a method of processing ground data according to the present invention.
이하, 첨부된 도면들을 참조하여 본 발명의 다양한 실시 예들을 상세히 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 즉, 하기의 설명에서는 본 발명의 실시 예에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In this case, it should be noted that like elements are denoted by like reference numerals as much as possible. In addition, detailed descriptions of well-known functions and configurations that may blur the gist of the present invention will be omitted. That is, in the following description, only parts necessary for understanding the operation according to the embodiment of the present invention will be described, and it should be noted that the description of other parts will be omitted so as not to distract from the gist of the present invention.
이하의 설명에서 본 발명의 전자 장치는 본 발명의 다양한 실시 예에서 설명하는 기능을 지원하는 모든 정보통신기기, 멀티미디어기기 및 그에 대한 응용기기와 같이 AP(Application Processor), GPU(Graphic Processing Unit), CPU(Central Processing Unit)를 사용하는 모든 디바이스를 포함할 수 있다. 예를 들어, 상기 전자 장치는 다양한 통신 시스템에 대응되는 각 통신 프로토콜들(communication protocols)에 의거하여 동작하는 이동통신 단말기를 비롯하여, 태블릿(tablet) PC(Personal Computer), 스마트 폰(Smart Phone), 디지털 카메라, PMP(Portable Multimedia Player), 텔레매틱스(Telematics), 네비게이션 디바이스(Navigation Device), 기타 차량 탑재 시스템(In-Vehicle System)을 포함할 수 있다.In the following description, the electronic device of the present invention, like all information communication devices, multimedia devices, and application devices that support the functions described in various embodiments of the present invention, includes an application processor (AP), a graphics processing unit (GPU), It can include any device that uses a central processing unit (CPU). For example, the electronic device includes a mobile communication terminal operating based on communication protocols corresponding to various communication systems, a tablet personal computer, a smart phone, Digital cameras, portable multimedia players (PMPs), telematics, navigation devices, and other in-vehicle systems.
본 명세서에서 오브젝트(object)라 함은 센서에 의해 감지된 대상을 의미한다. 예를 들어, 센서는 하나 이상의 빔을 방사하여, 반사되는 빔으로부터 대상에 대한 정보를 수집할 수 있는데, 이때 이 빔을 반사시키는 주체는 본 명세서에서 오브젝트로 이해될 수 있다. 지면, 도로, 측벽, 장애물과 같은 것들이 오브젝트에 해당할 수 있다.In this specification, an object means an object sensed by a sensor. For example, the sensor may emit one or more beams to collect information about the object from the reflected beam, where the subject reflecting the beam may be understood as an object herein. Objects such as ground, roads, side walls, and obstacles may correspond to objects.
도 1은 센서를 이용하여 차량 주변을 탐지하는 일반적인 상황을 나타낸다. 차량(100)은 전면에 전방의 장애물과 같은 정보를 수집하기 위한 센서(110)를 포함할 수 있다. 센서(110)는 레이저와 같은 빔(beam)을 방사하여, 반사되어 돌아오는 데이터로부터 차량(100) 주변의 물체에 대한 정보를 수집할 수 있다. 도 1을 참조하면, 차량(100)은 노면이 고르지 않은 도로(130)를 주행 중이며, 차량(100)의 전방에는 보행자 등과 같은 장애물(120)이 위치하여 있다. 센서로부터 방사된 빔 중 일부는 도로(130)를 감지하며, 다른 일부는 장애물(120)을 감지한다. 센서(110)로부터 방사되는 빔은 지면에 대해 복수 개의 각으로 방사될 수 있다. 즉, 센서(110)로부터 방사되는 빔은, 지면에 대해 수직한 방향으로 복수 개의 레이어(layer)를 가질 수 있다. 이때, 가장 하위에 위치한 레이어가 지면과 평행한 방향이거나, 또는 지면에 대해 상향을 지시하여도, 만약 일정 정도의 오르막 도로를 만나거나 노면 상태가 고르지 않은 경우에는 가장 하위 레이어에서도 지면에 대한 데이터들이 수집될 수 있다.1 illustrates a general situation of detecting a vehicle surroundings using a sensor. The
센서(110)를 통해 수집된 데이터는 가공되어 사용자(예를 들어, 차량 운전자)에게 디스플레이 될 수 있다. 이와 관련된 예시적인 이미지가 도 2에 도시된다.The data collected through the
도 2는 차량 전방의 물체에 관한 정보를 가공한 예시적인 이미지를 나타낸다. 제1 이미지(210)는 카메라로 촬영된 차량 전방의 이미지를 나타낸다. 제2 이미지(220)는 센서로부터 수집된 데이터에 기초하여 생성된 가공 이미지이다. 도시하지는 않았지만, 제2 이미지(220)에서 지면 데이터를 필터링하고 사용자에게 친숙하게 가공된 2차 가공 이미지가 차량의 텔레매틱스, HUD(Head Unit Display), 스마트디바이스와 같은 디스플레이 유닛을 통해 제공될 수 있다.2 shows an exemplary image of processing information about an object in front of a vehicle. The
제1 이미지(210)를 참조하면, 현재 운행 중인 차량 전방에는 별다른 장애물이 존재하지 않는다. 그러나 센서를 통해 감지된 데이터에 기초하여 가공된 제2 이미지(220)에는 도로 양 측면의 벽으로부터 수집된 것으로 판단되는 자료 외에도, 실제로는 도면을 감지한 데이터지만 마치 전방의 특정 장애물인 것처럼 판단될 수 있는 데이터가 포함된다. 즉 제2 이미지(220)에서는 전방의 도로 면이 측정되어 마치 장애물이 있는 것처럼 보여지게 된다. 사용자에게 최종적으로 제공되는 이미지에는 이와 같은 데이터들이 필터링될 것이 요구된다. 이하에서는 도 3을 참조하여, 지면으로 판단되는 데이터를 식별하는 방법을 설명한다.Referring to the
도 3은 센서에 의해 감지된 데이터 중에서 지면으로 판단되는 데이터를 식별하는 방법을 나타낸다. 도 3에서 센서는 라이다 센서를 의미하는 것으로 도시되었으나, 본 명세서에 개시된 방법이 적용 가능한 어떠한 종류의 센서, 예를 들어 레이더 또는 초음파 센서 등도 도 3에 도시된 센서로 이해될 수 있다.3 illustrates a method of identifying data, which is determined to be the ground, among the data sensed by the sensor. In FIG. 3, the sensor is shown to mean a lidar sensor, but any kind of sensor to which the method disclosed herein is applicable, for example, a radar or an ultrasonic sensor, may be understood as the sensor shown in FIG. 3.
도 3에 있어서, 차량이 진행하는 방향은 y축, 차량 진행 방향의 좌-우측 방향은 x축, 및 지면에서 수직한 방향은 z축으로 이해될 수 있다. 예를 들어, 라이다 센서가 차량의 전방으로 100°의 범위(FOV: field of vies)를 감지할 수 있고, 분해능(resolution)이 0.1°라면, 라이다 센서의 FOV는 1,000개의 빔으로 구성된다. 또한, 라이다 센서가 4개의 레이어(layer)를 지원하는 경우, 각각의 빔은 4개의 레이어로 구성될 수 있다. 라이다 센서가 차량 전방을 탐지할 때, 각각의 레이어에 대한 1,000개의 데이터, 도합 4,000개의 데이터가 감지될 수 있다. 물론 이는 예시적인 것이며, 라이다 센서의 FOV, 분해능, 및 지원하는 레이어의 수는 구체적인 실시 예에 따라서 다르게 조정될 수 있다. 일 예시에서, 차량은 복수 개의 라이다 센서를 가질 수 있으며, 센서의 회전 가능한 특징으로 인해 FOV가 변경될 수 있다. 그러나 일련의 변형 예시들에서도, 센서에 의해 감지된 데이터로부터 지면에 해당하는 데이터를 필터링하는 방법에는 후술하는 원리가 여전히 적용된다. 이하에서는 100°의 FOV, 0.1°의 분해능, 4개의 레이어를 지원하는 라이다 센서를 기준으로 설명한다.In FIG. 3, the direction in which the vehicle travels may be understood as the y axis, the left-right direction of the vehicle travel direction as the x axis, and the direction perpendicular to the ground may be understood as the z axis. For example, if the lidar sensor can detect a field of vies (FOV) in front of the vehicle and the resolution is 0.1 °, the FOV of the lidar sensor consists of 1,000 beams. . In addition, when the lidar sensor supports four layers, each beam may consist of four layers. When the lidar sensor detects the front of the vehicle, 1,000 data for each layer and a total of 4,000 data can be sensed. Of course, this is exemplary, and the FOV, resolution, and number of layers supported by the lidar sensor may be adjusted differently according to a specific embodiment. In one example, the vehicle may have a plurality of lidar sensors, and the FOV may change due to the rotatable features of the sensors. However, even in a series of modified examples, the principle described below still applies to the method of filtering the data corresponding to the ground from the data sensed by the sensor. The following description will be based on a Lidar sensor that supports 100 ° FOV, 0.1 ° resolution, and four layers.
도 3의 좌측 이미지는 차량의 진행방향(y축)을 기준으로, 동일 레이어에 대한 물체(object) 탐지를 나타낸다. 본 예시에서, 차량에 탑재된 라이다 센서는 전방 기준 100°범위에서 1000개의 빔을 이용하여 감지되는 물체에 대한 정보를 수집한다. 도시된 레이어가 1번째(가장 낮게 위치한) 레이어인 경우, 각각의 빔은 beam(1,1), beam(1,2), 또는 beam(1,1000)으로 7구분될 수 있다. 만약 2번째 레이어인 경우, beam(2,1), beam(2,2), 또는 beam(2,1000)으로 구분될 수 있다. 즉, 라이다 센서에서 방사되는 빔은 beam(layer, n)으로 구분될 수 있다. 이때 수집되는 정보에는 센서로부터 물체까지의 거리, 물체의 이동 여부, 및 수신된 반사 신호의 폭(EPW: Echo Pulse Width) 등이 포함될 수 있다.The left image of FIG. 3 shows object detection for the same layer, based on the traveling direction (y-axis) of the vehicle. In this example, the vehicle-mounted lidar sensor collects information about the detected object using 1000 beams in the
도 3의 우측 이미지는 차량의 진행방향(y축)을 기준으로, 동일 순번의 빔에 대한 물체의 탐지를 나타낸다. 편의상 좌측(차량의 중심을 기준으로 하여 운전자 측)으로부터 100번째 빔에 대한 데이터로 이해될 수 있다. 즉, 도 3의 우측 이미지에 도시된 빔은 beam(1,100), beam(2,100), beam(3,100), 및 beam(4,100)으로 이해될 수 있다.3 shows the detection of an object for beams of the same order, based on the traveling direction (y-axis) of the vehicle. For convenience, it can be understood as data for the 100th beam from the left side (the driver side with respect to the center of the vehicle). That is, the beam shown in the right image of FIG. 3 may be understood as beam (1,100), beam (2,100), beam (3,100), and beam (4,100).
라이다 센서로부터 방출된 빔에 의해 차량 주변의 물체들이 감지된다. 100번째 빔에 의해서는 레이어마다(즉 제1 레이어부터 제4 레이어까지) 각각 1개씩 4개의 감지된 데이터가 획득된다. 전술한 각각의 빔에 의해 획득된 값을 value(1,100), value(2,100), value(3,100), 및 value(4,100)으로 정의할 수 있다. 이하에서는 편의상 도시된 4개의 빔을 B1, B2, B3, B4로, 감지된 4개의 값을 V1, V2, V3, V4로 설명한다.Objects around the vehicle are detected by the beam emitted from the lidar sensor. By the 100th beam, four sensed data are obtained, one for each layer (ie, the first layer to the fourth layer). Values obtained by the aforementioned beams may be defined as value (1,100), value (2,100), value (3,100), and value (4,100). Hereinafter, for convenience, the four beams shown will be described as B1, B2, B3, and B4, and the sensed four values will be described as V1, V2, V3, and V4.
(1) 기울기 조건(1) slope condition
V1과 V2가 센서에 의해 지면이 감지된 데이터이고 V3와 V4가 장애물에 의해 감지된 데이터인 경우에, V1과 V1를 연결하는 가상의 선은 상대적으로 V3와 V4를 연결하는 가상의 선에 비해 지면에 대한 각도(기울기)가 작게 된다. (즉, θ1 < θ2) 나아가, 일반적으로 라이다 센서의 측정 방향(차량의 진행 방향)과의 각도가, 지면일 경우에는 0에 가깝고 장애물인 경우에는 90도에 가까워지게 된다.In the case where V1 and V2 are data sensed by the ground and V3 and V4 are data detected by obstacles, the virtual line connecting V1 and V1 is relatively compared to the virtual line connecting V3 and V4. The angle (tilt) to the ground becomes small. (Ie, θ1 < θ2) Further, in general, the angle with the measurement direction of the lidar sensor (the traveling direction of the vehicle) is close to zero in the case of the ground and close to 90 degrees in the case of an obstacle.
이 가상의 선의 기울기는 간단한 삼각함수를 이용하여 획득될 수 있다. 일반적으로 라이다 센서의 레이어를 구성하는 빔의 방사 각도는 고정되어 있다. 예를 들어, 제1 레이어의 방사 각도가 z축에 대하여 α, 제2 레이어의 방사 각도가 z축에 대하여 β이며, 제1 레이어가 제2 레이어보다 하위 축일 때, θ1 은 다음과 같은 수식으로 결정될 수 있다.The slope of this imaginary line can be obtained using a simple trigonometric function. In general, the radiation angle of the beam constituting the layer of the lidar sensor is fixed. For example, when the radiation angle of the first layer is α with respect to the z axis, the radiation angle of the second layer is β with respect to the z axis, and the first layer is a lower axis than the second layer, θ1 is expressed as follows. Can be determined.
단, 여기서 r1은 센서로부터 V1 검출 지점까지의 거리, r2는 센서로부터 V2 검출 지점까지의 거리를 의미한다. 기울기는 항상 상기의 수식으로 결정되는 것은 아니며, 적절한 근사와 보정에 기초하여 획득될 수 있다.Here, r1 means the distance from the sensor to the V1 detection point, r2 means the distance from the sensor to the V2 detection point. The slope is not always determined by the above equation, but may be obtained based on appropriate approximation and correction.
감지된 데이터가 지면에 해당하는지 여부를 판단하기 위한 소정의 기준 값이 설정될 수 있다. 이 기준 값은 라이다 센서가 위치한 높이, 라이다 센서의 각 레이어에서 빔이 방출되는 (z축에 대한) 각도, 동일 레이어에서 빔이 방출되는 (y축에 대한) 각도 등의 정보에 기초하여 설정될 수 있다. 만약 측정된 기울기가 이 기준 값보다 작은 각도를 나타내면 도로 면으로, 측정된 기울기가 이 기준 값보다 크면 장애물로 판단될 수 있다. 이와 같은 기준 값은 실험적으로 결정될 수도 있으며, 사용자에 의해 설정될 수도 있다.A predetermined reference value for determining whether the sensed data corresponds to the ground may be set. This reference value is based on information such as the height at which the lidar sensor is located, the angle at which the beam is emitted (with respect to the z axis) in each layer of the lidar sensor, and the angle at which the beam is emitted (with respect to the y axis) in the same layer. Can be set. If the measured slope indicates an angle smaller than this reference value, it may be determined as a road surface, and if the measured slope is greater than this reference value, it may be determined as an obstacle. Such a reference value may be determined experimentally or set by a user.
감지된 데이터가 지면에 해당하는지 여부를 판단하기 위한 소정의 기준 범위가 설정될 수 있다. 예를 들어, 기울기가 20도 미만인 경우에는 도로, 20도 이상 60도 미만인 경우에는 판단 보류, 60도 이상인 경우에는 장애물로 판단될 수 있다. 도시된 예시에서, 제1 레이어와 제2 레이어에 의해 측정된 기울기는 도로의 범위에 포함되지만, 제2 레이어와 제3 레이어에 의해 측정된 기울기는 판단 보류 범위에 포함될 수 있다. 이 경우, 제3 레이어와 제4 레이어에 의해 측정된 기울기가 장애물 범위에 포함되면, 제3 레이어에 의해 측정된 데이터는 최종적으로 장애물로 판단될 수 있다. 또는, 후술하는 밀집도 조건이나 EPW 조건에 의해, 제3 레이어에 의해 감지된 데이터의 성격이 최종 결정될 수 있다.A predetermined reference range for determining whether the sensed data corresponds to the ground may be set. For example, when the inclination is less than 20 degrees, it may be determined as a road, if the slope is less than or equal to 20 degrees and less than 60 degrees, the judgment is suspended, and when it is more than 60 degrees, it may be determined as an obstacle. In the illustrated example, the slope measured by the first layer and the second layer is included in the range of the road, but the slope measured by the second layer and the third layer may be included in the determination hold range. In this case, when the slopes measured by the third layer and the fourth layer are included in the obstacle range, the data measured by the third layer may be finally determined as an obstacle. Alternatively, the characteristics of the data sensed by the third layer may be finally determined by the density condition or the EPW condition described later.
(2) 밀집도 조건(2) density conditions
전술한 기울기가 상대적으로 큰 경우라 하더라도, 도로에 해당할 수 있다. 예를 들어, 전방에 낮은 턱이 존재하는 경우나, 차량 전방에 높은 언덕 길이 위치하는 경우에는 두 레이어에서 측정된 값을 연결하는 가상의 선의 기울기가 크게 측정될 수 있다. 또는 기울기 조건에 의해서는 측정된 데이터가 도로인지 여부를 확실하게 판단하기 곤란한 상황이 발생할 수 있다. 이와 같은 점을 보완하기 위한 방법으로, 측정된 값들의 밀집도를 이용할 수 있다.Even if the aforementioned slope is relatively large, it may correspond to a road. For example, when there is a low jaw in front of the vehicle or when a high hill length is located in front of the vehicle, the inclination of the imaginary line connecting the measured values in the two layers may be largely measured. Alternatively, a situation in which it is difficult to reliably determine whether the measured data is a road may occur due to the inclination condition. In order to compensate for this, the density of the measured values may be used.
일반적으로 도로는 평평하며, 굴곡이 있더라도 차량의 운행에 지장이 없을 정도로 넓은 범위에 걸쳐서 존재한다. 이에 반하여 보행자나 다른 차량, 가로수 등의 장애물은 도로 상에 수직으로 배치되는 경우가 많다. 따라서, 전술한 바와 같이, 제1 레이어와 제2 레이어에 포함된 빔이 도로 면을 향하고, 제3 레이어와 제4레이어에 포함된 빔이 장애물을 향하는 경우에, 센서로부터 제1 레이어에서 측정된 물체(도로)까지의 거리(r1)와 제2 레이어에서 측정된 물체(도로)까지의 거리(r2)는, 도로의 특성상, 상대적으로 길게 된다. 즉, 거리 값의 분포가 분산되어 나타나게 된다. 그러나 제3 레이어에서 측정된 물체(장애물)까지의 거리(r3)와 제4 레이어에서 측정된 물체(장애물)까지의 거리(r4)는 거의 유사한 값을 가지게 된다. 즉, 거리 값의 분포가 특정 수치에 밀집되어 나타난다. 따라서, 서로 다른 레이어에서 센서에 의해 감지된 거리가 특정 기준 값 이내로 밀집되어 나타나는 경우, 해당 데이터는 장애물로 탐지된 데이터로 판단될 수 있다. 예를 들어, beam(3,800)~beam(3, 900)과 beam(4,800)~beam(4,900)에 의해 측정된 거리 값이 특정 기준 값 이내로 (예를 들어, 50cm 이내)로 감지되었다면, 차량의 진행방향 우측에 소정의 장애물이 있는 것으로 판단될 수 있다.Generally, the road is flat and exists in a wide range so that even if there is a curvature, the operation of the vehicle does not interfere. In contrast, obstacles such as pedestrians, other vehicles, and roadside trees are often disposed vertically on the road. Therefore, as described above, when the beams included in the first layer and the second layer face the road surface, and the beams included in the third layer and the fourth layer face the obstacle, the beams measured in the first layer are measured from the sensor. The distance r1 to the object (road) and the distance r2 to the object (road) measured in the second layer are relatively long due to the characteristics of the road. That is, the distribution of distance values is distributed. However, the distance r3 to the object (obstacle) measured in the third layer and the distance r4 to the object (obstacle) measured in the fourth layer have almost similar values. In other words, the distribution of distance values appears concentrated at a certain numerical value. Therefore, when the distances detected by the sensors in different layers are concentrated within a specific reference value, the corresponding data may be determined as the data detected as an obstacle. For example, if the distance value measured by the beam (3,800) to beam (3, 900) and the beam (4,800) to the beam (4,900) is detected within a specific reference value (for example, within 50 cm), It may be determined that there is a predetermined obstacle on the right side of the traveling direction.
(3) EPW 조건(3) EPW conditions
수신된 펄스 폭(echo pulse width)이 감지된 데이터가 지면을 나타내는지 장애물을 나타내는지 판단하기 위해 사용될 수 있다. 일반적으로 지면의 경우, 빔의 입사각이 크고, 특히 도로의 경우 아스팔트의 색상이 검정색인 경우가 많다. 따라서, 일반적으로 지면에 해당하는 오브젝트로부터 반사된 빔의 EPW 값은, 장애물로부터 반사된 빔의 EPW 값보다 크다.The received pulse width may be used to determine whether the sensed data represents ground or an obstacle. In general, in the case of the ground, the angle of incidence of the beam is large, especially in the case of road, the color of the asphalt is often black. Therefore, in general, the EPW value of the beam reflected from the object corresponding to the ground is larger than the EPW value of the beam reflected from the obstacle.
각각의 빔은 도 3에 도시된 바와 같이 복수 개의 레이어로 구성되고, 인접한 레이어에서 감지된 오브젝트에 대한 데이터로부터 기울기가 획득될 수 있다. 예를 들어, 제1 레이어에서 획득된 V1과 제2 레이어에서 획득된 V2는 모두 지면에 대한 데이터이며, 이로부터 지면에 대한 기울기가 획득될 수 있다. 또한 V2와 V3는 각각 지면과 장애물로부터 획득된 데이터이다. 이로부터 획득된 기울기는 통상적인 지면의 기울기와 통상적인 장애물의 기울기 사이의 적당한 값을 가질 수 있다. 또한 V3와 V4는 모두 장애물로부터 획득된 데이터이며, 이로부터 장애물의 기울기가 획득될 수 있다. 이와 같이 제1 레이어에서부터 제4 레이어까지, 또는 하위 레이어에서부터 상위 레이어까지 순차적으로 비교하여 인접한 두 레이어에서 감지된 오브젝트 사이의 기울기를 획득할 수 있다.Each beam is composed of a plurality of layers as shown in FIG. 3, and a slope may be obtained from data about an object detected in an adjacent layer. For example, both V1 acquired in the first layer and V2 acquired in the second layer are data about the ground, and a slope of the ground may be obtained therefrom. In addition, V2 and V3 are data obtained from the ground and obstacles, respectively. The slope obtained from this may have a suitable value between the slope of the conventional ground and the slope of the conventional obstacle. In addition, both V3 and V4 are data obtained from the obstacle, from which the slope of the obstacle may be obtained. As described above, a slope between objects detected in two adjacent layers may be obtained by sequentially comparing the first layer to the fourth layer, or the lower layer to the upper layer.
유사한 방식으로, 인접한 레이어에서 측정된 오브젝트 사이의 거리 차이가 획득될 수 있다. V1, V2, V3, V4 각각에 해당하는 오브젝트와 센서 사이의 거리가 r1, r2, r3, r4로 획득될 수 있고, r1과 r2, r2와 r3, r3와 r4의 거리 차이 값이 획득될 수 있다. 도시된 예시에서, r1과 r2, r2와 r3 사이의 거리 차이 값은 상대적으로 큰 값을 가지지만, 장애물에 해당하는 r3와 r4 사이의 거리 차이 값은 상대적으로 작은 값을 가지게 된다. 즉, 거리 값의 분포가 밀집되어 나타나게 된다. In a similar manner, the distance difference between objects measured in adjacent layers can be obtained. The distance between the object corresponding to V1, V2, V3, V4 and the sensor may be obtained as r1, r2, r3, r4, and the distance difference value between r1 and r2, r2 and r3, r3 and r4 may be obtained. have. In the illustrated example, a distance difference value between r1 and r2, r2 and r3 has a relatively large value, but a distance difference value between r3 and r4 corresponding to an obstacle has a relatively small value. In other words, the distribution of distance values is densely displayed.
상술한 기울기 조건, 밀집도 조건, EPW 조건 중 적어도 하나가 충족되는 경우에 해당 오브젝트를 지면으로부터 획득된 데이터로 판단할 수 있다. 그러나 일 실시 예에서는, 필터링 결과의 정확도를 향상시키기 위하여, 세 가지 조건을 모두 만족시키는 오브젝트가 지면을 나타내는 것으로 판단될 수 있다.When at least one of the above-described tilt condition, density condition, and EPW condition is satisfied, the object may be determined as data acquired from the ground. However, in an embodiment, in order to improve the accuracy of the filtering result, an object satisfying all three conditions may be determined to represent the ground.
이하에서는 도 4 내지 도 5를 참조하여, 본 발명의 일 실시 예에 따른 지면 데이터 필터링 장치에 대하여 설명한다.Hereinafter, a ground data filtering apparatus according to an embodiment of the present invention will be described with reference to FIGS. 4 to 5.
도 4는 본 발명에 따른 지면 데이터 필터링 장치의 일 예시를 나타낸다. 도 4를 참조하면, 지면 데이터 필터링 장치(400)는 감지부(sensing unit)(410), 저장부(storing unit)(420), 처리부(processing unit)(430), 및 표시부(display unit)(440)를 포함한다. 또한, 저장부(420)는 데이터 매트릭스(data matrix)(422), EPW 값(424), 및 그 외 미리 정의된 기준 값에 대한 정보 등을 포함할 수 있다.4 shows an example of a ground data filtering apparatus according to the present invention. Referring to FIG. 4, the ground
감지부(410)는 일종의 센서일 수 있다. 예를 들어, 라이다 센서, 레이더 센서, 초음파 센서 등이 감지부(410)에 해당할 수 있다. 감지부(410)는 차량 주변에 위치한 오브젝트에 대한 데이터를 수신한다. 또한, 감지부(410)는 두 개 이상의 센서를 포함할 수 있고, 차량에 센서가 부착된 위치는 고정될 수도 있고 유동적일 수도 있으며, 사용자에 의해 조정될 수도 있다.The
감지부(410)에 의해 감지되는 범위는 센서의 부착 위치에 따라 차량의 전 방위에 해당할 수 있다. 본 발명에서는 통상적으로 차량의 전방의 소정 범위로서 이해될 수 있다. 상기 소정 범위는 센서의 특징에 의해 결정된다. 예를 들어, 센서의 FOV가 100°인 경우, 소정 범위는 차량에 센서가 위치한 지점으로부터 진행방향 기준으로 좌측 및 우측으로 각각 50°의 범위 내에서 센서의 빔 특성이 지원하는 직선거리, 즉 부채꼴 형태의 영역이 될 수 있다. 예를 들어, 센서의 빔이 직선거리 L까지 측정 가능하고, FOV가 α인 경우, 상기 소정 범위는 0.5*α*L2이 된다. 또한 센서는 지원하는 레이어에 따라서, 상기 소정 범위에 해당하는 복수 개의 레이어에 걸친 영역으로부터 오브젝트를 감지할 수 있다.The range detected by the
저장부(420)는 센서에 의해 수집된 오브젝트에 대한 데이터를 저장한다. 이 저장부는 HDD나 SSD, SD 카드, 또는 플래시 메모리일 수 있다. 데이터는 일종의 데이터 매트릭스(422)에 저장될 수 있다. 데이터 매트릭스(422)는 레이어 행(layer row)과 빔 열(beam column)으로 구성될 수 있다. 예를 들면, 제1행에는 제1 레이어에서 수집된 오브젝트에 대한 데이터들이 포함되고, 제2행에는 제2 레이어에서 수집된 오브젝트에 대한 데이터들이 포함되는 방식이다. 이와 같은 데이터 매트릭스는 동일한 빔 열에서 대응되는 레이어 행에 해당하는 데이터들을 순차적으로 비교(예를 들어, 첫 번째 빔에 대한 제1레이어, 제2레이어, ..., 제n레이어의 값을 비교)하여 오브젝트가 지면을 나타내는 오브젝트인지 여부를 판단하기 위해 사용될 수 있다.The
저장부(420)는 또한, EPW 값(424)들을 저장할 수 있다. 또한 저장부(420)에는 일반적으로 도로임을 나타내는 EPW 값들이 미리 저장되어 있을 수 있다. 이와 같은 EPW 값(242)들은 해당 오브젝트로부터 수신된 데이터가 도로인지 아닌지를 판단하기 위해 사용될 수 있다. 이 외에도 저장부(420)는, 해당 오브젝트가 지면을 나타내는지 판단하기 위해 사용되는 기준 각도의 값, 기준 거리 차이의 값, 또는 그 범위에 대한 정보들을 포함하고 있을 수 있다.(예를 들어, 기타 데이터(426))The
처리부(430)는 저장부(420)에 저장된 데이터들을 이용하여 오브젝트가 지면을 나타내는지 여부를 판단할 수 있다. 예를 들어, 처리부(430)는 데이터 매트릭스에서 인접한 2개의 레이어(즉, 인접한 2개의 행)에서 감지된 오브젝트에 대한 데이터로부터, 두 오브젝트를 연결하는 가상의 실선이 지면과 이루는 각도, 즉 기울기를 획득할 수 있다. 이 획득된 기울기를 미리 정의된 기준과 비교한다. 만약 획득된 기울기가 소정의 각도보다 작거나, 지면을 나타내는 것으로 정의된 각도의 범위에 포함되는 경우, -즉 기울기 조건을 만족하는 경우- 해당 오브젝트는 지면을 나타내는 것으로 판단될 수 있다. The
또한, 처리부(430)는 서로 인접한 2개의 레이어에서 감지된 오브젝트에 대한 데이터로부터, 센서와 오브젝트 사이의 거리를 획득할 수 있다. 만약 두 오브젝트와 센서 사이의 거리 값의 차이가 소정 크기 이하이거나, 지면을 나타내는 것으로 정의된 크기의 범위에 포함되는 경우, -즉 밀집도 조건을 만족하는 경우- 해당 오브젝트는 지면을 나타내는 것으로 판단될 수 있다.In addition, the
또한, 처리부(430)는 수신된 데이터에 포함된 EPW 값이 도로에 해당하는 EPW 값인 경우에, 해당 오브젝트를 지면을 나타내는 것으로 판단할 수 있다.In addition, when the EPW value included in the received data is an EPW value corresponding to a road, the
상술한 기준 중 적어도 하나를 만족하는 오브젝트에 대한 데이터를 지면 데이터로 판단할 수 있으나, 정확도의 향상을 위해서 상술한 기준을 모두 만족하는 오브젝트에 대한 데이터를 지면 데이터로 판단하는 것도 가능하다.Although data about an object that satisfies at least one of the above criteria may be determined as ground data, data about an object that satisfies all of the above criteria may be determined as ground data in order to improve accuracy.
표시부(440)는 지면 데이터가 필터링된 결과를 사용자 또는 차량 운전자에게 제공한다. 이때 제공되는 영상은 사용자 친화적으로 적절하게 가공된 영상일 수 있다. 예를 들어, 지면 데이터가 필터링된 감지 결과가 전방 특정 거리 이내에 장애물이 있는 것을 나타내면, 해당 위치 또는 거리에 대한 안내와 함께 스티어링 휠의 조향 안내가 함께 제공될 수 있다.The
이와 같은 디스플레이, 또는 장치(400)를 구성하는 다른 부분은, 별도의 독립된(stand-alone) 장치로 구현될 수도 있는데, 이에 대한 예시를 도 5a와 도 5b를 참조하여 설명한다.Such a display or other part of the
도 5a와 도 5b는 본 발명에 따른 지면 데이터 필터링 시스템의 예시들을 나타낸다. 도 5a와 도 5b에 도시된 구성을 설명함에 있어서, 전술한 구성과 중복되는 설명은 생략한다.5A and 5B show examples of a ground data filtering system according to the present invention. In describing the configurations shown in FIGS. 5A and 5B, descriptions overlapping with the aforementioned configurations will be omitted.
도 5a를 참조하면, 시스템은 처리장치(510)와 디스플레이 장치(520)를 포함한다. 처리장치(520)는 전술한 감지부(410), 저장부(420), 처리부(430)를 포함하며, 추가적으로 통신부(450)를 포함한다. 통신부(450)는 디스플레이 장치(520)에 포함된 통신부(524)와 연결되어, 디스플레이 장치(520)의 표시부(522)에 의해 지면 데이터가 필터링 된 결과가 디스플레이 되도록 데이터를 제공할 수 있다. 통신부(450)와 통신부(524) 사이의 연결은 LAN과 같은 유선 연결뿐만 아니라, Wi-Fi, Bluetooth, 또는 NFC와 같은 근거리 통신을 통해서도 가능하다. 예를 들어, 처리장치(510)는 차량에 탑재된 텔레매틱스 시스템일 수 있으며, 디스플레이 장치(520)는 텔레매틱스와 통신할 수 있는 스마트폰, 태블릿, 스마트 워치와 같은 모바일 컴퓨팅 디바이스 일 수 있다. 또한 디스플레이 장치(520)는 차량의 HUD일 수도 있다.Referring to FIG. 5A, the system includes a
도 5b는 시스템의 다른 구성 예시를 나타낸다. 도 5b를 참조하면, 감지부(410)는 처리장치(530)와 독립적으로 구성된다. 감지부(410)와 처리장치(530)는 can 버스 등으로 연결될 수 있다. 감지부(410)를 처리장치(530)와 별도로 구성함으로써, 감지부(410)의 교체, 교환, 추가 등을 용이하게 할 수 있다.5B shows another configuration example of the system. Referring to FIG. 5B, the
도 6은 본 발명에 따른 지면 데이터 처리 방법의 흐름도를 나타낸다. 프로세스는 단계 610에서 시작한다. 단계 620에서, 시스템은 센서 등을 이용하여 차량 주변에 위치한 오브젝트에 대한 데이터를 수집한다. 센서는 오브젝트를 감지하기 위해 하나 이상의 빔을 방사하고, 빔은 복수 개의 레이어를 갖는다. 단계 630에서 시스템은 센서에 의해 수신된 데이터를 저장부에 저장한다. 저장되는 데이터는 데이터 매트릭스의 형태를 가질 수 있다. 데이터 매트릭스에 대한 설명은 전술한 바 있으므로 생략한다. 또한 수신된 데이터에 포함된 EPW 값도 저장될 수 있다. 단계 642, 644, 646에서는 수신된 데이터, 또는 그로부터 획득된 데이터를 시스템에 미리 정의되어 있는 기준과 비교한다. 단계 642, 644, 646은 순차적으로 수행될 수도 있고, 동시에 수행될 수도 있다.6 shows a flowchart of a method of processing ground data according to the present invention. The process begins at
단계 642에서, 인접한 레이어에서 감지된 두 오브젝트에 대한 기울기가 판단된다. 상기 기울기는 두 오브젝트를 연결하는 가상의 실선이 지면과 이루는 각도를 의미할 수 있다.In
단계 644에서, 인접한 레이어에서 감지된 두 오브젝트에 대한 밀집도가 판단된다. 상기 밀집도는 두 오브젝트와 센서 사이의 거리 값의 차이로부터 결정되며, 거리 값의 차이가 작을 수록 밀집도가 높은 것으로, 클 수록 밀집도가 낮은 것으로 판단된다.In
단계 646에서, 수집된 데이터에 포함된 EPW 값이 판단된다.In
단계 650에서, 단계 642, 644, 646에서 판단된 기울기, 밀집도, EPW가 미리 정의된 기준(조건)을 충족시키는지 여부를 판단한다. 조건을 충족하면 해당 오브젝트는 지면을 나타내는 것으로 판단되고(단계 662), 충족하지 않으면 해당 오브젝트는 장애물로 판단될 수 있다(단계 664). 일 실시 예에서는, 기울기, 밀집도, EPW 조건 중 적어도 하나를 만족하는 경우 지면으로 판단될 수 있으나, 다른 실시 예에서는 세 가지 조건 모두를 만족하는 경우, 해당 오브젝트가 지면으로 판단될 수 있고, 판단된 지면 데이터는 필터링 될 수 있다.In
단계 670에서 프로세스는 종료된다. 그러나 도 5와 관련하여 전술한 바와 같이, 지면 데이터가 필터링된 결과는 디스플레이 되거나, 디스플레이 하기 위하여 타 디바이스로 전송될 수 있다. 또한, 단계 620에서 취득된 데이터는 단계 630에서 소정의 저장부에 저장되기 전에 디바이스 사이의 전송 과정을 거칠 수 있다. 즉, 도 6에 도시된 흐름도는 예시적인 것이며, 당업자의 수준에서 전술한 설명에 대응하는 일부 단계가 생략되거나 부가될 수 있다.In
본 명세서에서, 특정 기능을 수행하기 위한 수단으로서 표현된 요소는 특정 기능을 수행하는 임의의 방식을 포괄하고, 이러한 요소는 특정 기능을 수행하는 회로 요소들의 조합, 또는 특정 기능을 수행하기 위한 소프트웨어를 수행하기 위해 적합한 회로와 결합된, 펌웨어(firmware), 마이크로코드(microcode) 등을 포함하는 임의의 형태의 소프트웨어를 포함할 수 있다.In the present specification, an element represented as a means for performing a specific function encompasses any way of performing a specific function, and the element may be a combination of circuit elements performing a specific function, or software for performing a specific function. It may include any form of software, including firmware, microcode, and the like, coupled with suitable circuitry to perform.
본 명세서에서 본 발명의 원리들의 '일 실시 예'와 이런 표현의 다양한 변형들의 지칭은 이 실시 예와 관련되어 특정 특징, 구조, 특성 등이 본 발명의 원리의 적어도 하나의 실시 예에 포함된다는 것을 의미한다. 따라서, 표현 '일 실시 예에서'와, 본 명세서 전체를 통해 개시된 임의의 다른 변형 예시들은 반드시 모두 동일한 실시 예를 지칭하는 것은 아니다.Reference herein to 'one embodiment' of the principles of the present invention and various modifications of this expression are intended to include that particular features, structures, characteristics, and the like, are included in at least one embodiment of the principles of the invention in connection with this embodiment. it means. Thus, the expression 'in one embodiment' and any other modifications disclosed throughout the specification are not necessarily all referring to the same embodiment.
본 명세서를 통해 개시된 모든 실시 예들과 조건부 예시들은, 본 발명의 기술 분야에서 통상의 지식을 가진 당업자가 독자가 본 발명의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
All embodiments and conditional examples disclosed through the specification are intended to help those skilled in the art to understand the principles and concepts of the present invention, and those skilled in the art to which the present invention It will be understood that modifications may be made without departing from the essential features of the invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
400: 지면 데이터 필터링 장치
410: 감지부
420: 저장부
430: 처리부
440: 표시부400: ground data filtering device
410: detector
420: storage
430: processing unit
440: display unit
Claims (12)
서로 다른 레이어의 빔(beam)을 방사하여 차량 주위의 오브젝트에 대한 데이터를 수신하는 센서;
상기 수신된 오브젝트에 대한 데이터와 미리 정의된 기준을 저장하는 저장부; 및
서로 인접한 레이어에서 각각 감지된 오브젝트를 연결하는 직선과 지면이 이루는 각도를 상기 미리 정의된 기준과 비교하여, 상기 차량 주위의 오브젝트 중 지면을 나타내는 것으로 판단되는 상기 오브젝트에 대한 데이터를 필터링하는 처리부를 포함하는 장치.
An apparatus for filtering ground data,
A sensor that receives beams of different layers to receive data about objects around the vehicle;
A storage unit which stores data about the received object and predefined criteria; And
And a processor configured to filter data about the object determined to represent the ground among the objects around the vehicle by comparing angles formed by a straight line connecting the sensed objects on the layers adjacent to each other with the predefined criteria. Device.
서로 다른 레이어의 빔(beam)을 방사하여 차량 주위의 오브젝트에 대한 데이터를 수신하는 센서;
상기 수신된 오브젝트에 대한 데이터와 미리 정의된 기준을 저장하는 저장부; 및
상기 수신된 오브젝트에 대한 데이터에 포함된 EPW(Echo Pulse Width) 값을 상기 미리 정의된 기준과 비교하여, 상기 차량 주위의 오브젝트 중 지면을 나타내는 것으로 판단되는 상기 오브젝트에 대한 데이터를 필터링하는 처리부를 포함하는 장치.
An apparatus for filtering ground data,
A sensor that receives beams of different layers to receive data about objects around the vehicle;
A storage unit which stores data about the received object and predefined criteria; And
A processing unit for filtering data for the object determined to represent the ground among the objects around the vehicle by comparing an echo pulse width (EPW) value included in the data for the received object with the predefined criterion; Device.
서로 다른 레이어의 빔(beam)을 방사하여 차량 주위의 오브젝트에 대한 데이터를 수신하는 센서;
상기 수신된 오브젝트에 대한 데이터와 미리 정의된 기준을 저장하는 저장부; 및
서로 인접한 레이어에서 각각 감지된 오브젝트를 연결하는 직선과 지면이 이루는 각도와, 서로 인접한 레이어에서 각각 감지된 오브젝트 간 거리 차이, 및 상기 수신된 오브젝트에 대한 데이터에 포함된 EPW(Echo Pulse Width) 값을 각각 미리 정의된 기준과 비교하여, 상기 차량 주위의 오브젝트 중 지면을 나타내는 것으로 판단되는 상기 오브젝트에 대한 데이터를 필터링하는 처리부를 포함하는 장치.
An apparatus for filtering ground data,
A sensor that receives beams of different layers to receive data about objects around the vehicle;
A storage unit which stores data about the received object and predefined criteria; And
The angle between the straight line and the ground connecting the detected objects in the adjacent layers, the distance difference between the detected objects in the adjacent layers, and the Echo Pulse Width (EPW) value included in the data about the received object. And a processing unit for filtering data for the object, which is determined to represent the ground among the objects around the vehicle, in comparison with a predefined criterion.
서로 다른 레이어의 빔(beam)을 방사하여 차량 주위의 오브젝트에 대한 데이터를 수신하는 단계;
상기 수신된 오브젝트에 대한 데이터와 미리 정의된 기준을 저장하는 단계;
서로 인접한 레이어에서 각각 감지된 오브젝트를 연결하는 직선과 지면이 이루는 각도를 상기 미리 정의된 기준과 비교하는 단계; 및
상기 비교 결과에 기초하여, 상기 오브젝트 중 지면을 나타내는 것으로 판단된 데이터를 필터링하는 단계를 포함하는 방법.
A method for a vehicle system to filter ground data,
Radiating beams of different layers to receive data about objects around the vehicle;
Storing data for the received object and predefined criteria;
Comparing angles formed by a straight line connecting the sensed objects in adjacent layers with each other and the ground, respectively, to the predefined reference; And
And based on the comparison result, filtering the data determined to represent the ground of the object.
서로 다른 레이어의 빔(beam)을 방사하여 차량 주위의 오브젝트에 대한 데이터를 수신하는 단계;
상기 수신된 오브젝트에 대한 데이터와 미리 정의된 기준을 저장하는 단계;
상기 수신된 오브젝트에 대한 데이터에 포함된 EPW(Echo Pulse Width) 값을 상기 미리 정의된 기준과 비교하는 단계; 및
상기 비교 결과에 기초하여, 상기 오브젝트 중 지면을 나타내는 것으로 판단된 데이터를 필터링하는 단계를 포함하는 방법.
A method for a vehicle system to filter ground data,
Radiating beams of different layers to receive data about objects around the vehicle;
Storing data for the received object and predefined criteria;
Comparing an echo pulse width (EPW) value included in data for the received object with the predefined criterion; And
And based on the comparison result, filtering the data determined to represent the ground of the object.
서로 다른 레이어의 빔(beam)을 방사하여 차량 주위의 오브젝트에 대한 데이터를 수신하는 단계;
상기 수신된 오브젝트에 대한 데이터와 미리 정의된 기준을 저장하는 단계;
서로 인접한 레이어에서 각각 감지된 오브젝트를 연결하는 직선과 지면이 이루는 각도와, 서로 인접한 레이어에서 각각 감지된 오브젝트 간 거리 차이, 및 상기 수신된 오브젝트에 대한 데이터에 포함된 EPW(Echo Pulse Width) 값을 각각 미리 정의된 기준과 비교하는 단계; 및
상기 비교 결과에 기초하여, 상기 오브젝트 중 지면을 나타내는 것으로 판단된 데이터를 필터링하는 단계를 포함하는 방법.A method for a vehicle system to filter ground data,
Radiating beams of different layers to receive data about objects around the vehicle;
Storing data for the received object and predefined criteria;
The angle between the straight line and the ground connecting the detected objects in the adjacent layers, the distance difference between the detected objects in the adjacent layers, and the Echo Pulse Width (EPW) value included in the data about the received object. Comparing each with a predefined criterion; And
And based on the comparison result, filtering the data determined to represent the ground of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130131136A KR102030168B1 (en) | 2013-10-31 | 2013-10-31 | A Method for Filtering Ground Data and An Apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130131136A KR102030168B1 (en) | 2013-10-31 | 2013-10-31 | A Method for Filtering Ground Data and An Apparatus thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150049934A KR20150049934A (en) | 2015-05-08 |
KR102030168B1 true KR102030168B1 (en) | 2019-10-08 |
Family
ID=53387923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130131136A KR102030168B1 (en) | 2013-10-31 | 2013-10-31 | A Method for Filtering Ground Data and An Apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102030168B1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102490602B1 (en) * | 2015-09-04 | 2023-01-19 | 현대모비스 주식회사 | Device for recognizing of obstacle around the vehicle and method thereof |
KR102030459B1 (en) * | 2017-11-01 | 2019-10-10 | 현대오트론 주식회사 | LIDAR signal processing apparatus, method and LIDAR |
KR102163660B1 (en) * | 2018-11-13 | 2020-10-08 | 현대오트론 주식회사 | LIDAR signal processing apparatus and LIDAR apparatus |
US11513198B2 (en) | 2019-01-04 | 2022-11-29 | Waymo Llc | LIDAR pulse elongation |
WO2022159110A1 (en) * | 2021-01-25 | 2022-07-28 | Waymo Llc | Lidar pulse elongation |
KR102389466B1 (en) * | 2022-01-04 | 2022-04-25 | (주)오토노머스에이투지 | Method for detecting contamination of lidar sensor and apparatus using the same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001219782A (en) * | 2000-02-14 | 2001-08-14 | Hino Motors Ltd | Optical axis angle adjusting device for headlight |
JP2006343148A (en) * | 2005-06-07 | 2006-12-21 | Nagoya Institute Of Technology | Collision avoiding system with image sensor and laser |
JP2011210165A (en) * | 2010-03-30 | 2011-10-20 | Denso Corp | Detection device |
JP2012242247A (en) * | 2011-05-19 | 2012-12-10 | Honda Motor Co Ltd | Object detector |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100728227B1 (en) * | 2005-10-28 | 2007-06-14 | 엘지전자 주식회사 | Moving control device and method of roving robot |
KR20120002180U (en) * | 2010-09-16 | 2012-03-26 | 이현우 | Method and apparatus for measuring slope in moving object |
KR101395089B1 (en) * | 2010-10-01 | 2014-05-16 | 안동대학교 산학협력단 | System and method for detecting obstacle applying to vehicle |
-
2013
- 2013-10-31 KR KR1020130131136A patent/KR102030168B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001219782A (en) * | 2000-02-14 | 2001-08-14 | Hino Motors Ltd | Optical axis angle adjusting device for headlight |
JP2006343148A (en) * | 2005-06-07 | 2006-12-21 | Nagoya Institute Of Technology | Collision avoiding system with image sensor and laser |
JP2011210165A (en) * | 2010-03-30 | 2011-10-20 | Denso Corp | Detection device |
JP2012242247A (en) * | 2011-05-19 | 2012-12-10 | Honda Motor Co Ltd | Object detector |
Also Published As
Publication number | Publication date |
---|---|
KR20150049934A (en) | 2015-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102030168B1 (en) | A Method for Filtering Ground Data and An Apparatus thereof | |
JP7297017B2 (en) | Method and apparatus for calibrating external parameters of on-board sensors and related vehicles | |
JP6441993B2 (en) | Method and system for object detection using a laser point cloud | |
US10444752B2 (en) | Stereo camera-based autonomous driving method and apparatus | |
JP2800531B2 (en) | Obstacle detection device for vehicles | |
CN1230690C (en) | Method for sampling to road information using vehicle-carrying camera and detecting for spaces of vehicles | |
US8126210B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP5434285B2 (en) | Obstacle detection device | |
CN104111058B (en) | Vehicle distance measurement method and device, vehicle relative velocity measuring method and device | |
WO2019000945A1 (en) | On-board camera-based distance measurement method and apparatus, storage medium, and electronic device | |
US20160188986A1 (en) | Detection system and detection method | |
CN109946703B (en) | Sensor attitude adjusting method and device | |
US9594966B2 (en) | Obstacle detection device and obstacle detection method | |
US20190186945A1 (en) | Method and apparatus providing information of an autonomous vehicle | |
US20220383529A1 (en) | Method and apparatus with vanishing point estimation | |
JP2011150573A (en) | Drive recorder | |
JP2011209251A (en) | Vehicle height detector | |
US10955259B2 (en) | Navigation system with enhanced navigation display mechanism and method of operation thereof | |
KR101339454B1 (en) | Method of supplying car driving informaton using mobile apparatus | |
CN114365003A (en) | Adjusting device and laser radar measuring device | |
CN114973208B (en) | Vehicle blind area monitoring and early warning method and related equipment | |
JP7207366B2 (en) | In-vehicle display system | |
US11151743B2 (en) | Method, system and apparatus for end of aisle detection | |
JP2010164356A (en) | Circumference monitoring device for vehicle | |
KR101959193B1 (en) | Apparatus for detecting inter-vehicle distance using lamp image and Method for detecting inter-vehicle distance using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |