KR20200099887A - Apparatus and method for visualizing sensor data - Google Patents

Apparatus and method for visualizing sensor data Download PDF

Info

Publication number
KR20200099887A
KR20200099887A KR1020190018082A KR20190018082A KR20200099887A KR 20200099887 A KR20200099887 A KR 20200099887A KR 1020190018082 A KR1020190018082 A KR 1020190018082A KR 20190018082 A KR20190018082 A KR 20190018082A KR 20200099887 A KR20200099887 A KR 20200099887A
Authority
KR
South Korea
Prior art keywords
subject
sensor
unit
radar
lidar
Prior art date
Application number
KR1020190018082A
Other languages
Korean (ko)
Other versions
KR102196171B1 (en
Inventor
김석기
Original Assignee
주식회사 스프링클라우드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스프링클라우드 filed Critical 주식회사 스프링클라우드
Priority to KR1020190018082A priority Critical patent/KR102196171B1/en
Publication of KR20200099887A publication Critical patent/KR20200099887A/en
Application granted granted Critical
Publication of KR102196171B1 publication Critical patent/KR102196171B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Provided are a sensor data visualization device to integrally display and visualize recognition information of a radar sensor and a Lidar sensor in the same coordinate system, and a method thereof. The presented device includes: a first coordinate calculation unit which converts collected radar information into a value of a distance coordinate system; a correction unit which corrects data from the first coordinate calculation unit; a first coordinate conversion unit which converts data from the correction unit pixel-unit coordinate values; a first visualization unit which outputs visualization information corresponding to information from the first coordinate conversion unit; a second coordinate calculation unit which changes the collected Lidar information into a value of the distance coordinate system; a second coordinate conversion unit which converts data from the second coordinate calculation unit into the pixel-unit coordinate value; a second visualization unit which outputs visualization information corresponding to information from the second coordinate conversion unit; and a combining unit which synthesizes and displays the visualization information of the first visualization unit and the second visualization unit.

Description

센서 데이터 시각화 장치 및 방법{Apparatus and method for visualizing sensor data}Apparatus and method for visualizing sensor data}

본 발명은 센서 데이터 시각화 장치 및 방법에 관한 것으로, 보다 상세하게는 레이다 센서 및 라이다 센서의 인식 정보를 시각화하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for visualizing sensor data, and more particularly, to an apparatus and method for visualizing recognition information of a radar sensor and a lidar sensor.

레이다 센서는 해당 센서에서 발신된 전파가 피사체에 부딛혀서 돌아오는 반사파를 측정하여 피사체의 거리, 방향, 속도 등을 측정하는 장비이다. 통상적으로, 상용 레이다 센서는 피사체에 대한 정보(신규로 인식된 피사체 또는 이미 인식된 피사체인지에 대한 여부), 센서와 피사체와의 거리, 센서와 피사체간의 각도, 피사체의 움직임 여부(정지 피사체 또는 이동 타깃인지에 대한 여부), 피사체의 이동 속도 등의 정보를 제공할 수 있다.A radar sensor is a device that measures the distance, direction, and speed of the subject by measuring the reflected wave returned by the radio wave transmitted from the sensor hitting the subject. Typically, commercial radar sensors include information on a subject (whether it is a newly recognized subject or an already recognized subject), the distance between the sensor and the subject, the angle between the sensor and the subject, and whether the subject is moving (still or moving Whether or not it is a target), and information such as a moving speed of a subject may be provided.

라이다 센서는 해당 센서에서 발광된 레이저 광선이 피사체에 반사된 뒤 센서로 되돌아오기까지의 시간을 측정하여 피사체까지의 거리를 측정하는 장비이다. 통상적으로, 상용 라이다 센서는 라이다 채널에 대한 정보(복수의 채널을 가지는 센서의 경우 채널 정보를 이용하여 수직 각도에 대한 정보를 취득할 수 있다), 수평 각도, 피사체와의 거리 등의 정보를 제공할 수 있다.The lidar sensor is a device that measures the distance to the subject by measuring the time until the laser beam emitted from the sensor is reflected on the subject and returned to the sensor. Typically, commercial LiDAR sensors include information about the LiDAR channel (in the case of a sensor having multiple channels, information about the vertical angle can be obtained using the channel information), the horizontal angle, and the distance to the subject. Can provide.

그런데, 상술한 상용 레이다 센서 및 상용 라이다 센서는 차량 환경에서 주변 상황에 대한 유용한 정보를 제공하지만, 사용자 관점에서 시각화는 특별히 고려되지 않고 있는 실정이다.However, the commercial radar sensor and the commercial radar sensor described above provide useful information about the surrounding situation in the vehicle environment, but the visualization is not specifically considered from the user's point of view.

선행기술 1 : 대한민국 등록특허 제10-1427364호(라이다 장치를 이용한 3D 실내지도 생성용 스캔시스템)Prior Art 1: Republic of Korea Patent Registration No. 10-1427364 (Scanning system for generating 3D indoor maps using a lidar device) 선행기술 2 : 대한민국 공개특허 제10-2018-0068600호(모션센서 기반의 이동체 감지 및 속도측정시스템)Prior Art 2: Korean Patent Laid-Open Patent No. 10-2018-0068600 (motion sensor-based moving object detection and speed measurement system) 선행기술 3 : 대한민국 등록특허 제10-1852945호(타겟 포인팅 및 트래킹 기능을 갖는 라이다 시스템 및 라이다 시스템을 이용한 타겟 포인팅 및 트래킹 방법)Prior Art 3: Republic of Korea Patent Registration No. 10-1852945 (Target pointing and tracking method using a lidar system and lidar system having a target pointing and tracking function)

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 레이다 센서 및 라이다 센서의 인식 정보를 동일 좌표계에 통합적으로 표시하고 시각화하도록 하는 센서 데이터 시각화 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed to solve the above-described conventional problem, and an object of the present invention is to provide a sensor data visualization apparatus and method for integrally displaying and visualizing recognition information of a radar sensor and a lidar sensor in the same coordinate system.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 센서 데이터 시각화 장치는, 수집된 레이다 정보를 거리 좌표계의 값으로 변경하는 제 1 좌표 계산부; 상기 제 1 좌표 계산부로부터의 데이터를 보정하는 보정부; 상기 보정부로부터의 데이터를 픽셀 단위 좌표의 값으로 변환하는 제 1 좌표 변환부; 상기 제 1 좌표 변환부로부터의 정보에 상응하는 시각화 정보를 출력하는 제 1 시각화부; 수집된 라이다 정보를 거리 좌표계의 값으로 변경하는 제 2 좌표 계산부; 상기 제 2 좌표 계산부로부터의 데이터를 픽셀 단위 좌표의 값으로 변환하는 제 2 좌표 변환부; 상기 제 2 좌표 변환부로부터의 정보에 상응하는 시각화 정보를 출력하는 제 2 시각화부; 및 상기 제 1 시각화부 및 상기 제 2 시각화부의 시각화 정보를 합성하여 표시하는 합성부;를 포함한다.In order to achieve the above object, an apparatus for visualizing sensor data according to a preferred embodiment of the present invention includes: a first coordinate calculator for changing collected radar information to a value of a distance coordinate system; A correction unit correcting data from the first coordinate calculation unit; A first coordinate conversion unit that converts the data from the correction unit into pixel-unit coordinate values; A first visualization unit for outputting visualization information corresponding to information from the first coordinate conversion unit; A second coordinate calculation unit that changes the collected LiDAR information into a value of the distance coordinate system; A second coordinate conversion unit that converts data from the second coordinate calculation unit into a pixel-based coordinate value; A second visualization unit for outputting visualization information corresponding to information from the second coordinate conversion unit; And a synthesis unit that synthesizes and displays the visualization information of the first visualization unit and the second visualization unit.

상기 제 1 좌표 계산부는, 감지된 피사체에 대한 거리와 방향에 대한 정보를 수신함에 따라 하기의 수학식,As the first coordinate calculation unit receives information about the distance and direction of the detected subject, the following equation,

Yradar = γ×sinθ, Xradar = √(γ2 - Yradar 2)Y radar = γ×sinθ, X radar = √(γ 2 -Y radar 2 )

(여기서, Xradar는 레이다 센서와 피사체간의 X축 거리이고, Yradar는 레이다 센서와 피사체간의 Y축 거리이고, γ는 레이다 센서와 피사체와의 거리이고, θ는 레이다 센서의 정면과 피사체와의 각도임) (Where, X radar is the X-axis distance between the radar sensor and the subject, Y radar is the Y-axis distance between the radar sensor and the subject, γ is the distance between the radar sensor and the subject, and θ is the distance between the front of the radar sensor and the subject. Angle)

을 이용하여 레이다 센서와 피사체간의 X축 거리, 및 레이다 센서와 피사체간의 Y축 거리를 구할 수 있다.Using, the X-axis distance between the radar sensor and the subject and the Y-axis distance between the radar sensor and the subject can be obtained.

상기 보정부는, 하기의 수학식,The correction unit, the following equation,

X'radar = Xradar + ΔX, Y'radar = Yradar + ΔY X'radar = X radar + ΔX, Y'radar = Y radar + ΔY

(여기서, X'radar는 레이다 센서의 x축 보정 위치이고, Y'radar는 레이다 센서의 y축 보정 위치이고, ΔX는 레이다 센서의 중심과 라이다 센서의 중심간의 x축 거리이고, ΔY는 레이다 센서의 중심과 라이다 센서의 중심간의 y축 거리임)(Wherein, X 'radar is the x-axis calibration position of the radar sensor, Y' radar is the y-axis calibration position of the radar sensor, ΔX is the x-axis distance between the centers of the central and La of the radar sensors, ΔY is the radar The y-axis distance between the center of the sensor and the center of the lidar sensor)

을 이용하여 레이다 센서의 x축 보정 위치 및 레이다 센서의 y축 보정 위치를 구할 수 있다.By using, the x-axis correction position of the radar sensor and the y-axis correction position of the radar sensor can be obtained.

상기 제 1 좌표 변환부는, 상기 레이다 센서의 x축 보정 위치 및 레이다 센서의 y축 보정 위치를 수신함에 따라 하기의 수학식,As the first coordinate conversion unit receives the x-axis correction position of the radar sensor and the y-axis correction position of the radar sensor, the following equation,

X' = h + X'radar × (h/distancemax), Y' = h - Y'radar × (h/distancemax)X'= h + X'radar × (h/distance max ), Y'= h- Y'radar × (h/distance max )

(여기서, X'은 레이다 센서와 피사체와의 x축 화면 픽셀 수이고, h는 화면 표시 영역의 세로 픽셀 수이고, distancemax는 레이다 센서의 최대 가시 거리이고, Y'은 레이다 센서와 피사체와의 y축 화면 픽셀 수임)(Where X'is the number of pixels on the x-axis between the radar sensor and the subject, h is the number of vertical pixels in the screen display area, distance max is the maximum visible distance of the radar sensor, and Y'is the y-axis screen pixels)

을 통해 레이다 센서와 피사체와의 x축 화면 픽셀 수 및 레이다 센서와 피사체와의 y축 화면 픽셀 수를 계산할 수 있다.Through this, the number of pixels on the x-axis screen between the radar sensor and the subject and the number of pixels on the y-axis screen between the radar sensor and the subject can be calculated.

상기 제 1 시각화부는, 신규 피사체 및 이미 인식된 피사체를 구분하여 시각화하되, 상기 신규 피사체는 제 1 색상의 박스로 표시하고, 상기 이미 인식된 기존 피사체는 제 2 색상의 박스로 표시할 수 있다.The first visualization unit may differentiate and visualize a new subject and an already recognized subject, and the new subject may be displayed as a box of a first color, and the previously recognized subject may be displayed as a box of a second color.

상기 제 1 시각화부는, 피사체의 속도 정보 유무에 대하여 구분하여 시각화하되, 피사체의 이동 속도에 대한 정보가 제공되는 경우 박스 안에 숫자로 해당 속도를 표시할 수 있다.The first visualization unit divides and visualizes the presence or absence of speed information of the subject, but when information on the moving speed of the subject is provided, the corresponding speed may be displayed as a number in a box.

상기 제 1 시각화부는, 정지 피사체 및 이동 피사체를 구분하여 시각화하되, 상기 이동 피사체의 경우 화살표 또는 직선 등을 이용하여 표시하여 상기 정지 피사체와 구분할 수 있다.The first visualization unit may separate and visualize a still subject and a moving subject, and may display the moving subject using an arrow or a straight line to distinguish it from the still subject.

상기 제 1 시각화부는, 피사체의 이동 방향에 대한 정보 유무에 대하여 구분하여 시각화하되, 상기 피사체의 이동 방향에 대한 정보가 있는 경우 화살표를 이용하여 이동 방향을 표시하고, 이동 방향에 대한 정보가 없는 경우 해당 피사체의 직전 위치로부터 현재 위치까지의 이동 방향을 계산하여 직선 형태로 표시할 수 있다.The first visualization unit separates and visualizes the presence or absence of information on the movement direction of the subject, but when there is information on the movement direction of the subject, the movement direction is displayed using an arrow, and when there is no information on the movement direction The moving direction from the immediate previous position of the subject to the current position can be calculated and displayed in a straight line.

상기 제 1 시각화부는, 피사체의 이동 방향에 대하여 시각화를 행하되, 상기 피사체의 위치에 대한 정보를 시간순으로 도식화할 수 있다.The first visualization unit may visualize the moving direction of the subject, and may schematically display information on the location of the subject in chronological order.

상기 제 1 시각화부는, 상기 피사체의 이동 방향에 대한 정보가 있는 경우에는 화살표를 이용하여 이동 방향을 표시하고, 상기 피사체의 이동 방향에 대한 정보가 없는 경우에는 직선을 이용하여 표시할 수 있다.When there is information on the moving direction of the subject, the first visualization unit may display the moving direction using an arrow, and when there is no information on the moving direction of the subject, the first visualization unit may display the moving direction using a straight line.

상기 수집된 라이다 정보는 피사체를 인지한 라이다 채널의 x-y 평면과의 수직 각도, 피사체를 인지한 라이다 채널의 x축과의 수평 각도, 및 라이다 센서와 피사체와의 거리이고, 상기 제 2 좌표 계산부는 하기의 수학식,The collected lidar information is a vertical angle from the xy plane of the lidar channel recognizing the subject, the horizontal angle from the x-axis of the lidar channel recognizing the subject, and the distance between the lidar sensor and the subject. 2 The coordinate calculation unit is the following equation,

Zlidar = γ × sinπZ lidar = γ × sinπ

Xlidar = sinθ × √(γ2 - Zlidar 2)X lidar = sinθ × √(γ 2 -Z lidar 2 )

Ylidar = √(γ2 - Xlidar 2 - Zlidar 2)Y lidar = √(γ 2 -X lidar 2 -Z lidar 2 )

(여기서, Zlidar는 라이다 센서와 피사체간의 z축 거리이고, γ는 라이다 센서와 피사체와의 거리이고, π는 피사체를 인지한 라이다 채널의 x-y 평면과의 수직 각도이고, Xlidar는 라이다 센서와 피사체간의 x축 거리이고, θ는 피사체를 인지한 라이다 채널의 x축과의 수평 각도이고, Ylidar는 라이다 센서와 피사체간의 y축 거리임)(Where, Z lidar is the z-axis distance between the lidar sensor and the subject, γ is the distance between the lidar sensor and the subject, π is the vertical angle with the xy plane of the lidar channel that recognizes the subject, and X lidar is The x-axis distance between the lidar sensor and the subject, θ is the horizontal angle with the x-axis of the lidar channel that recognizes the subject, and Y lidar is the y-axis distance between the lidar sensor and the subject)

을 이용하여 라이다 센서와 피사체간의 z축 거리, 라이다 센서와 피사체간의 x축 거리, 및 라이다 센서와 피사체간의 y축 거리를 구할 수 있다.Using, the z-axis distance between the lidar sensor and the subject, the x-axis distance between the lidar sensor and the subject, and the y-axis distance between the lidar sensor and the subject can be obtained.

상기 제 2 좌표 변환부는, 상기 라이다 센서와 피사체간의 x축 거리 및 라이다 센서와 피사체간의 y축 거리를 하기의 수학식,The second coordinate conversion unit calculates the x-axis distance between the lidar sensor and the subject and the y-axis distance between the lidar sensor and the subject by the following equations,

X' = h + Xlidar × (h/distancemax), Y' = h - Ylidar × (h/distancemax)X'= h + X lidar × (h/distance max ), Y'= h-Y lidar × (h/distance max )

(여기서, X'은 라이다 센서와 피사체와의 x축 화면 픽셀 수이고, h는 화면 표시 영역의 세로 픽셀 수이고, distancemax는 레이다 센서의 최대 가시 거리이고, Y'은 라이다 센서와 피사체와의 y축 화면 픽셀 수임)(Where, X'is the number of pixels on the x-axis between the lidar sensor and the subject, h is the number of vertical pixels in the screen display area, distance max is the maximum visible distance of the radar sensor, and Y'is the lidar sensor and the subject. Is the number of pixels on the y-axis of the screen)

에 대입하여 라이다 센서와 피사체와의 x축 화면 픽셀 수 및 라이다 센서와 피사체와의 y축 화면 픽셀 수를 계산할 수 있다.By substituting in, the number of pixels on the x-axis screen between the lidar sensor and the subject and the number of pixels on the y-axis screen between the lidar sensor and the subject can be calculated.

상기 제 2 시각화부는, 상기 제 2 좌표 변환부로부터의 정보를 2차원 거리 좌표계에 시각화하되, 중첩되는 데이터 수에 따라 색상값을 차등되게 할 수 있다.The second visualization unit may visualize the information from the second coordinate conversion unit on a two-dimensional distance coordinate system, and may differentiate color values according to the number of overlapping data.

한편, 본 발명의 바람직한 실시양태에 따른 센서 데이터 시각화 방법은, 제 1 좌표 계산부가 수집된 레이다 정보를 거리 좌표계의 값으로 변경하고, 제 2 좌표 계산부가 수집된 라이다 정보를 거리 좌표계의 값으로 변경하는 단계; 보정부가, 상기 제 1 좌표 계산부로부터의 데이터를 보정하는 단계; 제 1 좌표 변환부가 상기 보정부로부터의 데이터를 픽셀 단위 좌표의 값으로 변환하고, 제 2 좌표 변환부가 상기 제 2 좌표 계산부로부터의 데이터를 픽셀 단위 좌표의 값으로 변환하는 단계; 제 1 시각화부가 상기 제 1 좌표 변환부로부터의 정보에 상응하는 시각화 정보를 출력하고, 제 2 시각화부가 상기 제 2 좌표 변환부로부터의 정보에 상응하는 시각화 정보를 출력하는 단계; 및 합성부가, 상기 제 1 시각화부 및 상기 제 2 시각화부의 시각화 정보를 합성하여 표시하는 단계;를 포함한다.Meanwhile, in the sensor data visualization method according to a preferred embodiment of the present invention, the radar information collected by the first coordinate calculator is changed to the value of the distance coordinate system, and the radar information collected by the second coordinate calculator is converted to the value of the distance coordinate system. Changing; A step of correcting, by a correction unit, data from the first coordinate calculation unit; Converting, by a first coordinate conversion unit, data from the correction unit to a value of coordinates in pixel units, and by a second coordinate conversion unit, converting data from the second coordinate calculation unit to a value of coordinates in pixels; Outputting visualization information corresponding to the information from the first coordinate conversion unit, and outputting visualization information corresponding to the information from the second coordinate conversion unit by a first visualization unit; And a synthesizing unit, synthesizing and displaying the visualization information of the first visualization unit and the second visualization unit.

이러한 구성의 본 발명에 따르면, 레이다 센서 및 라이다 센서의 인식 정보를 동일 좌표계에 통합적으로 표시하고 시각화함으로써 인식 정보의 식별을 용이하게 할 수 있다.According to the present invention having such a configuration, recognition information of the radar sensor and the lidar sensor can be integratedly displayed and visualized in the same coordinate system to facilitate identification of the recognition information.

도 1은 본 발명의 실시예에 따른 센서 데이터 시각화 장치의 블럭구성도이다.
도 2는 도 1에 도시된 제 1 좌표 계산부의 동작 설명에 채용되는 도면이다.
도 3은 도 1에 도시된 보정부의 동작 설명에 채용되는 도면이다.
도 4 및 도 5는 도 1에 도시된 제 1 좌표 변환부의 동작 설명에 채용되는 도면이다.
도 6 내지 도 12는 도 1에 도시된 제 1 시각화부의 동작 설명에 채용되는 도면이다.
도 13 및 도 14는 도 1에 도시된 제 2 좌표 계산부의 동작 설명에 채용되는 도면이다.
도 15는 도 1에 도시된 제 2 좌표 변환부의 동작 설명에 채용되는 도면이다.
도 16 및 도 17은 도 1에 도시된 제 2 시각화부의 동작 설명에 채용되는 도면이다.
도 18은 도 1에 도시된 합성부의 동작 설명에 채용되는 도면이다.
도 19는 본 발명의 실시예에 따른 센서 데이터 시각화 방법을 설명하기 위한 플로우차트이다.
1 is a block diagram of a sensor data visualization apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram used for explaining the operation of the first coordinate calculation unit shown in FIG. 1.
3 is a diagram used to explain the operation of the correction unit illustrated in FIG. 1.
4 and 5 are diagrams used to describe the operation of the first coordinate conversion unit shown in FIG. 1.
6 to 12 are diagrams used to describe the operation of the first visualization unit shown in FIG. 1.
13 and 14 are diagrams used to explain the operation of the second coordinate calculator shown in FIG. 1.
15 is a diagram used to explain the operation of the second coordinate conversion unit shown in FIG. 1.
16 and 17 are diagrams used to explain the operation of the second visualization unit shown in FIG. 1.
18 is a diagram used to explain the operation of the synthesis unit shown in FIG. 1.
19 is a flowchart illustrating a sensor data visualization method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate an overall understanding, the same reference numerals are used for the same elements in the drawings, and duplicate descriptions for the same elements are omitted.

도 1은 본 발명의 실시예에 따른 센서 데이터 시각화 장치의 블럭구성도이고, 도 2는 도 1에 도시된 제 1 좌표 계산부의 동작 설명에 채용되는 도면이고, 도 3은 도 1에 도시된 보정부의 동작 설명에 채용되는 도면이고, 도 4 및 도 5는 도 1에 도시된 제 1 좌표 변환부의 동작 설명에 채용되는 도면이고, 도 6 내지 도 12는 도 1에 도시된 제 1 시각화부의 동작 설명에 채용되는 도면이고, 도 13 및 도 14는 도 1에 도시된 제 2 좌표 계산부의 동작 설명에 채용되는 도면이고, 도 15는 도 1에 도시된 제 2 좌표 변환부의 동작 설명에 채용되는 도면이고, 도 16 및 도 17은 도 1에 도시된 제 2 시각화부의 동작 설명에 채용되는 도면이고, 도 18은 도 1에 도시된 합성부의 동작 설명에 채용되는 도면이다.1 is a block diagram of a sensor data visualization apparatus according to an embodiment of the present invention, FIG. 2 is a diagram employed to explain the operation of a first coordinate calculation unit shown in FIG. 1, and FIG. Figures used to explain the operation of the government, Figures 4 and 5 are diagrams used to explain the operation of the first coordinate conversion unit shown in Figure 1, Figures 6 to 12 are the operation of the first visualization unit shown in Figure 1 13 and 14 are diagrams used to describe the operation of the second coordinate calculation unit shown in Fig. 1, and Fig. 15 is a view used to explain the operation of the second coordinate conversion unit shown in Fig. 1 16 and 17 are diagrams used to describe the operation of the second visualization unit shown in FIG. 1, and FIG. 18 is a diagram used to explain the operation of the synthesis unit shown in FIG. 1.

본 발명의 실시예에 따른 센서 데이터 시각화 장치는, 레이다 센서 정보 수집부(10), 제 1 좌표 계산부(12), 보정부(14), 제 1 좌표 변환부(16), 제 1 시각화부(18), 라이다 센서 정보 수집부(20), 제 2 좌표 계산부(22), 제 2 좌표 변환부(24), 제 2 시각화부(26), 및 합성부(30)를 포함한다.The sensor data visualization apparatus according to an embodiment of the present invention includes a radar sensor information collection unit 10, a first coordinate calculation unit 12, a correction unit 14, a first coordinate conversion unit 16, and a first visualization unit. (18), a lidar sensor information collection unit 20, a second coordinate calculation unit 22, a second coordinate conversion unit 24, a second visualization unit 26, and a synthesis unit 30.

레이다 센서는 감지된 피사체에 대하여 거리와 방향에 대한 정보를 제공할 수 있다. The radar sensor may provide information on a distance and a direction to a detected subject.

레이다 센서 정보 수집부(10)는 레이다 센서(도시 생략)에서 측정되는 정보(예컨대, 피사체에 대한 정보, 센서와 피사체와의 거리, 센서와 피사체간의 각도, 피사체의 움직임 여부, 피사체의 이동 속도 등)를 수집한다.The radar sensor information collection unit 10 includes information measured by a radar sensor (not shown) (e.g., information about a subject, distance between the sensor and the subject, angle between the sensor and the subject, whether the subject is moving, the moving speed of the subject, etc.) ) To collect.

제 1 좌표 계산부(12)는 레이다 센서 정보 수집부(10)에 수집된 레이다 정보를 소정의 변환식을 통해 거리 좌표계의 값으로 변경한다. The first coordinate calculation unit 12 changes the radar information collected by the radar sensor information collection unit 10 into a value of the distance coordinate system through a predetermined conversion equation.

예를 들어, 제 1 좌표 계산부(12)는 레이다 센서 정보 수집부(10)로부터 감지된 피사체에 대한 거리(즉, 레이다 센서와 피사체와의 거리(γ))와 방향(즉, 레이다 센서의 정면과 피사체와의 각도(θ))에 대한 정보를 수신하게 되면 하기의 수학식 1의 변환식을 이용하여 레이다 센서와 피사체간의 X축 거리(Xradar), 및 레이다 센서와 피사체간의 Y축 거리(Yradar)를 구한다.For example, the first coordinate calculation unit 12 is the distance to the subject detected from the radar sensor information collecting unit 10 (ie, the distance between the radar sensor and the subject (γ)) and direction (that is, the radar sensor When information about the angle (θ) between the front and the subject is received, the X-axis distance between the radar sensor and the subject (X radar ), and the Y-axis distance between the radar sensor and the subject ( Y radar ).

(수학식 1)(Equation 1)

Yradar = γ×sinθ, Xradar = √(γ2 - Yradar 2)Y radar = γ×sinθ, X radar = √(γ 2 -Y radar 2 )

다시 말해서, 도 2에서와 같이 레이다 센서와 피사체(P)와의 거리(γ), 레이다 센서의 정면과 피사체(P)와의 각도(θ)가 있을 경우, 제 1 좌표 계산부(12)는 상기의 수학식 1의 변환식을 이용하여 거리 좌표계의 정보(즉, Xradar, Yradar)를 구할 수 있다.In other words, as shown in FIG. 2, when there is a distance γ between the radar sensor and the subject P, and an angle θ between the front of the radar sensor and the subject P, the first coordinate calculation unit 12 Information of the distance coordinate system (ie, X radar and Y radar ) can be obtained using the transformation equation of Equation 1.

도 1에서, 보정부(14)는 제 1 좌표 계산부(12)에서 출력되는 데이터를 입력받아 보정한다. 즉, 레이다 센서의 데이터와 라이다 센서의 데이터를 동일 좌표계에 시각화하여 표시하고자 할 경우에는 각각의 센서가 장착된 위치에 대한 보정이 필요하다. 그에 따라, 본 발명의 실시예에서 보정부(14)는 데이터 통합 시각화를 위해 레이다 센서의 위치 보정을 행하는데, 이 경우 보정부(14)는 하기의 수학식 2의 보정식을 사용하여 보정한다.In FIG. 1, the correction unit 14 receives and corrects data output from the first coordinate calculation unit 12. That is, when the data of the radar sensor and the data of the radar sensor are to be visualized and displayed in the same coordinate system, correction for the position where each sensor is mounted is required. Accordingly, in an embodiment of the present invention, the correction unit 14 corrects the position of the radar sensor for data integration visualization. In this case, the correction unit 14 corrects using the correction equation of Equation 2 below. .

(수학식 2)(Equation 2)

X'radar = Xradar + ΔX, Y'radar = Yradar + ΔY X'radar = X radar + ΔX, Y'radar = Y radar + ΔY

여기서, Xradar는 레이다 센서의 X축 위치(즉, 레이다 센서와 피사체간의 X축 거리에 해당됨)이고, Yradar는 레이다 센서의 Y축 위치(즉, 레이다 센서와 피사체간의 Y축 거리에 해당됨)이다.Here, X radar is the X-axis position of the radar sensor (ie, it corresponds to the X-axis distance between the radar sensor and the subject), and Y radar is the Y-axis position of the radar sensor (ie, it corresponds to the Y-axis distance between the radar sensor and the subject). to be.

예를 들어, 도 3의 위의 그림에서와 같이 라이다 센서(32)와 레이다 센서(34)가 상호 떨어져 있다고 가정하였을 경우, 도 3의 아래의 그림에서와 같이 레이다 센서(34)의 중심과 라이다 센서(32)의 중심간의 x축 거리를 ΔX라고 하고, 레이다 센서(34)의 중심과 라이다 센서(32)의 중심간의 y축 거리를 ΔY라고 할 수 있다. For example, if it is assumed that the lidar sensor 32 and the radar sensor 34 are separated from each other as in the figure above of FIG. 3, the center of the radar sensor 34 and the The x-axis distance between the centers of the lidar sensor 32 may be referred to as ΔX, and the y-axis distance between the center of the radar sensor 34 and the center of the lidar sensor 32 may be referred to as ΔY.

그에 따라, 보정부(14)는 상술한 수학식 2의 보정식을 통해 레이다 센서의 x축 보정 위치(X'radar), 레이다 센서의 y축 보정 위치(Y'radar)를 구할 수 있다. Thus, the correction section 14 can obtain the 'y-axis calibration position (Y in (radar, radar sensor radar) x-axis calibration position X)' of the radar sensor with the correction formula of the above-described equation (2).

도 1에서, 제 1 좌표 변환부(16)는 보정부(14)로부터의 데이터(즉, 거리 단위 좌표임)를 픽셀 단위 좌표의 값으로 변환한다. 즉, 시각화를 위한 화면 좌표계와 센서 정보의 거리 좌표계는 상이하므로, 이에 대한 좌표계의 보정이 필요하고, 거리 단위 좌표를 픽셀 단위 좌표로의 변환이 필요하다. In FIG. 1, the first coordinate conversion unit 16 converts data (ie, distance unit coordinates) from the correction unit 14 into pixel unit coordinate values. That is, since the screen coordinate system for visualization and the distance coordinate system of the sensor information are different, the coordinate system needs to be corrected, and the distance unit coordinates need to be converted into pixel unit coordinates.

이를 위해, 우선적으로 화면 표시 영역(도 4 참조)은 표현되어야 하는 센서의 전방 가시와 측방 거리가 동일하기 때문에 비율에 따른 왜곡이 발생하지 않도록 화면 표시 영역의 길이를 높이의 2배로 지정한다. 즉, w = 2h이다. 여기서, w는 화면 표시 영역의 가로 픽셀 수이고, h는 화면 표시 영역의 세로 픽셀 수이다.To this end, the length of the screen display area (refer to FIG. 4) is designated as twice the height of the screen display area (refer to FIG. 4) so that distortion according to the ratio does not occur because the front view and the side distance of the sensor to be expressed are the same. That is, w = 2h. Here, w is the number of horizontal pixels in the screen display area, and h is the number of vertical pixels in the screen display area.

그리고, 제 1 좌표 변환부(16)는 화면 표시를 위한 위치와 화면 크기에 따른 거리 비율을 하기의 수학식 3의 변환식을 사용하여 구한다.In addition, the first coordinate conversion unit 16 obtains a distance ratio according to a location for screen display and a screen size using the conversion equation of Equation 3 below.

(수학식 3)(Equation 3)

X' = h + X'radar × (h/distancemax), Y' = h - Y'radar × (h/distancemax)X'= h + X'radar × (h/distance max ), Y'= h- Y'radar × (h/distance max )

여기서, X'은 레이다 센서와 피사체와의 x축 화면 픽셀 수이고, h는 화면 표시 영역의 세로 픽셀 수이고, X'radar은 레이다 센서의 x축 보정 위치이고, distancemax는 레이다 센서의 최대 가시 거리이고, Y'은 레이다 센서와 피사체와의 y축 화면 픽셀 수이고, Y'radar은 레이다 센서의 y축 보정 위치이다.Here, X'is the number of pixels on the x-axis screen between the radar sensor and the subject, h is the number of vertical pixels in the screen display area, X'radar is the x-axis correction position of the radar sensor, and distance max is the maximum visibility of the radar sensor. It is the distance, Y'is the number of pixels on the y-axis screen between the radar sensor and the subject, and Y'radar is the y-axis correction position of the radar sensor.

다시 말해서, 제 1 좌표 변환부(16)는 보정부(14)로부터 레이다 센서의 x축 보정 위치(X'radar) 및 레이다 센서의 y축 보정 위치(Y'radar)를 수신하게 되면, 상기의 수학식 3을 통해 도 5에서와 같이 레이다 센서와 피사체와의 x축 화면 픽셀 수(X') 및 레이다 센서와 피사체(P)와의 y축 화면 픽셀 수(Y')를 계산해 낸다. 도 5에서, distancedisplay는 시각화를 위한 최대 표시거리이고, distancedisplay ≤ distancemax 이다. In other words, when the first coordinate conversion unit 16 receives the x-axis correction position (X' radar ) of the radar sensor and the y-axis correction position (Y' radar ) of the radar sensor from the correction unit 14, the above As shown in FIG. 5, through Equation 3, the number of pixels on the x-axis screen between the radar sensor and the subject (X') and the number of pixels on the y-axis screen between the radar sensor and the subject (P) (Y') are calculated. In FIG. 5, distance display is the maximum display distance for visualization, and distance display ≤ distance max .

도 1에서, 제 1 시각화부(18)는 제 1 좌표 변환부(16)로부터의 정보에 상응하는 시각화 정보를 출력한다. In FIG. 1, the first visualization unit 18 outputs visualization information corresponding to information from the first coordinate conversion unit 16.

일 예로, 제 1 시각화부(18)는 신규 피사체 및 이미 인식된 피사체를 구분하여 시각화할 수 있는데, 예를 들어 도 6에서와 같이 신규 피사체(new)는 파랑색 박스로 표시하고, 이미 인식된 기존 피사체(updated)는 검정색 박스로 표시하여 박스의 색상으로 구분이 가능하도록 할 수 있다. 도 6에서는 신규 파사체(new)의 박스가 검정색으로 표시된 것으로 보여지겠지만, 실제로는 파랑색으로 표시된 것으로 이해하면 된다.As an example, the first visualization unit 18 may distinguish and visualize a new subject and an already recognized subject. For example, as shown in FIG. 6, the new subject new is displayed as a blue box, and has already been recognized. Existing subjects (updated) may be marked with a black box so that they can be distinguished by the color of the box. In FIG. 6, the box of the new wave body (new) will be shown as displayed in black, but it can be understood that it is actually displayed in blue.

다른 예로, 제 1 시각화부(18)는 피사체의 속도 정보 유무에 대하여 구분하여 시각화할 수 있는데, 도 7에서와 같이 피사체의 이동 속도에 대한 정보가 제공되는 경우 박스 안에 숫자로 해당 속도를 표시한다. 예를 들어, 피사체의 이동 속도가 "0(zero)"인 경우(speed none)에는 아무런 속도 표시를 하지 않고, 피사체의 이동 속도가 "34"(speed)인 경우에는 해당 피사체의 박스 안에 34를 표시할 수 있다.As another example, the first visualization unit 18 may distinguish and visualize the presence or absence of speed information of the subject. When information on the moving speed of the subject is provided as shown in FIG. 7, the corresponding speed is displayed as a number in a box. . For example, if the moving speed of the subject is "0 (zero)" (speed none), no speed is displayed, and if the moving speed of the subject is "34" (speed), 34 is placed in the box of the subject. Can be displayed.

또 다른 예로, 제 1 시각화부(18)는 정지 피사체 및 이동 피사체를 구분하여 시각화할 수 있는데, 예를 들어 도 8에서와 같이 이동 피사체의 경우 화살표 또는 직선 등을 이용하여 표시하여 정지 피사체와 구분이 가능하도록 한다.As another example, the first visualization unit 18 may separate and visualize a still subject and a moving subject. For example, as shown in FIG. 8, a moving subject is displayed using an arrow or a straight line to distinguish it from a still subject. Make this possible.

또 다른 예로, 제 1 시각화부(18)는 피사체의 이동 방향에 대한 정보 유무에 대하여 구분하여 시각화할 수 있는데, 예를 들어 도 9에서와 같이 레이다 센서로부터 피사체의 이동 방향에 대한 정보가 제공되는 경우 화살표를 이용하여 이동 방향을 표시하고, 이동 방향에 대한 정보가 별도로 제공되지 않는 경우 해당 피사체의 직전 위치로부터 현재 위치까지의 이동 방향을 계산하여 직선 형태로 표시할 수 있다.As another example, the first visualization unit 18 may distinguish and visualize the presence or absence of information on the movement direction of the subject. For example, as shown in FIG. 9, information on the movement direction of the subject is provided from the radar sensor. In this case, the direction of movement is indicated by using an arrow, and when information on the direction of movement is not separately provided, the movement direction from the immediately preceding position of the subject to the current position may be calculated and displayed in a straight line.

또 다른 예로, 제 1 시각화부(18)는 피사체의 이동 방향에 대하여 시각화를 행할 수 있는데, 레이다 센서로부터 제공되는 피사체의 위치에 대한 정보를 timet-2, timet-1, timet의 시간순으로 도식화할 경우 도 10에서와 같이 표시할 수 있다. 보다 구체적으로, 레이다 센서로부터 피사체의 위치에 대한 정보와 같이 해당 피사체의 이동 방향에 대한 정보가 제공될 경우에는 도 11에서와 같이 화살표를 이용하여 이동 방향을 표시할 수 있다. 반대로, 레이다 센서로부터 피사체의 이동 방향에 대한 정보가 별도로 제공되지 않을 경우에는 도 12에서와 같이 timet-1 시점의 피사체 위치로부터 timet 시점의 피사체 위치로의 방향 정보를 직선을 이용하여 표시할 수 있다.As another example, the first visualization unit 18 may visualize the moving direction of the subject, and information on the position of the subject provided from the radar sensor is obtained in the order of time t-2 , time t-1 , and time t . In the case of a schematic diagram, it can be expressed as in FIG. 10. More specifically, when information on the moving direction of the subject is provided from the radar sensor, such as information on the location of the subject, the moving direction may be displayed using an arrow as shown in FIG. 11. Conversely, when information on the moving direction of the subject is not separately provided from the radar sensor, the direction information from the subject position at time t-1 to the subject position at time t is displayed using a straight line as shown in FIG. I can.

도 1에서, 라이다 센서 정보 수집부(20)는 라이다 센서(도시 생략)에서 측정되는 정보(예컨대, 라이다 채널에 대한 정보, 수평 각도에 대한 정보, 피사체와의 거리 정보 등)를 수집한다.In FIG. 1, the lidar sensor information collection unit 20 collects information (eg, information about a lidar channel, information about a horizontal angle, distance information from a subject, etc.) measured by a lidar sensor (not shown). do.

도 1에서, 제 2 좌표 계산부(22)는 라이다 센서 정보 수집부(20)에 수집된 라이다 정보를 소정의 변환식을 통해 거리 좌표계의 값으로 변경한다. In FIG. 1, the second coordinate calculation unit 22 changes the LiDAR information collected by the LiDAR sensor information collection unit 20 into a value of the distance coordinate system through a predetermined transformation equation.

예를 들어, 라이다 센서(도시 생략)로부터 제공되는 데이터를 도식화하여 보면 도 13에서와 같이 도식화할 수 있다. 도 13에서, π는 피사체를 인지한 라이다 채널의 x-y 평면과의 수직 각도이고, θ는 피사체를 인지한 라이다 채널의 x축과의 수평 각도이고, γ는 라이다 센서와 피사체와의 거리이다.For example, if the data provided from the lidar sensor (not shown) is schematically illustrated, it can be illustrated as in FIG. 13. In FIG. 13, π is a vertical angle with the xy plane of the lidar channel recognizing the subject, θ is the horizontal angle with the x-axis of the lidar channel recognizing the subject, and γ is the distance between the lidar sensor and the subject. to be.

그에 따라, 제 2 좌표 계산부(22)는 이와 같이 제공되는 데이터(π, θ, γ)를 하기의 수학식 4를 이용하여 라이다 센서와 피사체간의 z축 거리(Zlidar), 라이다 센서와 피사체간의 x축 거리(Xlidar), 및 라이다 센서와 피사체간의 y축 거리(Ylidar)를 구한다.Accordingly, the second coordinate calculation unit 22 calculates the data (π, θ, γ) provided as described above using Equation 4 below, and the z-axis distance between the lidar sensor and the subject (Z lidar ), the lidar sensor The x-axis distance between the and the subject (X lidar ), and the y-axis distance between the lidar sensor and the subject (Y lidar ) are obtained.

(수학식 4)(Equation 4)

Zlidar = γ × sinπZ lidar = γ × sinπ

Xlidar = sinθ × √(γ2 - Zlidar 2)X lidar = sinθ × √(γ 2 -Z lidar 2 )

Ylidar = √(γ2 - Xlidar 2 - Zlidar 2)Y lidar = √(γ 2 -X lidar 2 -Z lidar 2 )

도 1에서, 제 2 좌표 변환부(24)는 제 2 좌표 계산부(22)로부터의 데이터(즉, 거리 단위 좌표임)를 픽셀 단위 좌표의 값으로 변환한다. In FIG. 1, the second coordinate conversion unit 24 converts data from the second coordinate calculation unit 22 (that is, coordinates in units of distance) into values of coordinates in units of pixels.

즉, 시각화를 위한 화면 좌표계와 센서 정보의 거리 좌표계는 상이하므로, 이에 대한 좌표계의 보정이 필요하고, 거리 단위 좌표를 픽셀 단위 좌표로의 변환이 필요하다. That is, since the screen coordinate system for visualization and the distance coordinate system of the sensor information are different, the coordinate system needs to be corrected, and the distance unit coordinates need to be converted into pixel unit coordinates.

이를 위해, 우선적으로 화면 표시 영역(도 4 참조)은 표현되어야 하는 센서의 전방 가시와 측방 거리가 동일하기 때문에 비율에 따른 왜곡이 발생하지 않도록 화면 표시 영역의 길이를 높이의 2배로 지정한다. 즉, w = 2h이다. 여기서, w는 화면 표시 영역의 가로 픽셀 수이고, h는 화면 표시 영역의 세로 픽셀 수이다.To this end, the length of the screen display area (refer to FIG. 4) is designated as twice the height of the screen display area (refer to FIG. 4) so that distortion according to the ratio does not occur because the front view and the side distance of the sensor to be expressed are the same. That is, w = 2h. Here, w is the number of horizontal pixels in the screen display area, and h is the number of vertical pixels in the screen display area.

그리고, 제 2 좌표 변환부(24)는 화면 표시를 위한 위치와 화면 크기에 따른 거리 비율을 하기의 수학식 5의 변환식을 사용하여 구한다.In addition, the second coordinate conversion unit 24 obtains a position for screen display and a distance ratio according to the screen size using the conversion equation of Equation 5 below.

(수학식 5)(Equation 5)

X' = h + Xlidar × (h/distancemax), Y' = h - Ylidar × (h/distancemax)X'= h + X lidar × (h/distance max ), Y'= h-Y lidar × (h/distance max )

여기서, X'은 라이다 센서와 피사체와의 x축 화면 픽셀 수이고, h는 화면 표시 영역의 세로 픽셀 수이고, Xlidar는 라이다 센서와 피사체와의 x축 거리이고, distancemax는 레이다 센서의 최대 가시 거리이고, Y'은 라이다 센서와 피사체와의 y축 화면 픽셀 수이고, Ylidar는 라이다 센서와 피사체와의 y축 거리이다.Here, X'is the number of pixels on the x-axis between the lidar sensor and the subject, h is the number of vertical pixels in the screen display area, X lidar is the x-axis distance between the lidar sensor and the subject, and distance max is the radar sensor. Is the maximum visible distance of, Y'is the number of pixels on the y-axis screen between the lidar sensor and the subject, and Y lidar is the y-axis distance between the lidar sensor and the subject.

다시 말해서, 제 2 좌표 변환부(24)는 제 2 좌표 계산부(22)로부터 라이다 센서와 피사체간의 x축 거리(Xlidar) 및 라이다 센서와 피사체간의 y축 거리(Ylidar)를 수신하게 되면, 상기의 수학식 5를 통해 도 15에서와 같이 라이다 센서와 피사체와의 x축 화면 픽셀 수(X') 및 라이다 센서와 피사체와의 y축 화면 픽셀 수(Y')를 계산해 낸다. 도 15에서, distancedisplay는 시각화를 위한 최대 표시거리이고, distancedisplay ≤ distancemax 이다. In other words, the second coordinate conversion unit 24 receives the x-axis distance between the lidar sensor and the subject (X lidar ) and the y-axis distance between the lidar sensor and the subject (Y lidar ) from the second coordinate calculation unit 22 Then, as shown in FIG. 15, the number of pixels on the x-axis screen between the lidar sensor and the subject (X') and the number of pixels on the y-axis between the lidar sensor and the subject (Y') are calculated through Equation 5 above. Serve. In FIG. 15, distance display is the maximum display distance for visualization, and distance display ≤ distance max .

도 1에서, 제 2 시각화부(26)는 제 2 좌표 변환부(24)로부터의 정보에 상응하는 시각화 정보를 출력한다. 라이다 센서로부터 제공되는 데이터를 시각화할 경우 3차원 거리 좌표계에 투영할 수 있으나, 본 발명의 실시예에서는 시인성을 위하여 도 16에서와 같이 2차원 거리 좌표계를 사용하여 탑뷰 형태로 시각화한다. 도 16에서 왼쪽의 그림이 3차원 거리 좌표계이고, 오른쪽의 그림이 2차원 거리 좌표계이다. 또한, 데이터가 표시되는 픽셀의 크기는 대략 3×3 픽셀을 사용한다.In FIG. 1, the second visualization unit 26 outputs visualization information corresponding to information from the second coordinate conversion unit 24. When the data provided from the lidar sensor is visualized, it can be projected onto a 3D distance coordinate system, but in an embodiment of the present invention, for visibility, a top view is visualized using a 2D distance coordinate system as shown in FIG. 16. In FIG. 16, the figure on the left is a 3D distance coordinate system, and the figure on the right is a 2D distance coordinate system. Also, the size of a pixel in which data is displayed is approximately 3×3 pixels.

라이다 센서 정보를 2차원 거리 좌표계에 시각화할 경우 센서의 채널수 만큼의 데이터가 동일 좌표에 표시될 수 있으며, 이경우 시각적으로 구분이 어려워진다. 따라서, 도 16에서와 같이 중첩되는 데이터 수에 따라 색상값을 차등되게 하여 시각적 구분이 가능하도록 한다. 여기서, 색상 구분은 R, G, B 색상값을 사용하고 이중에서 G 색상값에 중첩되는 데이터 수 만큼의 가중치(weight)를 부여하는 방식으로 계산한다. 예를 들어, R = 255, G = 255 - int(255/(라이다 전체 채널 수-1))×(weight-1), B = 0으로 할 수 있다.When the lidar sensor information is visualized in a two-dimensional distance coordinate system, data corresponding to the number of channels of the sensor can be displayed in the same coordinate, and in this case, it is difficult to distinguish visually. Accordingly, as shown in FIG. 16, color values are differentiated according to the number of overlapping data to enable visual identification. Here, the color classification is calculated by using R, G, and B color values and giving a weight equal to the number of data overlapping the G color value. For example, R = 255, G = 255-int(255/(LIDAR total number of channels -1)) × (weight -1), B = 0.

가중치(weight)는 아래의 계산 방식(계산 알고리즘) 예컨대, The weight is the following calculation method (calculation algorithm), for example,

channel0 = 라이다 센서의 중심 채널,channel 0 = center channel of the lidar sensor,

channeli = 라이다 센서의 i번 채널,channel i = channel i of the lidar sensor,

Xdisp[channeli] = 라이다 센서의 i번 채널 피사체의 x축 화면 픽셀 위치,Xdisp[channeli] = position of pixels on the x-axis screen of the object of channel i of the lidar sensor,

Ydisp[channeli] = 라이다 센서의 i번 채널 피사체의 y축 화면 픽셀 위치,Ydisp[channeli] = y-axis screen pixel position of the object of channel i of the lidar sensor,

weight = 0,weight = 0,

i=1 .. (라이다 센서 전체 채널 수-1)i=1 .. (Number of channels in the lidar sensor -1)

ifif

|Xdisp[channel0] - Xdisp[channeli]| < 3|X disp [channel 0 ]-X disp [channel i ]| <3

&& &&

|Ydisp[channel0] - Ydisp[channeli]| < 3|Y disp [channel 0 ]-Y disp [channel i ]| <3

thenthen

weight+ = 1 weight+ = 1

와 같은 방식(알고리즘)을 통해 데이터의 표시 위치가 가로, 세로 3픽셀 이내인 경우 중첩되는 데이터로 구분하여 계산한다. 상기의 계산 방식에서, Xdisp[channel0]는 라이다 센서의 중심 채널 피사체의 x축 화면 픽셀 위치이고, Ydisp[channel0]는 라이다 센서의 중심 채널 피사체의 y축 화면 픽셀 위치이다.If the display position of the data is within 3 pixels horizontally and vertically through the same method (algorithm), it is divided into overlapping data and calculated. In the above calculation method, X disp [channel 0 ] is the position of the x-axis screen pixel of the subject of the central channel of the lidar sensor, and Y disp [channel 0 ] is the position of the y-axis screen of the subject of the central channel of the lidar sensor.

그리고, 라이다 센서가 3채널 또는 16채널일 경우 중첩되는 데이터 수에 따른 색상표는 도 17과 같이 시각화할 수 있다.In addition, when the lidar sensor is 3 channels or 16 channels, a color table according to the number of overlapping data can be visualized as shown in FIG. 17.

도 1에서, 합성부(30)는 제 1 시각화부(18) 및 제 2 시각화부(26)의 출력을 합성하여 동일 좌표계에 표시한다. 즉, 제 1 좌표 변환부(16)에 의해 레이다 좌표 변환값을 시각화한 결과 및 제 2 좌표 변환부(24)에 의해 라이다 좌표 변환값을 시각화한 결과를 합성하면, 도 18에 예시한 바와 같은 합성 결과(40)를 동일 좌표계에 표시할 수 있다. In FIG. 1, the synthesis unit 30 synthesizes the outputs of the first visualization unit 18 and the second visualization unit 26 and displays them in the same coordinate system. That is, when the result of visualizing the radar coordinate conversion value by the first coordinate conversion unit 16 and the visualization result of the radar coordinate conversion value by the second coordinate conversion unit 24 are combined, as illustrated in FIG. The same synthesis result 40 can be displayed in the same coordinate system.

도 19는 본 발명의 실시예에 따른 센서 데이터 시각화 방법을 설명하기 위한 플로우차트이다.19 is a flowchart illustrating a sensor data visualization method according to an embodiment of the present invention.

일단, 레이다 센서 정보 수집부(10)는 레이다 센서(도시 생략)에서 측정되는 정보(예컨대, 피사체에 대한 정보, 센서와 피사체와의 거리, 센서와 피사체간의 각도, 피사체의 움직임 여부, 피사체의 이동 속도 등)를 수집하고, 라이다 센서 정보 수집부(20)는 라이다 센서(도시 생략)에서 측정되는 정보(예컨대, 라이다 채널에 대한 정보, 수평 각도에 대한 정보, 피사체와의 거리 정보 등)를 수집한다(S10).First, the radar sensor information collection unit 10 includes information measured by a radar sensor (not shown) (e.g., information about a subject, distance between the sensor and the subject, angle between the sensor and the subject, whether the subject is moving, or the subject is moved). Speed, etc.), and the lidar sensor information collection unit 20 includes information measured by a lidar sensor (not shown) (e.g., information about a lidar channel, information about a horizontal angle, distance information from a subject, etc.) ) Is collected (S10).

이어, 제 1 좌표 계산부(12)는 레이다 센서 정보 수집부(10)에 수집된 레이다 정보를 소정의 변환식을 통해 거리 좌표계의 값으로 변경하고, 이와 함께 제 2 좌표 계산부(22)는 라이다 센서 정보 수집부(20)에 수집된 라이다 정보를 소정의 변환식을 통해 거리 좌표계의 값으로 변경한다. 즉, 제 1 좌표 계산부(12)는 레이다 센서 정보 수집부(10)로부터 감지된 피사체에 대한 거리(즉, 레이다 센서(34)와 피사체와의 거리(γ))와 방향(즉, 레이다 센서(34)의 정면과 피사체와의 각도(θ))에 대한 정보를 수신하여 수학식 1을 통해 레이다 센서와 피사체간의 X축 거리(Xradar), 및 레이다 센서와 피사체간의 Y축 거리(Yradar)를 구한다. 한편, 제 2 좌표 계산부(22)는 라이다 센서 정보 수집부(20)로부터의 정보(즉, 피사체를 인지한 라이다 채널의 x-y 평면과의 수직 각도(π), 피사체를 인지한 라이다 채널의 x축과의 수평 각도(θ), 라이다 센서와 피사체와의 거리(γ))를 수신하여 수학식 4를 통해 라이다 센서와 피사체간의 z축 거리(Zlidar), 라이다 센서와 피사체간의 x축 거리(Xlidar), 및 라이다 센서와 피사체간의 y축 거리(Ylidar)를 구한다(S20).Then, the first coordinate calculation unit 12 changes the radar information collected by the radar sensor information collection unit 10 to a value of the distance coordinate system through a predetermined conversion equation, and the second coordinate calculation unit 22 The lidar information collected by the IDA sensor information collection unit 20 is changed to a value of the distance coordinate system through a predetermined conversion equation. That is, the first coordinate calculation unit 12 is the distance to the subject detected by the radar sensor information collecting unit 10 (ie, the distance between the radar sensor 34 and the subject (γ)) and direction (ie, the radar sensor (34) Y-axis distance between the front and receive information on the angle (θ) to the subject) to the X-axis distance between the radar sensor and the object through the following equation 1 (X radar), and the radar sensor and the subject of (Y radar ). Meanwhile, the second coordinate calculation unit 22 includes information from the lidar sensor information collection unit 20 (that is, a vertical angle (π) with respect to the xy plane of the lidar channel that recognizes the object, and the lidar that recognizes the object. By receiving the horizontal angle between the x-axis of the channel (θ) and the distance between the lidar sensor and the subject (γ)), through Equation 4, the z-axis distance between the lidar sensor and the subject (Z lidar ), and the lidar sensor. The x-axis distance (X lidar ) between the subjects and the y-axis distance (Y lidar ) between the lidar sensor and the subject are obtained (S20).

그리고 나서, 보정부(14)는 제 1 좌표 계산부(12)에서 출력되는 데이터를 입력받아 보정한다. 즉, 보정부(14)는 데이터 통합 시각화를 위해 레이다 센서의 위치 보정을 행하는데, 이 경우 보정부(14)는 수학식 2의 보정식을 사용하여 레이다 데이터를 보정한다. 그에 따라, 보정부(14)는 수학식 2를 통해 통해 레이다 센서의 x축 보정 위치(X'radar), 레이다 센서의 y축 보정 위치(Y'radar)를 구한다(S30).Then, the correction unit 14 receives the data output from the first coordinate calculation unit 12 and corrects it. That is, the correction unit 14 corrects the position of the radar sensor for data integration visualization. In this case, the correction unit 14 corrects the radar data by using the correction equation of Equation 2. Accordingly, the correction unit 14 is the x-axis calibration position of the radar sensor by using the equation 2 (X, radar), y-axis calibration position (Y of the radar sensor, obtains the radar) (S30).

이후, 제 1 좌표 변환부(16)는 보정부(14)로부터의 데이터(즉, 거리 단위 좌표임)를 픽셀 단위 좌표의 값으로 변환하고, 제 2 좌표 변환부(24)는 제 2 좌표 계산부(22)로부터의 데이터(즉, 거리 단위 좌표임)를 픽셀 단위 좌표의 값으로 변환한다(S40). 여기서, 픽셀 단위 좌표로의 변환에 대한 보다 구체적인 설명은 도 4, 도 5, 도 15를 참조하여 이미 기술한 바 있다.Thereafter, the first coordinate conversion unit 16 converts the data (ie, distance unit coordinates) from the correction unit 14 into pixel unit coordinate values, and the second coordinate conversion unit 24 calculates the second coordinate. The data from the unit 22 (that is, coordinates in units of distance) are converted into values of coordinates in units of pixels (S40). Here, a more detailed description of the transformation into pixel unit coordinates has already been described with reference to FIGS. 4, 5, and 15.

그리고, 제 1 시각화부(18)는 제 1 좌표 변환부(16)로부터의 정보를 다양한 형태로 시각화하고, 제 2 시각화부(26)는 제 2 좌표 변환부(24)로부터의 정보를 2차원 거리 좌표계에 시각화한다(S50). 여기서, 시각화에 대한 보다 구체적인 설명은 도 6 ~ 도 12, 도 16, 도 17을 참조하여 이미 기술한 바 있다.In addition, the first visualization unit 18 visualizes the information from the first coordinate conversion unit 16 in various forms, and the second visualization unit 26 converts the information from the second coordinate conversion unit 24 to two-dimensional. Visualize in the distance coordinate system (S50). Here, a more detailed description of the visualization has already been described with reference to FIGS. 6 to 12, 16 and 17.

마지막으로, 합성부(30)는 제 1 시각화부(18) 및 제 2 시각화부(26)의 출력을 합성하여 도 18에서와 같이 합성된 결과(40)를 동일 좌표계에 표시한다(S60). 여기서, 합성에 대한 보다 구체적인 설명은 도 18을 참조하여 이미 기술한 바 있다.Finally, the synthesis unit 30 synthesizes the outputs of the first visualization unit 18 and the second visualization unit 26 and displays the synthesized result 40 in the same coordinate system as shown in FIG. 18 (S60). Here, a more detailed description of the synthesis has already been described with reference to FIG. 18.

또한, 상술한 본 발명의 센서 데이터 시각화 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the sensor data visualization method of the present invention described above may be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage devices. In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes and code segments for implementing the method can be easily deduced by programmers in the art to which the present invention belongs.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and specifications. Although specific terms have been used herein, these are only used for the purpose of describing the present invention and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical scope of the present invention should be determined by the technical spirit of the appended claims.

10 : 레이다 센서 정보 수집부 12 : 제 1 좌표 계산부
14 : 보정부 16 : 제 1 좌표 변환부
18 : 제 1 시각화부 20 : 라이다 센서 정보 수집부
22 : 제 2 좌표 계산부 24 : 제 2 좌표 변환부
26 : 제 2 시각화부 30 : 합성부
10: radar sensor information collection unit 12: first coordinate calculation unit
14: correction unit 16: first coordinate conversion unit
18: first visualization unit 20: lidar sensor information collection unit
22: second coordinate calculation unit 24: second coordinate conversion unit
26: second visualization unit 30: synthesis unit

Claims (14)

수집된 레이다 정보를 거리 좌표계의 값으로 변경하는 제 1 좌표 계산부;
상기 제 1 좌표 계산부로부터의 데이터를 보정하는 보정부;
상기 보정부로부터의 데이터를 픽셀 단위 좌표의 값으로 변환하는 제 1 좌표 변환부;
상기 제 1 좌표 변환부로부터의 정보에 상응하는 시각화 정보를 출력하는 제 1 시각화부;
수집된 라이다 정보를 거리 좌표계의 값으로 변경하는 제 2 좌표 계산부;
상기 제 2 좌표 계산부로부터의 데이터를 픽셀 단위 좌표의 값으로 변환하는 제 2 좌표 변환부;
상기 제 2 좌표 변환부로부터의 정보에 상응하는 시각화 정보를 출력하는 제 2 시각화부; 및
상기 제 1 시각화부 및 상기 제 2 시각화부의 시각화 정보를 합성하여 표시하는 합성부;를 포함하는 것을 특징으로 하는 센서 데이터 시각화 장치.
A first coordinate calculation unit that changes the collected radar information into a value of a distance coordinate system;
A correction unit correcting data from the first coordinate calculation unit;
A first coordinate conversion unit that converts the data from the correction unit into pixel-unit coordinate values;
A first visualization unit for outputting visualization information corresponding to information from the first coordinate conversion unit;
A second coordinate calculation unit that changes the collected LiDAR information into a value of the distance coordinate system;
A second coordinate conversion unit that converts data from the second coordinate calculation unit into a pixel-based coordinate value;
A second visualization unit for outputting visualization information corresponding to information from the second coordinate conversion unit; And
And a synthesis unit for synthesizing and displaying visualization information of the first visualization unit and the second visualization unit.
청구항 1에 있어서,
상기 제 1 좌표 계산부는,
감지된 피사체에 대한 거리와 방향에 대한 정보를 수신함에 따라 하기의 수학식,
Yradar = γ×sinθ, Xradar = √(γ2 - Yradar 2)
(여기서, Xradar는 레이다 센서와 피사체간의 X축 거리이고, Yradar는 레이다 센서와 피사체간의 Y축 거리이고, γ는 레이다 센서와 피사체와의 거리이고, θ는 레이다 센서의 정면과 피사체와의 각도임)
을 이용하여 레이다 센서와 피사체간의 X축 거리, 및 레이다 센서와 피사체간의 Y축 거리를 구하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method according to claim 1,
The first coordinate calculation unit,
As the information on the distance and direction of the detected subject is received, the following equation,
Y radar = γ×sinθ, X radar = √(γ 2 -Y radar 2 )
(Where, X radar is the X-axis distance between the radar sensor and the subject, Y radar is the Y-axis distance between the radar sensor and the subject, γ is the distance between the radar sensor and the subject, and θ is the distance between the front of the radar sensor and the subject. Angle)
A sensor data visualization device, characterized in that the X-axis distance between the radar sensor and the subject and the Y-axis distance between the radar sensor and the subject are obtained by using.
청구항 2에 있어서,
상기 보정부는,
하기의 수학식,
X'radar = Xradar + ΔX, Y'radar = Yradar + ΔY
(여기서, X'radar는 레이다 센서의 x축 보정 위치이고, Y'radar는 레이다 센서의 y축 보정 위치이고, ΔX는 레이다 센서의 중심과 라이다 센서의 중심간의 x축 거리이고, ΔY는 레이다 센서의 중심과 라이다 센서의 중심간의 y축 거리임)
을 이용하여 레이다 센서의 x축 보정 위치 및 레이다 센서의 y축 보정 위치를 구하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method according to claim 2,
The correction unit,
The following equation,
X'radar = X radar + ΔX, Y'radar = Y radar + ΔY
(Wherein, X 'radar is the x-axis calibration position of the radar sensor, Y' radar is the y-axis calibration position of the radar sensor, ΔX is the x-axis distance between the centers of the central and La of the radar sensors, ΔY is the radar The y-axis distance between the center of the sensor and the center of the lidar sensor)
A sensor data visualization device, characterized in that to obtain the x-axis correction position of the radar sensor and the y-axis correction position of the radar sensor.
청구항 3에 있어서,
상기 제 1 좌표 변환부는,
상기 레이다 센서의 x축 보정 위치 및 레이다 센서의 y축 보정 위치를 수신함에 따라 하기의 수학식,
X' = h + X'radar × (h/distancemax), Y' = h - Y'radar × (h/distancemax)
(여기서, X'은 레이다 센서와 피사체와의 x축 화면 픽셀 수이고, h는 화면 표시 영역의 세로 픽셀 수이고, distancemax는 레이다 센서의 최대 가시 거리이고, Y'은 레이다 센서와 피사체와의 y축 화면 픽셀 수임)
을 통해 레이다 센서와 피사체와의 x축 화면 픽셀 수 및 레이다 센서와 피사체와의 y축 화면 픽셀 수를 계산하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method of claim 3,
The first coordinate conversion unit,
Upon receiving the x-axis correction position of the radar sensor and the y-axis correction position of the radar sensor, the following equation,
X'= h + X'radar × (h/distance max ), Y'= h- Y'radar × (h/distance max )
(Where X'is the number of pixels on the x-axis between the radar sensor and the subject, h is the number of vertical pixels in the screen display area, distance max is the maximum visible distance of the radar sensor, and Y'is the y-axis screen pixels)
A sensor data visualization device, characterized in that calculating the number of pixels on the x-axis screen between the radar sensor and the subject and the number of pixels on the y-axis screen between the radar sensor and the subject.
청구항 1에 있어서,
상기 제 1 시각화부는,
신규 피사체 및 이미 인식된 피사체를 구분하여 시각화하되, 상기 신규 피사체는 제 1 색상의 박스로 표시하고, 상기 이미 인식된 기존 피사체는 제 2 색상의 박스로 표시하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method according to claim 1,
The first visualization unit,
A sensor data visualization device, characterized in that a new subject and an already recognized subject are distinguished and visualized, wherein the new subject is displayed as a box of a first color, and the already recognized subject is displayed as a box of a second color.
청구항 1에 있어서,
상기 제 1 시각화부는,
피사체의 속도 정보 유무에 대하여 구분하여 시각화하되, 피사체의 이동 속도에 대한 정보가 제공되는 경우 박스 안에 숫자로 해당 속도를 표시하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method according to claim 1,
The first visualization unit,
A sensor data visualization device, characterized in that the presence/absence of speed information of the subject is classified and visualized, and when information about the moving speed of the subject is provided, the corresponding speed is displayed in a number in a box.
청구항 1에 있어서,
상기 제 1 시각화부는,
정지 피사체 및 이동 피사체를 구분하여 시각화하되, 상기 이동 피사체의 경우 화살표 또는 직선 등을 이용하여 표시하여 상기 정지 피사체와 구분하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method according to claim 1,
The first visualization unit,
A sensor data visualization device, characterized in that the still subject and the moving subject are separated and visualized, and the moving subject is displayed using an arrow or a straight line to distinguish it from the still subject.
청구항 1에 있어서,
상기 제 1 시각화부는,
피사체의 이동 방향에 대한 정보 유무에 대하여 구분하여 시각화하되, 상기 피사체의 이동 방향에 대한 정보가 있는 경우 화살표를 이용하여 이동 방향을 표시하고, 이동 방향에 대한 정보가 없는 경우 해당 피사체의 직전 위치로부터 현재 위치까지의 이동 방향을 계산하여 직선 형태로 표시하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method according to claim 1,
The first visualization unit,
Visualize the presence or absence of information on the moving direction of the subject separately, but if there is information on the moving direction of the subject, use an arrow to indicate the moving direction, and if there is no information on the moving direction, from the position immediately preceding the subject A sensor data visualization device, characterized in that the movement direction to the current position is calculated and displayed in a straight line.
청구항 1에 있어서,
상기 제 1 시각화부는,
피사체의 이동 방향에 대하여 시각화를 행하되, 상기 피사체의 위치에 대한 정보를 시간순으로 도식화하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method according to claim 1,
The first visualization unit,
A sensor data visualization apparatus, characterized in that for visualizing a moving direction of a subject, and plotting information on the location of the subject in chronological order.
청구항 9에 있어서,
상기 제 1 시각화부는,
상기 피사체의 이동 방향에 대한 정보가 있는 경우에는 화살표를 이용하여 이동 방향을 표시하고, 상기 피사체의 이동 방향에 대한 정보가 없는 경우에는 직선을 이용하여 표시하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method of claim 9,
The first visualization unit,
A sensor data visualization device, characterized in that when there is information on the moving direction of the subject, the moving direction is indicated by using an arrow, and when there is no information on the moving direction of the subject, it is displayed using a straight line.
청구항 1에 있어서,
상기 수집된 라이다 정보는 피사체를 인지한 라이다 채널의 x-y 평면과의 수직 각도, 피사체를 인지한 라이다 채널의 x축과의 수평 각도, 및 라이다 센서와 피사체와의 거리이고,
상기 제 2 좌표 계산부는 하기의 수학식,
Zlidar = γ × sinπ
Xlidar = sinθ × √(γ2 - Zlidar 2)
Ylidar = √(γ2 - Xlidar 2 - Zlidar 2)
(여기서, Zlidar는 라이다 센서와 피사체간의 z축 거리이고, γ는 라이다 센서와 피사체와의 거리이고, π는 피사체를 인지한 라이다 채널의 x-y 평면과의 수직 각도이고, Xlidar는 라이다 센서와 피사체간의 x축 거리이고, θ는 피사체를 인지한 라이다 채널의 x축과의 수평 각도이고, Ylidar는 라이다 센서와 피사체간의 y축 거리임)
을 이용하여 라이다 센서와 피사체간의 z축 거리, 라이다 센서와 피사체간의 x축 거리, 및 라이다 센서와 피사체간의 y축 거리를 구하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method according to claim 1,
The collected lidar information is a vertical angle from the xy plane of the lidar channel recognizing the subject, the horizontal angle from the x-axis of the lidar channel recognizing the subject, and the distance between the lidar sensor and the subject,
The second coordinate calculation unit is the following equation,
Z lidar = γ × sinπ
X lidar = sinθ × √(γ 2 -Z lidar 2 )
Y lidar = √(γ 2 -X lidar 2 -Z lidar 2 )
(Where, Z lidar is the z-axis distance between the lidar sensor and the subject, γ is the distance between the lidar sensor and the subject, π is the vertical angle with the xy plane of the lidar channel that recognizes the subject, and X lidar is The x-axis distance between the lidar sensor and the subject, θ is the horizontal angle with the x-axis of the lidar channel that recognizes the subject, and Y lidar is the y-axis distance between the lidar sensor and the subject)
A sensor data visualization device, characterized in that to obtain the z-axis distance between the lidar sensor and the subject, the x-axis distance between the lidar sensor and the subject, and the y-axis distance between the lidar sensor and the subject.
청구항 11에 있어서,
상기 제 2 좌표 변환부는,
상기 라이다 센서와 피사체간의 x축 거리 및 라이다 센서와 피사체간의 y축 거리를 하기의 수학식,
X' = h + Xlidar × (h/distancemax), Y' = h - Ylidar × (h/distancemax)
(여기서, X'은 라이다 센서와 피사체와의 x축 화면 픽셀 수이고, h는 화면 표시 영역의 세로 픽셀 수이고, distancemax는 레이다 센서의 최대 가시 거리이고, Y'은 라이다 센서와 피사체와의 y축 화면 픽셀 수임)
에 대입하여 라이다 센서와 피사체와의 x축 화면 픽셀 수 및 라이다 센서와 피사체와의 y축 화면 픽셀 수를 계산하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method of claim 11,
The second coordinate conversion unit,
The following equations for the x-axis distance between the lidar sensor and the subject and the y-axis distance between the lidar sensor and the subject,
X'= h + X lidar × (h/distance max ), Y'= h-Y lidar × (h/distance max )
(Where, X'is the number of pixels on the x-axis between the lidar sensor and the subject, h is the number of vertical pixels in the screen display area, distance max is the maximum visible distance of the radar sensor, and Y'is the lidar sensor and the subject. Is the number of pixels on the y-axis of the screen)
A sensor data visualization device, characterized in that the number of pixels of the x-axis screen between the lidar sensor and the subject and the number of pixels of the y-axis screen between the lidar sensor and the subject are calculated by substituting in.
청구항 1에 있어서,
상기 제 2 시각화부는,
상기 제 2 좌표 변환부로부터의 정보를 2차원 거리 좌표계에 시각화하되, 중첩되는 데이터 수에 따라 색상값을 차등되게 하는 것을 특징으로 하는 센서 데이터 시각화 장치.
The method according to claim 1,
The second visualization unit,
Visualizing the information from the second coordinate conversion unit in a two-dimensional distance coordinate system, the sensor data visualization device, characterized in that the color values are differentiated according to the number of overlapping data.
제 1 좌표 계산부가 수집된 레이다 정보를 거리 좌표계의 값으로 변경하고, 제 2 좌표 계산부가 수집된 라이다 정보를 거리 좌표계의 값으로 변경하는 단계;
보정부가, 상기 제 1 좌표 계산부로부터의 데이터를 보정하는 단계;
제 1 좌표 변환부가 상기 보정부로부터의 데이터를 픽셀 단위 좌표의 값으로 변환하고, 제 2 좌표 변환부가 상기 제 2 좌표 계산부로부터의 데이터를 픽셀 단위 좌표의 값으로 변환하는 단계;
제 1 시각화부가 상기 제 1 좌표 변환부로부터의 정보에 상응하는 시각화 정보를 출력하고, 제 2 시각화부가 상기 제 2 좌표 변환부로부터의 정보에 상응하는 시각화 정보를 출력하는 단계; 및
합성부가, 상기 제 1 시각화부 및 상기 제 2 시각화부의 시각화 정보를 합성하여 표시하는 단계;를 포함하는 것을 특징으로 하는 센서 데이터 시각화 방법.
Changing the radar information collected by the first coordinate calculator to a value of the distance coordinate system, and changing the radar information collected by the second coordinate calculator to a value of the distance coordinate system;
A step of correcting, by a correction unit, data from the first coordinate calculation unit;
Converting, by a first coordinate conversion unit, data from the correction unit to a value of coordinates in pixel units, and by a second coordinate conversion unit, converting data from the second coordinate calculation unit to a value of coordinates in pixels;
Outputting visualization information corresponding to the information from the first coordinate conversion unit, and outputting visualization information corresponding to the information from the second coordinate conversion unit by a first visualization unit; And
And synthesizing and displaying the visualization information of the first visualization unit and the second visualization unit by a synthesis unit.
KR1020190018082A 2019-02-15 2019-02-15 Apparatus and method for visualizing sensor data KR102196171B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190018082A KR102196171B1 (en) 2019-02-15 2019-02-15 Apparatus and method for visualizing sensor data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190018082A KR102196171B1 (en) 2019-02-15 2019-02-15 Apparatus and method for visualizing sensor data

Publications (2)

Publication Number Publication Date
KR20200099887A true KR20200099887A (en) 2020-08-25
KR102196171B1 KR102196171B1 (en) 2020-12-29

Family

ID=72292852

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190018082A KR102196171B1 (en) 2019-02-15 2019-02-15 Apparatus and method for visualizing sensor data

Country Status (1)

Country Link
KR (1) KR102196171B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101427364B1 (en) 2014-03-27 2014-08-08 (주)아세아항측 Scanning system for producing indoor map using LIDAR
KR101784611B1 (en) * 2016-06-09 2017-11-06 재단법인대구경북과학기술원 A human detecting apparatus and method using a lidar sensor and a radar sensor
KR101852945B1 (en) 2017-07-12 2018-04-27 (주)엠제빈 Lidar system with target pointing/tracking function and targent pointing/tracking method using lidar system
KR20180068600A (en) 2016-12-14 2018-06-22 김태민 Moving object detection and velocity measurement system based on motion sensor
KR20190001723A (en) * 2017-06-28 2019-01-07 경성대학교 산학협력단 Apparatus for providing object information for heavy machinery using lidar and camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101427364B1 (en) 2014-03-27 2014-08-08 (주)아세아항측 Scanning system for producing indoor map using LIDAR
KR101784611B1 (en) * 2016-06-09 2017-11-06 재단법인대구경북과학기술원 A human detecting apparatus and method using a lidar sensor and a radar sensor
KR20180068600A (en) 2016-12-14 2018-06-22 김태민 Moving object detection and velocity measurement system based on motion sensor
KR20190001723A (en) * 2017-06-28 2019-01-07 경성대학교 산학협력단 Apparatus for providing object information for heavy machinery using lidar and camera
KR101852945B1 (en) 2017-07-12 2018-04-27 (주)엠제빈 Lidar system with target pointing/tracking function and targent pointing/tracking method using lidar system

Also Published As

Publication number Publication date
KR102196171B1 (en) 2020-12-29

Similar Documents

Publication Publication Date Title
CN108020825B (en) Fusion calibration system and method for laser radar, laser camera and video camera
JP6083747B2 (en) Position and orientation detection system
US7616817B2 (en) Three dimensional shape correlator
CN101068344B (en) Object detection apparatus
US9501872B2 (en) AR image processing apparatus and method technical field
JP5395173B2 (en) Overlaid projection of scanned rays
CN111487320B (en) Three-dimensional ultrasonic imaging method and system based on three-dimensional optical imaging sensor
US8305344B2 (en) Projector and projector accessory
JP6390032B2 (en) Head-up display distortion correction method and head-up display distortion correction apparatus using the same
JP2008134224A5 (en)
US10901596B2 (en) System and method for focusing a moving image camera
CN111508020B (en) Cable three-dimensional position calculation method and device for fusing image and laser radar
KR20150119736A (en) System for detecting obstacle using a road surface model setting and method thereof
CN101720476A (en) Feature detection apparatus and metod for measuring object distances
US20190242692A1 (en) Augmented reality-based system with perimeter definition functionality
CN111462247B (en) Cursor position calibration method and device for screen interaction
CN102262733B (en) Laser point detection method and apparatus thereof
KR102196171B1 (en) Apparatus and method for visualizing sensor data
JPH06189906A (en) Visual axial direction measuring device
EP3885701A1 (en) Image processing device, image processing method, and program
JPH11248431A (en) Three-dimensional model forming apparatus and computer readable medium recorded with three-dimensional model generating program
US20080103726A1 (en) Positioning measurement apparatus and method
KR20180097004A (en) Method of position calculation between radar target lists and vision image ROI
KR101316387B1 (en) Method of object recognition using vision sensing and distance sensing
KR20130053277A (en) Apparatus for displaying distance in an image using grid

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant