KR101995223B1 - System, module and method for detecting pedestrian, computer program - Google Patents

System, module and method for detecting pedestrian, computer program Download PDF

Info

Publication number
KR101995223B1
KR101995223B1 KR1020170161467A KR20170161467A KR101995223B1 KR 101995223 B1 KR101995223 B1 KR 101995223B1 KR 1020170161467 A KR1020170161467 A KR 1020170161467A KR 20170161467 A KR20170161467 A KR 20170161467A KR 101995223 B1 KR101995223 B1 KR 101995223B1
Authority
KR
South Korea
Prior art keywords
pedestrian
data
noise
distance information
coordinate system
Prior art date
Application number
KR1020170161467A
Other languages
Korean (ko)
Other versions
KR20190062852A (en
Inventor
김성호
손민석
Original Assignee
영남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020170161467A priority Critical patent/KR101995223B1/en
Publication of KR20190062852A publication Critical patent/KR20190062852A/en
Application granted granted Critical
Publication of KR101995223B1 publication Critical patent/KR101995223B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • B60W2420/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

보행자 검출 시스템 및 모듈, 방법, 컴퓨터프로그램이 개시된다. 본 발명의 일 실시예에 따른 보행자 검출 시스템은 레이저 센서가 대상 영역을 센싱하여 획득한 라이다 데이터에서 노이즈를 제거하여 보행자를 검출하는 보행자 검출부; 상기 노이즈가 제거된 상기 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 상기 맵핑 영상 데이터에 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터의 수평 좌표를 거리 정보로 추가하여 맵핑 영상을 생성하는 맵핑 영상 생성부; 상기 거리 정보를 이용하여 상기 보행자에 대응되는 경계 박스의 크기를 설정하는 경계 박스 설정부; 및 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 상기 경계 박스를 표시하는 경계 박스 표시부를 포함한다.A pedestrian detection system and modules, methods, and computer programs are disclosed. A pedestrian detection system according to an embodiment of the present invention includes a pedestrian detection unit for detecting a pedestrian by removing noise from the lattice data obtained by sensing a target area by a laser sensor; Dimensional coordinate system, transforming the noise-removed Lidar data into a two-dimensional Cartesian coordinate system, mapping the Lidar data converted into the two-dimensional Cartesian coordinate system to a grid map to obtain mapping image data, A mapping image generation unit for generating a mapping image by adding horizontal coordinates of the Lidar data converted into the two-dimensional rectangular coordinate system format as distance information; A boundary box setting unit for setting the size of the boundary box corresponding to the pedestrian using the distance information; And a bounding box display unit for displaying the bounding box of a size set to a portion corresponding to the pedestrian in the photographed image obtained by photographing the target area by the camera sensor.

Description

보행자 검출 시스템 및 모듈, 방법, 컴퓨터프로그램{SYSTEM, MODULE AND METHOD FOR DETECTING PEDESTRIAN, COMPUTER PROGRAM}TECHNICAL FIELD [0001] The present invention relates to a pedestrian detection system and a module, a method, and a computer program.

본 발명의 실시예들은 영상에서 보행자 검출 기술과 관련된다.Embodiments of the present invention relate to a pedestrian detection technique in an image.

최근, 자율 주행이 가능한 지능형 자동차에 대한 기술개발 및 연구가 증가하고 있으며, 특히 자율 주행의 핵심 기술인 첨단 운전자 지원 시스템(ADAS : Advanced Driving Assistance System) 중 하나인 자동 긴급 제동 시스템(AEBS : Automatic Emergency Braking System)에 대한 관심이 증가하고 있다.Recently, the development and research of intelligent automobiles capable of autonomous driving have been increasing. Especially, automatic emergency braking (AEBS), which is one of Advanced Driving Assistance System (ADAS) System) has been growing.

AEBS는 자동차 전방의 충돌 사고를 예방하기 위한 기술로서, 다양한 환경에서 차량 전방의 보행자를 정확하고 빠르게 검출하는 것이 그 목적이다. 최근 레이저 센서를 통하여 보행자 검출이 이뤄지고 있는데, 레이저 센서가 획득한 라이다 데이터는 그리드 맵에 맵핑되면서 거리 정보를 잃어버리므로, 레이저 센서를 통한 보행자 검출에는 경계 박스의 크기를 설정하기 어려운 문제가 있다. 또한, 레이저 센서를 통한 보행자 검출 과정에서 노이즈가 보행자로 잘못 판단되는 문제가 있다.AEBS is a technology to prevent collision in the front of the car. It aims at detecting pedestrians in front of the vehicle accurately and quickly in various environments. Recently, the pedestrian detection is performed through the laser sensor. Since the Lada data acquired by the laser sensor is mapped to the grid map, the distance information is lost. Therefore, it is difficult to set the size of the bounding box for detecting the pedestrian through the laser sensor . Further, there is a problem that the noise is erroneously determined as a pedestrian in the process of detecting the pedestrian through the laser sensor.

이에, 최근 경계 박스의 크기를 적절히 설정하며 보행자가 아닌 객체를 보행자로 잘못 판단되는 것을 방지하기 위한 연구가 이루어지고 있다.Recently, research has been conducted to prevent the erroneous determination of a pedestrian as an object other than a pedestrian by appropriately setting the size of the bounding box.

본 발명의 실시예들은 경계 박스의 크기를 적절히 설정하며 보행자가 아닌 객체를 보행자로 잘못 판단되는 것을 방지하기 위한 것이다.The embodiments of the present invention set the size of the bounding box appropriately and prevent an object other than a pedestrian from being erroneously determined as a pedestrian.

본 발명의 예시적인 실시예에 따르면, 레이저 센서가 대상 영역을 센싱하여 획득한 라이다 데이터와 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상을 정합시키는 센서 정합부; 상기 라이다 데이터에서 노이즈를 제거하여 보행자를 검출하는 보행자 검출부; 상기 노이즈가 제거된 상기 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 상기 맵핑 영상 데이터에 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터의 수평 좌표를 거리 정보로 추가하여 맵핑 영상을 생성하는 맵핑 영상 생성부; 상기 거리 정보를 이용하여 상기 보행자에 대응되는 경계 박스의 크기를 설정하는 경계 박스 설정부; 및 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 상기 경계 박스를 표시하는 경계 박스 표시부를 포함하는, 보행자 검출 시스템이 제공된다.According to an exemplary embodiment of the present invention, there is provided an image processing apparatus including: a sensor registration unit for registering LADID data acquired by sensing a target region by a laser sensor and an image captured by photographing the target region; A pedestrian detector for detecting a pedestrian by removing noise from the Lattice data; Dimensional coordinate system, transforming the noise-removed Lidar data into a two-dimensional Cartesian coordinate system, mapping the Lidar data converted into the two-dimensional Cartesian coordinate system to a grid map to obtain mapping image data, A mapping image generation unit for generating a mapping image by adding horizontal coordinates of the Lidar data converted into the two-dimensional rectangular coordinate system format as distance information; A boundary box setting unit for setting the size of the boundary box corresponding to the pedestrian using the distance information; And a boundary box display unit for displaying the boundary box of a size set to a portion corresponding to the pedestrian in the photographed image obtained by photographing the target area by the camera sensor.

상기 보행자 검출부는, 상기 라이더 데이터에서 설정된 값 이하인 신호 세기 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The pedestrian detecting unit may judge the data including the signal intensity information that is less than or equal to the set value in the rider data as noise and remove the noise.

상기 보행자 검출부는, 상기 라이더 데이터에서 설정된 범위를 벗어나는 거리 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The pedestrian detecting unit may judge the data including the distance information out of the set range in the rider data as noise and remove the noise.

상기 보행자 검출부는, 상기 라이더 데이터에서 설정된 범위를 벗어나는 방위각 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The pedestrian detecting unit may determine data including azimuth angle information that deviates from the set range in the rider data as noise and remove the noise.

상기 경계 박스 설정부는, 상기 맵핑 영상 데이터에 포함된 상기 거리 정보에 기초하여, 상기 보행자까지의 거리가 멀수록 상기 경계 박스의 크기를 작게 설정할 수 있다.The boundary box setting unit may set the size of the bounding box to be smaller as the distance to the pedestrian increases, based on the distance information included in the mapped image data.

본 발명의 다른 예시적인 실시예에 따르면, 레이저 센서가 대상 영역을 센싱하여 획득한 라이다 데이터에서 노이즈를 제거하여 보행자를 검출하는 보행자 검출부; 상기 노이즈가 제거된 상기 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 상기 맵핑 영상 데이터에 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터의 수평 좌표를 거리 정보로 추가하여 맵핑 영상을 생성하는 맵핑 영상 생성부; 상기 거리 정보를 이용하여 상기 보행자에 대응되는 경계 박스의 크기를 설정하는 경계 박스 설정부; 및 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 상기 경계 박스를 표시하는 경계 박스 표시부를 포함하는, 보행자 검출 모듈이 제공된다.According to another exemplary embodiment of the present invention, a pedestrian detection unit detects a pedestrian by removing noise from Lattice data obtained by sensing a target area by a laser sensor; Dimensional coordinate system, transforming the noise-removed Lidar data into a two-dimensional Cartesian coordinate system, mapping the Lidar data converted into the two-dimensional Cartesian coordinate system to a grid map to obtain mapping image data, A mapping image generation unit for generating a mapping image by adding horizontal coordinates of the Lidar data converted into the two-dimensional rectangular coordinate system format as distance information; A boundary box setting unit for setting the size of the boundary box corresponding to the pedestrian using the distance information; And a boundary box display unit for displaying the boundary box of a size set in a portion corresponding to the pedestrian in the photographed image obtained by photographing the target area by the camera sensor.

상기 보행자 검출부는, 상기 라이더 데이터에서 설정된 값 이하인 신호 세기 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The pedestrian detecting unit may judge the data including the signal intensity information that is less than or equal to the set value in the rider data as noise and remove the noise.

상기 보행자 검출부는, 상기 라이더 데이터에서 설정된 범위를 벗어나는 거리 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The pedestrian detecting unit may judge the data including the distance information out of the set range in the rider data as noise and remove the noise.

상기 보행자 검출부는, 상기 라이더 데이터에서 설정된 범위를 벗어나는 방위각 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The pedestrian detecting unit may determine data including azimuth angle information that deviates from the set range in the rider data as noise and remove the noise.

상기 경계 박스 설정부는, 상기 맵핑 영상 데이터에 포함된 상기 거리 정보에 기초하여, 상기 보행자까지의 거리가 멀수록 상기 경계 박스의 크기를 작게 설정할 수 있다.The boundary box setting unit may set the size of the bounding box to be smaller as the distance to the pedestrian increases, based on the distance information included in the mapped image data.

본 발명의 다른 예시적인 실시예에 따르면, 보행자 검출부에서, 레이저 센서가 대상 영역을 센싱하여 획득한 라이다 데이터에서 노이즈를 제거하여 보행자를 검출하는 단계; 맵핑 영상 생성부에서, 상기 노이즈가 제거된 상기 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 상기 맵핑 영상 데이터에 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터의 수평 좌표를 거리 정보로 추가하여 맵핑 영상을 생성하는 단계; 경계 박스 설정부에서, 상기 거리 정보를 이용하여 상기 보행자에 대응되는 경계 박스의 크기를 설정하는 단계; 및 경계 박스 표시부에서, 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 상기 경계 박스를 표시하는 단계를 포함하는, 보행자 검출 방법이 제공된다.According to another exemplary embodiment of the present invention, there is provided a method of detecting a pedestrian by detecting noise in a ladder data obtained by sensing a target area by a laser sensor in a pedestrian detecting unit, thereby detecting a pedestrian; In the mapping image generation unit, the noise-removed Lidar data is converted into a two-dimensional Cartesian coordinate system, the Lidar data converted into the two-dimensional Cartesian coordinate system is mapped to a grid map to obtain mapping image data Generating a mapping image by adding horizontal coordinates of the Lidar data converted into the two-dimensional Cartesian coordinate system to the mapping image data as distance information; Setting a size of a bounding box corresponding to the pedestrian using the distance information in a bounding box setting unit; And displaying the boundary box of a size set in a portion corresponding to the pedestrian in a shot image obtained by photographing the object area by the camera sensor in a boundary box display section.

상기 보행자를 검출하는 단계는, 상기 라이더 데이터에서 설정된 값 이하인 신호 세기 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The step of detecting the pedestrian may include eliminating data including signal intensity information that is less than or equal to a predetermined value from the rider data by judging noise.

상기 보행자를 검출하는 단계는, 상기 라이더 데이터에서 설정된 범위를 벗어나는 거리 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The step of detecting the pedestrian may remove data including distance information that deviates from the set range in the rider data by judging it as noise.

상기 보행자를 검출하는 단계는, 상기 라이더 데이터에서 설정된 범위를 벗어나는 방위각 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The step of detecting the pedestrian may remove data including azimuth angle information that deviates from the set range in the rider data by judging it as noise.

상기 경계 박스의 크기를 설정하는 단계는, 상기 맵핑 영상 데이터에 포함된 상기 거리 정보에 기초하여, 상기 보행자까지의 거리가 멀수록 상기 경계 박스의 크기를 작게 설정할 수 있다.The step of setting the size of the bounding box may set the size of the bounding box to be smaller as the distance to the pedestrian increases, based on the distance information included in the mapping image data.

본 발명의 다른 예시적인 실시예에 따르면, 비일시적 컴퓨터 판독 가능한 저장매체(non-transitory computer readable storage medium)에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 하나 이상의 명령어들을 포함하고, 상기 명령어들은 하나 이상의 프로세서들을 갖는 보행자 검출 시스템에 의해 실행될 때, 보행자 검출 시스템로 하여금, 레이저 센서가 대상 영역을 센싱하여 획득한 라이다 데이터에서 노이즈를 제거하여 보행자를 검출하고, 상기 노이즈가 제거된 상기 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 상기 맵핑 영상 데이터에 상기 노이즈가 제거된 상기 라이다 데이터의 거리 정보를 추가하여 맵핑 영상을 생성하고, 상기 맵핑 영상 데이터에 포함된 상기 거리 정보를 이용하여 상기 보행자에 대한 경계 박스의 크기를 설정하고, 그리고 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 경계 박스를 표시하도록 하는, 컴퓨터 프로그램이 제공된다.According to another exemplary embodiment of the present invention there is provided a computer program stored in a non-transitory computer readable storage medium, the computer program comprising one or more instructions, The pedestrian detection system detects a pedestrian by removing noise from the ladder data acquired by sensing the object area by the laser sensor, and outputs the ladder data from which the noise has been removed to the grid Maps the image data to obtain mapping image data, adds the distance information of the noise-removed Lidar data to the mapping image data to generate a mapping image, and uses the distance information included in the mapping image data The width of the bounding box for the pedestrian And set a, and that the camera sensor is to indicate the size of the bounding box is set to the portion corresponding to the pedestrian in the captured image acquired by photographing the target area, a computer program.

라이다 데이터의 거리 정보를 이용하여 경계 박스의 크기를 설정함으로써, 경계 박스의 크기를 적절히 설정할 수 있다.By setting the size of the bounding box using the distance information of the Raider data, the size of the bounding box can be appropriately set.

라이다 데이터에서 노이즈를 제거하여 보행자를 검출함으로써, 보행자가 아닌 객체를 보행자로 잘못 판단되는 것을 방지할 수 있다.By detecting the pedestrian by removing noise from the ladder data, it is possible to prevent the object other than the pedestrian from being erroneously determined as a pedestrian.

도 1은 본 발명의 일 실시예에 따른 보행자 검출 시스템의 상세 구성을 나타낸 블록도
도 2는 본 발명의 일 실시예에 캘리브레이션을 위한 타겟을 나타낸 도면
도 3은 본 발명의 일 실시예에 따른 라이다 데이터를 나타낸 도면
도 4는 본 발명의 일 실시예에 따른 매칭점을 나타낸 도면
도 5는 본 발명의 일 실시예에 매칭점을 추출하는 과정을 설명하기 위한 도면
도 6은 본 발명의 일 실시예에 따른 노이즈 제거 과정을 설명하기 위한 도면
도 7은 본 발명의 일 실시예에 따른 가시화된 라이다 데이터 및 맵핑 영상을 나타내는 도면
도 8는 본 발명의 일 실시예에 따른 경계 박스가 표시된 촬영 영상을 나타내는 도면
도 9은 본 발명의 일 실시예에 따른 맵핑 영상 데이터에 거리 정보를 추가하는 과정을 설명하기 위한 도면
도 10은 본 발명의 일 실시예에 따른 경계 박스의 크기를 설정하는 과정을 설명하기 위한 도면
도 11은 본 발명의 일 실시예에 따른 보행자 검출 방법을 설명하기 위한 흐름도
도 12은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
1 is a block diagram showing a detailed configuration of a pedestrian detection system according to an embodiment of the present invention;
Figure 2 shows a target for calibration in one embodiment of the present invention.
FIG. 3 is a diagram illustrating Lada data according to an embodiment of the present invention; FIG.
4 is a view showing a matching point according to an embodiment of the present invention;
5 is a view for explaining a process of extracting a matching point according to an embodiment of the present invention;
6 is a view for explaining a noise removing process according to an embodiment of the present invention;
7 is a diagram showing visualized Latticed Data and a mapping image according to an embodiment of the present invention;
8 is a view showing a photographed image in which a bounding box is displayed according to an embodiment of the present invention;
9 is a diagram for explaining a process of adding distance information to mapping image data according to an embodiment of the present invention
10 is a view for explaining a process of setting a size of a bounding box according to an embodiment of the present invention;
11 is a flowchart for explaining a pedestrian detection method according to an embodiment of the present invention.
12 is a block diagram illustrating and illustrating a computing environment including a computing device suitable for use in the exemplary embodiments.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이하, 도면들을 참조하여 본 발명의 실시 예에 대해 상세히 설명하기로 한다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.

도 1은 본 발명의 일 실시예에 따른 보행자 검출 시스템(100)의 상세 구성을 나타낸 블록도이다. 도 1을 참조하면 본 발명의 일실시예에 따른 보행자 검출 시스템(100)은 센서 정합부(110) 및 보행자 검출 모듈(200)을 포함한다. 본 발명의 일실시예에 따른 보행자 검출 모듈(200)은 보행자 검출부(120), 맵핑 영상 생성부(130), 경계 박스 설정부(140) 및 경계 박스 표시부(150)를 포함한다.1 is a block diagram showing a detailed configuration of a pedestrian detection system 100 according to an embodiment of the present invention. Referring to FIG. 1, a pedestrian detection system 100 according to an embodiment of the present invention includes a sensor matching unit 110 and a pedestrian detection module 200. The pedestrian detection module 200 according to an embodiment of the present invention includes a pedestrian detection unit 120, a mapping image generation unit 130, a bounding box setting unit 140, and a bounding box display unit 150.

상기 구성들은 별개의 구성인 것처럼 설명 또는 도시되지만, 이는 각각의 기능적인 부분을 나누어 설명하기 위하여 별개의 구성인 것처럼 설명 또는 도시되는 것이다. 따라서, 각각의 구성들의 기능은 별개의 부분에서 수행될 수 있음은 물론, 각각의 구성들의 기능은 동일한 부분에서 수행될 수 있음은 당업자에게 자명하다. 또한, 각각의 구성은 서로 전기적인 연결을 포함한 유선 또는 무선의 형태로 연결되어 데이터를 송신 또는 수신할 수 있도록 연결될 수 있다.Although the above configurations are described or shown as being separate configurations, they are either described or illustrated as separate configurations to describe each functional section separately. Therefore, it is apparent to those skilled in the art that the functions of the respective configurations can be performed in different parts, and that the functions of the respective configurations can be performed in the same part. In addition, each of the components may be connected in a wired or wireless form including an electrical connection to each other so as to transmit or receive data.

레이저 센서(10)는 대상 영역으로 레이저를 발사하여 상기 레이저 센서(10)로부터 대상 객체까지의 거리 정보 및 신호 세기 정보 등을 포함하는 3차원 구 좌표계 형식의 라이다 데이터(LIDAR, Light Detection And Ranging)를 획득할 수 있다. 카메라 센서(20)는 대상 영역을 촬영하여 2차원 직교 좌표계 형식의 촬영 영상을 획득할 수 있다.The laser sensor 10 emits a laser beam to a target area and generates three-dimensional spherical coordinate type LIDAR (Light Detection And Ranging) information including distance information from the laser sensor 10 to the target object, Can be obtained. The camera sensor 20 can acquire a photographed image in the form of a two-dimensional Cartesian coordinate system by photographing an object area.

센서 정합부(110)는 레이저 센서(10)가 대상 영역을 센싱하여 획득한 라이다 데이터와 카메라 센서(20)가 대상 영역을 촬영하여 획득한 촬영 영상을 정합시킨다. 구체적으로, 센서 정합부(110)는 대상 영역의 특징점을 추출하고, 레이저 센서(10)가 획득한 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 2차원 직교 좌표계 형식으로 변환된 라이다 데이터에 변환 행렬을 곱하여 카메라 센서(20)가 획득한 촬영 영상과 정합시킨다. 구체적인 영상 정합 과정은 아래의 캘리브레이션 작업을 참조한다.The sensor matching unit 110 aligns the LR data obtained by sensing the target area by the laser sensor 10 and the photographed image obtained by photographing the target area by the camera sensor 20. [ Specifically, the sensor matching unit 110 extracts the feature points of the target region, converts the Lattice data acquired by the laser sensor 10 into a two-dimensional Cartesian coordinate system, And matched with the photographed image acquired by the camera sensor 20. For the specific image registration process, refer to the calibration operation below.

캘리브레이션 작업에 대하여 구체적으로 살펴보도록 한다. 보행자 검출 시스템(100)이 레이저 센서(10)로부터 획득한 라이다 데이터에 포함되는 거리 정보를 이용하여 보행자에 대응되는 경계 박스의 크기를 설정하기 위해서는, 서로 다른 특성을 가진 레이저 센서(10) 및 카메라 센서(20)로부터 획득한 데이터들을 융합하기 위한 캘리브레이션 작업이 필요하다. 왜냐하면, 레이저 센서(10)가 획득한 라이다 데이터에 포함된 거리 정보는 3차원 구 좌표계 형식의 데이터로 구성되는 반면, 카메라 센서(20)가 획득한 촬영 영상은 2차원 직교 좌표계 형식의 영상으로 구성되기 때문이다.The calibration work will be discussed in detail. In order to set the size of the bounding box corresponding to the pedestrian using the distance information included in the Lada data acquired from the laser sensor 10 by the pedestrian detection system 100, A calibration operation is required to fuse the data acquired from the camera sensor 20. This is because the distance information included in the Ladder data acquired by the laser sensor 10 is composed of data in the form of a three-dimensional spherical coordinate system, while the captured image acquired by the camera sensor 20 is a two-dimensional rectangular coordinate system image .

캘리브레이션 작업을 위해서는 먼저, 3차원 구 좌표계 형식의 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하는 것이 필요하다. 3차원 구 좌표계 형식의 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하기 위해 아래의 수학식 1이 이용될 수 있다. r은 라이다 데이터에 포함된 거리이고 θ는 방위각이다. xi는 2차원 공간상의 수평 좌표, yi는 2차원 공간상의 수직 좌표를 나타낸다.In order to perform the calibration, it is necessary to convert the radar data of the three-dimensional spherical coordinate system into the two-dimensional rectangular coordinate system. The following equation 1 can be used to convert the radar data of the three-dimensional spherical coordinate system format into the two-dimensional orthogonal coordinate system. r is the distance covered by the data and θ is the azimuth angle. x i represents the horizontal coordinate on the two-dimensional space, and y i represents the vertical coordinate on the two-dimensional space.

[수학식 1][Equation 1]

xi = ri * cosθi, yi = ri * cosθi x i = r i * cos θ i , y i = r i * cos θ i

두 평면 공간에서의 매칭점(Maching Point)을 얻기 위해, 두 센서의 대응하는 특징점(Feature Point)이 추출되어야 한다. 이에 대한 구체적인 설명은 도 4와 함께 후술하기로 한다.In order to obtain the matching points in the two plane spaces, the corresponding feature points of the two sensors must be extracted. A detailed description thereof will be given later with reference to FIG.

캘리브레이션 작업을 위한 변환행렬(Transformation Matrix)을 구하여야 한다. 본 발명의 일 실시예에 따른 변환행렬을 구함에 있어서는 특이치 분해(Singular Value Decomposition, SVD)가 이용된다. 카메라 센서(20)로 촬영된 영상에 대한 A 행렬(M * N)을 특이치 분해한 뒤에 나오는 U 행렬(M * N)의 마지막 열을 호모그래피(변환행렬)로 사용한다. 당업자는 수학식 2를 이용하여 호모그래피를 구하면, 특징점을 이용하여 쉽게 캘리브레이션 작업을 수행할 수 있다. U 및 V는 직교행렬, S는 대각행렬이며, H는 호모그래피, XC는 맵핑 영상 데이터, XL는 좌표계 변환이 수행된 라이다 데이터이다.The transformation matrix for the calibration operation should be obtained. Singular value decomposition (SVD) is used to find a transformation matrix according to an embodiment of the present invention. The last column of the U matrix (M * N) after the singular value decomposition of the A matrix (M * N) for the image photographed by the camera sensor 20 is used as a homography (transformation matrix). A person skilled in the art can easily carry out the calibration work by using the minutiae when the homography is obtained by using Equation (2). U and V are orthogonal matrixes, S is a diagonal matrix, H is homography, X C is mapping image data, and X L is Lattice data in which coordinate system transformation is performed.

[수학식 2]&Quot; (2) "

SVD(A) = U * S * VSVD (A) = U * S * V

H = U(:, end)H = U (:, end)

XC = H * XL X C = H * X L

보행자 검출부(120)는 레이저 센서(10)가 대상 영역을 센싱하여 획득한 라이다 데이터에서 노이즈를 제거하여 보행자를 검출한다. 레이저 센서(10)가 대상 영역을 센싱하여 획득한 라이다 데이터에는 보행자 외 노이즈에 관한 데이터가 포함되어 있기 때문이다. 구체적으로, 보행자 검출부(120)는 라이다 데이터에서 설정된 값 이하(예를 들어, 잡음)인 신호 세기 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다. 또한, 보행자 검출부(120)는 라이다 데이터에서 설정된 범위(예를 들어, 1mm부터 40m)를 벗어나는 거리 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다. 또한, 보행자 검출부(120)는 라이다 데이터에서 설정된 범위(예를 들어, 도로가 아닌 인도)를 벗어나는 방위각 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다.The pedestrian detecting unit 120 detects the pedestrian by removing noise from the Raid data obtained by sensing the object area by the laser sensor 10. [ This is because the Lada data obtained by sensing the object area by the laser sensor 10 contains data on the noise outside the pedestrian. Specifically, the pedestrian detecting unit 120 may judge the data including the signal intensity information that is equal to or less than a set value (for example, noise) in the Lada data as noise and remove the noise. In addition, the pedestrian detecting unit 120 may judge and remove data including distance information that deviates from the set range (for example, 1 mm to 40 m) from the Lada data as noise. In addition, the pedestrian detecting unit 120 may judge the data including the azimuth angle information that deviates from a predetermined range (for example, not a road) from the Raid data as noise and remove the noise.

맵핑 영상 생성부(130)는 노이즈가 제거된 상기 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 2차원 직교 좌표계 형식으로 변환된 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 맵핑 영상 데이터에 2차원 직교 좌표계 형식으로 변환된 라이다 데이터의 수평 좌표를 거리 정보로 추가하여 맵핑 영상을 생성한다. 맵핑 영상 데이터란 그리드 맵에 맵핑된 라이다 데이터를 말하며, 맵핑 영상이란 맵핑 영상 데이터에 거리 정보가 추가되어 생성된 영상을 말한다. 이하, 맵핑 영상 데이터에 거리 정보를 추가하는 과정에 대하여 구체적으로 설명한다.The mapping image generation unit 130 converts the noise-removed Lidar data into a two-dimensional Cartesian coordinate system, maps the Ladar data converted into the two-dimensional Cartesian coordinate system to a grid map to obtain mapping image data, A mapping image is generated by adding the horizontal coordinates of the Lidar data converted into the two-dimensional Cartesian coordinate system to the mapping image data as distance information. The mapping image data refers to the Lada data mapped to the grid map, and the mapping image refers to the image generated by adding the distance information to the mapping image data. Hereinafter, a process of adding distance information to mapping image data will be described in detail.

라이다 데이터는 그리드 맵에 맵핑되는 과정에서 거리 정보를 잃어버리게 된다. 따라서, 맵핑 영상 데이터는 거리 정보를 포함하지 않는다. 이에, 맵핑 영상 데이터에 아래의 수학식 3과 같이 2차원 공간상의 수직 좌표인 xi를 포함시켜 거리 정보를 갖게 하여야 한다. 거리 정보가 맵핑 영상 데이터에 추가되면 맵핑 영상에서도 거리 정보를 사용할 수 있다. LIDARcartesian는 라이다 데이터, H는 호모그래피, XC는 맵핑 영상 데이터, XD는 거리 정보가 포함된 맵핑 영상 데이터이다.The lidar data is lost in the process of mapping to the grid map. Therefore, the mapping image data does not include distance information. Thus, it should have a vertical coordinate of the distance information by including the x i on the two-dimensional space as shown in Equation 3 below on the mapping image data. When the distance information is added to the mapping image data, the distance information can be used in the mapping image. LIDAR cartesian is Lada data, H is homography, X C is mapping image data, and X D is mapping image data including distance information.

[수학식 3]&Quot; (3) "

LIDARcartesian = (xi, yi)LIDAR cartesian = (x i , y i )

XC = H * LIDARcartesian = (xj, yj)X C = H * LIDAR cartesian = (x j , y j )

XD = (xj, yj, xi)X D = (x j , y j , x i )

(i, j = 1, 2, 3, …, n)(i, j = 1, 2, 3, ..., n)

경계 박스 설정부(140)는 맵핑 영상 데이터에 포함된 거리 정보를 이용하여 보행자에 대한 경계 박스의 크기를 설정한다. 구체적으로, 경계 박스 설정부(140)는 맵핑 영상 데이터에 포함된 거리 정보에 기초하여, 보행자까지의 거리가 멀수록 경계 박스의 크기를 작게 설정할 수 있다.The bounding box setting unit 140 sets the size of the bounding box for the pedestrian using the distance information included in the mapped image data. Specifically, the boundary box setting unit 140 can set the size of the bounding box to be smaller as the distance to the pedestrian increases, based on the distance information included in the mapping image data.

경계 박스 표시부(150)는 카메라 센서(20)가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 경계 박스를 표시한다.The bounding box display unit 150 displays a bounding box of a size set in a portion corresponding to the pedestrian in the photographed image obtained by the camera sensor 20 photographing the target area.

도 2는 본 발명의 일 실시예에 캘리브레이션을 위한 타겟을 나타낸 도면이다.2 is a diagram illustrating a target for calibration in one embodiment of the present invention.

레이저 센서와 카메라 센서처럼 서로 다른 특성을 가진 두 센서를 융합하기 위해서는 캘리브레이션(Calibration) 작업이 필요하다. 본 발명의 일 실시예에 따른 캘리브레이션을 수행함에 있어서는 도 2에 도시된 바와 같이, 'ㄷ'모양과 'v'모양의 타겟이 이용될 수 있다. Target 1은 'ㄷ'모양의 타겟이며, Target 2는 'v'모양의 타겟이다. 'ㄷ' 모양의 타겟 또는 'v'모양의 타겟이 이용됨으로써 특징점이 쉽게 추출될 수 있다. 다만, 컬레브레이션 작업을 수행함에 있어서 타겟의 모양은 이에 한정되지 않으며, 다른 모양의 타겟이 이용될 수 있음은 당업자에게 자명하다.In order to fuse two sensors with different characteristics, such as a laser sensor and a camera sensor, a calibration operation is required. In performing calibration according to an embodiment of the present invention, a 'c' shape and a 'v' shape target may be used as shown in FIG. Target 1 is a 'c' target, and Target 2 is a 'v' target. Feature points can be easily extracted by using a 'c' target or a 'v' target. However, it is apparent to those skilled in the art that the shape of the target is not limited to this, and other shapes of targets may be used in performing the calibration operation.

도 3은 본 발명의 일 실시예에 따른 레이저 센서로부터 획득한 라이다 데이터를 나타낸 도면이다.3 is a diagram illustrating Lattice Data obtained from a laser sensor according to an embodiment of the present invention.

도 3의 왼쪽 도면에 도시된 바와 같이, 레이저 센서가 획득한 라이다 데이터에 포함된 거리 정보는 3차원 구 좌표계 형식의 데이터(방위각(AZIMUTH) 및 거리(DISTANCE))로 구성된다. 한편, 라이다 데이터는 신호 세기(SIGNAL_STRANGTH) 정보를 포함한다. 3차원 구 좌표계 형식의 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하기 위해서는 전술한 바와 같이 수학식 1이 이용될 수 있다. 도 3의 오른쪽 도면에 도시된 바와 같이, 좌표계 변환이 수행되면 라이다 데이터가 가시적으로 표현될 수 있다. x축은 xi를 y축은 yi를 나타낸다.As shown in the left drawing of FIG. 3, the distance information included in the Lattice Data acquired by the laser sensor is composed of three-dimensional spherical coordinate system data (azimuth angle and distance DISTANCE). On the other hand, the Raidata data includes signal strength (SIGNAL_STRANGTH) information. In order to convert the radar data of the three-dimensional spherical coordinate system into the two-dimensional orthogonal coordinate system, Equation 1 may be used as described above. As shown in the right drawing of FIG. 3, when the coordinate system conversion is performed, the LAD data can be represented visually. The x-axis represents x i and the y-axis represents y i .

도 4는 본 발명의 일 실시예에 따른 매칭점을 나타낸 도면이다.4 is a view illustrating matching points according to an embodiment of the present invention.

특징점은 양 끝점 및 코너 지점이 될 수 있다. 두 평면 공간에서의 매칭점(Maching Point)을 추출하기 위한 두 센서의 대응하는 특징점(Feature Point)으로서, 특징점(P1 - P4, P5 - P7)이 매칭점으로 사용될 수 있다.Feature points can be both end points and corner points. The feature points (P1 - P4, P5 - P7) can be used as matching points as corresponding feature points of two sensors for extracting a matching point in two plane spaces.

도 5는 본 발명의 일 실시예에 매칭점을 추출하는 과정을 설명하기 위한 도면이다.5 is a view for explaining a process of extracting a matching point according to an embodiment of the present invention.

도 5의 왼쪽 도면에 도시된 바와 같이, 카메라 센서로 촬영된 영상에서는 해당 점의 좌표 값(P1, P2, P3, P4)이 특징점이 된다. 도 5의 오른쪽 도면에 도시된 바와 같이, 레이저 센서의 특징점은 라이다 데이터가 분할(Segmentation)된 후의 양 끝점(P1, P4) 및 라인 피팅(Line-Fitting)이 수행된 후의 직선의 교차점(P2, P3)이다.5, the coordinate values (P1, P2, P3, and P4) of the corresponding point are feature points in the image captured by the camera sensor. As shown in the right drawing of FIG. 5, the characteristic points of the laser sensor include the end points P1 and P4 after the LIDAR data has been segmented and the intersection points P2 of the straight lines after the line- , P3).

도 6은 본 발명의 일 실시예에 따른 노이즈 제거 과정을 설명하기 위한 도면이다.6 is a diagram for explaining a noise removal process according to an embodiment of the present invention.

보행자 검출부는 레이저 센서가 대상 영역을 센싱하여 획득한 라이다 데이터에서 노이즈를 제거하여 보행자를 검출한다. 구체적으로, 보행자 검출부는 라이다 데이터에서 설정된 값 이하(예를 들어, 잡음)인 신호 세기 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다. 또한, 보행자 검출부(120)는 라이다 데이터에서 설정된 범위(예를 들어, 1mm부터 40m)를 벗어나는 거리 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다. 또한, 보행자 검출부는 라이다 데이터에서 설정된 범위(예를 들어, 도로가 아닌 인도)를 벗어나는 방위각 정보를 포함하는 데이터를 노이즈로 판단하여 제거할 수 있다. 도 6의 위쪽 도면은 노이즈가 제거되기 전의 도면이며, 도 6의 아래쪽 도면은 노이즈가 제거된 후의 도면이다. 도6에서 '+'로 표시된 부분은 보행자로 검출된 부분을 나타내며, 도 6에 표시된 박스 영역을 비교해 보면, 실제 보행자 외에 보행자로 검출된 부분이 제거된 것을 확인할 수 있다.The pedestrian detection unit detects the pedestrian by removing noise from the Lada data acquired by sensing the object area by the laser sensor. Specifically, the pedestrian detecting unit may judge the data including the signal intensity information that is equal to or less than a set value (for example, noise) in the Lada data as noise and remove the noise. In addition, the pedestrian detecting unit 120 may judge and remove data including distance information that deviates from the set range (for example, 1 mm to 40 m) from the Lada data as noise. In addition, the pedestrian detecting unit can determine and remove data including azimuth information that deviates from a predetermined range (for example, a road other than a road) in the Raidata data as noise. The upper diagram in Fig. 6 is a diagram before noise is removed, and the lower diagram in Fig. 6 is a diagram after noise is removed. The portion indicated by '+' in FIG. 6 indicates a portion detected as a pedestrian, and a comparison between the box regions shown in FIG. 6 shows that the portion detected as a pedestrian in addition to the actual pedestrian is removed.

도 7은 본 발명의 일 실시예에 따른 가시화된 라이다 데이터 및 맵핑 영상을 나타내는 도면이다.7 is a diagram illustrating visualized Lidar data and a mapping image according to an embodiment of the present invention.

2차원 직교 좌표계 형식으로 변환된 라이다 데이터가 그리드 맵에 맵핑되면 맵핑 영상이 생성될 수 있다. 맵핑 영상 데이터는 픽셀을 가진 영상으로 다룰 수 있다. 다만, 도 7의 위쪽 도면에 도시된 바와 같이, 라이다 데이터는 그리드 맵에 맵핑되는 과정에서 거리 정보를 잃어버리게 되고, 도 7의 아래쪽 도면에 도시된 바와 같이, 맵핑 영상 데이터는 거리 정보를 포함하지 않는다.If the Lidar data converted into the two-dimensional Cartesian coordinate system is mapped to the grid map, a mapping image can be generated. The mapping image data can be treated as an image having pixels. 7, the distance information is lost in the process of mapping the grid data to the grid map. As shown in the lower diagram of FIG. 7, the mapping image data includes distance information I never do that.

도 8는 본 발명의 일 실시예에 따른 경계 박스가 표시된 촬영 영상을 나타내는 도면이다.FIG. 8 is a view showing a photographed image showing a bounding box according to an embodiment of the present invention.

도 8은 거리 정보가 추가되지 않은 맵핑 영상 데이터를 이용하여 경계 박스의 크기를 설정하는데 있어서의 문제점을 보여준다. 보행자가 레이저 센서로부터 5m 거리에 존재하는 경우(위쪽 도면)와 10m 거리에 존재하는 경우(아래쪽 도면)의 경계 박스의 크기가 동일하다.FIG. 8 shows a problem in setting the size of the bounding box using the mapping image data to which the distance information is not added. The size of the boundary box in the case where the pedestrian exists at a distance of 5 m from the laser sensor (upper drawing) and the case where the pedestrian exists at a distance of 10 m (lower drawing) is the same.

도 9은 본 발명의 일 실시예에 따른 맵핑 영상 데이터에 거리 정보를 추가하는 과정을 설명하기 위한 도면이다.9 is a diagram for explaining a process of adding distance information to mapping image data according to an embodiment of the present invention.

도 9의 위쪽 도면에 도시된 바와 같이, 거리 정보를 갖지 않는 맵핑 영상 데이터(x, y, Width, Height)에, 도 9의 아래쪽 도면에 도시된 바와 같이, 거리 정보(Dist.)를 추가할 수 있다. 맵핑 영상 데이터에 전술한 수학식 3과 같이 2차원 공간상의 수직 좌표인 xi를 포함시켜 거리 정보를 갖게 할 수 있다. 거리 정보를 맵핑 영상 데이터에 추가하면 맵핑 영상에서도 거리 정보를 사용할 수 있다.9, distance information (Dist.) Is added to the mapping image data (x, y, Width, Height) having no distance information, as shown in the lower drawing of Fig. 9 . You may have a vertical coordinate information, by including the distance x i on the two-dimensional space as shown in the equation (3) above in the mapping image data. If the distance information is added to the mapping image data, the distance information can be used in the mapping image.

도 10은 본 발명의 일 실시예에 따른 경계 박스의 크기를 설정하는 과정을 설명하기 위한 도면이다.FIG. 10 is a view for explaining a process of setting a size of a bounding box according to an embodiment of the present invention.

경계 박스 설정부는 맵핑 영상 데이터에 포함된 거리 정보를 이용하여 보행자에 대한 경계 박스의 크기를 설정한다. 구체적으로, 경계 박스 설정부는 맵핑 영상 데이터에 포함된 거리 정보에 기초하여, 보행자까지의 거리가 멀수록 경계 박스의 크기를 작게 설정할 수 있다. 도 10에 도시된 바와 같이 5m targets, 10m targets, 15m targets의 순서대로 경계 박스의 크기를 작게 설정할 수 있다.The bounding box setting unit sets the size of the bounding box for the pedestrian using the distance information included in the mapping image data. Specifically, the boundary box setting unit may set the size of the bounding box to be smaller as the distance to the pedestrian increases, based on the distance information included in the mapping image data. As shown in FIG. 10, the size of the bounding box can be set to be small in the order of 5m targets, 10m targets, and 15m targets.

도 11은 본 발명의 일 실시예에 따른 보행자 검출 방법을 설명하기 위한 흐름도이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.11 is a flowchart illustrating a pedestrian detection method according to an embodiment of the present invention. In the illustrated flow chart, the method is described as being divided into a plurality of steps, but at least some of the steps may be performed in reverse order, combined with other steps, performed together, omitted, divided into detailed steps, One or more steps may be added and performed.

먼저 보행자를 검출한다(S202). 구체적으로, 보행자 검출부에서, 상기 라이다 데이터에서 노이즈를 제거하여 보행자를 검출한다.First, a pedestrian is detected (S202). Specifically, the pedestrian detecting section detects no pedestrians by removing noise from the Lattice data.

다음으로, 맵핑 영상을 생성한다(S204). 구체적으로, 맵핑 영상 생성부에서, 노이즈가 제거된 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 2차원 직교 좌표계 형식으로 변환된 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 맵핑 영상 데이터에 2차원 직교 좌표계 형식으로 변환된 라이다 데이터의 수평 좌표를 거리 정보로 추가하여 맵핑 영상을 생성한다.Next, a mapping image is generated (S204). Specifically, the mapping image generation unit converts the noise-removed Lattice data into a two-dimensional Cartesian coordinate system, maps the Lattice data transformed into the two-dimensional Cartesian coordinate system to the grid map to obtain mapping image data, A mapping image is generated by adding the horizontal coordinates of the Lidar data converted into the two-dimensional Cartesian coordinate system to the mapping image data as distance information.

다음으로, 경계 박스의 크기를 설정한다(S206). 구체적으로, 경계 박스 설정부에서, 상기 거리 정보를 이용하여 상기 보행자에 대응되는 경계 박스의 크기를 설정한다.Next, the size of the bounding box is set (S206). Specifically, the boundary box setting unit sets the size of the bounding box corresponding to the pedestrian using the distance information.

마지막으로, 경계 박스를 표시한다(S208). 구체적으로, 경계 박스 표시부에서, 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 보행자에 대응되는 부분에 설정된 크기의 경계 박스를 표시한다.Finally, a bounding box is displayed (S208). Specifically, in the boundary box display section, a boundary box of a size set in a portion corresponding to a pedestrian is displayed on the photographed image acquired by the camera sensor by photographing the target area.

도 12는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다.12 is a block diagram illustrating and illustrating a computing environment 10 that includes a computing device suitable for use in the exemplary embodiments.

도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되는 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.In the illustrated embodiment, each of the components may have different functions and capabilities than those described below, and may include additional components in addition to those described below.

도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 보행자 검출 시스템(100)일 수 있다. 컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.The illustrated computing environment 10 includes a computing device 12. In one embodiment, the computing device 12 may be a pedestrian detection system 100. The computing device 12 includes at least one processor 14, a computer readable storage medium 16, The processor 14 may cause the computing device 12 to operate in accordance with the exemplary embodiment discussed above. For example, processor 14 may execute one or more programs stored on computer readable storage medium 16. The one or more programs may include one or more computer-executable instructions, which when executed by the processor 14 cause the computing device 12 to perform operations in accordance with the illustrative embodiment .

컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.The computer-readable storage medium 16 is configured to store computer-executable instructions or program code, program data, and / or other suitable forms of information. The program 20 stored in the computer-readable storage medium 16 includes a set of instructions executable by the processor 14. In one embodiment, the computer-readable storage medium 16 may be any type of storage medium such as a memory (volatile memory such as random access memory, non-volatile memory, or any suitable combination thereof), one or more magnetic disk storage devices, Memory devices, or any other form of storage medium that can be accessed by the computing device 12 and store the desired information, or any suitable combination thereof.

통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.Communication bus 18 interconnects various other components of computing device 12, including processor 14, computer readable storage medium 16.

컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.The computing device 12 may also include one or more input / output interfaces 22 and one or more network communication interfaces 26 that provide an interface for one or more input / output devices 24. The input / output interface 22 and the network communication interface 26 are connected to the communication bus 18. The input / output device 24 may be connected to other components of the computing device 12 via the input / output interface 22. The exemplary input and output device 24 may be any type of device, such as a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touch pad or touch screen), a voice or sound input device, An input device, and / or an output device such as a display device, a printer, a speaker, and / or a network card. The exemplary input and output device 24 may be included within the computing device 12 as a component of the computing device 12 and may be coupled to the computing device 12 as a separate device distinct from the computing device 12 It is possible.

이상의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The foregoing detailed description should not be construed in any way as being restrictive and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

10 : 레이저 센서
20 : 카메라 센서
100 : 보행자 검출 시스템
110 : 센서 정합부
120 : 보행자 검출부
130 : 맵핑 영상 생성부
140 : 경계 박스 설정부
150 : 경계 박스 표시부
10: Laser sensor
20: Camera sensor
100: Pedestrian detection system
110: sensor matching portion
120: Pedestrian detection unit
130:
140: boundary box setting unit
150:

Claims (16)

레이저 센서가 대상 영역을 센싱하여 획득한 라이다 데이터와 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상을 정합시키는 센서 정합부;
상기 라이다 데이터에서 노이즈를 제거하여 보행자를 검출하는 보행자 검출부;
상기 노이즈가 제거된 상기 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 상기 맵핑 영상 데이터에 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터의 수평 좌표를 거리 정보로 추가하여 맵핑 영상을 생성하는 맵핑 영상 생성부;
상기 거리 정보를 이용하여 상기 보행자에 대응되는 경계 박스의 크기를 설정하는 경계 박스 설정부; 및
상기 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 상기 경계 박스를 표시하는 경계 박스 표시부를 포함하는, 보행자 검출 시스템.
A sensor matching unit for matching the Lada data obtained by sensing the target region with the laser sensor and the photographed image obtained by photographing the target region by the camera sensor;
A pedestrian detector for detecting a pedestrian by removing noise from the Lattice data;
Dimensional coordinate system, transforming the noise-removed Lidar data into a two-dimensional Cartesian coordinate system, mapping the Lidar data converted into the two-dimensional Cartesian coordinate system to a grid map to obtain mapping image data, A mapping image generation unit for generating a mapping image by adding horizontal coordinates of the Lidar data converted into the two-dimensional rectangular coordinate system format as distance information;
A boundary box setting unit for setting the size of the boundary box corresponding to the pedestrian using the distance information; And
And a boundary box display unit for displaying the boundary box of a size set in a portion corresponding to the pedestrian in the photographed image obtained by photographing the target area by the camera sensor.
제 1항에 있어서,
상기 보행자 검출부는, 상기 라이다 데이터에서 설정된 값 이하인 신호 세기 정보를 포함하는 데이터를 노이즈로 판단하여 제거하는, 보행자 검출 시스템.
The method according to claim 1,
Wherein the pedestrian detection unit judges, as noise, data including signal intensity information that is less than or equal to a set value in the Läda data, and removes the noise.
제 1항에 있어서,
상기 보행자 검출부는, 상기 라이다 데이터에서 설정된 범위를 벗어나는 거리 정보를 포함하는 데이터를 노이즈로 판단하여 제거하는, 보행자 검출 시스템.
The method according to claim 1,
Wherein the pedestrian detecting unit judges, as noise, data including distance information that deviates from a predetermined range in the Lidar data and removes it.
제 1항에 있어서,
상기 보행자 검출부는, 상기 라이다 데이터에서 설정된 범위를 벗어나는 방위각 정보를 포함하는 데이터를 노이즈로 판단하여 제거하는, 보행자 검출 시스템.
The method according to claim 1,
Wherein the pedestrian detection unit judges, as noise, data including azimuth angle information that deviates from a predetermined range in the Lidar data and removes it.
제 1항에 있어서,
상기 경계 박스 설정부는, 상기 맵핑 영상 데이터에 포함된 상기 거리 정보에 기초하여, 상기 보행자까지의 거리가 멀수록 상기 경계 박스의 크기를 작게 설정하는, 보행자 검출 시스템.
The method according to claim 1,
Wherein the boundary box setting unit sets the size of the bounding box to be smaller as the distance to the pedestrian increases as a result of the distance information included in the mapping image data.
상기 라이다 데이터에서 노이즈를 제거하여 보행자를 검출하는 보행자 검출부;
상기 노이즈가 제거된 상기 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 상기 맵핑 영상 데이터에 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터의 수평 좌표를 거리 정보로 추가하여 맵핑 영상을 생성하는 맵핑 영상 생성부;
상기 거리 정보를 이용하여 상기 보행자에 대응되는 경계 박스의 크기를 설정하는 경계 박스 설정부; 및
상기 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 상기 경계 박스를 표시하는 경계 박스 표시부를 포함하는, 보행자 검출 모듈.
A pedestrian detector for detecting a pedestrian by removing noise from the Lattice data;
Dimensional coordinate system, transforming the noise-removed Lidar data into a two-dimensional Cartesian coordinate system, mapping the Lidar data converted into the two-dimensional Cartesian coordinate system to a grid map to obtain mapping image data, A mapping image generation unit for generating a mapping image by adding horizontal coordinates of the Lidar data converted into the two-dimensional rectangular coordinate system format as distance information;
A boundary box setting unit for setting the size of the boundary box corresponding to the pedestrian using the distance information; And
And a bounding box display unit for displaying the bounding box of a size set to a portion corresponding to the pedestrian in the photographed image obtained by photographing the target area by the camera sensor.
제 6항에 있어서,
상기 보행자 검출부는, 상기 라이다 데이터에서 설정된 값 이하인 신호 세기 정보를 포함하는 데이터를 노이즈로 판단하여 제거하는, 보행자 검출 모듈.
The method according to claim 6,
Wherein the pedestrian detecting unit judges, as noise, data including signal intensity information that is less than or equal to a set value in the LR data to remove the pedestrian.
제 6항에 있어서,
상기 보행자 검출부는, 상기 라이다 데이터에서 설정된 범위를 벗어나는 거리 정보를 포함하는 데이터를 노이즈로 판단하여 제거하는, 보행자 검출 모듈.
The method according to claim 6,
Wherein the pedestrian detecting unit judges, as noise, data including distance information that deviates from a predetermined range in the Läda data, and removes it.
제 6항에 있어서,
상기 보행자 검출부는, 상기 라이다 데이터에서 설정된 범위를 벗어나는 방위각 정보를 포함하는 데이터를 노이즈로 판단하여 제거하는, 보행자 검출 모듈.
The method according to claim 6,
Wherein the pedestrian detecting unit judges, as noise, data including azimuth angle information that deviates from the set range in the Lidar data and removes it.
제 6항에 있어서,
상기 경계 박스 설정부는, 상기 맵핑 영상 데이터에 포함된 상기 거리 정보에 기초하여, 상기 보행자까지의 거리가 멀수록 상기 경계 박스의 크기를 작게 설정하는, 보행자 검출 모듈.
The method according to claim 6,
Wherein the bounding box setting unit sets the size of the bounding box to be smaller as the distance to the pedestrian increases, based on the distance information included in the mapping image data.
보행자 검출부에서, 상기 라이다 데이터에서 노이즈를 제거하여 보행자를 검출하는 단계;
맵핑 영상 생성부에서, 상기 노이즈가 제거된 상기 라이다 데이터를 2차원 직교 좌표계 형식으로 변환하고, 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 상기 맵핑 영상 데이터에 상기 2차원 직교 좌표계 형식으로 변환된 상기 라이다 데이터의 수평 좌표를 거리 정보로 추가하여 맵핑 영상을 생성하는 단계;
상기 거리 정보를 이용하여 상기 보행자에 대응되는 경계 박스의 크기를 설정하는 단계; 및
경계 박스 표시부에서, 상기 카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 상기 경계 박스를 표시하는 단계를 포함하는, 보행자 검출 방법.
Detecting a pedestrian by removing noise from the ladder data at a pedestrian detecting unit;
In the mapping image generation unit, the noise-removed Lidar data is converted into a two-dimensional Cartesian coordinate system, the Lidar data converted into the two-dimensional Cartesian coordinate system is mapped to a grid map to obtain mapping image data Generating a mapping image by adding horizontal coordinates of the Lidar data converted into the two-dimensional Cartesian coordinate system to the mapping image data as distance information;
Setting a size of a bounding box corresponding to the pedestrian using the distance information; And
And displaying the boundary box of the size set in a portion corresponding to the pedestrian in the shot image obtained by photographing the target area by the camera sensor in the boundary box display section.
제 11항에 있어서,
상기 보행자를 검출하는 단계는, 상기 라이다 데이터에서 설정된 값 이하인 신호 세기 정보를 포함하는 데이터를 노이즈로 판단하여 제거하는, 보행자 검출 방법.
12. The method of claim 11,
Wherein the step of detecting the pedestrian comprises the step of judging, as noise, data including signal intensity information that is equal to or lower than a value set in the Lattice data.
제 11항에 있어서,
상기 보행자를 검출하는 단계는, 상기 라이다 데이터에서 설정된 범위를 벗어나는 거리 정보를 포함하는 데이터를 노이즈로 판단하여 제거하는, 보행자 검출 방법.
12. The method of claim 11,
Wherein the step of detecting the pedestrian judges that data including distance information that deviates from a predetermined range in the Lattice data is noise and removes the pedestrian.
제 11항에 있어서,
상기 보행자를 검출하는 단계는, 상기 라이다 데이터에서 설정된 범위를 벗어나는 방위각 정보를 포함하는 데이터를 노이즈로 판단하여 제거하는, 보행자 검출 방법.
12. The method of claim 11,
Wherein the step of detecting the pedestrian judges that data including azimuth information that deviates from a predetermined range in the Lidar data is noise and removes the pedestrian.
제 11항에 있어서,
상기 경계 박스의 크기를 설정하는 단계는, 상기 맵핑 영상 데이터에 포함된 상기 거리 정보에 기초하여, 상기 보행자까지의 거리가 멀수록 상기 경계 박스의 크기를 작게 설정하는, 보행자 검출 방법.
12. The method of claim 11,
Wherein the step of setting the size of the bounding box sets the size of the bounding box to be smaller as the distance to the pedestrian increases as a result of the distance information included in the mapped image data.
비일시적 컴퓨터 판독 가능한 저장매체(non-transitory computer readable storage medium)에 저장된 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은 하나 이상의 명령어들을 포함하고, 상기 명령어들은 하나 이상의 프로세서들을 갖는 보행자 검출 시스템에 의해 실행될 때, 보행자 검출 시스템로 하여금,
레이저 센서가 대상 영역을 센싱하여 획득한 라이다 데이터에서 노이즈를 제거하여 보행자를 검출하고,
상기 노이즈가 제거된 상기 라이다 데이터를 그리드 맵에 맵핑시켜 맵핑 영상 데이터를 획득하며, 상기 맵핑 영상 데이터에 상기 노이즈가 제거된 상기 라이다 데이터의 거리 정보를 추가하여 맵핑 영상을 생성하고,
상기 맵핑 영상 데이터에 포함된 상기 거리 정보를 이용하여 상기 보행자에 대한 경계 박스의 크기를 설정하고, 그리고
카메라 센서가 상기 대상 영역을 촬영하여 획득한 촬영 영상에서 상기 보행자에 대응되는 부분에 설정된 크기의 경계 박스를 표시하도록 하는, 컴퓨터 프로그램.
A computer program stored on a non-transitory computer readable storage medium,
The computer program comprising one or more instructions, wherein the instructions, when executed by a pedestrian detection system having one or more processors, cause the pedestrian detection system to:
The laser sensor detects the pedestrian by removing noise from the Lada data obtained by sensing the target area,
Generating a mapping image by adding distance information of the noise-removed Lidar data to the mapping image data by mapping the noise-removed Lidar data to a grid map to obtain mapping image data,
Setting a size of a bounding box for the pedestrian using the distance information included in the mapped image data, and
And the camera sensor displays a boundary box of a size set in a portion corresponding to the pedestrian in the photographed image obtained by photographing the target area.
KR1020170161467A 2017-11-29 2017-11-29 System, module and method for detecting pedestrian, computer program KR101995223B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170161467A KR101995223B1 (en) 2017-11-29 2017-11-29 System, module and method for detecting pedestrian, computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170161467A KR101995223B1 (en) 2017-11-29 2017-11-29 System, module and method for detecting pedestrian, computer program

Publications (2)

Publication Number Publication Date
KR20190062852A KR20190062852A (en) 2019-06-07
KR101995223B1 true KR101995223B1 (en) 2019-07-02

Family

ID=66849938

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170161467A KR101995223B1 (en) 2017-11-29 2017-11-29 System, module and method for detecting pedestrian, computer program

Country Status (1)

Country Link
KR (1) KR101995223B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230141103A (en) 2022-03-31 2023-10-10 주식회사 비솔 Object creating system based on real image of background data for AI training
KR20230146272A (en) 2022-04-12 2023-10-19 주식회사 비솔 Character creating system based on 3d graphics of background data for AI training

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101303B (en) * 2020-11-05 2021-02-05 腾讯科技(深圳)有限公司 Image data processing method and device and computer readable storage medium
KR102591598B1 (en) * 2021-02-25 2023-10-20 주식회사 에스오에스랩 A method for operating a security device using sensor
KR102591601B1 (en) * 2021-02-25 2023-10-20 주식회사 에스오에스랩 A method for operating a security device using sensor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003302470A (en) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detection device and pedestrian detection method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100507090B1 (en) * 2002-11-26 2005-08-09 현대자동차주식회사 The collision alarming system of vehicle and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003302470A (en) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detection device and pedestrian detection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230141103A (en) 2022-03-31 2023-10-10 주식회사 비솔 Object creating system based on real image of background data for AI training
KR20230146272A (en) 2022-04-12 2023-10-19 주식회사 비솔 Character creating system based on 3d graphics of background data for AI training

Also Published As

Publication number Publication date
KR20190062852A (en) 2019-06-07

Similar Documents

Publication Publication Date Title
KR101995223B1 (en) System, module and method for detecting pedestrian, computer program
EP3627180B1 (en) Sensor calibration method and device, computer device, medium, and vehicle
CN109461211B (en) Semantic vector map construction method and device based on visual point cloud and electronic equipment
CN109059902B (en) Relative pose determination method, device, equipment and medium
CN110163930B (en) Lane line generation method, device, equipment, system and readable storage medium
EP3967972A1 (en) Positioning method, apparatus, and device, and computer-readable storage medium
CN110119698B (en) Method, apparatus, device and storage medium for determining object state
JP6364049B2 (en) Vehicle contour detection method, device, storage medium and computer program based on point cloud data
CN112861653A (en) Detection method, system, equipment and storage medium for fusing image and point cloud information
EP3968266B1 (en) Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
US11783507B2 (en) Camera calibration apparatus and operating method
US20210295090A1 (en) Electronic device for camera and radar sensor fusion-based three-dimensional object detection and operating method thereof
CN109918977B (en) Method, device and equipment for determining idle parking space
CN109300143B (en) Method, device and equipment for determining motion vector field, storage medium and vehicle
US10165246B2 (en) Method and device for processing stereoscopic data
EP3324359B1 (en) Image processing device and image processing method
WO2022217988A1 (en) Sensor configuration scheme determination method and apparatus, computer device, storage medium, and program
CN112525147B (en) Distance measurement method for automatic driving equipment and related device
CN113838125A (en) Target position determining method and device, electronic equipment and storage medium
KR102163774B1 (en) Apparatus and method for image recognition
CN111833443A (en) Landmark position reconstruction in autonomous machine applications
JP6631691B2 (en) Image processing device, device control system, imaging device, image processing method, and program
CN112639822B (en) Data processing method and device
CN111832347B (en) Method and device for dynamically selecting region of interest
CN113536867A (en) Object identification method, device and system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant