KR102502300B1 - Fusion method and system using radar and camera - Google Patents

Fusion method and system using radar and camera Download PDF

Info

Publication number
KR102502300B1
KR102502300B1 KR1020220051320A KR20220051320A KR102502300B1 KR 102502300 B1 KR102502300 B1 KR 102502300B1 KR 1020220051320 A KR1020220051320 A KR 1020220051320A KR 20220051320 A KR20220051320 A KR 20220051320A KR 102502300 B1 KR102502300 B1 KR 102502300B1
Authority
KR
South Korea
Prior art keywords
controller
objects
motion vectors
image frames
radar
Prior art date
Application number
KR1020220051320A
Other languages
Korean (ko)
Other versions
KR20220147046A (en
Inventor
김면군
Original Assignee
주식회사 파로스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파로스 filed Critical 주식회사 파로스
Publication of KR20220147046A publication Critical patent/KR20220147046A/en
Application granted granted Critical
Publication of KR102502300B1 publication Critical patent/KR102502300B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

레이더와 카메라 융합 방법이 개시된다, 상기 레이더와 카메라 융합 방법은 레이더 센서, 카메라 모듈, 및 컨트롤러를 포함한다. 상기 레이더와 카메라 융합 방법은 상기 컨트롤러는 상기 카메라 모듈로부터 서로 다른 시간에서 촬영된 영상 프레임들을 수신하는 단계, 상기 컨트롤러는 상기 영상 프레임들을 서로 비교하여 상기 영상 프레임들에서 복수의 객체들을 식별하는 단계, 상기 컨트롤러는 상기 레이더 센서의 좌표를 신경망에 적용하여 상기 레이더 센서의 좌표와 상기 카메라 모듈의 좌표 사이의 관계를 도출하는 단계, 상기 컨트롤러는 상기 도출된 관계를 이용하여 상기 영상 프레임들에서 식별된 복수의 객체들과 상기 레이더 센서로부터 생성된 레이더 데이터에서 움직이는 객체들을 매칭하는 단계, 상기 컨트롤러는 상기 식별된 복수의 객체들 중 어느 하나 객체의 에너지를 계산하는 단계, 상기 컨트롤러는 상기 계산된 에너지가 임의의 문턱값보다 큰지 결정하는 단계, 및 상기 계산된 에너지가 상기 임의의 문턱값보다 클 때, 상기 컨트롤러는 관리자에게 주의를 가지고 디스플레이에 표시된 영상 프레임들을 보라는 메시지를 서버로 전송하는 단계를 포함하며, 상기 컨트롤러는 상기 도출된 관계를 이용하여 상기 영상 프레임들에서 식별된 복수의 객체들과 상기 레이더 센서로부터 생성된 레이더 데이터에서 움직이는 객체들을 매칭하는 단계는 상기 컨트롤러는 상기 영상 프레임들에서 복수의 모션 벡터들을 생성하는 단계, 상기 컨트롤러는 상기 생성된 복수의 모션 벡터들을 이용하여 상기 영상 프레임들에서 상기 복수의 객체들을 식별하는 단계, 상기 컨트롤러는 상기 식별된 복수의 객체들을 이용하여 상기 복수의 모션 벡터들 중에서 대표 모션 벡터들을 선택하는 단계, 상기 컨트롤러는 상기 선택된 대표 모션 벡터들의 크기들과 방향들을 계산하는 단계, 상기 컨트롤러는 상기 레이더 센서로부터 생성된 레이더 데이터에서 인식된 상기 복수의 객체들의 도플러 속도들과 방향들을 추출하는 단계, 상기 컨트롤러는 상기 계산된 대표 모션 벡터들의 크기들과 상기 도플러 속도들을 비교하고, 상기 계산된 대표 모션 벡터들의 방향들과 상기 레이더 데이터에서 인식된 상기 복수의 객체들의 방향들을 비교하는 단계, 및 상기 컨트롤러는 상기 비교에 따라 영상 프레임들에서 상기 식별된 복수의 객체들과 상기 레이더 데이터에서 인식된 상기 복수의 객체들을 매칭하는 단계를 포함한다. A radar and camera fusion method is disclosed. The radar and camera fusion method includes a radar sensor, a camera module, and a controller. The radar and camera fusion method includes the controller receiving image frames captured at different times from the camera module, the controller comparing the image frames with each other to identify a plurality of objects in the image frames, Deriving, by the controller, a relationship between the coordinates of the radar sensor and the coordinates of the camera module by applying the coordinates of the radar sensor to a neural network; Matching moving objects in radar data generated from the radar sensor with objects of the controller, calculating the energy of any one object among the identified plurality of objects, the controller determines that the calculated energy is Determining whether the calculated energy is greater than the arbitrary threshold, and when the calculated energy is greater than the arbitrary threshold, the controller sending a message to the server to pay attention to the manager and look at the image frames displayed on the display; , The step of matching, by the controller, moving objects in the radar data generated from the radar sensor with the plurality of objects identified in the image frames using the derived relationship, wherein the controller determines the plurality of motions in the image frames. Generating vectors, identifying, by the controller, the plurality of objects in the image frames using the generated plurality of motion vectors, wherein the controller identifies the plurality of motion vectors using the identified plurality of objects. selecting representative motion vectors from among the plurality of motion vectors, the controller calculating magnitudes and directions of the selected representative motion vectors, the controller calculating Doppler velocities of the plurality of objects recognized from radar data generated from the radar sensor. and extracting directions, wherein the controller compares magnitudes of the calculated representative motion vectors with the Doppler velocities, and compares the calculated directions of the representative motion vectors with the plurality of Comparing directions of objects, and matching, by the controller, the identified plurality of objects in image frames with the plurality of objects recognized in the radar data according to the comparison.

Description

레이더와 카메라 융합 방법 및 시스템 {Fusion method and system using radar and camera}Radar and camera fusion method and system {Fusion method and system using radar and camera}

본 발명의 개념에 따른 실시 예는 레이더와 카메라 융합 방법 및 시스템에 관한 것으로, 특히, 카메라와 함께 레이더를 이용하여 주변을 감시할 수 있는 레이더와 카메라 융합 방법 및 시스템에 관한 것이다. Embodiments according to the concept of the present invention relate to a radar and camera fusion method and system, and in particular, to a radar and camera fusion method and system capable of monitoring the surroundings using a radar together with a camera.

CCTV와 같은 카메라를 이용하여 주변을 감시하는 방법이 사용되어 왔다. 보안 요원이 이상 상황이나 긴급 상황을 알아내기 위해서는 카메라에 의해 촬영된 영상을 계속 모니터링을 하고 있어야 한다. 하지만 보안 요원이 계속해서 카메라에 의해 촬영된 영상을 계속 모니터링하는 것은 쉽지 않다. 또한, 카메라에 의해 촬영된 영상에서 감시 대상이 많을 경우, 보안 요원이 많은 감시 대상을 일일이 모니터링하는 것은 어렵다. 또한, 카메라의 해상도가 좋지 않거나, 날씨가 좋지 않은 경우, 카메라에 의해 촬영된 영상에서 감시 대상을 식별하는 것은 용이하지 않다. A method of monitoring the surroundings using a camera such as a CCTV has been used. In order to find out an abnormal situation or an emergency situation, security personnel must continuously monitor the video captured by the camera. However, it is not easy for security personnel to continuously monitor the video captured by the camera. In addition, when there are many objects to be monitored in the images captured by the camera, it is difficult for security personnel to monitor the many objects to be monitored one by one. In addition, when the resolution of the camera is not good or the weather is bad, it is not easy to identify a monitoring target from an image captured by the camera.

한국 등록특허공보 제10-1854461호(2018.04.26.)Korean Registered Patent Publication No. 10-1854461 (2018.04.26.)

본 발명이 이루고자 하는 기술적인 과제는 카메라만을 이용하여 주변을 감시할 때의 단점들을 보완하기 위해 카메라와 레이더를 같이 이용하여 주변을 감시할 수 있는 레이더와 카메라 융합 방법 및 시스템을 제공하는데 있다.A technical problem to be achieved by the present invention is to provide a radar and camera convergence method and system capable of monitoring the surroundings using a camera and a radar together in order to compensate for the disadvantages of monitoring the surroundings using only a camera.

본 발명의 일실시 예에 따른 레이더 센서, 카메라 모듈, 및 컨트롤러를 포함하는 영상 감시 시스템의 레이더와 카메라 융합 방법은 상기 컨트롤러는 상기 카메라 모듈로부터 서로 다른 시간에서 촬영된 영상 프레임들을 수신하는 단계, 상기 컨트롤러는 상기 영상 프레임들을 서로 비교하여 상기 영상 프레임들에서 복수의 객체들을 식별하는 단계, 상기 컨트롤러는 상기 레이더 센서의 좌표를 신경망에 적용하여 상기 레이더 센서의 좌표와 상기 카메라 모듈의 좌표 사이의 관계를 도출하는 단계, 및 상기 컨트롤러는 상기 도출된 관계를 이용하여 상기 영상 프레임들에서 식별된 복수의 객체들과 상기 레이더 센서로부터 생성된 레이더 데이터에서 움직이는 객체들을 매칭하는 단계를 포함한다. A radar and camera fusion method of a video surveillance system including a radar sensor, a camera module, and a controller according to an embodiment of the present invention includes the steps of receiving, by the controller, image frames captured at different times from the camera module; A controller compares the image frames with each other and identifies a plurality of objects in the image frames, wherein the controller applies the coordinates of the radar sensor to a neural network to determine a relationship between the coordinates of the radar sensor and the coordinates of the camera module. deriving, and matching, by the controller, moving objects from radar data generated from the radar sensor with a plurality of objects identified from the image frames using the derived relationship.

본 발명의 일실시 예에 따른 레이더 센서, 카메라 모듈, 및 컨트롤러를 포함하는 영상 감시 시스템의 레이더와 카메라를 이용한 영상 감시 방법은 상기 컨트롤러는 상기 카메라 모듈로부터 서로 다른 시간에서 촬영된 영상 프레임들을 수신하는 단계, 상기 컨트롤러는 상기 영상 프레임들에서 복수의 모션 벡터들을 생성하는 단계, 상기 컨트롤러는 상기 생성된 복수의 모션 벡터들을 이용하여 상기 영상 프레임들에서 복수의 객체들을 식별하는 단계, 상기 컨트롤러는 상기 식별된 복수의 객체들을 이용하여 상기 복수의 모션 벡터들 중에서 대표 모션 벡터들을 선택하는 단계, 상기 컨트롤러는 상기 선택된 대표 모션 벡터들의 크기들을 계산하는 단계, 상기 컨트롤러는 상기 레이더 센서로부터 생성된 레이더 데이터에서 인식된 상기 복수의 객체들의 도플러 속도들과 방향들을 추출하는 단계, 상기 컨트롤러는 상기 계산된 대표 모션 벡터들의 크기들과 상기 도플러 속도들을 비교하고, 상기 계산된 대표 모션 벡터들의 방향들과 상기 레이더 데이터에서 인식된 상기 복수의 객체들의 방향들을 비교하는 단계, 및 상기 컨트롤러는 상기 비교에 따라 상기 영상 프레임들에서 식별된 상기 복수의 객체들과 상기 레이더 데이터에서 인식된 복수의 객체들을 매칭하는 단계를 포함한다. An image monitoring method using a radar and a camera of an image monitoring system including a radar sensor, a camera module, and a controller according to an embodiment of the present invention includes receiving image frames captured at different times from the camera module by the controller. The controller generates a plurality of motion vectors in the image frames, the controller identifies a plurality of objects in the image frames using the generated plurality of motion vectors, the controller identifies a plurality of objects selecting representative motion vectors from among the plurality of motion vectors by using a plurality of objects, the controller calculating magnitudes of the selected representative motion vectors, the controller recognizing from radar data generated from the radar sensor extracting Doppler velocities and directions of the plurality of objects, the controller comparing magnitudes of the calculated representative motion vectors with the Doppler velocities, and comparing the calculated directions of the representative motion vectors with the radar data. Comparing directions of the plurality of recognized objects, and matching, by the controller, the plurality of objects identified from the image frames and the plurality of objects recognized from the radar data according to the comparison. .

상기 레이더와 카메라를 이용한 영상 감시 방법은 상기 컨트롤러는 상기 식별된 복수의 객체들 중 어느 하나 객체의 에너지를 계산하는 단계, 상기 컨트롤러는 상기 계산된 에너지가 임의의 문턱값보다 큰지 결정하는 단계, 및 상기 계산된 에너지가 상기 임의의 문턱값보다 클 때, 상기 컨트롤러는 메시지를 서버로 전송하는 단계를 포함한다. The video monitoring method using the radar and the camera includes the steps of: calculating, by the controller, the energy of one of the identified plurality of objects; determining, by the controller, whether the calculated energy is greater than a certain threshold value; and When the calculated energy is greater than the certain threshold, the controller sending a message to a server.

상기 컨트롤러는 상기 식별된 복수의 객체들 중 어느 하나객체의 에너지를 계산하는 단계는 상기 컨트롤러는 상기 어느 하나 객체와 대응되는 상기 레이더 데이터에서 인식된 객체의 도플러 속도를 식별하는 단계, 및 상기 컨트롤러는 상기 식별된 도플러 속도를 미리 설정된 도플러 속도로 나누어 상기 어느 하나 객체의 움직임 변화율을 계산하는 단계를 포함한다. The step of calculating, by the controller, the energy of any one object among the identified plurality of objects, the controller identifying the Doppler velocity of the object recognized from the radar data corresponding to the one object, and the controller and calculating a motion change rate of the one object by dividing the identified Doppler speed by a preset Doppler speed.

상기 컨트롤러는 상기 식별된 복수의 객체들 중 어느 하나 객체의 에너지를 계산하는 단계는 상기 컨트롤러는 상기 영상 프레임들 중 어느 하나의 영상 프레임에서 상기 어느 하나 객체의 픽셀 값들을 카운트하여 상기 어느 하나 객체의 사이즈를 계산하는 단계, 상기 컨트롤러는 상기 어느 하나 객체의 사이즈와 평균 객체 사이즈의 차이 값을 계산하는 단계, 상기 컨트롤러는 상기 어느 하나 객체의 사이즈와 상기 평균 객체 사이즈의 차이 값을 상기 평균 객체 사이즈로 나누어 상기 어느 하나 객체의 크기 적합도를 계산하는 단계, 및 상기 컨트롤러는 상기 어느 하나 객체의 움직임 변화율과 상기 어느 하나 객체의 크기 적합도의 합을 상기 어느 하나 객체의 에너지로 계산하는 단계를 포함한다. The step of calculating, by the controller, the energy of any one object among the identified plurality of objects, wherein the controller counts pixel values of any one object in any one of the image frames to determine the number of the one object. Calculating the size, the controller calculating a difference between the size of any one object and the average object size, the controller converting the difference between the size of any one object and the average object size into the average object size and calculating, by the controller, the motion change rate of the one object and the size suitability of the one object as the energy of the one object.

본 발명의 실시 예에 따른 레이더와 카메라를 이용한 영상 감시 시스템은 카메라를 포함한다. An image surveillance system using a radar and a camera according to an embodiment of the present invention includes a camera.

상기 카메라는 레이더 신호를 전송하여 레이더 데이터를 생성하는 레이더 센서, 서로 다른 시간에서 촬영하여 영상 프레임들을 생성하는 카메라 모듈, 상기 영상 프레임들을 수신하고, 상기 영상 프레임들에서 복수의 모션 벡터들을 생성하며, 상기 생성된 복수의 모션 벡터들을 이용하여 상기 영상 프레임들에서 복수의 객체들을 식별하며, 상기 식별된 복수의 객체들을 이용하여 상기 복수의 모션 벡터들 중에서 대표 모션 벡터들을 선택하며, 상기 선택된 대표 모션 벡터들의 크기들과 방향들을 계산하며, 상기 레이더 센서로부터 생성된 레이더 데이터에서 인식된 상기 복수의 객체들의 도플러 속도들과 방향들을 추출하며, 상기 계산된 대표 모션 벡터들의 크기들과 상기 도플러 속도들을 비교하며, 상기 계산된 대표 모션 벡터들의 방향들과 상기 레이더 데이터에서 인식된 상기 복수의 객체들의 방향들을 비교하며, 상기 비교에 따라 상기 영상 프레임들에서 식별된 상기 복수의 객체들과 상기 레이더 데이터에서 인식된 복수의 객체들을 매칭하는 컨트롤러를 포함한다. The camera includes a radar sensor for generating radar data by transmitting a radar signal, a camera module for generating image frames by capturing images at different times, receiving the image frames, and generating a plurality of motion vectors from the image frames; A plurality of objects are identified in the image frames using the generated plurality of motion vectors, representative motion vectors are selected from among the plurality of motion vectors using the identified plurality of objects, and the selected representative motion vector is selected. Calculate magnitudes and directions of , extract Doppler velocities and directions of the plurality of objects recognized from radar data generated from the radar sensor, compare magnitudes of the calculated representative motion vectors with the Doppler velocities, , Comparing directions of the calculated representative motion vectors with directions of the plurality of objects recognized from the radar data, and according to the comparison, the plurality of objects identified from the image frames and the directions recognized from the radar data It includes a controller that matches multiple objects.

본 발명의 실시 예에 따른 레이더와 카메라 융합 시스템은 카메라를 포함한다. 상기 카메라는 레이더 신호를 전송하여 레이더 데이터를 생성하는 레이더 센서, 서로 다른 시간에서 촬영하여 영상 프레임들을 생성하는 카메라 모듈, 및 상기 영상 프레임들을 수신하고, 상기 영상 프레임들을 서로 비교하여 상기 영상 프레임들에서 복수의 객체들을 식별하며, 상기 레이더 센서의 좌표를 신경망에 적용하여 상기 레이더 센서의 좌표와 상기 카메라 모듈의 좌표 사이의 관계를 도출하며, 상기 도출된 관계를 이용하여 상기 영상 프레임들에서 식별된 복수의 객체들과 상기 레이더 센서로부터 생성된 레이더 데이터에서 움직이는 객체들을 매칭하는 컨트롤러를 포함한다. A radar and camera fusion system according to an embodiment of the present invention includes a camera. The camera receives a radar sensor that generates radar data by transmitting a radar signal, a camera module that generates image frames by capturing images at different times, and receives the image frames, compares the image frames with each other, It identifies a plurality of objects, derives a relationship between the coordinates of the radar sensor and the coordinates of the camera module by applying the coordinates of the radar sensor to a neural network, and derives a relationship between the coordinates of the radar sensor and the coordinates of the camera module using the derived relationship. and a controller matching moving objects in the objects of and radar data generated from the radar sensor.

본 발명의 실시 예에 따른 레이더와 카메라 융합 방법 및 시스템은 레이더를 이용하여 감시 대상을 식별하고, 감시 대상의 이상 상황이 예측될 때, 이를 관리자에게 통지함으로써 효율적으로 영상을 감시할 수 있는 효과가 있다.The radar and camera convergence method and system according to an embodiment of the present invention has an effect of efficiently monitoring images by identifying a monitoring target using a radar and notifying a manager when an abnormal situation of the monitoring target is predicted. there is.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 레이더와 카메라를 이용한 영상 감시 시스템의 블록도를 나타낸다.
도 2는 도 1에 도시된 컨트롤러에 의해 수행되는 대표 모션 벡터들의 선택 동작을 설명하기 위한 영상 프레임들의 이미지들을 나타낸다.
도 3은 도 1에 도시된 컨트롤러에 의해 수행되는 도플러 속도들과 방향들을 추출하는 동작을 설명하기 위한 레이더 데이터를 나타낸다.
도 4는 도 1에 도시된 컨트롤러의 동작을 설명하기 위한 흐름도를 나타낸다.
도 5는 도 1에 도시된 컨트롤러에 의해 수행되는 레이더 센서의 좌표와 카메라의 좌표의 관계를 도출하기 위한 신경망의 다이어그램을 나타낸다.
도 6은 도 1에 도시된 컨트롤러의 다른 실시 예에 따른 동작을 설명하기 위한 흐름도를 나타낸다.
A detailed description of each drawing is provided in order to more fully understand the drawings cited in the detailed description of the present invention.
1 shows a block diagram of an image surveillance system using a radar and a camera according to an embodiment of the present invention.
FIG. 2 shows images of video frames for explaining a selection operation of representative motion vectors performed by the controller shown in FIG. 1 .
FIG. 3 shows radar data for explaining an operation of extracting Doppler velocities and directions performed by the controller shown in FIG. 1 .
Figure 4 shows a flow chart for explaining the operation of the controller shown in Figure 1;
FIG. 5 is a diagram of a neural network for deriving a relationship between coordinates of a radar sensor and coordinates of a camera performed by the controller shown in FIG. 1 .
FIG. 6 is a flowchart for explaining an operation of the controller shown in FIG. 1 according to another embodiment.

본 명세서에 개시된 본 발명의 개념에 따른 실시예에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시예를 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예는 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시예에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed herein are merely exemplified for the purpose of explaining the embodiment according to the concept of the present invention, and the embodiments according to the concept of the present invention may take various forms. It can be implemented as and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예는 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예를 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시예를 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present invention can be applied with various changes and can have various forms, so the embodiments are illustrated in the drawings and described in detail in this specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all modifications, equivalents, or substitutes included in the spirit and technical scope of the present invention.

제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위에서 벗어나지 않은 채, 제1 구성 요소는 제2 구성 요소로 명명될 수 있고 유사하게 제2 구성 요소는 제1 구성 요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component, e.g., without departing from the scope of rights according to the concept of the present invention, a first component may be termed a second component and similarly a second component may be referred to as a second component. A component may also be referred to as a first component.

어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접 연결되어 있거나 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It should be understood that when a component is referred to as being "connected" or "connected" to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. will be. On the other hand, when a component is referred to as “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle. Other expressions describing the relationship between components, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in this specification, but one or more other features It should be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 같은 의미를 나타낸다. 일반적으로 사용되는 사전에 정의된 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined herein, they are not interpreted in an ideal or excessively formal meaning. .

이하, 본 명세서에 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 레이더와 카메라를 이용한 영상 감시 시스템의 블록도를 나타낸다. 1 shows a block diagram of an image surveillance system using a radar and a camera according to an embodiment of the present invention.

도 1을 참고하면, 레이더와 카메라를 이용한 영상 감시 시스템(100)은 공원, 공장, 병원, 및 항만 등 다양한 장소들에서 사람과 같은 객체들을 감식하기 위해 이용되는 시스템을 의미한다. 실시 예에 따라 영상 감시 시스템(100)은 레이더와 카메라 융합 시스템으로 호칭될 수 있다. 상기 레이더와 상기 카메라는 레이더 센서(11)와 카메라 모듈(13)을 의미한다. 영상 감시 시스템(100)은 카메라(10)를 포함한다.Referring to FIG. 1 , an image surveillance system 100 using a radar and a camera means a system used to detect objects such as people in various places such as parks, factories, hospitals, and ports. According to an embodiment, the video monitoring system 100 may be referred to as a radar and camera convergence system. The radar and the camera mean a radar sensor 11 and a camera module 13. The video monitoring system 100 includes a camera 10 .

카메라(10)는 건물(9)의 외부에 설치될 수 있다. 실시 예에 따라 카메라(10)는 도로, 또는 다른 외부의 환경에 설치될 수 있다. 카메라(10)는 레이더 센서(11), 카메라 모듈(13), 및 컨트롤러(15)를 포함한다. 레이더 센서(11), 카메라 모듈(13), 및 컨트롤러(15)는 하나의 장치로 구현된다. 실시 예에 따라 레이더 센서(11), 카메라 모듈(13), 및 컨트롤러(15)는 서로 다른 장치들에서 구현될 수 있다. 또한, 레이더 센서(11)와 카메라 모듈(13)은 하나의 장치로 구현되지만, 컨트롤러(15)는 다른 장치로 구현될 수 있다. 컨트롤러(15)는 레이더 센서(11)와 카메라 모듈(13)을 제어하기 위해 이용된다. 컨트롤러(15)는 프로세서(미도시)를 포함할 수 있다. 컨트롤러(15)의 동작은 명령들에 의해 동작되며, 상기 명령들은 상기 프로세서에 의해 실행된다. The camera 10 may be installed outside the building 9 . Depending on the embodiment, the camera 10 may be installed on a road or other external environment. The camera 10 includes a radar sensor 11 , a camera module 13 , and a controller 15 . The radar sensor 11, the camera module 13, and the controller 15 are implemented as one device. According to embodiments, the radar sensor 11, the camera module 13, and the controller 15 may be implemented in different devices. Also, the radar sensor 11 and the camera module 13 are implemented as one device, but the controller 15 may be implemented as another device. The controller 15 is used to control the radar sensor 11 and the camera module 13 . The controller 15 may include a processor (not shown). The operation of the controller 15 is driven by instructions, which are executed by the processor.

카메라 모듈(13)은 주변을 촬영한다. 즉, 카메라 모듈(13)은 서로 다른 시간에서 촬영된 영상 프레임들(VFS)을 생성한다. 컨트롤러(15)는 카메라 모듈(13)에서 생성된 영상 프레임들(VFS)을 수신한다. 컨트롤러(15)는 레이더 센서(11)에 의해 생성된 레이더 데이터(RD)를 수신한다. 컨트롤러(15)는 카메라 모듈(13)로부터 수신된 영상 프레임들(VFS)과 레이더 센서(11)로부터 수신된 레이더 레이더(RD)를 수신하고, 영상 프레임들(VFS)과 레이더 데이터(RD)를 서로 매칭시키기 위한 동작들을 수행한다. The camera module 13 photographs the surroundings. That is, the camera module 13 generates image frames VFS captured at different times. The controller 15 receives the image frames VFS generated by the camera module 13 . The controller 15 receives radar data RD generated by the radar sensor 11 . The controller 15 receives the image frames VFS received from the camera module 13 and the radar radar RD received from the radar sensor 11, and converts the image frames VFS and radar data RD. Perform operations to match each other.

도 2는 도 1에 도시된 컨트롤러에 의해 수행되는 대표 모션 벡터들의 선택 동작을 설명하기 위한 영상 프레임들의 이미지들을 나타낸다. FIG. 2 shows images of video frames for explaining a selection operation of representative motion vectors performed by the controller shown in FIG. 1 .

도 1과 도 2를 참고하면, 컨트롤러(15)는 영상 프레임들(FR1과 FR2)에서 복수의 모션 벡터들(MVS1~MVS3)을 생성한다. 제1영상 프레임(FR1)이 제1시간(t0)에서 촬영된 영상 프레임일 때, 제2영상 프레임(FR2)은 제1시간(t0)보다는 시간이 지난 제2시간(t1)에서 촬영된 영상 프레임이다. 영상 프레임들(FR1과 FR2)은 마이크로블록들(MB)로 나뉜다. Referring to FIGS. 1 and 2 , the controller 15 generates a plurality of motion vectors MVS1 to MVS3 in image frames FR1 and FR2. When the first image frame FR1 is an image frame captured at the first time t0, the second image frame FR2 is an image captured at the second time t1, which is later than the first time t0. It is a frame. The image frames FR1 and FR2 are divided into microblocks MB.

컨트롤러(15)는 서로 다른 시간에서 생성된 2개의 영상 프레임들(FR1과 FR2)을 비교하여 복수의 모션 백터들(MVS1~MVS3)을 생성한다. 컨트롤러(15)는 복수의 모션 벡터들(MVS1~MVS3)을 이용하여 영상 프레임들(FR1과 FR2)에서 복수의 객체들(21, 23, 및 25)을 식별한다. 복수의 객체들(21, 23, 및 25)이란 도 2에 도시된 3명의 사람들을 의미한다. 복수의 모션 벡터들(MVS1~MVS3)을 이용하여 영상 프레임들(FR1과 FR2)에서 복수의 객체들(21, 23, 및 25)을 식별한다함은 모션 벡터들(MVS1~MVS3)의 방향들을 분석하여 복수의 객체들(21, 23, 및 25)을 검출함을 의미한다. 예컨대, 제1영상 프레임(FR1)에서 제1객체(21)는 제1영상 프레임(FR1)에서는 왼쪽 상단에 위치하나, 제2영상 프레임(FR2)에서는 왼쪽 하단에 위치한다. 즉, 제1객체(21)는 제1영상 프레임(FR1)의 상단에서 제2영상 프레임(FR2)의 하단으로 이동하였다. 컨트롤러(15)는 모션 벡터들(MVS1)의 방향들을 분석하여 모션 벡터들(MVS1)은 제1객체(21)의 모션 벡터들(MVS1)로 식별한다. 즉, 컨트롤러(15)는 모션 벡터들(MVS1)의 방향들을 분석하여 제1객체(21)를 식별한다. 제1영상 프레임(FR1)에서 제2객체(23)는 제1영상 프레임(FR1)에서는 중앙의 하단에 위치하나, 제2영상 프레임(FR2)에서는 중앙의 하단에서 약간 올라간 부분에 위치한다. 즉, 제2객체(23)는 제1영상 프레임(FR1)의 중앙의 하단에서 제2영상 프레임(FR2)의 중앙에서 약간 올라간 부분으로 이동하였다. 컨트롤러(15)는 모션 벡터들(MVS2)의 방향들을 분석하여 모션 벡터들(MVS2)은 제2객체(23)의 모션 벡터들(MVS2)로 식별한다. 즉, 컨트롤러(15)는 모션 벡터들(MVS2)의 방향들을 분석하여 제2객체(23)를 식별한다. 제1영상 프레임(FR1)에서 제3객체(25)는 제1영상 프레임(FR1)에서는 가장 오른쪽의 하단에 위치하나, 제2영상 프레임(FR2)에서는 가장 오른쪽의 상단에 위치한다. 즉, 제3객체(25)는 제1영상 프레임(FR1)의 가장 오른쪽 하단에서 제2영상 프레임(FR2)에서 가장 오른쪽 상단으로 이동하였다. 컨트롤러(15)는 모션 벡터들(MVS3)의 방향들을 분석하여 모션 벡터들(MVS3)은 제3객체(25)의 모션 벡터들(MVS3)로 식별한다. 즉, 컨트롤러(15)는 모션 벡터들(MVS3)의 방향들을 분석하여 제3객체(25)를 식별한다.The controller 15 compares two image frames FR1 and FR2 generated at different times to generate a plurality of motion vectors MVS1 to MVS3. The controller 15 identifies a plurality of objects 21, 23, and 25 in the image frames FR1 and FR2 by using the plurality of motion vectors MVS1 to MVS3. The plurality of objects 21 , 23 , and 25 mean the three people shown in FIG. 2 . Identifying the plurality of objects 21, 23, and 25 in the image frames FR1 and FR2 using the plurality of motion vectors MVS1 to MVS3 means that the directions of the motion vectors MVS1 to MVS3 This means that a plurality of objects 21, 23, and 25 are detected by analysis. For example, in the first image frame FR1, the first object 21 is located in the upper left corner in the first image frame FR1, but is located in the lower left corner in the second image frame FR2. That is, the first object 21 moved from the top of the first image frame FR1 to the bottom of the second image frame FR2. The controller 15 analyzes the directions of the motion vectors MVS1 and identifies the motion vectors MVS1 as motion vectors MVS1 of the first object 21 . That is, the controller 15 identifies the first object 21 by analyzing the directions of the motion vectors MVS1. In the first image frame FR1, the second object 23 is located at the bottom of the center in the first image frame FR1, but is located at a slightly raised portion from the bottom of the center in the second image frame FR2. That is, the second object 23 moved from the bottom of the center of the first image frame FR1 to a slightly raised portion from the center of the second image frame FR2. The controller 15 analyzes the directions of the motion vectors MVS2 and identifies the motion vectors MVS2 as motion vectors MVS2 of the second object 23 . That is, the controller 15 identifies the second object 23 by analyzing the directions of the motion vectors MVS2. In the first image frame FR1, the third object 25 is located at the rightmost bottom in the first image frame FR1, but is located at the rightmost top in the second image frame FR2. That is, the third object 25 moves from the bottom right of the first image frame FR1 to the top right of the second image frame FR2. The controller 15 analyzes the directions of the motion vectors MVS3 and identifies the motion vectors MVS3 as motion vectors MVS3 of the third object 25 . That is, the controller 15 identifies the third object 25 by analyzing the directions of the motion vectors MVS3.

실시 예에 따라 컨트롤러(15)는 복수의 모션 벡터들(MVS1~MVS3)뿐만 아니라 영상 프레임들(FR1과 FR2)을 분석하여 복수의 객체들(21, 23, 및 25)을 식별할 수도 있다. 컨트롤러(15)는 영상 프레임들(FR1과 FR2)을 대조하여 차이가 발생하는 픽셀 부분들을 이용하여 객체들(21, 23, 및 25)을 식별할 수 있다. 컨트롤러(15)는 영상 프레임들(FR1과 FR2)을 서로 비교하여 영상 프레임들(FR1과 FR2)에서 복수의 객체들(21, 23, 및 25)을 식별한다. According to an embodiment, the controller 15 may identify the plurality of objects 21 , 23 , and 25 by analyzing not only the plurality of motion vectors MVS1 to MVS3 but also the image frames FR1 and FR2 . The controller 15 compares the image frames FR1 and FR2 and identifies the objects 21 , 23 , and 25 using pixel portions where differences occur. The controller 15 identifies a plurality of objects 21 , 23 , and 25 in the image frames FR1 and FR2 by comparing the image frames FR1 and FR2 with each other.

컨트롤러(15)는 모션 벡터들(MVS1~MVS3)의 방향들을 분석하여 모션 벡터들(MVS1~MVS3)을 모션 벡터들(MVS1), 모션 벡터들(MVS2), 및 모션 벡터들(MVS3)로 분류한다. 모션 벡터들(MVS1)과, 모션 벡터들(MVS2)의 구별은 모션 벡터들(MSV1, MVS2)의 방향들이 서로 반대 방향이므로 쉽다. 하지만, 모션 벡터들(MVS2, MVS3)의 구별은 모션 벡터들(MVS2, MVS3)의 방향들이 서로 같은 방향이므로 구별이 어렵다. 이때, 컨트롤러(15)는 제1영상 프레임(FR1)와 제2영상 프레임(FR2)의 픽셀 차이를 이용할 수 있다. 제1영상 프레임(FR1)과 제2영상 프레임(FR2)에서 객체들(21, 23, 25)은 객체들(21, 23, 25)의 이동으로 인해 서로 다른 픽셀값들을 가지기 때문이다. The controller 15 analyzes the directions of the motion vectors MVS1 to MVS3 and classifies the motion vectors MVS1 to MVS3 into motion vectors MVS1, motion vectors MVS2, and motion vectors MVS3. do. Distinguishing the motion vectors MVS1 from the motion vectors MVS2 is easy because the directions of the motion vectors MSV1 and MVS2 are opposite to each other. However, it is difficult to distinguish the motion vectors MVS2 and MVS3 because the directions of the motion vectors MVS2 and MVS3 are the same. At this time, the controller 15 may use a pixel difference between the first image frame FR1 and the second image frame FR2. This is because the objects 21, 23, and 25 in the first image frame FR1 and the second image frame FR2 have different pixel values due to the movement of the objects 21, 23, and 25.

컨트롤러(15)는 식별된 복수의 객체들(21, 23, 및 25)을 이용하여 복수의 모션 벡터들(MVS1, MVS2, 또는 MVS3) 중에서 대표 모션 벡터들(SMV1, SMV2, 또는 SMV3)을 선택한다. 상기 식별된 복수의 객체들(21, 23, 및 25)을 이용한다함은 복수의 객체들(21, 23, 및 25)이 식별되어 복수의 모션 벡터들(MVS1, MVS2, 또는 MVS3)이 명확하게 3개로 나누어짐을 의미한다. 실시 예에 따라 컨트롤러(15)는 복수의 모션 벡터들(MVS1, MVS2, 또는 MVS3) 중에서 대표 모션 벡터들(SMV1, SMV2, 또는 SMV3)을 선택할 수 있다. 컨트롤러(15)는 복수의 모션 벡터들(MVS1, MVS2, 또는 MVS3) 중에서 임의의 하나의 모션 벡터 각각을 대표 모션 벡터들(SMV1, SMV2, 또는 SMV3)로 선택할 수 있다. 예컨대, 컨트롤러(15)는 복수의 모션 벡터들(MVS1) 중에서 임의의 하나의 모션 벡터를 선택하여 대표 모션 벡터(SMV1)로 설정할 수 있다. The controller 15 selects representative motion vectors SMV1, SMV2, or SMV3 from among a plurality of motion vectors MVS1, MVS2, or MVS3 using the identified plurality of objects 21, 23, and 25. do. Using the identified plurality of objects 21, 23, and 25 means that the plurality of objects 21, 23, and 25 are identified so that the plurality of motion vectors MVS1, MVS2, or MVS3 are clearly This means that it is divided into three parts. According to an exemplary embodiment, the controller 15 may select representative motion vectors SMV1 , SMV2 , or SMV3 from among a plurality of motion vectors MVS1 , MVS2 , or MVS3 . The controller 15 may select any one motion vector among the plurality of motion vectors MVS1 , MVS2 , or MVS3 as the representative motion vectors SMV1 , SMV2 , or SMV3 . For example, the controller 15 may select an arbitrary motion vector from among a plurality of motion vectors MVS1 and set it as the representative motion vector SMV1.

실시 예에 따라 컨트롤러(15)는 복수의 모션 벡터들(MVS1, MVS2, 또는 MVS3) 중에서 가장 크기가 큰 모션 벡터 각각을 대표 모션 벡터들(SMV1, SMV2, 또는 SMV3)로 선택할 수 있다. 예컨대, 컨트롤러(15)는 복수의 모션 벡터들(MVS1) 중에서 가장 크기가 큰 모션 벡터를 선택하여 대표 모션 벡터(SMV1)로 설정할 수 있다. 컨트롤러(15)는 복수의 모션 벡터들(MVS1)의 크기를 먼저 계산할 수 있다. 도 2에서 복수의 모션 벡터들(MVS1, MVS2, 또는 MVS3) 각각은 서로 같은 크기로 도시되었으나, 실시 예에 따라 복수의 모션 벡터들(MVS1, MVS2, 또는 MVS3)의 크기는 다양할 수 있다. According to an exemplary embodiment, the controller 15 may select each of the largest motion vectors among the plurality of motion vectors MVS1 , MVS2 , or MVS3 as the representative motion vectors SMV1 , SMV2 , or SMV3 . For example, the controller 15 may select a motion vector having the largest magnitude among a plurality of motion vectors MVS1 and set it as the representative motion vector SMV1. The controller 15 may first calculate the magnitudes of the plurality of motion vectors MVS1. In FIG. 2 , each of the plurality of motion vectors MVS1 , MVS2 , or MVS3 is illustrated as having the same size, but the size of the plurality of motion vectors MVS1 , MVS2 , or MVS3 may vary according to embodiments.

컨트롤러(15)는 선택된 대표 모션 벡터들(SMV1, SMV2, 및 SMV3)의 크기들과 방향들을 계산한다. 컨트롤러(15)는 선택된 대표 모션 벡터(SMV1)의 크기를 계산하고, 아래쪽으로 향하는 방향을 식별한다. 컨트롤러(15)는 선택된 대표 모션 벡터(SMV2)의 크기를 계산하고, 위쪽으로 향하는 방향을 식별한다. 컨트롤러(15)는 선택된 대표 모션 벡터(SMV3)의 크기를 계산하고, 위쪽으로 향하는 방향을 식별한다. The controller 15 calculates the magnitudes and directions of the selected representative motion vectors SMV1, SMV2, and SMV3. The controller 15 calculates the magnitude of the selected representative motion vector SMV1 and identifies the downward direction. The controller 15 calculates the magnitude of the selected representative motion vector SMV2 and identifies the upward direction. The controller 15 calculates the magnitude of the selected representative motion vector SMV3 and identifies the upward direction.

도 3은 도 1에 도시된 컨트롤러에 의해 수행되는 도플러 속도들과 방향들을 추출하는 동작을 설명하기 위한 레이더 데이터를 나타낸다. 도 3에서 레이더 데이터는 그래프에서 점들로 표현된다. FIG. 3 shows radar data for explaining an operation of extracting Doppler velocities and directions performed by the controller shown in FIG. 1 . In FIG. 3 , radar data is represented by dots in a graph.

도 1과 도 3을 참고하면, 레이더 센서(11)는 레이더 신호를 전송하여 레이더 데이터(RD)를 생성한다. 레이더 센서(11)에 의해 생성된 레이더 데이터(RD)는 컨트롤러(15)로 전송된다. Referring to FIGS. 1 and 3 , the radar sensor 11 generates radar data RD by transmitting a radar signal. Radar data RD generated by the radar sensor 11 is transmitted to the controller 15 .

도 3에서 도시된 레이더 데이터(RD)에서 화살표가 표시된 점들은 움직이는 객체들(31, 33, 및 35)을 의미한다. 레이더 데이터(RD)에서 점들은 레이더 센서(11)에서 전송된 레이더 신호에 의해 반사된 객체를 의미한다. 상기 점들은 움직이는 객체, 또는 움직이지 않은 객체일 수 있다. 상기 움직이는 객체들(31, 33, 및 35)은 점들에 화살표가 표시된다. 예컨대, 도 3에서 3개의 화살표들이 표시된 점들이 있다. 3개의 화살표들이 표시된 점들은 움직이는 객체들(31, 33, 및 35)을 의미한다. 도 3에서 움직이는 객체들(31, 33, 및 35)은 도 2에 도시된 영상 프레임들(FR1과 FR2)에서 객체들(21, 23, 및 25)과 서로 대응된다. 도 3에서 화살표들의 크기는 모두 비슷하게 도시되었지만, 화살표들의 크기는 다를 수 있다. 도플러 속도들(DV1, DV2, 및 DV3)과 화살표들의 크기는 서로 비례한다. 즉, 도플러 속도들(DV1, DV2, 및 DV3)이 클수록 화살표들의 크기도 크다. Points indicated by arrows in the radar data RD shown in FIG. 3 mean moving objects 31, 33, and 35. Dots in the radar data RD mean objects reflected by a radar signal transmitted from the radar sensor 11 . The points may be moving objects or non-moving objects. The moving objects 31, 33, and 35 are marked with arrows at points. For example, in FIG. 3 there are points indicated by three arrows. Points marked with three arrows mean moving objects 31 , 33 , and 35 . The moving objects 31 , 33 , and 35 in FIG. 3 correspond to the objects 21 , 23 , and 25 in the image frames FR1 and FR2 shown in FIG. 2 . In FIG. 3 , the arrows are all shown in the same size, but the arrows may have different sizes. The Doppler velocities DV1, DV2, and DV3 and the size of the arrows are proportional to each other. That is, the larger the Doppler velocities DV1, DV2, and DV3, the larger the size of the arrows.

컨트롤러(15)는 3개의 화살표들을 통해 움직이는 객체들(31, 33, 및 35)의 도플러 속도들(DV1, DV2, 및 DV3)과 방향들을 추출할 수 있다. 예컨대, 컨트롤러(15)는 화살표가 표시된 움직이는 객체(31)의 도플러 속도(DV1)와 방향을 추출할 수 있다. 상기 방향은 y축을 기준으로 90도이다. 유사하게, 컨트롤러(15)는 화살표가 표시된 움직이는 객(33)체의 도플러 속도(DV2)와 방향을 추출할 수 있다. 상기 방향은 y축을 기준으로 40도에서 60도 사이이다. The controller 15 may extract Doppler velocities DV1 , DV2 , and DV3 and directions of the moving objects 31 , 33 , and 35 through three arrows. For example, the controller 15 may extract the Doppler velocity DV1 and direction of the moving object 31 indicated by the arrow. The direction is 90 degrees relative to the y-axis. Similarly, the controller 15 may extract the Doppler velocity (DV2) and direction of the moving object 33 indicated by the arrow. The direction is between 40 degrees and 60 degrees relative to the y-axis.

도 1 내지 도 3을 참고하면, 컨트롤러(15)는 계산된 대표 모션 벡터들(SMV1, SMV2, 및 SMV3)의 크기들과, 도플러 속도들(DV1, DV2, 및 DV3)을 비교한다. 컨트롤러(15)는 대표 모션 벡터들(SMV1, SMV2, 및 SMV3)의 크기들을 큰 순서대로 정렬하고, 도플러 속도들(DV1, DV2, 및 DV3)도 큰 순서대로 정렬한다. 컨트롤러(15)는 정렬된 대표 모션 벡터들(SMV1, SMV2, 및 SMV3)과, 정렬된 도플러 속도들(DV1, DV2, 및 DV3)을 서로 매칭한다. 예컨대, 대표 모션 벡터(SMV1)는 도플러 속도(DV1)와 매칭될 수 있다. 이때, 대표 모션 벡터들(SMV1, SMV2, 및 SMV3) 중 대표 모션 벡터(SMV1)가 가장 크고, 도플러 속도들(DV1, DV2, 및 DV3) 중 도플러 속도(DV1)가 가장 크다. 대표 모션 벡터(SMV2)는 도플러 속도(DV2)와 매칭될 수 있고, 대표 모션 벡터(SMV3)는 도플러 속도(DV3)와 매칭될 수 있다. 대표 모션 벡터들(SMV1, SMV2, 및 SMV3) 중 대표 모션 벡터(SMV2)가 그 다음으로 크고, 도플러 속도들(DV1, DV2, 및 DV3) 중 도플러 속도(DV2)가 그 다음으로 크다. Referring to FIGS. 1 to 3 , the controller 15 compares calculated amplitudes of representative motion vectors SMV1 , SMV2 , and SMV3 with Doppler velocities DV1 , DV2 , and DV3 . The controller 15 sorts the amplitudes of the representative motion vectors SMV1, SMV2, and SMV3 in ascending order, and also sorts the Doppler velocities DV1, DV2, and DV3 in ascending order. The controller 15 matches the aligned representative motion vectors SMV1 , SMV2 , and SMV3 and the aligned Doppler velocities DV1 , DV2 , and DV3 to each other. For example, the representative motion vector SMV1 may be matched with the Doppler velocity DV1. At this time, the representative motion vector SMV1 is the largest among the representative motion vectors SMV1, SMV2, and SMV3, and the Doppler velocity DV1 is the largest among the Doppler velocities DV1, DV2, and DV3. The representative motion vector SMV2 may be matched with the Doppler velocity DV2, and the representative motion vector SMV3 may be matched with the Doppler velocity DV3. Among the representative motion vectors SMV1 , SMV2 , and SMV3 , the representative motion vector SMV2 is the next largest, and among the Doppler velocities DV1 , DV2 , and DV3 , the Doppler velocity DV2 is the next largest.

컨트롤러(15)는 도 2에 복수의 모션 벡터들(MVS1, MVS2, 또는 MVS3)이 도시된 프레임(DFR)과 도 3에 도시된 레이더 데이터(RD)를 오버랩한다. The controller 15 overlaps the frame DFR shown in FIG. 2 with the plurality of motion vectors MVS1 , MVS2 , or MVS3 and the radar data RD shown in FIG. 3 .

컨트롤러(15)는 객체들(21, 23, 및 25)의 대표 모션 벡터들(SMV1, SMV2, 및 SMV3)의 방향들과, 레이더 데이터(RD)에서 인식된 복수의 객체들(31, 33, 및 35)의 방향들을 비교한다. 예컨대, 도 2에 도시된 객체(21)의 대표 모션 벡터(SMV1)는 아래 방향을 향한다. 도 3에 도시된 레이더 데이터(RD)에서 객체(31)의 방향도 아래 방향을 향한다. 객체(31)를 (x, y) 좌표로 표시할 때, 객체(31)는 (39, 45)로 표시될 수 있다. 도 2에 도시된 객체(21)의 대표 모션 벡터(SMV1)과 레이더 데이터(RD)에서 (39, 45)에 위치한 객체(31)의 방향은 같은 방향이므로, 컨트롤러(15)는 도 2에 도시된 객체(21)의 대표 모션 벡터(SMV1)와 레이더 데이터(RD)에서 (39, 45)에 위치한 객체(31)의 방향을 매칭한다. 도 2에 도시된 객체(23)의 대표 모션 벡터(SMV2)는 오른쪽 위쪽 방향을 향한다. 도 3에 도시된 레이더 데이터(RD)에서 (15, 21)에 위치한 객체(33)의 방향도 오른쪽 위쪽 방향을 향한다. 도 2에 도시된 객체(23)의 대표 모션 벡터(SMV2)와 레이더 데이터(RD)에서 (15, 21)에 위치한 객체(33)의 방향은 같은 방향이므로, 컨트롤러(15)는 도 2에 도시된 객체(23)의 대표 모션 벡터(SMV2)와 레이더 데이터(RD)에서 (15, 21)에 위치한 객체(33)의 방향을 매칭한다. 도 2에 도시된 객체(25)의 대표 모션 벡터(SMV3)와 레이더 데이터(RD)에서 (8, -42)에 위치한 객체(35)의 방향은 같은 방향이므로, 컨트롤러(15)는 도 2에 도시된 객체(25)의 대표 모션 벡터(SMV3)와 레이더 데이터(RD)에서 (8, -42)에 위치한 객체(35)의 방향을 매칭한다.The controller 15 controls the directions of the representative motion vectors SMV1, SMV2, and SMV3 of the objects 21, 23, and 25 and the plurality of objects 31, 33, and 35) are compared. For example, the representative motion vector SMV1 of the object 21 shown in FIG. 2 is directed downward. In the radar data RD shown in FIG. 3, the direction of the object 31 is also directed downward. When displaying the object 31 with (x, y) coordinates, the object 31 may be displayed as (39, 45). Since the representative motion vector SMV1 of the object 21 shown in FIG. 2 and the direction of the object 31 located at (39, 45) in the radar data RD are in the same direction, the controller 15 is shown in FIG. The representative motion vector SMV1 of the object 21 and the direction of the object 31 located at (39, 45) in the radar data RD are matched. A representative motion vector SMV2 of the object 23 shown in FIG. 2 is directed in an upper right direction. The direction of the object 33 located at (15, 21) in the radar data RD shown in FIG. 3 is also toward the upper right direction. Since the representative motion vector SMV2 of the object 23 shown in FIG. 2 and the direction of the object 33 located at (15, 21) in the radar data RD are in the same direction, the controller 15 is shown in FIG. The representative motion vector SMV2 of the object 23 and the direction of the object 33 located at (15, 21) in the radar data RD are matched. Since the representative motion vector SMV3 of the object 25 shown in FIG. 2 and the direction of the object 35 located at (8, -42) in the radar data RD are in the same direction, the controller 15 is The representative motion vector SMV3 of the illustrated object 25 and the direction of the object 35 located at (8, -42) in the radar data RD are matched.

컨트롤러(15)는 상기 비교에 따라 영상 프레임들(도 2에서 FR1, 또는 FR2)에서 식별된 복수의 객체들(21, 23, 및 25)과 레이더 데이터(RD)에서 인식된 복수의 객체들(31, 33, 및 35)을 매칭한다. The controller 15 determines the plurality of objects 21, 23, and 25 identified in the image frames (FR1 or FR2 in FIG. 2) and the plurality of objects recognized in the radar data RD according to the comparison. 31, 33, and 35).

구체적으로, 대표 모션 벡터(SMV1)와 도플러 속도(DV1)가 매칭되고, 객체(21)의 대표 모션 벡터(SMV1)와 레이더 데이터(RD)에서 (39, 45)에 위치한 객체(31)의 방향이 매칭될 때, 컨트롤러(15)는 도 2에 도시된 객체(21)와 도 3에 도시된 객체(31)를 매칭한다. 즉, 컨트롤러(15)는 도 2에 도시된 객체(21)와 도 3에 도시된 객체(31)는 같은 객체로 인식한다. 대표 모션 벡터(SMV2)와 도플러 속도(DV2)가 매칭되고, 객체(23)의 대표 모션 벡터(SMV2)와 레이더 데이터(RD)에서 (15, 21)에 위치한 객체(33)의 방향이 매칭될 때, 컨트롤러(15)는 도 2에 도시된 객체(23)와 도 3에 도시된 객체(33)를 매칭한다. 즉, 컨트롤러(15)는 도 2에 도시된 객체(23)와 도 3에 도시된 객체(33)는 같은 객체로 인식한다. 대표 모션 벡터(SMV3)와 도플러 속도(DV3)가 매칭되고, 객체(25)의 대표 모션 벡터(SMV3)와 레이더 데이터(RD)에서 (8, -42)에 위치한 객체(35)의 방향이 매칭될 때, 컨트롤러(15)는 도 2에 도시된 객체(25)와 도 3에 도시된 객체(35)를 매칭한다. 즉, 컨트롤러(15)는 도 2에 도시된 객체(25)와 도 3에 도시된 객체(35)는 같은 객체로 인식한다. Specifically, the representative motion vector SMV1 and the Doppler velocity DV1 are matched, and the representative motion vector SMV1 of the object 21 and the direction of the object 31 located at (39, 45) in the radar data RD When this is matched, the controller 15 matches the object 21 shown in FIG. 2 and the object 31 shown in FIG. That is, the controller 15 recognizes the object 21 shown in FIG. 2 and the object 31 shown in FIG. 3 as the same object. The representative motion vector SMV2 and the Doppler velocity DV2 are matched, and the representative motion vector SMV2 of the object 23 and the direction of the object 33 located at (15, 21) in the radar data RD are matched. At this time, the controller 15 matches the object 23 shown in FIG. 2 and the object 33 shown in FIG. That is, the controller 15 recognizes the object 23 shown in FIG. 2 and the object 33 shown in FIG. 3 as the same object. The representative motion vector (SMV3) and the Doppler velocity (DV3) are matched, and the representative motion vector (SMV3) of the object 25 and the direction of the object 35 located at (8, -42) in the radar data (RD) are matched. When done, the controller 15 matches the object 25 shown in FIG. 2 and the object 35 shown in FIG. That is, the controller 15 recognizes the object 25 shown in FIG. 2 and the object 35 shown in FIG. 3 as the same object.

컨트롤러(15)는 상기 생성된 복수의 모션 벡터들(MVS1~MVS3)을 이용하여 영상 프레임들(FR1과 FR2)에서 식별된 복수의 객체들(예컨대, 21, 23, 및 25) 중 어느 하나 객체(예컨대, 21, 23, 또는 25)의 에너지를 계산한다. 상기 에너지는 다음과 같이 계산된다. The controller 15 uses the generated plurality of motion vectors MVS1 to MVS3 to select any one of the plurality of objects (eg, 21, 23, and 25) identified in the image frames FR1 and FR2. Calculate the energy of (e.g. 21, 23, or 25). The energy is calculated as follows.

컨트롤러(15)는 상기 어느 하나 객체(예컨대, 21)와 대응되는 레이더 데이터(RD)에서 인식된 객체(예컨대, 31)의 도플러 속도를 식별한다. The controller 15 identifies the Doppler speed of the recognized object (eg, 31) in the radar data RD corresponding to any one object (eg, 21).

컨트롤러(15)는 상기 식별된 도플러 속도를 미리 설정된 도플러 속도로 나누어 상기 어느 하나 객체(21)의 움직임 변화율을 계산한다. 상기 미리 설정된 도플러 속도는 임의의 사람들의 일반적인 움직임에 따른 평균 도플러 속도일 수 있다. 상기 어느 하나 객체(21)의 움직임 변화율은 0에서 1 사이의 값을 가진다. The controller 15 divides the identified Doppler speed by a preset Doppler speed to calculate a motion change rate of any one object 21 . The preset Doppler speed may be an average Doppler speed according to a general movement of an arbitrary person. The motion change rate of any one of the objects 21 has a value between 0 and 1.

상기 어느 하나 객체(21)의 움직임 변화율이 상기 에너지로 계산될 수 있다. 즉, 상기 어느 하나 객체(21)의 움직임 변화율은 상기 에너지이다. A motion change rate of any one of the objects 21 may be calculated as the energy. That is, the motion change rate of any one object 21 is the energy.

실시 예에 따라 컨트롤러(15)는 상기 움직임 변화율뿐만 아니라, 크기 적합도를 고려하여 상기 에너지를 계산할 수 있다. 상기 크기 적합도는 아래와 같이 계산된다. According to an embodiment, the controller 15 may calculate the energy in consideration of the size fit as well as the motion change rate. The size fit is calculated as follows.

컨트롤러(15)는 영상 프레임들(FR1, FR2) 중 어느 하나의 영상 프레임(FR1, 또는 F2)에서 상기 어느 하나 객체(예컨대, 21)의 픽셀 값들을 카운트하여 상기 어느 하나 객체(21)의 사이즈를 계산한다. The controller 15 counts pixel values of any one object (eg, 21) in any one of the image frames FR1 and FR2, and determines the size of the one object 21 Calculate

컨트롤러(15)는 상기 어느 하나 객체(21)의 사이즈와 평균 객체 사이즈의 차이 값을 계산한다. 상기 차이 값은 절대값이다. 상기 평균 객체 사이즈는 일반적인 성인의 사이즈를 의미한다. 만약, 상기 어느 하나 객체(21)가 사람이라면, 상기 어느 하나 객체(21)의 사이즈와 상기 평균 객체 사이즈의 차이 값은 작은 값을 가질 것이다. 반면, 상기 어느 하나 객체(21)가 사람이 아니라 비둘기, 고양이와 같은 동물이라면, 상기 어느 하나 객체(21)의 사이즈와 상기 평균 객체 사이즈의 차이 값은 큰 값을 가질 것이다. The controller 15 calculates a difference between the size of any one object 21 and the average object size. The difference value is an absolute value. The average object size means the size of a typical adult. If any one of the objects 21 is a human, the difference between the size of the one object 21 and the average object size will have a small value. On the other hand, if the one object 21 is not a human but an animal such as a pigeon or cat, the difference between the size of the one object 21 and the average object size will have a large value.

컨트롤러(15)는 상기 어느 하나 객체(21)의 사이즈와 상기 평균 객체 사이즈의 차이 값을 상기 평균 객체 사이즈로 나누어 상기 어느 하나 객체(21)의 크기 적합도를 계산한다. 상기 어느 하나 객체(21)의 크기 적합도는 0에서 1 사이의 값을 가진다. The controller 15 divides the difference between the size of the one object 21 and the average object size by the average object size to calculate the size conformity of the one object 21 . The size suitability of any one of the objects 21 has a value between 0 and 1.

컨트롤러(15)는 상기 어느 하나 객체(21)의 움직임 변화율과 상기 어느 하나 객체(21)의 크기 적합도의 합을 상기 어느 하나 객체(21)의 에너지로 계산한다. 이때, 상기 에너지는 아래의 수학식으로 표현될 수 있다. The controller 15 calculates the sum of the motion change rate of the one object 21 and the size conformity of the one object 21 as the energy of the one object 21 . At this time, the energy may be expressed by the following equation.

[수학식 1][Equation 1]

EN = α * MCR + β * IOSP EN = α * MCR + β * IOSP

상기 EN은 에너지를, 상기 α와 상기 β는 계수를, 상기 MCR은 움직임 변화율을, 상기 IOSP는 크기 적합도를 나타낸다. 에너지(EN)는 0에서 1 사이의 값을 가지며, 계수(α, β), 움직임 변화율(MCR), 또는 크기 적합도(IOSP)는 0에서 1 사이의 값을 가진다. 계수(α, β)는 움직임 변화율(MCR)과 크기 적합도(IOSP)의 중요성에 따라 임의적으로 결정될 수 있다. The EN represents energy, the α and β represent coefficients, the MCR represents a motion change rate, and the IOSP represents a size fit. The energy (EN) has a value between 0 and 1, and the coefficients (α, β), motion rate of change (MCR), or size fit (IOSP) have a value between 0 and 1. The coefficients α and β may be arbitrarily determined according to the importance of motion change rate (MCR) and size fit (IOSP).

실시 예에 따라, 컨트롤러(15)는 상기 어느 하나 객체(21)의 사이즈 비율을 고려하여 에너지를 계산할 수 있다. 상기 사이즈 비율을 계산하는 방법은 아래와 같다. Depending on the embodiment, the controller 15 may calculate energy by considering the size ratio of any one of the objects 21 . A method for calculating the size ratio is as follows.

컨트롤러(15)는 상기 계산된 객체(21)의 사이즈를 카메라 모듈(13)의 해상도로 나누어 상기 어느 하나 객체(21)의 사이즈 비율을 계산한다. 상기 어느 하나 객체(21)의 사이즈 비율을 계산하는 이유는 카메라 모듈(13)의 해상도에 따라 실제 객체(21)의 사이즈가 왜곡될 수 있기 때문이다. 예컨대, 카메라 모듈(13)의 해상도가 낮을 때, 실제 객체(21)의 크기보다 객체의 사이즈가 크게 계산될 수 있다. 상기 계산된 객체(21)의 사이즈 비율의 값은 0에서 1 사이의 값을 가진다. The controller 15 divides the calculated size of the object 21 by the resolution of the camera module 13 to calculate the size ratio of any one of the objects 21 . The reason why the size ratio of any one of the objects 21 is calculated is that the size of the real object 21 may be distorted according to the resolution of the camera module 13 . For example, when the resolution of the camera module 13 is low, the size of the object may be calculated to be larger than the size of the actual object 21 . The value of the calculated size ratio of the object 21 has a value between 0 and 1.

컨트롤러(15)는 상기 어느 하나 객체(21)의 움직임 변화율, 상기 어느 하나 객체(21)의 크기 적합도, 및 상기 어느 하나 객체(21)의 사이즈 비율의 합을 상기 어느 하나 객체(21)의 에너지로 계산한다. 이때, 상기 에너지는 아래의 수학식으로 표현될 수 있다. The controller 15 calculates the sum of the motion change rate of the one object 21, the size conformity of the one object 21, and the size ratio of the one object 21 as the energy of the one object 21. Calculate with At this time, the energy may be expressed by the following equation.

[수학식 2][Equation 2]

EN = α * MCR + β * IOSP+γ*OSREN = α * MCR + β * IOSP+γ*OSR

상기 EN은 에너지를, 상기 α, 상기 β, 및 상기 γ는 계수를, 상기 MCR은 움직임 변화율을, 상기 IOSP는 크기 적합도를, 상기 OSR은 사이즈 비율을 나타낸다. 에너지(EN)는 0에서 1 사이의 값을 가지며, 계수(α, β, γ), 움직임 변화율(MCR), 크기 적합도(IOSP), 또는 사이즈 비율(OSR)은 0에서 1 사이의 값을 가진다. The EN represents energy, the α, β, and γ represent coefficients, the MCR represents a motion change rate, the IOSP represents a size fit, and the OSR represents a size ratio. The energy (EN) has a value between 0 and 1, and the coefficients (α, β, γ), motion rate of change (MCR), size fit (IOSP), or size ratio (OSR) have a value between 0 and 1. .

상기 계산된 에너지가 상기 임의의 문턱값보다 클 때, 컨트롤러(15)는 상기 어느 하나 객체(21)는 사람과 같은 관심 있는 객체라고 판단한다. 상기 계산된 에너지가 상기 임의의 문턱값보다 클 때, 컨트롤러(15)는 메시지를 서버(20)로 전송한다. 상기 메시지는 관리자(23)에게 주의를 가지고 디스플레이(41)에 표시된 영상 프레임들(FR1, FR2)을 보라는 메시지이다. 상기 메시지는 서버(20)로 전송되며, 디스플레이(41)에 표시된다. 따라서 관리자(43)는 주의를 가지고 디스플레이(41)에 표시된 영상 프레임들(FR1, FR2)에 포함된 관심 있는 객체(예컨대, 21)에 대해 보다 효율적으로 감시를 할 수 있다. When the calculated energy is greater than the arbitrary threshold, the controller 15 determines that any one of the objects 21 is an object of interest, such as a person. When the calculated energy is greater than the arbitrary threshold, the controller 15 sends a message to the server 20. This message is a message to the manager 23 to pay attention to the image frames FR1 and FR2 displayed on the display 41 . The message is transmitted to the server 20 and displayed on the display 41 . Therefore, the manager 43 can more efficiently monitor the object of interest (eg, 21) included in the image frames FR1 and FR2 displayed on the display 41 with attention.

상기 계산된 에너지가 상기 임의의 문턱값보다 작을 때, 컨트롤러(15)는 사람과 같은 관심 있는 객체가 아니라고 판단한다. 상기 사람과 같은 관심 있는 객체가 아닐 때, 상기 객체는 새, 또는 고양이와 같은 동물일 수 있다. 상기 계산된 에너지가 상기 임의의 문턱값보다 작을 때, 컨트롤러(15)는 메시지를 서버(20)로 전송하지 않는다. When the calculated energy is less than the arbitrary threshold, the controller 15 determines that the object is not of interest, such as a person. When not the object of interest, such as the person, the object may be a bird or an animal such as a cat. When the calculated energy is less than the arbitrary threshold, the controller 15 does not send a message to the server 20.

도 4는 도 1에 도시된 컨트롤러의 동작을 설명하기 위한 흐름도를 나타낸다. Figure 4 shows a flow chart for explaining the operation of the controller shown in Figure 1;

도 1 내지 도 4를 참고하면, 컨트롤러(15)는 카메라 모듈(13)로부터 서로 다른 시간에서 촬영된 영상 프레임들(VFS)을 수신한다(S10).1 to 4 , the controller 15 receives image frames VFS captured at different times from the camera module 13 (S10).

컨트롤러(15)는 영상 프레임들(FR1, FR2)에서 복수의 모션 벡터들(MVS1, MVS2, 및 MVS3)을 생성한다(S20). The controller 15 generates a plurality of motion vectors MVS1, MVS2, and MVS3 from the image frames FR1 and FR2 (S20).

컨트롤러(15)는 상기 생성된 복수의 모션 벡터들(MVS1, MVS2, 및 MVS3)을 이용하여 상기 영상 프레임들(FR1, FR2)에서 복수의 객체들(21, 23, 및 25)을 식별한다(S30). The controller 15 identifies a plurality of objects 21, 23, and 25 in the image frames FR1 and FR2 using the generated plurality of motion vectors MVS1, MVS2, and MVS3 ( S30).

컨트롤러(15)는 상기 식별된 복수의 객체들(21, 23, 및 25)을 이용하여 복수의 모션 벡터들(MVS1, MVS2, 및 MVS3) 중에서 대표 모션 벡터들(예컨대, SMV1, SMV2, 및 SMV3)을 선택한다(S40). The controller 15 uses the identified plurality of objects 21, 23, and 25 to generate representative motion vectors (eg, SMV1, SMV2, and SMV3) among a plurality of motion vectors MVS1, MVS2, and MVS3. ) is selected (S40).

컨트롤러(15)는 상기 선택된 대표 모션 벡터들(SMV1, SMV2, 및 SMV3)의 크기들과 방향들을 계산한다(S50). The controller 15 calculates magnitudes and directions of the selected representative motion vectors SMV1, SMV2, and SMV3 (S50).

컨트롤러(15)는 레이더 센서(11)로부터 생성된 레이더 데이터(RD)에서 인식된 상기 복수의 객체들(31, 33, 및 35)의 도플러 속도들(DV1, DV2, 및 DV3)과 방향들을 추출한다(S60). The controller 15 extracts Doppler velocities DV1, DV2, and DV3 and directions of the plurality of objects 31, 33, and 35 recognized from the radar data RD generated from the radar sensor 11. Do (S60).

컨트롤러(15)는 상기 계산된 대표 모션 벡터들(SMV1, SMV2, 및 SMV3)의 크기들과 상기 도플러 속도들(DV1, DV2, 및 DV3)을 비교하고, 상기 계산된 대표 모션 벡터들(SMV1, SMV2, 및 SMV3)의 방향들과 상기 레이더 데이터(RD)에서 인식된 상기 복수의 객체들(31, 33, 및 35)의 방향들을 비교한다(S70). The controller 15 compares the magnitudes of the calculated representative motion vectors SMV1, SMV2, and SMV3 with the Doppler velocities DV1, DV2, and DV3, and compares the calculated representative motion vectors SMV1, Directions of SMV2 and SMV3) and directions of the plurality of objects 31, 33, and 35 recognized from the radar data RD are compared (S70).

컨트롤러(15)는 상기 비교에 따라 영상 프레임들(FR1, FR2)에서 식별된 복수의 객체들(21, 23, 및 25)과 레이더 데이터(RD)에서 인식된 복수의 객체들(31, 33, 및 35)을 매칭한다(S80). The controller 15 controls the plurality of objects 21, 23, and 25 identified from the image frames FR1 and FR2 according to the comparison and the plurality of objects 31, 33, and 25 recognized from the radar data RD. and 35) are matched (S80).

도 5는 도 1에 도시된 컨트롤러에 의해 수행되는 레이더 센서의 좌표와 카메라의 좌표의 관계를 도출하기 위한 신경망의 다이어그램을 나타낸다. FIG. 5 is a diagram of a neural network for deriving a relationship between coordinates of a radar sensor and coordinates of a camera performed by the controller shown in FIG. 1 .

도 1 내지 도3, 및 도 5를 참고하면, 카메라 모듈(13)의 좌표는 (u, v)로 표현될 수 있다. 레이더 센서(11)의 좌표는 (x, y)로 표현될 수 있다. 카메라 모듈(13)의 좌표계와 레이더 센서(11)의 좌표계는 서로 다르다. 서로 다른 카메라 모듈(13)의 좌표계와 레이더 센서(11)의 좌표계의 정합을 위해 신경망이 이용된다. 신경망을 학습하기 위해 훈련 데이터로 카메라 모듈(13)의 좌표들과 레이더 센서(11)의 좌표들이 활용된다. 상기 신경망은 입력 레이어, 히든 레이어, 및 출력 레이어로 구현된다. 신경망은 카메라 모듈(13)의 u와 v를 각각 출력한다. 신경망의 학습을 통해 카메라 모듈(13)의 좌표와 레이더 센서(11)의 좌표 사이의 관계가 도출될 수 있다. 히든 레이어의 각 노드는 가우시안 함수로 구현될 수 있다. Referring to FIGS. 1 to 3 and 5 , coordinates of the camera module 13 may be expressed as (u, v). The coordinates of the radar sensor 11 may be expressed as (x, y). A coordinate system of the camera module 13 and a coordinate system of the radar sensor 11 are different from each other. A neural network is used to match the coordinate system of the different camera modules 13 and the coordinate system of the radar sensor 11 . Coordinates of the camera module 13 and coordinates of the radar sensor 11 are used as training data to learn the neural network. The neural network is implemented with an input layer, a hidden layer, and an output layer. The neural network outputs u and v of the camera module 13, respectively. A relationship between the coordinates of the camera module 13 and the coordinates of the radar sensor 11 may be derived through learning of the neural network. Each node of the hidden layer may be implemented as a Gaussian function.

도 6은 도 1에 도시된 컨트롤러의 다른 실시 예에 따른 동작을 설명하기 위한 흐름도를 나타낸다. FIG. 6 is a flowchart for explaining an operation of the controller shown in FIG. 1 according to another embodiment.

도 1 내지 도 3, 도 5, 및 도 6을 참고하면, 컨트롤러(15)는 카메라 모듈(13)로부터 서로 다른 시간에서 촬영된 영상 프레임들(VFS)을 수신한다(S100). Referring to FIGS. 1 to 3, 5, and 6 , the controller 15 receives image frames VFS captured at different times from the camera module 13 (S100).

컨트롤러(15)는 영상 프레임들(FR1, FR2)을 서로 비교하여 영상 프레임들(FR1, FR2)에서 복수의 객체들(21, 23, 및 25)을 식별한다(S110). The controller 15 identifies a plurality of objects 21, 23, and 25 in the image frames FR1 and FR2 by comparing the image frames FR1 and FR2 with each other (S110).

컨트롤러(15)는 레이더 센서(11)의 좌표를 신경망에 적용하여 상기 레이더 센서(11)의 좌표와 상기 카메라 모듈(13)의 좌표 사이의 관계를 도출한다(S120). The controller 15 derives a relationship between the coordinates of the radar sensor 11 and the coordinates of the camera module 13 by applying the coordinates of the radar sensor 11 to the neural network (S120).

컨트롤러(15)는 상기 도출된 관계를 이용하여 영상 프레임들(FR1, FR2)에서 식별된 복수의 객체들(21, 23, 및 25)과 레이더 센서(11)로부터 생성된 레이더 데이터에서 움직이는 객체들(31, 33, 및 35)을 매칭한다(S130). The controller 15 uses the derived relationship to move the plurality of objects 21, 23, and 25 identified in the image frames FR1 and FR2 and the radar data generated from the radar sensor 11. (31, 33, and 35) are matched (S130).

이처럼 본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 수정예 또는 변형예들은 본 발명의 청구범위에 속한다고 하여야 할 것이다.As such, the present invention is not limited to the described embodiments, and it is obvious to those skilled in the art that various modifications and variations can be made without departing from the spirit and scope of the present invention. Accordingly, it should be said that such modifications or variations fall within the scope of the claims of the present invention.

100: 영상 감시 시스템;
10: 카메라;
11: 레이더 센서;
13: 카메라 모듈;
15: 컨트롤러;
20: 서버;
41: 디스플레이
100: video surveillance system;
10: camera;
11: radar sensor;
13: camera module;
15: controller;
20: server;
41: display

Claims (5)

레이더 센서, 카메라 모듈, 및 컨트롤러를 포함하는 영상 감시 시스템의 레이더와 카메라 융합 방법에 있어서,
상기 컨트롤러는 상기 카메라 모듈로부터 서로 다른 시간에서 촬영된 영상 프레임들을 수신하는 단계;
상기 컨트롤러는 상기 영상 프레임들을 서로 비교하여 상기 영상 프레임들에서 복수의 객체들을 식별하는 단계;
상기 컨트롤러는 상기 레이더 센서의 좌표를 신경망에 적용하여 상기 레이더 센서의 좌표와 상기 카메라 모듈의 좌표 사이의 관계를 도출하는 단계;
상기 컨트롤러는 상기 도출된 관계를 이용하여 상기 영상 프레임들에서 식별된 복수의 객체들과 상기 레이더 센서로부터 생성된 레이더 데이터에서 움직이는 객체들을 매칭하는 단계;
상기 컨트롤러는 상기 식별된 복수의 객체들 중 어느 하나 객체의 에너지를 계산하는 단계;
상기 컨트롤러는 상기 계산된 에너지가 임의의 문턱값보다 큰지 결정하는 단계; 및
상기 계산된 에너지가 상기 임의의 문턱값보다 클 때, 상기 컨트롤러는 관리자에게 주의를 가지고 디스플레이에 표시된 영상 프레임들을 보라는 메시지를 서버로 전송하는 단계를 포함하며,
상기 컨트롤러는 상기 도출된 관계를 이용하여 상기 영상 프레임들에서 식별된 복수의 객체들과 상기 레이더 센서로부터 생성된 레이더 데이터에서 움직이는 객체들을 매칭하는 단계는,
상기 컨트롤러는 상기 영상 프레임들에서 복수의 모션 벡터들을 생성하는 단계;
상기 컨트롤러는 상기 생성된 복수의 모션 벡터들을 이용하여 상기 영상 프레임들에서 상기 복수의 객체들을 식별하는 단계;
상기 컨트롤러는 상기 식별된 복수의 객체들을 이용하여 상기 복수의 모션 벡터들 중에서 가장 크기가 큰 모션 벡터들 각각을 대표 모션 벡터들로 선택하는 단계;
상기 컨트롤러는 상기 선택된 대표 모션 벡터들의 크기들과 방향들을 계산하는 단계;
상기 컨트롤러는 상기 레이더 센서로부터 생성된 레이더 데이터에서 인식된 상기 복수의 객체들의 도플러 속도들과 방향들을 추출하는 단계;
상기 컨트롤러는 상기 계산된 대표 모션 벡터들의 크기들을 큰 순서대로 정렬하고, 상기 도플러 속도들을 큰 순서대로 정렬하는 단계;
상기 컨트롤러는 상기 정렬된 대표 모션 벡터들과 상기 정렬된 도플러 속도들을 상기 정렬된 순서에 따라 서로 매칭하는 단계;
상기 컨트롤러는 상기 계산된 대표 모션 벡터들의 크기들과 상기 도플러 속도들을 비교하고, 상기 계산된 대표 모션 벡터들의 방향들과 상기 레이더 데이터에서 인식된 상기 복수의 객체들의 방향들을 비교하는 단계; 및
상기 컨트롤러는 상기 비교에 따라 영상 프레임들에서 상기 식별된 복수의 객체들과 상기 레이더 데이터에서 인식된 상기 복수의 객체들을 매칭하는 단계를 포함하는 레이더와 카메라 융합 방법.
In the radar and camera fusion method of a video surveillance system including a radar sensor, a camera module, and a controller,
receiving, by the controller, image frames captured at different times from the camera module;
identifying, by the controller, a plurality of objects in the image frames by comparing the image frames with each other;
deriving, by the controller, a relationship between the coordinates of the radar sensor and the coordinates of the camera module by applying the coordinates of the radar sensor to a neural network;
matching, by the controller, moving objects from radar data generated from the radar sensor with a plurality of objects identified from the image frames using the derived relationship;
calculating, by the controller, energy of one object among the identified plurality of objects;
determining, by the controller, if the calculated energy is greater than a certain threshold; and
When the calculated energy is greater than the arbitrary threshold value, the controller sends a message to the server to pay attention to the manager and view the image frames displayed on the display,
The controller matching the moving objects in the radar data generated from the radar sensor with the plurality of objects identified in the image frames using the derived relationship,
generating, by the controller, a plurality of motion vectors from the image frames;
identifying, by the controller, the plurality of objects in the image frames using the generated plurality of motion vectors;
selecting, by the controller, motion vectors having the largest magnitude among the plurality of motion vectors as representative motion vectors;
calculating, by the controller, magnitudes and directions of the selected representative motion vectors;
extracting, by the controller, Doppler velocities and directions of the plurality of objects recognized from radar data generated from the radar sensor;
arranging, by the controller, magnitudes of the calculated representative motion vectors in ascending order, and arranging the Doppler velocities in ascending order;
matching, by the controller, the sorted representative motion vectors and the sorted Doppler velocities to each other according to the sorted order;
comparing, by the controller, magnitudes of the calculated representative motion vectors with the Doppler velocities, and comparing directions of the calculated representative motion vectors with directions of the plurality of objects recognized from the radar data; and
and matching, by the controller, the plurality of objects identified from the image frames and the plurality of objects recognized from the radar data according to the comparison.
삭제delete 제1항에 있어서, 상기 컨트롤러는 상기 식별된 복수의 객체들 중 어느 하나객체의 에너지를 계산하는 단계는,
상기 컨트롤러는 상기 어느 하나 객체와 대응되는 상기 레이더 데이터에서 인식된 객체의 도플러 속도를 식별하는 단계; 및
상기 컨트롤러는 상기 식별된 도플러 속도를 미리 설정된 도플러 속도로 나누어 상기 어느 하나 객체의 움직임 변화율을 계산하는 단계를 포함하는 레이더와 카메라 융합 방법
The method of claim 1, wherein the step of calculating, by the controller, the energy of any one of the identified plurality of objects,
identifying, by the controller, a Doppler velocity of an object recognized from the radar data corresponding to the one object; and
The controller calculates a motion change rate of the one object by dividing the identified Doppler speed by a preset Doppler speed.
제3항에 있어서, 상기 컨트롤러는 상기 식별된 복수의 객체들 중 어느 하나 객체의 에너지를 계산하는 단계는,
상기 컨트롤러는 상기 영상 프레임들 중 어느 하나의 영상 프레임에서 상기 어느 하나 객체의 픽셀 값들을 카운트하여 상기 어느 하나 객체의 사이즈를 계산하는 단계;
상기 컨트롤러는 상기 어느 하나 객체의 사이즈와 평균 객체 사이즈의 차이 값을 계산하는 단계;
상기 컨트롤러는 상기 어느 하나 객체의 사이즈와 상기 평균 객체 사이즈의 차이 값을 상기 평균 객체 사이즈로 나누어 상기 어느 하나 객체의 크기 적합도를 계산하는 단계; 및
상기 컨트롤러는 상기 어느 하나 객체의 움직임 변화율과 상기 어느 하나 객체의 크기 적합도의 합을 상기 어느 하나 객체의 에너지로 계산하는 단계를 포함하는 레이더와 카메라 융합 방법.
The method of claim 3, wherein the step of calculating, by the controller, the energy of any one object among the identified plurality of objects,
calculating, by the controller, a size of the one object by counting pixel values of the one object in one of the image frames;
calculating, by the controller, a difference between the size of any one object and the average object size;
calculating, by the controller, size conformity of the one object by dividing a difference between the size of the one object and the average object size by the average object size; and
Wherein the controller calculates, by the controller, a sum of a motion change rate of the one object and a size conformity of the one object as energy of the one object.
카메라를 포함하며,
상기 카메라는,
레이더 신호를 전송하여 레이더 데이터를 생성하는 레이더 센서;
서로 다른 시간에서 촬영하여 영상 프레임들을 생성하는 카메라 모듈; 및
상기 영상 프레임들을 수신하고, 상기 영상 프레임들을 서로 비교하여 상기 영상 프레임들에서 복수의 객체들을 식별하며, 상기 레이더 센서의 좌표를 신경망에 적용하여 상기 레이더 센서의 좌표와 상기 카메라 모듈의 좌표 사이의 관계를 도출하며, 상기 도출된 관계를 이용하여 상기 영상 프레임들에서 식별된 복수의 객체들과 상기 레이더 센서로부터 생성된 레이더 데이터에서 움직이는 객체들을 매칭하며, 상기 식별된 복수의 객체들 중 어느 하나 객체의 에너지를 계산하며, 상기 계산된 에너지가 임의의 문턱값보다 큰지 결정하며, 상기 계산된 에너지가 상기 임의의 문턱값보다 클 때, 관리자에게 주의를 가지고 디스플레이에 표시된 영상 프레임들을 보라는 메시지를 서버로 전송하는 컨트롤러를 포함하며,
상기 컨트롤러는 상기 영상 프레임들에서 식별된 복수의 객체들과 상기 레이더 센서로부터 생성된 레이더 데이터에서 움직이는 객체들을 매칭하기 위해 상기 영상 프레임들에서 복수의 모션 벡터들을 생성하며, 상기 생성된 복수의 모션 벡터들을 이용하여 상기 영상 프레임들에서 상기 복수의 객체들을 식별하며, 상기 식별된 복수의 객체들을 이용하여 상기 복수의 모션 벡터들 중에서 가장 크기가 큰 모션 벡터들 각각을 대표 모션 벡터들로 선택하며, 상기 선택된 대표 모션 벡터들의 크기들과 방향들을 계산하며, 상기 레이더 센서로부터 생성된 레이더 데이터에서 인식된 상기 복수의 객체들의 도플러 속도들과 방향들을 추출하며, 상기 계산된 대표 모션 벡터들의 크기들을 큰 순서대로 정렬하고, 상기 도플러 속도들을 큰 순서대로 정렬하며, 상기 정렬된 대표 모션 벡터들과 상기 정렬된 도플러 속도들을 상기 정렬된 순서에 따라 서로 매칭하며, 상기 계산된 대표 모션 벡터들의 크기들과 상기 도플러 속도들을 비교하고, 상기 계산된 대표 모션 벡터들의 방향들과 상기 레이더 데이터에서 인식된 상기 복수의 객체들의 방향들을 비교하며, 상기 컨트롤러는 상기 비교에 따라 영상 프레임들에서 상기 식별된 복수의 객체들과 상기 레이더 데이터에서 인식된 상기 복수의 객체들을 매칭하는 레이더와 카메라 융합 시스템.
includes a camera;
the camera,
a radar sensor that generates radar data by transmitting a radar signal;
a camera module generating image frames by capturing images at different times; and
The image frames are received, the image frames are compared with each other to identify a plurality of objects in the image frames, and the coordinates of the radar sensor are applied to a neural network to determine the relationship between the coordinates of the radar sensor and the coordinates of the camera module. Derives, and uses the derived relationship to match a plurality of objects identified in the image frames with moving objects in radar data generated from the radar sensor, and of any one of the identified plurality of objects. Calculate the energy, determine whether the calculated energy is greater than a certain threshold value, and when the calculated energy is greater than the certain threshold value, send a message to the server to pay attention to the manager and look at the image frames displayed on the display. Including a controller that transmits,
The controller generates a plurality of motion vectors in the image frames to match moving objects in radar data generated from the radar sensor with a plurality of objects identified in the image frames, and the generated plurality of motion vectors The plurality of objects are identified in the image frames using , and each of the motion vectors having the largest magnitude among the plurality of motion vectors is selected as representative motion vectors using the identified plurality of objects, Magnitudes and directions of the selected representative motion vectors are calculated, Doppler velocities and directions of the plurality of objects recognized from the radar data generated from the radar sensor are extracted, and magnitudes of the calculated representative motion vectors are ranked in order of increasing order. sort, sort the Doppler velocities in increasing order, match the sorted representative motion vectors and the sorted Doppler velocities with each other according to the sorted order, and match the magnitudes of the calculated representative motion vectors and the Doppler velocity and compares directions of the calculated representative motion vectors with directions of the plurality of objects recognized from the radar data, and the controller compares the identified plurality of objects in image frames according to the comparison with the directions of the plurality of objects. A radar and camera fusion system that matches the plurality of objects recognized in radar data.
KR1020220051320A 2021-04-26 2022-04-26 Fusion method and system using radar and camera KR102502300B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210053684 2021-04-26
KR1020210053684 2021-04-26

Publications (2)

Publication Number Publication Date
KR20220147046A KR20220147046A (en) 2022-11-02
KR102502300B1 true KR102502300B1 (en) 2023-02-23

Family

ID=84043249

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220051320A KR102502300B1 (en) 2021-04-26 2022-04-26 Fusion method and system using radar and camera

Country Status (1)

Country Link
KR (1) KR102502300B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101291616B1 (en) * 2011-12-29 2013-08-01 동명대학교산학협력단 Multi image monitering system using the weight value of image variation rates
KR101647370B1 (en) * 2014-11-26 2016-08-10 휴앤에스(주) road traffic information management system for g using camera and radar
KR101854461B1 (en) 2016-10-12 2018-05-03 전자부품연구원 Camera system and method for recognizing object thereof

Also Published As

Publication number Publication date
KR20220147046A (en) 2022-11-02

Similar Documents

Publication Publication Date Title
US9208675B2 (en) Loitering detection in a video surveillance system
CN102074095B (en) System and method for monitoring infant behaviors
US7110569B2 (en) Video based detection of fall-down and other events
Snidaro et al. Video security for ambient intelligence
CN109583315B (en) Multichannel rapid human body posture recognition method for intelligent video monitoring
US10540552B2 (en) Device and method surveilling abnormal behavior using 3D image information
US20070098222A1 (en) Scene analysis
US8761436B2 (en) Device for identifying and/or classifying movement patterns in an image sequence of a surveillance scene, method and computer program
CN104813339A (en) Methods, devices and systems for detecting objects in a video
KR102478335B1 (en) Image Analysis Method and Server Apparatus for Per-channel Optimization of Object Detection
KR20080085837A (en) Object density estimation in vedio
KR102247359B1 (en) Image analysis system and method for remote monitoring
US20180341814A1 (en) Multiple robots assisted surveillance system
JPWO2008035411A1 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
US20220351515A1 (en) Method for perceiving event tagging-based situation and system for same
Coşkun et al. People counting system by using kinect sensor
Hermina et al. A Novel Approach to Detect Social Distancing Among People in College Campus
Belbachir et al. Event-driven feature analysis in a 4D spatiotemporal representation for ambient assisted living
KR102580434B1 (en) Dangerous situation detection device and dangerous situation detection method
Patino et al. Abnormal behaviour detection on queue analysis from stereo cameras
KR102502300B1 (en) Fusion method and system using radar and camera
Ko et al. Rectified trajectory analysis based abnormal loitering detection for video surveillance
Lin et al. A real-time multiple-vehicle detection and tracking system with prior occlusion detection and resolution, and prior queue detection and resolution
US20200293020A1 (en) Surveillance system with intelligent robotic surveillance device
Nguyen et al. Deep learning-based multiple objects detection and tracking system for socially aware mobile robot navigation framework

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)