KR20110077465A - The apparatus and method of moving object tracking with shadow removal moudule in camera position and time - Google Patents

The apparatus and method of moving object tracking with shadow removal moudule in camera position and time Download PDF

Info

Publication number
KR20110077465A
KR20110077465A KR1020090134057A KR20090134057A KR20110077465A KR 20110077465 A KR20110077465 A KR 20110077465A KR 1020090134057 A KR1020090134057 A KR 1020090134057A KR 20090134057 A KR20090134057 A KR 20090134057A KR 20110077465 A KR20110077465 A KR 20110077465A
Authority
KR
South Korea
Prior art keywords
shadow
tracking
time
sun
camera
Prior art date
Application number
KR1020090134057A
Other languages
Korean (ko)
Other versions
KR101161557B1 (en
Inventor
박구만
Original Assignee
서울과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울과학기술대학교 산학협력단 filed Critical 서울과학기술대학교 산학협력단
Priority to KR1020090134057A priority Critical patent/KR101161557B1/en
Publication of KR20110077465A publication Critical patent/KR20110077465A/en
Application granted granted Critical
Publication of KR101161557B1 publication Critical patent/KR101161557B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2516Hard disks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

PURPOSE: An apparatus and method for tracking a moving object with shadow removal module are provided to distinguish a real object from shadows. CONSTITUTION: A video cassette recorder(100) of an image tracking device(10) transmits an image data to a remote control server in real time. An object tracking module(200) periodically receives time information and location information from a control server in a remote place. The object tracking module calculates the direction and the length of the object shadow. The object tracking module extracts a clear object image in which the shadow is removed.

Description

카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치 및 방법{THE APPARATUS AND METHOD OF MOVING OBJECT TRACKING WITH SHADOW REMOVAL MOUDULE IN CAMERA POSITION AND TIME}TECHNICAL APPARATUS AND METHOD OF MOVING OBJECT TRACKING WITH SHADOW REMOVAL MOUDULE IN CAMERA POSITION AND TIME}

본 발명은 불법 주정차 단속 및 고속도로상의 과속 주행 감시와 같이, 카메라가 받아들인 디지털 영상데이터 내에서 그림자 효과를 제거하여 선명한 상태에서 객체의 움직임을 추적(Moving object tracking)할 수 있는 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치 및 방법에 관한 것이다.The present invention provides a camera position and the sun that can move the object in a clear state by removing the shadow effect in the digital image data received by the camera, such as illegal parking control and overspeed driving on the highway. The present invention relates to an image tracking device and a method using a shadow elimination method according to a moving time.

불법 주정차 단속 시스템과 같이 물체 추적이 필요한 시스템에서는 물체 추적을 위한 물체 추출 과정에서 흔히 배경기반 방법이 사용된다.Background-based methods are often used in object extraction for object tracking in systems that require object tracking, such as illegal parking enforcement systems.

상기 배경기반 방법의 경우 카메라가 잡은 초기 프레임에 정지차량이 있으면, 배경으로 흡수되기 때문에 올바른 배경을 생성하기가 힘들다.In the background-based method, if a stationary vehicle is included in an initial frame captured by the camera, it is difficult to generate a correct background because it is absorbed into the background.

이를 방지하기 위해서는 초기차량을 탐지해야 한다. 배경기반 방법에 의해 물체가 추출될 때 추출된 물체에 그림자가 포함될 수가 있다.To prevent this, the initial vehicle must be detected. When objects are extracted by the background-based method, shadows may be included in the extracted objects.

불법 주정차 단속 시스템에서 물체 추적을 하기 위해서는 물체의 위치, 형태를 정확하게 찾을 필요가 있는데 추출된 물체에 그림자가 포함되어 있게 되면 물체 추적을 정확하게 할 수가 없다.In order to track an object in an illegal parking control system, it is necessary to find the position and shape of the object accurately. If the extracted object includes a shadow, the object cannot be accurately tracked.

이를 위해 실제 물체 부분을 제외한 그림자 부분만을 정확히 제거하는 방법이 필요하다. 또한 그림자 제거방법의 성능 측정을 위하여 객관적인 메트릭(metric)이 필요하다.For this purpose, a method of accurately removing only the shadow part except the real object part is needed. In addition, an objective metric is needed to measure the performance of the shadow removal method.

초기 차량 탐지를 위해 사용될 수 있는 방법 중 스테레오 이미징방법(stereo imaging)은 두 대의 카메라로부터 영상의 깊이 정보를 획득하고 깊이 정보를 3차원적으로 분석하여 차량을 찾아내는데 겹침 발생시 두 영상으로부터 상응하는 두 점을 찾기가 어려운 문제점이 있었다.Among the methods that can be used for initial vehicle detection, stereo imaging obtains image depth information from two cameras and analyzes the depth information three-dimensionally to find a vehicle. There was a problem that was difficult to find.

또 다른 방법으로 유사한 특징을 갖는 자료들을 하나의 클러스터로 분류하는 퍼지 씨 민스 방법(Fuzzy c-Means)이 있는데, 이는 칼라공간에서 군집화를 이용하여 차량을 분할할 수 있는데 반복적 알고리즘 수행으로 인해 실시간 처리가 어려워 실시간 교통영상열 분석에는 적용하기가 힘든 문제점이 있었다.Another method is the Fuzzy c-Means method, which classifies similar data into a cluster, which can segment the vehicle using clustering in color space. It was difficult to apply to real-time traffic image sequence analysis.

또 다른 방법으로, 모델 기반 분리방법(Model based Segmentation)은 에지를 추출하고 차량의 3차원 CAD 모델에 대한 사전 지식을 활용하여 모델을 매칭하는 방법이다. 하지만, 어두운 차량의 경우처럼 추출된 에지가 3차원 CAD 모델이 2차원에 투영된 모습을 나타내기에 불충분한 경우에 모델 매칭의 어려움이 있고, 또한 차량의 모양이 다양하고, 관전 기하학(Viewing geometry)에 따라 모델의 개수가 기하급수적으로 증가할 수 있는 문제점이 있었다.Alternatively, model based segmentation is a method of extracting edges and matching models using prior knowledge of the vehicle's three-dimensional CAD model. However, there is difficulty in model matching when the extracted edge is insufficient to show the 3D CAD model projected in 2D as in the case of a dark vehicle, and also the shape of the vehicle is varied, and the viewing geometry There was a problem that the number of models can increase exponentially.

또 다른 방법으로, 칼라 정보와 히스토리 데이터 방법(Color Information and History Data)은 추출한 블랍(Blob: 작은 색깔부분) 내 모든 화소를 차량 화소와 그림자 화소로 분류하고 블랍 크기 대 그림자 화소의 비율을 계산하여 블랍(Blob: 작은 색깔부분)을 정상 차량 블랍(Blob: 작은 색깔부분)과 어두운 차량 블랍(Blob: 작은 색깔부분)으로 분류한다. 이때, 정상 차량 블랍(Blob: 작은 색깔부분)의 경우 그림자 화소를 제거하고, 어두운 차량 블랍(Blob: 작은 색깔부분)은 보간자료 혹은 히스토리 어레이에 저장된 자료를 이용하여 강제로 그림자 부분을 제거한다. 그러나, 그림자 중 캐스트 새도우(cast shadow)와 셀프 새도우(self shadow)를 구별하지 못하여 셀프 새도우까지 제거하는 경우가 발생하였다.Alternatively, the Color Information and History Data method classifies all pixels in the extracted blob into vehicle pixels and shadow pixels and calculates the ratio of the blob size to the shadow pixels. Blobs are divided into normal vehicle blobs and dark vehicle blobs. In this case, in the case of the normal vehicle blob (small colored portion), the shadow pixel is removed, and the dark vehicle blob (small colored portion) is forcibly removed using the data stored in the interpolation data or the history array. However, there is a case where even the self shadow is removed because the cast shadow and the self shadow are not distinguished among the shadows.

그리고, 종래의 그림자 제거방법들은 무엇보다 움직이는 물체를 추적하는데 있어서, 비, 눈, 안개 등에 관한 날씨방해요소와, 그림자 방해요소를 간과함으로서, 선명한 객체를 통한 추적이 어려운 문제점이 있었다.In addition, the conventional shadow removal methods have a problem that it is difficult to track through a clear object by overlooking the weather disturbance element and the shadow obstruction element related to rain, snow, fog, etc. in tracking the moving object.

또한, 현장에서 실시간으로 디지털 영상 데이터내의 진짜 객체와 그림자를 구분하는 기술이 없어, 항상 원격지의 관제서버에서 녹화된 영상 데이터에서 종래의 그림자 제거방법을 통해 움직이는 물체를 추적하기 때문에, 물체 추적 시간이 너무나도 오래 걸리는 문제점이 있었다.In addition, since there is no technology for distinguishing real objects from shadows in real time in the field in real time, since the moving object is always tracked through the conventional shadow removal method in the video data recorded at the remote control server, the object tracking time is increased. There was a problem that took too long.

상기 문제점을 해결하기 위해 본 발명에서는 카메라 자체에 GPS 수신부가 구성되어 원격지의 관제서버로부터 주기적으로 태양의 시간정보와 영상추적장치의 위치정보를 수신받고, 현장에서 실시간으로 디지털 영상 데이터내의 진짜 객체와 그림자를 구분할 수 있고, 미리 객체 그림자의 방향과 길이를 예측하여 선명한 객체를 바탕으로 추적할 수 있어, 기존의 영상 추적 알고리즘에 비해 높은 추적 성능을 갖는 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치 및 방법을 제공하는데 그 목적이 있다.In order to solve the above problems, in the present invention, the camera itself has a GPS receiver configured to receive the time information of the sun and the location information of the image tracking device periodically from a remote control server, and in real time in the field with the real object in the digital image data. Shadows can be distinguished, and the direction and length of the object's shadow can be predicted in advance to track based on the clear object. The purpose of the present invention is to provide an image tracking apparatus and method.

상기의 목적을 달성하기 위해 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치는In order to achieve the above object, the image tracking device through the shadow removal method according to the camera position and the time the sun moves according to the present invention

카메라로부터 들어오는 아날로그 영상 데이터를 디지털 변환처리 후 하드 디스크에 디지털 영상 데이터로 압축·저장하고, 원격지의 관제서버(20)로 추적용 영상신호를 전송시키는 영상추적장치(10)로 이루어지고,It consists of an image tracking device 10 for compressing and storing the analog image data coming from the camera into a digital image data on a hard disk after digital conversion processing, and transmitting the video signal for tracking to a remote control server 20,

상기 영상추적장치(10)는 화면분할기능(Multiplexer), 움직임 감지기능(Motion Detector), PTZ 컨트롤러기능(PTZ Controller), 녹화기능(Time-lapse VCR)이 통합되어, 불법 주정차 단속 감시 및 고속도로상의 과속 주행 감시하면서 영상촬영하고, 촬영된 영상데이터를 원격지의 관제서버로 실시간 전송하는 디지털 비디오 레코더(VCR)(100)와,The video tracking device 10 integrates a multiplexer, a motion detector, a PTZ controller, and a recording function (Time-lapse VCR) to monitor illegal parking and on the highway. Digital video recorder (VCR) 100 for taking a video while monitoring the speed driving, and transmitting the captured video data to a remote control server in real time;

원격지의 관제서버로부터 주기적으로 시간정보와 위치정보를 수신받아 객체 그림자의 방향과 길이를 연산한 후, 그 연산된 데이터 값에 따라 그림자가 제거된 선명한 객체만을 검출하여 추적하는 객체추적모듈(200)이 구성됨으로서 달성된다.After receiving time information and position information periodically from a remote control server to calculate the direction and length of the object shadow, the object tracking module 200 for detecting and tracking only the clear object with the shadow removed according to the calculated data value This is achieved by constructing.

또한, 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적방법은In addition, the image tracking method through the shadow removal method according to the camera position and the time the sun moves according to the present invention

카메라로부터 촬영된 디지털 영상 데이터에서 실시간으로 움직이는 물체를 옵티컬 플로우로 검출하는 단계(S100)와,Detecting an optical object moving in real time from the digital image data captured by the camera (S100);

옵티컬 플로우 검출부에서 검출된 디지털 영상 데이터 중 형상 기반과 움직임 기반으로 물체의 형태를 분류하는 단계(S200)와,Classifying a shape of an object based on shape and movement based on the digital image data detected by the optical flow detector (S200);

물체분류부를 통해 분류된 디지털 영상 데이터를 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산(S310)을 통해 물체와 그림자로 구분시키고, 그림자를 제거시키는 단계(S300)와,Dividing the digital image data classified through the object classifying unit into an object and a shadow through object shadow direction calculation and length operation (S310) according to the camera position and time, and removing the shadow (S300);

그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터 중 물체 상관성을 가지는 마지막 매칭을 결정하고 비선형 보팅(Voting)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적하는 단계(S400)와,Determining the last match having object correlation among the shadow-free digital image data through the shadow removal module and tracking the moving object in the image through the movement by the nonlinear voting and the center, model, and size of the object (S400). )Wow,

원격지의 영상추적장치의 객체추적모듈로부터 전송된 물체 추적 영상화면을 실시간으로 모니터링하고, 영상추적장치의 위치 좌표값을 GPS 기지국을 통해 추출한 후, 위치정보와 현재 시간정보를 객체추적모듈로 전송시키는 추적영상원격모니 터링 단계(S600)로 이루어짐으로서 달성된다.It monitors the object tracking video screen transmitted from the object tracking module of the remote video tracking device in real time, extracts the position coordinate value of the video tracking device through the GPS base station, and transmits the location information and current time information to the object tracking module. It is achieved by the tracking image remote monitoring step (S600).

이상에서 설명한 바와 같이, 본 발명에서는 본 발명에서는 카메라 자체에 GPS 수신부가 구성되어 원격지의 관제서버로부터 주기적으로 태양의 시간정보와 영상추적장치의 위치정보를 수신받아 데이터 오류를 방지할 수 있고, 현장에서 실시간으로 디지털 영상 데이터내의 진짜 객체와 그림자를 구분할 수 있으며, 미리 객체 그림자의 방향과 길이를 예측하여 선명한 객체를 바탕으로 추적할 수 있어, 기존의 영상 추적 알고리즘에 비해 90% 이상의 뛰어난 추적성능을 제공할 수가 있는 좋은 효과가 있다.As described above, in the present invention, in the present invention, the GPS receiver is configured in the camera itself to receive data from the remote control server periodically and receive the sun information and the location information of the image tracking device to prevent data errors. It can distinguish real objects and shadows in digital image data in real time, and can track based on clear objects by predicting the direction and length of object shadows in advance, resulting in more than 90% better tracking performance than conventional video tracking algorithms. There is a good effect it can provide.

이하, 본 발명에 따른 바람직한 실시예를 도면을 첨부하여 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치의 구성요소를 도시한 블럭도에 관한 것으로, 이는 불법 주정차 단속 감시 및 고속도로상의 과속 주행 감시하고, 영상 추적하는 영상추적장치(10)와, 원격지의 관제서버(20)로 구성된다.1 is a block diagram showing the components of the image tracking device through the shadow removal method according to the camera position and the sun moving time according to the present invention, which monitors illegal parking and speeding on the highway, the image It consists of a video tracking device for tracking 10, and the remote control server 20.

먼저, 본 발명에 따른 영상추적장치(10)에 관해 설명한다.First, the image tracking device 10 according to the present invention will be described.

본 발명에 따른 영상추적장치는 카메라로부터 들어오는 아날로그 영상 데이터를 디지털 변환처리 후 하드 디스크에 디지털 영상 데이터로 압축·저장하고, 촬영된 영상데이터를 원격지의 관제서버로 추적용 영상신호를 전송시키는 것으로, 이는 디지털 비디오 레코더(VCR)(100)와 객체추적모듈(200), 그리고, 카메라(300)로 구성된다.According to the present invention, an image tracking device compresses and stores analog image data coming from a camera as digital image data on a hard disk after digital conversion processing, and transmits the captured image data to a remote control server for tracking. It consists of a digital video recorder (VCR) 100, an object tracking module 200, and a camera 300.

또한, 본 발명에 따른 영상추적장치(10)는 객체추적모듈을 통해 원격지의 관제서버의 원격제어에 따라 현장에서 실시간으로 그림자가 제거된 선명한 객체만을 검출하여 1차 물체 추적하도록 구성된다.In addition, the image tracking device 10 according to the present invention is configured to detect the primary object by detecting only the clear object in which the shadow is removed in real time according to the remote control of the remote control server through the object tracking module.

상기 디지털 비디오 레코더(VCR)(100)는 화면분할기능(Multiplexer), 움직임 감지기능(Motion Detector), PTZ 컨트롤러기능(Pan, Tilt, Zoom Controller), 녹화기능(Time-lapse VCR)이 통합되어, 불법 주정차 단속 감시 및 고속도로상의 과속 주행 감시하면서 영상촬영하고, 원격지의 관제서버로 실시간 전송하는 것으로, 이는 도 2에서 도시한 바와 같이, 카메라로부터 입력된 영상을 분할 및 순차방식으로 디스플레이하여 모니터링하는 실시간 모니터링 감시부(110)와, 아날로그 영상 데이터를 디지털 신호로 변환/압축하여 HDD(하드디스크드라이버)에 저장하고, 저장된 영상 데이터를 CD-RW를 이용하여 백업하는 녹화·백업부(120)와, HDD에 파일 저장정보를 카메라별, 시간별, 이벤트별로 검색, 다채널 동시 검색 및 파노라마 뷰어하는 검색부(130)와, TCP/IP, RTP/RTCP(Real Time Transport Protocol/ Real Time Control Protocol), UDP(User Datagram Protocol)를 이용하여 원격지의 관제서버로 실시간 전송 및 녹화 영상 원격 검색하는 네트워크 전송부(140)와, 원격지 감시, 원격지 영상 녹화, 원격 검색, 원격지 녹화, 시스템 설정 변경을 하는 원격지 모니터링제어부(150)와, 연속, 스케줄, 움직임 감지, 센서 연동에 대한 스케쥴 이벤트를 관리하는 스케줄 관리부(160)와, EIA-485,EIA-232C 시리얼 포트를 이용한 카메라(300)의 팬/틸트/줌 제어하는 카메라 구동제어부(170)가 구성된다.The digital video recorder (VCR) 100 integrates a screen splitting function (Multiplexer), a motion detector (Motion Detector), a PTZ controller function (Pan, Tilt, Zoom Controller), a recording function (Time-lapse VCR), It takes an image while monitoring the illegal parking stop and monitoring the speeding on the highway, and transmits the image to a remote control server in real time. As shown in FIG. A monitoring / monitoring unit 110, a recording / backup unit 120 for converting / compressing analog image data into a digital signal, storing the same in an HDD (hard disk driver), and backing up the stored image data using a CD-RW; Search unit 130 to search the file storage information on the HDD, by camera, time, event, multi-channel simultaneous search and panoramic viewer, and TCP / IP, RTP / RTCP (Real Time Transport Protocol / R) Network transmission unit 140 for real-time transmission and recording video remote search to remote control server using eal Time Control Protocol) and UDP (User Datagram Protocol), remote monitoring, remote video recording, remote search, remote recording, system Remote monitoring and control unit 150 to change the setting, the schedule management unit 160 for managing the schedule event for continuous, schedule, motion detection, sensor interlocking, and camera 300 using the EIA-485, EIA-232C serial port The camera driving control unit 170 is configured to control the pan / tilt / zoom.

상기 객체추적모듈(200)은 디지털 비디오 레코더(VCR)에 프로그램적으로 설치되어 원격지의 관제서버로부터 주기적으로 시간정보와 위치정보를 수신받아 객체 그림자의 방향과 길이를 연산한 후, 그 연산된 데이터 값에 따라 그림자가 제거된 선명한 객체만을 검출하여 추적하는 것으로, 이는 도 3에서 도시한 바와 같이, 옵티컬 플로우 검출부(210), 물체 분류부(220), 그림자 제거모듈(230), 물체 추적부(240)로 구성된다.The object tracking module 200 is installed in a digital video recorder (VCR) programmatically receives the time information and position information from a remote control server periodically to calculate the direction and length of the object shadow, the calculated data It detects and tracks only the clear object from which the shadow is removed according to the value. As shown in FIG. 3, the optical flow detector 210, the object classifier 220, the shadow removal module 230, and the object tracker ( 240).

본 발명에 따른 객체추적모듈(200)은 원격지의 관제서버와 IEEE485 유선 제어라인을 통해 주기적으로 시간정보와 위치정보를 수신받거나 또는 단독으로 GPS 기지국과 연결되어 직접 태양의 방위각과 시각을 수신받을 수 있도록 구성되는 것을 특징으로 한다. The object tracking module 200 according to the present invention may receive time information and position information periodically through a remote control server and an IEEE485 wired control line, or may be directly connected to a GPS base station to receive azimuth and time of the sun directly. It is characterized in that it is configured to.

상기 옵티컬 플로우 검출부(210)는 디지털 영상 데이터에서 실시간으로 움직이는 물체를 옵티컬 플로우로 검출하는 역할을 한다.The optical flow detector 210 detects an object moving in real time from the digital image data as an optical flow.

여기서, 옵티컬 플로우는 동영상의 명암도가 시간에 따라 변할 때, 이동되는 2차원의 속도장(Velocity field)을 말한다. Here, the optical flow refers to a two-dimensional velocity field that is moved when the intensity of the video changes with time.

이는 프레임 내의 화소들의 위치 변화에 대한 속도를 2차원으로 표현한 것으로서, 즉 3차원 공간상에서 이동하는 물체를 카메라(300)를 이용하여 2차원 공간으로 투영할 때 2차원 공간에서 형성되는 영상의 이동속도를 말한다. This is a two-dimensional representation of the velocity of the position change of the pixels in the frame, that is, the moving speed of the image formed in the two-dimensional space when projecting an object moving in the three-dimensional space in the two-dimensional space using the camera 300 Say.

옵티컬 플로우를 계산하는 것은 공간 및 시간 축에 대한 화소 밝기의 변화량을 계산함으로써, 영상내의 모든 화소들의 움직임을 예측하기 위함이다.Computing the optical flow is to predict the motion of all the pixels in the image by calculating the amount of change in pixel brightness with respect to the spatial and temporal axes.

즉, 옵티컬 플로우를 검출함으로써, 역으로 3차원 공간에서의 물체의 이동을 추정할 수가 있으며, 물체의 움직임 검출, 물체의 분할, 움직임 보상에 의한 영상 부호화를 구현할 수가 있다. In other words, by detecting the optical flow, it is possible to inversely estimate the movement of an object in a three-dimensional space, and implement image encoding by detecting the movement of the object, dividing the object, and compensating for the motion.

본 발명에서는 옵티컬 플로우의 검출방법으로, 영역기반 정합기법에 의해 검출된다.In the present invention, as an optical flow detection method, it is detected by an area-based matching technique.

상기 영역기반 정합기법은 너무 적은 수의 프레임이 존재하고 영상을 취득하는 단계에서 엘리어싱(aliasing : 샘플링주파수를 샘플링시, 주파수 이하의 성분이 겹쳐서 나타나는 현상) 또는 잡음이 발생하면 정확한 수학적 미분을 사용하는 방법이 부적절하기 때문에 영역 기반의 정합기법이 사용된다. The region-based matching technique uses accurate mathematical derivatives when there are too few frames and aliasing occurs when acquiring images at the time of acquiring images or noise. Because of the inadequate approach, domain-based matching techniques are used.

영역기반 정합기법은 속도 v를 서로 다른 시간에 대하여 영상에서 일정한 영역이 가장 많이 일치하는 이동 d=(dx,dy)이라 정의한다.In the region-based matching technique, the velocity v is defined as the movement d = (dx, dy) in which a constant region in the image most matches with respect to time.

가장 정확한 정합을 찾는 방법은 정규화된 상호 상관관계(normalized cross correlation)와 같은 유사도(similar measure)를 최대화하는 방법이나, 자승한 차에 대한 합(Sum of Squared Difference :SSD)과 같은 거리 측정(Distance measure) 을 최소화하는 방법이다. Finding the most accurate match can be done by maximizing similar measures like normalized cross correlation, or distance measures like sum of squared difference (SSD). Minimize the measure.

상기 물체분류부(220)는 옵티컬 플로우 검출부에서 검출된 디지털 영상 데이터 중 형상 기반과 움직임 기반으로 물체의 형태를 분류하는 역할을 한다.The object classifying unit 220 serves to classify the shape of an object based on shape and motion based on the digital image data detected by the optical flow detector.

이는 물체의 2차원 공간적인 정보를 사용하는 형상기반 분류부(221)와, 분류 해결을 위해서 물체의 시간적으로 축적된 특성들을 사용하는 움직임기반 분류부(222)로 구성된다.It is composed of a shape-based classifier 221 using two-dimensional spatial information of the object, and a motion-based classifier 222 using the temporally accumulated properties of the object for classification resolution.

상기 형상기반 분류부(221)는 사각형 경계, 지역, 실루엣(윤곽선), 그리고 검출된 물체 영역의 기울기를 이용해서 분류하는 역할을 한다.The shape-based classification unit 221 serves to classify using a rectangular boundary, an area, a silhouette (contour), and a slope of the detected object area.

즉, 세가지 그룹들 안에(사람, 차량, 그리고 다른 물체) 검출된 물체들을 분류하기 위해서 지역과 그림자 외형 윤곽선(contour) 길이의 정보를 사용한다. That is, we use information of area and shadow contour length to classify the detected objects into three groups (people, vehicles, and other objects).

형상기반 분류부의 척도(Dispersedness)는 물체들의 지역(Area)과 물체의 실루엣(윤곽선) 길이(Perimeter)의 관점에서 수학식 1과 같이 정의된다.Dispersedness of the shape-based classification unit is defined as in Equation 1 in view of the area of the objects and the perimeter of the object.

Figure 112009081636715-PAT00001
Figure 112009081636715-PAT00001

상기 움직임기반 분류부(222)는 움직이는 물체의 시간적인 자기 유사성(self-simiarity)에 기반하여 분류하는 역할을 한다.The motion-based classifier 222 classifies based on temporal self-simiarity of the moving object.

본 발명에 따른 옵티컬 플로우 분석은 고정된 물체와 고정되지 않은 물체를 구별하는데 유용하게 사용된다.Optical flow analysis according to the present invention is usefully used to distinguish between fixed and non-fixed objects.

즉, 검출된 물체 영역들의 지역적인 옵티컬플로우 분석을 사용한다.That is, it uses local optical flow analysis of the detected object regions.

이는 사람과 같이 고정되지 않는 물체들은 높은 평균 나머지 흐름이 있을 것이고, 반면에 차량과 같이 고정된 물체가 낮은 나머지 흐름을 나타낼 것으로 기대한다.This expects that non-fixed objects, such as humans, will have a high average residual flow, while fixed objects, such as vehicles, will exhibit low residual flows.

또한, 사람 움직임으로써 생성된 잔여 흐름은 주기성을 가지게 된다. 이러한 특징을 이용하여 사람 움직임, 사람들을 차량과 같은 다른 물체들로부터 구별해서 분류할 수가 있다. In addition, the residual flow generated by human movement becomes periodic. This feature can be used to classify people's movements and people from other objects such as vehicles.

상기 그림자 제거모듈(230)은 물체분류부를 통해 분류된 디지털 영상 데이터를 카메라 위치 및 시간에 따른 그림자 방향 연산 및 길이 연산을 통해 물체와 그림자로 구분시키고, 그림자를 제거시키는 역할을 한다. 이는 도 4에서 도시한 바와 같이, GPS 수신부(231), 그림자 연산제어부(232), 그림자 제거부(233), 데이터 전송부(234)로 구성된다.The shadow removing module 230 divides the digital image data classified through the object classifying unit into an object and a shadow through a shadow direction calculation and a length calculation according to the camera position and time, and removes the shadow. As shown in FIG. 4, the GPS receiver 231 includes a shadow operation controller 232, a shadow remover 233, and a data transmitter 234.

상기 GPS 수신부(231)는 원격지의 관제서버를 통해 GPS 기지국으로부터 주기적으로 태양의 시간정보와 영상추적장치의 위치정보를 수신받는 역할을 한다.The GPS receiver 231 receives the time information of the sun and the location information of the image tracking device periodically from the GPS base station through a remote control server.

상기 그림자 연산제어부(232)는 GPS 수신부로부터 수신된 태양의 시간정보와 영상추적장치의 위치정보에 따라 그림자 방향 연산 및 길이 연산을 통해 카메라(300)에 입력된 디지털 영상 데이터 중 객체와 그림자를 구분시키는 역할을 한 다.The shadow operation controller 232 distinguishes an object from a shadow among digital image data input to the camera 300 through a shadow direction calculation and a length calculation according to the time information of the sun and the location information of the image tracking device received from the GPS receiver. To play a role.

상기 GPS 수신부로부터 수신된 태양의 시간정보와 영상추적장치의 위치정보에 따라 객체 그림자 방향 연산 및 길이 연산하는 과정을 설명한다.A process of calculating the object shadow direction and calculating the length according to the time information of the sun and the position information of the image tracking device received from the GPS receiver will be described.

먼저, GPS 수신부로부터 원격지에 있는 카메라(300)에 시간 정보와 방위정보를 전송시킨다.First, time information and azimuth information are transmitted from a GPS receiver to a camera 300 remotely located.

즉, GPS 수신부는 원격지에 있는 카메라(300)에 시간 정보와 방위정보를 주기 위한 것으로, 카메라(300)가 유선으로 외부에 연결되어 있을 때는 유선으로 카메라(300)에 시간과 방위 정보를 주는 역할을 한다. That is, the GPS receiver is to give time information and orientation information to the camera 300 at a remote location. When the camera 300 is connected to the outside by wire, the GPS receiver provides time and orientation information to the camera 300 by wire. Do it.

이어서, 미리 저장된 카메라(300)의 메모리부로부터 시간과 방위에 따라 태양의 위치를 연산한다.Subsequently, the position of the sun is calculated from the memory unit of the camera 300 stored in advance according to time and azimuth.

즉, 시간과 방위에 따라 태양의 위치는 미리 카메라(300)의 메모리부에 저장된다.That is, the position of the sun is stored in advance in the memory of the camera 300 according to time and orientation.

이어서, 태양의 위치에 따른 태양의 각도(θ) 및 움직이는 객체의 높이(B)를 통해 움직이는 객체의 반대방향으로 생기는 객체 그림자의 방향과 길이(A)를 연산한다.Subsequently, the direction and the length A of the object shadow occurring in the opposite direction of the moving object through the angle θ of the sun according to the position of the sun and the height B of the moving object are calculated.

즉, 태양의 위치를 알면 도 5에서 도시한 바와 같이, 반대방향으로 그림자가 생기게 된다. In other words, knowing the position of the sun, as shown in Figure 5, the shadow is generated in the opposite direction.

이때, 그림자의 길이(A)는 다음의 수학식 2와 같이, 태양의 높이와 방향 정보를 통해 계산할 수가 있다.In this case, the length A of the shadow can be calculated through the height and direction information of the sun, as shown in Equation 2 below.

Figure 112009081636715-PAT00002
Figure 112009081636715-PAT00002

여기서, A는 그림자 길이를 나타내고, B는 움직이는 객체 높이를 나타내며, θ는 태양의 각도를 나타낸다.Where A represents the shadow length, B represents the moving object height, and θ represents the angle of the sun.

그리고, 태양의 각도(θ)는 지구와 태양의 좌표를 알면 카메라(300)의 메모리부에 저장된 데이터에 의해 자동으로 연산된다. The angle θ of the sun is automatically calculated by the data stored in the memory of the camera 300 when the sun and the coordinates of the sun are known.

상기 그림자 제거부(233)는 그림자 연산제어부를 통해 객체와 그림자가 구분된 데이터에서 그림자만을 제거하여 선명한 객체만을 추출하는 역할을 한다.The shadow remover 233 removes only the shadow from the data in which the object and the shadow are separated through the shadow operation controller to extract only the clear object.

상기 데이터 전송부(234)는 그림자제거부를 통해 그림자 제거된 디지털 영상 데이터만을 물체 추적부로 전송시키는 역할을 한다.The data transmitter 234 transmits only the digital image data of which the shadow is removed through the shadow remover to the object tracker.

상기 물체추적부(240)는 그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터 중 물체 상관성을 가지는 마지막 매칭을 결정하고 비선형 보팅(Voting : 각 신호의 비교 시 기준값을 결정함)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적하는 것으로, 이는 매칭 상관성, 움직임 추정, 위치 예측을 사용하여 추적하도록 구성된다.The object tracking unit 240 determines the last match having object correlation among the digital image data from which the shadow is removed through the shadow removal module, and moves and objects by nonlinear voting. The moving object in the image is tracked through its center, model, and size, which is configured to track using matching correlation, motion estimation, and position prediction.

즉, 그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터에서 지역과 물체들을 분리했다면, 물체추적부에서는 현재 이미지로부터 상응하는 물체들의 특징인 면적(A), 길이(L), 넓이(W), 물체의 중심(Cm), 칼라 히스토그램(Hc), 원형도(C), 방향성(θ) 그리고 물체들의 블랍(Blob: 작은 색깔부분)들에 대한 실루엣( 윤곽선)을 추출해서, 물체 상관성을 가지는 마지막 매칭을 결정한다.In other words, if the area and the objects are separated from the shadow-free digital image data through the shadow removal module, the object tracker is characterized by the area (A), length (L), width (W), Lastly, the object correlation is extracted by extracting the center (Cm), color histogram (Hc), circularity (C), directionality (θ), and silhouettes (contours) of the blobs of objects. Determine the match.

이어서, 비선형 보팅(Voting : 각 신호의 비교 시 기준값을 결정함)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적한다.Then, the moving object in the image is tracked through the movement by nonlinear voting (to determine the reference value when comparing each signal) and the center, model, and size of the object.

다음으로, 본 발명에 따른 원격지의 관제서버(20)에 관해 설명한다.Next, the remote control server 20 according to the present invention will be described.

상기 관제서버(20)는 불법 주정차 단속 및 고속도로상의 과속 주행 감시용으로 사용되는 영상추적장치의 객체추적모듈로 물체 추적용 원격제어신호를 보내고, 물체 추적 영상화면을 실시간으로 모니터링하며, 각 영상추적장치의 위치 좌표값을 GPS 기지국을 통해 추출한 위치정보와 현재 시간정보를 객체추적모듈로 전송시키는 역할을 한다.The control server 20 sends a remote control signal for object tracking to the object tracking module of the video tracking device used for illegal parking control and overspeed driving on the highway, monitors the object tracking video screen in real time, and tracks each video. It transmits the location information and current time information extracted through the GPS base station to the object tracking module.

이는 GPS기지국을 통해 각 영상추적장치의 위치 좌표값을 추출함과 동시에 그 위치 좌표값에 따른 현재 시간정보를 연산하여 내부 프로그램 메모리에 저장한다.It extracts the position coordinate value of each video tracking device through the GPS base station and calculates the current time information according to the position coordinate value and stores it in the internal program memory.

이하, 본 발명에 따른 카메라 위치 및 시간에 따른 그림자 제거방식을 통한 영상추적방법에 관해 설명한다.Hereinafter, an image tracking method using a shadow removal method according to a camera position and time according to the present invention will be described.

먼저, 카메라로부터 촬영된 디지털 영상 데이터에서 실시간으로 움직이는 물체를 옵티컬 플로우로 검출한다(S100).First, an object moving in real time from the digital image data captured by the camera is detected as an optical flow (S100).

이어서, 옵티컬 플로우 검출부에서 검출된 디지털 영상 데이터 중 형상 기반과 움직임 기반으로 물체의 형태를 분류한다(S200).Subsequently, the shape of the object is classified based on the shape and the motion based on the digital image data detected by the optical flow detector (S200).

이어서, 물체분류부를 통해 분류된 디지털 영상 데이터를 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산을 통해 물체와 그림자로 구분시키고, 그림자를 제거시킨다(S300).Subsequently, the digital image data classified through the object classifying unit is classified into an object and a shadow through object shadow direction calculation and length calculation according to the camera position and time, and the shadow is removed (S300).

여기서, 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산을 하는 것은 Here, computing the object shadow direction and length according to the camera position and time is

GPS 수신부로부터 원격지에 있는 카메라에 시간 정보와 방위정보를 전송시키는 단계(S310)와, Transmitting time information and bearing information from a GPS receiver to a camera at a remote location (S310);

미리 저장된 카메라의 메모리부로부터 시간과 방위에 따라 태양의 위치를 연산하는 단계(S320)와,Calculating a position of the sun according to time and azimuth from a memory unit of the pre-stored camera (S320);

태양의 위치에 따른 태양의 각도(θ) 및 움직이는 객체의 높이(B)를 통해 움직이는 객체의 반대방향으로 생기는 객체 그림자의 방향 및 길이(A)를 연산하는 단 계(S330)로 이루어진다.Comprising a step (S330) for calculating the direction and the length (A) of the object shadow that occurs in the opposite direction of the moving object through the angle (θ) of the sun according to the position of the sun and the height (B) of the moving object.

이어서, 그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터 중 물체 상관성을 가지는 마지막 매칭을 결정하고 비선형 보팅(Voting : 각 신호의 비교 시 기준값을 결정함)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적한다(S400).Subsequently, the shadow elimination module is used to determine the last match with object correlation among the shadow-free digital image data, and to determine the center of gravity, model, and size of the object by nonlinear voting. Tracking the moving object in the image through (S400).

이어서, 원격지의 영상추적장치의 객체추적모듈로부터 전송된 물체 추적 영상화면을 실시간으로 모니터링하고, 영상추적장치의 위치 좌표값을 GPS 기지국을 통해 추출한 후, 위치정보와 현재 시간정보를 객체추적모듈로 전송시킨다(S500).Subsequently, the object tracking image screen transmitted from the object tracking module of the remote image tracking device is monitored in real time, the position coordinate value of the video tracking device is extracted through the GPS base station, and the position information and the current time information are transferred to the object tracking module. To transmit (S500).

[[ 관제서버(20)의Of the control server 20 동작과정] Operation process]

먼저, 관제서버(20)에서 불법 주정차 단속 및 고속도로상의 과속 주행 감시용으로 사용되는 영상추적장치의 객체추적모듈로 물체 추적용 원격제어신호를 보낸다.First, the control server 20 sends a remote control signal for object tracking to the object tracking module of the video tracking device used for illegal parking stops and overspeed driving monitoring on the highway.

이어서, 물체 추적 영상화면을 실시간으로 모니터링한다.Subsequently, the object tracking video screen is monitored in real time.

이어서, 각 영상추적장치의 위치 좌표값을 GPS 기지국을 통해 추출한 위치정보와 현재 시간정보를 객체추적모듈로 전송시킨다.Subsequently, the positional information and the current time information extracted from the position coordinates of each image tracking device through the GPS base station are transmitted to the object tracking module.

도 1은 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치의 구성요소를 도시한 블럭도,1 is a block diagram showing the components of the image tracking device through the shadow removal method according to the camera position and the time the sun moves according to the present invention,

도 2는 본 발명에 따른 디지털 비디오 레코더(VCR)(100)의 구성요소를 도시한 블럭도,2 is a block diagram showing components of a digital video recorder (VCR) 100 according to the present invention;

도 3은 본 발명에 따른 객체추적모듈(200)의 구성요소를 도시한 블럭도,3 is a block diagram showing the components of the object tracking module 200 according to the present invention;

도 4는 본 발명에 따른 그림자 제거모듈(230)의 구성요소를 도시한 블럭도,4 is a block diagram showing the components of the shadow removal module 230 according to the present invention;

도 5는 본 발명에 따른 GPS 수신부로부터 수신된 태양의 시간정보와 영상추적장치의 위치정보에 따라 객체 그림자 방향 연산 및 길이 연산하는 과정을 도시한 일실시예도,5 is a diagram illustrating an operation of calculating an object shadow direction and calculating a length according to time information of a sun received from a GPS receiver and position information of an image tracking device according to the present invention;

도 6은 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적방법에 따른 순서도,6 is a flowchart illustrating an image tracking method using a shadow removal method according to a camera position and a time at which the sun moves according to the present invention;

도 7은 본 발명에 따른 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산을 하는 과정을 도시한 순서도.7 is a flowchart illustrating a process of calculating an object shadow direction and a length according to a camera position and time according to the present invention.

※ 도면 부호의 간단한 설명 ※※ Brief description of reference numerals ※

10 : 영상추적장치 20 : 원격지의 관제서버 10: video tracking device 20: remote control server

100 : 디지털 비디오 레코더(VCR) 110 : 모니터링 감시부100: digital video recorder (VCR) 110: monitoring monitoring unit

130 : 검색부 140 : 네트워크 전송부130: search unit 140: network transmission unit

150 : 모니터링제어부 160 : 스케쥴 관리부150: monitoring control unit 160: schedule management unit

170 : 카메라 구동제어부 200 : 관제서버170: camera driving control unit 200: control server

210 : 옵티컬 플로우 검출부 220 : 물체 분류부210: optical flow detection unit 220: object classification unit

230 : 그림자 제거모듈 240 : 물체 추적부230: shadow removal module 240: object tracking unit

Claims (5)

카메라(300)로부터 들어오는 아날로그 영상 데이터를 디지털 변환처리 후 하드 디스크에 디지털 영상 데이터로 압축·저장하고, 원격지의 관제서버(20)로 추적용 영상신호를 전송시키는 영상추적장치(10)에 있어서,In the video tracking device 10 for compressing and storing analog video data coming from the camera 300 as digital video data on a hard disk after digital conversion processing, and transmitting a video signal for tracking to a remote control server 20, 상기 영상추적장치(10)는 화면분할기능(Multiplexer), 움직임 감지기능(Motion Detector), PTZ 컨트롤러기능(Pan, Tilt, Zoom Controller), 녹화기능(Time-lapse VCR)이 통합되어, 불법 주정차 단속 감시 및 고속도로상의 과속 주행 감시하면서 영상촬영하고, 촬영된 영상데이터를 원격지의 관제서버로 실시간 전송하는 디지털 비디오 레코더(VCR)(100)와,The image tracking device 10 integrates a screen splitting function (Multiplexer), a motion detector (Motion Detector), a PTZ controller function (Pan, Tilt, Zoom Controller), recording function (Time-lapse VCR), illegal parking stops A digital video recorder (VCR) 100 for taking a video while monitoring and monitoring a speeding driving on a highway, and transmitting the captured video data to a remote control server in real time; 원격지의 관제서버로부터 주기적으로 시간정보와 위치정보를 수신받아 객체 그림자의 방향과 길이를 연산한 후, 그 연산된 데이터 값에 따라 그림자가 제거된 선명한 객체만을 검출하여 추적하는 객체추적모듈(200)이 포함되어 구성되는 것을 특징으로 하는 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치.After receiving time information and position information periodically from a remote control server to calculate the direction and length of the object shadow, the object tracking module 200 for detecting and tracking only the clear object with the shadow removed according to the calculated data value Image tracking device through the shadow removal method according to the camera position, the sun moving, characterized in that is configured to include. 제1항에 있어서, 객체추적모듈(200)은The method of claim 1, wherein the object tracking module 200 디지털 영상 데이터에서 실시간으로 움직이는 물체를 옵티컬 플로우로 검출하는 옵티컬 플로우 검출부(210)와,An optical flow detector 210 for detecting an object moving in real time from the digital image data as an optical flow; 옵티컬 플로우 검출부에서 검출된 디지털 영상 데이터 중 형상 기반과 움직임 기반으로 물체의 형태를 분류하는 물체 분류부(220)와,An object classifying unit 220 classifying the shape of the object based on shape and movement of the digital image data detected by the optical flow detector; 물체분류부를 통해 분류된 디지털 영상 데이터를 카메라 위치 및 시간에 따른 그림자 방향 연산 및 길이 연산을 통해 물체와 그림자로 구분시키고, 그림자를 제거시키는 그림자 제거모듈(230)과,A shadow removal module 230 for classifying the digital image data classified through the object classification unit into an object and a shadow through a shadow direction calculation and a length calculation according to a camera position and time, and removing the shadow; 그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터 중 물체 상관성을 가지는 마지막 매칭을 결정하고 비선형 보팅(Voting)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적하는 물체 추적부(240)가 구성되는 것을 특징으로 하는 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치.An object tracking unit that determines the last match with object correlation among the digital image data from which shadows are removed through the shadow elimination module, and tracks the moving object in the image through the movement by the nonlinear voting and the center, model, and size of the object. Image tracking device through the shadow removal method according to the camera position, the time the sun moves, characterized in that the 240 is configured. 제2항에 있어서, 그림자 제거모듈(230)은The method of claim 2, wherein the shadow removal module 230 원격지의 관제서버로부터 주기적으로 태양의 시간정보와 영상추적장치의 위치정보를 수신받는 GPS 수신부(231)와,A GPS receiver 231 which receives the time information of the sun and the location information of the image tracking device periodically from a remote control server; GPS 수신부로부터 수신된 태양의 시간정보와 영상추적장치의 위치정보에 따라 그림자 방향 연산 및 길이 연산을 통해 카메라에 입력된 디지털 영상 데이터 중 객체와 그림자를 구분시키는 그림자 연산제어부(232)와,A shadow calculation controller 232 for distinguishing an object from a shadow among digital image data input to the camera through a shadow direction calculation and a length calculation according to the time information of the sun and the location information of the image tracking device received from the GPS receiver; 그림자 연산제어부를 통해 객체와 그림자가 구분된 데이터에서 그림자만을 제거하여 선명한 객체만을 추출하는 그림자제거부(233)와,A shadow removal unit 233 for extracting only a clear object by removing only a shadow from data in which an object and a shadow are separated through a shadow operation control unit; 그림자제거부를 통해 그림자 제거된 디지털 영상 데이터만을 물체 추적부로 전송시키는 데이터 전송부(234)로 구성되는 것을 특징으로 하는 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치.An image tracking device using a shadow removal method according to a camera position and a sun movement, comprising a data transmission unit 234 for transmitting only the digital image data of which the shadow is removed through the shadow removal unit to the object tracking unit. 카메라로부터 촬영된 디지털 영상 데이터에서 실시간으로 움직이는 물체를 옵티컬 플로우로 검출하는 단계(S100)와,Detecting an optical object moving in real time from the digital image data captured by the camera (S100); 옵티컬 플로우 검출부에서 검출된 디지털 영상 데이터 중 형상 기반과 움직임 기반으로 물체의 형태를 분류하는 단계(S200)와,Classifying a shape of an object based on shape and movement based on the digital image data detected by the optical flow detector (S200); 물체분류부를 통해 분류된 디지털 영상 데이터를 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산(S310)을 통해 물체와 그림자로 구분시키고, 그림자를 제거시키는 단계(S300)와,Dividing the digital image data classified through the object classifying unit into an object and a shadow through object shadow direction calculation and length operation (S310) according to the camera position and time, and removing the shadow (S300); 그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터 중 물체 상관성을 가지는 마지막 매칭을 결정하고 비선형 보팅(Voting)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적하는 단계(S400)와,Determining the last match having object correlation among the shadow-free digital image data through the shadow removal module and tracking the moving object in the image through the movement by the nonlinear voting and the center, model, and size of the object (S400). )Wow, 원격지의 영상추적장치의 객체추적모듈로부터 전송된 물체 추적 영상화면을 실시간으로 모니터링하고, 영상추적장치의 위치 좌표값을 GPS 기지국을 통해 추출한 후, 위치정보와 현재 시간정보를 객체추적모듈로 전송시키는 단계(S500)로 이루어진 것을 특징으로 하는 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적방법.It monitors the object tracking video screen transmitted from the object tracking module of the remote video tracking device in real time, extracts the position coordinate value of the video tracking device through the GPS base station, and transmits the location information and the current time information to the object tracking module. Image tracking method through the shadow removal method according to the camera position, the time the sun moves, characterized in that the step (S500). 제4항에 있어서, 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산을 하는 단계(S310)은The method of claim 4, wherein the calculating of the object shadow direction and the length according to the camera position and time is performed (S310). GPS 수신부로부터 원격지에 있는 카메라에 시간 정보와 방위정보를 전송시키는 단계(S311)와,Transmitting time information and bearing information from a GPS receiver to a camera at a remote location (S311); 미리 저장된 카메라의 메모리부로부터 시간과 방위에 따라 태양의 위치를 연산하는 단계(S312)와,Calculating a position of the sun according to time and azimuth from a memory unit of the pre-stored camera (S312); 태양의 위치에 따른 태양의 각도(θ) 및 움직이는 객체의 높이(B)를 통해 움직이는 객체의 반대방향으로 생기는 객체 그림자의 방향 및 길이(A)를 연산하는 단계(S313)로 이루어지는 것을 특징으로 하는 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적방법.Comprising a step (S313) of calculating the direction and the length (A) of the object shadow that occurs in the opposite direction of the moving object through the angle (θ) of the sun according to the position of the sun and the height (B) of the moving object Image tracking method using shadow removal method according to camera position and time of sun movement.
KR1020090134057A 2009-12-30 2009-12-30 The apparatus and method of moving object tracking with shadow removal moudule in camera position and time KR101161557B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090134057A KR101161557B1 (en) 2009-12-30 2009-12-30 The apparatus and method of moving object tracking with shadow removal moudule in camera position and time

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090134057A KR101161557B1 (en) 2009-12-30 2009-12-30 The apparatus and method of moving object tracking with shadow removal moudule in camera position and time

Publications (2)

Publication Number Publication Date
KR20110077465A true KR20110077465A (en) 2011-07-07
KR101161557B1 KR101161557B1 (en) 2012-07-03

Family

ID=44917053

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090134057A KR101161557B1 (en) 2009-12-30 2009-12-30 The apparatus and method of moving object tracking with shadow removal moudule in camera position and time

Country Status (1)

Country Link
KR (1) KR101161557B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10176599B2 (en) 2016-07-06 2019-01-08 Samsung Electronics Co., Ltd. Electronic apparatus and displaying method thereof
CN113378775A (en) * 2021-06-29 2021-09-10 武汉大学 Video shadow detection and elimination method based on deep learning
KR20220155041A (en) * 2021-05-14 2022-11-22 서울대학교산학협력단 Event camera-based object tracking apparatus and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220055257A (en) 2020-10-26 2022-05-03 현대자동차주식회사 Apparatus for shadow processing in camera image and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050212794A1 (en) * 2004-03-29 2005-09-29 Communications Research Laboratory, Independent Administrative Institution Method and apparatus for removing of shadows and shadings from texture images
KR100820952B1 (en) * 2008-01-04 2008-04-11 한국비전기술(주) Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle using single camera and system thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10176599B2 (en) 2016-07-06 2019-01-08 Samsung Electronics Co., Ltd. Electronic apparatus and displaying method thereof
KR20220155041A (en) * 2021-05-14 2022-11-22 서울대학교산학협력단 Event camera-based object tracking apparatus and method
CN113378775A (en) * 2021-06-29 2021-09-10 武汉大学 Video shadow detection and elimination method based on deep learning

Also Published As

Publication number Publication date
KR101161557B1 (en) 2012-07-03

Similar Documents

Publication Publication Date Title
KR101647370B1 (en) road traffic information management system for g using camera and radar
KR101808587B1 (en) Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors
CN101969548B (en) Active video acquiring method and device based on binocular camera shooting
Semertzidis et al. Video sensor network for real-time traffic monitoring and surveillance
KR101496390B1 (en) System for Vehicle Number Detection
WO2012023766A2 (en) Security camera tracking and monitoring system and method using thermal image coordinates
US20060285724A1 (en) Salient motion detection system, method and program product therefor
US20150131851A1 (en) System and method for using apparent size and orientation of an object to improve video-based tracking in regularized environments
EP2709066A1 (en) Concept for detecting a motion of a moving object
CN104378582A (en) Intelligent video analysis system and method based on PTZ video camera cruising
KR101530255B1 (en) Cctv system having auto tracking function of moving target
WO2012090200A1 (en) Calibration device and method for use in a surveillance system for event detection
Bloisi et al. Argos—A video surveillance system for boat traffic monitoring in Venice
KR101515166B1 (en) A Parking Event Detection System Based on Object Recognition
CN111914592B (en) Multi-camera combined evidence obtaining method, device and system
CN111932901A (en) Road vehicle tracking detection apparatus, method and storage medium
KR102579542B1 (en) Crowd density-based hazardous area automated alert system
CA2670021A1 (en) System and method for estimating characteristics of persons or things
KR101161557B1 (en) The apparatus and method of moving object tracking with shadow removal moudule in camera position and time
JP2011513876A (en) Method and system for characterizing the motion of an object
CN115909223A (en) Method and system for matching WIM system information with monitoring video data
WO2020174916A1 (en) Imaging system
Stec et al. Using time-of-flight sensors for people counting applications
KR101033237B1 (en) Multi-function detecting system for vehicles and security using 360 deg. wide image and method of detecting thereof
JP2011198244A (en) Object recognition system, monitoring system using the same, and watching system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150604

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160614

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170922

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180621

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190529

Year of fee payment: 8