KR20110077465A - The apparatus and method of moving object tracking with shadow removal moudule in camera position and time - Google Patents
The apparatus and method of moving object tracking with shadow removal moudule in camera position and time Download PDFInfo
- Publication number
- KR20110077465A KR20110077465A KR1020090134057A KR20090134057A KR20110077465A KR 20110077465 A KR20110077465 A KR 20110077465A KR 1020090134057 A KR1020090134057 A KR 1020090134057A KR 20090134057 A KR20090134057 A KR 20090134057A KR 20110077465 A KR20110077465 A KR 20110077465A
- Authority
- KR
- South Korea
- Prior art keywords
- shadow
- tracking
- time
- sun
- camera
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M1/00—Analogue/digital conversion; Digital/analogue conversion
- H03M1/12—Analogue/digital converters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/78—Television signal recording using magnetic recording
- H04N5/781—Television signal recording using magnetic recording on disks or drums
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
- G11B2220/25—Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
- G11B2220/2508—Magnetic discs
- G11B2220/2516—Hard disks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 불법 주정차 단속 및 고속도로상의 과속 주행 감시와 같이, 카메라가 받아들인 디지털 영상데이터 내에서 그림자 효과를 제거하여 선명한 상태에서 객체의 움직임을 추적(Moving object tracking)할 수 있는 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치 및 방법에 관한 것이다.The present invention provides a camera position and the sun that can move the object in a clear state by removing the shadow effect in the digital image data received by the camera, such as illegal parking control and overspeed driving on the highway. The present invention relates to an image tracking device and a method using a shadow elimination method according to a moving time.
불법 주정차 단속 시스템과 같이 물체 추적이 필요한 시스템에서는 물체 추적을 위한 물체 추출 과정에서 흔히 배경기반 방법이 사용된다.Background-based methods are often used in object extraction for object tracking in systems that require object tracking, such as illegal parking enforcement systems.
상기 배경기반 방법의 경우 카메라가 잡은 초기 프레임에 정지차량이 있으면, 배경으로 흡수되기 때문에 올바른 배경을 생성하기가 힘들다.In the background-based method, if a stationary vehicle is included in an initial frame captured by the camera, it is difficult to generate a correct background because it is absorbed into the background.
이를 방지하기 위해서는 초기차량을 탐지해야 한다. 배경기반 방법에 의해 물체가 추출될 때 추출된 물체에 그림자가 포함될 수가 있다.To prevent this, the initial vehicle must be detected. When objects are extracted by the background-based method, shadows may be included in the extracted objects.
불법 주정차 단속 시스템에서 물체 추적을 하기 위해서는 물체의 위치, 형태를 정확하게 찾을 필요가 있는데 추출된 물체에 그림자가 포함되어 있게 되면 물체 추적을 정확하게 할 수가 없다.In order to track an object in an illegal parking control system, it is necessary to find the position and shape of the object accurately. If the extracted object includes a shadow, the object cannot be accurately tracked.
이를 위해 실제 물체 부분을 제외한 그림자 부분만을 정확히 제거하는 방법이 필요하다. 또한 그림자 제거방법의 성능 측정을 위하여 객관적인 메트릭(metric)이 필요하다.For this purpose, a method of accurately removing only the shadow part except the real object part is needed. In addition, an objective metric is needed to measure the performance of the shadow removal method.
초기 차량 탐지를 위해 사용될 수 있는 방법 중 스테레오 이미징방법(stereo imaging)은 두 대의 카메라로부터 영상의 깊이 정보를 획득하고 깊이 정보를 3차원적으로 분석하여 차량을 찾아내는데 겹침 발생시 두 영상으로부터 상응하는 두 점을 찾기가 어려운 문제점이 있었다.Among the methods that can be used for initial vehicle detection, stereo imaging obtains image depth information from two cameras and analyzes the depth information three-dimensionally to find a vehicle. There was a problem that was difficult to find.
또 다른 방법으로 유사한 특징을 갖는 자료들을 하나의 클러스터로 분류하는 퍼지 씨 민스 방법(Fuzzy c-Means)이 있는데, 이는 칼라공간에서 군집화를 이용하여 차량을 분할할 수 있는데 반복적 알고리즘 수행으로 인해 실시간 처리가 어려워 실시간 교통영상열 분석에는 적용하기가 힘든 문제점이 있었다.Another method is the Fuzzy c-Means method, which classifies similar data into a cluster, which can segment the vehicle using clustering in color space. It was difficult to apply to real-time traffic image sequence analysis.
또 다른 방법으로, 모델 기반 분리방법(Model based Segmentation)은 에지를 추출하고 차량의 3차원 CAD 모델에 대한 사전 지식을 활용하여 모델을 매칭하는 방법이다. 하지만, 어두운 차량의 경우처럼 추출된 에지가 3차원 CAD 모델이 2차원에 투영된 모습을 나타내기에 불충분한 경우에 모델 매칭의 어려움이 있고, 또한 차량의 모양이 다양하고, 관전 기하학(Viewing geometry)에 따라 모델의 개수가 기하급수적으로 증가할 수 있는 문제점이 있었다.Alternatively, model based segmentation is a method of extracting edges and matching models using prior knowledge of the vehicle's three-dimensional CAD model. However, there is difficulty in model matching when the extracted edge is insufficient to show the 3D CAD model projected in 2D as in the case of a dark vehicle, and also the shape of the vehicle is varied, and the viewing geometry There was a problem that the number of models can increase exponentially.
또 다른 방법으로, 칼라 정보와 히스토리 데이터 방법(Color Information and History Data)은 추출한 블랍(Blob: 작은 색깔부분) 내 모든 화소를 차량 화소와 그림자 화소로 분류하고 블랍 크기 대 그림자 화소의 비율을 계산하여 블랍(Blob: 작은 색깔부분)을 정상 차량 블랍(Blob: 작은 색깔부분)과 어두운 차량 블랍(Blob: 작은 색깔부분)으로 분류한다. 이때, 정상 차량 블랍(Blob: 작은 색깔부분)의 경우 그림자 화소를 제거하고, 어두운 차량 블랍(Blob: 작은 색깔부분)은 보간자료 혹은 히스토리 어레이에 저장된 자료를 이용하여 강제로 그림자 부분을 제거한다. 그러나, 그림자 중 캐스트 새도우(cast shadow)와 셀프 새도우(self shadow)를 구별하지 못하여 셀프 새도우까지 제거하는 경우가 발생하였다.Alternatively, the Color Information and History Data method classifies all pixels in the extracted blob into vehicle pixels and shadow pixels and calculates the ratio of the blob size to the shadow pixels. Blobs are divided into normal vehicle blobs and dark vehicle blobs. In this case, in the case of the normal vehicle blob (small colored portion), the shadow pixel is removed, and the dark vehicle blob (small colored portion) is forcibly removed using the data stored in the interpolation data or the history array. However, there is a case where even the self shadow is removed because the cast shadow and the self shadow are not distinguished among the shadows.
그리고, 종래의 그림자 제거방법들은 무엇보다 움직이는 물체를 추적하는데 있어서, 비, 눈, 안개 등에 관한 날씨방해요소와, 그림자 방해요소를 간과함으로서, 선명한 객체를 통한 추적이 어려운 문제점이 있었다.In addition, the conventional shadow removal methods have a problem that it is difficult to track through a clear object by overlooking the weather disturbance element and the shadow obstruction element related to rain, snow, fog, etc. in tracking the moving object.
또한, 현장에서 실시간으로 디지털 영상 데이터내의 진짜 객체와 그림자를 구분하는 기술이 없어, 항상 원격지의 관제서버에서 녹화된 영상 데이터에서 종래의 그림자 제거방법을 통해 움직이는 물체를 추적하기 때문에, 물체 추적 시간이 너무나도 오래 걸리는 문제점이 있었다.In addition, since there is no technology for distinguishing real objects from shadows in real time in the field in real time, since the moving object is always tracked through the conventional shadow removal method in the video data recorded at the remote control server, the object tracking time is increased. There was a problem that took too long.
상기 문제점을 해결하기 위해 본 발명에서는 카메라 자체에 GPS 수신부가 구성되어 원격지의 관제서버로부터 주기적으로 태양의 시간정보와 영상추적장치의 위치정보를 수신받고, 현장에서 실시간으로 디지털 영상 데이터내의 진짜 객체와 그림자를 구분할 수 있고, 미리 객체 그림자의 방향과 길이를 예측하여 선명한 객체를 바탕으로 추적할 수 있어, 기존의 영상 추적 알고리즘에 비해 높은 추적 성능을 갖는 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치 및 방법을 제공하는데 그 목적이 있다.In order to solve the above problems, in the present invention, the camera itself has a GPS receiver configured to receive the time information of the sun and the location information of the image tracking device periodically from a remote control server, and in real time in the field with the real object in the digital image data. Shadows can be distinguished, and the direction and length of the object's shadow can be predicted in advance to track based on the clear object. The purpose of the present invention is to provide an image tracking apparatus and method.
상기의 목적을 달성하기 위해 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치는In order to achieve the above object, the image tracking device through the shadow removal method according to the camera position and the time the sun moves according to the present invention
카메라로부터 들어오는 아날로그 영상 데이터를 디지털 변환처리 후 하드 디스크에 디지털 영상 데이터로 압축·저장하고, 원격지의 관제서버(20)로 추적용 영상신호를 전송시키는 영상추적장치(10)로 이루어지고,It consists of an
상기 영상추적장치(10)는 화면분할기능(Multiplexer), 움직임 감지기능(Motion Detector), PTZ 컨트롤러기능(PTZ Controller), 녹화기능(Time-lapse VCR)이 통합되어, 불법 주정차 단속 감시 및 고속도로상의 과속 주행 감시하면서 영상촬영하고, 촬영된 영상데이터를 원격지의 관제서버로 실시간 전송하는 디지털 비디오 레코더(VCR)(100)와,The
원격지의 관제서버로부터 주기적으로 시간정보와 위치정보를 수신받아 객체 그림자의 방향과 길이를 연산한 후, 그 연산된 데이터 값에 따라 그림자가 제거된 선명한 객체만을 검출하여 추적하는 객체추적모듈(200)이 구성됨으로서 달성된다.After receiving time information and position information periodically from a remote control server to calculate the direction and length of the object shadow, the
또한, 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적방법은In addition, the image tracking method through the shadow removal method according to the camera position and the time the sun moves according to the present invention
카메라로부터 촬영된 디지털 영상 데이터에서 실시간으로 움직이는 물체를 옵티컬 플로우로 검출하는 단계(S100)와,Detecting an optical object moving in real time from the digital image data captured by the camera (S100);
옵티컬 플로우 검출부에서 검출된 디지털 영상 데이터 중 형상 기반과 움직임 기반으로 물체의 형태를 분류하는 단계(S200)와,Classifying a shape of an object based on shape and movement based on the digital image data detected by the optical flow detector (S200);
물체분류부를 통해 분류된 디지털 영상 데이터를 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산(S310)을 통해 물체와 그림자로 구분시키고, 그림자를 제거시키는 단계(S300)와,Dividing the digital image data classified through the object classifying unit into an object and a shadow through object shadow direction calculation and length operation (S310) according to the camera position and time, and removing the shadow (S300);
그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터 중 물체 상관성을 가지는 마지막 매칭을 결정하고 비선형 보팅(Voting)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적하는 단계(S400)와,Determining the last match having object correlation among the shadow-free digital image data through the shadow removal module and tracking the moving object in the image through the movement by the nonlinear voting and the center, model, and size of the object (S400). )Wow,
원격지의 영상추적장치의 객체추적모듈로부터 전송된 물체 추적 영상화면을 실시간으로 모니터링하고, 영상추적장치의 위치 좌표값을 GPS 기지국을 통해 추출한 후, 위치정보와 현재 시간정보를 객체추적모듈로 전송시키는 추적영상원격모니 터링 단계(S600)로 이루어짐으로서 달성된다.It monitors the object tracking video screen transmitted from the object tracking module of the remote video tracking device in real time, extracts the position coordinate value of the video tracking device through the GPS base station, and transmits the location information and current time information to the object tracking module. It is achieved by the tracking image remote monitoring step (S600).
이상에서 설명한 바와 같이, 본 발명에서는 본 발명에서는 카메라 자체에 GPS 수신부가 구성되어 원격지의 관제서버로부터 주기적으로 태양의 시간정보와 영상추적장치의 위치정보를 수신받아 데이터 오류를 방지할 수 있고, 현장에서 실시간으로 디지털 영상 데이터내의 진짜 객체와 그림자를 구분할 수 있으며, 미리 객체 그림자의 방향과 길이를 예측하여 선명한 객체를 바탕으로 추적할 수 있어, 기존의 영상 추적 알고리즘에 비해 90% 이상의 뛰어난 추적성능을 제공할 수가 있는 좋은 효과가 있다.As described above, in the present invention, in the present invention, the GPS receiver is configured in the camera itself to receive data from the remote control server periodically and receive the sun information and the location information of the image tracking device to prevent data errors. It can distinguish real objects and shadows in digital image data in real time, and can track based on clear objects by predicting the direction and length of object shadows in advance, resulting in more than 90% better tracking performance than conventional video tracking algorithms. There is a good effect it can provide.
이하, 본 발명에 따른 바람직한 실시예를 도면을 첨부하여 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치의 구성요소를 도시한 블럭도에 관한 것으로, 이는 불법 주정차 단속 감시 및 고속도로상의 과속 주행 감시하고, 영상 추적하는 영상추적장치(10)와, 원격지의 관제서버(20)로 구성된다.1 is a block diagram showing the components of the image tracking device through the shadow removal method according to the camera position and the sun moving time according to the present invention, which monitors illegal parking and speeding on the highway, the image It consists of a video tracking device for tracking 10, and the
먼저, 본 발명에 따른 영상추적장치(10)에 관해 설명한다.First, the
본 발명에 따른 영상추적장치는 카메라로부터 들어오는 아날로그 영상 데이터를 디지털 변환처리 후 하드 디스크에 디지털 영상 데이터로 압축·저장하고, 촬영된 영상데이터를 원격지의 관제서버로 추적용 영상신호를 전송시키는 것으로, 이는 디지털 비디오 레코더(VCR)(100)와 객체추적모듈(200), 그리고, 카메라(300)로 구성된다.According to the present invention, an image tracking device compresses and stores analog image data coming from a camera as digital image data on a hard disk after digital conversion processing, and transmits the captured image data to a remote control server for tracking. It consists of a digital video recorder (VCR) 100, an
또한, 본 발명에 따른 영상추적장치(10)는 객체추적모듈을 통해 원격지의 관제서버의 원격제어에 따라 현장에서 실시간으로 그림자가 제거된 선명한 객체만을 검출하여 1차 물체 추적하도록 구성된다.In addition, the
상기 디지털 비디오 레코더(VCR)(100)는 화면분할기능(Multiplexer), 움직임 감지기능(Motion Detector), PTZ 컨트롤러기능(Pan, Tilt, Zoom Controller), 녹화기능(Time-lapse VCR)이 통합되어, 불법 주정차 단속 감시 및 고속도로상의 과속 주행 감시하면서 영상촬영하고, 원격지의 관제서버로 실시간 전송하는 것으로, 이는 도 2에서 도시한 바와 같이, 카메라로부터 입력된 영상을 분할 및 순차방식으로 디스플레이하여 모니터링하는 실시간 모니터링 감시부(110)와, 아날로그 영상 데이터를 디지털 신호로 변환/압축하여 HDD(하드디스크드라이버)에 저장하고, 저장된 영상 데이터를 CD-RW를 이용하여 백업하는 녹화·백업부(120)와, HDD에 파일 저장정보를 카메라별, 시간별, 이벤트별로 검색, 다채널 동시 검색 및 파노라마 뷰어하는 검색부(130)와, TCP/IP, RTP/RTCP(Real Time Transport Protocol/ Real Time Control Protocol), UDP(User Datagram Protocol)를 이용하여 원격지의 관제서버로 실시간 전송 및 녹화 영상 원격 검색하는 네트워크 전송부(140)와, 원격지 감시, 원격지 영상 녹화, 원격 검색, 원격지 녹화, 시스템 설정 변경을 하는 원격지 모니터링제어부(150)와, 연속, 스케줄, 움직임 감지, 센서 연동에 대한 스케쥴 이벤트를 관리하는 스케줄 관리부(160)와, EIA-485,EIA-232C 시리얼 포트를 이용한 카메라(300)의 팬/틸트/줌 제어하는 카메라 구동제어부(170)가 구성된다.The digital video recorder (VCR) 100 integrates a screen splitting function (Multiplexer), a motion detector (Motion Detector), a PTZ controller function (Pan, Tilt, Zoom Controller), a recording function (Time-lapse VCR), It takes an image while monitoring the illegal parking stop and monitoring the speeding on the highway, and transmits the image to a remote control server in real time. As shown in FIG. A monitoring /
상기 객체추적모듈(200)은 디지털 비디오 레코더(VCR)에 프로그램적으로 설치되어 원격지의 관제서버로부터 주기적으로 시간정보와 위치정보를 수신받아 객체 그림자의 방향과 길이를 연산한 후, 그 연산된 데이터 값에 따라 그림자가 제거된 선명한 객체만을 검출하여 추적하는 것으로, 이는 도 3에서 도시한 바와 같이, 옵티컬 플로우 검출부(210), 물체 분류부(220), 그림자 제거모듈(230), 물체 추적부(240)로 구성된다.The
본 발명에 따른 객체추적모듈(200)은 원격지의 관제서버와 IEEE485 유선 제어라인을 통해 주기적으로 시간정보와 위치정보를 수신받거나 또는 단독으로 GPS 기지국과 연결되어 직접 태양의 방위각과 시각을 수신받을 수 있도록 구성되는 것을 특징으로 한다. The
상기 옵티컬 플로우 검출부(210)는 디지털 영상 데이터에서 실시간으로 움직이는 물체를 옵티컬 플로우로 검출하는 역할을 한다.The
여기서, 옵티컬 플로우는 동영상의 명암도가 시간에 따라 변할 때, 이동되는 2차원의 속도장(Velocity field)을 말한다. Here, the optical flow refers to a two-dimensional velocity field that is moved when the intensity of the video changes with time.
이는 프레임 내의 화소들의 위치 변화에 대한 속도를 2차원으로 표현한 것으로서, 즉 3차원 공간상에서 이동하는 물체를 카메라(300)를 이용하여 2차원 공간으로 투영할 때 2차원 공간에서 형성되는 영상의 이동속도를 말한다. This is a two-dimensional representation of the velocity of the position change of the pixels in the frame, that is, the moving speed of the image formed in the two-dimensional space when projecting an object moving in the three-dimensional space in the two-dimensional space using the
옵티컬 플로우를 계산하는 것은 공간 및 시간 축에 대한 화소 밝기의 변화량을 계산함으로써, 영상내의 모든 화소들의 움직임을 예측하기 위함이다.Computing the optical flow is to predict the motion of all the pixels in the image by calculating the amount of change in pixel brightness with respect to the spatial and temporal axes.
즉, 옵티컬 플로우를 검출함으로써, 역으로 3차원 공간에서의 물체의 이동을 추정할 수가 있으며, 물체의 움직임 검출, 물체의 분할, 움직임 보상에 의한 영상 부호화를 구현할 수가 있다. In other words, by detecting the optical flow, it is possible to inversely estimate the movement of an object in a three-dimensional space, and implement image encoding by detecting the movement of the object, dividing the object, and compensating for the motion.
본 발명에서는 옵티컬 플로우의 검출방법으로, 영역기반 정합기법에 의해 검출된다.In the present invention, as an optical flow detection method, it is detected by an area-based matching technique.
상기 영역기반 정합기법은 너무 적은 수의 프레임이 존재하고 영상을 취득하는 단계에서 엘리어싱(aliasing : 샘플링주파수를 샘플링시, 주파수 이하의 성분이 겹쳐서 나타나는 현상) 또는 잡음이 발생하면 정확한 수학적 미분을 사용하는 방법이 부적절하기 때문에 영역 기반의 정합기법이 사용된다. The region-based matching technique uses accurate mathematical derivatives when there are too few frames and aliasing occurs when acquiring images at the time of acquiring images or noise. Because of the inadequate approach, domain-based matching techniques are used.
영역기반 정합기법은 속도 v를 서로 다른 시간에 대하여 영상에서 일정한 영역이 가장 많이 일치하는 이동 d=(dx,dy)이라 정의한다.In the region-based matching technique, the velocity v is defined as the movement d = (dx, dy) in which a constant region in the image most matches with respect to time.
가장 정확한 정합을 찾는 방법은 정규화된 상호 상관관계(normalized cross correlation)와 같은 유사도(similar measure)를 최대화하는 방법이나, 자승한 차에 대한 합(Sum of Squared Difference :SSD)과 같은 거리 측정(Distance measure) 을 최소화하는 방법이다. Finding the most accurate match can be done by maximizing similar measures like normalized cross correlation, or distance measures like sum of squared difference (SSD). Minimize the measure.
상기 물체분류부(220)는 옵티컬 플로우 검출부에서 검출된 디지털 영상 데이터 중 형상 기반과 움직임 기반으로 물체의 형태를 분류하는 역할을 한다.The
이는 물체의 2차원 공간적인 정보를 사용하는 형상기반 분류부(221)와, 분류 해결을 위해서 물체의 시간적으로 축적된 특성들을 사용하는 움직임기반 분류부(222)로 구성된다.It is composed of a shape-based classifier 221 using two-dimensional spatial information of the object, and a motion-based classifier 222 using the temporally accumulated properties of the object for classification resolution.
상기 형상기반 분류부(221)는 사각형 경계, 지역, 실루엣(윤곽선), 그리고 검출된 물체 영역의 기울기를 이용해서 분류하는 역할을 한다.The shape-based classification unit 221 serves to classify using a rectangular boundary, an area, a silhouette (contour), and a slope of the detected object area.
즉, 세가지 그룹들 안에(사람, 차량, 그리고 다른 물체) 검출된 물체들을 분류하기 위해서 지역과 그림자 외형 윤곽선(contour) 길이의 정보를 사용한다. That is, we use information of area and shadow contour length to classify the detected objects into three groups (people, vehicles, and other objects).
형상기반 분류부의 척도(Dispersedness)는 물체들의 지역(Area)과 물체의 실루엣(윤곽선) 길이(Perimeter)의 관점에서 수학식 1과 같이 정의된다.Dispersedness of the shape-based classification unit is defined as in Equation 1 in view of the area of the objects and the perimeter of the object.
상기 움직임기반 분류부(222)는 움직이는 물체의 시간적인 자기 유사성(self-simiarity)에 기반하여 분류하는 역할을 한다.The motion-based classifier 222 classifies based on temporal self-simiarity of the moving object.
본 발명에 따른 옵티컬 플로우 분석은 고정된 물체와 고정되지 않은 물체를 구별하는데 유용하게 사용된다.Optical flow analysis according to the present invention is usefully used to distinguish between fixed and non-fixed objects.
즉, 검출된 물체 영역들의 지역적인 옵티컬플로우 분석을 사용한다.That is, it uses local optical flow analysis of the detected object regions.
이는 사람과 같이 고정되지 않는 물체들은 높은 평균 나머지 흐름이 있을 것이고, 반면에 차량과 같이 고정된 물체가 낮은 나머지 흐름을 나타낼 것으로 기대한다.This expects that non-fixed objects, such as humans, will have a high average residual flow, while fixed objects, such as vehicles, will exhibit low residual flows.
또한, 사람 움직임으로써 생성된 잔여 흐름은 주기성을 가지게 된다. 이러한 특징을 이용하여 사람 움직임, 사람들을 차량과 같은 다른 물체들로부터 구별해서 분류할 수가 있다. In addition, the residual flow generated by human movement becomes periodic. This feature can be used to classify people's movements and people from other objects such as vehicles.
상기 그림자 제거모듈(230)은 물체분류부를 통해 분류된 디지털 영상 데이터를 카메라 위치 및 시간에 따른 그림자 방향 연산 및 길이 연산을 통해 물체와 그림자로 구분시키고, 그림자를 제거시키는 역할을 한다. 이는 도 4에서 도시한 바와 같이, GPS 수신부(231), 그림자 연산제어부(232), 그림자 제거부(233), 데이터 전송부(234)로 구성된다.The
상기 GPS 수신부(231)는 원격지의 관제서버를 통해 GPS 기지국으로부터 주기적으로 태양의 시간정보와 영상추적장치의 위치정보를 수신받는 역할을 한다.The
상기 그림자 연산제어부(232)는 GPS 수신부로부터 수신된 태양의 시간정보와 영상추적장치의 위치정보에 따라 그림자 방향 연산 및 길이 연산을 통해 카메라(300)에 입력된 디지털 영상 데이터 중 객체와 그림자를 구분시키는 역할을 한 다.The
상기 GPS 수신부로부터 수신된 태양의 시간정보와 영상추적장치의 위치정보에 따라 객체 그림자 방향 연산 및 길이 연산하는 과정을 설명한다.A process of calculating the object shadow direction and calculating the length according to the time information of the sun and the position information of the image tracking device received from the GPS receiver will be described.
먼저, GPS 수신부로부터 원격지에 있는 카메라(300)에 시간 정보와 방위정보를 전송시킨다.First, time information and azimuth information are transmitted from a GPS receiver to a
즉, GPS 수신부는 원격지에 있는 카메라(300)에 시간 정보와 방위정보를 주기 위한 것으로, 카메라(300)가 유선으로 외부에 연결되어 있을 때는 유선으로 카메라(300)에 시간과 방위 정보를 주는 역할을 한다. That is, the GPS receiver is to give time information and orientation information to the
이어서, 미리 저장된 카메라(300)의 메모리부로부터 시간과 방위에 따라 태양의 위치를 연산한다.Subsequently, the position of the sun is calculated from the memory unit of the
즉, 시간과 방위에 따라 태양의 위치는 미리 카메라(300)의 메모리부에 저장된다.That is, the position of the sun is stored in advance in the memory of the
이어서, 태양의 위치에 따른 태양의 각도(θ) 및 움직이는 객체의 높이(B)를 통해 움직이는 객체의 반대방향으로 생기는 객체 그림자의 방향과 길이(A)를 연산한다.Subsequently, the direction and the length A of the object shadow occurring in the opposite direction of the moving object through the angle θ of the sun according to the position of the sun and the height B of the moving object are calculated.
즉, 태양의 위치를 알면 도 5에서 도시한 바와 같이, 반대방향으로 그림자가 생기게 된다. In other words, knowing the position of the sun, as shown in Figure 5, the shadow is generated in the opposite direction.
이때, 그림자의 길이(A)는 다음의 수학식 2와 같이, 태양의 높이와 방향 정보를 통해 계산할 수가 있다.In this case, the length A of the shadow can be calculated through the height and direction information of the sun, as shown in Equation 2 below.
여기서, A는 그림자 길이를 나타내고, B는 움직이는 객체 높이를 나타내며, θ는 태양의 각도를 나타낸다.Where A represents the shadow length, B represents the moving object height, and θ represents the angle of the sun.
그리고, 태양의 각도(θ)는 지구와 태양의 좌표를 알면 카메라(300)의 메모리부에 저장된 데이터에 의해 자동으로 연산된다. The angle θ of the sun is automatically calculated by the data stored in the memory of the
상기 그림자 제거부(233)는 그림자 연산제어부를 통해 객체와 그림자가 구분된 데이터에서 그림자만을 제거하여 선명한 객체만을 추출하는 역할을 한다.The
상기 데이터 전송부(234)는 그림자제거부를 통해 그림자 제거된 디지털 영상 데이터만을 물체 추적부로 전송시키는 역할을 한다.The
상기 물체추적부(240)는 그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터 중 물체 상관성을 가지는 마지막 매칭을 결정하고 비선형 보팅(Voting : 각 신호의 비교 시 기준값을 결정함)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적하는 것으로, 이는 매칭 상관성, 움직임 추정, 위치 예측을 사용하여 추적하도록 구성된다.The
즉, 그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터에서 지역과 물체들을 분리했다면, 물체추적부에서는 현재 이미지로부터 상응하는 물체들의 특징인 면적(A), 길이(L), 넓이(W), 물체의 중심(Cm), 칼라 히스토그램(Hc), 원형도(C), 방향성(θ) 그리고 물체들의 블랍(Blob: 작은 색깔부분)들에 대한 실루엣( 윤곽선)을 추출해서, 물체 상관성을 가지는 마지막 매칭을 결정한다.In other words, if the area and the objects are separated from the shadow-free digital image data through the shadow removal module, the object tracker is characterized by the area (A), length (L), width (W), Lastly, the object correlation is extracted by extracting the center (Cm), color histogram (Hc), circularity (C), directionality (θ), and silhouettes (contours) of the blobs of objects. Determine the match.
이어서, 비선형 보팅(Voting : 각 신호의 비교 시 기준값을 결정함)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적한다.Then, the moving object in the image is tracked through the movement by nonlinear voting (to determine the reference value when comparing each signal) and the center, model, and size of the object.
다음으로, 본 발명에 따른 원격지의 관제서버(20)에 관해 설명한다.Next, the
상기 관제서버(20)는 불법 주정차 단속 및 고속도로상의 과속 주행 감시용으로 사용되는 영상추적장치의 객체추적모듈로 물체 추적용 원격제어신호를 보내고, 물체 추적 영상화면을 실시간으로 모니터링하며, 각 영상추적장치의 위치 좌표값을 GPS 기지국을 통해 추출한 위치정보와 현재 시간정보를 객체추적모듈로 전송시키는 역할을 한다.The
이는 GPS기지국을 통해 각 영상추적장치의 위치 좌표값을 추출함과 동시에 그 위치 좌표값에 따른 현재 시간정보를 연산하여 내부 프로그램 메모리에 저장한다.It extracts the position coordinate value of each video tracking device through the GPS base station and calculates the current time information according to the position coordinate value and stores it in the internal program memory.
이하, 본 발명에 따른 카메라 위치 및 시간에 따른 그림자 제거방식을 통한 영상추적방법에 관해 설명한다.Hereinafter, an image tracking method using a shadow removal method according to a camera position and time according to the present invention will be described.
먼저, 카메라로부터 촬영된 디지털 영상 데이터에서 실시간으로 움직이는 물체를 옵티컬 플로우로 검출한다(S100).First, an object moving in real time from the digital image data captured by the camera is detected as an optical flow (S100).
이어서, 옵티컬 플로우 검출부에서 검출된 디지털 영상 데이터 중 형상 기반과 움직임 기반으로 물체의 형태를 분류한다(S200).Subsequently, the shape of the object is classified based on the shape and the motion based on the digital image data detected by the optical flow detector (S200).
이어서, 물체분류부를 통해 분류된 디지털 영상 데이터를 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산을 통해 물체와 그림자로 구분시키고, 그림자를 제거시킨다(S300).Subsequently, the digital image data classified through the object classifying unit is classified into an object and a shadow through object shadow direction calculation and length calculation according to the camera position and time, and the shadow is removed (S300).
여기서, 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산을 하는 것은 Here, computing the object shadow direction and length according to the camera position and time is
GPS 수신부로부터 원격지에 있는 카메라에 시간 정보와 방위정보를 전송시키는 단계(S310)와, Transmitting time information and bearing information from a GPS receiver to a camera at a remote location (S310);
미리 저장된 카메라의 메모리부로부터 시간과 방위에 따라 태양의 위치를 연산하는 단계(S320)와,Calculating a position of the sun according to time and azimuth from a memory unit of the pre-stored camera (S320);
태양의 위치에 따른 태양의 각도(θ) 및 움직이는 객체의 높이(B)를 통해 움직이는 객체의 반대방향으로 생기는 객체 그림자의 방향 및 길이(A)를 연산하는 단 계(S330)로 이루어진다.Comprising a step (S330) for calculating the direction and the length (A) of the object shadow that occurs in the opposite direction of the moving object through the angle (θ) of the sun according to the position of the sun and the height (B) of the moving object.
이어서, 그림자 제거모듈을 통해 그림자가 제거된 디지털 영상 데이터 중 물체 상관성을 가지는 마지막 매칭을 결정하고 비선형 보팅(Voting : 각 신호의 비교 시 기준값을 결정함)에 의한 움직임과 물체의 중심, 모형, 크기를 통해 영상 내의 움직이는 객체를 추적한다(S400).Subsequently, the shadow elimination module is used to determine the last match with object correlation among the shadow-free digital image data, and to determine the center of gravity, model, and size of the object by nonlinear voting. Tracking the moving object in the image through (S400).
이어서, 원격지의 영상추적장치의 객체추적모듈로부터 전송된 물체 추적 영상화면을 실시간으로 모니터링하고, 영상추적장치의 위치 좌표값을 GPS 기지국을 통해 추출한 후, 위치정보와 현재 시간정보를 객체추적모듈로 전송시킨다(S500).Subsequently, the object tracking image screen transmitted from the object tracking module of the remote image tracking device is monitored in real time, the position coordinate value of the video tracking device is extracted through the GPS base station, and the position information and the current time information are transferred to the object tracking module. To transmit (S500).
[[
관제서버(20)의Of the
먼저, 관제서버(20)에서 불법 주정차 단속 및 고속도로상의 과속 주행 감시용으로 사용되는 영상추적장치의 객체추적모듈로 물체 추적용 원격제어신호를 보낸다.First, the
이어서, 물체 추적 영상화면을 실시간으로 모니터링한다.Subsequently, the object tracking video screen is monitored in real time.
이어서, 각 영상추적장치의 위치 좌표값을 GPS 기지국을 통해 추출한 위치정보와 현재 시간정보를 객체추적모듈로 전송시킨다.Subsequently, the positional information and the current time information extracted from the position coordinates of each image tracking device through the GPS base station are transmitted to the object tracking module.
도 1은 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적장치의 구성요소를 도시한 블럭도,1 is a block diagram showing the components of the image tracking device through the shadow removal method according to the camera position and the time the sun moves according to the present invention,
도 2는 본 발명에 따른 디지털 비디오 레코더(VCR)(100)의 구성요소를 도시한 블럭도,2 is a block diagram showing components of a digital video recorder (VCR) 100 according to the present invention;
도 3은 본 발명에 따른 객체추적모듈(200)의 구성요소를 도시한 블럭도,3 is a block diagram showing the components of the
도 4는 본 발명에 따른 그림자 제거모듈(230)의 구성요소를 도시한 블럭도,4 is a block diagram showing the components of the
도 5는 본 발명에 따른 GPS 수신부로부터 수신된 태양의 시간정보와 영상추적장치의 위치정보에 따라 객체 그림자 방향 연산 및 길이 연산하는 과정을 도시한 일실시예도,5 is a diagram illustrating an operation of calculating an object shadow direction and calculating a length according to time information of a sun received from a GPS receiver and position information of an image tracking device according to the present invention;
도 6은 본 발명에 따른 카메라 위치·태양이 움직이는 시간에 따른 그림자 제거방식을 통한 영상추적방법에 따른 순서도,6 is a flowchart illustrating an image tracking method using a shadow removal method according to a camera position and a time at which the sun moves according to the present invention;
도 7은 본 발명에 따른 카메라 위치 및 시간에 따른 객체 그림자 방향 연산 및 길이 연산을 하는 과정을 도시한 순서도.7 is a flowchart illustrating a process of calculating an object shadow direction and a length according to a camera position and time according to the present invention.
※ 도면 부호의 간단한 설명 ※※ Brief description of reference numerals ※
10 : 영상추적장치 20 : 원격지의 관제서버 10: video tracking device 20: remote control server
100 : 디지털 비디오 레코더(VCR) 110 : 모니터링 감시부100: digital video recorder (VCR) 110: monitoring monitoring unit
130 : 검색부 140 : 네트워크 전송부130: search unit 140: network transmission unit
150 : 모니터링제어부 160 : 스케쥴 관리부150: monitoring control unit 160: schedule management unit
170 : 카메라 구동제어부 200 : 관제서버170: camera driving control unit 200: control server
210 : 옵티컬 플로우 검출부 220 : 물체 분류부210: optical flow detection unit 220: object classification unit
230 : 그림자 제거모듈 240 : 물체 추적부230: shadow removal module 240: object tracking unit
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090134057A KR101161557B1 (en) | 2009-12-30 | 2009-12-30 | The apparatus and method of moving object tracking with shadow removal moudule in camera position and time |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090134057A KR101161557B1 (en) | 2009-12-30 | 2009-12-30 | The apparatus and method of moving object tracking with shadow removal moudule in camera position and time |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110077465A true KR20110077465A (en) | 2011-07-07 |
KR101161557B1 KR101161557B1 (en) | 2012-07-03 |
Family
ID=44917053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090134057A KR101161557B1 (en) | 2009-12-30 | 2009-12-30 | The apparatus and method of moving object tracking with shadow removal moudule in camera position and time |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101161557B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10176599B2 (en) | 2016-07-06 | 2019-01-08 | Samsung Electronics Co., Ltd. | Electronic apparatus and displaying method thereof |
CN113378775A (en) * | 2021-06-29 | 2021-09-10 | 武汉大学 | Video shadow detection and elimination method based on deep learning |
KR20220155041A (en) * | 2021-05-14 | 2022-11-22 | 서울대학교산학협력단 | Event camera-based object tracking apparatus and method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220055257A (en) | 2020-10-26 | 2022-05-03 | 현대자동차주식회사 | Apparatus for shadow processing in camera image and method thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050212794A1 (en) * | 2004-03-29 | 2005-09-29 | Communications Research Laboratory, Independent Administrative Institution | Method and apparatus for removing of shadows and shadings from texture images |
KR100820952B1 (en) * | 2008-01-04 | 2008-04-11 | 한국비전기술(주) | Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle using single camera and system thereof |
-
2009
- 2009-12-30 KR KR1020090134057A patent/KR101161557B1/en active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10176599B2 (en) | 2016-07-06 | 2019-01-08 | Samsung Electronics Co., Ltd. | Electronic apparatus and displaying method thereof |
KR20220155041A (en) * | 2021-05-14 | 2022-11-22 | 서울대학교산학협력단 | Event camera-based object tracking apparatus and method |
CN113378775A (en) * | 2021-06-29 | 2021-09-10 | 武汉大学 | Video shadow detection and elimination method based on deep learning |
Also Published As
Publication number | Publication date |
---|---|
KR101161557B1 (en) | 2012-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101647370B1 (en) | road traffic information management system for g using camera and radar | |
KR101808587B1 (en) | Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors | |
CN101969548B (en) | Active video acquiring method and device based on binocular camera shooting | |
Semertzidis et al. | Video sensor network for real-time traffic monitoring and surveillance | |
KR101496390B1 (en) | System for Vehicle Number Detection | |
WO2012023766A2 (en) | Security camera tracking and monitoring system and method using thermal image coordinates | |
US20060285724A1 (en) | Salient motion detection system, method and program product therefor | |
US20150131851A1 (en) | System and method for using apparent size and orientation of an object to improve video-based tracking in regularized environments | |
EP2709066A1 (en) | Concept for detecting a motion of a moving object | |
CN104378582A (en) | Intelligent video analysis system and method based on PTZ video camera cruising | |
KR101530255B1 (en) | Cctv system having auto tracking function of moving target | |
WO2012090200A1 (en) | Calibration device and method for use in a surveillance system for event detection | |
Bloisi et al. | Argos—A video surveillance system for boat traffic monitoring in Venice | |
KR101515166B1 (en) | A Parking Event Detection System Based on Object Recognition | |
CN111914592B (en) | Multi-camera combined evidence obtaining method, device and system | |
CN111932901A (en) | Road vehicle tracking detection apparatus, method and storage medium | |
KR102579542B1 (en) | Crowd density-based hazardous area automated alert system | |
CA2670021A1 (en) | System and method for estimating characteristics of persons or things | |
KR101161557B1 (en) | The apparatus and method of moving object tracking with shadow removal moudule in camera position and time | |
JP2011513876A (en) | Method and system for characterizing the motion of an object | |
CN115909223A (en) | Method and system for matching WIM system information with monitoring video data | |
WO2020174916A1 (en) | Imaging system | |
Stec et al. | Using time-of-flight sensors for people counting applications | |
KR101033237B1 (en) | Multi-function detecting system for vehicles and security using 360 deg. wide image and method of detecting thereof | |
JP2011198244A (en) | Object recognition system, monitoring system using the same, and watching system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150604 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160614 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170922 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180621 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190529 Year of fee payment: 8 |