KR101038650B1 - Adaptive modeling method for background image, detecting method and system for illegal-stopping and parking vehicle using it - Google Patents

Adaptive modeling method for background image, detecting method and system for illegal-stopping and parking vehicle using it Download PDF

Info

Publication number
KR101038650B1
KR101038650B1 KR1020110007707A KR20110007707A KR101038650B1 KR 101038650 B1 KR101038650 B1 KR 101038650B1 KR 1020110007707 A KR1020110007707 A KR 1020110007707A KR 20110007707 A KR20110007707 A KR 20110007707A KR 101038650 B1 KR101038650 B1 KR 101038650B1
Authority
KR
South Korea
Prior art keywords
image
information
foreground area
area
foreground
Prior art date
Application number
KR1020110007707A
Other languages
Korean (ko)
Inventor
박상현
조상규
박성환
박길양
Original Assignee
박상현
딕스비전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박상현, 딕스비전 주식회사 filed Critical 박상현
Priority to KR1020110007707A priority Critical patent/KR101038650B1/en
Application granted granted Critical
Publication of KR101038650B1 publication Critical patent/KR101038650B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B43WRITING OR DRAWING IMPLEMENTS; BUREAU ACCESSORIES
    • B43KIMPLEMENTS FOR WRITING OR DRAWING
    • B43K29/00Combinations of writing implements with other articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B43WRITING OR DRAWING IMPLEMENTS; BUREAU ACCESSORIES
    • B43KIMPLEMENTS FOR WRITING OR DRAWING
    • B43K7/00Ball-point pens
    • B43K7/005Pen barrels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

PURPOSE: An illegally parked car controlling system using an adaptive background image modeling method is provided to perform an exact modeling function through a quick removal of an effect of an object which stayed within a monitoring region. CONSTITUTION: An unmanned illegal parking management system extracts a foreground image by an object from a video frame(S140). The system senses the movement or the pause of the foreground region(S150). If the fore ground region is not extracted or the extracted foreground region is in moving, a Gaussian model by pixel about the entire region of the background is updated. If the extracted foreground region is moved after a predetermined time, the Gaussian model about the stopped area is initialized(S160).

Description

적응적 배경영상 모델링 방법, 이를 이용한 불법주정차 무인단속방법 및 불법주정차 무인단속시스템{ADAPTIVE MODELING METHOD FOR BACKGROUND IMAGE, DETECTING METHOD AND SYSTEM FOR ILLEGAL-STOPPING AND PARKING VEHICLE USING IT}ADAPTIVE MODELING METHOD FOR BACKGROUND IMAGE, DETECTING METHOD AND SYSTEM FOR ILLEGAL-STOPPING AND PARKING VEHICLE USING IT}

본 발명은 적응적 배경영상 모델링 방법, 이를 이용한 불법주정차 무인단속방법 및 불법주정차 무인단속시스템에 관한 것으로서, 더욱 상세하게는, 적응적 가우시안 혼합 모델로 배경 영상을 모델링함에 있어 이동 물체의 상황 변화에 따라 전역적으로 배경 영상을 업데이트하거나 국소적으로 배경 영상을 업데이트하여서 이동 물체가 배경 영상에 미치는 영향을 감소시켜 배경 영상을 정확하게 업데이트하며, 아울러, 배경 영상의 업데이트 과정에서 얻는 상황 변화에 따라 이동 물체를 감지하여 불법주정차를 단속하는 적응적 배경영상 모델링 방법, 이를 이용한 불법주정차 무인단속방법 및 불법주정차 무인단속시스템에 관한 것이다.The present invention relates to an adaptive background image modeling method, an illegal parking unmanned enforcement method using the same, and an illegal parking unmanned enforcement system. More particularly, the present invention relates to a situation change of a moving object in modeling a background image with an adaptive Gaussian mixture model. Therefore, by updating the background image globally or locally updating the background image, the background image is accurately updated by reducing the influence of the moving object on the background image, and the moving object according to the change of the situation obtained in the process of updating the background image. The present invention relates to an adaptive background image modeling method for detecting illegal parking and detecting illegal parking, an unmanned parking control method using the same, and an illegal parking control system.

지정된 지역을 카메라로 촬영하여 이동 물체를 감시하기 방법에 있어서, 지정된 지역의 배경영상에서 현재 영상을 차분하여 이동 물체의 출현에 따른 전경영역을 추출하여야 하고, 이 과정에서 전경영역을 누락 없이 추출하려면, 정확한 배경영상의 획득이 필연적으로 요구되며, 아울러, 매 프레임별로 변화되는 배경의 변화에 적응하여 배경영상을 정확하게 실시간 업데이트하는 것도 중요하다.A method of monitoring a moving object by photographing a specified area using a camera, and extracting the foreground area according to the appearance of the moving object by subtracting the current image from the background image of the designated area, and extracting the foreground area without missing in this process Inevitably, accurate background image acquisition is inevitably required. In addition, it is important to accurately update the background image in real time by adapting to a change in the background that changes every frame.

배경영상의 획득방법으로서 그림자나 하이라이트와 같이 밝기 변화에도 적절히 대처할 수 있는 적응적 가우시안 혼합 모델(Adaptive Gaussian Mixture model) 방법이 있다. 적응적 가우시안 혼합 모델은, 연속적으로 입력받는 영상 프레임에 의해서 각 화소별로 나타나는 화소값을 가우시안 분포로 모델링하고, 모델링된 가우시안 분포의 평균 및 공분산에 따라 물체의 출현 여부를 판단하며, 여기서, 현재 프레임의 화소값이 가우시안 분포의 평균값으로부터 벗어난 정도를 공분산값을 기준으로 확인하여 물체에 의한 화소인지 아니면 배경의 변화에 따른 화소인지를 감지한다. 그리고, 적응적 가우시안 혼합 모델은 매 프레임이 입력될 때마다 가우시안 분포의 평균 및 공분산을 업데이트한다. 이에 따라, 적응적 가우시안 혼합 모델방법은 배경의 밝기 변화에 적절히 대처하며 물체의 출현을 확률적으로 정확하게 감지할 수 있다.As a method of acquiring a background image, there is an adaptive Gaussian Mixture model method that can cope with a change in brightness such as shadows and highlights. The adaptive Gaussian mixture model models a pixel value of each pixel by successively input image frames as a Gaussian distribution, and determines whether an object appears according to the mean and covariance of the modeled Gaussian distribution, wherein the current frame The degree of deviation from the mean value of the Gaussian distribution is determined based on the covariance value to detect whether the pixel is caused by an object or a pixel due to a change in the background. The adaptive Gaussian mixture model then updates the mean and covariance of the Gaussian distribution with each frame input. Accordingly, the adaptive Gaussian mixture model method appropriately copes with the change in the brightness of the background and can detect the appearance of an object probabilisticly and accurately.

하지만, 이러한 적응적 가우시안 혼합 모델은, 이동 물체가 지정된 지역을 통과할 경우에 이동 물체에 의한 화소값의 영향이 적고 이동 물체가 사라진 후에 그 영향도 없어지므로 이동 물체의 통과에 대해 유효하게 적응하지만, 이동 물체가 지정된 지역에 오랫동안 멈출 경우에는 이동 물체에 의한 화소값이 가우시안 분포에 크게 작용하여 배경 영상으로서 정확하게 모델링되지 아니하는 문제점을 갖는다. 더욱이, 멈춘 물체가 다시 이동할 경우에는 멈춤 위치에 대응되는 화소의 가우시안 분포에 물체의 화소값에 의한 영향이 크게 작용한 상태여서 물체가 이동 후에 장시간 업데이트해야만 원래의 배경으로 모델링할 수 있는 단점을 갖는다. 따라서, 적응적 가우시안 혼합 모델로 배경 영상을 모델링하려면 감시 지역에서 물체가 오랫동안 멈추었다가 이동하더라도 신속하게 실제 배경으로 업데이트하는 방식이 요구된다.However, this adaptive Gaussian mixture model effectively adapts to the passage of a moving object because the moving object passes through the specified area because the influence of the pixel value by the moving object is small and its effect disappears after the moving object disappears. For example, when a moving object stops in a designated area for a long time, the pixel value caused by the moving object greatly affects the Gaussian distribution, and thus it is not accurately modeled as a background image. In addition, when the object is moved again, the Gaussian distribution of the pixel corresponding to the stop position is greatly influenced by the pixel value of the object, so that the object can be modeled as an original background only after the object is updated for a long time. . Therefore, modeling a background image with an adaptive Gaussian mixture model requires a method of rapidly updating the real background even if the object is stopped and moved for a long time in the surveillance area.

한편, 불법주정차 단속은 도로 상의 불법주정차 단속영역을 촬영하여 규정 시간 이상으로 멈춘 차량을 감지하고 단속하는 것으로서, 단속영역으로 돌입하는 차량이 많더라도 차량에 의한 배경 영상의 오류를 최소화해야한다. 특히, 단속영역에서 주정차한 차량을 감지하는 것이므로, 주정차한 차량에 의한 잔상의 영향을 배경 영상에서 신속하게 제거해야한다. 아울러, 배경 영상의 업데이트 과정에서 얻는 정보를 활용하여 주정차한 차량를 검지하는 것이 바람직하다.On the other hand, the illegal parking control is to detect and control a vehicle that has stopped more than a specified time by photographing the illegal parking control area on the road, and even if many vehicles enter the enforcement area, the error of the background image by the vehicle should be minimized. In particular, since the vehicle parked in the intermittent area is detected, the effect of the afterimage caused by the parked vehicle should be quickly removed from the background image. In addition, it is preferable to detect the parked vehicle using information obtained in the process of updating the background image.

또한, 불법주정차 단속은 도로상에 서로 떨어진 복수의 단속영역들이 지정되더라도, 하나의 카메라로 감시 가능하게 하여 비용적 어려움을 해소하고, 단속영역만을 신호처리하여 신속하게 전경영상을 감지하는 것이 바람직하다.In addition, even if illegal parking stops are assigned a plurality of control areas separated from each other on the road, it is preferable to solve the cost difficulties by monitoring with one camera and to detect the foreground image quickly by processing only the control area. .

따라서 본 발명의 목적은, 감시할 관심영역 내에서 이동 물체의 이동 상황에 맞게 배경 영상을 모델링하여서 멈추었다가 이동하는 물체의 잔상을 신속하게 제거함으로써 배경 영상을 정확하게 모델링할 수 있는 적응적 배경영상 모델링 방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide an adaptive background image modeling that can accurately model a background image by quickly removing a residual image of a moving object after stopping and modeling a background image according to a moving situation of a moving object in a region of interest to be monitored. To provide a way.

본 발명의 다른 목적은, 차량의 이동 상황에 대해 대처한 배경 영상에 근거하여 주정차 차량을 정확하고 신속하게 감지하고, 배경 영상의 모델링과정에서 얻는 정보를 활용하며, 아울러, 하나의 카메라로 복수의 단속영역을 감시할 수 있는 불법주정차 무인단속방법 및 불법주정차 무인단속시스템을 제공하는 것이다.Another object of the present invention is to accurately and quickly detect a parked vehicle based on a background image corresponding to a moving situation of a vehicle, and to utilize information obtained during a modeling process of a background image. It is to provide an illegal parking control method and an illegal parking control system that can monitor the enforcement area.

상기 목적을 달성하기 위해 본 발명은, 물체에 의한 전경영역의 위치 및 시간 이력을 이력관리모듈(140)에 저장 관리하여 카메라로 촬영되는 영역에 대한 배경영상을 전경영역에 대한 업데이트 또는 전역적 업데이트하면서 모델링하는 적응적 배경영상 모델링 방법에 있어서, 카메라로 촬영하여 얻는 영상의 초기 연속 프레임에서 각 화소별 가우시안 분포에 따른 평균 및 공분산을 산출하여 배경영상에 대한 화소별 가우시안 모델을 초기화하는 가우시안 모델 초기화단계(S130); 화소별 가우시안 모델에 근거하여 초기화단계(S130) 이후의 영상 프레임에서 물체에 의한 전경영역을 추출하는 전경영역 추출단계(S140); 추출한 전경영역의 위치 및 시간 이력을 이력관리모듈(140)로 관리하고, 이력에 근거하여 전경 영역의 이동 또는 정지를 감지하는 상황 인지단계(S150); 전경 영역이 추출되지 않을 경우 및 추출된 전경 영역이 이동 중인 경우에 배경의 전역에 대한 화소별 가우시안 모델을 업데이트하고, 추출된 전경영역이 미리 설정된 시간 이상으로 정지하였다가 이동하면, 정지하였던 영역에 대한 가우시안 모델을 현재 화소값으로 초기화하는 배경 업데이트단계(S160);를 포함하여 이루어짐을 특징으로 한다.In order to achieve the above object, the present invention stores and manages the position and time history of the foreground area by the object in the history management module 140 to update or globally update the background image of the area photographed by the camera. In the adaptive background image modeling method of modeling while the camera is initialized, the Gaussian model is initialized by calculating the average and covariance according to the Gaussian distribution for each pixel in the initial continuous frame of the image taken by the camera. Step S130; A foreground region extraction step S140 of extracting a foreground region by an object from an image frame after the initialization step S130 based on the pixel-specific Gaussian model; A situation recognition step (S150) of managing the location and time history of the extracted foreground area by the history management module 140 and detecting movement or stop of the foreground area based on the history; If the foreground area is not extracted and the extracted foreground area is moving, the Gaussian model for each pixel of the background is updated, and if the extracted foreground area stops for more than a preset time and then moves, And a background update step (S160) of initializing the Gaussian model with the current pixel value.

상기 배경 업데이트단계(S160)는, 추출되는 전경영역이 미리 설정된 시간 이상으로 정지한 경우에 정지한 전경영역의 화소들에 대한 가우시안 모델을 현재 추출된 전경영역의 화소값으로 초기화함을 특징으로 한다.The background updating step (S160) is characterized in that when the extracted foreground region stops for more than a preset time, the Gaussian model for the pixels of the stopped foreground region is initialized to the pixel value of the currently extracted foreground region. .

본 발명은, 불법주정차 무인단속방법에 있어서, 카메라를 이용하여 불법주정차 단속영역을 연속 프레임으로 촬영하는 촬영단계(S10); 카메라로 촬영하여 얻는 영상의 초기 연속 프레임에서 각 화소별 가우시안 분포에 따른 평균 및 공분산을 산출하여 배경영상에 대한 화소별 가우시안 모델을 초기화하는 가우시안 모델 초기화단계(S130), 화소별 가우시안 모델에 근거하여 초기화단계(S130) 이후의 영상 프레임에서 물체에 의한 전경영역을 추출하는 전경영역 추출단계(S140), 추출한 전경영역의 위치 및 시간 이력을 이력관리모듈(140)로 관리하고, 이력에 근거하여 전경 영역의 이동 또는 정지를 감지하는 상황 인지단계(S150), 전경 영역이 추출되지 않을 경우 및 추출된 전경 영역이 이동 중인 경우에 배경의 전역에 대한 화소별 가우시안 모델을 업데이트하고 추출된 전경영역이 미리 설정된 시간 이상으로 정지하였다가 이동하면 정지하였던 영역에 대한 가우시안 모델을 현재 화소값으로 초기화하는 배경 업데이트단계(S160), 를 포함한 상황인지 모델링단계(S100); 상기 상황인지 모델링단계(S100)에서 정지한 물체에 대응되는 적어도 하나 이상의 전경영역을 추출하면, 추출한 전경영역에 순번을 정하여 순차적으로 번호판영역을 포함한 단속영상을 획득하는 단속영상 획득단계(S200); 단속영상에서 차량번호를 인식하는 차량번호 인식단계(S300); 촬영일시, 촬영위치 또는 차량번호를 포함한 단속상황정보를 단속영상과 연계하여 단속정보를 생성하는 단속정보 생성단계(S400); 동일한 단속상황정보를 갖는 단속정보의 시간적 경과를 누적하여 주정차단속 규정시간에 따라 단속여부를 결정하는 단속여부 판단단계(S500);를 포함하여 이루어짐을 특징으로 한다.The present invention provides an illegal parking control method, comprising: a photographing step of photographing an illegal parking control area using a camera in a continuous frame (S10); On the basis of the Gaussian model initialization step (S130) and the Gaussian model for each pixel, which calculates the average and covariance according to the Gaussian distribution for each pixel in the initial continuous frame of the image taken by the camera. Foreground region extraction step (S140) for extracting the foreground area by the object in the image frame after the initialization step (S130), the history and location history of the extracted foreground area is managed by the history management module 140, the foreground based on the history In the situation recognition step (S150) of detecting the movement or stop of the region, when the foreground region is not extracted, and when the extracted foreground region is moving, the Gaussian model for each pixel of the background is updated and the extracted foreground region is previewed. If the user stops after the set time and moves, the Gaussian model for the stopped area is changed to the current pixel value. Initializing the background update step (S160), including the contextual modeling step (S100); An intermittent image acquisition step (S200) of sequentially obtaining at least one foreground region corresponding to the stationary object in the context-aware modeling step (S100), sequentially determining the extracted foreground region and sequentially obtaining the interrupted image including the license plate region; Vehicle number recognition step of recognizing the vehicle number in the interrupted image (S300); An intermittent information generation step (S400) of generating intermittent information by linking the intermittent situation information including the photographing date and time, the photographing position or the vehicle number with the intermittent image; It is characterized in that it comprises a; and whether or not to determine whether to crack down in accordance with the regulation time of the parking stop by accumulating the time course of the crackdown information having the same crackdown situation information (S500).

본 발명은, 불법주정차 무인단속시스템에 있어서, 불법주정차 단속지역의 차량에 대한 단속정보를 감지하는 현장시스템(200), 및 단속정보에 근거하여 불법주정차를 판단하는 센터시스템(300)을 포함하여 구성되며, 상기 현장시스템(200)은, 카메라제어부(211)의 제어에 따라 연속 프레임으로 촬영하는 카메라(210); 불법주정차 단속지역으로 지정된 관심영역(AOI)의 위치 및 거리에 대한 맵핑정보를 저장하는 스케줄저장부(220); 촬영하여 얻는 영상의 초기 연속 프레임에서 각 화소별 가우시안 분포에 따른 평균 및 공분산을 산출하여 배경영상에 대한 화소별 적응적 가우시안 혼합모델을 초기화하는 초기화모듈(110); 화소별 적응적 가우시안 혼합 모델에 근거하여 초기화 이후의 영상 프레임에서 물체에 의한 전경영역(OOI)을 추출하는 전경영역 추출모듈(120); 추출한 전경영역의 위치 및 시간 이력을 관리하는 이력관리모듈(140); 및 전경영역이 추출되지 않을 경우 및 추출된 전경영역이 이동 중인 경우에 배경의 전역에 대한 화소별 가우시안 모델을 업데이트하고, 추출된 전경영역이 미리 설정된 시간 이상으로 정지하였다가 이동하면, 정지하였던 영역에 대한 적응적 가우시안 혼합모델의 평균값을 현재 화소값으로 초기화하는 배경 업데이트모듈(150);을 구비하는 상황인지 모델링부(100); 미리 설정된 시간 이상으로 정지한 전경영역의 맵핑정보를 전달받아 확대 촬영하여 단속영상을 획득하고, 단속영상으로부터 차량번호를 인식한 후에, 촬영일시, 촬영위치 또는 차량번호를 포함한 단속상황정보를 단속영상과 연계하여 단속정보를 생성하는 단속정보 획득부(240); 생성된 단속정보를 센터시스템(300)에 전송하는 통신부(270); 를 포함하여 구성됨을 특징으로 한다.The present invention includes an on-site system (200) for detecting crackdown information on a vehicle in an illegal parking control crackdown area, and a center system (300) for determining illegal parking based on crackdown information in an illegal parking control system. Is configured, the field system 200, the camera 210 to shoot in a continuous frame under the control of the camera control unit 211; A schedule storage unit 220 for storing mapping information on the location and distance of the area of interest AOI designated as an illegal parking control area; An initialization module 110 for initializing the adaptive Gaussian mixture model for each pixel for the background image by calculating an average and a covariance according to the Gaussian distribution for each pixel in an initial continuous frame of the image obtained by photographing; A foreground region extraction module 120 for extracting a foreground region OOI by an object from an image frame after initialization based on the pixel-specific adaptive Gaussian mixture model; A history management module 140 for managing the location and time history of the extracted foreground area; And update the pixel-specific Gaussian model for the entire background of the background when the foreground area is not extracted and when the extracted foreground area is moving, and stops the extracted foreground area after moving for more than a preset time. A background update module 150 for initializing an average value of the adaptive Gaussian mixture model with respect to the current pixel value; After receiving the mapping information of the foreground area that has been stopped for more than a preset time, the image is enlarged to obtain a crackdown image. Intermittent information acquisition unit 240 for generating intermittent information in association with the connection; Communication unit 270 for transmitting the generated intermittent information to the center system 300; Characterized in that configured to include.

따라서, 상기와 같이 이루어지는 본 발명은, 관심영역 내에 멈추었던 물체에 의한 영향을 신속하게 제거하여 배경 영상에 대한 정확한 모델링이 가능하므로, 관심영역 내의 물체를 정확하게 감지할 수 있는 장점을 갖춘다.Therefore, the present invention made as described above has the advantage of accurately detecting the object in the region of interest because it is possible to accurately model the background image by quickly removing the influence of the object stopped in the region of interest.

또한, 본 발명은, 멈추는 물체의 발생 빈도가 커지더라도 화소별 가우시안 모델 중에 전경영역이 존재한 부분만 국소적으로 업데이트하므로, 신속하게 신호처리하면서 물체를 감지할 수 있는 장점도 갖춘다.In addition, the present invention has the advantage that the object can be detected while the signal is processed quickly because only the region where the foreground region exists in the pixel-specific Gaussian model even if the frequency of occurrence of the stationary object increases.

또한, 본 발명은, 불법주정차 차량을 단속함에 있어 배경영상의 모델링 과정에 얻는 정보로 주정차 차량을 감지하므로 단속을 위한 별도의 대상 선정과정 없이 신속하게 처리할 수 있고, 불법주정차 단속지역으로 지정된 영역만 배경 영상으로 모델링하여 차량 검지속도를 향상시킬 수 있을 뿐만 아니라, 단일 카메라로 복수의 영역을 감시하여 비용적 이점도 갖춘다.In addition, since the present invention detects the parking vehicle with information obtained in the modeling process of the background image in controlling the illegal parking vehicle, the vehicle can be quickly processed without a separate target selection process for crackdown, and is designated as an illegal parking enforcement area. In addition to improving the speed of vehicle detection by modeling as a background image, it also has a cost advantage by monitoring multiple areas with a single camera.

도 1은 본 발명의 실시예에 따른 적응적 배경영상 모델링 방법의 순서도.
도 2는 본 발명의 실시예에 따른 적응적 배경영상 모델링 방법을 구현하기 위한 상황인지 모델링부(100)의 블록구성도.
도 3은 본 발명의 실시예에 따른 불법주정차 무인단속시스템의 블록구성도.
도 4는 본 발명의 실시예에 따른 불법주정차 무인단속시스템에서, 현장시스템(200) 및 서브 현장시스템(200A)에 장착된 단속정보 획득부(240)의 블록구성도.
도 5는 본 발명의 실시예에 따른 불법주정차 무인단속시스템을 사거리에 적용한 사례를 보여주는 도면.
도 6은 본 발명의 실시예에 따른 불법주정차 무인단속시스템에서, 현장시스템(200) 또는 서브 현장시스템(200A)에서 촬영된 영상의 예시도.
도 7은 본 발명의 실시예에 따른 불법주정차 무인단속방법의 순서도.
도 8은 본 발명의 실시예에 따른 불법주정차 무인단속시스템에서, 추가된 불법주정차 단속모드인 검색검지모드를 설명하기 위한 영상 도면.
도 9는 본 발명의 실시예에 따른 불법주정차 무인단속시스템에서, 추가된 불법주정차 단속모드인 검색검지모드의 동작 순서도.
도 10은 본 발명의 실시예에 따른 불법주정차 무인단속시스템에서, 추가된 불법주정차 단속모드인 사용자지정모드의 동작 순서도.
도 11은 본 발명에 실시예들에 있어서, 초점보정을 설명하기 위해 렌즈에 의한 이미지 형상화 과정을 보여주는 도면.
1 is a flow chart of an adaptive background image modeling method according to an embodiment of the present invention.
2 is a block diagram of a context-aware modeling unit 100 for implementing an adaptive background image modeling method according to an embodiment of the present invention.
Figure 3 is a block diagram of an illegal parking unmanned enforcement system according to an embodiment of the present invention.
Figure 4 is a block diagram of the enforcement information acquisition unit 240 mounted on the field system 200 and the sub-site system 200A in the illegal parking unmanned enforcement system according to an embodiment of the present invention.
5 is a diagram showing an example of applying an illegal parking unmanned enforcement system according to an embodiment of the present invention at a crossroad.
Figure 6 is an exemplary view of the image taken in the on-site system 200 or sub-site system 200A in the illegal parking unmanned enforcement system according to an embodiment of the present invention.
7 is a flow chart of the illegal parking control method according to an embodiment of the present invention.
FIG. 8 is an image diagram illustrating a search detection mode that is an illegal parking control mode in an illegal parking control system according to an embodiment of the present invention. FIG.
9 is an operation flowchart of a search detection mode that is an illegal parking control mode in the illegal parking control system according to an embodiment of the present invention.
10 is a flowchart illustrating an operation of a user designated mode that is an illegal parking control mode in the illegal parking control system according to an embodiment of the present invention.
FIG. 11 is a view showing an image shaping process by a lens to illustrate focus correction according to embodiments of the present invention. FIG.

이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 당해 분야에 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명한다. 첨부된 도면들에서 구성 또는 작용에 표기된 참조번호는, 다른 도면에서도 동일한 구성 또는 작용을 표기할 때에 가능한 한 동일한 참조번호를 사용하고 있음에 유의하여야 한다. 또한, 하기에서 본 발명을 설명함에 있어, 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In the accompanying drawings, it is to be noted that the same reference numerals as shown in the configuration or action, the same reference numerals are used as much as possible when indicating the same configuration or action in the other drawings. In addition, in describing the present invention below, when it is determined that a detailed description of a related known function or known configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

본 발명의 실시예를 설명하기에 앞서서, 적응적 가우시안 혼합 모델(Adaptive Gaussian Mixture Model)에 대해 설명한다.Prior to describing an embodiment of the present invention, an adaptive Gaussian Mixture Model will be described.

적응적 가우시안 혼합 모델은, 연속적으로 촬영되는 영상의 프레임에서 각각의 화소에 대해 화소값의 분포를 가우시안(Gaussian) 확률 분포로 모델링하며, 이때, 화소별 가우시안 모델의 파라미터인 평균 및 공분산을 매 프레임마다 업데이트한다. 여기서, 화소별로 하나의 가우시안 분포를 사용할 수도 있지만, 통상 3~5로 지정되는 K개의 가우시안 분포를 사용하는 데, 이는 최근 관찰한 분포를 나타내는 각각의 화소값을 근사화하기 위함이다. 이에 대해 구체적으로 설명하면 다음과 같다.The adaptive Gaussian mixture model models the distribution of pixel values as Gaussian probability distributions for each pixel in a frame of a continuously captured image, wherein the average and covariance parameters of the Gaussian model for each pixel are calculated every frame. Update every time. Here, although one Gaussian distribution may be used for each pixel, K Gaussian distributions, which are usually designated as 3 to 5, are used to approximate each pixel value representing a recently observed distribution. This will be described in detail.

먼저, 어떤 시간 t에서 화소 {x,y}의 화소값에 대한 통계적 정보를 아래의 [수학식 1]로 가정한다.First, the statistical information on the pixel value of the pixel {x, y} at a certain time t is assumed to be [Equation 1] below.

[수학식 1][Equation 1]

Figure 112011006321974-pat00001
Figure 112011006321974-pat00001

여기서, I는 입력되는 영상이고,

Figure 112011006321974-pat00002
는 K 가우시안 모델이며, 시간 t에서
Figure 112011006321974-pat00003
의 값을 갖는 입력영상의 화소에 대한 확률은 아래의 [수학식 2]로 추정된다.Here, I is an input image,
Figure 112011006321974-pat00002
Is the K Gaussian model and at time t
Figure 112011006321974-pat00003
The probability of the pixel of the input image having the value of is estimated by Equation 2 below.

[수학식 2][Equation 2]

Figure 112011006321974-pat00004
Figure 112011006321974-pat00004

여기서, K는 각 화소별 가우시안 모델의 개수이고, 시간 t에서 i번째 가우시안 혼합 모델의 평균과 공분산(covariance) 행렬을

Figure 112011006321974-pat00005
Figure 112011006321974-pat00006
로 표시하였으며,
Figure 112011006321974-pat00007
는 가우시안 확률밀도함수(Gaussian probability density function)으로서 아래의 [수학식 3]으로 구한다.Where K is the number of Gaussian models for each pixel, and the mean and covariance matrix of the i th Gaussian mixture model at time t
Figure 112011006321974-pat00005
Wow
Figure 112011006321974-pat00006
,
Figure 112011006321974-pat00007
Is a Gaussian probability density function obtained from Equation 3 below.

[수학식 3]&Quot; (3) "

Figure 112011006321974-pat00008
Figure 112011006321974-pat00008

여기서, 는 시간 t에서 i번째 가우시안 모델의 가중치(weight)로서, 아래의 [수학식 4]로 구한다.here, Is the weight of the i th Gaussian model at time t, and is obtained from Equation 4 below.

[수학식 4]&Quot; (4) "

Figure 112011006321974-pat00010
Figure 112011006321974-pat00010

여기서,

Figure 112011006321974-pat00011
는 학습율로서 이 값이 크면 기존에 구축된 모델이 새로 입력되는 영상에 의해서 빠르게 변경되고 이 값이 작으면 천천히 변경되므로, 사용자가 적절한 값으로 지정한다. 또한,
Figure 112011006321974-pat00012
는 화소값이 가우시안 모델에 정합되면 1, 그렇지 아니한 다른 가우시안 모델들은 0의 값을 갖는다.here,
Figure 112011006321974-pat00011
Is a learning rate. If this value is large, the existing model is quickly changed by the newly input image. If this value is small, it is changed slowly. Also,
Figure 112011006321974-pat00012
Is 1 if the pixel value matches the Gaussian model, and other Gaussian models otherwise have a value of zero.

그리고, 평균(

Figure 112011006321974-pat00013
)과 공분산(
Figure 112011006321974-pat00014
)은 아래의 [수학식 4]로 구한다. And mean (
Figure 112011006321974-pat00013
) And covariance (
Figure 112011006321974-pat00014
) Is obtained from Equation 4 below.

[수학식 5][Equation 5]

Figure 112011006321974-pat00015
Figure 112011006321974-pat00015

한편, 상기 [수학식 5]의 계산식은, RGB화소(red, green 및 blue 화소) 값들이 서로 독립적인 분산을 갖는다는 전제하에 이루어지며, 이에 따라 공분산 행렬

Figure 112011006321974-pat00016
는 단위 행렬 I를 이용하여
Figure 112011006321974-pat00017
와 같은 형태를 갖는다. 그리고, K개의 가우시안 분포들은
Figure 112011006321974-pat00018
의 값들을 통하여 정렬되며, 첫 번째 분포 B가 배경 모델로 사용된다. 이때의 B는 아래의 [수학식 5]로 결정된다.On the other hand, the equation of [Equation 5] is made under the premise that the RGB pixel values (red, green and blue pixels) have independent variances from each other.
Figure 112011006321974-pat00016
Using the identity matrix I
Figure 112011006321974-pat00017
Has the same form as And the K Gaussian distributions
Figure 112011006321974-pat00018
Sorted by values, the first distribution B is used as the background model. B at this time is determined by Equation 5 below.

[수학식 6]&Quot; (6) "

Figure 112011006321974-pat00019
Figure 112011006321974-pat00019

여기서, 임계값 T(threshold)는 배경 모델로부터 구해진 모든 가중치중의 최소값이다.
Here, the threshold T (threshold) is the minimum of all weights obtained from the background model.

상기에서 설명한 적응적 가우시안 혼합 모델은, 통계적 방법에 의하여 현재 화소와 대응되는 배경 화소가 얼마나 유사한가에 따라 현재 화소를 배경으로 할 것인지 아니면 이동 물체의 출현으로 인한 전경영역의 화소로 할 것인지를 판단할 수 있게 한다. 이에 따라, 적응적 가우시안 혼합 모델을 배경 영상으로 활용하면 노이즈의 영향을 덜 받으면서 밝기변화에 잘 적응하여 물체를 감지할 수 있으며, 감시대상 영역을 이동 물체가 지나갈 경우에도 이동 물체에 의한 영향이 일시적으로 배경 영상에 잔존하지만 그 영향이 적고, 더욱이, 이동 물체가 지나간 후에는 실제 배경 영상에 의해서 잔존하던 영향도 서서히 사라지게 된다. 또한, K개의 가우시안 분포에 대한 가중치(

Figure 112011006321974-pat00020
)도 학습시키면서, 각 가우시안 분포의 평균 및 공분산을 학습하므로, 단일 가우시안 분포로 모델링할 때보다 감시대상 영역의 실제 배경 영상 변화에 유연하게 대처한다.The adaptive Gaussian mixture model described above may determine whether the current pixel is the background or the foreground area pixel due to the appearance of the moving object according to how similar the background pixel corresponding to the current pixel is by a statistical method. To be able. Accordingly, if the adaptive Gaussian mixture model is used as the background image, the object can be detected by adapting to the brightness change well while being less influenced by noise, and the effect of the moving object is temporary even when the moving object passes through the monitored area. As a result, the effect remains on the background image but the effect is less. Moreover, after the moving object passes, the effect remaining by the actual background image gradually disappears. In addition, the weights for the K Gaussian distributions (
Figure 112011006321974-pat00020
), While learning the mean and covariance of each Gaussian distribution, it responds more flexibly to changes in the actual background image of the monitored region than when modeling with a single Gaussian distribution.

하지만, 적응적 가우시안 혼합 모델은 이동하던 물체가 감시대상 영역에 일정한 시간 이상으로 멈춰서면 그 영향이 커지고, 더욱이, 멈추었던 물체가 다시 이동하여 감시대상 영역에서 벗어나더라도 물체가 멈춰 선 위치의 화소에 잔존한 영향이 서서히 줄어들게 되므로 물체가 사라진 실제 배경 영상으로 업데이트되는 데 소요되는 시간이 길어지는 문제점을 갖는다. 이러한 현상은 이후에 출현하는 물체를 감지하기 어렵게 한다.
However, the adaptive Gaussian mixture model increases the effect when the moving object stops in the monitored area for more than a certain time. Moreover, even if the stopped object is moved again and moves out of the monitored area, the adaptive Gaussian mixture model is applied to the pixel where the object stops. Since the remaining influence is gradually reduced, there is a problem in that it takes a long time to update the real background image disappeared. This phenomenon makes it difficult to detect later appearing objects.

본 발명에 따른 적응적 배경영상 모델링 방법은, 상기한 문제점을 해결하기 위해 창안된 발명으로서, 관심영역 내에서 물체가 출현하여 통과하거나 아니면 정지하였다가 사라지더라도 모델링한 배경 영상을 실제 배경에 신속하게 적응한다. 이에 대해, 도 1 및 도 2를 참조하면서 상세히 설명한다.The adaptive background image modeling method according to the present invention is an invention devised to solve the above-mentioned problems, and it is possible to quickly model a background image modeled on an actual background even if an object appears and passes or stops and disappears in a region of interest. Adapt. This will be described in detail with reference to FIGS. 1 and 2.

도 1은 본 발명의 실시예에 따른 적응적 배경영상 모델링 방법의 순서도이고, 도 2는 본 발명의 실시예에 따른 적응적 배경영상 모델링 방법을 구현하기 위한 상황인지 모델링부(100)의 블록구성도이다.1 is a flowchart of an adaptive background image modeling method according to an exemplary embodiment of the present invention, and FIG. 2 is a block diagram of a context-aware modeling unit 100 for implementing an adaptive background image modeling method according to an exemplary embodiment of the present invention. It is also.

상기 도 2를 참조하면, 상황인지 모델링부(100)는, 카메라에서 촬영된 연속된 영상 프레임을 입력받아 가우시안 모델로 배경 영상을 획득하며, 이를 위해서, 지정된 개수의 초기 프레임으로 각 화소별 가우시안 분포에 따른 평균 및 공분산을 산출하여 가우시안 모델을 초기화하는 초기화모듈(110); 가우시안 모델을 초기화한 이후에 입력받는 영상 프레임에서 가우시안 모델을 배경 영상으로 하여 물체에 의해 발생되는 전경영역을 추출하는 전경영역 추출모듈(120); 전경영역이 추출되면 전경영역이 이동하는지 아니면 정지하는지의 상황을 인지하는 상황인지모듈(130); 가우시안 모델의 초기화 과정 및 인지된 상황에 따른 가우시안 모델의 업데이트 과정을 수행하며, 가우시안 모델을 배경 영상으로 하여 상기 전경영역 추출모듈(120)에서 전경영역을 추출하게 하는 배경 업데이트모듈(150); 및 추출된 전경영역의 추출위치, 전경영역의 시간적 이동 및 정지에 대한 이력을 관리하여 상기 상황인지모듈(130)에서 상황 인지 시에 활용되게 하는 이력관리모듈(140); 을 포함하여 구성된다.Referring to FIG. 2, the situational awareness modeling unit 100 receives a continuous image frame photographed by a camera, obtains a background image using a Gaussian model, and for this purpose, a Gaussian distribution for each pixel with a predetermined number of initial frames. An initialization module 110 for initializing the Gaussian model by calculating the mean and the covariance according to; A foreground region extraction module 120 for extracting a foreground region generated by an object by using the Gaussian model as a background image in an input image frame after initializing the Gaussian model; A module 130 for recognizing a situation in which the foreground region moves or stops when the foreground region is extracted; A background update module 150 for initializing the Gaussian model and updating the Gaussian model according to a recognized situation, and extracting the foreground region from the foreground region extraction module 120 using the Gaussian model as a background image; And a history management module 140 for managing the history of the extracted location of the foreground area, the history of temporal movements and stops of the foreground area so as to be utilized when the situation recognition module 130 recognizes the situation. .

이때, 상기 배경 업데이트모듈(150)은, 배경 영상 전체의 화소에 대해 가우시안 모델을 업데이트 하는 전역배경 업데이트모듈(151); 추출된 전경영역에 대응되는 화소의 가우시안 모델만 업데이트하는 국소배경 업데이트모듈(152);을 포함하여 구성된다. 즉, 본 발명에 따르면 인지된 상황에 따라 배경 영상 전체를 업데이트하고 아니면 추출된 전경영역만을 업데이트한다.
In this case, the background update module 150 includes: a global background update module 151 for updating a Gaussian model for the pixels of the entire background image; And a local background update module 152 for updating only the Gaussian model of the pixel corresponding to the extracted foreground region. That is, according to the present invention, the entire background image is updated according to the recognized situation, or only the extracted foreground area is updated.

다음으로, 상기 도 1을 참조하여, 본 발명의 실시예에 따른 적응적 배경영상 모델링 방법에 대해 설명한다.Next, an adaptive background image modeling method according to an embodiment of the present invention will be described with reference to FIG. 1.

먼저, 카메라에서 촬영되는 영상을 연속 프레임으로 입력받는 상태에서(S110), 가우시안 혼합 모델을 초기화할 것인지 판단한다(S120). 통상 적응적 가우시안 모델로 배경 영상을 모델할 경우에 실제 배경 영상에 맞게 학습시키기 위해서, 초기 입력받는 영상 중에 15~30 프레임을 사용하여 각 픽셀별 가우시안 혼합 모델을 학습시킨다. 즉, 상기 도 2와 같이 구성되는 상황인지 모델링부(100)를 영상처리장치에 장착할 경우에, 초기에 가우시안 모델로 모델링할 배경 영상을 학습하고 초기 학습 이후에는 학습된 가우시안 모델을 입력받는 영상으로 업그레이드하는 것이다.First, in a state in which an image captured by the camera is input as a continuous frame (S110), it is determined whether to initialize the Gaussian mixed model (S120). In general, when a background image is modeled using an adaptive Gaussian model, a Gaussian mixture model for each pixel is trained using 15 to 30 frames in the initial input image. That is, when the situation-aware modeling unit 100 configured as shown in FIG. 2 is mounted on the image processing apparatus, the background image to be initially modeled as a Gaussian model is learned, and after the initial learning, the image to receive the trained Gaussian model. To upgrade.

여기서 초기화하기로 결정되면, 초기화모듈(110)은 초기 입력받는 영상 프레임 중에서 미리 지정된 개수의 프레임을 입력받을 때까지 배경 업데이트모델(150)로 가우시안 혼합 모델을 학습시키게 한다(S130). 이와 같이 초기화되면 가우시안 혼합 모델의 각 화소별 가중치, 평균 및 공분산이 실제 배경영상에 맞게 산출하여서, 화소별 가우시안 혼합 모델을 초기화한다.In this case, when it is determined to initialize, the initialization module 110 trains the Gaussian mixture model to the background update model 150 until a predetermined number of frames are received from the initial input image frame (S130). When initialized as described above, the weight, average, and covariance for each pixel of the Gaussian mixture model are calculated according to the actual background image, thereby initializing the Gaussian mixture model for each pixel.

초기 영상 프레임으로 가우시안 혼합 모델을 학습한 이후에, 전경영역 추출모듈(120)은 입력받는 영상 프레임에서 물체에 의한 전경영역을 배경 영상으로 학습된 가우시안 혼합 모델에 근거하여 추출한다(S140). 본 발명의 실시예에 적용된 전경영역 추출과정은 다음과 같다. 카메라로 촬상되는 지역에 출현한 물체에 의해서 영상 내에 나타나는 전경영역을 가우시안 혼합 모델에 근거하여 추출하고(S141), 이때 추출되는 전경영역에는 그림자가 포함되므로 그림자를 제거한다(S142). 그리고, 그림자를 제거한 전경영역의 각 화소를 연관성에 따라 블록화한 후에(S143) 잡음(노이즈)이라고 판단되는 부분을 제거하고(S144), 인접하는 블럽 간의 병합 및 모션에 의한 블럽(Blob) 제거를 수행하고(S145), 다음으로 물체의 경계선을 포함한 최소포함사각형(MER:minimum enclosing rectangle)을 추출하여 전경영역(OOI:Object of Interest)을 얻는다(S146). 이와 같이 배경영상에 근거한 전경영역의 획득과정은 본 발명의 실시예에 기술된 방식에 한정하지 않음은 본 발명의 속한 기술분야의 종사자라면 알 수 있으므로, 다른 방식에 대한 설명을 생략한다.After learning the Gaussian mixture model with the initial image frame, the foreground region extraction module 120 extracts the foreground region by the object from the input image frame based on the Gaussian mixture model learned as the background image (S140). The foreground area extraction process applied to the embodiment of the present invention is as follows. The foreground region appearing in the image by the object appearing in the region captured by the camera is extracted based on the Gaussian mixture model (S141), and the extracted foreground region includes shadows, thereby removing the shadows (S142). After blocking each pixel of the foreground area from which the shadow is removed according to the correlation (S143), the part determined to be noise (noise) is removed (S144), and merging between adjacent blobs and blobs by motion are removed. In operation S145, a minimum enclosing rectangle (MER) including an object boundary is extracted to obtain an object of interest (OOI) (S146). As described above, the process of acquiring the foreground area based on the background image is not limited to the method described in the embodiment of the present invention.

상기와 같이 전경영역의 영상을 추출하는 과정(S140)을 수행한 이후에는, 상황인지모듈(130)은 전경 영역의 추출되는지, 그리고, 추출된 전경영역이 이동하거나 정지하는지의 상황을 인지하여서(S150), 인지한 상황에 따라 배경 업데이트모듈(150)의 전역배경 업데이트모듈(151) 및 국소배경 업데이트모듈(152)을 선택적으로 가동시킨다(S160).After performing the process of extracting the image of the foreground area as described above (S140), the situation recognition module 130 recognizes whether the foreground area is extracted and whether the extracted foreground area moves or stops ( S150, selectively activates the global background update module 151 and the local background update module 152 of the background update module 150 according to the recognized situation (S160).

여기서, 상황인지모듈(130)은 추출되는 전경영역(OOI)의 시간적 및 공간적 이력을 이력관리모듈(140)에 전달하여 관리하여서, 이력관리모듈(140)에서 관리되는 전경영역의 이력에 근거하여 연속 입력되는 프레임에서 전경영역(OOI)의 시간적 및 공간적 변화를 인지할 수 있다. 즉, 상기 상황인지모듈(130)은, 전경영역(OOI)이 추출되는지를 확인하여서(S151) 전경영역(OOI)이 추출되지 않을 경우에 모든 픽셀에 대한 가우시안 혼합 모델을 현재 입력된 영상 프레임으로 업데이트하고(S161), 전경영역(OOI)이 추출되면 전경영역(OOI)의 시간적 및 공간적 변화에 따른 이력을 관리한다(S152). 한편, 전경영역이 추출되는지를 확인하는 단계(S151)는, 비록 전경영역이 추출되어도 그 추출한 전경영역이 관심대상인지도 판별하여 관심대상인 경우에만 전경영역으로 채택하는 것이 바람직하다. 예를 들면, 차량을 감지할 경우에 추출한 전경영역의 크기를 최소 어느 정도 이상이 되어야 차량에 대한 전경영역으로 판별하는 것이다.Here, the situation awareness module 130 transmits and manages the temporal and spatial history of the extracted foreground area OOI to the history management module 140, and based on the history of the foreground area managed by the history management module 140. The temporal and spatial changes of the foreground area OOI may be recognized in frames continuously input. That is, the situation awareness module 130 checks whether the foreground area OOI is extracted (S151), and when the foreground area OOI is not extracted, the Gaussian mixture model for all pixels as the currently input image frame. When the foreground area OOI is extracted (S161) and the foreground area OOI is extracted, the history according to the temporal and spatial change of the foreground area OOI is managed (S152). On the other hand, the step (S151) of checking whether the foreground area is extracted, even if the foreground area is extracted, it is preferable to determine whether the extracted foreground area is of interest and adopt it as the foreground area only if it is of interest. For example, when detecting a vehicle, the extracted foreground area should be at least a certain size to determine the foreground area of the vehicle.

다음으로, 상황인지모듈(130)은 이력 관리에 근거하여 전경영역(OOI)이 정지하는지를 확인한다(S153). 여기서, 전경영역(OOI)가 복수 개로 검지된 상황이면 각각 전경영역(OOI)에 대해서 정지 여부를 확인하여 후술하는 단계를 실행할 때에 분리하여 개별적으로 처리한다.Next, the situation awareness module 130 checks whether the foreground area OOI is stopped based on the history management (S153). Here, when a plurality of foreground areas OOI are detected, each of the foreground areas OOI is checked for stopping, and when the following steps are executed, they are separated and processed separately.

이때, 상황인지모듈(130)은 전경영역의 정지 여부를 확인하는 단계(S153)에서 정지한 것으로 확인된 전경영역(OOI)에 대해 정지한 시간을 카운트하기 시작하여서, 정지한 시간이 미리 설정된 시간 이상으로 정지하는 지를 확인한다(S154). At this time, the situation awareness module 130 starts counting the stopped time for the foreground area (OOI) determined to be stopped in the step (S153) of checking whether the foreground area is stopped, and the stopped time is a preset time. It is checked whether or not the stop is abnormal (S154).

그리고, 상황인지모듈(130)은 전경영역(OOI)이 촬영 지역 내로 진입하여 미리 설정된 시간 이상으로 정지한 경우에 정지한 전경영역(OOI)의 화소들에 대한 가우시안 모델을 현재 추출한 전경영역의 화소값으로 초기화한다(S163). 여기서 초기화는 전체 화소들 중에서 정지한 전경영역이 속한 화소들만 선별하여 국소적으로 배경을 업데이트하는 것으로서, 현재 추출한 전경영역의 화소값을 가우시안 모델의 파라미터인 평균(

Figure 112011006321974-pat00021
)으로 하는 것을 의미한다. 아울러, 초기화할 경우에 가우시안 모델의 공분산은 초기화 전에 사용하였던 공분산(
Figure 112011006321974-pat00022
)을 그대로 사용할 수 있으며, 공분산(
Figure 112011006321974-pat00023
)을 그대로 사용하는 것은 과거 이력에 의해서 공분산(
Figure 112011006321974-pat00024
)이 결정되는 것인데 현재 화소값으로 평균값(
Figure 112011006321974-pat00025
)을 중심으로 공분산을 다시 학습 또는 업데이트하기엔 시간이 경과하기 때문이다. 여기서, 정지한 전경영역의 화소만 현재 촬영된 전경영역의 화소값으로 초기화하므로, 초기화한 전경영역 위치의 화소에 대해 이전에 업데이트하였던 가우시안 분포에 대한 정보는 삭제되므로, 이후에, 정지한 전경영역이 가우시안 모델의 배경영상으로 된다. 이에 따라, 초기화 후에는 정지한 전경영역을 제외하고 새로 진입하는 물체만 전경영역으로 추출되며, 그만큼 물체에 따른 전경영역의 추출 시간을 단축할 수 있다. 한편, 정지한 전경영역이 가우시안 모델의 배경영상으로 된 상태이므로 상기한 전경영역 추출단계(S140)에서 추출되지 않지만, 정지한 전경영역에 대한 이력이 이력관리모듈(140)에 의해서 관리되므로 정지한 전경영역에 대해서는 상기한 전경영역 추출단계(S140)에서 감지되는 것이 아니라 전경영역(OOI)의 이력관리 단계(S152)에서 감지된다.In addition, the situation awareness module 130 may perform the extraction of the Gaussian model for the pixels in the foreground area OOI that are currently stopped when the foreground area OOI enters the shooting area and stops for more than a predetermined time. Initialize to a value (S163). In this case, the initialization is performed by selecting only pixels belonging to the stationary foreground area among all pixels, and locally updating the background. The pixel value of the currently extracted foreground area is averaged as a parameter of the Gaussian model (
Figure 112011006321974-pat00021
Means). In addition, when initializing, the covariance of the Gaussian model is used.
Figure 112011006321974-pat00022
) Can be used as is, and covariance (
Figure 112011006321974-pat00023
) As it is, the covariance (
Figure 112011006321974-pat00024
) Is determined, and the average value (
Figure 112011006321974-pat00025
This is because it takes time to relearn or update the covariance. Here, since only the pixels of the stopped foreground region are initialized to the pixel values of the currently photographed foreground region, the information on the Gaussian distribution previously updated for the pixel of the initialized foreground region position is deleted. It becomes the background image of this Gaussian model. Accordingly, after initialization, only the newly entering object is extracted to the foreground area except for the stopped foreground area, and thus the extraction time of the foreground area according to the object can be shortened. On the other hand, because the stopped foreground area is a background image of the Gaussian model, it is not extracted in the foreground area extraction step (S140), but because the history of the stopped foreground area is managed by the history management module 140, The foreground area is not detected in the foreground area extraction step (S140) but is detected in the history management step (S152) of the foreground area (OOI).

또한, 상황인지모듈(130)은 전경영역(OOI)이 정지는 하였으나 미리 설정된 시간에 도달하지 않았으면 다음 프레임의 입력을 받는 단계(S110)로 가며, 정지한 전경영역(OOI)이 다음 프레임에서도 계속 정지하면 시간 카운터를 늘린다. 이에 따라, 전역영역(OOI)가 미리 설정된 시간 이내로 정지할 경우에 가우시안 모델을 업데이하지 아니하고 다음 프레임을 처리하므로 전경영역(OOI)에 의한 잔상 영향을 없앨 수 있다.
In addition, if the situation awareness module 130 stops the foreground area OOI but does not reach the preset time, the controller 130 proceeds to step S110 of receiving an input of the next frame, and stops the foreground area OOI in the next frame. If it stops continuously, increase the time counter. Accordingly, when the global area OOI stops within a preset time, the next frame is processed without updating the Gaussian model, thereby eliminating the effect of the afterimage caused by the foreground area OOI.

상황인지모듈(130)은 전경영역(OOI)의 정지 여부를 확인하는 단계(S153)에서 정지하지 아니하고 이동중인 것으로 확인된 전경영역(OOI)에 대해서, 그 전경영역(OOI)이 카메라의 촬영지역에서 미리 설정된 시간 이상으로 정지하였다가 이동하는 것인지 확인한다(S155).The situation awareness module 130 checks whether the foreground area OOI is stopped or not in the step S153, with respect to the foreground area OOI which is determined to be moving without stopping, and the foreground area OOI is the photographing area of the camera. In step S155, it is checked whether the vehicle stops after the preset time or moves.

그리고, 상황인지모듈(130)은 전경영역(OOI)이 미리 설정된 시간 이상으로 정지하였던 것이 아니면, 모든 픽셀에 대한 가우시안 혼합 모델을 현재 입력된 영상 프레임으로 전역적 업데이트하며(S161), 이에 따라, 추출된 전경영역(OOI)의 화소에 대한 가우시안 혼합 모델도 업데이트되지만, 이동하는 전경영역(OOI)의 현재값이 가우시안 혼합 모델에 미치는 영향이 적다. 여기서, 미리 설정된 시간 이내로 정지하였다가 이동하는 전경영역도 이동하는 것으로 판단되므로 전역적으로 가우시안 혼합 모델을 업데이트한다. 또한, 촬영지역 내로 진입하여 영상 프레임에 전경영역(OOI)으로 출현한 것이면 새로운 전경영역(OOI)이므로 출현 시점에선 정지한 것도 아니고 미리 설정된 시간 동안 정지한 것도 아니므로 전역적으로 가우시안 혼합 모델을 업데이트하며, 상기 도 1에는 도시되지 아니하였지만 전경영역의 이력관리 시에 새로운 전경영역으로 등록되면 전역배경 업데이트 단계(S161)로 넘어가는 형태로 할 수도 있다.Then, the situation awareness module 130 globally updates the Gaussian mixture model for all pixels with the currently input image frame, if the foreground area OI has not stopped for more than a preset time (S161). The Gaussian mixture model for the extracted foreground region OOI pixel is also updated, but the influence of the current value of the moving foreground region OOI on the Gaussian mixture model is small. In this case, since it is determined that the foreground area moving after stopping within a preset time also moves, the Gaussian mixture model is updated globally. In addition, if the user enters the shooting area and appears as the foreground area (OOI) in the image frame, it is a new foreground area (OOI). Although not shown in FIG. 1, if a new foreground area is registered in the history management of the foreground area, the process may be performed to update the global background update step (S161).

한편, 상황인지모델(130)은 전경영역(OOI)이 이전에 미리 설정된 시간 이상으로 정지하였다가 이동하기 시작한 것으로 확인하면, 현재 전경영역(OOI)이 떠나가고 이전에 전경영역(OOI)이 정지하였던 위치의 화소들이 배경 영상으로 되므로, 이전에 전경영역(OOI)이 정지하였던 위치의 화소들에 대해서 현재 프레임 화소값으로 초기화한다(S162). 여기서, 초기화는 정지하였던 전경영역(OOI)이 떠나간 위치에 대해서 국소적으로 가우시안 모델을 현재 프레임으로 초기화하는 것으로서, 현재 프레임의 화소값을 가우시안 모델의 평균값으로 하는 것을 의미한다. 여기서도, 이전 사용하였던 공분산값을 사용할 수 있다.
On the other hand, when the situation awareness model 130 confirms that the foreground area OOI has been stopped for more than a preset time and started to move, the current foreground area OOI leaves and the foreground area OOI previously stopped. Since the pixels of the position become the background image, the pixels of the position where the foreground area OI was previously stopped are initialized with the current frame pixel values (S162). In this case, the initialization is to locally initialize the Gaussian model to the current frame with respect to the position where the stopped foreground area (OOI) leaves, which means that the pixel value of the current frame is the average value of the Gaussian model. Here too, the previously used covariance value can be used.

본 발명은 카메라에 의해 촬영되는 지역의 특정범위를 한정하고, 한정된 특정범위 내의 이동 물체만 감지하도록 하기 위해서, 특정범위에 대응되는 영역을 영상 프레임 상에서 미리 지정하고, 영상 프레임의 전 영역 중에서 지정한 영역에 대해서만 화소별 가우시안 모델로 배경 영상을 모델링할 수 있다. 이는 관심밖의 영역에 대해서 굳이 배경 영상을 생성할 필요가 없는 경우가 있기 때문이며, 이에 따라 처리속도를 향상시킬 수 있다. 이 경우에, 초기화 배경 업데이트(S130) 및 전역적 배경 업데이트(S161)는 상기 지정된 영역에 대해서만 이루어지고, 전경영역 추출(S140) 과정에서는 상기 지정된 영역 내에서만 이동 물체에 대응되는 전경영역만 추출한다. 예를 들면, 하기의 도 6을 참조하여 설명하는 바와 같이, 촬영한 얻는 영상(B) 내에서 관심영역(AOI:Area of Interest)을 지정하고, 지정된 관심영역(AOI) 내에서만 이동 물체(A)가 최적으로 포함된 전경영역(OOI)를 추출하는 것이다.
According to the present invention, in order to limit a specific range of an area photographed by a camera and to detect only moving objects within a limited specific range, an area corresponding to a specific range is previously designated on an image frame, and an area specified among all regions of the image frame is specified. Only the background image may be modeled by a pixel-specific Gaussian model. This is because there is a case where it is not necessary to generate a background image for an area outside of the interest, thereby improving the processing speed. In this case, the initialization background update (S130) and the global background update (S161) are performed only for the designated area, and in the foreground area extraction process (S140), only the foreground area corresponding to the moving object is extracted only in the designated area. . For example, as described with reference to FIG. 6 below, an area of interest (AOI) is designated in the captured image B, and the moving object A is only within the designated area of interest AOI. ) Is to extract the foreground area (OOI) that is optimally included.

상술한 바와 같이, 본 발명의 실시예에 따른 적응적 배경영상 모델링 방법은 적응적 가우시안 혼합 모델(Adaptive Gaussian Mixture Model)를 이용하여 배경영상을 모델링하되, 이동 물체의 이동 형태에 따른 상황변화를 감지하여서, 상황변화에 적응하여 가우시안 모델을 신속하게 업데이트하는 발명으로서, 물체를 감지하지 않을 경우 및 이동 중인 물체를 감지하면 배경 영상을 전역적으로 업데이트하고, 이동 중인 물체가 미리 설정된 시간 이상으로 정지하거나 아니면 미리 설정된 시간 이상으로 정지하였다가 이동하는 경우에 정지한 위치의 영역만 국소적으로 배경 영상을 업데이트한다. 이에 따라, 본 발명은 물체의 정지에 따라 잔상으로서 가우시안 모델에 잔존하는 물체의 픽셀값 영향을 신속하게 제거하여 실제 배경에 대응되는 화소값으로 배경영상을 정확하게 모델링할 수 있으며, 물체의 잔상에 의해 발생할 수 있었던 물체 검지 오차도 줄일 수 있다. 아울러, 국소적으로 배경 영상을 업데이트하므로 배경 영상을 얻는 과정에서 소요되는 시간도 단축할 수 있다.As described above, in the adaptive background image modeling method according to an embodiment of the present invention, the background image is modeled by using an adaptive Gaussian Mixture Model, but the change of the situation according to the moving form of the moving object is detected. This is an invention that quickly updates the Gaussian model by adapting to the change of situation, and when the object is not detected and the moving object is detected, the background image is updated globally, and the moving object is stopped for more than a preset time or Otherwise, in the case of stopping and moving for more than a preset time, only the region of the stopped position is updated locally. Accordingly, the present invention can quickly remove the effect of the pixel value of the object remaining in the Gaussian model as an afterimage according to the stationary object, and accurately model the background image with the pixel value corresponding to the actual background. The object detection error that may have occurred can also be reduced. In addition, since the background image is updated locally, the time required for obtaining the background image may be shortened.

그리고, 본 발명의 실시예에 따른 적응적 배경영상 모델링 방법을 구현하기 위한 상기 도 2의 상황인지 모델링부(100)는 하술하는 바와 같이 영상처리로 물체를 감지하는 장치에 장착되어 사용될 수 있으며, 특히, 상황인지모듈(130)에 의한 상황 인지단계(S150)에서 얻는 상황 정보를 이용하여 불법주정차를 단속하는 데 유용하게 활용될 수 있다. 여기서, 물체의 정지 여부를 결정하는 설정 시간은 적용되는 분야에 따라 사용자가 적절한 값으로 하면 되며, 예를 들면, 하술하는 불법주정차 단속에 적용할 경우에 도로에서 차량의 주행형태에 따라 변경될 수 있지만 대략 30초정도로 설정하여도 적절하다.
In addition, the situation-aware modeling unit 100 of FIG. 2 for implementing the adaptive background image modeling method according to an embodiment of the present invention may be mounted and used in an apparatus for detecting an object by image processing, as described below. In particular, it can be usefully used to crack down on illegal parking using the situation information obtained in the situation recognition step (S150) by the situation recognition module 130. Here, the setting time for determining whether the object is stopped may be appropriately set by the user according to the applicable field. For example, the setting time may be changed according to the driving type of the vehicle on the road when applied to the illegal parking control described below. However, it is appropriate to set it to about 30 seconds.

도 3은 본 발명의 실시예에 따른 불법주정차 무인단속시스템의 블록구성도이고, 도 4는 현장시스템(200) 및 서브 현장시스템(200A)에 장착된 단속정보 획득부(240)의 블록구성도이고, 도 5는 본 발명의 실시예에 따른 불법주정차 무인단속시스템을 사거리에 적용한 사례를 보여주는 도면이다.3 is a block diagram of an illegal parking control system according to an embodiment of the present invention, Figure 4 is a block diagram of the enforcement information acquisition unit 240 mounted on the field system 200 and the sub-site system (200A). 5 is a diagram illustrating an example of applying an illegal parking control system according to an embodiment of the present invention to a range.

그리고, 도 6은 본 발명의 실시예에 따른 불법주정차 무인단속시스템에서, 현장시스템(200) 또는 서브 현장시스템(200A)에서 촬영된 영상의 예시도이다.And, Figure 6 is an exemplary view of the image taken in the field system 200 or sub-site system 200A in the illegal parking unmanned enforcement system according to an embodiment of the present invention.

상기 도 3 및 도 4를 참조하면, 본 발명의 실시예에 따른 불법주정차 무인단속시스템은, 도로에 설치되는 현장시스템(200) 및 서브 현장시스템(200A)에서 얻는 단속정보에 근거하여 센터시스템(300)에서 단속여부를 확정하여 불법주정차를 단속하기 위한 행정적 절차를 수행한다. 여기서, 본 발명의 실시예에 따르면, 상기 현장시스템(200)은 상기 서브 현장시스템(200A)과 근거리 통신방식으로 불법주정차 정보를 수집하고 아울러 자체 수집한 불법주정차 정보와 취합하여 원거리 통신으로 센터시스템(300)에 전송한다. 3 and 4, the illegal parking control system according to an embodiment of the present invention, the center system (based on the enforcement information obtained from the on-site system 200 and sub-site system 200A installed on the road) In step 300, the government decides whether to crack down and performs administrative procedures to crack down on illegal parking. Here, according to an embodiment of the present invention, the field system 200 collects illegal parking information through short-range communication with the sub-site system 200A and collects the illegal parking information collected by itself, and collects the illegal parking information. Send to 300.

이때, 상기 현장시스템(200) 및 서브 현장시스템(200A)은 상술한 도 2의 상황인지 모델링부(100)를 각각 포함하여 구성된다.At this time, the field system 200 and the sub-site system 200A are configured to include the situation-aware modeling unit 100 of FIG.

구체적으로, 상기 현장시스템(200)과 서브 현장시스템(200A)은 각각 카메라(210), 카메라제어부(211), 스케줄저장부(220), 현장환경 센싱부(230), 상황인지 모델링부(100), 단속정보 획득부(240), 방송부(250), 전원부(260) 및 통신부(270)를 포함하여 구성된다. In detail, the field system 200 and the sub field system 200A may include a camera 210, a camera controller 211, a schedule storage unit 220, a field environment sensing unit 230, and a situational awareness modeling unit 100. ), The intermittent information obtaining unit 240, the broadcasting unit 250, the power supply unit 260 and the communication unit 270.

여기서, 상기 현장시스템(200)과 서브 현장시스템(200A)의 구성적 차이를 살펴보면, 서브 현장시스템(200A)의 통신부(270)는 현장시스템(200)과의 통신을 위한 근거리 통신부(271)를 구비하고 현장시스템(200)과의 통신부(270)는 서브 현장시스템(200A)과의 통신을 위한 근거리 통신부(271)도 포함하지만 센터시스템(300)의 통신을 위한 원거리 통신부(272)도 포함한다. 상기 현장시스템(200)과 서브 현장시스템(200A) 사이의 근거리 통신방식은 설치 비용 및 설치 용이성을 고려하여 근거리 무선통신으로 이루어지는 것이 바람직하고, 상기 현장시스템(200)과 센터시스템(300) 사이의 원거리 통신방식은 전송할 정보량 및 신속성을 고려하여 전용선을 이용한 유선 통신으로 이루어지는 것이 바람직하다. Here, looking at the structural difference between the field system 200 and the sub-site system 200A, the communication unit 270 of the sub-site system 200A uses a short range communication unit 271 for communication with the field system 200. The communication unit 270 with the field system 200 includes a short range communication unit 271 for communication with the sub-site system 200A, but also includes a remote communication unit 272 for communication with the center system 300. . The short-range communication method between the field system 200 and the sub-site system 200A preferably includes short-range wireless communication in consideration of installation cost and ease of installation, and between the field system 200 and the center system 300. The telecommunication method is preferably made of wired communication using a dedicated line in consideration of the amount and speed of information to be transmitted.

또한, 상기 서브 현장시스템(200A)은, 자체적으로 전력을 생성하는 전력생성부(261)를 구비하여 전원부(260)에 공급하지만, 상기 현장시스템(200)은 상기의 전력생성부(261)를 구비하지 아니하므로 외부 전력선에 전원부(260)에 연결하여 외부로부터 전력을 공급받는다. 상기 전력생성부(261)는 태양전지를 이용한 태양광발전장치, 풍력을 이용한 풍력발전장치, 아니면 태양광발전장치와 풍력발전장치를 병행한 장치로 구성될 수 있으며, 이에 따라, 외부 전력선에 연결하기 위한 전선의 포설작업 없이 상기 서브 현장시스템(200A)을 쉽게 설치할 수 있다. 한편, 상기 현장시스템(200) 및 서브 현장시스템(200A)에 구비되는 전원부(260)는 내부 동작에 필요한 전압으로 전기를 공급한다.In addition, the sub-site system 200A includes a power generation unit 261 that generates power on its own, and supplies the power to the power supply unit 260, but the field system 200 supplies the power generation unit 261 to the power generation unit 261. Since it is not provided, it is connected to the power supply unit 260 to an external power line to receive power from the outside. The power generation unit 261 may be configured as a photovoltaic device using a solar cell, a wind turbine using a wind power, or a device in parallel with the photovoltaic device and the wind power generator, and thus, connected to an external power line. The sub-site system 200A can be easily installed without laying the wires. On the other hand, the power supply unit 260 provided in the field system 200 and the sub-site system 200A supplies electricity at a voltage required for internal operation.

이하, 상기 현장시스템(200) 및 서브 현장시스템(200A)에 공통으로 포함된 카메라(210), 카메라제어부(211), 스케줄저장부(220), 현장환경 센싱부(230), 상황인지 모델링부(100), 단속정보 획득부(240) 및 방송부(250)에 대해 설명하며, 공통으로 포함된 구성들에 대한 것이므로 상기 현장시스템(200)에 대해서만 설명한다.Hereinafter, the camera 210, the camera controller 211, the schedule storage unit 220, the field environment sensing unit 230, and the situational awareness modeling unit included in the field system 200 and the sub-site system 200A in common. A description will be given of the control unit 100, the intermittent information acquisition unit 240 and the broadcasting unit 250, and only the field system 200 will be described.

상기 카메라(210)는 도로 상을 촬영하여 연속 프레임으로 영상을 제공하며, 상기 카메라제어부(211)는 상기 카메라(210)의 셔터 스피드, 오토 포커스 또는 화이트밸런스를 조절할 뿐만 아니라 PTZ(pan, tilt, zoom)을 제어하여 촬상 방향 및 초점을 조절한다. 즉, 상기 도 5를 참조하면 알 수 있듯이, 현장시스템(200)이 설치되는 도로는 4거리는 물론이고 편도 2차로에 설치할 수 있는 데, 행정적으로 지정되는 불법주정차 단속영역인 관심영역(AOI:Area of Interest)이 분산되어 있으므로 서로 떨어져 있는 관심영역(AOI)을 하나의 카메라로 촬영하려면 카메라를 선회시켜 촬상 방향을 주기적으로 바꾸어야하며, 아울러, 관심영역(AOI)에서 차량을 균일한 크기의 영상으로 촬영하고 차량번호판을 인식하기 위해 차량번호판을 촬영하려면 카메라(210)의 PTZ(pan, tilt, zoom)를 제어해야 한다.The camera 210 photographs a road and provides an image in a continuous frame, and the camera controller 211 not only adjusts the shutter speed, auto focus or white balance of the camera 210 but also PTZ (pan, tilt, zoom to adjust the imaging direction and focus. That is, as can be seen with reference to FIG. 5, the road on which the field system 200 is installed can be installed on not only four streets but also a two-way one-way lane of interest, which is an administratively designated illegal parking control area (AOI: Area). of interest) is distributed, so in order to capture AOIs separated from each other by one camera, the camera should be rotated to periodically change the imaging direction. To photograph the license plate to photograph and recognize the license plate, it is necessary to control the PTZ (pan, tilt, zoom) of the camera 210.

상기 스케줄저장부(220)는, 서로 떨어져 있는 관심영역(AOI)들의 위치정보 및 도 5에 도시된 바와 같이 길게 이어진 각각의 관심영역(AOI)에서 위치별 거리정보에 대한 맵핑정보에 근거하여, 다수의 관심영역(AOI)을 순차적으로 촬영하기 위한 방향조절 정보 및 관심영역(AOI)의 각 지점을 동일한 크기로 촬영하기 위한 초점조절 정보를 포함하는 스케줄정보를 저장한다. 한편, 이러한 스케줄정보는, 센터시스템(300)의 지시에 따라 특정지점을 수동으로 촬영할 때에도 사용된다.The schedule storage unit 220 is based on the location information of the AOIs that are separated from each other and the mapping information for the distance information for each location in each of the AOIs that are extended as shown in FIG. 5. Schedule information including direction adjustment information for sequentially photographing the plurality of ROIs and focusing information for photographing each point of the ROI with the same size is stored. On the other hand, such schedule information is also used when manually photographing a specific point in accordance with the instructions of the center system 300.

상기 현장환경 센싱부(230)는, 카메라(210)에서 촬영되는 영상의 품질을 좌우하는 주변의 환경요인을 센싱하며, 조도 센서를 포함하여 구성된다. 카메라(210)로 촬영되는 영상은 주변 조도에 따라 셔터 스피드, 오토포커스(auto focus) 및 화이트밸런스를 조절해야 보다 원하는 수준의 영상을 얻을 수 있고 아울러 초점도 정확하게 맞출 수 있기 때문이다. 그리고, 현장시스템(200)은 현장환경 센싱부(230)에서 센싱된 값에 따라 카메라제어부(211)를 제어한다.The field environment sensing unit 230 senses environmental factors surrounding the quality of the image captured by the camera 210 and includes an illumination sensor. This is because the image captured by the camera 210 is adjusted to the shutter speed, auto focus and white balance according to the ambient illumination to obtain a more desired level of image and to accurately focus. In addition, the field system 200 controls the camera controller 211 according to the value sensed by the field environment sensing unit 230.

상기 상황인지 모델링부(100)는, 상기 도 1 및 도 2를 참조한 바와 같이, 카메라(210)로부터 입력받는 영상으로부터 배경 영상을 모델링하면서, 상황인지모듈(130)에 의해 감지된 전경영역(OOI)의 이력정보를 단속정보 획득부(240)에서 활용하게 한다. 즉, 상기 상황인지 모델링부(100)는, 미리 지정된 시간 이상으로 정지한 전경영역(OOI)의 맵핑정보를 단속정보 획득부(240)에 전달한다. As described above with reference to FIGS. 1 and 2, the situation awareness modeling unit 100 models a background image from an image received from the camera 210, and the foreground area OI detected by the situation awareness module 130. The history information of the) to be utilized in the intermittent information acquisition unit 240. That is, the situation-aware modeling unit 100 transmits mapping information of the foreground area OI that has been stopped for a predetermined time or more to the enforcement information acquisition unit 240.

상기 단속정보 획득부(240)는, 상기 상황인지 모델링부(100)로부터 전달받는 전경영상(OOI)의 맵핑정보에 따라 카메라제어부(211)를 제어하여 전경영상(OOI) 부분을 확대 촬영하고, 아울러, 단속정보를 생성한다. 구체적으로, 상기 도 4를 참조하면, 상기 단속정보 획득부(240)는 맵핑정보에 따라 상기 카메라제어부(211)를 제어하여 카메라(210)의 PTZ를 조절함으로써 전경영상(OOI)에 감지된 차량의 번호판 부분을 카메라(210)로 촬영하는 단속영상 획득모듈(241)과, 단속영상 획득모듈(241)에서 촬영한 영상을 이용하여 차량번호를 인식하는 차량번호 인식모듈(242)과, 단속상황정보를 단속영상에 워터마킹하여 얻는 단속정보를 생성하는 워터마킹 모듈(243)을 포함한다. 여기서, 단속영상에 워터마킹되는 단속상황정보는 촬영일시, 촬영위치 및 맵핑정보를 포함한다. 즉, 본 발명에 따르면, 단속상황정보를 단속영상의 파일명에 기재하던 종래의 방식을 채용하지 아니하고 워터마킹하므로, 보안을 유지할 수 있을 뿐만 아니라, 파일명의 제한된 byte수에 한정할 필요없이 단속상황정보를 상세한 내용으로 표시할 수 있으며, 더욱이, 단속상황정보를 워터마킹한 단속영상의 파일을 센터시스템(300)에 전송할 때에도 단속상황정보를 별도 관리할 필요가 없고, 단속상황정보를 유실할 염려도 없다. 상기 워터마킹 기술은 공지된 다양한 방식들 중에 어느 하나를 선택하여 채용할 수 있으나, 단속영상을 DCT변환, FFT변환 아니면 웨이브렛 변환(Wavelet transform)하여 주파수 영역에서 워터 마크를 삽입한 후에 역변환하여 얻는 방식을 사용하여서, 단속영상의 원본이 훼손되지 아니하게 하는 것이 바람직하다.The intermittent information acquisition unit 240 controls the camera controller 211 according to the mapping information of the foreground image (OOI) received from the situation-aware modeling unit 100 to enlarge and photograph the foreground image (OOI) part. In addition, intermittent information is generated. Specifically, referring to FIG. 4, the enforcement information obtaining unit 240 controls the camera control unit 211 according to mapping information and adjusts the PTZ of the camera 210 to detect the vehicle in the foreground image OOI. Intermittent image acquisition module 241 for photographing the license plate portion of the camera 210, the vehicle number recognition module 242 for recognizing the vehicle number using the image captured by the intermittent image acquisition module 241, and the situation And a watermarking module 243 for generating intermittent information obtained by watermarking the information on the intermittent image. Here, the intermittent situation information watermarked on the intermittent image includes a photographing date and time, photographing position, and mapping information. That is, according to the present invention, since watermarking is not carried out by adopting the conventional method of describing the intermittent situation information in the file name of the intermittent video, it is possible not only to maintain security but also to restrict the limited number of bytes in the file name. Can be displayed in detail, and furthermore, even when transmitting the file of the intermittent video, which is watermarked to the intermittent situation information, to the center system 300, there is no need to manage the intermittent situation information separately, and the intermittent situation information may be lost. none. The watermarking technique can be adopted by selecting any one of a variety of well-known methods, but obtained by performing inverse transformation after inserting a watermark in a frequency domain by performing DCT transformation, FFT transformation or wavelet transformation on an intermittent image. By using the method, it is desirable to prevent the original of the interrupted image from being damaged.

한편, 상기 단속상황정보는 인식한 차량번호, 단속영상의 관리를 위한 파일색인정보, 복수의 현장시스템 또는 복수의 서브 현장시스템을 하나의 센터시스템과 연계하여 운영할 때에 현장별 단속영상의 관리를 위한 관리정보, 를 포함할 수도 있다. 이때, 만약 차량번호를 단속상황정보에 포함시키도록 동작시킨 상태에서, 상기 단속정보 획득부(240)의 차량번호 인식모듈(242)이 차량번호 인식을 실패하더라도 차량번호를 제외한 나머지 정보만이라도 단속상황정보에 포함시키고 단속영상에 워터마킹하여 단속정보를 생성하는 것이 바람직하다. 그래야만 센터시스템(300)에서 비록 차량번호를 인식하지 못한 단속정보를 해독하여 단속할 수 있기 때문이다.On the other hand, the intermittent situation information is the management of the intermittent image for each site when operating the vehicle number, the file index information for managing the intermittent image, a plurality of on-site systems or a plurality of sub-site systems in connection with one center system For management information, may include. At this time, even if the vehicle number is operated to include the vehicle number in the enforcement situation information, even if the vehicle number recognition module 242 of the enforcement information acquisition unit 240 fails to recognize the vehicle number, even if only the remaining information except the vehicle number It is preferable to generate the interruption information by including the information and watermarking the interrupted image. This is because the center system 300 may crack down and crack down on crackdown information that does not recognize the vehicle number.

상기 단속영상 획득모듈(241)은 카메라(210)의 PTZ를 조절하여 단속영상을 획득하므로, 단속영상을 균일한 해상도로 획득할 수 있다. The intermittent image acquisition module 241 acquires the intermittent image by adjusting the PTZ of the camera 210, so that the intermittent image can be obtained with a uniform resolution.

상기 방송부(250)는, 센터시스템(300)의 지시에 따라 계도방송을 한다. 즉, 센터시스템(300)은 현장시스템(200)으로부터 단속정보를 수신하여 규정된 시간 이상으로 주정차한 차량이 검지될 경우에 계도방송에 필요한 방송신호를 센터시스템(300)에 전송하여 계도방송을 하게 한다.The broadcasting unit 250 performs genealogy broadcasting according to the instructions of the center system 300. That is, the center system 300 receives intermittent information from the field system 200 and transmits the broadcast signal necessary for genealogy broadcasting to the center system 300 when the vehicle parked for more than a predetermined time is detected and transmits the genealogy broadcast. Let's do it.

상기와 구성되는 현장시스템(200)은 단속상황정보를 단속영상에 워터마킹하여 얻는 단속정보를 센터시스템(300)에 전송하고, 아울러, 현장시스템(200)과 동일한 방식으로 단속정보를 생성하는 서브 현장시스템(200A)으로부터 단속정보를 근거리 무선통신으로 수신하여 센터시스템(300)에 전송하는 중계역할도 한다.The on-site system 200 configured as described above is configured to transmit the intermittent information obtained by watermarking the intermittent situation information to the intermittent video to the center system 300, and to generate the intermittent information in the same manner as the on-site system 200. It also serves as a relay that receives the intermittent information from the field system 200A by short-range wireless communication and transmits it to the center system 300.

그러면, 센터시스템(300)은 현장시스템(200) 및 서브 현장시스템(200A)으로부터 전송받는 단속정보를 취합하여 주정차단속 대상을 선별한다. 이를 위한 센터시스템(300)은 전송받는 단속정보로부터 단속상황정보를 추출하고 추출한 단속상황정보에 따라 단속정보를 분류하여 데이터베이스화하는 단속영상 관리서버(310), 데이터베이스화한 단속정보를 취합하여 주정차단속 대상인 차량으로 확정할 것인지를 판단하는 단속확정 서버(320), 및 단속 대상으로 확정된 차량에 대해 차적조회 등의 행정적인 절차를 수행하는 차적조회 서버(330), 를 포함하여 구성된다. Then, the center system 300 collects the enforcement information received from the on-site system 200 and the sub-site system 200A and selects a target for stopping vehicle parking. For this purpose, the center system 300 extracts the intermittent situation information from the received intermittent information, classifies the intermittent information according to the extracted intermittent situation information, and records and controls the database. It is configured to include an enforcement decision server 320 for determining whether to determine the vehicle to be subject to enforcement, and vehicle inquiry server 330 for performing administrative procedures such as vehicle inquiry on the vehicle determined to be subject to enforcement.

여기서, 상기 단속영상 관리서버(310)는 시간적으로 연속 전송받는 단속정보를 단속상황정보에 따라 분류하여 데이터베이스화하며, 아울러, 차량번호를 정확하게 인식한 단속정보와 차량번호를 인식하지 못한 단속정보로 색인정보를 부여하여 분류할 수 있도록 데이터베이스화하여서, 차량번호의 인식을 실패하더라도 단속영상으로 주정차를 단속하게 한다.In this case, the control video management server 310 is classified into a database by separating the information continuously received in time according to the enforcement situation information, and also, with the enforcement information that correctly recognized the vehicle number and the enforcement information that does not recognize the vehicle number By indexing the database so that the index information can be assigned, even if the vehicle number is unrecognized, the parking stop is controlled by the video.

상기 단속확정 서버(320)는 단속상황정보에 따라 분류된 단속정보를 취합하여서, 동일 차량이 규정된 시간 이상으로 주정차하였는지를 확인하고, 만약 규정 시간 이상으로 주정차한 차량을 단속정보로부터 확인되면, 그 차량을 주정차한 차량으로 확정한다. 그리고, 주정차한 차량으로 확정한 단속정보를 차적조회 서버(330)에 전달하여 불법주정차한 차량에 대한 행정적인 차적조회를 실시하게 한다. 한편, 상기 단속확정 서버(320)는 불법주정차한 차량으로 확정한 차량, 또는 규정 시간에 도달하지 아니하였지만 미리 지정된 시간까지 주정차한 것으로 감지된 차량이 발견되면, 계도를 위한 방송신호를 해당되는 현장시스템(200)에 전송하여 방송부(250)를 통해 계도방송이 이루어지게 한다. 이때, 현장시스템(200)은 전송받는 방송신호가 서브 현장시스템(200A)에 전송하기 위한 것이면 근거리 무선통신으로 해당되는 서브 현장시스템(200A)에 전송한다.
The crackdown confirmation server 320 collects crackdown information classified according to the crackdown situation information, and checks whether the same vehicle parked or stopped more than the prescribed time, and if the vehicle parked more than the prescribed time from the crackdown information, the The vehicle is determined to be parked. Then, the enforcement information determined as the parked vehicle is transmitted to the vehicle inquiry server 330 to perform an administrative vehicle inquiry for the illegally parked vehicle. On the other hand, when the control server 320 is found to be a vehicle parked illegally, or a vehicle detected as having stopped at a predetermined time even though it has not reached the prescribed time, a site corresponding to the broadcast signal for the passage is detected. The system 200 is transmitted to the system 200 to perform the genealogy broadcast through the broadcasting unit 250. At this time, the field system 200 transmits the received broadcast signal to the sub field system 200A corresponding to short-range wireless communication when the received broadcast signal is to be transmitted to the sub field system 200A.

도 7은 본 발명의 실시예에 따른 불법주정차 무인단속방법의 순서도로서, 상술한 불법주정차 무인단속시스템을 이용하여 이루어진다. 7 is a flow chart of the illegal parking control method according to an embodiment of the present invention, it is made using the above-described illegal parking unmanned enforcement system.

현장시스템(200)은, 현장환경에 적응하여 카메라의 설정값을 조절하면서 연속 프레임으로 촬영하고, 아울러, 스케줄저장부(220)에 저장된 맵핑정보 및 스케줄정보에 따라 카메라의 PTZ(팬, 틸트, 줌)를 조절한다(S10). 즉, 현장시스템(200)은 현장환경 센싱부(230)에서 감지되는 센싱값에 따라 카메라제어부(211)의 설정값인 셔터 스피드, 오토포커스(auto focus) 및 화이드밸런스 등을 조절하여 카메라(210)로 촬영되는 영상을 선명한 영상을 얻으며, 아울러, 촬영하고자 하는 관심영역(AOI)을 맵핑정보에 근거한 스케줄정보에 따라 촬영한다.On-site system 200 is taken in a continuous frame while adjusting the settings of the camera to adapt to the site environment, and, according to the mapping information and schedule information stored in the schedule storage unit 220, PTZ (pan, tilt, Zoom) (S10). That is, the field system 200 adjusts the camera speed by adjusting shutter speed, auto focus, and white balance, which are set values of the camera controller 211, according to the sensing value detected by the field environment sensing unit 230. In operation 210, a clear image is obtained, and a region of interest AIO to be photographed is captured according to schedule information based on mapping information.

현장시스템(200)은 상기한 촬영과정에서 연속 프레임으로 얻는 영상을 상황인지 모델링단계(S100), 단속영상 획득단계(S200), 차량번호 인식단계(S300) 및 단속정보 생성단계(S400)로 순차적으로 처리하고 단속상황정보를 단속영상에 워터마킹한 단속정보를 센터시스템(300)에게 전송한다. 그리고, 센터시스템(300)은 단속정보에 근거하여 단속여부 판단단계(S500)를 수행한다.The field system 200 sequentially processes the image obtained as a continuous frame in the photographing process as a situational recognition modeling step S100, an intermittent image acquisition step S200, a vehicle number recognition step S300, and an interruption information generation step S400. The control unit transmits the control information to the center system 300 by watermarking the control situation information on the control image. In addition, the center system 300 performs the step of determining whether to crack down based on the crackdown information (S500).

상기 상황인지 모델링단계(S100)는, 상기 도 1을 참조하여 상술한 적응적 배경영상 모델링 방법으로 이루어지며, 이에 따라, 관심대상인 차량(A)의 이동 형태에 따라 적응적으로 가우시안 혼합모델을 업데이트하여 배경영상을 모델링하면서, 아울러, 상황인지모듈(130)에 의한 상황인지단계(S150)에서 미리 설정된 시간 이상으로 정지한 차량(A)들을 검지할 수 있다. 도 5 및 도 6을 참조하면, 불법주정차 단속영역인 관심영역(AOI)은 도로상에 길게 지정되므로 카메라(210)를 선회하며 각각의 관심영역(AOI)들을 촬영할 경우에, 하나의 관심영역(AOI)에서 감지되는 차량이 복수로 이루어질 수도 있다. 따라서, 상기 상황인지 모델링단계(S100)는 차량(A)을 포함한 전경영역인 관심대상영역(OOI:Object of Interest)을 전경영역 추출단계(S140)에서 검지할 때에 하나의 관심영역(AOI)에서 미리 설정된 시간이상으로 정지한 관심대상영역(OOI)을 복수개로 검지하면, 관심대상영역(OOI)들에게 순번(i)을 정하고 감지한 관심대상영역(OOI)의 개수를 최대값(MAX)으로 정하여서 이후의 단속영상 획득단계(S300)에서 순차적으로 번호판영역을 획득하게 한다. 한편, 복수의 관심영역(AOI)에 대한 맵핑정보에 근거하여 관심영역(AOI)을 순차적으로 촬영함에 따라 얻는 영상(B)은 도 6에 도시된 바와 같이 실제로 불법주정차를 단속할 관심영역(AOI) 외의 영역도 촬영되므로, 관심영역(AOI)에 대한 맵핑정보에 근거하여 관심영역(AOI)에 대한 화소들만 가우시안 혼합 모델로 모델링하여서, 필요치 아니한 영역을 모델링하지 아니하는 만큼 신호처리 시간을 단축하는 것이 바람직하다. 여기서, 관심대상영역(OOI)의 정지 여부를 결정하는 미리 설정된 시간은 불법주정차 단속 여부를 결정하는 규정된 시간보다 작은 값을 갖는다.The situation-aware modeling step (S100) is performed by the adaptive background image modeling method described above with reference to FIG. 1 and, accordingly, adaptively updates the Gaussian mixture model according to the movement type of the vehicle A of interest. By modeling the background image, the vehicle A may be detected to stop for more than a predetermined time in the situation recognition step (S150) by the situation recognition module 130. 5 and 6, the area of interest AOI, which is an illegal parking control area, is long on the road, so when turning the camera 210 and capturing each area of interest AOI, one area of interest ( The vehicle detected by the AOI may be formed in plural. Accordingly, the situational awareness modeling step S100 may be performed in one area of interest AIO when the object of interest (OOI), which is the foreground area including the vehicle A, is detected in the foreground area extraction step S140. When detecting a plurality of regions of interest OOI stopped for a predetermined time or more, a sequence number i is determined to the regions of interest OOI and the number of detected regions of interest OOI is set to the maximum value MAX. The license plate area is sequentially obtained in the subsequent intermittent image acquisition step (S300). Meanwhile, as shown in FIG. 6, the image B obtained by sequentially photographing the region of interest AOI based on the mapping information of the plurality of regions of interest AOI is actually the region of interest AOI which is to control illegal parking. Since other areas are also photographed, only the pixels of the region of interest AOI are modeled as a Gaussian mixture model based on the mapping information of the region of interest AIOI, thereby reducing the signal processing time by not modeling an unnecessary region. It is preferable. Here, the predetermined time for determining whether the region of interest OI is stopped has a value smaller than a prescribed time for determining whether or not to illegally park.

상기 단속영상 획득단계(S200)는, 단속정보 획득부(240)에 의해서 차량 번호판영역의 영상을 촬영하는 단계로서, 상기 상황인지 모델링단계(S100)에서 감지된 관심대상영역(OOI)에 대한 맵핑정보를 전달받아 맵핑정보에 따라 카메라(210)의 PTZ를 조절하여서 번호판영상을 획득한다. 이때, 감지된 관심대상영역(OOI)이 복수 개로서 순번을 정한 상태이면 후술하는 차량번호 인식단계(S300) 및 단속정보 생성단계(S400)와 연계되어 순번(i)을 하나씩 증가시키며(S600) 마지만 순번(MAX)에 이를 때까지(S210) 순차적으로 번호판영상 획득단계를 수행하게 한다. 예를 들어 i번째 관심대상영역(OOI)에서 번호판영상을 획득하는 과정은 다음과 같다. 먼저, i번째 관심대상영역(OOI)의 맵핑정보에 따라 카메라의 촬영 좌표를 조절하여 번호판영역을 획득하기 위한 촬영을 하고, 초점이 맞는지 확인하면서(S231) 초점이 정확하게 맞을 때까지 초점을 보정(S232)을 하며 촬영하며, 이에 따라, 선명한 영상을 획득한다. 다음으로, 번호판영역이 획득되는지 확인하는 데(S240), 이때, 일반적으로 번호판은 규격화된 틀에 차량번호를 인쇄한 것이므로, 규격화된 번호판 틀의 이미지를 이용하여 번호판영역이 획득되는 지를 확인할 수 있다. 여기서, 번호판영역이 감지되지 아니하면 다음 단계에서 차량번호를 인식하지도 못하므로 순번(i)을 하나 올려서(S600) 다음 순번(i+1)의 관심대상영역(OOI)을 촬영한다. 그리고, 번호판영역이 감지되면, 번호판영역이 감지된 영역으로 카메라의 촬상각을 정밀하게 조절한 후에 촬영하되(S250) 초점이 맞는지 확인하면서(S251) 초점이 정확하게 맞을 때까지 초점을 보정(S252)하며 촬영하고, 이에 따라, 선명한 영상을 획득한다. 이때 촬영은 번호판영역으로부터 차량번호를 인식하기 위해 실행하는 촬영이다. 한편, 번호판영역을 획득하기 위한 촬영(S230)에서 얻는 영상을 단속영상으로 취급할 수도 있으나, 번호판을 보다 선명하게 촬영하는 차량번호를 인식하기 위해 촬영한 영상을 단속영상으로 취급할 수도 있다.The intermittent image acquisition step (S200) is a step of capturing an image of the vehicle license plate area by the intermittent information acquisition unit 240, and mapping to the region of interest (OOI) detected in the situation recognition modeling step (S100). The license plate image is obtained by adjusting the PTZ of the camera 210 according to the mapping information. At this time, if the detected number of interested areas (OOIs) has been determined as a sequence number, the sequence number (i) is increased by one in association with the vehicle number recognition step (S300) and the crackdown information generation step (S400) described later (S600). Lastly, until the number (MAX) is reached (S210) to sequentially perform the license plate image acquisition step. For example, a process of obtaining a license plate image in an i th region of interest (OOI) is as follows. First, photographing is performed to obtain the license plate area by adjusting the photographing coordinates of the camera according to the mapping information of the i th region of interest (OOI), and checking focus is corrected (S231) until the focus is corrected. S232) to shoot, thereby obtaining a clear image. Next, in order to check whether the license plate area is obtained (S240), in this case, since the license plate generally prints the vehicle number on the standardized frame, it is possible to confirm whether the license plate area is obtained using the image of the standardized license plate frame. . In this case, if the license plate area is not detected, the vehicle number may not be recognized in the next step, so that the number of interests (OO) of the next number (i + 1) is photographed by raising the order (i) by one (S600). Then, when the license plate area is detected, the photographing area is precisely adjusted to the area where the license plate area is detected (S250) while checking whether the focus is corrected (S251), and correcting the focus until the focus is accurately corrected (S252). And shoot, thereby obtaining a clear image. At this time, the photographing is a photographing performed to recognize the vehicle number from the license plate area. On the other hand, the image obtained in the photographing (S230) for obtaining the license plate area may be treated as an intermittent image, but the captured image may be treated as an intermittent image in order to recognize a vehicle number for photographing the license plate more clearly.

상기 차량번호 인식단계(S300)는, 상술한 바와 같이 얻는 번호판영상에서 차량번호를 인식한다. 차량번호를 인식하는 기술은 본 발명이 속한 기술분야에서 공지된 기술이므로 상세설명을 생략한다.In the vehicle number recognition step (S300), the vehicle number is recognized from the license plate image obtained as described above. The technology for recognizing a vehicle number is a technique known in the art to which the present invention pertains, and thus detailed description thereof will be omitted.

상기 단속정보 생성단계(S400)는, 상기 차량번호 인식단계(S300)에서 얻는 차량번호, 촬영일시, 맵핑정보에 따른 맵핑좌표, 현장시스템(200)의 설치위치에 따라 결정되는 촬영위치(또는 현장시스템의 식별자) 중에 적에도 하나 이상을 포함하는 단속상황정보를 취합하고, 취합한 단속상황정보를 상기 단속영상 획득단계(S300)에서 얻는 단속영상에 워터마킹하여서 단속정보를 생성한다. 그리고, 생성한 단송정보를 센터시스템(300)에게 전송하고 다음 순번의 관심대상영역(OOI)에 대한 단속정보를 생성하기 위해서 상기 단속영상 획득단계(S200)로 돌아간다.The intermittent information generating step (S400), the vehicle number obtained in the vehicle number recognition step (S300), the photographing position determined by the mapping coordinates according to the mapping information, the installation location of the field system 200 (or the site) The intermittent situation information including at least one of the identifiers of the system) is collected, and the intermittent intermittent situation information is watermarked to the intermittent image obtained in the intermittent image acquisition step S300 to generate the intermittent information. Then, the control unit returns to the control image acquisition step S200 in order to transmit the generated control information to the center system 300 and to generate control information for the next interested region OI.

한편, 서브 현장시스템(200A)에서 촬영한 영상을 이용해 상황인지 모델링단계(S100), 단속영상 획득단계(S200), 차량번호 인식단계(S300) 및 단속정보 생성단계(S400)를 수행하여 단속정보를 생성하면, 생성한 단속정보를 근거리 무선통신으로 수신하여 센터시스템(300)에 전송한다.On the other hand, by using the image taken in the sub-site system (200A) by performing the situational awareness modeling step (S100), the enforcement image acquisition step (S200), vehicle number recognition step (S300) and the enforcement information generation step (S400) When generating, to receive the generated intermittent information in the short-range wireless communication and transmits to the center system 300.

상기 단속여부 판단단계(S500)는, 현장시스템(200) 및 서브 현장시스템(200A)으로부터 전송받는 단속정보를 취합하되 단속정보에서 단속상황정보를 추출하여 단속상황정보에 따라 분류하여 데이터베이스화하고, 아울러, 단속정보의 시간적 이력을 관리하여 동일 단속상황정보의 시간적 누적량이 규정된 시간에 도달하면 최종 단속대상으로 확정하고, 확정된 단속정보에 대한 차적조회를 통해 행정적인 절차를 수행한다. 한편, 상기 단속확정 서버(320)는 불법주정차한 차량으로 확정한 차량, 또는 규정 시간에 도달하지 아니하였지만 미리 지정된 시간까지 주정차한 차량으로 감지되 차량이 발견되면, 계도를 위한 방송신호를 해당되는 현장시스템(200)에 전송하여 방송부(250)를 통해 계도방송이 이루어지게 한다.
The determination whether the enforcement step (S500), the enforcement information received from the on-site system 200 and the sub-site system (200A) is collected, the enforcement situation information is extracted from the enforcement information and classified according to the enforcement situation information and databased, In addition, by managing the temporal history of the crackdown information, if the cumulative amount of temporal cumulative amount of the same crackdown situation reaches the prescribed time, it is determined as the final crackdown target, and the administrative process is performed through the inquiry of the crackdown information. On the other hand, the intermittent determination server 320 is detected as a vehicle parked illegally, or if the vehicle is detected as a vehicle parked by a predetermined time that does not reach the prescribed time, but the predetermined time, the broadcast signal for the passage corresponding to By transmitting to the field system 200, the genealogy broadcast through the broadcast unit 250 is made.

도 8은 본 발명의 실시예에 따른 불법주정차 무인단속시스템에서, 추가된 불법주정차 단속모드인 검색검지모드를 설명하기 위한 영상 도면이고, 도 9는 추가된 검색검지모드의 동작 순서도이다.8 is an image diagram illustrating a search detection mode that is an added illegal parking control mode in the illegal parking control system according to an embodiment of the present invention, and FIG. 9 is an operation flowchart of the added search detection mode.

상기 도 8 및 도 9를 참조하여 설명하려는 검색검지모드는, 배경 영상을 모델링하지 아니하고, 대신에 차량번호를 인식하여 인식한 차량번호 및 감지 위치의 이력에 따라 불법주정차를 단속하는 동작모드이다.The search detection mode to be described with reference to FIGS. 8 and 9 does not model a background image, but instead is an operation mode for controlling illegal parking according to a history of a recognized vehicle number and a detected position by recognizing a vehicle number.

상기 도 8을 참조하면, 불법주정차 단속영역으로 지정된 관심영역(AOI : Area of Interest)을 복수의 영역으로 나누고, 나누어진 각 영역을 관심대상으로 하는 관심섹터(SOI : Sector of Interest)로 취급한다. 이때, 관심섹터(SOI)들은 관심영역(AOI)의 전 영역을 빈틈없이 커버(cover)한다. 아울러, 인접하는 관심섹터(SOI)들끼리는 부분적으로 중첩되게 한다. 여기서, 인접하는 관심섹터(SOI)들끼리 부분적으로 중첩시키지 아니하고 서로 연접되게 하면, 번호판영역의 탐지할 때에 연접한 부분에 놓인 번호판영역을 탐지하기 어렵기 때문이다.Referring to FIG. 8, an area of interest (AOI) designated as an illegal parking control area is divided into a plurality of areas, and each divided area is treated as a sector of interest (SOI). . At this time, the sectors of interest SOI cover the entire area of the region of interest AOI. In addition, adjacent sectors of interest (SOI) are partially overlapped. This is because when the adjacent sectors of interest (SOI) are contiguous with each other without partially overlapping, it is difficult to detect the license plate area placed in the contiguous part when detecting the license plate area.

상기의 검색검지모드를 갖추기 위해서, 현장시스템(200)은 관심섹터(SOI)들의 좌표에 대응되는 맵핑정보와 촬영스케줄을 스케줄저장부(220)에 저장하고 있다. 또한, 현장시스템(200)의 단속정보 획득부(240)는 센터시스템(300)으로부터 검색검지모드로 동작하라는 지시를 받으면, 관심섹터(SOI)를 촬영할 영상의 영역으로 하도록 카메라의 PTZ를 조절하면서 관심섹터(SOI)들을 순번(i)을 정하여 순차적으로 촬영하도록 구성되며, 아울러, 관심섹터(SOI) 별로 촬영한 영상에서 차량번호를 인식하고 인식한 차량번호의 시간적 이력을 DB화하여 규정시간 이상으로 차량이 정지하고 있다고 판단되면 단속영상에 단속상황정보를 워터마킹한 단속정보를 생성하여서 센터시스템(300)에 전송한다. 상기 도 9를 참조하여 검색검지모드의 동작 순서를 설명하면 다음과 같다.In order to have the search detection mode, the field system 200 stores mapping information corresponding to coordinates of sectors of interest (SOI) and a photographing schedule in the schedule storage unit 220. In addition, the intermittent information acquisition unit 240 of the field system 200 receives an instruction to operate in the search detection mode from the center system 300, while adjusting the PTZ of the camera to make the area of interest (SOI) an image area to be photographed. It is configured to take the sectors of interest (SOI) in order by taking a sequence number (i), and to recognize the vehicle number in the image taken for each sector of interest (SOI) and to make a DB of the time history of the recognized vehicle number more than the prescribed time If it is determined that the vehicle is stopped, the control unit generates the control information by watermarking the control situation information on the control image and transmits the control system to the center system 300. An operation sequence of the search detection mode will be described with reference to FIG. 9 as follows.

상기 검색검지모드는, 현장환경 센싱부(230)의 센싱값에 따라 카메라제어부(210)를 제어하여 카메라(210)로 촬영할 영상을 환경에 맞게 최적화시키는 적응적 카메라 환경설정단계(S10'); 관심섹터(SOI)들을 순번(i)에 맞게 순차적으로 촬영하기 위해서 순번 i를 1로 셋팅하는 초기화단계(S20); 순번(i)에 따라 관심섹터(SOI)의 개수(MAX)만큼 반복적으로 각 관심섹터(SOI)를 촬영하여 단속영상을 획득하는 단속영상 획득단계(S30); 단속영상에서 차량번호를 인식하는 차량번호 인식단계(S40); 인식한 차량번호의 이력을 관리하는 차량번호 이력관리단계(S50); 차량번호의 이력에 따라 규정시간 이상으로 차량이 주정차하고 있다고 판단되는 단속영상에 대해 단속정보를 생성하고 생성한 단속정보를 센터시스템(300)에 전송하는 단속정보 생성단계(S50); 센터시스템(300)에서 단속정보에 따라 불법주정차의 여부를 확정하여 행정적 절차를 수행하는 단속여부 판단단계(S70);를 포함하여 이루어진다.The search detection mode may include an adaptive camera environment setting step (S10 ′) of controlling the camera controller 210 according to the sensing value of the field environment sensing unit 230 to optimize the image to be taken by the camera 210 according to the environment; An initialization step S20 of setting the order i to 1 to sequentially photograph the sectors of interest SOI according to the order i; An intermittent image acquisition step (S30) of repeatedly acquiring an intermittent image by repeatedly photographing each interested sector SOI by the number MAX of the sectors of interest SOI according to order i; Vehicle number recognition step of recognizing the vehicle number in the interrupted image (S40); Vehicle number history management step of managing the history of the recognized vehicle number (S50); A control information generation step (S50) of generating control information for the control image determined that the vehicle is parked or stopped according to the history of the vehicle number and transmitting the generated control information to the center system 300 (S50); The control system determines whether or not illegal parking is performed according to the control information in the center system 300 and performs an administrative procedure.

여기서, 상기 단속영상 획득단계(S30)는, 관심대상영역(OOI)을 대신하여 섹터영역(SOI)에 대한 좌표 맵핑을 한다는 차이만 갖고 그외에는 도 7을 참조하여 설명한 단속영상 획득단계(S200)와 동일하므로, 여기서는 간략하게 설명한다. 상기 단속영상 획득단계(S30)는, 순번(i)이 MAX보다 큰 지를 판단하여(S31) MAX보다 작거나 같으면 i번째 순번의 섹터영역(SOI)에 대한 맵핑정보에 맞게 카메라의 PTZ를 조절하고(S32), 번호판영역의 위치를 획득하기 위한 촬영(S33)을 하되 초점이 맞지 아니하면 초점을 보정한 후에(S34, S35) 재차 촬영하며, 촬영된 영상에서 번호판영역이 감지되는 지를 확인한다(S36). 이때, 번호판영역이 감지되지 아니하면 순번(i)을 한단계 올려(S80) 다음 순번(i+1)의 섹터영역(SOI)을 촬영하게 하고, 번호판영역이 감지되면 감지된 번호판영역의 위치에 맞게 카메라의 PTZ를 조절하여 차량번호를 인식하기 위한 촬영을 하며(S37), 이때 촬영된 영상의 초점이 맞지 아니하면 초점을 보정하여 재차 촬영한다(S38, S39). 상기 단속영상 획득단계(S30)에서 얻을 단속영상은 번호판영역의 위치를 획득하기 위한 촬영(S33)에서 얻는 영상, 아니면, 차량번호를 인식하기 위한 촬영(S37)에서 얻는 영상으로 하면 된다.In this case, the step S30 of obtaining the interrupted image may be performed by mapping the coordinates of the sector area SOI in place of the region of interest OI. Otherwise, the step S200 may be described with reference to FIG. 7. Since it is the same as, it will be briefly described here. In the intermittent image acquisition step (S30), it is determined whether the sequence number (i) is greater than MAX (S31) and if it is less than or equal to MAX, the PTZ of the camera is adjusted according to the mapping information on the sector area (SOI) of the i-th sequence. (S32), photographing to obtain the position of the license plate area (S33), but if the focus is not in focus after the focus is corrected again (S34, S35), and checks whether the license plate area is detected in the captured image ( S36). At this time, if the license plate area is not detected, the sequence number (i) is increased by one step (S80) and the sector area (SOI) of the next sequence number (i + 1) is photographed, and when the license plate area is detected, the position of the license plate area is detected. By adjusting the PTZ of the camera to take a picture to recognize the vehicle number (S37), if the image is out of focus at this time to correct the focus and shoot again (S38, S39). The intermittent image to be obtained in the intermittent image acquisition step (S30) may be an image obtained from the image capture (S33) for acquiring the position of the license plate area, or an image obtained from the image capture (S37) to recognize the vehicle number.

한편, 상기 차량번호 이력관리단계(S50)는, 차량번호가 인식된 단속영상의 단속상황정보의 이력을 DB화하여 관리한다. 그리고, 상기 단속정보 생성단계(S50)는 단속상황정보의 이력을 확인하여 규정 시간 이상으로 주정차된 차량번호가 있으면 해당되는 단속영상 및 단속상황정보로 이루어지는 단속정보를 생성하여서 센터시스템(S60)에 전송하고, 다음 순번(i+1)의 섹터영역(SOI)에 대한 촬영을 하는 상기 단속영상 획득단계(S200)로 넘어간다. 한편, 상기 단속여부 판단단계(S70)는 규정시간 이상으로 주정차한 차량에 대해서만 단속정보를 수신하므로, 단속정보를 DB화하여 관리하면서, 단속확정 여부만 판단하고, 규정시간과의 대비는 하지 아니하여도 된다. 그리고, 상기 단속영상 획득단계(S30)를 시작함에 있어서 순번(i)이 MAX보다 크면 상기 적응적 카메라 환경설정단계(S10')로 돌아가서 순번 i을 초기화하고 섹터영역(SOI)들을 순번에 따라 순차적으로 촬영한다.
On the other hand, the vehicle number history management step (S50), and manages the DB of the history of the enforcement status information of the control image, the vehicle number is recognized. Then, the control information generation step (S50) checks the history of the control situation information, if there is a vehicle number parked for more than a specified time to generate the control information consisting of the control image and the control situation information to the center system (S60) Then, the process proceeds to the step S200 of capturing the captured image of the sector area SOI of the next sequence i + 1. On the other hand, the step of determining whether the crackdown (S70) receives the crackdown information only for the vehicle parked over the prescribed time, and manages the crackdown information as a DB, only determine whether the crackdown is determined, not contrast with the prescribed time You may also do it. When the sequence number i is greater than MAX in starting the intermittent image acquisition step S30, the process returns to the adaptive camera configuration step S10 ', initializes the sequence number i, and sequentially orders the sector areas SOI in sequence. Shoot with.

도 10은 본 발명의 실시예에 따른 불법주정차 무인단속시스템에서, 추가된 불법주정차 단속모드인 사용자지정모드의 동작 순서도이다.10 is a flowchart illustrating an operation of a user designated mode that is an illegal parking control mode in the illegal parking control system according to an embodiment of the present invention.

상기 도 10에 도시된 사용자지정모드는, 센터시스템(300)에서 촬영위치를 지정하여 현장시스템(200)을 지정된 촬영위치에 한정하여 불법주정차를 단속하게 하는 동작모드이다.The user designation mode shown in FIG. 10 is an operation mode for designating a photographing position in the center system 300 to limit the field system 200 to a designated photographing position to control illegal parking.

상기의 사용자지정모드는, 센터시스템(300)에서 촬영위치를 지정하는 촬영위치 지정단계(S1); 지정된 촬영위치에 맞게 현장시스템(200)에서 카메라의 PTZ를 조정하는 PTZ조정단계(S2); 현장환경 센싱부(230)의 센싱값에 따라 카메라의 셔터 스피드, 오토 포커스 또는 화이트밸런스를 조절하는 적응적 카메라 환경설정단계(S3); 카메라로 촬영하되 초점이 맞지 아니하면(S5) 초점을 보정하여(S5') 재차 촬영하여 선명한 단속영상을 획득하는 촬영단계(S4); 를 포함하며, 이후에 이루어지는 차량번호 인식단계(S6), 차량번호 이력관리단계(S7), 단속정보 생성단계(S8) 및 단속여부 판단단계(S9)는 상기 도 9에 참조하여 설명한 동작과 동일하므로 중복 설명을 생략한다. 다만, 사용자지정모드로 동작할 때의 현장시스템(200)은 촬영할 위치를 지정된 곳에 고정하므로, 단속정보 생성단계(S8)에서 상기 적응적 카메라 환경설정단계(S3)로 돌아간다.The user designation mode may include a shooting position designation step (S1) of designating a shooting position in the center system 300; PTZ adjustment step (S2) of adjusting the PTZ of the camera in the field system 200 to fit the designated shooting position; An adaptive camera environment setting step (S3) of adjusting the shutter speed, the auto focus or the white balance of the camera according to the sensing value of the field environment sensing unit 230; Shooting step (S4) to shoot with the camera, but not in focus (S5) to correct the focus (S5 ') to obtain a sharp intermittent image by shooting again (S4); The vehicle number recognition step (S6), the vehicle number history management step (S7), the crackdown information generation step (S8), and the crackdown determination step (S9) are performed in the same manner as the operation described with reference to FIG. Therefore, duplicate description is omitted. However, the field system 200 when operating in the user-specified mode fixes the position to be photographed at the designated place, and returns to the adaptive camera environment setting step S3 in the intermittent information generating step S8.

한편, 상기 촬영위치 지정단계(S1)는, 카메라의 PTZ 제어값을 지정하거나, 아니면, 카메라로 촬영하는 얻는 화면과 도로상의 현장을 좌표로서 맵핑시킨 맵핑정보에 따라 지정할 수 있다.
On the other hand, in the shooting position designation step (S1), it is possible to specify the PTZ control value of the camera, or may be specified according to the mapping information obtained by mapping the screen obtained by the camera and the scene on the road as coordinates.

상술한 검색검지모드 및 사용자지정모드는 불법주정차를 단속할 현장의 상황에 따라 선택적으로 운용할 수 있는 모드이다. 예를 들면, 배경 영상의 생성이 어려운 상황에서 특정 불법주정차 단속영역을 신속하게 감시할 경우에 검색검지모드로 동작시키고, 특정 지점만 집중적으로 감시할 경우에 사용자지정모드로 동작시킨다.
The above-described search detection mode and user designation mode are modes that can be selectively operated according to the situation of the site to control illegal parking. For example, in a situation where it is difficult to generate a background image, it operates in a search detection mode when a specific illegal parking control area is quickly monitored, and operates in a user designated mode when intensively monitoring only a specific point.

도 11은 본 발명에 실시예들에 있어서, 초점보정을 설명하기 위해 렌즈에 의한 이미지 형상화 과정을 보여주는 도면이다.FIG. 11 is a view showing an image shaping process by a lens in order to explain focus correction in embodiments of the present invention.

상기 도 7, 도 9 및 도 10에 도시된 초점보정(S232, S252, S35, S39, S5')은, 촬영한 영상을 확인하여 초점이 맞지 않을 경우에 초점을 보정하게 되는 단계이며, 이하, 이러한 초점보정에 대해서 도 11을 참조하여 구체적으로 설명한다.7, the focus correction (S232, S252, S35, S39, S5 ') shown in Figs. 7, 9 and 10 is a step of correcting the focus when the focus is not focused by checking the captured image, This focus correction will be described in detail with reference to FIG. 11.

렌즈(lens)는 물체나 상이 맺히는 위치에 따라서 초점이 변하게 되며, 카메라 렌즈(lens)의 초점은 맞추어진 상태에서 수학적으로는 카메라로부터 일정한 거리에 있는 점(point) 도는 구면이 될 것이다. 그리고, 사람이 영상 상에서 보기에 초점이 맞아 보이는 영역 중에 카메라로부터 가까운 거리부터 먼 거리까지를 피사계심도(DOF:depth of field)라고 한다. 여기서, '피사계심도(DOF)가 깊다'라는 것은 그만큼 초점을 맞춘 거리로부터 전후로 초점이 잘 맞는다는 것을 의미하고, 반대로 '피사계심도(DOF)가 낮다'라는 것은 초점을 맞춘 거리로부터 조금만 벗어나도 초점이 잘 맞지 않는다는 것을 의미한다. 즉, 피사계심도(DOF)는 초점이 맞아 보이는 파사체의 전후 거리를 말한다.The lens will be in focus according to the position where the object or image is formed, and the lens of the lens will be mathematically a point or spherical surface at a certain distance from the camera while in focus. In addition, a depth of field (DOF) is a distance from a close to a far distance from a camera in an area in which a person is focused on the image. Here, 'depth of field (DOF)' means that the focus is well focused back and forth from the focused distance, whereas 'low depth of field (DOF)' means focusing even a little from the focused distance. This means that it doesn't fit well. In other words, the depth of field (DOF) refers to the front and rear distance of the focus body in focus.

상기 도 11을 참조하여 설명하면, 상이 깨끗하게 맺히는 CCD 영상의 위치(s)를 초점심도( depth of focus)라고 하고, 상이 깨끗하게 맺히는 물체의 위치(z)를 피사체심도(DOF)라고 한다. 이때, 착란원(blur circle/circle of confusion)의 위치에 따라 피사계 심도가 결정된다.Referring to FIG. 11, the position s of the CCD image in which the image is neatly formed is called a depth of focus, and the position z of the object in which the image is neatly formed is called a subject depth DOF. At this time, the depth of field is determined according to the position of the blur circle / circle of confusion.

이때, 영상과 착란원 사이의 거리 c는, 렌즈 조리개 직경(a)과의 비율로 아래의 [수학식 7]로 계산된다.At this time, the distance c between the image and the confusion circle is calculated by the following Equation 7 as a ratio with the lens aperture diameter a.

[수학식 7][Equation 7]

Figure 112011006321974-pat00026
Figure 112011006321974-pat00026

여기서, 렌즈의 법칙

Figure 112011006321974-pat00027
을 이용하여 렌즈의 초점 거리(f)를 구할 수 있고, 또한, 피사계 심도(DOF)도 아래의 [수학식 8]로 구할 수 있다.Where the law of the lens
Figure 112011006321974-pat00027
The focal length f of the lens can be obtained using, and the depth of field can also be obtained from Equation 8 below.

[수학식 8][Equation 8]

Figure 112011006321974-pat00028
Figure 112011006321974-pat00028

그리고, 초점거리(f) 및 줌(zoom) 정보를 카메라로부터 획득하고, 추출된차량의 번호판 크기에 따른 피사체심도(DOF)도 계산할 수 있다. In addition, the focal length f and the zoom information may be obtained from the camera, and the subject depth DOF may be calculated according to the size of the license plate of the extracted vehicle.

이에, 본 발명은 초점거리(f), 줌(zoom) 및 피사체심도(DOF) 사이의 연관관계에 따라 카메라의 초점이 맺혔다면 뚜렷한 영상을 획득하고 그렇지 않다면 흐릿한 영상(blurred image)를 획득할 것임을 알 수 있으므로, 이러한 연관관계를 이용하여 초점을 보정한다. 즉, 본 발명은 촬영된 영상의 에지에 따라 초점의 맺힘 유무를 파악하여서, 카메라의 줌(zoom)을 보정하며, 다시 말해서, 각 화소의 에지 크기로서 초점이 맺혔는지 판단하여 초점을 보정한다.Accordingly, the present invention will obtain a clear image if the camera is in focus according to the relationship between the focal length f, the zoom and the depth of field (DOF), otherwise obtain a blurred image. As we can see, we use this association to correct the focus. That is, the present invention determines whether the focus is formed according to the edge of the photographed image, and corrects the zoom of the camera. In other words, it determines whether the focus is achieved as the edge size of each pixel to correct the focus.

구체적으로 설명하면, 입력 영상I(x,y)에 대한 각 화소의 에지 크기

Figure 112011006321974-pat00029
는 아래의 [수학식 9]로 구할 수 있고, 여기서,
Figure 112011006321974-pat00030
는 각각 3x3 소벨(sobel) 연산자를 나타내며 입력 영상의 각 화소와 콘볼루션(convolution)을 통해서 에지의 크기가 계산된다.Specifically, the edge size of each pixel with respect to the input image I (x, y)
Figure 112011006321974-pat00029
Can be obtained from Equation 9 below, where
Figure 112011006321974-pat00030
Each represents a 3x3 sobel operator, and the size of the edge is calculated through convolution with each pixel of the input image.

[수학식 9][Equation 9]

Figure 112011006321974-pat00031
Figure 112011006321974-pat00031

초점의 맺힘 유무는 [수학식 9]에서 보여준 바와 같이 S(x,y)로 계산하므로, 특정 경계값(T : Threshold)보다 큰 S(x,y)를 이용하여 아래의 [수학식 10]으로 구한다.The presence or absence of focus is calculated by S (x, y) as shown in [Equation 9], so that S (x, y) greater than a certain threshold (T: Threshold) can be used. Obtain as

[수학식 10][Equation 10]

Figure 112011006321974-pat00032
Figure 112011006321974-pat00032

따라서, TN 값이 미리 설정된 기준값보다 크면 in-focus, 작으면 out-focus 가 되므로, TN값과 미리 설정된 기준값과의 비교 결과에 따라 초점을 조절한다.
Therefore, if the TN value is larger than the preset reference value, the in-focus value is smaller. If the TN value is smaller than the preset reference value, the focus is adjusted according to a comparison result between the TN value and the preset reference value.

이상에서 본 발명의 기술적 사상을 예시하기 위해 구체적인 실시 예로 도시하고 설명하였으나, 본 발명은 상기와 같이 구체적인 실시 예와 동일한 구성 및 작용에만 국한되지 않고, 여러가지 변형이 본 발명의 범위를 벗어나지 않는 한도 내에서 실시될 수 있다. 따라서, 그와 같은 변형도 본 발명의 범위에 속하는 것으로 간주해야 하며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.Although illustrated and described in the specific embodiments to illustrate the technical spirit of the present invention, the present invention is not limited to the same configuration and operation as the specific embodiment as described above, within the limits that various modifications do not depart from the scope of the invention It can be carried out in. Therefore, such modifications should also be regarded as belonging to the scope of the present invention, and the scope of the present invention should be determined by the claims below.

AOI : 관심영역 OOI : 전경영역(관심대상영역)
SOI : 섹터영역 A : 물체(관심대상)
100 : 상황인지 모델링부 110 : 초기화모듈
120 : 전경영역 추출모듈 130 : 상황인지모듈
140 : 이력관리모듈 150 : 배경 업데이트모듈
151 : 전역배경 업데이트모듈 152 : 국소배경 업데이트모듈
200 : 현장시스템 200A : 서브 현장시스템
210 : 카메라 211 : 카메라제어부
220 : 스케줄저장부 230 : 현장환경 센싱부
240 : 단속정보 획득부 250 : 방송부
260 : 전원부 170 : 통신부
171 : 원거리 통신부 172 : 근거리 통신부
300 : 센터시스템 210 : 단속영상 관리서버
220 : 단속확정 서버 230 : 차적조회 서버
AOI: area of interest OOI: foreground area (area of interest)
SOI: sector area A: object (object of interest)
100: contextual modeling unit 110: initialization module
120: foreground area extraction module 130: context awareness module
140: history management module 150: background update module
151: global background update module 152: local background update module
200: field system 200A: sub field system
210: camera 211: camera control unit
220: schedule storage unit 230: field environment sensing unit
240: intermittent information acquisition unit 250: broadcasting unit
260: power supply unit 170: communication unit
171: telecommunications unit 172: short-range communication unit
300: center system 210: intermittent video management server
220: intermittent confirmation server 230: vehicle query server

Claims (15)

물체에 의한 전경영역의 위치 및 시간 이력을 이력관리모듈(140)에 저장 관리하여 카메라로 촬영되는 영역에 대한 배경영상을 전경영역에 대한 업데이트 또는 전역적 업데이트하면서 모델링하는 적응적 배경영상 모델링 방법에 있어서,
카메라로 촬영하여 얻는 영상의 초기 연속 프레임에서 각 화소별 가우시안 분포에 따른 평균 및 공분산을 산출하여 배경영상에 대한 화소별 가우시안 모델을 초기화하는 가우시안 모델 초기화단계(S130);
화소별 가우시안 모델에 근거하여 초기화단계(S130) 이후의 영상 프레임에서 물체에 의한 전경영역을 추출하는 전경영역 추출단계(S140);
추출한 전경영역의 위치 및 시간 이력을 이력관리모듈(140)로 관리하고, 이력에 근거하여 전경 영역의 이동 또는 정지를 감지하는 상황 인지단계(S150);
전경 영역이 추출되지 않을 경우 및 추출된 전경 영역이 이동 중인 경우에 배경의 전역에 대한 화소별 가우시안 모델을 업데이트하고, 추출된 전경영역이 미리 설정된 시간 이상으로 정지하였다가 이동하면, 정지하였던 영역에 대한 가우시안 모델을 현재 화소값으로 초기화하는 배경 업데이트단계(S160);
를 포함함을 특징으로 하는 적응적 배경영상 모델링 방법.
In the adaptive background image modeling method for storing the location and time history of the foreground area by the object in the history management module 140 to model the background image of the area photographed by the camera while updating or globally updating the foreground area. In
A Gaussian model initialization step (S130) of initializing a Gaussian model for each pixel for the background image by calculating an average and a covariance according to the Gaussian distribution for each pixel in the initial continuous frame of the image photographed by the camera;
A foreground region extraction step S140 of extracting a foreground region by an object from an image frame after the initialization step S130 based on the pixel-specific Gaussian model;
A situation recognition step (S150) of managing the location and time history of the extracted foreground area by the history management module 140 and detecting movement or stop of the foreground area based on the history;
If the foreground area is not extracted and the extracted foreground area is moving, the Gaussian model for each pixel of the background is updated, and if the extracted foreground area stops for more than a preset time and then moves, A background update step (S160) of initializing a Gaussian model for the current pixel value;
Adaptive background image modeling method comprising a.
제 1항에 있어서,
상기 배경 업데이트단계(S160)는,
추출되는 전경영역이 미리 설정된 시간 이상으로 정지한 경우에 정지한 전경영역의 화소들에 대한 가우시안 모델을 현재 추출된 전경영역의 화소값으로 초기화함을 특징으로 하는 적응적 배경영상 모델링 방법.
The method of claim 1,
The background update step (S160),
An adaptive background image modeling method comprising initializing a Gaussian model for pixels of a stopped foreground area to a pixel value of a currently extracted foreground area when the extracted foreground area stops for a predetermined time or more.
제 1항 또는 2항에 있어서,
화소별 가우시안 모델은,
영상 프레임에서 미리 지정된 관심영역에 한정하여 이루어지고, 한정된 관심영역 내에서 발생되는 전경영역만을 추출함을 특징으로 하는 적응적 배경영상 모델링 방법.
3. The method according to claim 1 or 2,
Gaussian model by pixel
An adaptive background image modeling method which is limited to a predetermined ROI in an image frame and extracts only a foreground region generated within a limited ROI.
제 1항 또는 2항에 있어서,
상기 상황 인지단계(S150)는,
미리 설정된 시간 이상으로 정지하였던 전경영역의 화소에 대해 가우시안 모델을 업데이트함에 따라, 정지한 물체에 대한 전경 영역을 전경 영역 추출단계(S140)에서 추출하지 못한 경우에, 이력관리모듈(140)로 관리되는 전경영역의 이력으로 물체에 대한 전경영역을 감지함을 특징으로 하는 적응적 배경영상 모델링 방법.
3. The method according to claim 1 or 2,
The situation recognition step (S150),
As the Gaussian model is updated for the pixels in the foreground area that has been stopped for a predetermined time or more, when the foreground area for the stationary object is not extracted in the foreground area extraction step (S140), it is managed by the history management module 140. Adaptive background image modeling method characterized by detecting the foreground area for the object by the history of the foreground area.
제 1항 또는 2항에 있어서,
상기 배경 업데이트단계(S160)에서 화소에 대한 가우시안 모델의 초기화는,
현재 프레임에서 해당되는 화소값을 가우시안 모델의 평균값으로 하고, 공분산을 초기화 전의 공분산값으로 하는 것임을 특징으로 하는 적응적 배경영상 모델링 방법.
3. The method according to claim 1 or 2,
Initialization of the Gaussian model for the pixel in the background update step (S160),
Adaptive background image modeling method characterized in that the pixel value corresponding to the current frame is the average value of the Gaussian model, and the covariance is the covariance value before initialization.
카메라로 촬영한 영상에서 차량에 의한 전경영역의 위치 및 시간 이력을 이력관리모듈(140)에 저장 관리하며 전경영역의 이력에 따라 배경영상을 업데이트하고, 이력관리모듈(140)의 이력 정보를 이용하여 불법주정차한 차량을 단속하는 불법주정차 무인단속방법에 있어서,
카메라를 이용하여 불법주정차 단속영역을 연속 프레임으로 촬영하는 촬영단계(S10);
카메라로 촬영하여 얻는 영상의 초기 연속 프레임에서 각 화소별 가우시안 분포에 따른 평균 및 공분산을 산출하여 배경영상에 대한 화소별 가우시안 모델을 초기화하는 가우시안 모델 초기화단계(S130); 화소별 가우시안 모델에 근거하여 초기화단계(S130) 이후의 영상 프레임에서 물체에 의한 전경영역을 추출하는 전경영역 추출단계(S140); 추출한 전경영역의 위치 및 시간 이력을 이력관리모듈(140)로 관리하고, 이력에 근거하여 전경 영역의 이동 또는 정지를 감지하는 상황 인지단계(S150); 전경 영역이 추출되지 않을 경우 및 추출된 전경 영역이 이동 중인 경우에 배경의 전역에 대한 화소별 가우시안 모델을 업데이트하고, 추출된 전경영역이 미리 설정된 시간 이상으로 정지하였다가 이동하면, 정지하였던 영역에 대한 가우시안 모델을 현재 화소값으로 초기화하는 배경 업데이트단계(S160);를 포함한 상황인지 모델링단계(S100);
상기 상황인지 모델링단계(S100)에서 정지한 물체에 대응되는 적어도 하나 이상의 전경영역을 추출하면, 추출한 전경영역에 순번을 정하여 순차적으로 번호판영역을 포함한 단속영상을 획득하는 단속영상 획득단계(S200);
단속영상에서 차량번호를 인식하는 차량번호 인식단계(S300);
촬영일시, 촬영위치 또는 차량번호를 포함한 단속상황정보를 단속영상과 연계하여 단속정보를 생성하는 단속정보 생성단계(S400);
동일한 단속상황정보를 갖는 단속정보의 시간적 경과를 누적하여 주정차단속 규정시간에 따라 단속여부를 결정하는 단속여부 판단단계(S500);
를 포함함을 특징으로 하는 적응적 배경영상 모델링을 이용한 불법주정차 무인단속방법.
Store and manage the location and time history of the foreground area by the vehicle in the history management module 140 in the image taken by the camera, update the background image according to the history of the foreground area, and use the history information of the history management module 140. In the illegal parking control method for cracking down illegally parked vehicles,
A photographing step of photographing the illegal parking control area using a camera in a continuous frame (S10);
A Gaussian model initialization step (S130) of initializing a Gaussian model for each pixel for the background image by calculating an average and a covariance according to the Gaussian distribution for each pixel in the initial continuous frame of the image photographed by the camera; A foreground region extraction step S140 of extracting a foreground region by an object from an image frame after the initialization step S130 based on the pixel-specific Gaussian model; A situation recognition step (S150) of managing the location and time history of the extracted foreground area by the history management module 140 and detecting movement or stop of the foreground area based on the history; If the foreground area is not extracted and the extracted foreground area is moving, the Gaussian model for each pixel of the background is updated, and if the extracted foreground area stops for more than a preset time and then moves, A context-sensitive modeling step (S100) including a background update step (S160) of initializing a Gaussian model for the current pixel value;
An intermittent image acquisition step (S200) of sequentially obtaining at least one foreground region corresponding to the stationary object in the context-aware modeling step (S100), sequentially determining the extracted foreground region and sequentially obtaining the interrupted image including the license plate region;
Vehicle number recognition step of recognizing the vehicle number in the interrupted image (S300);
An intermittent information generation step (S400) of generating intermittent information by linking the intermittent situation information including the photographing date and time, the photographing position or the vehicle number with the intermittent image;
A crackdown determination step (S500) of determining whether to crackdown in accordance with the regulation for stopping parking by accumulating the temporal passage of the crackdown information having the same crackdown situation information;
Illegal parking control method using adaptive background image modeling, characterized in that it comprises a.
제 6항에 있어서,
상기 상황인지 모델링단계(S100)는,
촬영된 영상 내에서 불법주정차 단속영역만을 관심영역으로 미리 지정하여서, 관심영역에 대해서만 가우시안 모델로 모델링하고, 관심영역 내에서 발생되는 전경영역만 추출함을 특징으로 하는 적응적 배경영상 모델링을 이용한 불법주정차 무인단속방법.
The method of claim 6,
The situational awareness modeling step (S100),
Illegal using adaptive background image modeling, which designates only the illegal parking control area as the region of interest in the captured image, and models the Gaussian model only for the region of interest, and extracts only the foreground region generated in the region of interest. Unmanned parking control method.
제 7항에 있어서,
상기 단속정보 생성단계(S400)는,
초점을 전경영역에 맞추어 확대 촬영한 후에 번호판 위치를 감지하고, 감지한 번호판 위치로 초점을 맞추어 번호판영역의 영상을 획득하며,
초점을 맞출 시에, 촬영한 영상에서 각 화소의 에지 크기를 산출하여 에지 크기와 미리 지정된 기준값과의 비교 결과에 따라 카메라의 초점을 조절함을 특징으로 하는 적응적 배경영상 모델링을 이용한 불법주정차 무인단속방법.
The method of claim 7, wherein
The control information generation step (S400),
After focusing to the foreground area and zooming in, it detects the license plate position, and focuses on the detected license plate position to obtain an image of the license plate area.
At the time of focusing, the unscaled parking is unmanned using adaptive background image modeling, which calculates the edge size of each pixel in the captured image and adjusts the camera focus according to the result of comparing the edge size with a predetermined reference value. How to crack down.
불법주정차 단속지역의 차량에 대한 단속정보를 감지하는 현장시스템(200), 및 단속정보에 근거하여 불법주정차를 판단하는 센터시스템(300)을 포함하여 구성되며,
상기 현장시스템(200)은,
카메라제어부(211)의 제어에 따라 연속 프레임으로 촬영하는 카메라(210);
불법주정차 단속지역으로 지정된 관심영역(AOI)의 위치 및 거리에 대한 맵핑정보를 저장하는 스케줄저장부(220);
촬영하여 얻는 영상의 초기 연속 프레임에서 각 화소별 가우시안 분포에 따른 평균 및 공분산을 산출하여 배경영상에 대한 화소별 적응적 가우시안 혼합모델을 초기화하는 초기화모듈(110); 화소별 적응적 가우시안 혼합 모델에 근거하여 초기화 이후의 영상 프레임에서 물체에 의한 전경영역(OOI)을 추출하는 전경영역 추출모듈(120); 추출한 전경영역의 위치 및 시간 이력을 관리하는 이력관리모듈(140); 및 전경영역이 추출되지 않을 경우 및 추출된 전경영역이 이동 중인 경우에 배경의 전역에 대한 화소별 가우시안 모델을 업데이트하고, 추출된 전경영역이 미리 설정된 시간 이상으로 정지하였다가 이동하면, 정지하였던 영역에 대한 적응적 가우시안 혼합모델의 평균값을 현재 화소값으로 초기화하는 배경 업데이트모듈(150);을 구비하는 상황인지 모델링부(100);
미리 설정된 시간 이상으로 정지한 전경영역의 맵핑정보를 전달받아 확대 촬영하여 단속영상을 획득하고, 단속영상으로부터 차량번호를 인식한 후에, 촬영일시, 촬영위치 또는 차량번호를 포함한 단속상황정보를 단속영상과 연계하여 단속정보를 생성하는 단속정보 획득부(240);
생성된 단속정보를 센터시스템(300)에 전송하는 통신부(270);
를 포함함을 특징으로 하는 불법주정차 무인단속시스템.
On-site system 200 for detecting the crackdown information for vehicles in the illegal parking control area, and the center system 300 for determining illegal parking based on the crackdown information,
The field system 200,
A camera 210 photographing a continuous frame according to the control of the camera controller 211;
A schedule storage unit 220 for storing mapping information on the location and distance of the area of interest AOI designated as an illegal parking control area;
An initialization module 110 for initializing the adaptive Gaussian mixture model for each pixel for the background image by calculating an average and a covariance according to the Gaussian distribution for each pixel in an initial continuous frame of the image obtained by photographing; A foreground region extraction module 120 for extracting a foreground region OOI by an object from an image frame after initialization based on the pixel-specific adaptive Gaussian mixture model; A history management module 140 for managing the location and time history of the extracted foreground area; And update the pixel-specific Gaussian model for the entire background of the background when the foreground area is not extracted and when the extracted foreground area is moving, and stops the extracted foreground area after moving for more than a preset time. A background update module 150 for initializing an average value of the adaptive Gaussian mixture model with respect to the current pixel value;
After receiving the mapping information of the foreground area that has been stopped for more than a preset time, the image is enlarged to obtain a crackdown image, and after recognizing the vehicle number from the crackdown image, the crackdown situation information including the shooting date, shooting location, or vehicle number Intermittent information acquisition unit 240 for generating intermittent information in association with the connection;
Communication unit 270 for transmitting the generated intermittent information to the center system 300;
Illegal parking unmanned enforcement system, characterized in that it comprises a.
제 9항에 있어서,
상기 배경 업데이트모듈(150)은,
추출되는 전경영역이 미리 설정된 시간 이상으로 정지한 경우에 정지한 전경영역의 화소들에 대한 적응적 가우시안 혼합모델의 평균값을 현재 추출된 전경영역의 화소값으로 초기화함을 특징으로 하는 불법주정차 무인단속시스템.
The method of claim 9,
The background update module 150,
When the extracted foreground area stops for more than a preset time, illegal parking control is initialized by initializing the average value of the adaptive Gaussian mixture model for the pixels of the stopped foreground area to the pixel value of the currently extracted foreground area. system.
제 10항에 있어서,
상기 현장시스템(200)은,
맵핑정보에 근거하여 복수의 관심영역을 순차적으로 촬영하기 위한 스케줄정보를 상기 스케줄저장부(220)에 저장하고 있어서, 현장에 지정된 복수의 주정차단속영역을 하나의 카메라(210)를 선회시켜 촬영하되, 상기 상황인지 모델링부(100)로 주정차 차량을 감지한 경우에 해당되는 관심영역의 맵핑정보에 근거한 초점 조절로 균일한 해상도로 주정차 차량을 촬영하고,
상기 배경 업데이트모듈(150)은,
촬영된 영상 내에서 불법주정차 단속영역만을 관심영역으로 미리 지정하여서, 관심영역에 대해서만 적응적 가우시안 혼합 모델로 모델링하고, 관심영역 내에서 발생되는 전경영역만 추출함을 특징으로 하는 불법주정차 무인단속시스템.
The method of claim 10,
The field system 200,
Based on the mapping information, the schedule information for sequentially photographing a plurality of ROIs is stored in the schedule storage unit 220, so that a plurality of parking stop areas designated in the field are photographed by turning one camera 210. When the parking vehicle is detected by the situation-aware modeling unit 100, the parking vehicle is photographed at a uniform resolution by focus adjustment based on mapping information of the ROI corresponding to the situation.
The background update module 150,
Illegal parking control system, characterized in that it specifies an illegal Gaussian interception area only as a region of interest in the captured image, modeling it as an adaptive Gaussian mixture model only for the region of interest, and extracting only the foreground region generated in the region of interest. .
제 9항 내지 제 11항 중에 어느 하나의 항에 있어서,
상기 단속정보 획득부(240)는,
단속상황정보를 단속영상에 워터마킹하여 상기 센터시스템(300)에 전송되게 하고,
상기 센터시스템(300)은,
워터마킹된 촬영상황정보를 단속영상으로부터 추출하여 단속상황정보에 따라 단속영상을 분류하여 관리함을 특징으로 하는 불법주정차 무인단속시스템.
The method according to any one of claims 9 to 11,
The intermittent information acquisition unit 240,
Watermarking the intermittent situation information to the intermittent video to be transmitted to the center system 300,
The center system 300,
Illegal parking control system, characterized in that to extract the watermarked shooting situation information from the control image and classify the control image according to the control situation information.
제 9항 내지 제 11항 중에 어느 하나의 항에 있어서,
상기 현장시스템(200)은,
조도를 감지하는 현장환경 센싱부(230)를 구비하고, 조도에 따라 카메라(210)의 셔터스피드, 오토포커스 또는 화이트밸런스를 조절함을 특징으로 하는 불법주정차 무인단속시스템.
The method according to any one of claims 9 to 11,
The field system 200,
The on-site environment sensing unit 230 for detecting illuminance and illegal parking control system, characterized in that for controlling the shutter speed, autofocus or white balance of the camera 210 according to the illuminance.
제 9항 내지 제 11항 중에 어느 하나의 항에 있어서,
상기 현장시스템(200)은,
관심영역을 복수의 관심섹터로 구획하되 인접하는 관심섹터끼리 부분적으로 중첩되게 구획하고 구획된 각각의 관심섹터에 대한 맵핑정보를 순번을 부여하여 스케줄저장부(220)에 저장하고 있으며,
관심섹터를 순번에 따라 반복적으로 촬영하여 차량번호를 인식함으로서 인식되는 차량번호의 이력을 확인하여 규정시간 이상으로 감지된 차량의 단속영상에 단속상황정보를 연계한 단속영상을 생성하여 센터시스템에 전송하는 동작모드인 검색검지모드를 상기 단속정보 획득부(240)에 구비함을 특징으로 하는 불법주정차 무인단속시스템.
The method according to any one of claims 9 to 11,
The field system 200,
The region of interest is partitioned into a plurality of sectors of interest, and adjacent sectors of interest are partially overlapped, and the mapping information for each of the partitions of interest is partitioned and stored in the schedule storage unit 220.
By repeatedly recording the sectors of interest and recognizing the vehicle number, it checks the history of the recognized vehicle number and generates the control image which is linked with the control situation information to the center system which is detected over the prescribed time and transmits it to the center system. Unattended parking control system, characterized in that the operation detection mode is provided with the detection information acquisition unit 240.
제 9항 내지 제 11항 중에 어느 하나의 항에 있어서,
상기 현장시스템(200)은,
상기 현장시스템(200)과 동일하게 구성되어 인근 현장에 설치되는 서브 현장시스템(200A)과 근거리 무선통신으로 연결되어서, 서브 현장시스템(200A)에서 획득한 단속정보를 수신하여 상기 센터시스템(300)에 전송하며,
상기 서브 현장시스템(200A)은,
태양전지 또는 풍력발전기를 구비하여 전원을 충당함을 특징으로 하는 불법주정차 무인단속시스템.
The method according to any one of claims 9 to 11,
The field system 200,
The center system 300 is configured in the same manner as the field system 200 and connected to the sub-site system 200A installed in a nearby site by short-range wireless communication, and receives the intermittent information obtained from the sub-site system 200A. To,
The sub field system 200A,
Illegal parking control system, characterized in that the solar cell or wind power generator is provided to cover the power.
KR1020110007707A 2011-01-26 2011-01-26 Adaptive modeling method for background image, detecting method and system for illegal-stopping and parking vehicle using it KR101038650B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110007707A KR101038650B1 (en) 2011-01-26 2011-01-26 Adaptive modeling method for background image, detecting method and system for illegal-stopping and parking vehicle using it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110007707A KR101038650B1 (en) 2011-01-26 2011-01-26 Adaptive modeling method for background image, detecting method and system for illegal-stopping and parking vehicle using it

Publications (1)

Publication Number Publication Date
KR101038650B1 true KR101038650B1 (en) 2011-06-02

Family

ID=44404939

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110007707A KR101038650B1 (en) 2011-01-26 2011-01-26 Adaptive modeling method for background image, detecting method and system for illegal-stopping and parking vehicle using it

Country Status (1)

Country Link
KR (1) KR101038650B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101213255B1 (en) 2012-09-14 2012-12-18 박종현 System and method for context-aware using image processing and wireless sensor network
US8908967B2 (en) 2012-03-13 2014-12-09 Samsung Techwin Co., Ltd. Image processing method using foreground probability
US9311524B2 (en) 2011-12-12 2016-04-12 Samsung Electronics Co., Ltd. Image processing apparatus and image processing method
KR101617182B1 (en) * 2015-02-24 2016-05-02 (주)파크인서울 Method and apparatus for detecting realtime object region robust to vehicle headlight
KR20160072477A (en) 2014-12-15 2016-06-23 전자부품연구원 Surrounding environment modeling method and apparatus performing the same
KR20160112788A (en) 2015-03-20 2016-09-28 목포해양대학교 산학협력단 Method and apparatus for adaptive modeling background based on multiple gaussian distribution
CN109887276A (en) * 2019-01-30 2019-06-14 北京同方软件股份有限公司 The night traffic congestion detection method merged based on foreground extraction with deep learning
CN111310733A (en) * 2020-03-19 2020-06-19 成都云盯科技有限公司 Method, device and equipment for detecting personnel entering and exiting based on monitoring video

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070109713A (en) * 2006-05-12 2007-11-15 주식회사 라이크텍 Movable regulation system for illegal stoping and parking car
KR100844213B1 (en) 2007-06-04 2008-07-04 안양시시설관리공단 Parrking control system
JP2009031939A (en) 2007-07-25 2009-02-12 Advanced Telecommunication Research Institute International Image processing apparatus, method and program
KR20100056711A (en) * 2008-11-20 2010-05-28 원광대학교산학협력단 Fall dection method using perspective image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070109713A (en) * 2006-05-12 2007-11-15 주식회사 라이크텍 Movable regulation system for illegal stoping and parking car
KR100844213B1 (en) 2007-06-04 2008-07-04 안양시시설관리공단 Parrking control system
JP2009031939A (en) 2007-07-25 2009-02-12 Advanced Telecommunication Research Institute International Image processing apparatus, method and program
KR20100056711A (en) * 2008-11-20 2010-05-28 원광대학교산학협력단 Fall dection method using perspective image

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9311524B2 (en) 2011-12-12 2016-04-12 Samsung Electronics Co., Ltd. Image processing apparatus and image processing method
US8908967B2 (en) 2012-03-13 2014-12-09 Samsung Techwin Co., Ltd. Image processing method using foreground probability
KR101213255B1 (en) 2012-09-14 2012-12-18 박종현 System and method for context-aware using image processing and wireless sensor network
KR20160072477A (en) 2014-12-15 2016-06-23 전자부품연구원 Surrounding environment modeling method and apparatus performing the same
KR101617182B1 (en) * 2015-02-24 2016-05-02 (주)파크인서울 Method and apparatus for detecting realtime object region robust to vehicle headlight
KR20160112788A (en) 2015-03-20 2016-09-28 목포해양대학교 산학협력단 Method and apparatus for adaptive modeling background based on multiple gaussian distribution
KR101667761B1 (en) 2015-03-20 2016-10-19 목포해양대학교 산학협력단 Method and apparatus for adaptive modeling background based on multiple gaussian distribution
CN109887276A (en) * 2019-01-30 2019-06-14 北京同方软件股份有限公司 The night traffic congestion detection method merged based on foreground extraction with deep learning
CN111310733A (en) * 2020-03-19 2020-06-19 成都云盯科技有限公司 Method, device and equipment for detecting personnel entering and exiting based on monitoring video
CN111310733B (en) * 2020-03-19 2023-08-22 成都云盯科技有限公司 Personnel access detection method, device and equipment based on monitoring video

Similar Documents

Publication Publication Date Title
KR101038650B1 (en) Adaptive modeling method for background image, detecting method and system for illegal-stopping and parking vehicle using it
KR101826897B1 (en) Method and camera for determining an image adjustment parameter
EP3641298B1 (en) Method and device for capturing target object and video monitoring device
CN104754302A (en) Target detecting tracking method based on gun and bullet linkage system
CN104050679A (en) Illegal parking automatic evidence obtaining method
KR101496390B1 (en) System for Vehicle Number Detection
US10366482B2 (en) Method and system for automated video image focus change detection and classification
AU2011265429A1 (en) Method and system for robust scene modelling in an image sequence
JP2015104016A (en) Subject detection apparatus, imaging apparatus, subject detection apparatus control method, subject detection apparatus control program, and storage medium
KR101625538B1 (en) Car Number Recognition system
JP2017228082A (en) Tracking device, tracking method, and program
CN109905641B (en) Target monitoring method, device, equipment and system
JP7190951B2 (en) Image recognition system and image recognition method
KR100820952B1 (en) Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle using single camera and system thereof
KR102418823B1 (en) Deep learning-based illegal parking enforcement system using wide-area detection images
KR20120035734A (en) A method for detecting fire or smoke
KR101218302B1 (en) Method for location estimation of vehicle number plate
JP6265602B2 (en) Surveillance camera system, imaging apparatus, and imaging method
KR101033237B1 (en) Multi-function detecting system for vehicles and security using 360 deg. wide image and method of detecting thereof
CN109218587A (en) A kind of image-pickup method and system based on binocular camera
CN112887610A (en) Shooting method, shooting device, electronic equipment and storage medium
CN112184814A (en) Positioning method and positioning system
US20120188437A1 (en) Electronic camera
KR20160043484A (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera
CN115412668A (en) Tracking shooting method and device and computer readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee