KR20150055269A - Survellance video division apparatus and method for comprising indexing function - Google Patents

Survellance video division apparatus and method for comprising indexing function Download PDF

Info

Publication number
KR20150055269A
KR20150055269A KR1020130137395A KR20130137395A KR20150055269A KR 20150055269 A KR20150055269 A KR 20150055269A KR 1020130137395 A KR1020130137395 A KR 1020130137395A KR 20130137395 A KR20130137395 A KR 20130137395A KR 20150055269 A KR20150055269 A KR 20150055269A
Authority
KR
South Korea
Prior art keywords
similarity
feature
image
unit
background
Prior art date
Application number
KR1020130137395A
Other languages
Korean (ko)
Inventor
이한성
박소희
정성욱
유장희
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130137395A priority Critical patent/KR20150055269A/en
Publication of KR20150055269A publication Critical patent/KR20150055269A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Abstract

The present invention relates to a surveillance video segmentation device capable of segmenting and indexing a surveillance video without shot boundaries and a method thereof. Accordingly, the surveillance video segmentation device includes: a parsing unit; a segmentation unit; and an indexing unit. The parsing unit detects and updates the background of the surveillance video through modeling the background of the surveillance video recorded by a camera, detects an object in the surveillance video through comparing the background and a current frame, and extracts a feature value through extracting and coupling a color histogram for the object and the texture information of the object. The segmentation unit calculates the object similarity and feature similarity by comparing the object and the feature value of the previous frame and the object and the feature value of the current frame and segments the surveillance video based on the object similarity and feature similarity. The indexing unit indexes the frames of the segmented video and stores the index information in a storage unit.

Description

색인 기능을 포함하는 감시영상 분할 장치 및 방법{SURVELLANCE VIDEO DIVISION APPARATUS AND METHOD FOR COMPRISING INDEXING FUNCTION}TECHNICAL FIELD [0001] The present invention relates to a surveillance image dividing apparatus and method including an index function,

본 발명은 감시영상 분할 장치 및 방법에 관한 것이고, 보다 구체적으로 CCTV와 같은 카메라를 통해 연속적으로 촬영되어 샷 경계가 존재하지 않는 감시영상을 분할하고 이를 색인 할 수 있는 감시영상 분할 장치 및 방법에 관한 것이다.The present invention relates to a surveillance image segmentation apparatus and method, and more particularly to a surveillance image segmentation apparatus and method capable of dividing a surveillance image shot continuously through a camera such as CCTV and having no shot boundary, will be.

근래에 공공 장소에서의 범죄 예방 및 감시녹화 등의 목적으로 CCTV와 같은 카메라 기반의 영상보안 시스템의 설치 및 운용 사례가 증가하고 있다. 일반적으로, CCTV 기반의 영상보안 시스템은 크게 다음과 같은 두 가지 목적을 갖는다. 여기서, 첫 번째 목적은 관심 지역에 대한 실시간 영상 정보를 모니터링 함으로써, 실시간 범죄의 예방 및 대응을 수행하는 것이고, 두 번째 목적은 사고 및 범죄가 발생하였을 때 저장되어 있는 동영상 정보를 이용하여 초동 수사를 지원하는 것이다.Recently, camera-based image security systems such as CCTV have been installed and operated for the purpose of crime prevention and monitoring recording in public places. Generally, a CCTV-based image security system has two main purposes as follows. The first objective is to prevent and respond to real-time crime by monitoring real-time image information about the area of interest. Second, the primary objective is to perform primary investigation using video information stored when an accident or crime occurs Support.

범죄 발생시, 사건 현장 및 주변 CCTV 동영상을 확인하여 범죄 용의자 및 용의 차량을 탐색하는 것은 일반적으로 알려진 수사 방법이다. 그러나 저장된 동영상을 육안으로 확인하며 사건의 단서를 찾기 위해서는 많은 시간과 인적 자원의 투입이 요구된다는 문제점을 가지고 있다.It is generally known to investigate crime suspects and dragon vehicles by checking crime scenes, crime scenes and surrounding CCTV videos. However, there is a problem that it requires a lot of time and human resources input to check the recorded video with the naked eye and to find the clue of the event.

이러한 문제점을 해결하기 위해 감시영상에서 움직임 등의 이벤트를 탐지하고, 동영상 검색 시 이벤트가 탐지된 부분만을 검색하도록 색인 하는 방법이 이용되고 있다. 동영상을 색인 하기 위한 가장 중요한 단계는 동영상을 장면 변화가 발생하는 단위로 분할 하는 단계이다.In order to solve such a problem, a method of detecting an event such as a motion in a surveillance image and indexing the search for only the detected part in a moving image search is used. The most important step for indexing a moving image is to divide a moving image into units in which a scene change occurs.

일반적인 동영상을 장면 변화를 기준으로 분할할 경우, 동영상을 구성하는 샷의 경계를 탐지하고, 장면 전환으로 간주하여 분할 하는 방법이 일반적으로 사용되고 있다. 그러나, CCTV 기반의 감시 영상은 별도의 샷 단위가 존재하지 않으며, 영상이 연속적으로 입력 되기 때문에 일반적인 샷 경계 탐지 방법을 그대로 적용하기 어렵다는 문제점을 가지고 있다.When a general video is divided based on a scene change, a method of detecting a boundary of a shot constituting a video and dividing the video into a scene change is generally used. However, CCTV-based surveillance video does not have a separate shot unit, and since the video is input continuously, it is difficult to apply general shot boundary detection method as it is.

이러한 문제점을 해결하기 위한 방법으로 종래에는 차분 히스토그램의 평균값을 이용하여, 감시 영상에서 장면 전환을 검출하고, 정규화된 가중치 값을 이용하여 검출 결과의 신뢰도 산출 기법이 존재한다. 하지만 이러한 방법은 기존 장면 검출 방법들의 속도 및 계산 량 개선에 초점을 맞추고 있으며, 감시영상 본연의 특징을 고려한 영상 분할 방법을 제시하고 있지 않다. 통상 감시영상에서는 장면전환을 정의하기 어려우며, 검출된 장면 전환에 의미를 부여하기 힘들다는 문제점을 가지고 있다.As a method for solving such a problem, there is a technique of calculating the reliability of the detection result using the average value of the difference histogram, detecting the scene change in the supervised image, and using the normalized weight value. However, this method focuses on improving the speed and computation of existing scene detection methods, and does not propose an image segmentation method considering the nature of the surveillance image. It is difficult to define the scene change in the normal monitoring image and it is difficult to give meaning to the detected scene change.

따라서, 특별한 샷 경계가 존재하지 않으며, 연속적으로 입력되는 감시영상의 고유한 특징인, 사람과 차량 등 움직이는 객체의 변화를 이용한 영상 분할 방법에 대한 요구가 급증하고 있다.Therefore, there is a need for an image segmentation method using a change of a moving object such as a person and a vehicle, which is a unique characteristic of a surveillance image continuously input without a specific shot boundary.

이에 관련하여, 발명의 명칭이 "행동패턴 데이터베이스를 이용한 능동형 영상감시 시스템 및 그 방법"인 한국등록특허 제1133924호가 존재한다.In this regard, Korean Patent Registration No. 1133924 entitled " Active Video Surveillance System and Method Using Behavior Pattern Database "

본 발명은 CCTV와 같은 카메라에서 촬영된 영상과 같이, 별도의 샷 구분이 없는 영상에 대해 영상의 배경과, 움직이는 객체들을 고려하는 영상분할 장치 및 방법을 제공하는데 그 목적이 있다.It is an object of the present invention to provide an image dividing apparatus and method considering an image background and moving objects for an image having no separate shot classification, such as an image taken by a camera such as CCTV.

상기와 같은 과제를 해결하기 위한 본 발명의 감시 영상 분할 장치는 카메라로부터 촬영된 감시영상의 배경 모델링을 통해 감시영상에서 배경을 검출 및 갱신하고, 배경과 현재 프레임의 비교를 통해 감시영상에서의 객체를 검출하며, 객체에 대한 컬러 히스토그램과 텍스처 정보의 추출 및 결합을 통해 특징값을 추출하는 파싱부; 파싱부에서 추출된 이전 프레임의 객체 및 특징값과 현재 프레임의 객체 및 특징값을 각각 비교하여 객체 유사도 및 특징 유사도를 산출하고, 객체 유사도 및 특징 유사도를 근거로 감시영상을 분할하는 분할부; 및 분할된 영상의 프레임을 색인하고, 색인 정보를 저장부에 저장하는 색인부를 포함하는 것을 특징으로 한다.
According to an aspect of the present invention, there is provided a surveillance image segmentation apparatus for detecting and updating a background of a surveillance image through background modeling of a surveillance image photographed by a camera, A parser for extracting a feature value by extracting and combining color histogram and texture information for an object; A division unit for dividing the supervised image based on the object similarity and feature similarity by calculating the object similarity and the characteristic similarity by comparing the object and the characteristic value of the previous frame extracted from the parsing unit with the object and the characteristic value of the current frame, And an index unit for indexing the frames of the divided images and storing the index information in a storage unit.

상기와 같은 과제를 해결하기 위한 본 발명의 감시 영상 분할 방법은, 파싱부에 의해, 카메라로부터 촬영된 감시영상의 배경 모델링을 통해 감시영상에서 배경을 검출 및 갱신하는 단계; 파싱부에 의해, 배경과 현재 프레임의 비교를 통해 감시영상에서의 객체를 검출하는 단계; 파싱부에 의해, 객체에 대한 컬러 히스토그램과 텍스처 정보의 추출 및 결합을 통해 특징값을 추출하는 단계; 분할부에 의해, 객체를 검출하는 단계와 특징값을 추출하는 단계에서 추출된 이전 프레임의 객체 및 특징값과 현재 프레임의 객체 및 특징값을 각각 비교하여 객체 유사도 및 특징 유사도를 산출하는 단계, 분할부에 의해, 객체 유사도 및 특징 유사도를 근거로 감시영상을 분할하는 단계; 및 색인부에 의해, 분할된 영상의 프레임을 색인하고, 색인 정보를 저장부에 저장하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a surveillance image segmentation method including: detecting and updating a background in a surveillance image through a background modeling of a surveillance image photographed by a camera by a parsing unit; Detecting an object in the supervised image through comparison of the background and the current frame by the parsing unit; Extracting feature values by extracting and combining color histogram and texture information for an object by a parsing unit; Calculating an object similarity and feature similarity by comparing the object and feature value of the previous frame extracted in the step of detecting the object and the feature value extracted in the extracting step with the object and the feature value of the current frame, Dividing the surveillance image based on the object similarity degree and feature similarity degree by the install part; And a step of indexing the frames of the divided image by the index unit and storing the index information in the storage unit.

본 발명의 감시영상 분할 장치 및 방법에 따르면 예를 들어, CCTV와 같은 카메라에서 촬영되는 감시영상에 대해, 관심 대상이 되는 움직이는 객체들의 변화를 기준으로 영상 분할을 수행할 수 있고, 이를 통해 특정 이벤트에 대한 탐지 작업이 보다 용이해질 수 있는 장점을 갖는다.According to the monitor image dividing apparatus and method of the present invention, it is possible to perform image segmentation based on a change of moving objects of interest, for example, on a monitor image taken by a camera such as CCTV, Can be easily detected.

또한, 본 발명의 감시영상 분할 장치 및 방법에 따르면, 분할된 비디오 클립을 색인 함으로, 이벤트들에 대한 의미기반 요약 및 검색을 수행할 수 있는 장점을 갖는다.Further, according to the supervisory image segmentation apparatus and method of the present invention, it is possible to perform semantic-based summarization and search for events by indexing divided video clips.

도 1은 본 발명의 일 실시예에 따른 감시영상 분할 장치의 블록도이다.
도 2는 본 발명의 감시영상 장치의 색인부에서 객체의 특징을 추출하는 방법의 예시를 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 감시영상 분할 방법에 대한 흐름도이다.
도 4는 본 발명의 감시영상 분할 장치의 분할부의 특징 비교 모듈에서 특징값 비교를 수행하는 과정에 대한 흐름도이다.
1 is a block diagram of a supervisory image segmentation apparatus according to an embodiment of the present invention.
2 is a diagram showing an example of a method of extracting features of an object from an index unit of the surveillance video apparatus of the present invention.
3 is a flowchart illustrating a method of dividing a supervised image according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a process of comparing feature values in a feature comparison module of a divided portion of the supervisory image segmentation apparatus according to the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
The present invention will now be described in detail with reference to the accompanying drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

이하, 도 1을 참조로 본 발명의 실시예에 따른 감시 영상 분할 장치(100)에 대하여 설명하도록 한다. 도 1은 본 발명의 일 실시예에 따른 감시영상 분할 장치(100)의 블록도이다. 본 발명의 감시영상 분할 장치(100)는 파싱부(110), 분할부(120), 색인부(130) 및 저장부(140)를 포함하여 구성될 수 있다. 이들 각 구성에 대한 서술은 이하에서 이루어진다.Hereinafter, a supervisory image segmentation apparatus 100 according to an embodiment of the present invention will be described with reference to FIG. 1 is a block diagram of a supervisory image segmentation apparatus 100 according to an embodiment of the present invention. The monitoring image segmentation apparatus 100 of the present invention may include a parsing unit 110, a segmenting unit 120, an index unit 130, and a storage unit 140. The description of each of these constitutions is made below.

파싱부(110)는 카메라(10)로부터 촬영된 감시영상을 수신하고, 수신된 감시영상을 분석하는 기능을 한다. 구체적으로, 파싱부(110)는 카메라(10)로부터 촬영된 감시영상의 배경 모델링을 통해 감시영상에서 배경을 검출 및 갱신하고, 배경과 현재 프레임의 비교를 통해 감시영상에서의 객체를 검출하며, 객체에 대한 컬러 히스토그램과 텍스처 정보의 추출 및 결합을 통해 특징값을 추출하는 기능을 한다. 이를 위해, 파싱부(110)는 도 1에 도시된 바와 같이, 배경 모델링 모듈(111), 객체 검출 모듈(112) 및 특징 추출 모듈(113)을 포함하여 구성될 수 있다. 또한, 여기서 카메라(10)는 CCTV와 같은 카메라를 포함할 수 있다.The parsing unit 110 receives the surveillance image photographed from the camera 10 and analyzes the received surveillance image. Specifically, the parsing unit 110 detects and updates the background in the supervised image through background modeling of the surveillance image photographed from the camera 10, detects the object in the surveillance image by comparing the background and the current frame, Extracts feature values by extracting and combining color histogram and texture information for an object. The parsing unit 110 may include a background modeling module 111, an object detection module 112, and a feature extraction module 113, as shown in FIG. Also, the camera 10 may include a camera such as a CCTV.

배경 모델링 모듈(111)은 카메라(10)로부터 촬영된 감시영상을 수신한다. 그 후, 배경 모델링 모듈(111)은 배경 모델링을 통해 감시영상에서 배경을 검출 및 갱신한다. 앞서 언급한 바와 같이, 감시영상은 별도의 편집 과정을 거치지 않은 비디오 스트림 데이터이다. 이러한 감시영상은 앞서 언급된 것처럼 시작과 끝의 경계를 구분할 수 있는 샷으로 구성되어 있지 않다. 즉, 감시영상에서 영상을 분할하고, 배경과 객체를 구분하기 위해서는 먼저, 카메라(10)로부터 촬영된 감시영상에서 먼저 배경을 검출하는 과정이 필요하다. 이를 위해, 배경 모델링 모듈(111)은 지속적으로 변화하는 배경을 검출하고, 동적으로 갱신하여 항상 최신의 배경을 제공하는 기능을 한다.The background modeling module 111 receives the surveillance image photographed from the camera 10. Thereafter, the background modeling module 111 detects and updates the background in the supervised image through background modeling. As mentioned above, the surveillance video is video stream data that has not undergone a separate editing process. These surveillance images are not composed of shots which can distinguish the boundary between the beginning and the end as mentioned above. That is, in order to divide an image into a supervised image and distinguish the background and the object, a process of first detecting the background in the surveillance image photographed from the camera 10 is required. To this end, the background modeling module 111 detects a continuously changing background and dynamically updates it to provide an always-up-to-date background.

객체 검출 모듈(112)은 배경 모델링 모듈(111)로부터 전달받은 배경 이미지와 현재의 영상 프레임의 차영상을 이용하여 객체를 검출하는 기능을 한다. 이러한 기능을 통해 객체 검출 모듈(112)은 현재 프레임에 대한 객체의 수 및 객체의 분포와 같은 검출 정보를 산출할 수 있다. 이러한 객체의 수 및 객체의 분포는 이하에서 후술되는 객체 분석 모듈(121)에서 이용된다.The object detection module 112 detects an object using the difference image between the background image received from the background modeling module 111 and the current image frame. Through this function, the object detection module 112 can calculate detection information such as the number of objects for the current frame and the distribution of objects. The number of such objects and the distribution of the objects are used in the object analysis module 121 described below.

특징 추출 모듈(113)은 카메라(10)로부터 연속적으로 입력되는 영상의 유사도를 계산하기 위해 현재 입력된 영상 프레임의 특징값을 추출한다. 구체적으로, 특징 추출 모듈(113)은 객체 검출 모듈(112)에서 검출된 객체에 대한 특징값을 추출하는 기능을 한다. 여기서, 객체에 대한 특징값 추출은 컬러 공간에 대한 히스토그램과 텍스처 정보를 통해 이루어질 수 있다. 이에 대한 예시는 도 2에 도시되어 있다. 즉, 특징 추출 모듈(113)은 검출된 객체들에 대해서 도 2와 같이 텍스처 정보(21)와 컬러 히스토그램(22)을 추출하고 이를 결합함으로써 특징 값으로 정의한다. 또한, 여기서 컬러 히스토그램과 텍스처 히스토그램은 특별히 정의하지 않으며, 컬러 히스토그램의 경우는 RGB(Red Green Blue), HSV(Hue Saturation Value) 등 다양한 컬러 모델에서의 히스토그램을 사용할 수 있다. 텍스처 히스토그램의 경우도, LBP(Local Binary Patterns), HoG(Histograms of Oriented Gradients) 및 엣지 히스토그램 등 텍스처를 표현할 수 있는 히스토그램 중의 하나를 사용할 수 있다. 특징 값으로 추출된 히스토그램은 검출된 객체의 크기에 따라 히스토그램의 스케일이 달라질 수 있기에 [0,1] 크기를 갖도록 정규화를 수행한다. 히스토그램(23)은 텍스처 히스토그램(21)과 컬러 히스토그램(22)의 히스토그램 통합 및 정규화를 거친 것을 나타낸다.The feature extraction module 113 extracts the feature value of the currently input image frame to calculate the similarity of the image continuously input from the camera 10. [ Specifically, the feature extraction module 113 extracts a feature value of the object detected by the object detection module 112. Here, the feature value extraction for the object can be performed through the histogram and the texture information for the color space. An example of this is shown in FIG. That is, the feature extraction module 113 extracts the texture information 21 and the color histogram 22 from the detected objects as shown in FIG. 2, and combines them to define the feature values. Here, the color histogram and the texture histogram are not specifically defined, and in the case of the color histogram, histograms in various color models such as RGB (Red Green Blue) and HSV (Hue Saturation Value) can be used. For texture histograms, you can use one of the histograms to represent the texture, such as Local Binary Patterns (LBP), Histograms of Oriented Gradients (HoG), and Edge Histograms. The histogram extracted as the feature value is normalized so that the scale of the histogram may vary according to the size of the detected object, so that the histogram has a size of [0, 1]. The histogram 23 indicates histogram integration and normalization of the texture histogram 21 and the color histogram 22.

분할부(120)는 이전 프레임에서 검출된 객체 및 특징값과, 현재 프레임에서 검출된 객체 및 특징값을 각각 비교하여 객체 유사도 및 특징 유사도를 산출하고, 객체 유사도 및 특징 유사도를 근거로 감시영상을 분할하는 기능을 한다. 이를 위해, 분할부(120)는 객체 분석 모듈(121), 특징 비교 모듈(122) 및 영상 분할 모듈(123)을 포함하여 구성될 수 있다.The partitioning unit 120 calculates object similarity and feature similarity by comparing the object and feature value detected in the previous frame with the object and feature value detected in the current frame, Function. The division unit 120 may include an object analysis module 121, a feature comparison module 122, and an image segmentation module 123.

객체 분석 모듈(121)은 이전 프레임에서 검출된 객체와 현재 프레임에서 검출된 객체를 비교하여 객체 유사도(SimOBJ)를 산출하는 기능을 한다. 이를 위해 객체 분석 모듈(121)은 객체 검출 모듈(112)에서 검출된 이전 프레임과 현재 프레임의 객체 정보 즉, 객체의 수 및 분포의 비교를 통해 객체 유사도(SimOBJ)를 산출한다. 이러한 객체 유사도(SimOBJ)에 대한 수식은 다음과 같다.The object analysis module 121 calculates the object similarity (Sim OBJ ) by comparing the object detected in the previous frame with the object detected in the current frame. For this, the object analysis module 121 calculates the object similarity (Sim OBJ ) by comparing the object information of the previous frame and the current frame detected by the object detection module 112, that is, the number and distribution of objects. The formula for this object similarity (Sim OBJ ) is as follows.

Figure pat00001
Figure pat00001

수학식 1에서, NOi는 i번째 프레임에서의 객체의 개수를 나타내고, NOi - 1는 i-1번째 프레임 즉 이전 프레임에서의 객체의 개수를 나타낸다. 즉, exp(|NOi -1 - NOi|)는 현재 프레임과 이전 프레임의 객체의 개수의 차가 유사도의 산출에 이용되는 것을 나타낸다. 또한, dist(a, b)는 객체 a와 b의 거리를 의미한다. 이러한 거리 함수는 예를 들어, 해밍턴 거리, 맨하탄 거리 및 유크리디안 거리와 같은 다양한 거리 함수를 통해 이루어질 수 있다. 여기서, k와 l은 i 번째 포함되어 있는 객체를 구분하기 위한 변수를 나타낸다. 즉, 수학식 1에서, Oi,k는 i번째 프레임에서 k번째 객체를 의미하고, Oi -1,l는 i-1번째 프레임(즉, 이전 프레임)에서 l번째 객체를 의미한다. 즉, 객체 유사도는 현재 프레임에 존재하는 각 객체들 마다, 이전 프레임의 모든 객체와의 거리 중 가장 가까운 거리의 합에 이전 객체수의 차이의 지수함수를 가중치로 더한 값으로 정의한다.In Equation 1, NO i denotes the number of objects in the i-th frame, NO i - 1 is the number of objects in the i-1-th frame that is the previous frame. That is, exp (| NO i -1 - NO i |) indicates that the difference between the number of objects in the current frame and the number of objects in the previous frame is used to calculate the degree of similarity. Dist (a, b) denotes distances between objects a and b. This distance function can be achieved through various distance functions such as, for example, Hamming distance, Manhattan distance and Euclidean distance. Here, k and l denote variables for distinguishing the i-th included object. That is, in Equation (1), O i, k denotes the kth object in the i-th frame, and O i -1, l denotes the l-th object in the i-1 th frame (i.e., the previous frame). That is, for each object existing in the current frame, the object similarity degree is defined as a value obtained by adding the exponential function of the difference in the number of previous objects to the sum of distances to all objects in the previous frame plus weight.

특징 비교 모듈(122)은 특징 추출 모듈(113)에서 추출된, 이전 프레임의 특징값과 현재 프레임의 특징값의 특징 유사도(SimFeature)를 계산한다. 특징 비교 모듈(122)에서 특징 유사도(SimFeature)를 계산하는 유사도 함수는 코사인 유사도, 히스토그램 인터섹션 등 다양한 유사도 함수 중 하나를 사용하여 구현할 수 있다. 이러한 유사도 함수를 이용하여, 이전 프레임에서 검출된 객체와 현재 프레임에서 검출된 객체의 특징값들에 대한 특징 유사도를 산출한다.The feature comparison module 122 calculates the feature similarity (Sim Feature ) between the feature value of the previous frame extracted by the feature extraction module 113 and the feature value of the current frame. Feature comparison module similarity function to calculate the feature similarity (Sim Feature) in 122 may be implemented using any one of a number of functions such as cosine similarity degree of similarity, the histogram intersection. Using this similarity function, the feature similarity between the object detected in the previous frame and the feature values of the object detected in the current frame is calculated.

영상 분할 모듈(123)은 객체 분석 모듈(121)에서 계산한 객체 유사도와 특징 비교 모듈(122)에서 계산한 특징 유사도의 합을 이용하여, 하기 수학식 2와 같이 이들의 합이 특정 임계 값 이하인 경우 영상을 분할한다. The image segmentation module 123 calculates the sum of feature similarities calculated by the feature comparison module 122 and the object similarity calculated by the object analysis module 121 so that the sum of the similarities is equal to or smaller than a specific threshold If the image is divided.

Figure pat00002
Figure pat00002

즉, 본 발명에서는 감시영상에서 관심의 대상이 되는 움직이는 객체(즉, 사람 및 자동차 등)의 변화 및 프레임간의 시각적 유사도를 기준으로 동영상을 분할한다. 이를 통해, 예를 들어 프레임의 변화 시, 객체의 수가 변하거나 분포에 변동이 발생할 때, 즉 관심 대상에 대한 변동이 생겼을 때 영상 분할이 수행될 수 있다. That is, in the present invention, a moving image is divided based on a change in a moving object (that is, a person and an automobile) that is an object of interest in a supervised image and a visual similarity between frames. This allows image segmentation to be performed, for example, when a frame change occurs, when the number of objects changes or when a change occurs in the distribution, that is, when a change occurs to the object of interest.

색인부(130)는 분할된 영상의 프레임을 색인하고, 색인 정보를 저장부(140)에 저장하는 기능을 한다. 즉, 색인부(130)은 분할부(120)에서 분할된 영상의 프레임의 인덱스를 넘겨 받아 실제 데이터베이스 즉 저장부(140)에 영상을 색인 하는 기능을 수행한다. 이를 위해, 색인부(130)는 DB 관리 모듈(131) 및 동영상 관리 모듈(132)로 구성된다. DB 관리 모듈(131)은 분할 정보를 이용하여 색인될 영상 클립의 인덱스를 저장부(140)에 저장 관리하는 기능을 담당한다. 또한, 동영상 관리 모듈(132)은 색인된 영상 클립의 인덱스와 실제 저장된 동영상의 동기화를 수행한다. The index unit 130 indexes the frames of the divided images and stores the index information in the storage unit 140. That is, the index unit 130 receives the index of the frame of the divided image in the divided unit 120, and indexes the image to the actual database, that is, the storage unit 140. To this end, the index unit 130 includes a DB management module 131 and a motion picture management module 132. The DB management module 131 is responsible for storing and managing indexes of image clips to be indexed in the storage unit 140 using the division information. In addition, the moving image management module 132 performs synchronization between the index of the indexed image clip and the actually stored moving image.

이하, 도 3을 참조로, 본 발명의 일 실시예에 따른 감시영상 분할 방법을 서술한다. 도 3은 본 발명의 일 실시예에 따른 감시영상 분할 방법에 대한 흐름도이다. 이하의 서술에서 앞서 도 1 및 도 2를 참조로 언급한 사항과 중복되는 사항은 명세서의 명료함을 위해 생략된다.Hereinafter, referring to FIG. 3, a supervisory image segmentation method according to an embodiment of the present invention will be described. 3 is a flowchart illustrating a method of dividing a supervised image according to an exemplary embodiment of the present invention. In the following description, items overlapping with those mentioned above with reference to Figs. 1 and 2 are omitted for clarity of description.

먼저, 파싱부에 의해, 카메라로부터 감시영상을 수신하는 단계(S310)가 수행된다. First, a step S310 of receiving a surveillance image from the camera is performed by the parsing unit.

그 후, 파싱부에 의해, S310 단계에서 수신한 감시영상에서 배경 모델링을 통해 배경을 검출하고 갱신하는 단계(S320)가 수행된다. 앞서 언급한 것처럼, 감시영상에서 영상 분할을 위해서는 배경과 객체를 구분하는 과정이 필요하다. 이를 위해, S320 단계가 수행된다. Thereafter, a step S320 of detecting and updating the background through background modeling is performed by the parsing unit in the monitoring image received in step S310. As mentioned earlier, for image segmentation in surveillance video, a process of distinguishing between background and object is needed. For this, step S320 is performed.

그 후, 파싱부에 의해, S320 단계에서 전달 받은 배경과 현재의 영상 프레임의 차영상을 이용하여 객체를 검출하는 단계(S330)가 수행된다. 또한, S330 단계에서는 객체의 검출과 동시에, 현재 프레임에 대한 객체의 수 및 객체의 분포와 같은 검출 정보를 산출할 수 있다.Thereafter, in step S330, an object is detected using the difference between the background image received in step S320 and the current image frame by the parser (step S330). In addition, in step S330, detection information such as the number of objects for the current frame and the distribution of the object can be calculated simultaneously with the detection of the object.

그 후, 파싱부에 의해, S330 단계에서 검출된 객체에 대한 특징값을 추출하는 단계(S340)가 수행된다. 구체적으로, S340 단계에서 수행되는 특징값에 대한 추출은 컬러 공간에 대한 히스토그램과 텍스처 정보를 통해 이루어질 수 있다. 이에 대한 서술은 도 1 및 도 2를 참조로 언급되었으므로, 여기서 자세한 설명은 생략된다. 또한, 여기서 컬러 히스토그램은 RGB 및 HSV와 같은 다양한 다양한 컬러 모델에서의 히스토그램을 사용할 수 있다. 또한, 텍스처 히스토그램은 LBP, HoG 및 엣지 히스토그램과 같은 텍스처를 표현할 수 있는 히스토그램 등을 이용할 수 있다. 여기서 히스토그램에 대한 종류는 언급한 것들로 제한되지 않고, 이전에 개발된 또는 차후에 개발될 다양한 방식으로 이용될 수 있다는 것이 이해되어야 한다.Thereafter, in step S340, a feature value for the object detected in step S330 is extracted by the parsing unit. Specifically, extraction of the feature values performed in step S340 may be performed through the histogram and texture information on the color space. The description thereof has been given with reference to Figs. 1 and 2, and a detailed description thereof is omitted here. Also, the color histogram can use histograms in various color models such as RGB and HSV. In addition, texture histograms can use histograms to represent textures such as LBP, HoG, and edge histograms. It should be understood that the types of histograms herein are not limited to those mentioned and may be used in various ways that have been previously developed or will be developed in the future.

그 후, 분할부에 의해, 이전 프레임에서 검출된 객체 및 특징값과, 현재 프레임에서 검출된 객체 및 특징값의 비교를 통해 유사도를 산출하는 단계(S350)가 수행된다. 구체적으로, S350 단계는 이전 프레임과 현재 프레임에서 검출된 객체 정보 즉, 객체의 수 및 분포의 비교를 통해 객체 유사도를 산출하고, 이전 프레임과 현재 프레임의 객체에 대한 특징값들의 비교를 통해 특징 유사도를 산출하는 기능을 한다. 이들 유사도의 산출 과정은 앞서 도 1 및 도 2를 참조로 언급되었으므로, 명세서의 명료함을 위해 여기선 생략된다.Thereafter, the similarity is calculated (S350) by comparing the object and the feature value detected in the previous frame with the object and feature value detected in the current frame by the partitioning unit. Specifically, in step S350, the object similarity is calculated by comparing the object information detected in the previous frame and the current frame, that is, the number and distribution of objects, and the feature similarity is calculated by comparing the feature values of the objects of the previous frame and the current frame. . Since the process of calculating these similarities has been mentioned above with reference to FIGS. 1 and 2, it is omitted here for the sake of clarity.

S360 단계는 분할부에 의해, S350 단계에서 산출된 유사도를 근거로, 감시영상을 분할하는 기능을 한다. 즉, S360 단계는 S350 단계에서 산출된 객체 유사도와 특징 유사도의 합을 이용하여, 이 합이 특정 임계 값 이하인 경우 영상을 분할하는 기능을 한다. In step S360, the dividing unit divides the supervised image based on the degree of similarity calculated in step S350. That is, in step S360, the sum of the object similarity and feature similarity calculated in step S350 is used, and when the sum is less than or equal to a specific threshold value, the image is divided.

S370 단계는 색인부에 의해, 분할된 영상의 프레임을 색인하는 단계이다. S370 단계에서 이루어진 색인에 대한 정보는 S380 단계에서 저장부에 저장될 수 있다.
Step S370 is a step of indexing the frame of the divided image by the index unit. The information on the index made in step S370 may be stored in the storage unit in step S380.

이하 도 4를 참조로, 본 발명의 감시영상 분할 장치의 분할부의 특징 비교 모듈에서 특징 유사도를 산출하는 과정을 서술한다. 도 4는 본 발명의 감시영상 분할 장치의 분할부의 특징 비교 모듈에서 특징값 비교를 수행하는 과정에 대한 흐름도이다. 이하의 서술에서 변수는 1부터 n개까지인 것으로 가정된다.Referring to FIG. 4, description will be made of the process of calculating feature similarity in the feature comparison module of the divided part of the supervisory image segmentation apparatus of the present invention. 4 is a flowchart illustrating a process of comparing feature values in a feature comparison module of a divided portion of the supervisory image segmentation apparatus according to the present invention. In the following description, the variable is assumed to be 1 to n.

먼저, 현재 프레임에서 객체의 구분을 나타내는 변수 k가 현재 프레임에 포함된 객체의 수(NOi)를 초과하는지 판단하는 단계(S410)가 수행된다. S410 단계의 판단 결과, 변수 k가 현재 프레임에 포함된 객체의 수(NOi)를 초과한다고 판단되면 제어는 S430 단계로 전달된다. 그렇지 않다면 제어는 S420 단계로 전달된다.First, a step S410 is performed to determine whether a variable k indicating the division of an object in the current frame exceeds the number (NO i ) of objects included in the current frame. If it is determined in step S410 that the variable k exceeds the number of objects NO i included in the current frame, the control is transferred to step S430. Otherwise, control is passed to step S420.

그 후, S430 단계에서, 특징 유사도에 대한 최대값을 나타내는 변수 Max를 초기화 시키고, i-1번째 프레임 즉 이전 프레임에서 객체의 구분을 나타내는 변수 l이 이전 프레임에 포함된 객체의 수(NOi -1)를 초과하는지 판단하는 단계(S440)가 수행된다. S440 단계의 판단 결과, 변수 l이 이전 프레임에 포함된 객체의 수(NOi -1)를 초과한다고 판단되면 제어는 S450 단계로 전달된다. 그렇지 않다면 제어는 S480 단계로 전달된다.Then, at S430 step, initialize variables Max indicates the maximum value of the characteristic similarity and the variable l indicating the classification of objects in the i-1-th frame that is the previous frame is the number of objects contained in the preceding frame (NO i - 1 ) (S440) is performed. If it is determined in step S440 that the variable l exceeds the number of objects included in the previous frame (NO i -1 ), control is passed to step S450. Otherwise, control passes to step S480.

그 후, 현재 프레임에 대한 객체의 특징값과, 이전 프레임에 대한 객체의 특징값을 이용하여, 임시 유사도(SimF)를 산출하는 단계(S450)가 수행된다. 여기서 임시 유사도는 현재 프레임의 k번째 객체와 이전 프레임의 l번째 객체의 히스토그램에 대한 유사도 계산을 통해 산출되는 값으로서, 동일한 객체의 확인을 위해 유사도가 가장 높은 값을 찾기 위한 변수다. S450 단계에서 임시 유사도(SimF)의 산출에 이용되는 유사도 함수(Sim(a, b))는 앞서 언급한 것처럼, 코사인 유사도, 히스토그램 인터섹션 등 다양한 유사도 함수 중 하나를 사용하여 구현할 수 있다. 또한 S450 단계에서 언급된 변수 Oi ,k는 i번째 프레임 즉, 현재 프레임에서 k번째 객체의 히스토그램를 나타내고, Oi -1,l는 i-1번째 프레임, 즉 이전 프레임에서 l번째 객체의 히스토그램을 나타낸다. Then, a temporary similarity (Sim F ) is calculated (S450) by using the feature value of the object for the current frame and the feature value of the object for the previous frame. The temporal similarity is a value calculated by calculating the similarity to the histogram of the kth object of the current frame and the lth object of the previous frame, and is a variable for finding the highest similarity value for identifying the same object. As described above, the similarity function Sim (a, b) used in the calculation of the temporal similarity Sim F in step S450 can be implemented by using one of various similarity functions such as the cosine similarity and the histogram intersection. The variable O i , k mentioned in step S450 represents the histogram of the i-th frame, that is, the k-th object in the current frame, and O i -1 and l denote the histogram of the i-1 th frame, .

그 후, 임시 유사도(SimF)와 Max 값을 비교하여, 임시 유사도(SimF)가 Max 값 이상인지 판단하는 단계(S460)가 수행된다. S460 단계에서의 판단 결과, 임시 유사도(SimF)가 Max 값 이상이라고 판단되면 제어는 S470 단계로 전달되어, Max 값을 S450 단계에서 산출된 임시 유사도(SimF) 값으로 설정한다. 그렇지 않다면 제어는 S440 단계로 전달된다. Thereafter, the temporary similarity (Sim F ) is compared with the Max value to determine whether the temporary similarity (Sim F ) is equal to or greater than the Max value (S460). As a result of the determination in step S460, if it is determined that the temporal similarity Sim F is equal to or greater than the maximum value, control is passed to step S470, and the maximum value is set to the temporal similarity Sim F calculated in step S450. Otherwise, control is passed to step S440.

S480 단계는 특징 유사도(SimFeature)를 설정하는 단계이다. 즉, 앞서 S450 단계에서 산출된 모든 객체 들에 대한 임시 유사도(SimF)는 현재 프레임의 각 객체에 대해서 이전 프레임의 모든 객체들과 특징값에 대한 유사도를 계산한 후 가장 유사도가 높은 값을 현재 프레임의 객체의 유사도 값으로 설정하고 모든 객체들에 대한 유사도 값의 합을 두 프레임간의 특징 유사도로 정의한다. 이러한 과정이 완료되면 제어는 S410 단계로 전달된다.Step S480 is a step of setting a feature similarity (Sim Feature ). That is, the temporal similarity (Sim F ) for all the objects calculated in step S450 is calculated by calculating the similarity of all the objects of the previous frame and the feature values for each object of the current frame, And the similarity value of all objects is defined as similarity degree of feature between two frames. When this process is completed, control is passed to step S410.

S420 단계는 현재 프레임에서 객체의 구분을 나타내는 변수 k가 현재 프레임에 포함된 객체의 수(NOi)를 초과할 때 수행되는 단계로서, 산출된 특징 유사도(SimFeature)를 리턴시키는 단계이다. S420 단계 이후, 제어는 종료 블록으로 전달된다.
Step S420 is a step performed when the variable k representing the classification of the object in the current frame exceeds the number (NO i ) of objects included in the current frame, and returning the calculated feature similarity (Sim Feature ). After step S420, control is transferred to the end block.

본 발명에 따른 감시 영상 분할 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 모든 형태의 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.  이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The monitoring image segmentation apparatus and method according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Includes all types of hardware devices that are specially configured to store and execute magneto-optical media and program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

본 발명의 원리들의 교시들은 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다. 또한, 소프트웨어는 프로그램 저장부 상에서 실재로 구현되는 응용 프로그램으로서 구현될 수 있다. 응용 프로그램은 임의의 적절한 아키텍쳐를 포함하는 머신에 업로드되고 머신에 의해 실행될 수 있다. 바람직하게는, 머신은 하나 이상의 중앙 처리 장치들(CPU), 컴퓨터 프로세서, 랜덤 액세스 메모리(RAM), 및 입/출력(I/O) 인터페이스들과 같은 하드웨어를 갖는 컴퓨터 플랫폼 상에 구현될 수 있다. 또한, 컴퓨터 플랫폼은 운영 체제 및 마이크로 명령 코드를 포함할 수 있다. 여기서 설명된 다양한 프로세스들 및 기능들은 마이크로 명령 코드의 일부 또는 응용 프로그램의 일부, 또는 이들의 임의의 조합일 수 있고, 이들은 CPU를 포함하는 다양한 처리 장치에 의해 실행될 수 있다. 추가로, 추가 데이터 저장부 및 프린터와 같은 다양한 다른 주변 장치들이 컴퓨터 플랫폼에 접속될 수 있다.The teachings of the principles of the present invention may be implemented as a combination of hardware and software. In addition, the software can be implemented as an application program that is actually implemented on the program storage unit. The application program can be uploaded to and executed by a machine that includes any suitable architecture. Advantageously, the machine may be implemented on a computer platform having hardware such as one or more central processing units (CPUs), a computer processor, a random access memory (RAM), and input / output (I / . In addition, the computer platform may include an operating system and microinstruction code. The various processes and functions described herein may be part of microcommand codes or a portion of an application program, or any combination thereof, and they may be executed by various processing devices including a CPU. In addition, various other peripheral devices such as additional data storage and printers may be connected to the computer platform.

첨부 도면들에서 도시된 구성 시스템 컴포넌트들 및 방법들의 일부가 바람직하게는 소프트웨어로 구현되므로, 시스템 컴포넌트들 또는 프로세스 기능 블록들 사이의 실제 접속들은 본 발명의 원리들이 프로그래밍되는 방식에 따라 달라질 수 있다는 점이 추가로 이해되어야 한다. 여기서의 교시들이 주어지면, 관련 기술분야의 당업자는 본 발명의 원리들의 이들 및 유사한 구현예들 또는 구성들을 참작할 수 있을 것이다.It is to be understood that the actual connections between system components or process functional blocks may vary depending on how the principles of the present invention are programmed, as some of the constituent system components and methods illustrated in the accompanying drawings are preferably implemented in software It should be further understood. Given the teachings herein, those skilled in the relevant art (s) will be able to contemplate these and similar implementations or configurations of the principles of the invention.

100 : 감시 영상 분할 장치 110 : 파싱부
120 : 분할부 130 : 색인부
100: monitoring image dividing device 110: parsing unit
120: division part 130: index part

Claims (1)

카메라로부터 촬영된 감시영상의 배경 모델링을 통해 상기 감시영상에서 배경을 검출 및 갱신하고, 상기 배경과 현재 프레임의 비교를 통해 상기 감시영상에서의 객체를 검출하며, 상기 객체에 대한 컬러 히스토그램과 텍스처 정보의 추출 및 결합을 통해 특징값을 추출하는 파싱부;
상기 파싱부에서 추출된 이전 프레임의 객체 및 특징값과 현재 프레임의 객체 및 특징값을 각각 비교하여 객체 유사도 및 특징 유사도를 산출하고, 상기 객체 유사도 및 특징 유사도를 근거로 상기 감시영상을 분할하는 분할부; 및
분할된 영상의 프레임을 색인하고, 색인 정보를 저장부에 저장하는 색인부를 포함하는 것을 특징으로 하는, 감시 영상 분할 장치.
Detecting and updating a background in the surveillance image through background modeling of a surveillance image photographed from a camera, detecting an object in the surveillance image by comparing the background and a current frame, and generating a color histogram and texture information A parsing unit for extracting feature values by extracting and combining the extracted feature values;
The object similarities and feature similarities are calculated by comparing the object and feature values of the previous frame extracted by the parser with the object and feature values of the current frame, Installment; And
And an index unit for indexing frames of the divided images and storing the index information in a storage unit.
KR1020130137395A 2013-11-13 2013-11-13 Survellance video division apparatus and method for comprising indexing function KR20150055269A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130137395A KR20150055269A (en) 2013-11-13 2013-11-13 Survellance video division apparatus and method for comprising indexing function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130137395A KR20150055269A (en) 2013-11-13 2013-11-13 Survellance video division apparatus and method for comprising indexing function

Publications (1)

Publication Number Publication Date
KR20150055269A true KR20150055269A (en) 2015-05-21

Family

ID=53390903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130137395A KR20150055269A (en) 2013-11-13 2013-11-13 Survellance video division apparatus and method for comprising indexing function

Country Status (1)

Country Link
KR (1) KR20150055269A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210031284A (en) * 2019-09-11 2021-03-19 주식회사 라온버드 Cctv security system and method based on artificial intelligence

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210031284A (en) * 2019-09-11 2021-03-19 주식회사 라온버드 Cctv security system and method based on artificial intelligence

Similar Documents

Publication Publication Date Title
KR101972918B1 (en) Apparatus and method for masking a video
US10212397B2 (en) Abandoned object detection apparatus and method and system
US9842269B2 (en) Video processing apparatus, video processing method, and recording medium
Singh et al. Visual big data analytics for traffic monitoring in smart city
KR101764845B1 (en) A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof
US20060067562A1 (en) Detection of moving objects in a video
Wang et al. An effective method for plate number recognition
CN108694399B (en) License plate recognition method, device and system
US10353954B2 (en) Information processing apparatus, method of controlling the same, and storage medium
US10970823B2 (en) System and method for detecting motion anomalies in video
KR20200077370A (en) Apparatus and method for masking a video
CN110852269A (en) Cross-lens portrait correlation analysis method and device based on feature clustering
US20150235105A1 (en) Apparatus and method for rapidly detecting object of interest
CN109872541A (en) A kind of information of vehicles analysis method and device
CN112507860A (en) Video annotation method, device, equipment and storage medium
CN106529388A (en) Information processing device and control method thereof
Di Benedetto et al. An embedded toolset for human activity monitoring in critical environments
Liu et al. A novel video forgery detection algorithm for blue screen compositing based on 3-stage foreground analysis and tracking
KR101492059B1 (en) Real Time Object Tracking Method and System using the Mean-shift Algorithm
Ghasemi et al. A real-time multiple vehicle classification and tracking system with occlusion handling
KR102096784B1 (en) Positioning system and the method thereof using similarity-analysis of image
WO2022228325A1 (en) Behavior detection method, electronic device, and computer readable storage medium
KR20150055269A (en) Survellance video division apparatus and method for comprising indexing function
CN111597980B (en) Target object clustering method and device
Boufama et al. Tracking multiple people in the context of video surveillance

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid